JP4836084B2 - Program production system and production program - Google Patents

Program production system and production program Download PDF

Info

Publication number
JP4836084B2
JP4836084B2 JP2007141374A JP2007141374A JP4836084B2 JP 4836084 B2 JP4836084 B2 JP 4836084B2 JP 2007141374 A JP2007141374 A JP 2007141374A JP 2007141374 A JP2007141374 A JP 2007141374A JP 4836084 B2 JP4836084 B2 JP 4836084B2
Authority
JP
Japan
Prior art keywords
program
narrator
narration
storage unit
association
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2007141374A
Other languages
Japanese (ja)
Other versions
JP2008300912A (en
Inventor
徹 橋本
裕 渡辺
Original Assignee
太陽ラジオ株式会社
裕 渡辺
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 太陽ラジオ株式会社, 裕 渡辺 filed Critical 太陽ラジオ株式会社
Priority to JP2007141374A priority Critical patent/JP4836084B2/en
Publication of JP2008300912A publication Critical patent/JP2008300912A/en
Application granted granted Critical
Publication of JP4836084B2 publication Critical patent/JP4836084B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

本発明は、番組制作システムと制作プログラムに関するものであり、特に、番組を構成するナレータのナレーションを音声分析し、その結果に基づいて番組に使用される音楽などのコンテンツを選択可能にしたものである。   The present invention relates to a program production system and a production program. In particular, the present invention analyzes a narration of a narrator composing a program and makes it possible to select contents such as music used for the program based on the result. is there.

近年、情報処理技術の進展や通信回線の高速化などを背景に、インターネットなどの通信ネットワークを通じたデジタルコンテンツの流通が盛んであり、流通させるデジタルコンテンツの制作技術に関して様々な提案がされている。   In recent years, digital contents have been distributed through communication networks such as the Internet against the background of progress in information processing technology and communication line speedup, and various proposals have been made regarding production techniques for digital contents to be distributed.

たとえば、特許文献1,2では、番組タイトル、放送日、放送内容などの番組の内容をもとに、番組を構成する動画や音声などのコンテンツを検索・収集して番組を制作する技術が提案されている。   For example, Patent Documents 1 and 2 propose a technique for producing a program by searching and collecting contents such as video and audio that make up a program based on the contents of the program such as program title, broadcast date, and broadcast content. Has been.

しかしながら、番組、特に、ナレータによるナレーション(語り)と音楽などのコンテンツから構成される番組を制作するときは、ナレーションとコンテンツとの調和が重要になる。すなわち、たとえば、番組制作時のナレータの気分が高揚していてナレーションがアップテンポなのに対して、番組に使われる音楽がスローテンポだと、番組全体としての統一感がなく、番組の視聴者に対して不快感を与える結果ともなる。
また、同じナレータであっても、ナレーションを語っているときの気分や感情によって、ナレーションから番組の視聴者が受ける印象は異なることもある。したがって、同じナレータであっても、ナレーションを語っているときの気分などを、番組に使用するコンテンツの選択に反映させることが望ましい。
However, when producing a program, particularly a program composed of content such as narration (narration) by narrator and music, harmony between narration and content becomes important. In other words, for example, if the narration is uplifting and the narration is up-tempo at the time of program production, but the music used in the program is slow tempo, there is no unity as a whole program, Can also be uncomfortable.
Moreover, even if the narrator is the same, the viewer's impression of the program may differ from the narration depending on the mood and emotion when talking about the narration. Therefore, it is desirable to reflect the feeling when talking about narration, etc., even in the same narrator in the selection of content used for the program.

このように、番組に使用するコンテンツを検索・収集して番組を制作するシステムにおいては、単に番組の内容に適しているだけで番組に使用するのではなく、ナレーション、あるいは、ナレーションを語っているナレータの気分や感情などと調和するコンテンツを使用する必要がある。
特開2004−328568号公報 特開2004−343557号公報
In this way, in a system that searches and collects content used for a program and produces the program, it is suitable for the content of the program and is not used for the program, but narrates or talks about the narration. It is necessary to use content that harmonizes with Narrator's mood and emotions.
JP 2004-328568 A JP 2004-343557 A

本発明は、以上のような従来技術の問題点を解消するためになされたもので、番組を構成するナレーションを語った時のナレータの気分や感情などを、番組に使用されるコンテンツの選択に反映した番組を制作することができる番組制作システムと制作プログラムを提供することを目的とする。   The present invention has been made to solve the above-described problems of the prior art, and the narrator's mood and emotion when talking about the narration that composes the program can be selected for selecting the content to be used in the program. An object is to provide a program production system and a production program capable of producing a reflected program.

本発明にかかる番組制作システムは、ナレーションと音楽とを含む番組を制作する装置であって、ナレータの基本音声データが記憶されている第1記憶部と、ナレータのナレーションが記憶されている第2記憶部と、2つの音声のそれぞれの音声成分の比較結果に対応するパターン識別子が関連付けて記憶されている第3記憶部と、音楽データとパターン識別子とが関連付けて記憶されている第4記憶部と、第1記憶部に記憶されている基本音声データと、第2記憶部に記憶されているナレーションのそれぞれの音声成分を比較し、比較結果に対応するパターン識別子を第3記憶部から読み出す音声分析部と、読み出したパターン識別子と関連付けて第4記憶部に記憶されている音楽データを選択するコンテンツ選択部と、選択された音楽データと、音声成分を比較されたナレーションとを、番組を特定する番組識別子と関連付けて記憶する番組情報記憶部と、を有してなることを特徴とする。   A program production system according to the present invention is a device for producing a program including narration and music, and includes a first storage unit storing basic voice data of a narrator and a second storage storing narration of the narrator. A storage unit, a third storage unit in which pattern identifiers corresponding to the comparison results of the respective audio components of the two sounds are stored in association with each other, and a fourth storage unit in which music data and pattern identifiers are stored in association with each other The basic voice data stored in the first storage unit and the voice components of the narration stored in the second storage unit, and the pattern identifier corresponding to the comparison result is read from the third storage unit. An analysis unit; a content selection unit that selects music data stored in the fourth storage unit in association with the read pattern identifier; And motor, characterized by comprising a narration compare speech component, comprises a program information storage unit that stores in association with the program identifier identifying the program, the.

また、本発明にかかる番組制作システムは、ナレータの端末と通信ネットワークを介して接続し、第4記憶部には、音楽データと関連付けてこの音楽データを特定する情報(以下、「コンテンツ識別子」という。)が記憶されていて、コンテンツ選択部は、音声分析部が読み出したパターン識別子と関連付けて第4記憶部に記憶されている複数の音楽データのそれぞれのコンテンツ識別子をナレータの端末に表示させ、この表示させた複数のコンテンツ識別子の中からナレータにより選択されたコンテンツ識別子をナレータの端末から受信し、この受信したコンテンツ識別子と関連付けて第4記憶部に記憶されている音楽データを選択する、ことを特徴とする。   Also, the program production system according to the present invention is connected to a terminal of a narrator via a communication network, and information (hereinafter referred to as “content identifier”) specifying the music data in association with the music data in the fourth storage unit. .) Is stored, and the content selection unit displays each content identifier of the plurality of music data stored in the fourth storage unit in association with the pattern identifier read by the voice analysis unit on the terminal of the narrator, Receiving a content identifier selected by the narrator from the displayed plurality of content identifiers from the terminal of the narrator, and selecting music data stored in the fourth storage unit in association with the received content identifier; It is characterized by.

また、本発明にかかる番組制作システムは、第2記憶部には、ナレータのナレーションと関連付けて、このナレータを特定するナレータ識別子が記憶されていて、ナレータ識別子と、パターン識別子と、コンテンツ識別子と、を関連付けて記憶している第5記憶部をさらに備え、コンテンツ選択部は、音声分析部が読み出したパターン識別子と関連付けて第4記憶部に記憶されている複数の音楽データのそれぞれのコンテンツ識別子のうち、「音声分析部が読み出したパターン識別子」と「音声分析部により比較されたナレーションと関連付けて第2記憶部に記憶されているナレータ識別子」のそれぞれと関連付けて第5記憶部に記憶されているコンテンツ識別子を優先的にナレータの端末に表示させる、ことを特徴とする。   Further, in the program production system according to the present invention, the second storage unit stores a narrator identifier for identifying the narrator in association with the narration of the narrator, and the narrator identifier, the pattern identifier, the content identifier, Is stored in association with the pattern identifier read by the voice analysis unit, and the content identifier of each of the plurality of music data stored in the fourth storage unit is stored in the fourth storage unit. Among them, the “pattern identifier read by the voice analysis unit” and the “narrator identifier stored in the second storage unit in association with the narration compared by the voice analysis unit” are stored in the fifth storage unit in association with each of them. The content identifier is preferentially displayed on the terminal of the narrator.

また、本発明にかかる番組制作システムは、提供者の端末と通信ネットワークを介して接続し、音楽の曲調ごとにパターン識別子を関連付けて記憶している第6記憶部と、音楽データを提供者の端末から受信し、この受信した音楽データを再生して曲調を判定し、この判定した曲調に対応するパターン識別子を第6記憶部から読み出し、この読み出したパターン識別子と受信した音楽データとを関連付けて第4記憶部に記憶する曲調判定手段と、をさらに備えたことを特徴とする。   In addition, the program production system according to the present invention is connected to a provider's terminal via a communication network, stores a pattern identifier associated with each musical tone, and stores music data of the provider. Receiving from the terminal, playing the received music data to determine the tune, reading the pattern identifier corresponding to the determined tune, from the sixth storage unit, associating the read pattern identifier with the received music data And a music tone determination unit stored in the fourth storage unit.

また、本発明にかかる番組制作システムは、リスナーの端末と通信ネットワークを介して接続し、番組情報記憶部に記憶されている番組識別子をリスナーの端末に表示させ、この表示させた番組識別子の中からリスナーにより選択された番組識別子と関連付けて番組情報記憶部に記憶されているナレーションと音楽データとをリスナーの端末に送信する番組配信部、をさらに備えたことを特徴とする。   The program production system according to the present invention is connected to a listener terminal via a communication network, displays a program identifier stored in the program information storage unit on the listener terminal, and displays the program identifier in the displayed program identifier. And a program distribution unit that transmits the narration and music data stored in the program information storage unit in association with the program identifier selected by the listener to the terminal of the listener.

さらに、本発明にかかる番組制作プログラムは、コンピュータを本発明にかかる番組制作システムとして機能させることを特徴とする。   Furthermore, the program production program according to the present invention causes a computer to function as the program production system according to the present invention.

本発明によれば、番組を構成するナレーションを語った時のナレータの気分や感情などを、番組に使用されるコンテンツの選択に反映した番組を製作することができる。   According to the present invention, it is possible to produce a program that reflects the narrator's feelings and emotions when talking about the narration that constitutes the program in the selection of content used in the program.

以下、図面を参照しながら、本発明にかかる番組制作システムと制作プログラムの実施の形態について説明する。   Hereinafter, embodiments of a program production system and a production program according to the present invention will be described with reference to the drawings.

ここで、本発明における番組は、複数の電子情報から構成されていて、電子情報の一部はナレータのナレーション(音声データ)である。また、番組を構成する電子情報のうち、ナレーション以外の電子情報をコンテンツと称する。
本発明における番組制作とは、番組を構成する複数の電子情報を決定して、各電子情報の再生方法(再生順序など)を決定することをいう。
Here, the program in the present invention is composed of a plurality of electronic information, and a part of the electronic information is narration (voice data) of a narrator. In addition, electronic information other than narration among electronic information constituting a program is referred to as content.
Program production in the present invention refers to determining a plurality of electronic information constituting a program and determining a reproduction method (reproduction order, etc.) of each electronic information.

なお、以下に説明する実施の形態は、ナレータが録音したナレーションと、提供者から提供された音楽とを含む番組を制作してリスナーに配信する場合を例に説明する。すなわち、ナレーションはナレータの音声データの例であり、音楽はコンテンツの例であり、リスナーは番組の視聴者の例である。
ここで、以下の説明では、ナレーションとして、ナレータが「録音」した音声データ(音のみ)を用いるが、これに代えて、ナレータが「録画」した映像に含まれる音声データを用いるようにしてもよい。同様に、音楽として、提供者から提供された音楽(音のみ)に代えて、提供者から提供された映像に含まれる音楽を用いるようにしてもよい。
In the embodiment described below, a case where a program including a narration recorded by a narrator and music provided by a provider is produced and distributed to a listener will be described as an example. That is, narration is an example of voice data of a narrator, music is an example of content, and a listener is an example of a viewer of a program.
Here, in the following description, the voice data (sound only) recorded by the narrator is used as the narration, but the voice data included in the video recorded by the narrator may be used instead. Good. Similarly, music included in the video provided by the provider may be used instead of music (sound only) provided by the provider.

図1は、本発明にかかる番組制作システムの実施の形態を示すブロック図である。番組制作システム(以下、「本システム」という。)10は、通信ネットワーク(図示省略)を介して端末1,2,3のそれぞれと接続している。   FIG. 1 is a block diagram showing an embodiment of a program production system according to the present invention. A program production system (hereinafter referred to as “the present system”) 10 is connected to each of the terminals 1, 2, and 3 via a communication network (not shown).

通信ネットワークの例としては、インターネットやLAN(Local Area Network)などのコンピュータ通信網がある。本システム10、端末1,2,3は、専用線、公衆交換電話網(PSTN)、無線電話網、CATV網、衛星通信網等の通信回線を介して通信ネットワークと接続している。   Examples of the communication network include a computer communication network such as the Internet or a LAN (Local Area Network). The system 10, terminals 1, 2, and 3 are connected to a communication network via communication lines such as a dedicated line, a public switched telephone network (PSTN), a wireless telephone network, a CATV network, and a satellite communication network.

本システム10は、後述する情報処理を実現する手段を備えた情報処理装置あるいは情報処理装置群から構成されている。すなわち、本システム10は、たとえば、1台のパーソナルコンピュータで実現してもよいし、あるいは、複数のパーソナルコンピュータに機能(手段)や情報(データベース)を分散させた上で実現するようにしてもよい。   The system 10 includes an information processing apparatus or a group of information processing apparatuses provided with means for realizing information processing to be described later. That is, the present system 10 may be realized by, for example, one personal computer, or may be realized by distributing functions (means) and information (database) to a plurality of personal computers. Good.

端末1,2,3は、それぞれ、ナレータ、リスナー、提供者が利用する情報処理装置であって、後述する本システム10との情報の送受信などの情報処理が可能な情報処理装置であればよく、たとえば、パーソナルコンピュータをはじめ、データ通信機能を有するPDA(Personal Digital Assistant)や携帯電話機などで実現される。   Each of the terminals 1, 2, and 3 is an information processing device used by a narrator, a listener, and a provider, and may be any information processing device that can perform information processing such as transmission / reception of information with the system 10 described later. For example, it is realized by a personal computer, a PDA (Personal Digital Assistant) having a data communication function, a mobile phone, or the like.

図2は、本システム10により制作される番組の例を示す模式図であり、番組にはナレータのナレーションと音楽とが含まれていることを示している。
図2(a)は、1つの番組が、ナレーション(1)、コンテンツ(1)、ナレーション(2)の3つの情報から構成されていて、これらの情報が順番に再生されることを示している。
図2(b)は、1つの番組が、コンテンツ(1)、ナレーション(1)、コンテンツ(2)、ナレーション(2)、コンテンツ(3)の5つの情報から構成されていることを示している。また、コンテンツ(1)の再生中にナレーション(1)の再生が開始されることを示している。すなわち、たとえば、番組の冒頭に音楽が流れ、その後、音楽をBGMにナレーションが始まることを示している。
FIG. 2 is a schematic diagram showing an example of a program produced by the system 10 and shows that the program includes narrator narration and music.
FIG. 2A shows that one program is composed of three pieces of information of narration (1), content (1), and narration (2), and these pieces of information are reproduced in order. .
FIG. 2B shows that one program is composed of five pieces of information: content (1), narration (1), content (2), narration (2), and content (3). . It also indicates that playback of narration (1) is started during playback of content (1). In other words, for example, music flows at the beginning of the program, and then narration is started from the music to BGM.

本システム10は、基本音声DB(データベース)1,ナレーションDB2,判定基準DB3,コンテンツDB4,履歴DB5,曲調DB6,番組DB7,ナレーション受信部11,音声分析部12,コンテンツ選択部13,番組配信部14,曲調判定部15,番組編集部16を有してなる。   The system 10 includes a basic voice DB (database) 1, a narration DB 2, a judgment reference DB 3, a content DB 4, a history DB 5, a music tone DB 6, a program DB 7, a narration reception unit 11, a voice analysis unit 12, a content selection unit 13, and a program distribution unit. 14, a music tone determination unit 15, and a program editing unit 16.

基本音声DB1には、ナレータの基本音声データが記憶されている。ナレータの基本音声データとは、番組の制作に先立ってナレータが録音した音声データである。
図3は、基本音声DB1に記憶されている情報の例を示す模式図であって、ナレータごとの基本音声データがナレータを特定するナレータ識別子(ID)と関連付けて記憶されていることを示している。
The basic voice DB 1 stores basic voice data of the narrator. Narrator basic audio data is audio data recorded by Narrator prior to the production of a program.
FIG. 3 is a schematic diagram showing an example of information stored in the basic voice DB 1 and shows that basic voice data for each narrator is stored in association with a narrator identifier (ID) that identifies the narrator. Yes.

ナレーション受信部11は、端末1からナレーションを受信してナレーションDB2に記憶する手段である。
図4は、ナレーションDB2に記憶されている情報の例を示す模式図であり、ナレーションが、ナレーションを特定するナレーションID,ナレータを特定するナレータID,ナレーションタイトルなどと関連付けて記憶されていることを示している。
The narration reception unit 11 is means for receiving narration from the terminal 1 and storing it in the narration DB 2.
FIG. 4 is a schematic diagram showing an example of information stored in the narration DB 2 and shows that the narration is stored in association with the narration ID for identifying the narration, the narrator ID for identifying the narrator, the narration title, and the like. Show.

音声分析部12は、ナレーションの音声分析をする手段である。   The voice analysis unit 12 is a means for performing voice analysis of narration.

ここで、音声分析の方法について一例を説明する。   Here, an example of the voice analysis method will be described.

先ず、基本音声DB1に記憶されている基本音声kについて、信号レベルの強度A(k),高低H(k),無音部の割合M(k)を決定(特定)する。
A(k)の決定方法としては、たとえば、基本音声kの信号レベルを、所定のしきい値と比較して5段階に分類して決定する(A(k)=1,2,3,4,5)。このしきい値や分類を示す情報は、本システム10内の図示しない手段に記憶されているものとする。
H(k)の決定方法としては、たとえば、基本音声kを短時間フーリエ変換やサブバンド分析などの手法により5段階に分類して決定する(H(k)=1,2,3,4,5、)。
M(k)の決定方法としては、たとえば、基本音声kの全体の時間に対する無音部の時間の割合を、所定のしきい値と比較して5段階に分類して決定する(M(k)=1,2,3,4,5、)。
First, for the basic voice k stored in the basic voice DB1, the signal level strength A (k), high / low H (k), and silent part ratio M (k) are determined (specified).
As a method for determining A (k), for example, the signal level of the basic voice k is determined by classifying it into five stages by comparison with a predetermined threshold (A (k) = 1, 2, 3, 4). , 5). It is assumed that information indicating the threshold value and the classification is stored in a means (not shown) in the system 10.
As a determination method of H (k), for example, the basic speech k is classified and determined in five stages by a technique such as short-time Fourier transform or subband analysis (H (k) = 1, 2, 3, 4, 5,).
As a method for determining M (k), for example, the ratio of the time of the silent part to the total time of the basic voice k is determined by classifying into five stages compared with a predetermined threshold (M (k) = 1, 2, 3, 4, 5).

ナレーションDB2に記憶されているナレーションnについても、基本音声kと同様に、A(n),H(n),M(n)を決定する。   For narration n stored in the narration DB 2, A (n), H (n), and M (n) are determined in the same manner as the basic voice k.

次に、A(k)とA(n),H(k)とH(n),M(k)とH(n)のそれぞれを比較し、その大小関係の組合せに応じたパターンを判定基準DB3から求める。
図5は、判定基準DB3に記憶されている情報の例を示す模式図であって、判定指標「信号レベル(A)」「高低(H)」「無音部の割合(M)」に対する判定結果「≧」「<」の組合せごとにパターン識別子が関連付けて記憶されていることを示している。
なお、図中の符号「≧」は、ナレーションの音声成分が基本音声の音声成分よりも大きい(A)、高い(H)、大きい(M)、ことを示す。一方、符号「<」は、ナレーションの音声成分が基本音声の音声成分よりも小さい(A)、低い(H)、小さい(M)、ことを示す。
Next, A (k) and A (n), H (k) and H (n), M (k) and H (n) are compared, and a pattern corresponding to the combination of the magnitude relationships is determined as a criterion. Obtained from DB3.
FIG. 5 is a schematic diagram illustrating an example of information stored in the determination criterion DB 3, and determination results for the determination indexes “signal level (A)”, “high / low (H)”, and “silent portion ratio (M)”. It shows that a pattern identifier is stored in association with each combination of “≧” and “<”.
The symbol “≧” in the figure indicates that the voice component of the narration is larger (A), higher (H), and larger (M) than the voice component of the basic voice. On the other hand, the symbol “<” indicates that the voice component of the narration is smaller (A), lower (H), and smaller (M) than the voice component of the basic voice.

ここで、たとえば、A(k)<A(n)、H(k)<H(n)、M(k)>M(n)のときは、ナレーション録音時には強度が強く、音程も高く、無音部も短いことから、ナレータが積極的に音声を発声したものと判断することができる。   Here, for example, when A (k) <A (n), H (k) <H (n), and M (k)> M (n), the intensity is high during narration recording, the pitch is high, and there is no sound. Since the part is also short, it can be determined that the narrator has actively spoken.

このように、基本音声kとナレーションnの音声成分A,H,Mを比較して、その大小関係の組合せでナレーションnをパターン分類する。3種類の音声成分を比較するこの例の場合、ナレーションnを8通り(=2)のパターンのいずれかに分類することができる。 Thus, the voice components A, H, and M of the basic voice k and the narration n are compared, and the narration n is pattern-classified by the combination of the magnitude relationships. In this example in which three types of audio components are compared, the narration n can be classified into any of eight patterns (= 2 3 ).

なお、ナレーションnをパターン分類する際に、音声成分の大小の比較結果の単なる組合せに代えて、特定の音声成分に重み付けをして大小を比較するようにしてもよい。   Note that when patterning the narration n, instead of a simple combination of the comparison results of the audio components, the specific audio components may be weighted and compared in magnitude.

コンテンツ選択部13は、コンテンツDB4に記憶されている音楽データの中から、ナレーションの音声分析の結果に応じた音楽を選択する手段である。
図6は、コンテンツDB4に記憶されている情報の例を示す模式図であり、コンテンツごとに、各コンテンツを識別するコンテンツID、コンテンツの名称や説明などと関連付けてコンテンツが記憶されていることを示している。
The content selection unit 13 is means for selecting music corresponding to the result of voice analysis of narration from music data stored in the content DB 4.
FIG. 6 is a schematic diagram illustrating an example of information stored in the content DB 4. For each content, the content is stored in association with the content ID for identifying each content, the name of the content, the description, and the like. Show.

番組配信部14は、制作された番組を端末2に配信する手段である。   The program distribution unit 14 is means for distributing the produced program to the terminal 2.

曲調判定部15は、端末3から音楽データを受信し、この音楽の属性(メタデータ)を特定した上で、特定した属性に対応するパターンIDと受信した音楽データとを関連付けてコンテンツDB4に記憶する手段である。
音楽の属性には、その音楽の曲調や、歌手名、作曲者名、作詞者名、演奏者名、著作権者名、レーベル名、ジャンル、テンポなどの情報がある。
なお、音楽の属性の一部の情報、たとえば、歌手名などは、端末3から受信した音楽データに含まれていて、音楽データから読み出して特定することができる。一方、曲調などの情報は、端末3から受信した音楽データを本システム10内で再生して、再生結果をもとに、本システム10内に記憶されている所定の判定基準(図示省略)を用いて特定する。
以下の説明では、音楽の属性として曲調を用いる場合を例に説明する。
The music tone determination unit 15 receives the music data from the terminal 3 and specifies the attribute (metadata) of this music, and stores the pattern ID corresponding to the specified attribute in association with the received music data in the content DB 4. It is means to do.
The music attributes include information such as the tone of the music, singer name, composer name, songwriter name, performer name, copyright owner name, label name, genre, and tempo.
In addition, some information of the attribute of music, for example, a singer's name etc. is contained in the music data received from the terminal 3, and can be read from music data and specified. On the other hand, information such as music tone is obtained by reproducing music data received from the terminal 3 in the system 10 and using a predetermined determination criterion (not shown) stored in the system 10 based on the reproduction result. Use to identify.
In the following description, a case where melody is used as an attribute of music will be described as an example.

図8は、曲調DB6に記憶されている情報の例を示す模式図であり、音楽の曲調(速さ,明るさ)を数値化した曲調情報の組合せとパターンIDとが関連付けて記憶されていることを示している。   FIG. 8 is a schematic diagram illustrating an example of information stored in the music tone DB 6, in which a combination of music tone information obtained by quantifying the music tone (speed, brightness) and a pattern ID are stored in association with each other. It is shown that.

次に、ナレータが、本システム10を利用して番組を制作する方法について説明する。   Next, a method in which the narrator creates a program using the system 10 will be described.

ナレータは、番組の制作に先立って、まず、自分の基本音声データを本システム10に登録する。   The narrator first registers his basic audio data in the system 10 prior to the production of the program.

図11は、本システム10が端末1に表示させるメニュー画面の例を示す模式図である。ナレータは、端末1を操作して本システム10にアクセスし、画面W1を閲覧する。
なお、以下の説明において、本システム10が端末1,2に表示させる画面は、Webページで作成されているものとする。すなわち、本システム10は、Webサーバとして動作し、端末1,2で動作するWebブラウザからのHTTP(Hyper Text Transfer Protocol)のリクエストを受信し、このリクエストに対するレスポンスとして各画面を端末1,2に送信して表示させる。
FIG. 11 is a schematic diagram illustrating an example of a menu screen displayed on the terminal 1 by the system 10. The narrator operates the terminal 1 to access the system 10 and browses the screen W1.
In the following description, it is assumed that the screen displayed by the system 10 on the terminals 1 and 2 is created as a Web page. That is, the system 10 operates as a Web server, receives an HTTP (Hyper Text Transfer Protocol) request from a Web browser operating on the terminals 1 and 2, and displays each screen as a response to the request to the terminals 1 and 2. Send and display.

画面W1には、ボタンを模したいわゆるリンク形式の画像(以下、単に「ボタン」という。)B11,B12が表示されている。
画面W1は、ナレータが端末1のマウスなどの情報入力手段を用いて、画面W1に表示されたボタンB11,B12のいずれかを選択すると、いずれのボタンが選択されたかを示す情報が端末1から本システム10に送信されるように構成されている。本システム10は、端末1から受信した情報に応じた情報処理を行う。
On the screen W1, so-called link type images (hereinafter simply referred to as “buttons”) B11 and B12 simulating buttons are displayed.
In the screen W1, when the narrator selects one of the buttons B11 and B12 displayed on the screen W1 using information input means such as the mouse of the terminal 1, information indicating which button is selected is displayed from the terminal 1. It is configured to be transmitted to the system 10. The system 10 performs information processing according to information received from the terminal 1.

なお、以下の説明中の各画面においても、表示されたボタンが選択されたときには、選択されたボタンを特定する情報が端末から本システム10に送信され、本システム10は端末から受信した情報、つまり、ナレータが選択したボタンに対応する情報処理を行う。   In each of the screens described below, when a displayed button is selected, information specifying the selected button is transmitted from the terminal to the system 10, and the system 10 receives information received from the terminal, That is, information processing corresponding to the button selected by the narrator is performed.

ナレータにより画面W1のボタンB11が選択されると、本システム10は、図12に示す画面W2を端末1に送信して表示させる。
ナレータが、画面W2に氏名などの情報を入力してボタンB21を選択すると、画面W2に入力された情報が端末1から本システム10に送信され、本システム10は、ナレータIDとパスワードを発行し、端末1から受信した氏名などの情報と関連付けて、本システム10内のナレータ記憶部(図示省略)に記憶する。また、本システム10は、発行したナレータIDとパスワードを表示した図13に示す画面W3を端末1に送信する。
ナレータが画面W3のボタンB31を選択すると、本システム10は、図14に示す画面W4を端末1に送信する。
When the button B11 on the screen W1 is selected by the narrator, the system 10 transmits the screen W2 shown in FIG. 12 to the terminal 1 for display.
When the narrator inputs information such as a name on the screen W2 and selects the button B21, the information input on the screen W2 is transmitted from the terminal 1 to the system 10, and the system 10 issues a narrator ID and a password. The information is stored in a narrator storage unit (not shown) in the system 10 in association with information such as a name received from the terminal 1. Further, the system 10 transmits a screen W3 shown in FIG. 13 displaying the issued narrator ID and password to the terminal 1.
When the narrator selects the button B31 on the screen W3, the present system 10 transmits the screen W4 shown in FIG.

画面W4に表示されたボタンB41が選択されると、端末1内で動作する録音プログラムは、端末1のマイクなどの情報入力手段から入力されたナレータの音声データ(基本音声データ)の記憶を開始し、ボタンB42が選択されると記憶を終了する。なお、音声データは、端末1内の記憶手段に記憶される。
ボタンB43が選択されると、端末1内で動作する再生プログラムは、端末1内の記憶手段に記憶されているナレータの音声データを、端末1のスピーカなどの情報出力手段に出力する。
ボタンB44が選択されると、記憶手段に記憶されているナレータの音声データが本システム10に送信される。
本システム10は、端末1から受信したナレータの基本音声データを、先に発行したナレータIDと関連付けて基本音声DB1に記憶する。
When the button B41 displayed on the screen W4 is selected, the recording program operating in the terminal 1 starts storing narrator's voice data (basic voice data) input from information input means such as a microphone of the terminal 1. When the button B42 is selected, the storage is terminated. The voice data is stored in a storage unit in the terminal 1.
When the button B43 is selected, the reproduction program operating in the terminal 1 outputs the voice data of the narrator stored in the storage means in the terminal 1 to the information output means such as the speaker of the terminal 1.
When the button B44 is selected, the voice data of the narrator stored in the storage means is transmitted to the system 10.
The system 10 stores the narrator basic voice data received from the terminal 1 in the basic voice DB 1 in association with the previously issued narrator ID.

基本音声データを登録したナレータは、以下の手順で番組を制作する。
以下、図10に示すシーケンス図などを参照しながら説明する。
The narrator who registered the basic audio data produces a program according to the following procedure.
Hereinafter, description will be made with reference to the sequence diagram shown in FIG.

[ナレーションの登録]
先ず、本システム10へのナレーションの登録処理について説明する。
ナレータが、図11に示した画面W1のボタンB12を選択すると、本システム10は、図15に示す画面W5を端末1に送信する。ナレータが、画面W5にナレータIDとパスワードを入力してボタンB51を選択すると、画面W5に入力されたナレータIDとパスワードが本システム10に送信される。本システム10は、端末1から受信したナレータIDとパスワードがナレータ記憶部に関連付けて記憶されているか否かを判定してナレータを認証する。
[Registration of narration]
First, narration registration processing in the present system 10 will be described.
When the narrator selects the button B12 on the screen W1 shown in FIG. 11, the system 10 transmits the screen W5 shown in FIG. When the narrator inputs the narrator ID and password on the screen W5 and selects the button B51, the narrator ID and password input on the screen W5 are transmitted to the system 10. The system 10 authenticates the narrator by determining whether or not the narrator ID and password received from the terminal 1 are stored in association with the narrator storage unit.

端末1から受信したナレータIDとパスワードが関連付けてナレータ記憶部に記憶されていると判定したとき、本システム10は、図16に示す画面W6を端末1に送信する。ナレータがボタンB61を選択すると、本システム10は、図17に示す画面W7を端末1に送信する。
ナレータは、画面W7にナレーションタイトルを入力する。ナレーションタイトルは、後述する番組制作時に、ナレータがナレーションを特定する際に参照する情報であり、図17には、「銀座で食べたおいしいカレー」と入力されていることを示している。
When it is determined that the narrator ID received from the terminal 1 is associated with the password and stored in the narrator storage unit, the system 10 transmits a screen W6 shown in FIG. When the narrator selects the button B61, the system 10 transmits a screen W7 shown in FIG.
The narrator inputs the narration title on the screen W7. The narration title is information that is referred to when the narrator specifies the narration at the time of program production to be described later, and FIG. 17 shows that “delicious curry eaten in Ginza” is input.

次に、ナレータは、ナレーションを入力する(図10中のS1)。すなわち、ナレータによりボタンB71が選択されると、端末1で動作する録音プログラムは、端末1のマイクから入力されたナレータのナレーションを端末1内の記憶手段に記憶を開始し、ボタンB72が選択されると記憶を終了する。
ボタンB73が選択されると、端末1内で動作する再生プログラムは、記憶手段に記憶されているナレーションを、端末1のスピーカから出力する。
ボタンB74が選択されると、記憶手段に記憶されているナレーション(音声データ)が本システム10に送信される。
Next, the narrator inputs a narration (S1 in FIG. 10). That is, when the button B71 is selected by the narrator, the recording program operating on the terminal 1 starts storing the narration of the narrator input from the microphone of the terminal 1 in the storage means in the terminal 1, and the button B72 is selected. Then, the memory is terminated.
When the button B73 is selected, the playback program operating in the terminal 1 outputs the narration stored in the storage means from the speaker of the terminal 1.
When button B74 is selected, the narration (audio data) stored in the storage means is transmitted to the system 10.

本システム10は、ナレーション受信部11を用いて、端末1からナレーションを受信して(S2)、ナレーションを特定するナレーションIDを発行する。その上で本システム10は、受信したナレーションと、発行したナレーションIDと、画面W5に入力されたナレータIDと、画面W7に入力されたナレーションタイトルとを関連付けて、ナレーションDB2に記憶する。   The system 10 receives the narration from the terminal 1 using the narration receiving unit 11 (S2), and issues a narration ID for identifying the narration. The system 10 then stores the received narration, the issued narration ID, the narrator ID input on the screen W5, and the narration title input on the screen W7 in the narration DB2.

[ナレーションの音声分析]
次に、本システム10によるナレーションの音声分析処理について説明する。
本システム10は、音声分析部12を用いて、端末1から受信したナレーションの音声分析をする(S3)。
音声分析は、端末1から受信したナレータIDと関連付けて基本音声DB1に記憶されている基本音声データと、同ナレータIDと関連付けてナレーションDB2に記憶されているナレーションのそれぞれの音声成分を特定して比較し、比較結果に対応するパターンIDを判定基準DB3から読み出すことで行われる。
すなわち、たとえば、図3,図4,図5に示した例において、ナレータID「U1」と関連付けて基本音声DB1に記憶されている「私の名前は、・・・太陽です。本日は晴天なり。」と、同ナレータID「U1」と関連付けてナレーションDB2に記憶されている「皆さん、こんにちは。・・・・」のそれぞれの音声成分(判定指標)を特定して比較し、比較結果が「≧」「≧」「≧」であれば、パターンID「PT1」を判定基準DB3から読み出す。
[Voice analysis of narration]
Next, narration voice analysis processing by the system 10 will be described.
The system 10 analyzes the voice of the narration received from the terminal 1 using the voice analysis unit 12 (S3).
The voice analysis specifies the basic voice data stored in the basic voice DB 1 in association with the narrator ID received from the terminal 1 and the voice components of the narration stored in the narration DB 2 in association with the narrator ID. The comparison is performed by reading the pattern ID corresponding to the comparison result from the determination reference DB 3.
That is, for example, in the example shown in FIGS. 3, 4, and 5, “My name is ... the sun that is stored in the basic voice DB 1 in association with the narrator ID“ U1 ”. . and "the narrator ID" U1 "and associated stored in narration DB2 with" Hello. each audio components of ... "(determination index) identifying and were compared, the comparison result is" If “≧”, “≧”, and “≧”, the pattern ID “PT1” is read from the determination criterion DB3.

[コンテンツの選択]
次に、本システム10によるコンテンツの選択処理について説明する。
ナレーションの音声分析後、本システム10は、コンテンツ選択部13を用いて、判定基準DB3から読み出されたパターンIDと関連付けてコンテンツDB4に記憶されているコンテンツを選択する(S4)。選択されたコンテンツのコンテンツIDは、音声分析されたナレーションのナレーションIDと関連付けてナレーションDB2に記憶される。
[Select Content]
Next, content selection processing by the system 10 will be described.
After voice analysis of the narration, the system 10 uses the content selection unit 13 to select the content stored in the content DB 4 in association with the pattern ID read from the determination criterion DB 3 (S4). The content ID of the selected content is stored in the narration DB 2 in association with the narration ID of the voice-analyzed narration.

ここで、音声分析の結果に対応する音楽が複数存在する場合などには、たとえば、複数の音楽の中からナレータが選択した音楽をナレーションと関連付けて記憶するように本システム10は構成されている。すなわち、本システム10は、コンテンツ選択部13を用いて選択したコンテンツIDに対応する音楽の名称や説明などの情報を端末1に送信する(S5)。
図18は、本システム10が端末1に表示させた画面の例である。画面W8には、ナレーションの音声分析の結果に対応する3つの音楽、すなわち、ナレーションのパターンIDと同一のパターンIDと関連付けてコンテンツDB4に記憶されている音楽の名称と説明の一覧が表示されている。これら音楽の名称などの情報は、コンテンツDB4にコンテンツIDと関連付けて記憶されている情報である。
Here, when there are a plurality of music corresponding to the result of the voice analysis, for example, the system 10 is configured to store the music selected by the narrator from the plurality of music in association with the narration. . That is, the system 10 transmits information such as the name and description of music corresponding to the content ID selected using the content selection unit 13 to the terminal 1 (S5).
FIG. 18 is an example of a screen displayed on the terminal 1 by the system 10. The screen W8 displays a list of names and explanations of three music corresponding to the result of the voice analysis of the narration, that is, the music stored in the content DB 4 in association with the same pattern ID as the narration pattern ID. Yes. Information such as the name of the music is information stored in the content DB 4 in association with the content ID.

なお、本システム10は、音楽情報の一覧を端末1に送信する際に、ナレータの過去の選択履歴に基づいて、音楽情報の表示順序などを変更するように構成してもよい。すなわち、たとえば、ナレーションの音声分析の結果として選択されたパターンIDと関連付けて履歴DB5に記憶されているコンテンツIDに対応する音楽の情報を、画面W8の上位に表示するなど、他の音楽の情報より優先的に表示する。
図7は、履歴DB5に記憶されている情報の例を示す模式図であり、ナレータID「U1」のナレータが、過去にナレーションを登録した際に、登録したナレーションのパターンIDが「PT1」のときには、コンテンツIDが「C1」の音楽を選択し、パターンIDが「PT4」のときには、コンテンツIDが「C6」の音楽を選択したことを示している。したがって、たとえば、今回登録されたナレーションのパターンIDが「PT1」であれば、コンテンツIDが「C1」の音楽を優先的に表示させる。
The system 10 may be configured to change the display order of the music information based on the narrator's past selection history when transmitting the music information list to the terminal 1. That is, for example, information on music corresponding to the content ID stored in the history DB 5 in association with the pattern ID selected as a result of the voice analysis of the narration is displayed at the top of the screen W8. Display with higher priority.
FIG. 7 is a schematic diagram showing an example of information stored in the history DB 5. When a narrator with a narrator ID “U1” has registered a narration in the past, the registered narration pattern ID is “PT1”. In some cases, music with a content ID “C1” is selected, and when the pattern ID is “PT4”, music with a content ID “C6” is selected. Therefore, for example, if the pattern ID of the narration registered this time is “PT1”, the music whose content ID is “C1” is preferentially displayed.

画面W8には、一覧表示された各音楽を試聴する際にナレータに選択させるボタンB81,B82,B83が表示されている。すなわち、ナレータがボタンB81を選択すると、「曲名1」に対応するコンテンツIDが端末1から本システム10に送信され、本システム10は、受信したコンテンツIDと関連付けてコンテンツDB4に記憶されている音楽データの一部または全部を端末1に送信する。端末1は、端末1の内部で動作する再生プログラムを用いて、受信した音楽データを再生して、端末1のスピーカなどから出力する。   On the screen W8, buttons B81, B82, and B83 are displayed for the narrator to select when listening to each music displayed in the list. That is, when the narrator selects the button B81, the content ID corresponding to “Song Title 1” is transmitted from the terminal 1 to the system 10, and the system 10 stores the music stored in the content DB 4 in association with the received content ID. A part or all of the data is transmitted to the terminal 1. The terminal 1 reproduces the received music data using a reproduction program operating inside the terminal 1 and outputs it from the speaker of the terminal 1 or the like.

図18は、ナレータが「曲名1」「曲名2」「曲名3」の3つの音楽の中から「曲名1」の音楽を選択していることを示している(S6)。ナレータによりボタンB84が選択されると、「曲名1」に対応するコンテンツIDが端末1から本システム10に送信され、本システム10は、受信したコンテンツIDを、音声分析されたナレーションのナレーションIDとを関連付けてナレーションDB2に記憶する(S7)。   FIG. 18 shows that the narrator selects the music of “Song Title 1” from among the three musics of “Song Title 1”, “Song Title 2”, and “Song Title 3” (S6). When the button B84 is selected by the narrator, the content ID corresponding to “Song Title 1” is transmitted from the terminal 1 to the present system 10, and the present system 10 uses the received content ID as the narration ID of the voice analysis narration. Are stored in the narration DB 2 in association with each other (S7).

以上説明したように、本システム10は、ナレータからナレーションを受信する都度、各ナレーションの音声分析をし、その結果に基づいて選択された音楽を受信したナレーションと関連付けて記憶する。   As described above, each time the narration is received from the narrator, the system 10 analyzes the voice of each narration and stores the music selected based on the result in association with the received narration.

[番組の編集]
次に、本システム10による番組の編集処理について説明する。
番組を構成するナレーションが本システム10内に記憶され、ナレーションに応じた音楽が選択された状態で、本システム10は、番組編集部16を用いて、以下に説明するように、番組を編集する(S8)。
[Edit Program]
Next, program editing processing by the system 10 will be described.
The narration constituting the program is stored in the system 10 and the system 10 uses the program editing unit 16 to edit the program as described below, with the music corresponding to the narration selected. (S8).

まず、図16に示した画面W6のボタンB62が、番組の編集者でもあるナレータにより選択されると、本システム10は、図19に示す画面W9を端末1に表示させる。ナレータは、画面W9内に、これから編集する番組の番組タイトルを入力する。番組タイトルとは、後述するように、リスナーが、視聴する番組を選択する際に参照する情報である。図19の例では、ナレータが番組タイトル「今日のひとこと4/25」と入力していることを示している。   First, when the button B62 on the screen W6 shown in FIG. 16 is selected by the narrator who is also the program editor, the system 10 displays the screen W9 shown in FIG. The narrator inputs the program title of the program to be edited in the screen W9. As will be described later, the program title is information that a listener refers to when selecting a program to be viewed. The example of FIG. 19 shows that the narrator inputs the program title “Today's Word 4/25”.

ボタンB91が選択されると、画面W9に入力された番組タイトルが端末1から本システム10に送信される。
本システム10は、番組タイトルを受信すると、番組を識別する番組IDを発行して、受信した番組タイトルと関連付けて番組DB7に記憶する。
また、本システム10は、番組タイトルを入力したナレータのナレータID、つまり、図15に示した画面W5に入力されたナレータIDと関連付けてナレーションDB2に記憶されているナレーションタイトルを読み出し、図20に示す画面W10を生成して端末1に表示させる。
When the button B91 is selected, the program title input on the screen W9 is transmitted from the terminal 1 to the present system 10.
When receiving the program title, the system 10 issues a program ID for identifying the program and stores it in the program DB 7 in association with the received program title.
Further, the present system 10 reads out the narrator ID of the narrator that has input the program title, that is, the narration title stored in the narration DB 2 in association with the narrator ID input on the screen W5 shown in FIG. A screen W10 is generated and displayed on the terminal 1.

画面W10には、ナレータがこれまでに登録(録音)したナレーションごとのナレーションタイトルの一覧が表示されている。また、画面W10は、番組を構成するナレーションの再生順序をナレータが指定することができるように構成されている。
図20に示した例は、このナレータにより録音されたナレーションが3つ存在していて、このうち2つのナレーション「銀座で食べたおいしいカレー」と「エンディング」を用いて番組を構成する旨をナレータが指定していることを示している。また、ナレータが、ナレーションの再生順序として、「銀座で食べたおいしいカレー」が1番目で、「エンディング」が2番目である旨を指定していることを示している。
The screen W10 displays a list of narration titles for each narration registered (recorded) by the narrator so far. The screen W10 is configured so that the narrator can specify the playback order of the narration that constitutes the program.
In the example shown in FIG. 20, there are three narrations recorded by this narrator, and it is narrator that two narrations “Delicious curry eaten in Ginza” and “Ending” are used to compose a program. Indicates that it is specified. In addition, the narrator indicates that “delicious curry eaten in Ginza” is the first and “ending” is the second as the narration playback order.

画面W10には、一覧表示された各ナレーションを試聴する際にナレータに選択させるボタンB101,B102,B103が表示されている。   On the screen W10, buttons B101, B102, and B103 are displayed for the narrator to select when listening to each narration displayed in the list.

画面W10のボタンB104が選択されると、画面W10で指定されている番組を構成するナレーションと、各ナレーションの再生順序とを特定する情報が、端末1から本システム10に送信される。
本システム10は、番組を構成するナレーションを特定する情報などを端末1から受信すると、W10で指定されたナレーション、つまり、制作中の番組を構成するナレーションごとに、対応する音楽の名称を端末1に表示させる。図21は、端末1に表示された画面の例であり、画面W11には、ナレーションタイトル「銀座で食べたおしいカレー」のナレーションに名称「曲名1」の音楽が対応することが表示されている。
When the button B104 on the screen W10 is selected, information for identifying the narration constituting the program specified on the screen W10 and the reproduction order of each narration is transmitted from the terminal 1 to the system 10.
When the system 10 receives information identifying the narration constituting the program from the terminal 1, the system 10 assigns the name of the corresponding music to the narration designated by W10, that is, for each narration constituting the program being produced. To display. FIG. 21 is an example of a screen displayed on the terminal 1, and the screen W11 displays that the music with the name “Song Title 1” corresponds to the narration of the narration title “Our Curry Eat in Ginza”. .

画面W11には、ナレーションまたは音楽を試聴する際にナレータに選択させるボタンB111,B112が表示されている。   On the screen W11, buttons B111 and B112 are displayed for the narrator to select when listening to narration or music.

また、画面W11は、ナレーションに対する音楽の挿入方法、つまり、ナレーションと音楽との再生順序をナレータに指定させるように構成されている。ナレーションに対する音楽の挿入方法の例としては、たとえば、対応するナレーションを再生しながら音楽も同時に再生する(いわゆるBGM)場合や、ナレーションの再生終了後に音楽の再生を開始する場合、などがある。
なお、画面W11は、ナレーションに対する音楽の挿入方法の別の例として、ナレーションのみを再生する(音楽は再生しない)場合や、音楽のみを再生する(ナレーションは再生しない)場合なども指定できるように構成してもよい。
The screen W11 is configured to allow the narrator to specify the music insertion method for narration, that is, the playback order of narration and music. Examples of music insertion methods for narration include, for example, the case where music is also played simultaneously while playing the corresponding narration (so-called BGM), and the case where music playback is started after the end of narration playback.
As another example of the music insertion method with respect to the narration, the screen W11 can be designated to reproduce only the narration (no music is reproduced) or only the music is reproduced (no narration is reproduced). It may be configured.

また、画面W11は、ナレーションや音楽の再生箇所や、ナレーションや音楽の再生の開始タイミングや終了タイミングなどを指定できるように構成してもよい。
すなわち、たとえば、再生中の音楽をフェードアウトさせる場合に、音楽の再生開始からフェードアウトまでの時間(音楽の再生箇所)をナレータに指定させるように、画面W11を構成してもよい。
また、たとえば、図2(b)に示した例は、コンテンツ(1)を再生させて所定時間経過後に、ナレーション(1)が再生する様子を示しているが、この所定時間、つまり、コンテンツ(1)の再生開始からナレーション(1)を再生するまでの時間(音楽の再生タイミング)を、ナレータが指定できように画面W11を構成してもよい。
Further, the screen W11 may be configured such that the narration or music playback location, the start timing or the end timing of the narration or music playback, and the like can be designated.
That is, for example, when the music being played is faded out, the screen W11 may be configured to allow the narrator to specify the time from the start of music playback to the fade-out (music playback location).
Further, for example, the example shown in FIG. 2B shows a state in which the narration (1) is reproduced after the content (1) is reproduced and a predetermined time elapses. The screen W11 may be configured so that the narrator can specify the time from the start of playback of 1) to playback of narration (1) (music playback timing).

図21に示した画面W11には、ナレータが指定したナレーションに対する音楽の挿入方法に基づいて再生されるナレーションと音楽を試聴する際にナレータに選択させるボタンB113が表示されている。   The screen W11 shown in FIG. 21 displays a narration that is reproduced based on the music insertion method for the narration specified by the narrator and a button B113 that the narrator selects when listening to the music.

ボタンB114が選択されると、ナレータが画面W11で指定した情報、つまり、ナレーションに対する音楽の挿入方法などを特定する情報が、端末1から本システム10に送信される。   When the button B114 is selected, information specified by the narrator on the screen W11, that is, information for specifying a music insertion method for the narration is transmitted from the terminal 1 to the system 10.

このように、ナレータは、図20に示した画面W10で選択したナレーションごとに、画面W11でナレーションに対する音楽の挿入方法を指定する。   Thus, the narrator designates the music insertion method for the narration on the screen W11 for each narration selected on the screen W10 shown in FIG.

本システム10は、画面W10で指定された番組を構成するナレーションと、各ナレーションの再生順序や、画面W11で指定されたナレーションに対する音楽の挿入方法など、番組の構成を示す情報であって、番組の配信に必要な情報(番組構成情報)を端末1から受信すると、画面W9に入力された番組タイトルおよび番組IDと関連付けて番組DB7に記憶する。   The system 10 is information indicating the program configuration, such as the narration that configures the program specified on the screen W10, the playback order of each narration, and the method of inserting music for the narration specified on the screen W11. Is received from the terminal 1 and stored in the program DB 7 in association with the program title and program ID input on the screen W9.

図9は、番組DB7に記憶されている情報の例を示す模式図であり、番組ID「PG1」と、番組タイトル「今日のひとこと4/25」と、番組構成情報とが関連付けて記憶されていることを示している。
なお、図中に示した番組構成情報「N11−C1−N12」は、この番組が、ナレーションID「N11」のナレーションと、コンテンツID「C1」の音楽と、ナレーションID「N12」のナレーションとから構成され、この順番に再生されることを示している。
FIG. 9 is a schematic diagram illustrating an example of information stored in the program DB 7, in which a program ID “PG1”, a program title “Today's Word 4/25”, and program configuration information are stored in association with each other. It shows that.
Note that the program configuration information “N11-C1-N12” shown in the figure includes the narration with the narration ID “N11”, the music with the content ID “C1”, and the narration with the narration ID “N12”. It is configured and shown to be reproduced in this order.

以上説明したように、ナレータは、本システム10を利用することで、ナレータ自身が録音したナレーションと、このナレーションの音声分析の結果に応じて選択された音楽とを含み、ナレータが指定した再生順序などに基づいて再生される番組を制作することができる。   As described above, the narrator uses the system 10 to include the narration recorded by the narrator itself and the music selected according to the result of the voice analysis of the narration, and the playback order specified by the narrator. It is possible to produce a program that is played based on the above.

[番組の配信]
次に、本システム10による番組の配信処理について説明する。
本システム10は、番組配信部14を用いて、以下に説明するように、ナレータが制作・編集した番組を、リスナーからの要求に基づいてリスナーの端末に配信する。
[Program distribution]
Next, a program distribution process by the system 10 will be described.
As will be described below, the system 10 uses the program distribution unit 14 to distribute a program produced and edited by a narrator to a listener's terminal based on a request from the listener.

まず、本システム10は、リスナーから要求に応じて、図22に示す画面W12を端末2に表示させる。画面W12には、本システム10内に記憶されている番組の番組タイトルの一覧が表示されている。画面W12に表示されている番組タイトルは、番組DB7から読み出されたものである。   First, the system 10 displays a screen W12 shown in FIG. 22 on the terminal 2 in response to a request from the listener. A list of program titles of programs stored in the system 10 is displayed on the screen W12. The program title displayed on the screen W12 is read from the program DB 7.

次に、リスナーが配信を希望する番組のタイトルを選択し、ボタンB124を選択すると、リスナーが選択した番組を特定する情報が端末2から本システム10に送信される。図22の例は、リスナーが番組タイトル「今日のできごと4/25」を選択している様子を示している。
本システム10は、端末2から番組を特定する情報を受信すると、番組DB7に記憶されている番組構成情報に基づいて、番組を構成するナレーションや音楽をナレーションDB2やコンテンツDB4から読み出し、番組構成情報で特定されている再生順序で再生するように、読み出したナレーションなどを端末2に送信する。
Next, when the listener selects the title of the program desired to be distributed and selects the button B124, the information specifying the program selected by the listener is transmitted from the terminal 2 to the system 10. The example of FIG. 22 shows a situation where the listener has selected the program title “Today's Event 4/25”.
When the system 10 receives information identifying a program from the terminal 2, the system 10 reads narration and music constituting the program from the narration DB 2 and the content DB 4 based on the program configuration information stored in the program DB 7, and program configuration information The read narration or the like is transmitted to the terminal 2 so as to be played back in the playback order specified in.

図22に示した画面W12には、各番組の一部(たとえば、番組を構成するナレーションの冒頭部分など)を試聴する際にリスナーに選択させるボタンB121,B122,B123が表示されている。   On the screen W12 shown in FIG. 22, buttons B121, B122, and B123 are displayed that allow the listener to select a part of each program (for example, the beginning of a narration constituting the program).

以上説明した実施の形態によれば、番組を構成するナレーションを語った時のナレータの気分や感情などを、ナレーションの音声分析の結果から判定し、判定されたナレータの気分などと調和するコンテンツを使用した番組を制作することができる。   According to the embodiment described above, the narrator's mood and emotion when talking about the narration that constitutes the program are determined from the voice analysis result of the narration, and the content that harmonizes with the determined narrator's mood, etc. The program used can be produced.

なお、以上説明した実施の形態では、番組がナレーションと音楽の2種類の電子情報から構成される例であったが、番組を構成する電子情報の種類の数はこれに限らず、3以上であってもよい。すなわち、たとえば、コンテンツには、音楽に加えて企業等の広告主から提供された広告があり、ナレーションと調和する音楽と広告を選択して番組を制作する場合に本システムを利用してもよい。   In the embodiment described above, the program is an example composed of two types of electronic information, narration and music. However, the number of types of electronic information constituting the program is not limited to this, and the number is three or more. There may be. That is, for example, in addition to music, there is an advertisement provided by an advertiser such as a company, and this system may be used when a program is produced by selecting music and advertisement in harmony with narration. .

また、以上説明した実施の形態では、本システムにより制作される番組は、単一のナレータが登録したナレーションを含むものであったが、複数のナレータが登録したナレーションを含む番組を制作するように本システムを構成してもよい。   In the embodiment described above, the program produced by this system includes a narration registered by a single narrator. However, a program including a narration registered by a plurality of narrators is produced. You may comprise this system.

また、以上説明した実施の形態では、本システムを利用して番組を編集するのは、ナレーションを登録したナレータ自身であったが、ナレータとは別の者が番組を制作する場合に本システムを利用してもよい。
この場合、たとえば、本システムは、ナレーションを登録したナレータとは別の編集者の端末に、このナレーションの音声分析の結果に基づいて選択されたコンテンツの一覧を表示させて、コンテンツを選択させるように構成するとよい。
In the embodiment described above, it is the narrator who registered the narration that edits the program using this system, but this system is used when a person other than the narrator produces the program. May be used.
In this case, for example, this system displays a list of contents selected based on the result of the voice analysis of this narration on the terminal of an editor other than the narrator who registered the narration and selects the contents. It is good to configure.

また、以上説明した実施の形態では、本システムは、リスナーに対して番組を配信するのみであったが、配信した番組をリスナーに改変させるように構成してもよい。すなわち、たとえば、本システムは、番組を配信したリスナーの端末から情報を受信して、配信した番組と組み合わせて新たな番組を制作し、配信するように構成してもよい。   In the embodiment described above, the present system only distributes a program to a listener. However, the system may be configured to cause the listener to modify the distributed program. That is, for example, the present system may be configured to receive information from a terminal of a listener that has distributed a program, and to produce and distribute a new program in combination with the distributed program.

本発明にかかる番組制作システムの実施の形態を示すブロック図である。It is a block diagram which shows embodiment of the program production system concerning this invention. 上記システムが制作する番組情報の例を示す模式図である。It is a schematic diagram which shows the example of the program information which the said system produces. 上記システムが備える基本音声データベースに記憶されている情報の例を示す模式図である。It is a schematic diagram which shows the example of the information memorize | stored in the basic speech database with which the said system is provided. 上記システムが備えるナレーションデータベースに記憶されている情報の例を示す模式図である。It is a schematic diagram which shows the example of the information memorize | stored in the narration database with which the said system is provided. 上記システムが備える判定基準データベースに記憶されている情報の例を示す模式図である。It is a schematic diagram which shows the example of the information memorize | stored in the criterion database with which the said system is provided. 上記システムが備えるコンテンツデータベースに記憶されている情報の例を示す模式図である。It is a schematic diagram which shows the example of the information memorize | stored in the content database with which the said system is provided. 上記システムが備える履歴データベースに記憶されている情報の例を示す模式図である。It is a schematic diagram which shows the example of the information memorize | stored in the history database with which the said system is provided. 上記システムが備える曲調データベースに記憶されている情報の例を示す模式図である。It is a schematic diagram which shows the example of the information memorize | stored in the music tone database with which the said system is provided. 上記システムが備える番組情報データベースに記憶されている情報の例を示す模式図である。It is a schematic diagram which shows the example of the information memorize | stored in the program information database with which the said system is provided. 上記システムにより実行される番組制作方法の実施の形態を示すシーケンス図である。It is a sequence diagram which shows embodiment of the program production method performed by the said system. 上記システムがナレータの端末に表示させるメニュー画面の例を示す模式図である。It is a schematic diagram which shows the example of the menu screen which the said system displays on the terminal of a narrator. 上記システムがナレータの端末に表示させるナレータ登録画面の例を示す模式図である。It is a schematic diagram which shows the example of the narrator registration screen which the said system displays on the terminal of a narrator. 上記システムがナレータの端末に表示させる別のナレータ登録画面の例を示す模式図である。It is a schematic diagram which shows the example of another narrator registration screen which the said system displays on the terminal of a narrator. 上記システムがナレータの端末に表示させる別のナレータ登録画面の例を示す模式図である。It is a schematic diagram which shows the example of another narrator registration screen which the said system displays on the terminal of a narrator. 上記システムがナレータの端末に表示させる番組制作画面の例を示す模式図である。It is a schematic diagram which shows the example of the program production screen which the said system displays on the terminal of a narrator. 上記システムがナレータの端末に表示させる別の番組制作画面の例を示す模式図である。It is a schematic diagram which shows the example of another program production screen which the said system displays on the terminal of a narrator. 上記システムがナレータの端末に表示させるさらに別の番組制作画面の例を示す模式図である。It is a schematic diagram which shows the example of another program production screen which the said system displays on the terminal of a narrator. 上記システムがナレータの端末に表示させるさらに別の番組制作画面の例を示す模式図である。It is a schematic diagram which shows the example of another program production screen which the said system displays on the terminal of a narrator. 上記システムがナレータの端末に表示させるさらに別の番組制作画面の例を示す模式図である。It is a schematic diagram which shows the example of another program production screen which the said system displays on the terminal of a narrator. 上記システムがナレータの端末に表示させるさらに別の番組制作画面の例を示す模式図である。It is a schematic diagram which shows the example of another program production screen which the said system displays on the terminal of a narrator. 上記システムがナレータの端末に表示させるさらに別の番組制作画面の例を示す模式図である。It is a schematic diagram which shows the example of another program production screen which the said system displays on the terminal of a narrator. 上記システムがリスナーの端末に表示させる番組選択画面の例を示す模式図である。It is a schematic diagram which shows the example of the program selection screen which the said system displays on a listener's terminal.

符号の説明Explanation of symbols

1 ナレータの端末
2 リスナーの端末
3 コンテンツの提供者の端末
10 番組制作システム
11 ナレーション受信部
12 音声分析部
13 コンテンツ選択部
14 番組配信部
15 曲調判定部
DB1 第1記憶部(基本音声データベース)
DB2 第2記憶部(ナレーションデータベース)
DB3 第3記憶部(判定基準データベース)
DB4 第4記憶部(コンテンツデータベース)
DB5 第5記憶部(履歴データベース)
DB6 第6記憶部(曲調データベース)
DB7 第7記憶部(番組情報記憶部)
DESCRIPTION OF SYMBOLS 1 Narrator's terminal 2 Listener's terminal 3 Content provider's terminal 10 Program production system 11 Narration reception unit 12 Audio analysis unit 13 Content selection unit 14 Program distribution unit 15 Musical tone determination unit DB1 First storage unit (basic audio database)
DB2 second storage unit (narration database)
DB3 third storage unit (judgment criteria database)
DB4 Fourth storage unit (content database)
DB5 5th storage unit (history database)
DB6 6th storage unit (musical tone database)
DB7 7th storage unit (program information storage unit)

Claims (6)

ナレーションと音楽とを含む番組を制作する装置であって、
ナレータの基本音声データが記憶されている第1記憶部と、
ナレータのナレーションが記憶されている第2記憶部と、
2つの音声のそれぞれの音声成分の比較結果に対応するパターン識別子が関連付けて記憶されている第3記憶部と、
音楽データとパターン識別子とが関連付けて記憶されている第4記憶部と、
上記第1記憶部に記憶されている基本音声データと、上記第2記憶部に記憶されているナレーションのそれぞれの音声成分を比較し、比較結果に対応するパターン識別子を上記第3記憶部から読み出す音声分析部と、
上記読み出したパターン識別子と関連付けて上記第4記憶部に記憶されている音楽データを選択するコンテンツ選択部と、
上記選択された音楽データと、上記音声成分を比較されたナレーションとを、番組を特定する番組識別子と関連付けて記憶する番組情報記憶部と、
を有してなることを特徴とする番組制作システム。
A device that produces programs containing narration and music,
A first storage unit storing basic voice data of the narrator;
A second storage unit storing the narration of the narrator;
A third storage unit in which pattern identifiers corresponding to the comparison results of the respective sound components of the two sounds are stored in association with each other;
A fourth storage unit in which music data and a pattern identifier are stored in association with each other;
The basic voice data stored in the first storage unit and the voice components of the narration stored in the second storage unit are compared, and the pattern identifier corresponding to the comparison result is read from the third storage unit. A voice analysis unit;
A content selection unit that selects music data stored in the fourth storage unit in association with the read pattern identifier;
A program information storage unit that stores the selected music data and the narration compared with the audio component in association with a program identifier that identifies the program;
A program production system characterized by comprising:
ナレータの端末と通信ネットワークを介して接続し、
第4記憶部には、音楽データと関連付けてこの音楽データを特定する情報(以下、「コンテンツ識別子」という。)が記憶されていて、
コンテンツ選択部は、音声分析部が読み出したパターン識別子と関連付けて第4記憶部に記憶されている複数の音楽データのそれぞれのコンテンツ識別子を上記ナレータの端末に表示させ、この表示させた複数のコンテンツ識別子の中からナレータにより選択されたコンテンツ識別子を上記ナレータの端末から受信し、この受信したコンテンツ識別子と関連付けて上記第4記憶部に記憶されている音楽データを選択する、
請求項1記載の番組制作システム。
Connect to Narrator's terminal via communication network,
The fourth storage unit stores information for identifying the music data in association with the music data (hereinafter referred to as “content identifier”),
The content selection unit displays each content identifier of the plurality of music data stored in the fourth storage unit in association with the pattern identifier read by the voice analysis unit on the terminal of the narrator, and displays the plurality of displayed contents Receiving a content identifier selected by the narrator from among the identifiers from the terminal of the narrator, and selecting music data stored in the fourth storage unit in association with the received content identifier;
The program production system according to claim 1.
第2記憶部には、ナレータのナレーションと関連付けて、このナレータを特定するナレータ識別子が記憶されていて、
ナレータ識別子と、パターン識別子と、コンテンツ識別子と、を関連付けて記憶している第5記憶部をさらに備え、
コンテンツ選択部は、音声分析部が読み出したパターン識別子と関連付けて第4記憶部に記憶されている複数の音楽データのそれぞれのコンテンツ識別子のうち、「音声分析部が読み出したパターン識別子」と「音声分析部により比較されたナレーションと関連付けて上記第2記憶部に記憶されているナレータ識別子」のそれぞれと関連付けて上記第5記憶部に記憶されているコンテンツ識別子を優先的にナレータの端末に表示させる、
請求項2記載の番組制作システム。
The second storage unit stores a narrator identifier that identifies this narrator in association with the narration of the narrator,
A fifth storage unit that stores a narrator identifier, a pattern identifier, and a content identifier in association with each other;
The content selection unit includes “a pattern identifier read by the voice analysis unit” and “sound among the content identifiers of the plurality of music data stored in the fourth storage unit in association with the pattern identifier read by the voice analysis unit. The content identifier stored in the fifth storage unit in association with each of the narrator identifiers stored in the second storage unit in association with the narration compared by the analysis unit is preferentially displayed on the terminal of the narrator. ,
The program production system according to claim 2.
提供者の端末と通信ネットワークを介して接続し、
音楽の曲調ごとにパターン識別子を関連付けて記憶している第6記憶部と、
音楽データを上記提供者の端末から受信し、この受信した音楽データを再生して曲調を判定し、この判定した曲調に対応するパターン識別子を上記第6記憶部から読み出し、この読み出したパターン識別子と上記受信した音楽データとを関連付けて第4記憶部に記憶する曲調判定手段と、
をさらに備えた請求項1記載の番組制作システム。
Connect to the provider's terminal via a communication network,
A sixth storage unit storing a pattern identifier in association with each musical tone;
Music data is received from the provider's terminal, the received music data is reproduced to determine the tune, the pattern identifier corresponding to the determined tune is read from the sixth storage unit, and the read pattern identifier and Music tone determination means for associating the received music data with each other and storing it in a fourth storage unit;
The program production system according to claim 1, further comprising:
リスナーの端末と通信ネットワークを介して接続し、
番組情報記憶部に記憶されている番組識別子を上記リスナーの端末に表示させ、この表示させた番組識別子の中からリスナーにより選択された番組識別子と関連付けて番組情報記憶部に記憶されているナレーションと音楽データとを上記リスナーの端末に送信する番組配信部、
をさらに備えた請求項1乃至4のいずれかに記載の番組制作システム。
Connect to the listener's terminal via a communication network,
The program identifier stored in the program information storage unit is displayed on the terminal of the listener, and the narration stored in the program information storage unit in association with the program identifier selected by the listener from the displayed program identifiers; A program distribution unit for transmitting music data to the listener terminal,
The program production system according to claim 1, further comprising:
コンピュータを、請求項1乃至5のいずれかに記載の番組制作システムとして機能させることを特徴とする番組制作プログラム。   A program production program for causing a computer to function as the program production system according to claim 1.
JP2007141374A 2007-05-29 2007-05-29 Program production system and production program Expired - Fee Related JP4836084B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2007141374A JP4836084B2 (en) 2007-05-29 2007-05-29 Program production system and production program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2007141374A JP4836084B2 (en) 2007-05-29 2007-05-29 Program production system and production program

Publications (2)

Publication Number Publication Date
JP2008300912A JP2008300912A (en) 2008-12-11
JP4836084B2 true JP4836084B2 (en) 2011-12-14

Family

ID=40174052

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2007141374A Expired - Fee Related JP4836084B2 (en) 2007-05-29 2007-05-29 Program production system and production program

Country Status (1)

Country Link
JP (1) JP4836084B2 (en)

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH09289497A (en) * 1996-04-23 1997-11-04 Tetsushi Nakamura Request reception device and method
JP4627154B2 (en) * 2004-06-10 2011-02-09 独立行政法人情報通信研究機構 Music output device and music output method according to human emotional state

Also Published As

Publication number Publication date
JP2008300912A (en) 2008-12-11

Similar Documents

Publication Publication Date Title
US10229669B2 (en) Apparatus, process, and program for combining speech and audio data
US8513512B2 (en) Personalized music remixing
JP2011528879A (en) Apparatus and method for providing a television sequence
US11775580B2 (en) Playlist preview
KR20100005177A (en) Customized learning system, customized learning method, and learning device
JP5459331B2 (en) Post reproduction apparatus and program
JP5173380B2 (en) Karaoke device that can make karaoke music selection reservations based on personal music composition
Tidal Podcasting: A practical guide for librarians
JP6058991B2 (en) Singing video selection system corresponding to singing voice
JP2012018282A (en) Musical performance file management device, musical performance file reproduction device, and musical performance file reproduction method
JP2003255956A (en) Music providing method and its system, and music production system
JP4836084B2 (en) Program production system and production program
JP5498444B2 (en) Video information distribution system
JP6144477B2 (en) Collaboration singing video display system
JP2003116094A (en) Electronic album system
O'Connor et al. Determining the Composition
JP6505307B1 (en) Music posting apparatus and music posting program
KR20080066896A (en) Customized learning system, customized learning method, and learning device
JP4447540B2 (en) Appreciation system for recording karaoke songs
KR20080065205A (en) Customized learning system, customized learning method, and learning device
JP5417015B2 (en) A karaoke device that allows you to make reservations while listening to the requested omnibus works
JP6611633B2 (en) Karaoke system server
Redhead Interactive music formats: will audiences interact?
TWI482148B (en) Method for making an video file
CN117015826A (en) Generating and mixing audio compilations

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20100528

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20110830

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20110920

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20141007

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees