JP2000081892A - 効果音付加装置および効果音付加方法 - Google Patents

効果音付加装置および効果音付加方法

Info

Publication number
JP2000081892A
JP2000081892A JP10250264A JP25026498A JP2000081892A JP 2000081892 A JP2000081892 A JP 2000081892A JP 10250264 A JP10250264 A JP 10250264A JP 25026498 A JP25026498 A JP 25026498A JP 2000081892 A JP2000081892 A JP 2000081892A
Authority
JP
Japan
Prior art keywords
sound
text
sentence
word
sound effect
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP10250264A
Other languages
English (en)
Inventor
Sanae Hirai
早苗 平井
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NEC Corp
Original Assignee
NEC Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NEC Corp filed Critical NEC Corp
Priority to JP10250264A priority Critical patent/JP2000081892A/ja
Priority to GB9920923A priority patent/GB2343821A/en
Priority to US09/389,494 priority patent/US6334104B1/en
Publication of JP2000081892A publication Critical patent/JP2000081892A/ja
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L13/00Speech synthesis; Text to speech systems
    • G10L13/02Methods for producing synthetic speech; Speech synthesisers
    • G10L13/04Details of speech synthesis systems, e.g. synthesiser structure or memory management
    • G10L13/047Architecture of speech synthesisers
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L13/00Speech synthesis; Text to speech systems

Abstract

(57)【要約】 【課題】入力文章に対して自動的に、効果音およびBG
Mを付加する効果音付加装置の提供。 【解決手段】キーワード抽出装置31に備えられる擬音
語抽出手段311、音源抽出手段312、主観語抽出手
段313は、入力文章中から擬音語、音源名、主観語の
キーワードを抽出し、音検索装置32はこれらのキーワ
ードにて効果音および音楽を選出し、選出された効果音
および音楽は、音響制御装置4にて合成音声と同期をと
って出力される。

Description

【発明の詳細な説明】
【0001】
【発明の属する技術分野】本発明は、効果音付加装置に
関し、特にテキスト文書に対して自動的に効果音を付加
する効果音付加装置および効果音付加方法に関する。
【0002】
【従来の技術】従来、この種のテキスト読み上げに効果
音を付加するシステムは、読み上げ音声に臨場感を持た
せる目的で利用されている。この種の従来のシステムと
して、例えば特開平7−72888号公報には、自然言
語処理によってシーンの環境を抽出し、効果音を付加し
た音声出力を可能とした情報処理装置が提案されてい
る。図10は、同公報に提案されている情報処理装置の
構成を示す図である。図10を参照すると、文章を入力
するためのキーボード1010と、文書入力装置102
0と、入力された文章を蓄積するメモリ1030と、文
章を解析する自然言語処理装置1040と、登場人物の
特徴を抽出する登場人物特徴抽出装置1060と、登場
人物の特徴を用いて音声を合成する音声合成装置109
0と、文章から環境を抽出する環境抽出装置1050
と、抽出された環境から効果音を発生する効果音発生装
置1070と、合成された音声と前記効果音を合成しエ
フェクタをかける音出力装置1080と、を備えて構成
されている。
【0003】図11は、環境抽出装置1050の構成を
示す図である。図11を参照すると、環境抽出装置10
50は、環境抽出部1110と環境テーブル1120と
から構成される。
【0004】図12は、環境テーブル1120の一例を
示す図である。
【0005】次に図10、図11、及び図12を参照
し、効果音付加に関する部分について動作を説明する。
【0006】キーボード1010又は文書入力装置10
20から入力された文章は、テキストとしてメモリ10
30に蓄積される。自然言語処理装置1040は、メモ
リ1030に蓄えられたテキストに対して、形態素解
析、構文解析を行ない、自然言語解析する。
【0007】一方、環境抽出装置1050は、自然言語
処理装置1040から出力されたテキストの解析結果か
ら、環境を抽出する。
【0008】環境を抽出するに際して、まず、テキスト
より主語・動詞のペアを抜き出し、その主語と動詞を、
図12に示した環境テーブル1120の環境名1200
と、動詞1210に対応する効果音のインデックスを出
力する。例えば、「雨の降りしきる」という部分から、 主語:雨 動詞:降りしきる という結果が得られたとすると、環境テーブル1120
(図12)を参照して、対応する効果音のインデックス
「nature1」1230を出力する。
【0009】このようにして得られた効果音のインデッ
クス1230を効果音発生装置1070に入力し、その
インデックスの付加された効果音を発生させ、音出力装
置1080に入力する。
【0010】
【発明が解決しようとする課題】しかしながら、上述し
た従来の情報処理装置においては、効果音の付加は可能
であるものの、以下のような問題点も存在する。
【0011】第1の問題点は、効果音を選択するまでの
処理が複雑であり、処理及び検索時間が長くなる、とい
うことである。
【0012】その理由は、全ての文章に対して自然言語
処理を行なっている、ためである。
【0013】第2の問題点は、音の具体表現である擬音
語が活かされていない、ということである。
【0014】その理由は、文章の主語と動詞のみに注目
した処理を行なっている、からである。
【0015】第3の問題点は、文章に対してバックグラ
ウンドミュージックを付加することができない、という
ことである。
【0016】その理由は、第2の問題点の理由と同様で
ある。
【0017】したがって本発明は、上記問題点に鑑みて
なされたものであって、その目的は、短時間で処理可能
な効果音付加装置及び方法を提供することにある。
【0018】本発明の他の目的は、テキスト文書中の音
表現に忠実に効果音を付加する効果音付加装置及び方法
を提供することにある。
【0019】本発明のさらに他の目的は、バックグラウ
ンドミュージックを自動的に付加できるバックグラウン
ドミュージック付加装置を提供することにある。
【0020】
【課題を解決するための手段】前記目的を達成する本発
明の効果音付加装置は、入力したテキストデータより、
所定の単位ごと文章を取得するテキスト取得手段と、前
記テキスト取得手段からの前記文章を入力し前記文章中
の擬音語を抽出する擬音語抽出手段と、前記擬音語抽出
手段で抽出された前記擬音語にて音データベースを検索
する音検索手段と、前記テキスト取得手段からの前記文
章を読み上げる合成音声と、前記音検索手段にて検索さ
れた前記擬音語に対応する効果音とを同期させて出力す
る音響制御手段と、を含む。
【0021】本発明の効果音付加装置は、前記文章中の
音源名を抽出する音源抽出手段と、前記音源抽出手段で
抽出された前記音源名にて音データベースを検索する音
検索手段と、前記文章を読み上げる合成音声と、前記音
検索手段にて検索された前記音源名に対応する効果音と
を同期させて出力する音響制御手段とを備えた構成とし
てもよい。
【0022】本発明の効果音付加装置は、前記文章中の
主観語を抽出する主観語抽出手段と、前記主観語抽出手
段で抽出された主観語にて音データベースを検索する音
検索装置と、入力された文章を読み上げる合成音声と、
前記音検索手段にて検索された前記主観語に対応する効
果音とを同期させて出力する音響制御手段と、を備えた
構成としてもよい。
【0023】本発明のバックグラウンドミュージック付
加装置は、入力したテキストデータより、所定の単位ご
と文章を取得するテキスト取得手段と、前記テキスト取
得手段からの前記文章を入力し前記文章中の主観語を抽
出する主観語抽出手段と、前記主観語抽出手段で抽出さ
れた主観語の数をカウントするキーワード計数手段と、
前記主観語にて音楽データベースを検索する音検索手段
と、前記テキスト取得手段からの前記文章を読み上げる
合成音声と、前記音検索手段にて検索された前記主観語
に対応する音楽とを同期させて出力する音響制御手段
と、を含む。
【0024】[発明の概要]本発明の概要について説明
する。本発明は、文章中の擬音語、音源名、主観語を取
得して、それに対応する効果音を選出する。
【0025】ここで、主観語について定義しておくと、
音を形容するのに利用される形容詞などの言葉(例えば
“穏やかな”、“鋭い”、“金属的”等)を意味する。
【0026】より具体的には、擬音語、音源名、主観語
を文章中から取得するキーワード抽出手段(図1の3
1)と、これらのキーワードから効果音を検索する音検
索手段(図1の32)を有する。
【0027】また、本発明は、文章中の主観語の出現回
数に応じて、音楽データベースよりバックグラウンドミ
ュージックを選定する。より具体的には、文章中から主
観語を取得するキーワード抽出手段(図7の31)と、
主観語の出現回数をカウントするキーワード計数手段
(図7の34)と、主観語により音楽データを検索する
音検索手段(図7の32)を有する。
【0028】音の言語による表現では、擬音語、音源
名、主観語が頻繁に利用される特徴があるため、キーワ
ード抽出手段は、この3種類に限定して、文章からキー
ワードを取得する。
【0029】音検索手段は、得られたキーワードにて効
果音データを検索し、文章に対応する効果音を選定す
る。
【0030】また、文章に音楽を付加する場合、キーワ
ード抽出手段は、主観語に限定して、文章からキーワー
ドを取得する。
【0031】キーワード計数手段では、得られた主観語
の数をカウントする。カウント数が閾値を超えると、文
章全体に主観語の傾向があるとみなして、音検索手段は
その主観語にて、音楽を検索する。
【0032】
【発明の実施の形態】次に、本発明の発明の実施の形態
について図面を参照して詳細に説明する。
【0033】[実施の形態1]図1は、本発明の第1の
実施の形態の構成を示すブロック図である。図1を参照
すると、本発明の第1の実施の形態は、テキストデータ
を保存する第1の記憶装置1と、第2の記憶装置7と、
効果音データベース2と、効果音データベースより効果
音を選定する音選定装置3と、合成音声と効果音の発音
のタイミングを制御する音響制御装置4と、音を出力す
る音響出力装置5と、を含む。
【0034】第1の記憶装置1は、効果音付加の対象と
なるテキストデータ11を記憶する。第2の記憶装置7
は、選定された効果音の情報をテキストと関連付けて格
納保持する音付テキストテーブル12を記憶する。
【0035】効果音データベース2は、効果音データお
よびデータに関する情報ラベルが蓄積されている。情報
ラベルには、“擬音語”、“音源名”、“主観語”のう
ち少なくとも一種類のキーワードを含む。
【0036】音選定装置3は、テキスト取得部33と、
キーワード抽出装置31と、音検索装置32とを備えて
いる。
【0037】テキスト取得部33は、第1の記憶装置1
に格納されているテキストデータ11より、ある単位ご
と、例えば節、文、段落毎に文章を取得し、取得した文
章を、音付テキストテーブル12へコピーする。さらに
取得した文章を、キーワード抽出装置31の擬音語抽出
手段311と、音源抽出手段312と主観語抽出手段3
13へ出力する。
【0038】キーワード抽出装置31は、擬音語抽出手
段311と、音源抽出手段312と主観語抽出手段31
3の少なくとも一つ又は全ての手段を備える。
【0039】擬音語抽出手段311は、テキスト取得部
33から出力された文章(テキストデータ)を入力し、
この文章から擬音語を検索し、検索された擬音語を、音
検索装置32へ出力する。
【0040】音源抽出手段312は、テキスト取得部3
3から供給された文章(テキストデータ)を入力し、こ
の文章のうち、音に関連のある文章から、その音源名を
検索し、検索された音源名を音検索装置へ出力する。
【0041】主観語抽出手段313は、テキスト取得部
33から供給された文章(テキストデータ)を入力し、
この文章から、予め指定されている主観語を検索し、検
索された主観語を音検索装置32へ出力する。
【0042】音検索装置32は、入力されたキーワード
にて、効果音データベース2を検索し、その検索結果の
音のインデックス(例えばファイル名)を、音付テキス
トテーブル12へ書き出す。この時、検索結果の情報
は、その効果音付加の対象となる文章や語句と関連付け
た形で、音付テキストテーブル12へ記載される。
【0043】音響制御装置4は、制御部41と、音声合
成装置42と、効果音出力装置43とを備える。
【0044】制御部41は、音付テキストテーブル12
より単位ごとにテキストを取得し、音声合成装置42へ
供給する。
【0045】さらに制御部41は、音付テキストテーブ
ル12より、所定単位の文章に対応する音のインデック
スを取得し、効果音出力装置43へ供給する。
【0046】効果音出力装置43は、制御部41からの
インデックスを入力し該インデクスの音ファイルを、効
果音データベース2より検索して、効果音データを取得
する。
【0047】音声合成装置42から出力される合成音声
と、効果音出力装置43から出力される効果音データ
は、スピーカ等よりなる音響出力装置5より出力され
る。
【0048】次に図1および図2、図3を参照して、本
発明の第一の実施の形態の動作について説明する。
【0049】図2は、本発明の第1の実施の形態におけ
る音選定装置3の動作を示すフローチャートである。
【0050】まず図1及び図2を参照して、音選定装置
3の動作について説明する。
【0051】まず、テキスト取得部33に、初期値とし
て、変数N=1が設定される(ステップA1)。
【0052】テキスト取得部33は、テキストデータ1
1よりN番目のテキスト文章を読み出し、音付テキスト
テーブル12に書き出す(ステップA2)。同時に、テ
キスト取得部33は、N番目の文章を、キーワード抽出
装置31へ出力する。
【0053】キーワード抽出装置31は、テキスト取得
部33から出力されたN番目の文章を入力し、キーワー
ドを抽出する(ステップA3、A4)。
【0054】キーワード抽出装置31について具体的な
動作を説明すると、キーワード抽出装置31は、擬音語
抽出手段311、音源抽出手段312、主観語抽出手段
313のうち少なくとも一つを備え、擬音語抽出手段3
11は、入力されたテキストから擬音語を、音源抽出手
段312は音源名を、主観語抽出手段313は主観語を
入力されたテキストからキーワードとして抽出する(ス
テップA3、A4)。
【0055】このようにして、検索されたキーワードは
音検索装置32に入力される。音検索装置32は、検索
されたキーワード(擬音語、音源名、主観語の少なくと
も一つ)にて、効果音データベース2を検索し、検索結
果として、例えばファイル名等よりなる、音インデック
スを得(ステップA5、A6)、得られた音インデック
スを音付テキストテーブル12に、先に書き出された文
章と関連付けて書き出す(ステップA7)。
【0056】次に、N番目の文章がテキストデータ11
の最後の文章の場合には処理を終了し、最後でない場合
には、変数Nを更新し(N=N+1)、ステップA2か
らの処理を繰り替えす(ステップA8、A9)。
【0057】ステップA4及びステップA6で、キーワ
ードの抽出および音データの検索結果ができなかった場
合には、ステップA8の処理に移る。
【0058】図3は、本発明の第1の実施の形態におけ
る音響制御装置4の動作を示すフローチャートである。
【0059】次に図1及び図3を参照して、音響制御装
置4の動作について説明する。
【0060】制御部41に、変数M=1が設定される
(ステップB1)。制御部41は、音付テキストテーブ
ル12からM番目のテキストを読み出し、これを音声合
成装置42与え、音声合成装置42は合成音声を生成し
て音響出力装置5を通して音として出力する(ステップ
B2)。
【0061】同時に、制御部41は、読み出したM番目
のテキストに対応する音のインデックス(例えばファイ
ル名)を、音付テキストテーブル12から読み出し、こ
れを効果音出力装置43に与える。
【0062】効果音出力装置43は、効果音データベー
ス13から音のインデックスに対応する音データを取得
し、音響出力装置5を通して音として出力する(ステッ
プB3)。
【0063】制御部41は、M番目の文章が、音付テキ
ストテーブル12中の最後の文章であるか否かを調べ
(ステップB4)、最後でない場合には、変数Mを更新
し(M=M+1)(ステップB5)、ステップB2から
の処理を繰り返す。ステップB4で、M番目の文章が最
後の文章であった場合には、処理を終了する。
【0064】本発明の第1の実施の形態において、テキ
スト取得部33、キーワード抽出装置31、音検索装置
32、音響制御装置4の制御部41は、コンピュータ上
で実行されるプログラムによってその機能・処理を実現
することができ、この場合、上記プログラムをコンピュ
ータが所定の記録媒体から読み出して、実行することで
本発明を実施することができる。
【0065】[実施例1]上記した本発明の第1の実施
の形態をさらに具体的な実施例に即して以下に説明す
る。
【0066】図4は、本発明の第1の実施の形態のテキ
ストデータおよび付加効果音の一具体例を示す図であ
る。図5は、本発明の第1の実施の形態の音付テキスト
テーブル12の一具体例を示す図である。図6は、本発
明の第1の実施の形態の効果音データベース13のラベ
ルの一具体例を示す図である。
【0067】まず、図1、図2、図5、及び図6を参照
して、音選定装置3について説明する。
【0068】効果音付加対象の文章であるテキストデー
タ11として、例えば図4に示す文章があるとする。ま
ず、テキスト取得部33はテキストデータ11より1番
目の(N=1)文章である「今日、自転車に乗っている
と、突然キャイーンという声が聞こえました。」を読み
出し、音付テキストテーブル12に書き出す(ステップ
A1、A2)。
【0069】図5は、音付テキストテーブル12の内容
の一例を示したものであり、テキスト番号(文番号)欄
121、テキスト欄122、音インデックス欄123を
一エントリとして構成されるテーブル構造よりなる。
【0070】音付テキストテーブル12は、テキストと
音データとの対応が記述できればよい。
【0071】この実施例では、テキスト取得部33は、
読み出した1番目の文章をテキスト欄122の文番号1
行目に書き出す。
【0072】さらに、テキスト取得部33は、読み出し
た1番目の文章をキーワード抽出装置31へ入力する。
【0073】キーワード抽出装置31は、擬音語抽出手
段311、音源抽出手段312、主観語抽出手段213
のうちの少なくとも一つを有し、各手段は入力された文
章から擬音語、音源名、主観語のキーワードをそれぞれ
抽出する(図2のステップA3)。
【0074】ここで、キーワード抽出装置31のキーワ
ード抽出方法(ステップA3)の具体例について詳説す
る。
【0075】まず擬音語抽出手段311として、公知の
自然言語処理装置を利用して擬音語を抽出してもよい。
しかし、これでは、処理が複雑かつ遅くなる場合がある
ため、別の方法として、カタカナの語を全て擬音語の候
補とみなす方法が考えられる。これは、擬音語は、カタ
カナで表記される場合が多いことによる。
【0076】この方法によると、擬音語ではない単語
(例えばコンピュータ)という単語も擬音語とみなされ
て、音検索装置32へ検索キーワードとして入力されて
しまうが、結果的に、対応する音データが検索されない
可能性が極めて高いため、擬音語抽出処理の高速化を図
る為には、よい方法である。本実施例ではこの方法を利
用する。
【0077】次に、音源抽出手段312として、公知の
自然言語処理装置を利用して音源名を抽出してもよい。
しかし、全ての文章に対して自然言語処理を適用する
と、処理が複雑になるため、次の方法が考えられる。
【0078】音源抽出手段312には、「鳴る」、「鳴
く」、「泣く」、「叩く」、「弾く」等、発音を示す動
詞を予め登録しておく。音源抽出手段312は、まずこ
れらの動詞が、入力された文章中に含まれている否か調
べ、これらの動詞を少なくとも一つ含む文章に対しての
み、自然言語処理を行なって、発音源名を抽出する。本
実施例ではこの方法を利用する。
【0079】次に、主観語抽出手段313として、自然
言語処理装置を利用してもよいが、ここでもいくつかの
別の方法が考えられる。
【0080】一つ目の方法としては、主観語抽出手段3
13に、予め「音」、「響き」など音を表すキーワード
を登録しておき、これらのキーワードが存在する文章に
対してのみ、自然言語処理にてそのキーワードを修飾す
る言葉を抽出する。
【0081】また二つ目の方法としては、主観語抽出手
段313に、「音」、「響き」など音を表すキーワード
と、音の修飾に利用される主観語、例えば、「美し
い」、「濁った」などを予め登録しておく。
【0082】入力された一文章中に、音を表すキーワー
ドと主観語の双方が存在している場合、その主観語を検
索キーワードとして抽出する。本実施例ではこの方法を
用いる。例えば、音を表すキーワードとしては、
「音」、「響き」を、主観語としては、「うるさい」、
「金属性の」、「にごった」、「うつくしい」、「もの
たりない」、「迫力のある」、「かたい」、「陽気
な」、「にぶい」、「おだやかな」という10種類を主
観語抽出装置313に登録しておく。
【0083】ここで、キーワード抽出手段31の動作
(図2のステップA3)の具体例について説明する。
【0084】擬音語抽出手段311は、入力された文章
「今日、自転車に乗っていると、突然キャイーンという
声が聞こえました」から、カタカナである「キャイー
ン」を抽出して、音検索装置32へ入力する。
【0085】音源抽出手段312は、あらかじめ登録さ
れている「鳴く」、「鳴る」、「叩く」という動詞を入
力文章中に検索するが、存在しないので処理を終える。
【0086】主観語抽出手段313は、予め登録されて
いる「うるさい」、「金属性の」などという単語を入力
文章中に検索するが、存在しないので処理を終える(ス
テップA3、A4)。
【0087】次に、音検索装置32は、入力されたキー
ワード「キャイーン」にて効果音データベース2を検索
する(ステップ5)。
【0088】ここで、効果音データベース2および音検
索装置32には、次の文献(和氣、旭:「直感的な音デ
ータ検索・編集システムの開発」、情報処理学会、情報
メディア研究会報、29−2、7〜12ページ(199
7年1月))に記載のものが利用される。この文献に示
される効果音データベースは、音データそのものと各音
データに対するラベルとが蓄積されている。
【0089】図6に、ラベルの一例を示す。ラベルは、
各音について擬音語と音源名の2種類のキーワードと、
予め設定されている主観語に関する主観得点を保持して
いる。主観語は、音を形容するのに利用される言葉(例
えば“穏やかな”)であり、主観得点は、その音を聞い
てその主観語(例えば“穏やかな”)を感じる人が何割
いるかを表す数値である。
【0090】また、上記文献に示される音検索装置は、
擬音語、音源名、主観語という3種類のキーワードによ
り、効果音データベースを検索する。音源名に関して
は、キーワード一致による検索を利用しているが、擬音
語に関しては、特願平08−309735(発明の名
称:「擬音語を用いた音検索システムおよび擬音語を用
いた音検索方法」)に示される方法などを用いて、擬音
語間の類似度を評価し、完全一致するキーワードに限ら
ず、似通った擬音語からの検索を可能にできる。この方
法により擬音語の多様性に対応できる。
【0091】主観語に関しては、あらかじめ設定された
主観語のうちのいずれかが検索キーワードとして入力さ
れると、その主観語に対する主観得点が高い音データを
検索し結果として出力する。
【0092】この方法により、音検索装置32は、「キ
ャイーン」というキーワードにて効果音データベース2
を検索し、検索結果として、「dog.wav」という
音を得る(図2のステップA5、A6)。
【0093】次に音検索装置32は、検索結果の音イン
デックス(ファイル名)を、音付テキストテーブル12
の文番号N番目の行におけるの音インデックス欄123
に記入する(図2のステップA7)。
【0094】次にテキスト取得部33は、今扱ったN番
目の文章がテキストデータ11の最後の文章かどうかを
調べる(図2のステップA8)。この場合は、次にまだ
文章があるため、N=N+1(=2)として、ステップ
A2へもどる。
【0095】テキスト取得部33では、N=1の文章の
処理が終わると、テキストデータ11より2番目(N=
2)の文章である「見渡すとそこには猫に追いかけられ
る犬の姿がありました。」(図4参照)を読み出し、音
付テキストテーブル122(図5参照)に書き出す(図
2のステップA2)。
【0096】さらに、テキスト取得部33は、この文章
を、擬音語抽出手段311、音源抽出手段312、主観
語抽出手段213に供給し、各手段311、312、3
13は、テキスト取得部33から供給された文章から、
それぞれ、擬音語、音源名、主観語のキーワードを抽出
しようとするが、この文章に関しては、キーワードは存
在しない(図2のステップA3、A4)。
【0097】テキスト取得部33は、2番目の文章がテ
キストデータ11の最後の文章かどうかを調べ(図2の
ステップA9)、その結果、最後ではないので、N=N
+1(=3)として(ステップA8)、ステップA2へ
もどる。
【0098】同様に、3番目の文章「僕は側にあったド
ラム缶を叩き、猫を追い払いました」に対して、キーワ
ード抽出処理を行なう。音源抽出手段312は、入力文
章中に登録されている音を表す動詞を検索すると、「叩
く」という動詞の活用形が存在することから、この文章
に対して、自然言語処理を適用し、動詞「叩く」の目的
語である「ドラム缶」というキーワードを得る。音源抽
出手段312はこのキーワードを音検索装置32に入力
する。
【0099】擬音語抽出手段311と主観語抽出手段3
13は、それぞれの方法で入力文章中を検索するが、対
応するキーワードは文章中に存在しないため処理を終え
る(以上図2のステップA3、A4)。
【0100】音検索装置32は、キーワード「ドラム
缶」にて効果音データベース2を検索し、結果として、
「can.wav」を得て、音付テキストテーブル12
に格納する(図2のステップA5、A6、A7)。
【0101】同様に、N番目の文章「鋭い金属性の音
に...」では、主観語抽出手段313が入力文章に対
して検索を行なうと、「金属性の」という主観語と、
「音」という単語とが存在するため、「金属性の」とい
う主観語を検索キーワードとして音検索装置32に入力
する。
【0102】その結果、「effect1.wav」と
いう音が検索され、音付テキストテーブル12に登録さ
れる。
【0103】このようにして、テキストデータ11中の
全ての文章に対して音選定装置3による効果音選定処理
が行われ、テキスト文章と効果音の対応が記述された効
果音付きテキストデータ12が完成する。
【0104】次に、図1、図3および図5を参照して、
効果音制御装置4について説明する。
【0105】制御部41において、変数Mが初期化(M
=1)される(図3のステップB1)。
【0106】制御部41は、音付テキストテーブル12
の文番号M番目のテキスト欄122からテキストを読み
出し、音声合成装置42に入力すると、音声合成装置4
2は合成音声を生成し、音響出力装置5より出力する
(ステップB2)。
【0107】制御部41は、合成音声発音終了を特に待
たずに、文番号M番目の音インデックス欄123から音
インデックスを読み出し、効果音出力装置43へ入力す
ると、効果音出力装置43は、効果音データベース2中
から、対応する効果音データを検索し、検索された効果
音データを音響出力装置5を通して効果音を出力する。
【0108】この実施例の変形としては、音付テキスト
テーブル12にどの文章中のどのキーワードから音が検
索されたか等の詳細な情報を登録しておくことで、丁度
そのキーワードが合成音声にて発音された時に、効果音
を出力することや、さらには、擬音語部分を合成音声に
て読み上げずに、その部分に効果音をはめ込んで再生す
ることも可能である。
【0109】[実施の形態2]次に本発明の第2の実施
の形態について説明する。本発明の第2の実施の形態
は、テキストの読み上げに、バックグラウンドミュージ
ックとして音楽を付加する装置である。図7に、本発明
の第2の実施の形態の構成を示す。
【0110】図7を参照すると、本発明の第2の実施の
形態は、テキストデータを保存する第1の記憶装置1
と、第2の記憶装置7と、音楽データベース6と、前記
音楽データベースより音楽を選定する音選定装置3と、
を備えて構成されている。なお、本発明の第2の実施の
形態における出力系統の構成として、前記第1の実施の
形態で利用された音響制御装置4および音響出力装置5
を備えており、これらの装置は前記第1の実施の形態と
同様の構成のものである。
【0111】第1の記憶装置1は、音楽付加の対象とな
るテキストデータ11を記憶する。第2の記憶装置7
は、選定された効果音の情報をテキストと関連付けて格
納した音付テキストテーブル12を記憶する。
【0112】音楽データベース6は、様々な音楽データ
(例えば、PCMデータやMIDIデータ)、および、
これらの音楽データについてのラベルが蓄積されてお
り、このラベルには、少なくとも音楽の印象を表す主観
語がキーワードとして記載されている。
【0113】音選定装置3は、テキスト取得部33と、
キーワード抽出装置31と、キーワード計数手段34
と、音検索装置32と、を備えている。
【0114】テキスト取得部33は、テキストデータ1
1より、ある単位ごと(例えば節、文、段落)に文章を
取得し、取得した文章を音付テキストテーブル12へ書
き込む。さらにその文章を、キーワード抽出装置31へ
供給する。
【0115】キーワード抽出装置31は、主観語抽出手
段313から構成され、主観語抽出手段313は、入力
された文章中から、主観語(例えば、「楽しい」、「悲
しい」、「さわやかな」など)を検索して、キーワード
計数手段34へ出力する。
【0116】キーワード計数手段34は、キーワード抽
出装置31から出力された主観語を入力し、主観語のう
ち、同種類の主観語の数をカウントする。
【0117】さらにキーワード計数手段34は、各主観
語についてそれぞれ予め定められた閾値を保有してお
り、カウント数が、対応する閾値を超えた主観語につい
てのみ、その主観語を音検索装置32へ出力する。
【0118】音検索装置32は、キーワード計数手段3
4から出力された主観語を入力し、主観語にて音楽デー
タベース6を検索し、その検索結果のインデックス(例
えばファイル名)を、音付テキストテーブル12へ格納
する。この時、検索結果のインデックスは、音楽付加の
対象となる文章と関連付けて音付テキストテーブル12
へ記憶される。
【0119】図8は、本発明の第2の実施の形態の動作
を示すフローチャートである。図7、及び図8を参照し
て、本発明の第2の実施の形態の動作について説明す
る。
【0120】まず、テキスト取得部33に、変数P=1
が設定される(ステップC1)。
【0121】テキスト取得部33は、テキストデータ1
1よりP(=1)段落目のテキスト文章を読み出し、音
付テキストテーブル12に格納する(ステップC2)。
同時に、テキスト取得部33は、P段落目の文章を、主
観語抽出手段313へ出力する。
【0122】主観語抽出手段313は、テキスト取得部
33から出力された、P段落目の文章を入力し、該文章
から主観語を検索する(ステップC3)。
【0123】主観語抽出手段313で抽出された主観語
は、キーワード計数手段34に出力され、キーワード計
数手段34は、各主観後の出現回数をカウントし(ステ
ップC4)、その数が予め登録されている閾値を超える
と(ステップC5)、該主観語を音検索装置32に出力
する。音検索装置32は、キーワード計数手段34から
の主観語にて、音楽データベース2を検索し、検索結果
として、例えばファイル名などの音インデックスを得
る。
【0124】次に、音検索装置32は、得られた音イン
デックスを音付テキストテーブルに、先に書き出したテ
キストデータと、関連付けた形で書き出す(ステップC
7)。
【0125】P段落目の文章が、テキストデータ11の
最後の段落でない場合には、P=P+1として、ステッ
プA2からの処理を繰り替えす(ステップC8、C
9)。
【0126】このとき、キーワード計数手段34のカウ
ンタ数は、ゼロにクリアされる。
【0127】ステップC5にてキーワード数が閾値を超
えなかった場合には、ステップC8の処理に移る。
【0128】[実施例2]上記した本発明の第2の実施
の形態について具体的な実施例に即して以下に説明す
る。図9は、本発明の第2の実施の形態の実施例におけ
るテキストデータの一例を示す図である。図7乃至図9
を参照して、本発明の第2の実施の形態をさらに具体的
に説明する。
【0129】音楽付加対象の文章であるテキストデータ
11として、例えば図9に示す文章が第1の記憶装置1
に格納されているものとする。
【0130】テキスト取得部33に初期値P=1が設定
される(ステップC1)。テキスト取得部33はテキス
トデータ11より、P(=1)段落目の文章「今日は遊
園地に〜楽しい楽しい一日でした。」(図9参照)を音
付テキストテーブル12に書き出し(ステップC2)、
同時に、この文章を主観語抽出手段313に入力する。
【0131】主観語抽出手段313には、「楽しい」、
「悲しい」、「激しい」、「恐い」、「あやしい」など
の主観語が予め登録されており、これらの主観語および
その活用形を入力された文章から抽出する。
【0132】主観語抽出手段313が入力された文章
「今日は遊園地に〜楽しい楽しい」を調べると、「楽し
い」と「恐い」という主観語が検出され(ステップC
3)、これらのキーワードを順次キーワード計数手段3
4に入力する。
【0133】キーワード計数手段34が入力されたキー
ワードの数をカウントすると、「楽しい」という主観語
およびその活用形が3個、「恐い」という主観語、およ
びその活用形が1個という結果を得る(ステップC
4)。
【0134】ここで、キーワード計数手段34には、全
てのキーワードに関して閾値「2」という数値が設定さ
れているとする。主観語毎に別の閾値を設定しておくよ
うにしてもよい。
【0135】キーワード計数手段34は、この主観語の
個数が、閾値を超えた場合のみ、その主観語を音検索装
置32へ出力する。この例の場合、「楽しい」という主
観語のみ閾値2を超えているので、「楽しい」が音検索
装置32へ出力される(ステップC5、C6)。
【0136】音検索装置32は、キーワード計数手段3
4からの「楽しい」というキーワードで、音楽データベ
ース6を検索し、検索結果として、音楽データのインデ
ックスとしてファイル名を得る。
【0137】音検索装置32は、得られた音楽ファイル
名を、音付テキストテーブル12に、先に記入されたテ
キストデータと対応付けた形で記入する(ステップC
7)。
【0138】テキスト取得部33は、P段落目がテキス
トデータ11の最後の段落かどうかを調べ(ステップC
8)、最後でない場合はP=P+1としてステップC2
にもどる。最後の段落の場合は処理を終了する。
【0139】一方、キーワード計数手段34にて、複数
の主観語が閾値を超えた場合には、その中でも最もカウ
ント数の多い主観語を検索のキーワードとすることがで
きる。
【0140】さらに、カウント数が最多である主観語が
複数ある場合には、以下に示すうちのいずれかの対処方
法をとることができる。
【0141】まず第1の方法は、一つ前の段落でキーワ
ードとして選ばれた主観語を記憶しておき、その主観語
と別の主観語を選択する方法、第2の方法は、キーワー
ド抽出の対象となる段落を前半と後半に分けて、それぞ
れにおける主観語をカウントし直し、段落の前半と後半
で別のバックグラウンドミュージックを付加する方法、
第3の方法は、音楽データベース6の主観語ラベルを複
数の主観語の登録が可能な構成として、複数の主観語の
組合わせによる検索を行なう方法である。
【0142】上記した本発明の第2の実施の形態は、主
観語を効果音付加対象のテキスト文章中から検索し、そ
の数がある一定数を超えた時に、その主観語に対応する
音楽をバックグラウンドミュージックとして、テキスト
読み上げ時に出力することができる。
【0143】これにより、文章の作者や主人公の気持ち
を反映するようなバックグラウンドミュージックを付加
することができる。また、文章全体を自然言語処理で解
析することなく、簡単な処理でバックグラウンドミュー
ジックを付加することができる。
【0144】一方、本発明の第2の実施の形態におい
て、キーワード抽出装置31に、例えば特開平7−72
888号公報に記載されている情報処理装置の環境抽出
装置を備えた構成としてもよい。このとき、情報処理装
置は、直接、音検索装置32に接続される。環境抽出装
置は、文章の各シーンの場所を特定することが可能であ
る。この環境抽出装置により、シーンの場所が「海」で
あることがわかったとすると、「海」を検索のキーワー
ドとして、音楽データベース6を検索することができ
る。
【0145】これにより、シーンの環境にあったバック
グラウンドミュージックを出力することができる。
【0146】また、本発明の第1および第2の実施の形
態について、音選定装置3および音響制御装置4を分離
してもよい。このように分離した場合に、この両者の間
を通信回線で相互接続することにより、利用者側に、音
データに関するデータベースを設置することなく、上記
した実施の形態と同様の効果を得ることができる。この
ような構成にすることで、利用者側の端末の回路構成や
データの処理過程が少なくなり、利用者端末を安価に設
計できるようになる。
【0147】また、音データベースをセンター側で管理
することで、データの更新や著作権などの管理が行いや
すくなるといったメリットが生まれる。
【0148】さらなる具体例としては、電子メールのよ
うに、2者間で文章のやり取りをするような場合、文章
送信側に、音選定装置3および効果音データベース2
(または音楽データベース6)が、受信側に音響制御装
置4および効果音データベース2(音楽データベース
6)が設けられる。送信側は、予めキーワード選定を行
い、音付テキストテーブル12を受け手に送出すると、
受信側では、受け取った音付テキストテーブル12を音
響出力制御装置4を利用して聴くことができる。
【0149】さらには、音付テキストテーブル12に必
要な音データを付けて送出する方法をとると、受信側に
効果音データベース2や音楽データベース6がなくて
も、受信側は音響制御装置4があれば効果音および音楽
付音声を聞くことができる。
【0150】一方、上記した本発明の第1および第2の
実施の形態について、効果音付加(バックグラウンドミ
ュージック付加)のリアルタイム処理を行なうことも可
能である。
【0151】この場合、音選定装置3の処理速度が十分
に高速であることが条件となるが、文章を音響出力装置
5より出力している間に、次の文章(もしくは段落)に
対して、音選定装置3が音付加処理を行なう。
【0152】このようにリアルタイム処理を行なう場
合、音付テキストテーブル12は利用しなくてもよい。
この場合、テキスト800(図1)と、音検索装置32
によって検索された音インデックス801は音付テキス
トテーブル12を介さずに直接、音響制御装置4の制御
部41へ入力され、制御部41は音声と効果音(または
音楽)の同期をとって出力を行なう。
【0153】さらに、音響出力装置5として、音響情報
の出力に加え、ディスプレイ等の視覚情報出力機能を併
せ持つ装置を利用することもできる。この構成により、
文章をディスプレイに表示しながら、音を出力するとい
ったことが実現できる。
【0154】また、音が付加されたテキストを表示装置
の画面上に文字列表示する際に、音が付加されている部
分の文字列をクリック可能とし、そこをマウス等でクリ
ックすると、音響制御装置が音を出力するといったこと
も行えるようになる。
【0155】
【発明の効果】以上説明したように、本発明によれば下
記記載の効果を奏する。
【0156】本発明の第1の効果は、テキストに対する
効果音付加のための文章解析処理が容易になり、効果音
付加までの効果音検索処理時間を短縮する、ということ
である。
【0157】その理由は、本発明においては、文章中の
擬音語、音源名、主観語のみに注目して、キーワードを
取得し、そのキーワードに対応する効果音を検索する、
構成としたためである。
【0158】本発明の第2の効果は、テキスト文書中の
音表現に忠実な効果音を付加することができる、という
ことである。
【0159】その理由は、本発明においては、音を最も
具体的に表現する「擬音語」を文章中より取得して、擬
音語による音データの検索を行なうようにしたためであ
る。
【0160】本発明の第3の効果は、文章の傾向に合っ
たバックグラウンドミュージックを簡単な処理かつ短い
処理時間で自動的に選択することができる、ということ
である。
【0161】その理由は、本発明においては、文章中の
主観語の出現回数に注目して、その主観語に対応する音
楽を検索する、構成としたためである。
【図面の簡単な説明】
【図1】本発明の効果音付加装置の一実施の形態の構成
を示す図である。
【図2】本発明の効果音付加装置の一実施の形態におけ
る音選定装置の動作を説明するためのフローチャートで
ある。
【図3】本発明の効果音付加装置の一実施の形態におけ
る音響制御装置の動作を説明するためのフローチャート
である。
【図4】本発明の効果音付加装置の一実施の形態を説明
するための図であり、テキストデータの一例を示す図で
ある。
【図5】本発明の効果音付加装置の一実施の形態を説明
するための図であり、音付テキストテーブルの一例を示
す図である。
【図6】本発明の効果音付加装置の一実施の形態を説明
するための図であり、効果音データベースのラベルの一
例を示す図である。
【図7】本発明のバックグラウンドミュージック付加装
置の一実施の形態の構成を示す図である。
【図8】本発明のバックグラウンドミュージック付加装
置の一実施の形態における音選定装置の動作を説明する
ためのフローチャートである。
【図9】本発明のバックグラウンドミュージック付加装
置の一実施の形態を説明するための図であり、テキスト
データの別の一例を示す図である。
【図10】従来の効果音付加装置(情報処理装置)の構
成を示す図である。
【図11】従来の効果音付加装置における環境抽出装置
を示す構成を示す図である。
【図12】従来の効果音付加装置における環境テーブル
の一例である。
【符号の説明】
1 第1の記憶装置 2 効果音データベース 3 音選定装置 4 音響制御装置 5 音響出力装置 6 音楽データベース 7 第2の記憶装置 11 テキストデータ 12 音付テキストテーブル 31 キーワード抽出装置 32 音検索装置 33 テキスト取得部 34 キーワード計数手段 41 制御部 42 音声合成装置 43 効果音出力装置 121 文番号欄 122 テキスト欄 123 音インデックス欄 311 擬音語抽出手段 312 音源抽出手段 313 主観語抽出手段 800 テキスト 801 音インデックス 1010 キーボード 1020 文章入力装置 1030 メモリ 1040 自然言語処理装置 1050 環境抽出装置 1060 登場人物特徴抽出装置 1070 効果音発生装置 1080 音出力装置 1090 音声合成装置 1110 環境抽出部 1120 環境テーブル 1200 環境名 1210 動詞 1220 効果音のインデックス 1230 効果音のインデックスの一例

Claims (15)

    【特許請求の範囲】
  1. 【請求項1】(a)入力したテキストデータより、所定
    の単位ごとに文章を取得するステップ、 (b)前記文章中から、擬音語、音源名、及び主観語の
    うちの少なくとも一種を抽出するステップ、 (c)抽出された擬音語、音源名、及び主観語のうちの
    いずれかで音データベースから対応する効果音を検索す
    るステップ、 (d)前記文章を読み上げる合成音声と、擬音語、音源
    名、及び主観語のうちの一つに対応して検索された効果
    音とを同期させて出力するステップ、 を含むことを特徴とする効果音付加方法。
  2. 【請求項2】前記所定の単位が、節、文、段落のいずれ
    かであることを特徴とする請求項1記載の効果音付加方
    法。
  3. 【請求項3】入力したテキストデータより、所定の単位
    ごとに文章を取得するテキスト取得手段と、 前記テキスト取得手段で取得された前記文章を入力し前
    記文章中の擬音語を抽出する擬音語抽出手段と、 前記擬音語抽出手段で抽出された前記擬音語にて音デー
    タベースを検索する音検索手段と、 前記テキスト取得手段からの前記文章を読み上げる合成
    音声と、前記音検索手段にて検索された前記擬音語に対
    応する効果音とを同期させて出力する音響制御手段と、 を含むことを特徴とする効果音付加装置。
  4. 【請求項4】入力したテキストデータより、所定の単位
    ごとに文章を取得するテキスト取得手段と、 前記テキスト取得手段で取得された前記文章を入力し前
    記文章中の音源名を抽出する音源抽出手段と、 前記音源抽出手段で抽出された前記音源名にて音データ
    ベースを検索する音検索手段と、 前記テキスト取得手段からの前記文章を読み上げる合成
    音声と、前記音検索手段にて検索された前記音源名に対
    応する効果音とを同期させて出力する音響制御手段と、 を含むことを特徴とする効果音付加装置。
  5. 【請求項5】入力したテキストデータより、所定の単位
    ごとに文章を取得するテキスト取得手段と、 前記テキスト取得手段で取得された前記文章を入力し前
    記文章中の主観語を抽出する主観語抽出手段と、 前記主観語抽出手段で抽出された主観語にて音データベ
    ースを検索する音検索装置と、 入力された文章を読み上げる合成音声と、前記音検索手
    段にて検索された前記主観語に対応する効果音とを同期
    させて出力する音響制御手段と、 を含むことを特徴とする効果音付加装置。
  6. 【請求項6】入力したテキストデータより、所定の単位
    ごとに文章を取得するテキスト取得手段と、 前記テキスト取得手段で取得された前記文章を入力し前
    記文章中の主観語を抽出する主観語抽出手段と、 前記主観語抽出手段で抽出された主観語の数をカウント
    するキーワード計数手段と、 前記キーワード計数手段より出力される主観語にて音楽
    データベースを検索する音検索手段と、 前記テキスト取得手段からの前記文章を読み上げる合成
    音声と、前記音検索装置にて検索された前記主観語に対
    応する音楽とを同期させて出力する音響制御装置と、 を含むバックグラウンドミュージック付加装置。
  7. 【請求項7】前記擬音語抽出手段が、前記文章中に存在
    するカタカナを擬音語の候補として抽出する、ことを特
    徴とする請求項3記載の効果音付加装置。
  8. 【請求項8】予め登録されている、音に関連する動詞を
    含む文章を抽出して、前記文章に対して自然言語処理を
    行ない、音源名を抽出する、ことを特徴とする請求項4
    記載の効果音付加装置。
  9. 【請求項9】予め登録されている主観語と予め登録され
    ている音を表す名詞の双方を含む文章から、その主観語
    を抽出することを特徴とする請求項5記載の効果音付加
    装置。
  10. 【請求項10】前記テキスト取得手段でテキストデータ
    から取得される前記所定の単位が、節、文、段落のいず
    れかであることを特徴とする請求項3乃至請求項5のい
    ずれか一に記載の効果音付加装置。
  11. 【請求項11】前記テキスト取得手段でテキストデータ
    から取得される前記所定の単位が、節、文、段落のいず
    れかであることを特徴とする請求項6記載のバックグラ
    ウンドミュージック付加装置。
  12. 【請求項12】前記音データベースには、効果音データ
    および該データに関する情報ラベルとして、擬音語、音
    源名、主観語のうち少なくとも一種類のキーワードが登
    録されている、ことを特徴とする請求項3乃至10のい
    ずれか一に記載の効果音付加装置。
  13. 【請求項13】入力されるキーワードのうち同種類の数
    をカウントし、カウント数が予め設定される閾値を超え
    たキーワードを出力することを特徴とする請求項6記載
    のバックグラウンドミュージック付加装置。
  14. 【請求項14】(a)入力したテキストデータより、所
    定の単位ごと文章を取得する処理、 (b)前記文章を入力し前記文章中から、擬音語、音源
    名、及び主観語のうちの少なくとも一種を抽出する処
    理、 (c)抽出された擬音語、音源名、及び主観語のうちの
    いずれかにて音データベースを検索する処理、 (d)前記文章を読み上げる合成音声と、擬音語、音源
    名、及び主観語のうちの一つに対応して検索された効果
    音とを同期させて出力する処理、 の上記(a)〜(d)の各処理をコンピュータで実行さ
    せることで効果音付加機能を実現するプログラムを記録
    した記録媒体。
  15. 【請求項15】(a)効果音付加の対象となるテキスト
    データを保存する第1の記憶手段と、 (b)選定された効果音の情報を文章と関連付けて格納
    保持する音付テキストテーブルを有する第2の記憶手段
    と、 (c)効果音データおよび該データに関する情報ラベル
    として、擬音語、音源名、主観語のうち少なくとも一種
    類のキーワードが登録されている効果音データベース
    と、 (d)前記第1の記憶手段に格納されているテキストデ
    ータより、節、文、段落など所定の単位毎に文章を取得
    し、取得した文章を前記音付テキストテーブルへコピー
    するテキスト取得手段と、を備え、さらに、 (e−1)前記テキスト取得手段で取得された文章を入
    力し、前記文章から擬音語を抽出する擬音語抽出手段
    と、 (e−2)前記テキスト取得手段で取得された文章を入
    力し、音に関連のある文章から音源名を抽出する音源抽
    出手段と、 (e−3)前記テキスト取得手段で取得された文章を入
    力し、前記文章から主観語を抽出する主観語抽出手段
    と、 の少なくとも一つの手段を備えたキーワード抽出手段
    と、 (f)前記キーワード抽出手段からの擬音語、音源名、
    主観語の少なくともいずれか一種をキーワードとして、
    効果音データベースを検索し、その検索結果の音のイン
    デックス情報を効果音付加の対象となる文章や語句と関
    連付けた形で前記音付テキストテーブルへ書き込む音検
    索手段と、を備え、さらに、 (g−1)音声合成手段と、 (g−2)前記音付テキストテーブルより所定単位ごと
    に文章を取得し、前記音声合成手段へ供給し、前記音付
    テキストテーブルより、所定単位の文章に対応する音の
    インデックスを取得する制御手段と、 (g−3)前記制御部で取得されたインデックスを入力
    し該インデクスの音ファイルを前記効果音データベース
    より検索して効果音データを取得する効果音出力手段
    と、 を備えた音響制御手段と、 (h)音響出力手段と、 を備え、 前記音響制御手段の音声合成手段から出力される合成音
    声と、前記効果音出力手段から出力される効果音データ
    とが同期して前記音響出力手段より出力される、ことを
    特徴とする効果音付加装置。
JP10250264A 1998-09-04 1998-09-04 効果音付加装置および効果音付加方法 Pending JP2000081892A (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP10250264A JP2000081892A (ja) 1998-09-04 1998-09-04 効果音付加装置および効果音付加方法
GB9920923A GB2343821A (en) 1998-09-04 1999-09-03 Adding sound effects or background music to synthesised speech
US09/389,494 US6334104B1 (en) 1998-09-04 1999-09-03 Sound effects affixing system and sound effects affixing method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP10250264A JP2000081892A (ja) 1998-09-04 1998-09-04 効果音付加装置および効果音付加方法

Publications (1)

Publication Number Publication Date
JP2000081892A true JP2000081892A (ja) 2000-03-21

Family

ID=17205313

Family Applications (1)

Application Number Title Priority Date Filing Date
JP10250264A Pending JP2000081892A (ja) 1998-09-04 1998-09-04 効果音付加装置および効果音付加方法

Country Status (3)

Country Link
US (1) US6334104B1 (ja)
JP (1) JP2000081892A (ja)
GB (1) GB2343821A (ja)

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6334104B1 (en) * 1998-09-04 2001-12-25 Nec Corporation Sound effects affixing system and sound effects affixing method
JP2002221980A (ja) * 2001-01-25 2002-08-09 Oki Electric Ind Co Ltd テキスト音声変換装置
JP2002318593A (ja) * 2001-04-20 2002-10-31 Sony Corp 言語処理装置および言語処理方法、並びにプログラムおよび記録媒体
WO2002086861A1 (fr) * 2001-04-20 2002-10-31 Sony Corporation Processeur de langage
EP1246081A3 (en) * 2001-03-30 2006-07-26 Yamaha Corporation Apparatus and method for adding music content to visual content delivered via communication network
WO2008001500A1 (fr) * 2006-06-30 2008-01-03 Nec Corporation Système de génération de contenus audio, système d'échange d'informations, programme, procédé de génération de contenus audio et procédé d'échange d'informations
JP2008035228A (ja) * 2006-07-28 2008-02-14 Daiichikosho Co Ltd 静止画像表示システム
JP2013101637A (ja) * 2007-04-28 2013-05-23 Nokia Corp テキスト専用アプリケーションのための娯楽オーディオ
JP2014026603A (ja) * 2012-07-30 2014-02-06 Hitachi Ltd 音楽選択支援システム、音楽選択支援方法、および音楽選択支援プログラム

Families Citing this family (38)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7050376B2 (en) 2000-09-19 2006-05-23 Lg Electronics Inc. Optical disc player and method for reproducing thereof
US7470196B1 (en) * 2000-10-16 2008-12-30 Wms Gaming, Inc. Method of transferring gaming data on a global computer network
US7722466B2 (en) * 2002-03-06 2010-05-25 Wms Gaming Inc. Integration of casino gaming and non-casino interactive gaming
US20030200858A1 (en) * 2002-04-29 2003-10-30 Jianlei Xie Mixing MP3 audio and T T P for enhanced E-book application
US20040102975A1 (en) * 2002-11-26 2004-05-27 International Business Machines Corporation Method and apparatus for masking unnatural phenomena in synthetic speech using a simulated environmental effect
US20050162699A1 (en) * 2004-01-22 2005-07-28 Fuji Photo Film Co., Ltd. Index printing device, instant film, service server, and servicing method
JP2005293174A (ja) * 2004-03-31 2005-10-20 Toshiba Corp テキストデータ編集装置、テキストデータ編集方法及びテキストデータ編集プログラム
CN101088085A (zh) * 2004-12-22 2007-12-12 皇家飞利浦电子股份有限公司 便携式音频播放设备及其操作方法
JP4524640B2 (ja) * 2005-03-31 2010-08-18 ソニー株式会社 情報処理装置および方法、並びにプログラム
EP1876522A1 (en) * 2005-04-12 2008-01-09 Sharp Kabushiki Kaisha Audio reproducing method, character code using device, distribution service system, and character code management method
JP4787634B2 (ja) * 2005-04-18 2011-10-05 株式会社リコー 音楽フォント出力装置、フォントデータベース及び言語入力フロントエンドプロセッサ
CA2513232C (en) * 2005-07-25 2019-01-15 Kayla Cornale Method for teaching reading and lterary
US7644000B1 (en) * 2005-12-29 2010-01-05 Tellme Networks, Inc. Adding audio effects to spoken utterance
US20070245375A1 (en) * 2006-03-21 2007-10-18 Nokia Corporation Method, apparatus and computer program product for providing content dependent media content mixing
CN101046956A (zh) * 2006-03-28 2007-10-03 国际商业机器公司 交互式音效产生方法及系统
JP2009265279A (ja) * 2008-04-23 2009-11-12 Sony Ericsson Mobilecommunications Japan Inc 音声合成装置、音声合成方法、音声合成プログラム、携帯情報端末、および音声合成システム
US20090326953A1 (en) * 2008-06-26 2009-12-31 Meivox, Llc. Method of accessing cultural resources or digital contents, such as text, video, audio and web pages by voice recognition with any type of programmable device without the use of the hands or any physical apparatus.
US20100028843A1 (en) * 2008-07-29 2010-02-04 Bonafide Innovations, LLC Speech activated sound effects book
JPWO2011122522A1 (ja) * 2010-03-30 2013-07-08 日本電気株式会社 感性表現語選択システム、感性表現語選択方法及びプログラム
US9037467B2 (en) * 2012-01-02 2015-05-19 International Business Machines Corporation Speech effects
US8979635B2 (en) 2012-04-02 2015-03-17 Wms Gaming Inc. Systems, methods and devices for playing wagering games with distributed and shared partial outcome features
US9564007B2 (en) 2012-06-04 2017-02-07 Bally Gaming, Inc. Wagering game content based on locations of player check-in
US9495450B2 (en) * 2012-06-12 2016-11-15 Nuance Communications, Inc. Audio animation methods and apparatus utilizing a probability criterion for frame transitions
US9305433B2 (en) 2012-07-20 2016-04-05 Bally Gaming, Inc. Systems, methods and devices for playing wagering games with distributed competition features
US8721436B2 (en) 2012-08-17 2014-05-13 Wms Gaming Inc. Systems, methods and devices for configuring wagering game devices based on shared data
US8616981B1 (en) 2012-09-12 2013-12-31 Wms Gaming Inc. Systems, methods, and devices for playing wagering games with location-triggered game features
JP6013951B2 (ja) * 2013-03-14 2016-10-25 本田技研工業株式会社 環境音検索装置、環境音検索方法
US9875618B2 (en) 2014-07-24 2018-01-23 Igt Gaming system and method employing multi-directional interaction between multiple concurrently played games
US10249205B2 (en) 2015-06-08 2019-04-02 Novel Effect, Inc. System and method for integrating special effects with a text source
CN105336329B (zh) * 2015-09-25 2021-07-16 联想(北京)有限公司 一种语音处理方法及系统
US10394885B1 (en) * 2016-03-15 2019-08-27 Intuit Inc. Methods, systems and computer program products for generating personalized financial podcasts
US10242674B2 (en) * 2017-08-15 2019-03-26 Sony Interactive Entertainment Inc. Passive word detection with sound effects
US10888783B2 (en) 2017-09-20 2021-01-12 Sony Interactive Entertainment Inc. Dynamic modification of audio playback in games
US10661175B2 (en) 2017-09-26 2020-05-26 Sony Interactive Entertainment Inc. Intelligent user-based game soundtrack
WO2020151008A1 (en) * 2019-01-25 2020-07-30 Microsoft Technology Licensing, Llc Automatically adding sound effects into audio files
US11133004B1 (en) * 2019-03-27 2021-09-28 Amazon Technologies, Inc. Accessory for an audio output device
US11373633B2 (en) * 2019-09-27 2022-06-28 Amazon Technologies, Inc. Text-to-speech processing using input voice characteristic data
CN111050203B (zh) * 2019-12-06 2022-06-14 腾讯科技(深圳)有限公司 一种视频处理方法、装置、视频处理设备及存储介质

Family Cites Families (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
NL7904469A (nl) * 1979-06-07 1980-12-09 Philips Nv Inrichting voor het lezen van een gedrukte kode en het daarvan omzetten in een audio-signaal.
JPH03150599A (ja) * 1989-11-07 1991-06-26 Canon Inc 日本語音節の符号化方式
JP2849504B2 (ja) * 1992-05-29 1999-01-20 シャープ株式会社 自動読書装置
JPH0679228A (ja) 1992-09-01 1994-03-22 Sekisui Jushi Co Ltd 塗装ステンレス鋼基材
JPH06208394A (ja) 1993-01-11 1994-07-26 Toshiba Corp メッセージ交換処理装置
JPH06337876A (ja) 1993-05-28 1994-12-06 Toshiba Corp 文章読み上げ装置
JPH0772888A (ja) * 1993-09-01 1995-03-17 Matsushita Electric Ind Co Ltd 情報処理装置
JPH07200554A (ja) 1993-12-28 1995-08-04 Toshiba Corp 文章読み上げ装置
US5799267A (en) * 1994-07-22 1998-08-25 Siegel; Steven H. Phonic engine
JP2956621B2 (ja) 1996-11-20 1999-10-04 日本電気株式会社 擬音語を用いた音検索システムおよび擬音語を用いた音検索方法
JP2000163418A (ja) * 1997-12-26 2000-06-16 Canon Inc 自然言語処理装置及びその方法、及びそのプログラムを格納した記憶媒体
JP2000081892A (ja) 1998-09-04 2000-03-21 Nec Corp 効果音付加装置および効果音付加方法

Cited By (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6334104B1 (en) * 1998-09-04 2001-12-25 Nec Corporation Sound effects affixing system and sound effects affixing method
JP2002221980A (ja) * 2001-01-25 2002-08-09 Oki Electric Ind Co Ltd テキスト音声変換装置
US7260533B2 (en) * 2001-01-25 2007-08-21 Oki Electric Industry Co., Ltd. Text-to-speech conversion system
EP1246081A3 (en) * 2001-03-30 2006-07-26 Yamaha Corporation Apparatus and method for adding music content to visual content delivered via communication network
US7328272B2 (en) 2001-03-30 2008-02-05 Yamaha Corporation Apparatus and method for adding music content to visual content delivered via communication network
JP2002318593A (ja) * 2001-04-20 2002-10-31 Sony Corp 言語処理装置および言語処理方法、並びにプログラムおよび記録媒体
WO2002086861A1 (fr) * 2001-04-20 2002-10-31 Sony Corporation Processeur de langage
WO2008001500A1 (fr) * 2006-06-30 2008-01-03 Nec Corporation Système de génération de contenus audio, système d'échange d'informations, programme, procédé de génération de contenus audio et procédé d'échange d'informations
JP2008035228A (ja) * 2006-07-28 2008-02-14 Daiichikosho Co Ltd 静止画像表示システム
JP4679463B2 (ja) * 2006-07-28 2011-04-27 株式会社第一興商 静止画像表示システム
JP2013101637A (ja) * 2007-04-28 2013-05-23 Nokia Corp テキスト専用アプリケーションのための娯楽オーディオ
JP2014026603A (ja) * 2012-07-30 2014-02-06 Hitachi Ltd 音楽選択支援システム、音楽選択支援方法、および音楽選択支援プログラム

Also Published As

Publication number Publication date
GB9920923D0 (en) 1999-11-10
GB2343821A (en) 2000-05-17
US6334104B1 (en) 2001-12-25

Similar Documents

Publication Publication Date Title
JP2000081892A (ja) 効果音付加装置および効果音付加方法
US8396714B2 (en) Systems and methods for concatenation of words in text to speech synthesis
US8583418B2 (en) Systems and methods of detecting language and natural language strings for text to speech synthesis
US8712776B2 (en) Systems and methods for selective text to speech synthesis
US8355919B2 (en) Systems and methods for text normalization for text to speech synthesis
US8352272B2 (en) Systems and methods for text to speech synthesis
US8036894B2 (en) Multi-unit approach to text-to-speech synthesis
US20100082328A1 (en) Systems and methods for speech preprocessing in text to speech synthesis
US20100082344A1 (en) Systems and methods for selective rate of speech and speech preferences for text to speech synthesis
US20100082327A1 (en) Systems and methods for mapping phonemes for text to speech synthesis
JPH10274997A (ja) 文書読み上げ装置
JPWO2004066271A1 (ja) 音声合成装置,音声合成方法および音声合成システム
JP3085631B2 (ja) 音声合成方法及びシステム
JP4738847B2 (ja) データ検索装置および方法
CN112669815B (zh) 歌曲定制生成方法及其相应的装置、设备、介质
JP3071804B2 (ja) 音声合成装置
JP3706758B2 (ja) 自然言語処理方法,自然言語処理用記録媒体および音声合成装置
US20060248105A1 (en) Interactive system for building and sharing databank
JP2005004100A (ja) 聴取システムおよび音声合成装置
JPH1115497A (ja) 氏名読み音声合成装置
JP4306086B2 (ja) 音声合成用辞書作成装置及び方法
JPH10228471A (ja) 音声合成システム,音声用テキスト生成システム及び記録媒体
JP2002297667A (ja) 文書閲覧装置
Plug et al. Schwa deletion and perceived tempo in English
JP2001265792A (ja) 自動要約文生成装置、自動要約文生成方法及び自動要約文生成方法を記録した媒体

Legal Events

Date Code Title Description
A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20020514