JPH0772888A - Information processor - Google Patents

Information processor

Info

Publication number
JPH0772888A
JPH0772888A JP5217287A JP21728793A JPH0772888A JP H0772888 A JPH0772888 A JP H0772888A JP 5217287 A JP5217287 A JP 5217287A JP 21728793 A JP21728793 A JP 21728793A JP H0772888 A JPH0772888 A JP H0772888A
Authority
JP
Japan
Prior art keywords
character
environment
document
sound
output
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP5217287A
Other languages
Japanese (ja)
Inventor
Yoshihiko Matsukawa
善彦 松川
Makoto Hirai
誠 平井
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Holdings Corp
Original Assignee
Matsushita Electric Industrial Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Matsushita Electric Industrial Co Ltd filed Critical Matsushita Electric Industrial Co Ltd
Priority to JP5217287A priority Critical patent/JPH0772888A/en
Publication of JPH0772888A publication Critical patent/JPH0772888A/en
Pending legal-status Critical Current

Links

Abstract

PURPOSE:To provide a reading device inputting a documemt and reproducing a sound with presence according to the characteristics of the characters and the surroundings in the document. CONSTITUTION:This processor is constituted of a key board 101 and a document input device 102 for inputting the document, a natural language processor 104 analyzing the document, a characters characteristics extraction device 106 extracting the characteristics of the characters, a voice synthesizer 109 synthesizing sounds using the characteristics of the characters, a surroundings extraction device 105 extracting the surroundings from the document, an effect sound generation device 107 generating an effect sound from the extracted surroundings and a sound output device 108 synthesizing the synthesized sound and the effect sound and applying an effector.

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【産業上の利用分野】本発明は、文書を入力し、その文
書中の登場人物の特徴や環境に応じて音を合成して出力
する読書機に関するものである。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a reading machine for inputting a document and synthesizing and outputting sounds in accordance with the features and environment of the characters in the document.

【0002】[0002]

【従来の技術】従来、マルチメディア技術の一要素であ
るメディア変換の技術が盛んに研究されており、盲人用
の読書機として、スキャナで文書を読み取り、文字切り
出し、文字認識を行なって、音声合成装置で発声させる
ものも提案されている(例えば、特開平2−26269
1公報)。
2. Description of the Related Art Conventionally, the technology of media conversion, which is one element of multimedia technology, has been actively researched. As a reader for the blind, a document is read by a scanner, characters are cut out, characters are recognized, and a voice is read. There is also a proposal of a synthesizing device (for example, Japanese Patent Laid-Open No. 26269/1990).
1 gazette).

【0003】[0003]

【発明が解決しようとする課題】しかし、このような従
来の読書機は入力された文書をそのまま音声に変換する
に留まっており、文書内容の表現手段が文字から音声に
変っているにもかかわらず音声の表現能力を十分には発
揮できていない。
However, such a conventional reading machine merely converts the input document into speech, and the means for expressing the content of the document is changed from text to speech. Without the ability to express voice is not fully exerted.

【0004】そこで、本発明では文書に書かれた内容か
ら自然言語処理によって登場人物の特徴やそのシーンの
環境を抽出し、音声合成の声質を変化させたり効果音を
付加することによって、出力される音に感情や臨場感を
持たせることが本発明の目的である。
Therefore, in the present invention, the features of the characters and the environment of the scene are extracted from the contents written in the document by natural language processing, and the voice quality of the voice synthesis is changed or the sound effect is added to output. It is an object of the present invention to add emotion and presence to the sound that sounds.

【0005】[0005]

【課題を解決するための手段】この目的を達成するため
にこの読書機は、文書を入力するための文書入力装置
と、文章を解析する自然言語処理装置と、登場人物の特
徴を抽出する登場人物特徴抽出装置と、前記文字コード
と前記登場人物の特徴とを用いて音声を合成する音声合
成装置と、前記文字コードから環境を抽出する環境抽出
装置と、前記抽出された環境から効果音を発生する効果
音発生装置と、前記合成された音声と前記効果音を合成
しエフェクタをかける音出力装置とからなる。
[Means for Solving the Problems] In order to achieve this object, the reading machine has a document input device for inputting a document, a natural language processing device for analyzing a sentence, and an appearance for extracting the characteristics of characters. A person feature extracting device, a voice synthesizing device that synthesizes a voice using the character code and the features of the characters, an environment extracting device that extracts an environment from the character code, and a sound effect from the extracted environment. It comprises a sound effect generator for generating sound, and a sound output device for synthesizing the synthesized voice and the sound effect and applying an effector.

【0006】[0006]

【作用】キーボードで文書を直接タイプするか、文書画
像入力装置で文書を画像データとして入力し、この画像
データの文字領域を文字領域抽出装置で抽出し、文字認
識装置において文字認識を行ない文字コードを出力す
る。出力された文字コードからなる文章を自然言語処理
装置で解析し、その解析結果を用いて登場人物特徴抽出
装置により登場人物の特徴を抽出する。そして、それぞ
れの登場人物が話す部分に対応する文字コードにその登
場人物の特徴を加味して音声合成装置で感情のこもった
音声を合成する。一方、前記自然言語処理装置による解
析結果を用い環境抽出装置によりシーンの環境を抽出
し、抽出された環境に対応した効果音を効果音発生装置
を用いて出力し臨場感を表現する。前記音声合成装置の
出力と効果音発生装置の出力とを音出力装置から出力す
る。その際、環境抽出装置より得られたシーンの場所に
よりいろいろなエフェクタをかけることができる。
The document is directly typed with the keyboard, or the document is input as image data with the document image input device, the character area of the image data is extracted with the character area extraction device, and the character recognition is performed with the character recognition device. Is output. The natural language processing device analyzes the sentence composed of the output character code, and the character feature extraction device uses the analysis result to extract the feature of the character. Then, by adding the characteristics of the characters to the character code corresponding to the part spoken by each character, the voice synthesizer synthesizes an emotional voice. On the other hand, the environment extraction device extracts the environment of the scene using the analysis result by the natural language processing device, and the sound effect generation device outputs the sound effect corresponding to the extracted environment to express the realism. The output of the voice synthesizer and the output of the sound effect generator are output from the sound output device. At that time, various effectors can be applied depending on the location of the scene obtained from the environment extraction device.

【0007】[0007]

【実施例】以下、図面をもとに本発明の一実施例につい
て説明する。ここで、対象とする文書を小説とする。な
ぜなら、小説には大きく2つにわけてナレーションと会
話文が含まれ、ナレーションの部分に登場人物の心情や
そのシーンの情景が埋めこまれているため、本発明の効
果を最大に発揮できる対象と考えるためである。なお、
文書は小説に限らず新聞や雑誌、辞書や事典でもよい。
An embodiment of the present invention will be described below with reference to the drawings. Here, the target document is a novel. This is because the novel contains a narration and a conversational sentence in two main parts, and the emotions of the characters and the scene scene are embedded in the narration, so that the effect of the present invention can be maximized. This is to think that. In addition,
The document is not limited to a novel, but may be a newspaper, magazine, dictionary or encyclopedia.

【0008】まず、文書をキーボード101からタイプ
するか、または文書入力装置102で文字コードの列
(以後、テキストとする)に変換する。ここで文書入力
装置102は文書画像入力装置201と文字領域抽出装
置202と文字認識装置203からなっており、文書画
像入力装置201から入力された文書画像から文字領域
抽出装置202を用いて文字領域を抽出し(例えば、秋
山,増田:「新聞記事における文字領域の抽出法」,昭
57信学総全大,1297(1983))、抽出された
文字領域から文字認識装置203を用いて文字を分離・
認識し文字コードを出力するものである(例えば、清
水,竹之内,脇,藤原,横江:「文書清書システム
(1)−−システム概要−−」,昭61信学全大,15
10(1986))。この様にして得られたテキストを
メモリ103上に蓄えていく。ここで、文書画像入力装
置201はイメージスキャナやカメラである。上記のよ
うにしてメモリ103に蓄えられたテキストを自然言語
処理装置104において、形態素解析、構文解析を行
い、解析する。
First, a document is typed from the keyboard 101 or converted into a character code string (hereinafter referred to as text) by the document input device 102. Here, the document input device 102 includes a document image input device 201, a character area extraction device 202, and a character recognition device 203, and a character area is extracted from the document image input from the document image input device 201 using the character area extraction device 202. (For example, Akiyama, Masuda: “Extraction Method of Character Areas in Newspaper Articles”, Sho 57 Shingaku Sogaku, 1297 (1983)), and character recognition device 203 is used to extract characters from the extracted character areas. Separation
It recognizes and outputs a character code (for example, Shimizu, Takenouchi, Waki, Fujiwara, Yokoe: "Document Seisho System (1) --System Outline-"), Sho 61 Shinbun University, 15
10 (1986)). The text thus obtained is stored in the memory 103. Here, the document image input device 201 is an image scanner or a camera. The text stored in the memory 103 as described above is subjected to morphological analysis and syntactic analysis in the natural language processing device 104 and analyzed.

【0009】次に登場人物特徴抽出に関して述べる。登
場人物特徴抽出装置106は自然言語処理装置104に
よって解析されたテキストを入力とする。ここでまず、
登場人物を抽出するが、その主語・動詞のペアを抽出
し、この動詞が通常人間が主語となるような動詞(例え
ば、歩く、走る、食べるなど)であればその主語は登場
人物候補であるとし、その主語が単語辞書になければ、
人物名であると判断し、登場人物とする。例えば、「毅
はハンドルを握りながら」という部分の解析結果の一部
として 主語:毅 動詞:握りながら という結果が得られたとすると、「握る」は一般に動物
が行なう動作であるが、「毅」というのは固有名詞であ
るため単語辞書には存在せず人間であると判断し、
「毅」を登場人物の一人とすることができる。一方、図
6のような登場人物テーブル402を用意しておき、
「登場人物名」601の男性のところに「毅」602を
登録する。以下、同様に登場人物を抽出するたびにその
名前を抽出し、男性、女性にふりわけて登録してゆく。
ただし、すでに同じ名前が登録されている場合には登録
は行なわない。さらに、図5のような感情テーブル40
3を用意し、主語動詞ペアの動詞の部分が感情テーブル
403の動詞の部分501と適合する場合はそれに対応
する音声合成のためのパラメータ502を音声合成装置
109に出力する。例えば「毅は笑った。」であれば、
感情テーブルの動詞の部分501に「笑う」503があ
れば、それに対応するパラメータ「emotion1」
504を得る。次に、かぎ括弧で囲まれている文章中の
会話文を発声している登場人物を前後の文脈から解釈
し、その登場人物の音声のパラメータ604と会話文と
感情があれば感情のパラメータ(ここでは「emoti
on1」504)とを音声合成装置109に出力する。
そして、登場人物の音声パラメータ604と感情のパラ
メータ504とを用いて会話文に変化をもたせ、音声合
成装置109において音声を合成し、音出力装置108
で出力する。ここで音声合成装置はパラメータによって
制御できるものとする(例えば、宮武他:「種々の発声
様式にみられる韻律特徴とその制御」、信学論、D−
2、volJ73−D−2、No12)。また、ここで
は男女に限ったが、「〜教授」「〜少年」等の語、ある
いは文章中の説明文、例えば「中年風の男性」などによ
り年齢を大まかに区別し、その登場人物の特徴とするこ
ともできる。
Next, character feature extraction will be described. The character feature extraction device 106 receives the text analyzed by the natural language processing device 104 as an input. First here
Characters are extracted, but the subject / verb pairs are extracted, and if this verb is a verb in which a human being is usually the subject (for example, walking, running, eating, etc.), the subject is a candidate character. And the subject is not in the word dictionary,
It is determined that it is a person's name, and the character is used. For example, if the result of the analysis of the part "Koi is gripping the handle" is obtained as the subject: Kouki Verb: gripping, "grip" is an action that is generally performed by animals, but "Koki" is Because it is a proper noun, it does not exist in the word dictionary and is judged as a human being,
"Koki" can be one of the characters. On the other hand, prepare a character table 402 as shown in FIG.
"Koki" 602 is registered for the man with "Character name" 601. Similarly, each time a character is extracted, its name is extracted, and the characters are sorted into male and female and registered.
However, if the same name has already been registered, registration will not be performed. Furthermore, the emotion table 40 as shown in FIG.
3 is prepared, and when the verb portion of the subject verb pair matches the verb portion 501 of the emotion table 403, the corresponding parameter 502 for speech synthesis is output to the speech synthesis device 109. For example, if "Kouki laughed."
If the verb portion 501 of the emotion table includes "laugh" 503, the corresponding parameter "emotion1"
Get 504. Next, the character uttering the conversational sentence in the sentence enclosed by the brackets is interpreted from the contexts before and after, and the voice parameter 604 of the character and the emotional parameter (if there is a conversational sentence and emotion) ( Here, "emoti
on1 ”504) is output to the speech synthesizer 109.
Then, using the voice parameter 604 of the characters and the emotional parameter 504, the conversation sentence is changed, the voice is synthesized by the voice synthesizer 109, and the sound output device 108 is produced.
To output. Here, it is assumed that the speech synthesizer can be controlled by parameters (for example, Miyatake et al .: "Prosodic features and their control in various vocalization styles", Theory of theory, D-
2, vol J73-D-2, No12). In addition, here, although limited to men and women, ages are roughly distinguished by words such as "-professor""-boy" or explanatory texts in sentences, such as "middle-aged man", and the characters It can also be a feature.

【0010】さらに、登場人物特徴抽出と同様に自然言
語処理装置104にから出力されたテキストの解析結果
から環境を抽出する。まず、登場人物の抽出と同様に、
主語・動詞のペアを抜き出す。そして、その主語と動詞
を図7に示した環境テーブル302の環境名701と比
較し、もし適合すれば、その環境名701に対応する効
果音のインデックス703を出力する。例えば、「雨の
降りしきる」という部分から 主語:雨 動詞:降りしきる という結果が得られたとすると、主語である「雨」と動
詞である「降る」のペアを環境テーブル302と比較
し、適合するのでそれに対応する効果音のインデックス
「nature1」704を出力する。また、同じよう
な方法で動詞・目的語ペアを抽出し、「ドアをノックし
た」のような文章からドアをノックするような効果音を
付加することもできる。なお、ここでは時制を考慮しな
かったが、「昨日」とか「〜した後」等の語を考慮する
ことによって、効果音を発生するか否かを判断できる。
このようにして得られた効果音のインデックス703を
効果音発生装置107に入力し、そのインデックスの付
加された効果音を発生させ、音出力装置108に入力す
る。なお、効果音の種類は自然現象による音、乗り物に
よる音、生物が出す音、家具や食器を打つ音、鐘、楽
器、音楽、電気製品による音、雑踏の音が考えられる。
Further, similarly to the character feature extraction, the environment is extracted from the analysis result of the text output from the natural language processing device 104. First, like the extraction of characters,
Extract subject / verb pairs. Then, the subject and the verb are compared with the environment name 701 of the environment table 302 shown in FIG. 7, and if they match, the sound effect index 703 corresponding to the environment name 701 is output. For example, if the result that the subject is "rain" is obtained from the part "rainfall", the verb "rain" and the subject "rain" are compared with the environment table 302 and they match. The index "nature1" 704 of the corresponding sound effect is output. It is also possible to extract a verb / object pair in a similar manner and add a sound effect that knocks the door from a sentence such as "knocked the door." Although the tense is not taken into consideration here, it is possible to determine whether or not a sound effect is generated by considering a word such as "yesterday" or "after".
The sound effect index 703 thus obtained is input to the sound effect generator 107, the sound effect to which the index is added is generated, and is input to the sound output device 108. It should be noted that the types of sound effects may be sounds caused by natural phenomena, sounds made by vehicles, sounds made by living things, sounds made by hitting furniture and tableware, sounds made by bells, musical instruments, music, electric appliances, and crowds.

【0011】このようにして得られた効果音と登場人物
の会話を音出力装置108において合成し、また、環境
抽出部301においてそのシーンの場所を抽出し、その
場所に応じたエフェクタを合成された音にかける。例え
ば、風呂であれば強いエコーをかけるなどである。
The sound effect thus obtained and the conversation between the characters are combined in the sound output device 108, the place of the scene is extracted in the environment extracting unit 301, and the effector corresponding to the place is combined. Applied to the sound. For example, in a bath, a strong echo is applied.

【0012】以上、本発明により、文書を音に変換する
時に人の感情や情景等を導入することができ、合成され
た音に臨場感を与えることができる。
As described above, according to the present invention, it is possible to introduce human emotions, scenes, and the like when converting a document into sound, and to give a sense of reality to the synthesized sound.

【0013】[0013]

【発明の効果】本発明によれば、自然言語処理により入
力された文書を解析し、登場人物特徴抽出装置によって
その文書に登場する登場人物の特徴、すなわち性別や年
齢や感情を抽出することができ、登場人物の話す内容を
そのまま音声に変換するのではなく、抽出された登場人
物の特徴を用いて音声が加工でき、感情のこもった音声
を発声することが可能となる。また同様に環境抽出装置
を用い、そのシーンの情景を抽出することができるの
で、登場人物の発話と同時にそのシーンの環境音をも再
生することができ、臨場感のあるシーンを音で再生する
ことが可能となる。
According to the present invention, a document input by natural language processing can be analyzed, and the features of the characters appearing in the document, that is, sex, age, and emotion can be extracted by the character feature extraction device. Therefore, it is possible to process the voice using the extracted features of the character rather than converting the content spoken by the character into a voice as it is, and to produce an emotional voice. Similarly, since the scene of the scene can be extracted by using the environment extraction device, the environmental sound of the scene can be reproduced at the same time as the utterance of the character, and the realistic scene can be reproduced by sound. It becomes possible.

【図面の簡単な説明】[Brief description of drawings]

【図1】本発明の構成図FIG. 1 is a block diagram of the present invention

【図2】文書入力装置の説明図FIG. 2 is an explanatory diagram of a document input device.

【図3】環境抽出装置の説明図FIG. 3 is an explanatory diagram of an environment extraction device

【図4】登場人物特徴抽出装置の説明図FIG. 4 is an explanatory diagram of a character feature extraction device.

【図5】感情テーブルの説明図FIG. 5 is an explanatory diagram of an emotion table.

【図6】登場人物テーブルの説明図FIG. 6 is an explanatory diagram of a character table.

【図7】環境テーブルの説明図FIG. 7 is an explanatory diagram of an environment table.

【符号の説明】[Explanation of symbols]

101 キーボード 102 文書入力装置 103 メモリ 104 自然言語処理装置 105 環境抽出装置 106 登場人物特徴抽出装置 107 効果音発生装置 108 音出力装置 109 音声合成装置 201 文書画像入力装置 202 文字領域抽出装置 203 文字認識装置 301 環境抽出部 302 環境テーブル 401 登場人物特徴抽出部 402 登場人物テーブル 403 感情テーブル 101 Keyboard 102 Document Input Device 103 Memory 104 Natural Language Processing Device 105 Environment Extraction Device 106 Character Feature Extraction Device 107 Sound Effect Generation Device 108 Sound Output Device 109 Speech Synthesis Device 201 Document Image Input Device 202 Character Area Extraction Device 203 Character Recognition Device 301 environment extraction unit 302 environment table 401 character feature extraction unit 402 character table 403 emotion table

Claims (10)

【特許請求の範囲】[Claims] 【請求項1】文字コードからなる文書を解析する自然言
語処理装置と、前記自然言語処理装置から出力された文
書の解析結果からその文書の登場人物の特徴を抽出する
登場人物特徴抽出装置とを具備することを特徴とする情
報処理装置。
1. A natural language processing apparatus for analyzing a document consisting of character codes, and a character feature extraction apparatus for extracting the characteristics of the characters in the document from the analysis result of the document output from the natural language processing apparatus. An information processing apparatus comprising:
【請求項2】文字コードからなる文書を解析する自然言
語処理装置と、前記自然言語処理装置から出力された文
書の解析結果からその文書の登場人物の特徴を抽出する
登場人物特徴抽出装置と、前記文字コードを格納するた
めのメモリと、文字コードを音声に変換する音声合成装
置と、前記音声合成装置によって合成された音声を出力
する音出力装置とを具備し、前記文字コードに前記登場
人物の特徴を加味した上で音声を合成することを特徴と
する読書機。
2. A natural language processing device for analyzing a document consisting of character codes, and a character feature extraction device for extracting the features of the characters in the document from the analysis result of the document output from the natural language processing device. The character code includes the memory for storing the character code, a voice synthesizer for converting the character code into voice, and a sound output device for outputting the voice synthesized by the voice synthesizer. A reading machine characterized by synthesizing voice after adding the features of.
【請求項3】文書を画像データとして入力する文書画像
入力装置と、前記画像データから文字部分を切り出し、
文字認識を行ない文字コードに変換する文字認識装置と
を備えたことをを特徴とする請求項2記載の読書機。
3. A document image input device for inputting a document as image data, and a character portion cut out from the image data,
The reading machine according to claim 2, further comprising a character recognition device that performs character recognition and converts the character code into a character code.
【請求項4】抽出する登場人物特徴は老若男女であり、
同じ登場人物特徴でも異なる人物であれば区別して出力
することを特徴とする請求項2または3記載の読書機。
4. Character features to be extracted are men and women of all ages,
The reading machine according to claim 2 or 3, wherein different characters having the same character characteristics are separately output.
【請求項5】抽出する登場人物特徴はその登場人物の感
情であり、前記感情の種類は喜怒哀楽であることを特徴
とする請求項2、3または4記載の読書機。
5. The reading machine according to claim 2, 3 or 4, wherein the character feature to be extracted is the emotion of the character, and the emotion type is emotions.
【請求項6】登場人物特徴抽出装置は、自然言語処理装
置の結果を用いて登場人物特徴を抽出する登場人物特徴
抽出部と登場人物テーブルと感情テーブルとからなり、
前記登場人物テーブルは登場人物名と声質名と前記音声
合成装置に渡されるパラメータとからなり、前記感情テ
ーブルはその登場人物がとり得る動詞と前記音声合成装
置に渡されるパラメータとからなる請求項2から5のい
ずれかに記載の読書機。
6. The character feature extraction device comprises a character feature extraction unit for extracting character features using the result of the natural language processing device, a character table and an emotion table.
3. The character table includes a character name, a voice quality name, and parameters passed to the voice synthesizer, and the emotion table includes verbs that the character can take and parameters passed to the voice synthesizer. The reading machine according to any one of 5 to 5.
【請求項7】自然言語処理装置の結果を用いて環境を抽
出する環境抽出装置と、抽出された環境に応じた効果音
を発生する効果音発生装置とを具備し、前記音声合成装
置の出力と同時に前記音出力装置に入力されることを特
徴とする請求項2から6のいずれかに記載の読書機。
7. An environment extracting device for extracting an environment using a result of a natural language processing device, and a sound effect generating device for generating a sound effect according to the extracted environment, wherein the output of the speech synthesizer. 7. The reading machine according to claim 2, wherein the sound is output to the sound output device at the same time.
【請求項8】環境とは場所及びその周囲の音であること
を特徴とする請求項7記載の読書機。
8. The reading machine according to claim 7, wherein the environment is a sound of a place and its surroundings.
【請求項9】環境抽出装置は、自然言語処理装置の結果
を用いて環境特徴を抽出する環境抽出部と環境テーブル
からなり、前記環境テーブルは環境名とその環境名に関
連する動詞と効果音のインデックスからなる請求項7記
載の読書機。
9. An environment extraction device comprises an environment extraction unit for extracting environment features using a result of a natural language processing device and an environment table, wherein the environment table includes an environment name, a verb associated with the environment name, and a sound effect. The reading machine according to claim 7, which comprises the index of.
【請求項10】音出力装置は、前記音声合成装置による
出力と前記効果音発生装置による出力を合成し、この合
成音に前記環境抽出装置によって抽出された場所に応じ
たエフェクタをかけることを特徴とする請求項7記載の
読書機。
10. A sound output device synthesizes an output from the voice synthesizer and an output from the sound effect generator, and applies an effector corresponding to a location extracted by the environment extracting device to the synthesized sound. The reading machine according to claim 7.
JP5217287A 1993-09-01 1993-09-01 Information processor Pending JPH0772888A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP5217287A JPH0772888A (en) 1993-09-01 1993-09-01 Information processor

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP5217287A JPH0772888A (en) 1993-09-01 1993-09-01 Information processor

Publications (1)

Publication Number Publication Date
JPH0772888A true JPH0772888A (en) 1995-03-17

Family

ID=16701777

Family Applications (1)

Application Number Title Priority Date Filing Date
JP5217287A Pending JPH0772888A (en) 1993-09-01 1993-09-01 Information processor

Country Status (1)

Country Link
JP (1) JPH0772888A (en)

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH1115497A (en) * 1997-06-19 1999-01-22 Fujitsu Ltd Name reading-out speech synthesis device
GB2343821A (en) * 1998-09-04 2000-05-17 Nec Corp Adding sound effects or background music to synthesised speech
JP2002221980A (en) * 2001-01-25 2002-08-09 Oki Electric Ind Co Ltd Text voice converter
JP2006023592A (en) * 2004-07-08 2006-01-26 Sony Corp Voice synthesizer and voice synthesis method
WO2009050809A1 (en) * 2007-10-18 2009-04-23 Pioneer Corporation Audio output device, audio output method, audio output program, and storage medium
JP2013025112A (en) * 2011-07-21 2013-02-04 Sharp Corp Electronic apparatus, reproduction method, program, and, recording medium
JP2014130211A (en) * 2012-12-28 2014-07-10 Brother Ind Ltd Speech output device, speech output method, and program
KR20180016840A (en) * 2016-08-08 2018-02-20 단국대학교 산학협력단 Method and apparatus for extracting character
CN112270168A (en) * 2020-10-14 2021-01-26 北京百度网讯科技有限公司 Dialogue emotion style prediction method and device, electronic equipment and storage medium
JP2021170394A (en) * 2020-10-14 2021-10-28 ベイジン バイドゥ ネットコム サイエンス アンド テクノロジー カンパニー リミテッド Labeling method for role, labeling device for role, electronic apparatus and storage medium

Cited By (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH1115497A (en) * 1997-06-19 1999-01-22 Fujitsu Ltd Name reading-out speech synthesis device
GB2343821A (en) * 1998-09-04 2000-05-17 Nec Corp Adding sound effects or background music to synthesised speech
US6334104B1 (en) 1998-09-04 2001-12-25 Nec Corporation Sound effects affixing system and sound effects affixing method
JP2002221980A (en) * 2001-01-25 2002-08-09 Oki Electric Ind Co Ltd Text voice converter
JP2006023592A (en) * 2004-07-08 2006-01-26 Sony Corp Voice synthesizer and voice synthesis method
WO2009050809A1 (en) * 2007-10-18 2009-04-23 Pioneer Corporation Audio output device, audio output method, audio output program, and storage medium
JPWO2009050809A1 (en) * 2007-10-18 2011-02-24 パイオニア株式会社 Audio output device, audio output method, audio output program, and storage medium
JP2013025112A (en) * 2011-07-21 2013-02-04 Sharp Corp Electronic apparatus, reproduction method, program, and, recording medium
JP2014130211A (en) * 2012-12-28 2014-07-10 Brother Ind Ltd Speech output device, speech output method, and program
KR20180016840A (en) * 2016-08-08 2018-02-20 단국대학교 산학협력단 Method and apparatus for extracting character
CN112270168A (en) * 2020-10-14 2021-01-26 北京百度网讯科技有限公司 Dialogue emotion style prediction method and device, electronic equipment and storage medium
JP2021152957A (en) * 2020-10-14 2021-09-30 北京百度網訊科技有限公司 Method, device, electronic apparatus, storage medium and program for predicting dialog feeling style
KR20210122204A (en) * 2020-10-14 2021-10-08 베이징 바이두 넷컴 사이언스 테크놀로지 컴퍼니 리미티드 Method and apparatus for predicting emotion style of dialogue, electronic device, storage medium, and computer program product
JP2021170394A (en) * 2020-10-14 2021-10-28 ベイジン バイドゥ ネットコム サイエンス アンド テクノロジー カンパニー リミテッド Labeling method for role, labeling device for role, electronic apparatus and storage medium
CN112270168B (en) * 2020-10-14 2023-11-24 北京百度网讯科技有限公司 Method and device for predicting emotion style of dialogue, electronic equipment and storage medium
US11907671B2 (en) 2020-10-14 2024-02-20 Beijing Baidu Netcom Science Technology Co., Ltd. Role labeling method, electronic device and storage medium

Similar Documents

Publication Publication Date Title
JP7445267B2 (en) Speech translation method and system using multilingual text-to-speech synthesis model
JP4363590B2 (en) Speech synthesis
US6999932B1 (en) Language independent voice-based search system
US20030144842A1 (en) Text to speech
KR102306844B1 (en) Method and apparatus for translating speech of video and providing lip-synchronization for translated speech in video
JP5198046B2 (en) Voice processing apparatus and program thereof
JP2003114693A (en) Method for synthesizing speech signal according to speech control information stream
JPH0916602A (en) Translation system and its method
KR20210059586A (en) Method and Apparatus for Emotional Voice Conversion using Multitask Learning with Text-to-Speech
CN115956269A (en) Voice conversion device, voice conversion method, program, and recording medium
JPH0772888A (en) Information processor
US20200193961A1 (en) System for synchronizing speech and motion of character
JP4745036B2 (en) Speech translation apparatus and speech translation method
JP3706758B2 (en) Natural language processing method, natural language processing recording medium, and speech synthesizer
Maarif et al. Survey on language processing algorithm for sign language synthesizer
JP2000187495A (en) Method and device for synthesizing speech, and recording medium where speech synthesis program is recorded
JP2806364B2 (en) Vocal training device
JPH1152987A (en) Speech synthesis device with speaker adaptive function
JPH0950286A (en) Voice synthesizer and recording medium used for it
JP2006142407A (en) Robot device and robot device system
JP2001117752A (en) Information processor, information processing method and recording medium
CN112786010A (en) Speech synthesis system, method and non-transitory computer readable medium
KR102426020B1 (en) Method and apparatus for Speech Synthesis Containing Emotional Rhymes with Scarce Speech Data of a Single Speaker
KR102418465B1 (en) Server, method and computer program for providing voice reading service of story book
JPH03249800A (en) Text voice synthesizer

Legal Events

Date Code Title Description
R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

EXPY Cancellation because of completion of term