JPS62299898A - Character generator - Google Patents

Character generator

Info

Publication number
JPS62299898A
JPS62299898A JP61143746A JP14374686A JPS62299898A JP S62299898 A JPS62299898 A JP S62299898A JP 61143746 A JP61143746 A JP 61143746A JP 14374686 A JP14374686 A JP 14374686A JP S62299898 A JPS62299898 A JP S62299898A
Authority
JP
Japan
Prior art keywords
data
character
character string
speech
linguistic
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP61143746A
Other languages
Japanese (ja)
Other versions
JPH07113837B2 (en
Inventor
伏木田 勝信
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NEC Corp
Original Assignee
NEC Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NEC Corp filed Critical NEC Corp
Priority to JP61143746A priority Critical patent/JPH07113837B2/en
Publication of JPS62299898A publication Critical patent/JPS62299898A/en
Publication of JPH07113837B2 publication Critical patent/JPH07113837B2/en
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Abstract

(57)【要約】本公報は電子出願前の出願データであるた
め要約のデータは記録されません。
(57) [Summary] This bulletin contains application data before electronic filing, so abstract data is not recorded.

Description

【発明の詳細な説明】 3、発明の詳細な説明 (産業上の利用分野) 本発明は、ワードプロセッサ等に使用され、文字系列を
出力する文字生成装置に関する。
Detailed Description of the Invention 3. Detailed Description of the Invention (Field of Industrial Application) The present invention relates to a character generation device that is used in a word processor or the like and outputs a character sequence.

(従来の技術) 従来キーボード等より文字データを入力した後に予め定
められたフォントの文字列を前記文字データに従ってプ
リンタにより出力することにより文章を作成する装置が
知られており、ワードプロセッサと呼ばれている。
(Prior Art) Conventionally, there is a known device that creates sentences by inputting character data from a keyboard or the like and then outputting a character string in a predetermined font using a printer according to the character data, and is called a word processor. There is.

(発明b9.解決しようとする問題点)しかしながら、
従来のワードプロセッサにおいては出力された文字列が
画一的であり手書文字に見られるような親しみ易さがな
く非言語的な情報が伝達されない欠点があった。
(Invention b9. Problem to be solved) However,
Conventional word processors have the disadvantage that the output character strings are uniform, lack the familiarity seen in handwritten characters, and do not convey nonverbal information.

本発明の目的は文書作成者の非言語的な情報の伝達を可
能とし親しみ易い文字列を生成するととを可能とする音
声認識を用いた文字生成装置を提供することにある。
SUMMARY OF THE INVENTION An object of the present invention is to provide a character generation device using voice recognition that enables a document creator to convey nonverbal information and generate familiar character strings.

(問題点を解決するための手段) 本願の第1の発明は、音声認識を行なうことにより入力
音声を文字列に変換する手段と、前記入力音声から前記
文字列に対応する非言語データな抽出する手段と、前記
文字列および前記非言語データから文字を生成する手段
とから構成されている。
(Means for solving the problem) The first invention of the present application is a means for converting input speech into a character string by performing speech recognition, and extraction of non-linguistic data corresponding to the character string from the input speech. and means for generating characters from the character string and the non-linguistic data.

また、t′願の第2の発明は、キーボードから文字列を
入力する手段と、前記文字列に対応する音声から非言語
データを抽出する手段と、前記文字列および前記非言語
データから文字を生成する手段とから構成されている。
Further, the second invention of application t' provides means for inputting a character string from a keyboard, means for extracting non-linguistic data from speech corresponding to the character string, and means for extracting characters from the character string and the non-linguistic data. It consists of a means for generating.

(発明の原理) 一般に音声には言語情報の他に非言語情報が含まれてい
ることが知られている。例えば、ピッチ周波数の変化は
感情的な情報を含んでおりピッチ周波数の変化幅の大き
い場合は、小さい場合に比べて感情が高揚していること
を示す。また、強意を表わす単語はピッチ周波数が高く
なる傾向がある。さらに、音声には調音結合と呼ばれる
性質があり、該文字に対応する音声のバタンか前後の文
字の影響を受ける。この影響の度合(調音結合係数と呼
ぶ)は例えば音声のホルマント分析を行なうどとにより
単独に発声された文字に対応するホルマントパラメータ
との距離を計るととにより求められることが知られてい
る。本願発明は、以上述べた如き音声の諸性質を利用し
、て、音声の非言語的なパラメータをも用いて文字の生
成を行なうものである。
(Principle of the Invention) It is generally known that speech includes non-linguistic information in addition to linguistic information. For example, changes in pitch frequency include emotional information, and when the range of change in pitch frequency is large, it indicates that emotions are heightened compared to when the range of change is small. Furthermore, words that express strong meaning tend to have high pitch frequencies. Furthermore, speech has a property called articulatory combination, and the speech sound that corresponds to the character is influenced by the characters before and after it. It is known that the degree of this influence (referred to as the articulatory coupling coefficient) can be determined by, for example, performing formant analysis of speech and measuring the distance from the formant parameter corresponding to a separately uttered character. The present invention utilizes the various properties of speech as described above, and also uses non-linguistic parameters of speech to generate characters.

前記、非言語的な音声パラメータを文字に反映させる方
法としては、例えば、意味の強さを表わす各単語のピッ
チ周波数の平均値により文字の大きさを制御することに
より実現できる。また、調音結合係数は発声の[ていね
いさ−1を表わしているから、文字生成の際に書き順デ
ータと共に文字データを予め用意しておき、前記書き順
データに従って生成される線分データに対l−て低域通
過フィルタな通し、前記低域通過フィルタの遮断周波数
を前記調音結合係数により制御して、生成される文字の
「ていねいさ」を変えることによりかわり易く表現され
る。
As a method for reflecting the non-linguistic voice parameters in the characters, for example, it can be realized by controlling the size of the characters based on the average value of the pitch frequency of each word, which represents the strength of the meaning. In addition, since the articulatory coupling coefficient represents the politeness of utterance - 1, character data is prepared in advance along with stroke order data when generating characters, and it is applied to line segment data generated according to the stroke order data. It can be easily expressed by passing a low-pass filter through it and controlling the cut-off frequency of the low-pass filter by the articulatory coupling coefficient to change the "politeness" of the generated characters.

一方、言語データの入力方法としては音声を文字に変換
する方式が知られているが、現在の技術では変換の正解
率が必ずしも高くない。そと〒、言語データの入力はキ
ーボードを用いて行ない、前配非言語データは音声から
抽出する方式も有効である。
On the other hand, a method of converting speech into text is known as a method for inputting language data, but with current technology, the conversion accuracy rate is not necessarily high. Another effective method is to input linguistic data using a keyboard and extract pre-verbal non-verbal data from speech.

(実施例) 本願発明の実施例を図面を参照して詳細に説明する。(Example) Embodiments of the present invention will be described in detail with reference to the drawings.

第1図は本願発明の実施例を示すブロック図である。本
図の装置では、スイッチ5の切換えによって本願の第1
の発明および第2の発明の実施例が選択して実現できる
。最初に、言語データおよび非言語データをともに音声
から抽出して行なう本願の第1の発明の実施例について
説明する。初期設定のために、キーゲート2から初期設
定データがスイッチ5に送られスイッチ5の設定が行な
われる。まず、音声波形が音声波形入力端子1を介して
特徴抽出回路2に人力される。特徴抽出回路2は前記音
声波形からホルマントデータ、振幅データ、ピッチデー
タ等の特徴パラメータ値列を抽出し音声認識部3内の言
語データ抽出回路3aおよび非言語データ抽出回路3b
にそれぞれ出力する。言語データ抽出回路3aは前記特
徴゛六うメータ値列を文字列に変換しスイッチ5を介し
て標準文字データメモリ6に出力する。前記文字列への
変換方式は例えば新美著「音声認識」(共立出版)に詳
しいのでととでは説明を省略する。一方、非言語データ
抽出回路3bは、前記!特徴パラメータ値列から前記調
音結合係数等の非言語データを抽出し、この非言語デー
タをスイッチ5を介して文字変形処理回路7に出力する
。文字変形処理回路7は、前記文字列に従って標準文字
データメモリ6から出力される文字データを前記非言語
データに従って変形し、変形文字データとしてプリント
装置8に出力する。プリント装置8は前記変形文字デー
タに従って文字をプリントする。
FIG. 1 is a block diagram showing an embodiment of the present invention. In the device shown in this figure, by switching the switch 5, the first
The embodiments of the invention and the second invention can be selectively implemented. First, an embodiment of the first invention of the present application will be described in which both linguistic data and non-linguistic data are extracted from speech. For initial setting, initial setting data is sent from the key gate 2 to the switch 5, and the switch 5 is set. First, a speech waveform is manually input to the feature extraction circuit 2 via the speech waveform input terminal 1 . The feature extraction circuit 2 extracts feature parameter value sequences such as formant data, amplitude data, and pitch data from the speech waveform, and extracts a sequence of feature parameter values such as formant data, amplitude data, and pitch data, and extracts a linguistic data extraction circuit 3a and a non-linguistic data extraction circuit 3b in the speech recognition section 3.
Output each. The language data extraction circuit 3a converts the characteristic six meter value string into a character string and outputs it to the standard character data memory 6 via the switch 5. The conversion method to the character string is detailed in, for example, "Speech Recognition" by Niimi (Kyoritsu Shuppan), so the explanation will be omitted. On the other hand, the non-verbal data extraction circuit 3b has the above-mentioned! Non-linguistic data such as the articulatory coupling coefficient is extracted from the feature parameter value sequence, and this non-linguistic data is output to the character transformation processing circuit 7 via the switch 5. The character transformation processing circuit 7 transforms the character data output from the standard character data memory 6 according to the character string according to the non-linguistic data, and outputs the transformed character data to the printing device 8. The printing device 8 prints characters according to the modified character data.

以上、述べた実施例においては、言語データは音声から
抽出するものとしたが、言語データをキーボード4から
入力する本願の第2の発明の実施例もスイッチ5の切換
えにより可能となる。この場合は、キーボード4から予
め初期設定データをスイッチ制御データ伝送路43経出
でスイッチ5に入力してスイッチ5を制御し、キーボー
ド4の出力を文字データ伝送路41を介して標準文字デ
ータメモリ6に接続するととKより行なうことができろ
In the embodiments described above, the language data is extracted from the voice, but the second embodiment of the present invention in which the language data is input from the keyboard 4 is also possible by switching the switch 5. In this case, initial setting data is inputted in advance from the keyboard 4 to the switch 5 via the switch control data transmission path 43 to control the switch 5, and the output of the keyboard 4 is sent to the standard character data memory via the character data transmission path 41. If you connect it to 6, you can do it from K.

(発明の効果) 以−ヒ述べたように本発明によれば、非言語的な情報を
生成される文字列に含ませるととカ;でき、より親しみ
易い文字列の生成が可能となる。
(Effects of the Invention) As described below, according to the present invention, non-linguistic information can be included in the generated character string, making it possible to generate a more familiar character string.

【図面の簡単な説明】[Brief explanation of the drawing]

第1図は本願発明の一実施例を示すブロック図である。 l・・・音声波形入力端子、2・・・特徴抽出回路、3
・・・音声認識部、3a・・・言語データ抽出回路、3
b・・・非言語データ抽出回路、4・・・キーボード入
力装置、5・・・スイッチ、6・・・標準文字データメ
モリ、7・・・文字変形処理回路、8・・・プリント装
置、31゜41・・・文字データ伝送路、32.42・
・・非言語データ伝送路、43・・・スイッチ制御デー
タ伝送路。
FIG. 1 is a block diagram showing an embodiment of the present invention. l...Audio waveform input terminal, 2...Feature extraction circuit, 3
...Speech recognition unit, 3a...Language data extraction circuit, 3
b...Non-linguistic data extraction circuit, 4...Keyboard input device, 5...Switch, 6...Standard character data memory, 7...Character transformation processing circuit, 8...Printing device, 31゜41...Character data transmission line, 32.42.
...Non-verbal data transmission line, 43...Switch control data transmission line.

Claims (2)

【特許請求の範囲】[Claims] (1)入力音声を文字列に変換する手段と、前記入力音
声から前記文字列に対応した非言語データを抽出する手
段と、前記文字列および非言語データに従って文字を生
成する手段とを有することを特徴とする文字生成装置。
(1) It has means for converting input speech into a character string, means for extracting non-linguistic data corresponding to the character string from the input speech, and means for generating characters according to the character string and non-linguistic data. A character generation device featuring:
(2)キーボードより文字列を入力する手段と、前記文
字列に対応する音声から非言語データを抽出する手段と
、前記文字列および前記非言語データに従って文字を生
成する手段とを有することを特徴とする文字生成装置。
(2) It is characterized by having means for inputting a character string from a keyboard, means for extracting non-linguistic data from audio corresponding to the character string, and means for generating characters according to the character string and the non-linguistic data. A character generator that does this.
JP61143746A 1986-06-18 1986-06-18 Character generator Expired - Lifetime JPH07113837B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP61143746A JPH07113837B2 (en) 1986-06-18 1986-06-18 Character generator

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP61143746A JPH07113837B2 (en) 1986-06-18 1986-06-18 Character generator

Publications (2)

Publication Number Publication Date
JPS62299898A true JPS62299898A (en) 1987-12-26
JPH07113837B2 JPH07113837B2 (en) 1995-12-06

Family

ID=15346050

Family Applications (1)

Application Number Title Priority Date Filing Date
JP61143746A Expired - Lifetime JPH07113837B2 (en) 1986-06-18 1986-06-18 Character generator

Country Status (1)

Country Link
JP (1) JPH07113837B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0352058A (en) * 1989-07-20 1991-03-06 Fujitsu Ltd Document processor for voice input

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS56149640A (en) * 1980-04-21 1981-11-19 Nippon Telegr & Teleph Corp <Ntt> Voice input system
JPS58123139A (en) * 1982-01-19 1983-07-22 Toshiba Corp Document producing device
JPS60217395A (en) * 1984-04-13 1985-10-30 株式会社東芝 Critical state detector by voice

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS56149640A (en) * 1980-04-21 1981-11-19 Nippon Telegr & Teleph Corp <Ntt> Voice input system
JPS58123139A (en) * 1982-01-19 1983-07-22 Toshiba Corp Document producing device
JPS60217395A (en) * 1984-04-13 1985-10-30 株式会社東芝 Critical state detector by voice

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0352058A (en) * 1989-07-20 1991-03-06 Fujitsu Ltd Document processor for voice input

Also Published As

Publication number Publication date
JPH07113837B2 (en) 1995-12-06

Similar Documents

Publication Publication Date Title
JP4536323B2 (en) Speech-speech generation system and method
US6175820B1 (en) Capture and application of sender voice dynamics to enhance communication in a speech-to-text environment
JPS62299898A (en) Character generator
KR100806287B1 (en) Method for predicting sentence-final intonation and Text-to-Speech System and method based on the same
JP3029403B2 (en) Sentence data speech conversion system
US11817079B1 (en) GAN-based speech synthesis model and training method
JPH0831020B2 (en) Speech input computer graphics processor
JPH0313597B2 (en)
JP2615643B2 (en) Word speech recognition device
KR100363876B1 (en) A text to speech system using the characteristic vector of voice and the method thereof
JP3292218B2 (en) Voice message composer
JPH037999A (en) Voice output device
JPS60144799A (en) Automatic interpreting apparatus
CN85100180B (en) Recognition method of chinese sound using computer
JPS58195895A (en) Word voice recognition equipment
JPH11231888A (en) Voice model generating device
JPH02281298A (en) Method for processing formation of pitch pattern
Gopal et al. A simple phoneme based speech recognition system
JPS60158496A (en) Voice recognition equipment
JPH05307396A (en) Voice synthesizing system and its voice control method
Zuk An investigation of temporal decomposition of speech parameters for automatic segmentation of speech
JPS62180397A (en) Registration system for voice pattern
Deyu et al. An Efficient Method To Synthesize Chinese Speech With Speaker Style
JPH03119395A (en) Pitch pattern generating method
JPH04342297A (en) Information device

Legal Events

Date Code Title Description
EXPY Cancellation because of completion of term