KR950011485B1 - Sounding managenent system - Google Patents
Sounding managenent system Download PDFInfo
- Publication number
- KR950011485B1 KR950011485B1 KR1019920026839A KR920026839A KR950011485B1 KR 950011485 B1 KR950011485 B1 KR 950011485B1 KR 1019920026839 A KR1019920026839 A KR 1019920026839A KR 920026839 A KR920026839 A KR 920026839A KR 950011485 B1 KR950011485 B1 KR 950011485B1
- Authority
- KR
- South Korea
- Prior art keywords
- syllable
- voice
- unit
- data
- speech
- Prior art date
Links
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04M—TELEPHONIC COMMUNICATION
- H04M3/00—Automatic or semi-automatic exchanges
- H04M3/42—Systems providing special services or facilities to subscribers
- H04M3/50—Centralised arrangements for answering calls; Centralised arrangements for recording messages for absent or busy subscribers ; Centralised arrangements for recording messages
Landscapes
- Engineering & Computer Science (AREA)
- Signal Processing (AREA)
- Telephonic Communication Services (AREA)
Abstract
Description
제1도는 본 발명이 적용되는 오디오텍스 장치의 전체구성도.1 is an overall configuration diagram of an audiotex device to which the present invention is applied.
제2도는 본 발명의 하드웨어 전체구성도.2 is a hardware configuration diagram of the present invention.
제3도는 소프트웨어 전체 기능구성도.3 is the overall functional diagram of the software.
제4도는 본 발명인 한국어 문자를 음성으로 변환하는 처리 흐름도.4 is a process flowchart of converting Korean characters to speech according to the present invention.
제5도는 반음절의 종류를 나타내는 표시도.5 is a display diagram showing the types of half-syllables.
제6도는 반음절 결합시 필요한 평활화 규칙표시도.6 is a diagram showing a smoothing rule required when combining syllables.
제7도는 반음절 결합시 필요한 평활화 모델예시도.7 shows an example of a smoothing model required for half-syllable combination.
제8도는 반음절 데이타베이스와 인텍스테이블 예시도.8 shows an example of a syllable database and an index table.
제9도는 주제어부 흐름도.9 is a main control part flow chart.
제10도는 LSP전송흐름도.10 is an LSP transmission flow diagram.
제11도는 지속시간 제어흐름도.11 is a duration control flow chart.
제12도는 반음절 데이타베이스 접근코드 생성흐름도.12 is a half-syllable database access code generation flow chart.
제13도는 반음절 단위의 접속흐름도.FIG. 13 is a flow chart of connection of half syllable.
제14도는 기본주파수 제어흐름도.14 is a fundamental frequency control flow diagram.
* 도면의 주요부분에 대한 부호의 설명* Explanation of symbols for main parts of the drawings
10 : 중앙처리부 20 : 채널접속부10: central processing unit 20: channel connection unit
30 : DSP부 40 : 시리얼 입출력부30: DSP unit 40: serial input / output unit
50 : 메모리부50: memory
60 : DTMF수신부60: DTMF receiver
본 발명은 문자로 구성된 정보(데이타베이스)를 이용하여 자연스런 음성으로 바꾸어 전화가입자에게 필요한 정보를 제공해 주는 한국어 문자 음성변환 오디오텍스 시스템의 음성처리 장치 및 방법에 관한 것이다.The present invention relates to a speech processing apparatus and method for a Korean text-to-speech audiotex system that provides a subscriber with the necessary information by converting into a natural voice using information composed of text (database).
현재 서비스중인 음성정보 시스템은 단순히 음서을 디지탈로 변환하였다가 다시 디지탈 신호를 음성으로 재생하는 녹음 재생방식(ADPCM방식)과 제한된 음성단어를 소유하고 있으므로 제한된 문장에 맞게 음성단어를 편집하여 재생하는 편집 재생방식으로 크게 분류가 된다.The voice information system currently in service has a recording / playback method (ADPCM method) that simply converts a note into digital and then plays back digital signals as voice, and a limited voice word. In a large way.
그러나 현재 음성정보시스템은 제한된 음성단어를 사용하고 있기 때문에 교통안내, 관광안내, 농수산물 가격안내, 부동산 정보안내, 시험합격안내 등 여러가지 단순한 정보를 제공하지만 정보의 내용과 양에 있어서 상당히 부족하고 정보를 갱신하는 데 있어서 신속하지 못하다.However, since the current voice information system uses limited voice words, it provides various simple information such as traffic guide, tourism guide, agricultural and fish price guide, real estate guide, and test pass guide, but it is quite insufficient in the content and quantity of information. Not quick to update
따라서, 상기 종래기술의 문제점을 해결하기 위하여 안출된 본발명은, 무제한의 음성합성 기능을 가지게 하여 내용과 양에 있어서 상당히 많은 정보를 전화가입자에게 신속하게 전달해 줄 수 있는 오디오텍스 시스템의 음성처리 장치 및 방법을 제공하는데 그 목적이 있다.Therefore, the present invention devised to solve the problems of the prior art, the audio processing system of the audiotex system that can deliver a considerable amount of information in the content and quantity quickly to the subscriber to have an unlimited voice synthesis function And to provide a method.
상기 목적을 달성하기 위하여 본 발명에 따른 음성처리 장치는, 중앙처리수단, 채널접속수단, DSP수단, 시리얼 입출력수단, 메모리수단, DTMF수신수단을 구비한다.In order to achieve the above object, the voice processing apparatus according to the present invention comprises a central processing means, a channel connecting means, a DSP means, a serial input / output means, a memory means, and a DTMF receiving means.
또한 상기 음성처리장치에 적용되는 음성처리방법은, 한국어텍스트 데이타를 받아 한글, 알파벳, 약어, 숫자를 분류하여 음운기호가 포함된 내부코드를 생성하고, 억양과 숨쉬기를 위한 정보를 생성하며 생성된 내부코드를 한국어 음운규칙을 이용해 발음기호열로 바꾸어주는 텍스트 코드 처리단계와, 상기 텍스트 내부코드처리단계에서 생성된 발음기호열과 구문정보 및 입력텍스 갯수를 배열형태로 저장된 메모리에서 읽어 들이며, 각 음절의 발음기호와 구문정보 데이타를 이용해서 음소의 지속시간 조절규칙, 반음절 단위의 접속규칙, 기본주파수 제어규칙들을 적용한 후 최종적으로 반음절 단위의 합성파라미터열을 생성해서 메모리에 저장하는 코드파라메타 처리단계와, 상기 코드파라메타 처리단계에서 만들어진 반음절 LSP파라메터를 읽어 들여 디지탈 음성을 만들어 내면서 디지탈 아날로그 변환기를 통하여 아날로그 음성으로 바꾸어 주는 파라메타 음성처리단계를 구비하여 수행된다.In addition, the speech processing method applied to the speech processing apparatus is generated by receiving Korean text data, classifying Korean letters, alphabets, abbreviations, and numbers, generating internal codes including phonological symbols, and generating information for intonation and breathing. A text code processing step of converting an internal code into a phonetic code sequence using Korean phonological rules, and reading the phonetic code string, syntax information, and input text number generated in the text internal code processing step from an memory stored in an array form, and each syllable Code parameter processing to generate the semi-syllable synthetic parameter string and store it in memory after applying the phoneme duration control rule, semi-syllable connection rule, and basic frequency control rule by using phonetic symbols and syntax information data And the syllable LSP parameter generated in the chord parameter processing step. And a parameter speech processing step of converting the analog speech to the analog speech through the digital analog converter while producing the digital speech.
오디오텍스 시스템이 제공할 수 있는 새로운 서비스로는 전화번호에 의한 가입자의 모든정보 검색서비스, 차량번호에 의한 차량소유자의 모든정보 검색서비스, 신문 읽기 서비스, 증권시장 속보서비스등 그 종류가 헤아릴 수 없을 정도로 많다.The new services that the Audiotex system can provide include an unparalleled number of information retrieval services for subscribers by phone number, all information retrieval services for vehicle owners by car number, newspaper reading service, and stock market breaking service. There are many.
제1도는 본 발명이 적용되는 오디오텍스 시스템의 기본구성도로서, 도면에서 1은 가입자 블럭, 2는 음성처리 블럭, 3은 서비스 제어블럭, 4는 데이타망 접속블럭, 5는 오디오텍스 데이타베이스를 각각 나타낸다.1 is a basic configuration of an audiotex system to which the present invention is applied, in which 1 is a subscriber block, 2 is a voice processing block, 3 is a service control block, 4 is a data network connection block, and 5 is an audiotex database. Represent each.
제1도의 가입자 블럭(1)은 T1트렁크 인터페이스를 담당하여 전화가입자와 오디오텍스 시스템간의 통화로를 형성하는 기능과 발신번 조회기능을 수행한다. 이 전자통신연구소에서 개발한 전전자 교환기(TDX-10)의 트렁크 인터페이스부를 수정하여 구현하였으며 그 기능을 열거하면 다음과 같다.The subscriber block 1 of FIG. 1 is in charge of the T1 trunk interface to form a call path between the subscriber and the audiotex system and to perform the calling number inquiry function. The trunk interface of the TDX-10 developed by the Electronics and Telecommunications Research Institute has been modified and implemented.
1)네개의 T1트렁크에서 96채널 분리, 2)R2신호에 의한 교환기와의 신호제어, 3)발신가입자 번호 조회, 4)링 신호와 훅-은 신호를 각채널별로 음성처리부(2)로 전송, 5)음성처리부(2)에서 보낸 훅-은 신호의 수신, 6)코텍 초기화 명령을 음성처리부(2)로 전송.1) 96 channels separated from four T1 trunks, 2) Signal control with the exchanger by R2 signal, 3) Calling party number inquiry, 4) Ring and hook signals are sent to voice processing unit 2 for each channel 5) Receive the hook signal sent from the voice processing unit 2, 6) Send a codec initialization command to the voice processing unit 2.
본 발명인 음성처리부(2)는 정보제공자의 데이타베이스(5)로 부터 원하는 문장정보를 받은 다음 음성합성 알고리즘을 수행하여 합성음을 만들어 낸다.The present invention speech processing unit 2 receives the desired sentence information from the database 5 of the information provider and then performs a speech synthesis algorithm to generate a synthesized sound.
합성하는 기법으로는 반음절을 이용한 LSP규칙합성이 사용됐으며, 모든 타스크를 실시간으로 처리하기 위해 실시간 오퍼레이팅시스템이 항상 동작하고 있다. 음성합성 알고리즘과 제어 프로그램과 반음절데이타는 롬(ROM)에 지울수 없게 고정되어 있으며 가입자 블럭으로 부터 링신호를 받으면 음성합성 기능을 수행한다. 그 기능을 열거하면 다음과 같다.LSP rule synthesis using half-syllable is used as the compositing technique, and the real-time operating system is always operating to process all tasks in real time. The speech synthesis algorithm, the control program and the half-syllable data are fixed in the ROM and perform the speech synthesis function upon receiving the ring signal from the subscriber block. The functions are listed as follows.
1)가입자 블럭(1)을 코텍과 연결시킴, 2)DTMF신호의 수신 및 번역, 3)FIFO를 이용한 중앙처리부와 디에스피(DSP)와의 연결, 4)반음절 데이타 및 예외데이타 인출 및 음성합성 알고리즘 수행, 5)콘솔에서의 프로그램의 변수 및 파라메타 수정 및 감시, 6)문장을 아날로그 음성으로 변화.1) Connect subscriber block (1) with Cortec, 2) Receive and translate DTMF signal, 3) Connect central processing unit and DSP using FIFO, 4) Semi-syllable data and exception data retrieval and speech synthesis algorithm Performance, 5) modifying and monitoring the program's variables and parameters in the console, and 6) changing the sentence to analog voice.
서비스 제어블럭(3)은 96채널에 대한 서비스 제공 및 관리를 담당하며 전화가입자의 입력명령을 처리하고 정보제공자의 데이타베이스(5)의 입출력 디바이스를 관리한다. 서비스 제공 및 관리 기능은 전화호와 패킷호를 상호 연결시켜 주면, 각 채널의 상태를 감시하고, 기능시험과 오류발생에 대한 처리를 수행하고, 과금데이터를 생성 및 관리한다. 전화가입자 명령처리 기능은 초기 안내 메시지와 오류발생시의 해당 메시지를 음성처리 블럭(2)으로 내보내고 가입자의 신분과 비밀번호와 정보제공 데이타베이스의 위치 테이블을 관리하고 전화가입자가 입력한 데이타를 정보 데이타베이스로 내보낸다.The service control block 3 is responsible for providing and managing services for 96 channels, processing input commands of telephone subscribers, and managing input / output devices of the information provider's database 5. The service provision and management function interconnects telephone and packet calls, monitors the status of each channel, performs function tests and handling of errors, and generates and manages billing data. The subscriber command processing function sends the initial guidance message and the corresponding message in case of error to the voice processing block (2), manages the location table of the subscriber's identity, password, and information providing database, and records the data entered by the subscriber. Export to
입출력 디바이스 기능은 직렬포트를 통하여 음성처리 블럭을 연결시키고 규버퍼를 통하여 데이타망 연결블럭을 연결시킨다.The input / output device function connects the voice processing block through the serial port and the data network connection block through the rule buffer.
데이타망 접속블럭(4)은 공중데이타망을 통하여 정보데이타베이스를 연결시키는 X.25호 설정 및 연결과 해제기능을 수행하며 X.25프로토콜을 관리한다. 이 블럭은 실제 선로를 감시하는 감시부와 자유롭게 구동되는 시계를 관리하는 타이머부와 인터럽트를 처리하는 예외부 및 패킷링크로 패킷데이타열을 다루는 전송부로 구성되어 있으며 최대 전송속도는 64Kbps이다.The data network access block (4) performs X.25 call setup, connection and disconnection functions to connect the information database through the public data network and manages the X.25 protocol. The block consists of a monitoring unit that monitors the actual line, a timer unit that manages a freely running clock, an exception unit that handles interrupts, and a transmission unit that handles packet data streams with packet links. The maximum transmission rate is 64Kbps.
오디오텍스용 데이타베이스(5)는 신속하고 손쉽게 문자정보를 저장, 편집, 수정을 할 수 있도록 설계되어야 하며 오디오텍스장치와 통신을 하기 위한 통신 프로트콜과 오디오텍스 장치의 신속한 음성합성을 위한 일반규약이 지켜져야 한다.The audiotex database (5) should be designed to store, edit, and modify text information quickly and easily, and the communication protocol for communicating with audiotex devices and the general protocol for rapid speech synthesis of audiotex devices. This must be observed.
일반규약은 다음과 같다.The general protocol is as follows.
- 데이타 베이스 편집시 한 줄에 80개의 문자를 초과하지 않는다.When editing a database, do not exceed 80 characters per line.
- 각 줄은 구도점으로 끝나거나 단어단위로 끝을 맺는다.Each line ends with a composition point or ends with a word unit.
- 명료성을 위하여 가능한 짧은 문장을 사용한다.-Use short sentences whenever possible for clarity.
- 각 단계별로 4-5개 정도의 메뉴를 갖도록 트리구조로 설계하여 사용자가 쉽게 메뉴를 선택하도록 한다.-Design the tree structure to have 4-5 menus for each stage so that the user can easily select the menu.
통신프로토콜은 간단히 한 바이트 문자인 ENQ(O×05), XON(O×11), XOFF(O×13)과 CAN(O×18) 신호로 구성되어 있다. 오디오텍스 장치가 ENQ신호를 내보내면 데이타베이스(5)는 동작을 시작하고 환영 및 안내메시지를 내보내면서 사용자가 누른 데이타를 수시하여 해당 데이타를 오디오텍스 장치로 내보낸다.The communication protocol consists of ENQ (Ox05), XON (Ox11), XOFF (Ox13) and CAN (Ox18) signals, which are simply one byte characters. When the audiotex device sends out the ENQ signal, the database 5 starts the operation, sends out welcome and guide messages, receives the data pressed by the user, and sends the data to the audiotex device.
XON과 XOFF신호는 다른 시리얼 통신과 마찬가지로 데이타를 주고 받을때 생기는 문제를 해결하는 제어신호로 사용된다. 오디오텍스 장치가 후크온 신호를 감지하거나 에러 신호를 감지하여 통화로를 절단하고자 할때 데이타베이스(5)로 CAN신호를 내보내면 데이타베이스(5)는 모든 동작을 중지하고 초기상태로 돌아간다. 또 사용자가 더이상 데이타베이스(5)를 사용하지 않는다고 판단이 되면 모든동작을 중지하고 CAN신호를 내보내어 오디오텍스장치가 통화로를 절단하도록 한다.Like other serial communication, XON and XOFF signals are used as control signals to solve the problem of sending and receiving data. When the audiotex device detects a hook-on signal or detects an error signal and sends a CAN signal to the database (5), the database (5) stops all operations and returns to the initial state. If it is determined that the user no longer uses the database (5), the operation is stopped and the CAN signal is sent so that the audiotex device cuts the channel.
제2도는 본 발명인 음성처리부(2)의 구성도로서, 도면에서와 같이 중앙처리부(10), 채널접속부(20), DSP부(30), 시리얼 입출력부(40), 메모리부(50), DTMF수신부(60)로 구성되어 있다.2 is a block diagram of the audio processing unit 2 according to the present invention. As shown in the drawing, the central processing unit 10, the channel connection unit 20, the DSP unit 30, the serial input / output unit 40, the memory unit 50, It is comprised by the DTMF receiver 60.
중앙처리부(10)는 메모리와 주변소자 및 주소매핑 로직을 제어하며 32비트의 데이타 버스는 8비트, 16비트의 데이타 크기를 갖는 모든 디바이스를 구동할 수 있다. 상기 중앙처리부(10)는 MC68020 MPU를 사용하였으며 20메가 헤르쯔(MHZ)의 속도로 동작한다.The central processing unit 10 controls memory, peripheral devices, and address mapping logic. A 32-bit data bus can drive all devices having 8-bit and 16-bit data sizes. The central processing unit 10 used the MC68020 MPU and operates at a speed of 20 MHz (MH Z ).
채널 접속부(20)는 합성된 아날로그 음성을 PCM(2,048MHZ의 서브하이웨이)로 변환하여 가입자 블럭으로 전송하며, 링 신호 및 후크온 신호를 감지하며, 흐크온 신호를 가입자 블럭으로 보내 통화로의 절단을 유도한다. 상기 채널 접속부(20)는 TP3070코덱칩과 쉬프트레지스터와 디코더를 사용하여 구성하였다.The channel connection unit 20 converts the synthesized analog voice into a PCM (2,048MH Z subhighway) and transmits it to the subscriber block, detects a ring signal and a hook-on signal, and sends a hck-on signal to the subscriber block. Induce cleavage. The channel connection unit 20 is configured using a TP3070 codec chip, a shift register, and a decoder.
DSP부(30)는 25nses 롬(4K long word)와 25nses 롬(32K long word)를 구비하며, 중앙처리부(10)가 FIFO로 보낸 LSP파라메타를 수시로 읽어 들여서 12차 LSP합성필터 알고리즘을 실시간으로 처리하여 피치에 동기된 자연스런 합성음을 생성한다. 이 합성파형은 0.1ms마다 발생하는 내부 타이머 인터럽트에 의해 12비트 D/A변환기로 보내져 아날로그 음성으로 변환한다.The DSP unit 30 has a 25 ns ROM (4K long word) and a 25 ns ROM (32 K long word). The DSP unit 30 reads the LSP parameter sent from the central processing unit 10 to the FIFO from time to time to process the 12th LSP synthesis filter algorithm in real time. To produce a natural synthesized sound synchronized with the pitch. This synthesized waveform is sent to a 12-bit D / A converter by an internal timer interrupt that occurs every 0.1 ms to convert to analog voice.
시리얼 입출력부(40)는 MFP(MC68901)과 SCC(Z8530)를 사용하여 3개의 시리얼 입출력 포트를 구현하며, MFP는 소프트웨어 틱타이머와 소프트웨어 버그를 감지하는 워치독(Watch dog)타이머와 콘솔용 감시 포트로 사용된다. 타스크들의 상태, 버퍼의 상태와 서비스의 진행 상황이 9600bps의 속도로 콘솔포트를 통하여 콘솔에 표시된다. 또SCC의 두개 시리얼 포트는 텍스트 데이타의 명령들이 서비스 제어블럭으로 오고 갈수 있도록 데이타통로를 만들어 준다.The serial input / output unit 40 implements three serial input / output ports using the MFP (MC68901) and the SCC (Z8530), and the MFP monitors a watchdog timer and a console for detecting software tick timers and software bugs. Used as a port The status of tasks, buffer status and service progress is displayed on the console through the console port at 9600bps. The two serial ports of the SCC also provide a data path for text data commands to and from the service control block.
메모리부(50)는 비휘발성인 롬모듈과 휘발성인 램모듈으로 구성되어 있으며 롬모듈은 16비트 버스구조로 4개의 뱅크로 구성되었으며 각 뱅크는 2개의 롬칩으로 배열되어 512킬로바이트, 1메가바이트, 2메가바이트의 용량을 가질수 있도록 설계되었다. 제어프로그램, 음성처리 알고리즘과 LSP파라메타 데이타가 이롬에 저장되어있다.The memory unit 50 is composed of a nonvolatile ROM module and a volatile RAM module. The ROM module is composed of four banks in a 16-bit bus structure, and each bank is arranged in two ROM chips, 512 kilobytes, 1 megabyte, It is designed to have a capacity of 2 megabytes. Control programs, speech processing algorithms and LSP parameter data are stored in this ROM.
램 모듈은 32비트 버스구조로 2개의 뱅크로 구성되었으며 각뱅크는 4개의 램 칩으로 배열되어 롬과 마찬가지로 512킬로 바이트, 1메가 바이트, 2메가 바이트의 용량을 가질수 있도록 설계되었으며, 프로그램이 사용한 버퍼, 변수, 큐, 플래그와 카운터등의 기억장소로 쓰인다. 롬 모듈의 주소는 OFFE80000H에서 OFF7FFFH까지 이며 램 모듈의 주소는 0부터 OFFFFFH할당하여 각각 1메가 바이트의 용량으로 현재 사용되고 있다.The RAM module is composed of two banks with 32-bit bus structure, and each bank is arranged with four RAM chips. Like RAM, the RAM module is designed to have a capacity of 512 kilobytes, 1 megabyte, and 2 megabytes. It is used for storage of variables, queues, flags and counters. The address of ROM module is from OFFE80000H to OFF7FFFH and the address of RAM module is assigned from 0 to OFFFFFH.
DTMF수신부(60)는 DTMF송수신 칩인 75T2090을 사용하고 있으며 전화기에서 발생하는 16개의 모든 DTMF신호를 감지하여 8비트 데이타버스에 4비트 데이타만 내보내며 반대로 중앙처리부(10)가 내보낸 4비트 데이타를 받아서 16개이 DTMF를 발생시킨다. 현재는 DTMF수신용으로 사용하고 있으며, DTMF신호를 감지하여 자동인터럽트 신호를 레벨4로 발생시키면 중앙처리부의 인터럽트 루틴이 4비트의 데이타를 읽어들여 해당되는 아스키 데이타로 바꾸어 주며이 아스키 데이타는 DTMF순환큐에 저장된다.The DTMF receiver 60 uses 75T2090, a DTMF transmitter and receiver chip, detects all 16 DTMF signals generated from the telephone, and sends out only 4 bits of data to the 8-bit data bus. And 16 generate DTMF. Currently, it is used for DTMF reception. When the DTMF signal is detected and the automatic interrupt signal is generated at level 4, the interrupt routine of the central processing unit reads 4 bits of data and replaces it with the corresponding ASCII data. Are stored in.
제3도는 소프트웨어의 전체 기능 구성도로서, 주제어부(70), 텍스트코드부(TTC)(80), 코드파라메타부(CTP)(90), 파라메타 음성부(PTS)(100)의 4개 주모듈과 9개의 부모듈로 구성되어 있다.3 is a diagram of the overall functional configuration of the software. The four main sections of the main control unit 70, the text code unit (TTC) 80, the code parameter unit (CTP) 90, and the parameter voice unit (PTS) 100 are shown. It consists of a module and nine submodules.
주제어부(70)는 제9도의 주제어부 흐름에 따라 매일(Mail)박스를 초기화하고, 송신큐와 수신큐와 DTMF를 생성하고, 링플래그와 후크온 플래그를 생성한다. 재동작 플래그가 온 인가를 검사하여 재동작이면 오디오텍스 데이타베이스용 포트를 초기화 시키고 사용되는 모든 변수를 초기화 한다. 또 콘솔에 시작한다는 안내메시지를 표시한 후, 문자수신 타스크, 문자송신 타스크, 링 타스크, DTMF타스크, 후크온, LSP타스크, 텍스트 코드 타스크에 정해진 우선순위를 첨가하여 생성하고 자기자신은 계속해서 루프를 돈다. 루프를 돌면서 고장점검을 실시하여 그 결과 및 다른 타스크에서 보내온 결과를 콘솔에 표시하여 준다.The main control unit 70 initializes a Mail box, generates a transmission queue, a reception queue, and a DTMF according to the main control flow of FIG. 9, and generates a ring flag and a hook-on flag. If the reactivation flag is reactivated by checking whether it is on, the port for the audiotex database is initialized and all variables used are initialized. In addition, the console displays a message indicating that it is starting, and then generates the specified priority to the text receiving task, the text sending task, the ring task, the DTMF task, the hook-on, the LSP task, and the text code task. Turn Rotate the loop to perform a fault check and display the results and the results from other tasks on the console.
텍스트코드부(80)는 제1도의 서비스 제어블럭(3)에서 전송된텍스트 데이타를 내부 소리나는 형태의 코드로 변환하고 음운정보를 만들어 낸다.The text code unit 80 converts the text data transmitted from the service control block 3 of FIG. 1 into an internal sounding code and produces phonological information.
코드 파라메타부(90)는 텍스트코드 처리부(80)에서 보내진 코드를 참조하여 먼저 문장내의 음절의 지속시간과 지속시간을 계산한다. 문장, 구, 절의 경계정보를 이용하여 규칙에 의한 피치윤관선을 형성한다. 이러한 과정을 거친후 반음절을 음절단위로 조합하여 연속적인 문장이 만들어진다. 제3도의 파라메타 음성부(100)는 텍스트코드부(80)에서 보내진 파라메터 데이타로 부터 실제로 들을 수 있는 음성으로 바꾸어 주는 기능을 수행하며 실시간으로 양질의 음성을 만들기 위해 12차 올폴필터를 채용하고 있으며 DSP칩을 이용하는 어셈블리 언어로 프로그래밍 되어 있다.The code parameter unit 90 first calculates the duration and duration of the syllable in the sentence with reference to the code sent from the text code processing unit 80. Pitch line lines are formed by rule by using boundary information of sentence, phrase and clause. After this process, consecutive sentences are made by combining syllables in syllable units. The parameter voice unit 100 of FIG. 3 performs a function of converting the parameter data sent from the text code unit 80 into a voice that can be actually heard, and employs a 12th order all-pole filter to make a high quality voice in real time. It is programmed in assembly language using DSP chips.
텍스트 데이타 수신부(71)는 오디오텍스 데이타베이스에서 보내진 문자정보를 수신하여 2개의 수신버퍼에 문자정보를 번갈아가면서 저장하면서 마침표(.,!,?)를 수신하거나 80개 문자를 순하면 수신버퍼의 마지막에 EOS문자를 삽입하여 텍스트코드부(80)로 수신버퍼의 내용을 전달하면서 텍스트코드부(80)를 동작시키는 명령을 내보낸다. 또 너무 많은 데이타를 수신하여 수신버퍼가 가득차면 오디오텍스 데이타베이스(5)로 XOFF문자를 송신하여 데이타 전송을 중지시키고, 추후에 수신버퍼가 비어 있을때 XON문자를 송신하여 데이타전송을 다시 시작 시킨다.The text data receiving unit 71 receives the character information sent from the audiotex database and stores the character information in two receiving buffers alternately and receives a period (.,!,?) Finally, the EOS character is inserted to send the text of the reception buffer to the text code unit 80 while sending a command to operate the text code unit 80. If too much data is received and the receiving buffer is full, the XOFF character is sent to the audiotex database (5) to stop the data transmission. When the receiving buffer is empty, the XON character is transmitted to resume the data transmission.
DTMF수신부(72)는 사용자가 누른 DTMF데이타를 수신하여 아스키 문자로 변환한 후 해당되는 키 값을 음성으로 알려주어 사용자가 누른 키가 맞는지를 확인시켜 준다. 또DTMF데이타를 검사하여 숫자(0-9)이면 그대로 오디오텍스 데이타베이스(5)로 내보내고 별표( * )이면 그다음DTMF데이타를 분류하여 문장반복기능, 단락반복기능, 문장건너뛰기, 고속처리 등을 수행한다. 음성이 도중에 흘러나오고 있을때 DTMF키가 눌려지면 즉시 음성을 중단시키고 위의 기능을 수행한다.The DTMF receiver 72 receives the DTMF data pressed by the user, converts the ASCII characters into ASCII characters, and then informs the corresponding key value by voice to confirm whether the key pressed by the user is correct. In addition, if DTMF data is checked, if it is a number (0-9), it is exported as it is to the audiotex database (5). If it is an asterisk (*), then DTMF data is classified and used for sentence repeat function, paragraph repeat function, sentence skipping, and high speed processing. Perform. If the DTMF key is pressed while the voice is flowing in the middle, the voice stops immediately and the above function is performed.
명령데이타 송신부(73)는 음성처리 블럭(2)의 상태나 명령들과 과금정보나 기타 안내문을 오디오텍스 데이타베이스(5)로 전송하는 기능을 수행한다. 먼저 송신할 메시지가 있는가를 검사하여 메시지가 있으면 첫문자를 내보내고 나머지 문자는 송신큐에 저장하면 자동적으로 송신 인터럽트가 발생하여 메시지가 오디오텍스 데이타베이스(5)로 전송된다.The command data transmitter 73 transmits the state or commands of the voice processing block 2, billing information, and other guide texts to the audiotex database 5. First, it checks whether there is a message to send and if there is a message, the first character is sent out and the remaining characters are stored in the transmission queue. Then, a transmission interrupt occurs automatically and the message is transmitted to the audiotex database (5).
장애관리부(74)는 항상 음성처리블럭(2)의 상태를 감시하며 발생되는 장애를 수집하여 콘솔로 알려주는 기능을 수행한다.The fault management unit 74 always monitors the state of the voice processing block 2 and collects the generated faults and informs the console.
인터럽트 제어부(75)는 음성처리블럭(2)에서 발생되는 모든 인터럽트를 관리하는 기능을 하며 문자를 수신했을때 발생하는 문자수신 인터럽트 루틴, 문자를 송신할때 발생하는 문자 송신 인터럽트 루틴, 사용자가 DTMF키를 누룰때 발생하는 DTMF인터럽트 루틴, 사용자가 전화를 끊었을때 발생하는 후크온 인터럽트 루틴, 사용자가 전화를 걸때 발생하는 링 인터럽트 루틴, 고장이 발생했을때 생기는 고장 인터럽트 루틴으로 구성되어 있다.The interrupt control unit 75 manages all interrupts generated by the voice processing block 2, and a text receiving interrupt routine generated when a text is received, a text sending interrupt routine generated when a text is sent, and the user is DTMF. It consists of a DTMF interrupt routine that occurs when a key is pressed, a hook-on interrupt routine that occurs when the user hangs up, a ring interrupt routine that occurs when the user makes a call, and a fault interrupt routine that occurs when a fault occurs.
타이머제어부(76)는 10ms마다 타이머 인터럽트를 발생시켜서 모든 타스크들이 타임 아웃시간을 검사할 수 있도록 하는 기능이다.The timer controller 76 generates a timer interrupt every 10ms so that all tasks can check the timeout time.
후크온 제어부(77)는 사용자가 전화를 끊었을때 발생하는 후크온 플래그를 감지하여 동작 표시 램프를 꺼주면서 오디오텍스 데이타베이스(5)로 CAN문자를 내보내어 데이타 베이스의 동작을 중지시킨다.The hook-on control unit 77 detects the hook-on flag generated when the user hangs up the phone, turns off the operation indicator lamp, and sends out CAN characters to the audiotex database 5 to stop the operation of the database.
또 현재 동작중인 모든 타스크들을 제거하고 파라메타 음성부를 초기화 시키고 주제어부(70)를 초기상태로 만들어 준다.In addition, it removes all the tasks currently in operation, initializes the parameter voice unit, and makes the main control unit 70 the initial state.
제3도의 링 신호검출부(78)는 사용자가 전화를 걸면 발생하는링 프래그를 감지하여 동작표시 램프를 켜주면서 음성처리블럭(2)에 저장되어 있는 환영메시지를 음성으로 내보내고, 오디오텍스 데이타베이스(5)로 ENQ문자를 내보내어 데이타 베이스의 동작을 개시하도록 한다.The ring signal detection unit 78 of FIG. 3 detects a ring flag generated when a user makes a phone call, turns on an operation indicator lamp, and sends out a welcome message stored in the voice processing block 2 as a voice. Export the ENQ character to (5) to start the database operation.
제3도의 LSP전송부(101)는 제10도의 LSP전송 흐름도에 따라 LSP데이타를 파라메타 음성부(100)로 전송하는 기능을 수행한다. 먼저 LSP데이타를 기다리고 있다가 데이타가 오면 LSP데이타를 프레임단위(16개)로 나누면서 FIFO상태를 검사하여 비어있으면 LSP프레임으로 FIFO로 전송한다.The LSP transmitter 101 of FIG. 3 performs a function of transmitting LSP data to the parameter voice unit 100 according to the LSP transmission flowchart of FIG. 10. First, it waits for LSP data, and when data comes, it divides LSP data into frame units (16) and checks the FIFO status. If it is empty, it sends LSP data to LFI frame as FIFO.
LSP데이타가 모두 다 전송될때까지 위의 과정을 반복한다. LSP데이타를 모두 다 전송한 후 음성합성 상태를 검사하여 계속 진행중이면 LSP전송완료 되었음을 알리고, 음성합성의 끝을 알리는 상태이면 전송끝 명령을 15번 FIFO로 내보내고 LSP전송완료 되었음을 알리고, 비 정상 중지상태이면 FIFO의 내용을 모두 지우고 전송끝 명령을 15번 FIFO로 내 보내고 LSP전송완료 되었음을 알린다.Repeat the above process until all LSP data has been transmitted. After all the LSP data has been transmitted, the voice synthesis status is checked and if it is still in progress, it indicates that the LSP transmission is completed. If it is in the state of notifying the end of the voice synthesis, the end-of-transmission command is sent to FIFO No. 15, and the LSP transmission is completed. If it is, the contents of FIFO are erased and the end command is sent to FIFO No. 15 to inform the completion of LSP transmission.
제4도는 택스트문장을 음성처리하여 합성음을 만들어내는 과정을 나타내는 처리흐름도이다. 상기 합성음을 만들어내는 처리는 제2도의 메모리부(50)에 저장된 프로그램에 의해 실행되면 텍스트코드처리하는 제1단계(110), 코드 파라메타 처리하는 제2단계(120), 파라메타 음성처리하는 제3단계(13)로 구성되어 있다.4 is a flowchart illustrating a process of generating a synthesized sound by speech processing a text sentence. The process of generating the synthesized sound is executed by a program stored in the memory unit 50 of FIG. 2, the first step 110 of text code processing, the second step 120 of code parameter processing, and the third of parameter voice processing. It consists of step 13.
텍스트코드 처리하는 1단계(110)에서 한글처리(401)알파벳/약어처리(402)는 한국어 텍스트 데이타를 받아 한글, 알파벳, 약어, 숫자를 분류하여 음운기호가 포함된 내부코드를 생성한다. 형태소.구문분석(403)과 운율 및 경계분석(404)에서는 억양과 숨쉬기를 위한 정보를 생성하며 한국어 음운규칙전용(405)에서는 생성된 내부코드를 한국어 음운규칙을 이용해 발음기호열로 바꾸어 주는 기능을 담당한다.In the first step 110 of text code processing, the Hangul process 401 alphabet / abbreviation process 402 receives Korean text data and classifies Hangul, alphabets, abbreviations, and numbers to generate internal codes including phonological symbols. Morphological and syntax analysis (403) and rhyme and boundary analysis (404) generates information for intonation and breathing, and in Korean phonological rules only (405), the function of converting the generated internal codes into phonetic symbols using Korean phonological rules. In charge of.
코드파라메타를 처리하는 제2단계(120)는 텍스트코드 처리단계(110)에서 생성된 발음기호열과 구문정보 및 입력텍스트 개숫를 배열형태로 저장된 메모리에서 읽어 들이며, 데이타크기는 발음기호열인 경우에 있어서 각 음절의 발음기호는 초성, 중성, 종성 각각1바이트씩 차지하며 구문정보가 추가로 1바이트 차지한다. 입력텍스트 갯수를 저장하는 변수는 2바이트를 차지한다. 입력테스트 갯수를 저장하는 변수는 2바이트를 차지한다. 이 데이타들을 이용해서 음소의 지속시간 조절규칙, 반음절 단위의 접속규칙, 기본주파수 제어규칙들을 적용한 후 최종적으로 파라메터음성처리하는 제3단계(130)에서 사용할 수 있는 반음절 단위의 합성파라미터열을 생성해서 메모리에 저장하는 역할을 담당한다. 최종적으로 메모리에 저장하는 데이타크기는 피치 2바이트, 에너지 2바이트, LSP파라메터 24바이트를 차지한다.The second step 120 of processing the code parameter reads the phonetic code sequence, the syntax information and the input text number generated in the text code processing step 110 from the memory stored in an array form, and the data size is the phonetic code sequence. Therefore, the syllables of each syllable occupy one byte each of the first consonant, the neutral, and the final consonant, and the syntactic information additionally occupies one byte. The variable that stores the number of input texts takes two bytes. The variable that stores the number of input tests takes two bytes. Using these data, we apply the semi-syllable synthesized parameter string that can be used in the third step (130) to apply the phoneme duration control rule, half syllable unit connection rule, and basic frequency control rule, and finally process the parameters. It is responsible for creating and storing it in memory. Finally, the data size stored in the memory occupies 2 bytes of pitch, 2 bytes of energy, and 24 bytes of LSP parameter.
코드파라메타 처리하는 제2단계(120)는 주제어부는 제어 아래서 1개의 타스크 형태로 규정되어서 동작하게 되는데 주제어부와의 데이타 입출력의 동기를 맞추기 위해서 메일박스를 이용한다. 또한 LSP전송기능을 담당하는 타스크와도 동기를 맞추기 위해서 메일박스를 사용한다.In the second step 120 of processing the code parameter, the main control unit is defined and operated in the form of one task under the control. The mailbox is used to synchronize data input / output with the main control unit. It also uses a mailbox to synchronize with the task responsible for the LSP forwarding function.
제4도의 코드파라메타 처리하는 제2단계(120)의 상세설명은 다음과 같다.Detailed description of the second step 120 of processing the code parameter of FIG. 4 is as follows.
음소의 지속시간 제어기능은 제11도의 지속시간제어 흐름도에 따라 수행한다.The duration control function of the phoneme is performed according to the duration control flowchart of FIG.
우선 각각의 발음기호열에 대해서 단어, 구, 절, 문장의 경계점 정보를 이용하여 음절의 지속시간을 늘린다. 각 음절의 지속시간이 정해지면 음운현상에 따른 규칙들을 적용하여 각 음소의 지속시간 퍼센트를 계산한 후 실험적으로 정한 음소의 최소지속시간, 음소의 고유지속시간을 이용하여 최종적으로 음소의 지속시간을 산출한다.First, the duration of syllable is increased by using boundary point information of words, phrases, phrases, and sentences for each phonetic symbol string. After the duration of each syllable is determined, the duration percentage of each phoneme is calculated by applying the rules according to phonological phenomenon, and finally the duration of the phoneme is finally determined using the minimum duration of the phoneme and the inherent duration of the phoneme. Calculate.
음소의 지속시간 제어가 끝나면 제12도의 반음절데이타 베이스접근 토드생성 흐름도에 따라 반음절 데이타베이스를 접근하기 위한 코드를 생성하는 파라메타 생성기능(407)을 수행한다. 이때/ㄱ, ㄴ, ㅂ, ㅈ, ㅎ/으로 시작되는 반음절은 선행음소가 비음이 아닌 유성음이나 모음일때는 유성화 변이음, 비음일 경우는 비음화 변이음을 선택하고 그렇지 않을 경우는 일반형 반음절을 선택한다. 또한/ㄹ/로 시작하는 반음절은 선행음소가/ㄹ/이면 /la/변이음, 아니면/ra/변이음을 이용하여 접근코드를 생성해 낸다.After the duration control of the phoneme is completed, a parameter generation function 407 for generating a code for accessing a half-syllable database is performed according to the flowchart of generating a half-syllable database approach to FIG. At this time, the half syllables beginning with / a, b, ㅂ, ㅈ, ㅎ / should be voiced mute if the preceding phoneme is not a non-negative voice or a vowel sound. do. In addition, a half-syllable that starts with / ㄹ / generates an access code using / la / mutated sounds or / ra / mutated sounds if the leading phone is / ㄹ /.
이렇게 해서 접근코드가 만들어지면 제13도의 반음절단위의 접속 흐름도에 따라 먼저 음절이 왼쪽 반음절이면 초성이 있는지 없는지 구분한뒤 초성이 있으면 반음절 형태2, 그렇지 않으면 초성에 따라서 반음절 형태3,4,5중에서 선택한다. 그리고 만약 음절의 오른쪽 만음절이면 종성이 있는지 없는지 구분한뒤 종성이 있다면 반음절형태, 그렇지 않으면 종성의 형태에 달 7,8,9중에서 선택한다. 이렇게 해서 반음절 형태가 정해지면 미리 계산된 각 음소의 길이만큼 반음절 데이타베이스에서 합성파라메타열을 가지고 온다음 반음절 형태에 따라 모음이나 유성음사이, 무성음과 무성음사이, 모음 또는 유성음과 무성자음 사이의 일정한 구간에서 평활화 처리를 한다.When the access code is made in this way, according to the connection diagram of the unit of syllable of Fig. 13, if the syllable is a left half syllable, it is classified whether there is a consonant first. Choose from 4 and 5 If the syllable's right syllable is the syllable's, it's classified whether or not there is a finality. In this way, when the syllable shape is determined, the synthesized parameter string is taken from the half-syllable database by the length of each phoneme, and then between vowels or voiced sounds, between unvoiced and unvoiced sounds, between vowels or voiced sounds and unvoiced sounds according to the half-syllable shape. The smoothing process is performed at a certain interval of.
반음절 단위의 파라메타 접속이 끝나면 제14도의 기본주파수제어 흐름도에 따라 기본주파수 제어(408)를 하게 된다.When the parameter connection in the unit of the half syllable is completed, the basic frequency control 408 is performed according to the basic frequency control flowchart of FIG.
우선 문형(평서문, 의문문, 감탄문)에 따라 기본주파수의 기본윤곽선을 만들고 구, 절의 경계정보를 이용하여 상승값과 하강값을 결정한다. 그리고 음운환경과 조음방법에 따른 기본주파수의 변화를 계산하여 최종적인 기본주파수 윤곽선을 생성한다.First, the basic outline of the fundamental frequency is created according to the sentence type (e.g. sentence, question and exclamation sentence), and the rising and falling values are determined using the boundary information of the phrase and the clause. And the final fundamental frequency contour is generated by calculating the change of fundamental frequency according to phonological environment and modulation method.
파라메라 음성처리하는 3단계(130)는 코드 파라메타를 처리하는 2단계(120)에서 만들어진 반음절 LSP 파라메터를 읽어 들여 100샘플(10ms)의 디지탈 음성을 만들어 내면서 디지탈 아날로그 변환기를 통하여 아날로그 음성으로 바꾸어 주는 기능을 수행한다.The third step 130 of processing the parametric voice reads the half-syllable LSP parameter generated in the second step 120 of processing the code parameter to produce 100 samples (10 ms) of digital voice and converts it into analog voice through a digital analog converter. A note performs a function.
음원신호발생부(409)는 LSP파라메타의 피치정보로 부터 유성음일 경우에는 임펄스열을 이용하고 무성음일 경우에는 백색잡음을 이용하며, 음성합성구간(10ms)마다 새로운 반음절 파라메터에 의한 합성음 접속시 발생하는 불연속성을 제어하기 위해 선형보간기능을 수행한다. LSP음성합성부(410)는 12차올폴(all poll)LSP필터 알고리즘을 사용했으며 실시간 구현을 위해 32비트 DSP칩을 이용하여 구현하였으며 내부 타이머에 의해 100마이크로 초마다 디지탈 음성샘플을 출력하여 음성을 만들어 낸다.The sound source signal generator 409 uses impulse strings for voiced sounds and white noises for unvoiced sounds from the pitch information of the LSP parameter, and connects the synthesized sounds by new half-syllable parameters every voice synthesis section (10ms). Linear interpolation is performed to control the discontinuities that occur. The LSP speech synthesis unit 410 uses an all-polling LSP filter algorithm, implemented using a 32-bit DSP chip for real-time implementation, and outputs a speech by outputting a digital speech sample every 100 microseconds by an internal timer. Make it up
제5도는 반음절의 종류를 나타내는 표시도로서, 제1형(TYPE)은 휴지로서 반음절은 아니다. 사람이 말을하다 쉬는 구간을 나타낸다.5 is a display diagram showing the types of half-syllables, and the first type (TYPE) is not a half-syllable. Indicates a section where a person speaks and rests.
제2형은 초성이 없는 모음만으로 이루어진 앞 반음절이다. 제3형은 유서초성자음과 모음으로 이루어진 앞반음절이다. 제4형 파열없는 무성초성자음과 모음으로 이루어진 앞반음절이다. 제5형은 파열있는 무성초성자음과 모음으로 이루어진 앞반음절이다. 제6형은 종성이 없는 모음만으로 이루어진 뒷 반음절이다. 제7형은 모음과 유성종성자음으로 이루어진 뒷 반음절이다. 제8형은 모음과 무성종성자음으로 이루어진 뒷 반음절이다.Type 2 is the first half syllable, which consists only of vowels without a leading. Type 3 is the first half syllable consisting of vowels and vowels. Type 4 A first syllable consisting of vocal cordless consonants and vowels. Type 5 is a first half syllable consisting of ruptured adolescent consonants and vowels. Type 6 is a posterior half syllable consisting only of vowels without bells. Type 7 is a posterior half syllable consisting of vowels and meteoric consonants. Type 8 is a posterior half syllable consisting of vowels and asexual consonants.
제9형은 모음과 무성종성내파자음으로 이루어진 뒷반음절이다. 제6도는 반음절 결합시 필요한 평활화규칙들로서 type P는 선행반음절의 형태이며 type은 형재 반음절의 형태로서 표 내부의 값은 선행반음절과 현재 반음절의 조합에 따른 제7도에 있는 평활화 형태를 나타내고 있다.Type 9 is a posterior half syllable consisting of vowels and aplastic vocal consonants. FIG. 6 shows the smoothing rules required for combining half syllables, type P in the form of leading syllables, type in the form of gynecological syllables, and the values in the table shown in FIG. 7 according to the combination of leading syllables and current syllables. The form is shown.
제7도의 반음절단위의 평활화모드는 형태1은 앞 반음절의 뒷부분 Ta에서 뒷 반음절의 앞부분 Tb사이의 구간을 선형적으로 보간하는 방법이며, 형태2는 앞 반음절의 뒷부분 Ta에서 뒷반음절의 처음사이와 구간을 선형보간하는 방법이며, 형태3은 앞 반음절의 끝부분에서 뒷반음절의 Ta사이의 구간을 선형보간하는 방법이며, 형태4는 앞 반음절과 뒷음절을 선형보간 없이 순수하게 접속하는 방법을 나타낸다.In the smoothing mode of the half-syllable unit of FIG. 7, Form 1 is a method of linearly interpolating the interval between the rear Ta of the front half syllable and the front Tb of the rear half syllable. Linear interpolation between the beginning and the interval of the shape, Form 3 is the method of linear interpolation between Ta of the last half syllable at the end of the front half syllable, and Form 4 is the pure interpolation between the front half syllable and back syllable without linear interpolation. It shows how to connect.
이때 접속구간 Ta, Tb는 실험에 의해서 결정된 값이며 각각의 반음절은 접속형태에 따라 위의 형태 1,2,3,4중 어느 한가지로 평활화 된다.At this time, the connection section Ta, Tb is a value determined by experiment, and each half-syllable is smoothed in any one of the above types 1,2,3,4 according to the connection type.
제8도는 반음절 데이타베이스의 구성 및 각각의 반음절의 시작점, 음소경계점, 끝점을 가지고 있는 인텍스 테이블의 구성도이다.FIG. 8 is a block diagram of an index table having a half syllable database and a start point, a phoneme boundary point, and an end point of each half syllable.
반음절 데이타베이스는 내부적으로 정한 반음절 순서대로 1번에서 부터 640개의 반음절로 구성되어 있으며, 각각의 반음절은 피치, 에너지, LSP파라마타로 이루어지는 프레임 단위가 여러개로 구성되어 있다. 반음절 데이타베이스내에서 각각의 반음절의 위치는 인택수 태이블에 조정되어 있는데 이 테이블은 각각의 반음절에 대해서 각 반음절의 시작점, 반음절내의 음소의 경계점, 반음절의 끝점에 대한 정보를 반음절 순서대로 가지고 있다. 그림을 보면서 예시하면 다음과 같다.The half-syllable database consists of 1 to 640 half-syllables in an internally determined half-syllable order. Each half-syllable consists of several frame units consisting of pitch, energy, and LSP parameter. The position of each half-syllable in the half-syllable database is adjusted to the number of contacts table. This table provides information about the starting point of each half-syllable, the boundary point of the phoneme in the half-syllable, and the end point of the half-syllable for each half-syllable. Have half-syllable order. For example, look at the picture:
"아"라는 반음절을 반음절 번호 1이라고 하는 경우 인텍스테이블에는 "아"반음절의 반음절 반음절 데이타베이스내의 위치가 있게 되는데 제8도에서 알 수 있듯이 반음절 번호1의 시작점을 0, 음소경계 a', 끝점을 a로서 반음절 데이타베이스내에서 반음절 번호 1이 차지하는 위치는 0에서 a까지 임을 알 수 있다. 나머지 반음절에 대해서도 마찬가지 규칙이 적용된다.If the half-syllable "A" is called half-syllable number 1, the index table has a position in the half-syllable half-syllable database of "A" half-syllable. As shown in Fig. 8, the starting point of the half-syllable number 1 is 0, The phoneme boundary a ', the end point a, can be seen that the position occupied by the syllable number 1 in the syllable database is 0 to a. The same rule applies to the remaining half syllables.
상기와 같이 구성하여 수행되는 본 발명은 오디오텍스 서비스에 적용하여 다음과 같은 효과를 얻을 수 있다.The present invention configured and performed as described above can obtain the following effects by applying to the audiotex service.
첫째, 문자정보를 음석으로 변환하여 제공하므로 앞으로의 모든 정보는 전화만으로도 간편하고 신속하게 제공받을 수 있다.First, because it converts the text information to the phone so that all future information can be provided simply and quickly by phone.
둘째, 전화를 통한 정보검색이 급증하여 유선 및 전화사업의 수익성이 증가한다.Second, profitability of the fixed-line and telephony businesses will increase due to a surge in information retrieval via telephone.
셋째, 전화를 통한 정보검색의 급증하여 정보제공 사업자의 증가에 의한 새로운 고용창출이 기대된다.Third, new job creation is expected due to the rapid increase in information retrieval by telephone and the increase of information providers.
네째, 정보검색 및 수짐을 통한 정보마인드 인식 및 정보제공서비스의 다양화로 정보화 사회의 정착이 자연스럽게 달성된다.Fourth, the establishment of the information society is naturally achieved through the diversification of information mind service and information mind recognition through information search and collection.
다섯째, 시각장애인들을 위한 복지 서비스도 활용할 수 있다.Fifth, welfare services for the blind can also be used.
Claims (3)
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1019920026839A KR950011485B1 (en) | 1992-12-30 | 1992-12-30 | Sounding managenent system |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1019920026839A KR950011485B1 (en) | 1992-12-30 | 1992-12-30 | Sounding managenent system |
Publications (2)
Publication Number | Publication Date |
---|---|
KR940017622A KR940017622A (en) | 1994-07-27 |
KR950011485B1 true KR950011485B1 (en) | 1995-10-05 |
Family
ID=19347969
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1019920026839A KR950011485B1 (en) | 1992-12-30 | 1992-12-30 | Sounding managenent system |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR950011485B1 (en) |
Families Citing this family (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
FR2733333A1 (en) * | 1995-04-20 | 1996-10-25 | Philips Electronics Nv | ROAD INFORMATION APPARATUS PROVIDED WITH A MEMORY MEMORY AND A VOICE SYNTHESIZER GENERATOR |
KR100379450B1 (en) * | 1998-11-17 | 2003-05-17 | 엘지전자 주식회사 | Structure for Continuous Speech Reproduction in Speech Synthesis Board and Continuous Speech Reproduction Method Using the Structure |
KR20020081912A (en) * | 2001-04-20 | 2002-10-30 | 황규오 | A voice service method on the web |
-
1992
- 1992-12-30 KR KR1019920026839A patent/KR950011485B1/en not_active IP Right Cessation
Also Published As
Publication number | Publication date |
---|---|
KR940017622A (en) | 1994-07-27 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US5774854A (en) | Text to speech system | |
EP0140777B1 (en) | Process for encoding speech and an apparatus for carrying out the process | |
US7113909B2 (en) | Voice synthesizing method and voice synthesizer performing the same | |
US20060069567A1 (en) | Methods, systems, and products for translating text to speech | |
WO2005034082A1 (en) | Method for synthesizing speech | |
JPS59225635A (en) | Ultranarrow band communication system | |
US20030061048A1 (en) | Text-to-speech native coding in a communication system | |
CN104050962B (en) | Multifunctional reader based on speech synthesis technique | |
KR950011485B1 (en) | Sounding managenent system | |
US20020193993A1 (en) | Voice communication with simulated speech data | |
JP3404055B2 (en) | Speech synthesizer | |
KR0175251B1 (en) | Automated response system using phoneme conversion method | |
JPS61177496A (en) | Voice synthesization module | |
JP2003029774A (en) | Voice waveform dictionary distribution system, voice waveform dictionary preparing device, and voice synthesizing terminal equipment | |
Jeong et al. | A development of the stand-alone Audiotex system | |
KR0175464B1 (en) | How to make voice data for phone number guide | |
KR0153642B1 (en) | Character-voice transformation service apparatus and control method of the same | |
JP3406230B2 (en) | Audio output device and audio conversion method | |
Hirschberg et al. | Voice response systems: Technologies and applications | |
Eady et al. | Pitch assignment rules for speech synthesis by word concatenation | |
JPH04316100A (en) | Voice guidance control system | |
JPH04120850A (en) | Voice synthesizer | |
Sorin et al. | Text-to-speech synthesis in the French electronic mail environment | |
JPH03236099A (en) | Document read-aloud device | |
CN115146593A (en) | Flow-type controllable Chinese speech synthesis method and system |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A201 | Request for examination | ||
N231 | Notification of change of applicant | ||
G160 | Decision to publish patent application | ||
E701 | Decision to grant or registration of patent right | ||
GRNT | Written decision to grant | ||
FPAY | Annual fee payment |
Payment date: 19980929 Year of fee payment: 4 |
|
LAPS | Lapse due to unpaid annual fee |