KR20050100820A - Voice changing system for toy of a character and method thereof - Google Patents
Voice changing system for toy of a character and method thereof Download PDFInfo
- Publication number
- KR20050100820A KR20050100820A KR1020040025987A KR20040025987A KR20050100820A KR 20050100820 A KR20050100820 A KR 20050100820A KR 1020040025987 A KR1020040025987 A KR 1020040025987A KR 20040025987 A KR20040025987 A KR 20040025987A KR 20050100820 A KR20050100820 A KR 20050100820A
- Authority
- KR
- South Korea
- Prior art keywords
- voice
- constant
- memory unit
- unit
- signal
- Prior art date
Links
Classifications
-
- C—CHEMISTRY; METALLURGY
- C01—INORGANIC CHEMISTRY
- C01B—NON-METALLIC ELEMENTS; COMPOUNDS THEREOF; METALLOIDS OR COMPOUNDS THEREOF NOT COVERED BY SUBCLASS C01C
- C01B13/00—Oxygen; Ozone; Oxides or hydroxides in general
- C01B13/02—Preparation of oxygen
- C01B13/0229—Purification or separation processes
- C01B13/0248—Physical processing only
- C01B13/0259—Physical processing only by adsorption on solids
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B01—PHYSICAL OR CHEMICAL PROCESSES OR APPARATUS IN GENERAL
- B01D—SEPARATION
- B01D53/00—Separation of gases or vapours; Recovering vapours of volatile solvents from gases; Chemical or biological purification of waste gases, e.g. engine exhaust gases, smoke, fumes, flue gases, aerosols
- B01D53/02—Separation of gases or vapours; Recovering vapours of volatile solvents from gases; Chemical or biological purification of waste gases, e.g. engine exhaust gases, smoke, fumes, flue gases, aerosols by adsorption, e.g. preparative gas chromatography
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B01—PHYSICAL OR CHEMICAL PROCESSES OR APPARATUS IN GENERAL
- B01D—SEPARATION
- B01D2256/00—Main component in the product gas stream after treatment
- B01D2256/12—Oxygen
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B01—PHYSICAL OR CHEMICAL PROCESSES OR APPARATUS IN GENERAL
- B01D—SEPARATION
- B01D2257/00—Components to be removed
- B01D2257/10—Single element gases other than halogens
- B01D2257/102—Nitrogen
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B01—PHYSICAL OR CHEMICAL PROCESSES OR APPARATUS IN GENERAL
- B01D—SEPARATION
- B01D2311/00—Details relating to membrane separation process operations and control
- B01D2311/14—Pressure control
-
- C—CHEMISTRY; METALLURGY
- C01—INORGANIC CHEMISTRY
- C01B—NON-METALLIC ELEMENTS; COMPOUNDS THEREOF; METALLOIDS OR COMPOUNDS THEREOF NOT COVERED BY SUBCLASS C01C
- C01B2210/00—Purification or separation of specific gases
- C01B2210/0043—Impurity removed
- C01B2210/0046—Nitrogen
Landscapes
- Chemical & Material Sciences (AREA)
- Analytical Chemistry (AREA)
- Organic Chemistry (AREA)
- Inorganic Chemistry (AREA)
- Engineering & Computer Science (AREA)
- General Chemical & Material Sciences (AREA)
- Oil, Petroleum & Natural Gas (AREA)
- Chemical Kinetics & Catalysis (AREA)
- Toys (AREA)
Abstract
본 발명은 학습용 캐릭터 인형에 사용자가 원하는 음성으로 대화할 수 있도록 한 캐릭터 완구용 음성변조시스템 및 그 방법에 관한 것이다. 본 캐릭터 완구용 음성변조방법은 다수개의 문장의 디지탈 음성신호스트림이 소정의 압축율로 압축된 기준음성데이타를 저장하는 기준음성메모리부와, 상기 불특정인으로부터 입력된 음성소오스신호를 인식하기 위하여 연산공간을 제공하는 연산메모리부와, 다수 특정인(연예인, 정치인, 방송인)의 특징적 음성인자(음성주파수와 음성진폭)에 해당하는 변조용 음성상수가 소정의 압축율로 압축되어 있고 이를 각각 개별적인 저장공간에 저장하고 있는 음성상수메모리부와, 상기 불특정인의 음성소오스신호를 상기 연산메모리부의 인식용 연산에 따라 인식하고 이에 상응하는 대화형 응답을 분석하여 상기 기준음성메모리부로부터 응답에 해당하는 기준음성데이타를 신장 및 복원하며, 상기 음성상부메모리부의 음성상수가 상기 복원타이밍에 따라 출력되도록 클럭제어신호를 발생하는 음성처리제어부와, 상기 클럭제어신호에 따라 상기 음성상수메모리부에 압축 저장된 음성상수를 인출하여 신장 및 복원하는 음성상수디코더와, 상기 음성상수디코더에서 복원된 상기 음성상수와 상기 음성처리제어부에서 복원된 기준음성데이타를 합성시켜 상기 다수 특정인 중 어느 한 음성신호로 변조 및 재생시키는 음성재생부와, 상기 불특정인의 음성을 전기적인 음성소오스신호로 변환하여 상기 음성처리제어부에게 출력하고, 상기 음성재생부의 음성신호를 소정의 비율로 증폭하여 불특정인에게 청각적으로 들려주는 음성입출력부를 포함한다. 이에 따라, 하나의 학습용 캐릭터가 사용자와 음성으로 대화하면서 사용자의 요구에 따라 다수의 연예인들 중 어느 특정한 연예인의 음성으로 변조하여 학습의 능률을 향상시키기 때문에 장시간동안 학습자인 어린이의 흥미와 욕구를 충족시키며, 항상 새로운 음성으로 인하여 쉽게 싫증내지 않고, 실제 연예인과 친밀하게 대화하는 대리만족으로 정신적인 안정감을 이루어 정서 발달 및 함양에 기여하는 효과가 있다.The present invention relates to a character toy voice modulation system and a method for allowing a user to talk to a learning character doll with a desired voice. The present character toy voice modulation method includes a reference voice memory unit for storing reference voice data in which a plurality of sentences of digital voice signal streams are compressed at a predetermined compression rate, and an operation space for recognizing voice source signals input from the unspecified person. And an operation memory unit for providing a modulated voice constant corresponding to a characteristic voice factor (voice frequency and voice amplitude) of a plurality of specific persons (celebrity, politician, broadcaster) and compressed at a predetermined compression rate, respectively, and storing them in separate storage spaces. The voice constant memory unit and the unspecified voice source signal are recognized according to the operation for recognition of the operation memory unit, and the corresponding interactive response is analyzed to obtain reference voice data corresponding to the response from the reference voice memory unit. Expand and restore the voice constant of the voice upper memory unit according to the A voice processing control unit for generating a clock control signal to be output, a voice constant decoder for extracting and decompressing and restoring a voice constant compressed and stored in the voice constant memory unit according to the clock control signal, and the voice reconstructed by the voice constant decoder A voice reproducing unit for synthesizing the constant and the reference voice data restored by the voice processing control unit and modulating and reproducing the voice signal to any one of the plurality of specific persons, and converting the unspecified voice into an electrical voice source signal to perform the voice processing. And a voice input / output unit for outputting to the control unit and amplifying the voice signal of the voice reproducing unit at a predetermined ratio to audibly hear the unspecified person. Accordingly, while a learning character talks with the user by voice and modulates the voice of a specific entertainer among a plurality of entertainers according to the user's demand, the learning efficiency is improved, thereby satisfying the interests and desires of the child who is the learner for a long time. In addition, the new voice does not always get tired easily, and it is effective for emotional development and cultivation by creating a sense of mental stability with a surrogate satisfaction that intimately communicates with actual entertainers.
Description
본 발명은 캐릭터 완구용 음성변조시스템 및 그 방법에 관한 것으로, 학습용 캐릭터 인형에 사용자가 원하는 음성으로 대화할 수 있도록 한 캐릭터 완구용 음성변조시스템 및 그 방법에 관한 것이다.The present invention relates to a character toy voice modulation system and a method thereof, and to a character toy voice modulation system and a method for allowing a user to talk to a learning character doll with a desired voice.
일반적으로, 캐릭터 완구용 음성학습기기는 어린이의 반응에 따라서 적절한 음성표현을 함으로써 이루어지는 교육효과가 상당히 고무적이어서 이러한 자극을 이르키는 인형제작을 위해 끊임없는 시도가 있어왔다. 이와 같은 음성학습기와 유사한 아동용완구가 1999. 5. 10자 음성인식 대화형 인형완구 및 그 제어방법(특허출원 제10-1999-0016583호)으로 대한민국 특허청에 출원되어 있다.In general, the character learning voice learning device has a remarkably inspiring educational effect by the appropriate voice expression according to the children's response has been a constant attempt to make a doll that leads to this stimulus. Children's toys similar to the voice learner have been filed with the Korean Intellectual Property Office on May 5, 1999 as a speech recognition interactive doll toy and its control method (Patent Application No. 10-1999-0016583).
그런데, 이와 같은 음성인식 대화형 인형완구 및 그 제어방법은 입력된 어린이의 음성신호를 화자에 관계없이 인식하고 저장된 시나리오와 저장된 음성정보, 다이얼로그 메니저를 시스템 콘트롤러가 정해진 알고리즘을 사용하여 현실감이 있게 사람과 인형이 대화할 수 있도록 구성되어 있는 바, 이는 다소 교육적인 효과를 거둘 수 있으나 하나의 특정한 음색을 갖는 음성만이 저장되어 반복적으로 재생되기 때문에 하나의 음색으로 쉽게 싫증을 느끼고, 놀이욕구를 충족시키는데 한계가 있는 문제점이 있다.However, such a voice recognition interactive doll toy and its control method recognizes the input voice signal of the child regardless of the speaker, and the stored scenario, the stored voice information, and the dialog manager can be realized by using a system controller-defined algorithm. And dolls are designed to communicate with each other, which can have a somewhat educational effect, but only one voice having a specific tone is stored and repeatedly played, making it easy to get tired of one tone and satisfy the desire to play. There is a problem with this limitation.
본 발명은 상기와 같은 문제점을 해결하기 위해 안출한 것으로, 하나의 학습용 캐릭터가 사용자와 음성으로 대화하면서 사용자의 요구에 따라 다수의 연예인들중 어느 특정한 연예인(탤런트, 개그맨, 가수, 방송인, 영화배우, MC, 성우 등) 및 만화영화 주인공, 애니메이션 캐릭터의 음성으로 변조하여 학습의 능률을 향상시키도록 한 캐릭터 완구용 음성변조시스템 및 그 방법을 제공하는데, 그 목적이 있다.The present invention has been made in order to solve the above problems, a specific character of a plurality of entertainers (talent, gagman, singer, broadcaster, movie actor, according to the user's request while a learning character is talking to the user by voice) , MC, voice actors, etc.) and the cartoon character, the animation character voice modulated by the voice to improve the learning efficiency of the character toy system, and a method thereof.
또한, 본 발명의 다른 목적은 사용자인 어린이가 원하는 특정한 연예인이나 만화영화 주인공, 애니메이션 캐릭터 중 어느 하나를 인터넷이나 컴퓨터를 통하여 다운 받아 저장하여 대화할 수 있도록 한 캐릭터 완구용 음성변조시스템 및 그 방법을 제공하는 것이다.In addition, another object of the present invention is to provide a character toy voice modulation system and method for downloading and storing any one of a specific celebrity, cartoon movie hero, anime character desired by the user as a user via the Internet or computer. To provide.
상기 목적은, 본 발명에 따라, 불특정인과 대화할 수 있는 캐릭터 완구용 음성변조시스템에 있어서, 다수개의 문장의 디지탈 음성신호스트림이 소정의 압축율로 압축된 기준음성데이타를 저장하는 기준음성메모리부와, 상기 불특정인으로부터 입력된 음성소오스신호를 인식하기 위하여 연산공간을 제공하는 연산메모리부와, 다수 특정인(연예인, 정치인, 방송인)의 특징적 음성인자(음성주파수와 음성진폭)에 해당하는 변조용 음성상수가 소정의 압축율로 압축되어 있고 이를 각각 개별적인 저장공간에 저장하고 있는 음성상수메모리부와, 상기 불특정인의 음성소오스신호를 상기 연산메모리부의 인식용 연산에 따라 인식하고 이에 상응하는 대화형 응답을 분석하여 상기 기준음성메모리부로부터 응답에 해당하는 기준음성데이타를 신장 및 복원하며, 상기 음성상부메모리부의 음성상수가 상기 복원타이밍에 따라 출력되도록 클럭제어신호를 발생하는 음성처리제어부와, 상기 클럭제어신호에 따라 상기 음성상수메모리부에 압축 저장된 음성상수를 인출하여 신장 및 복원하는 음성상수디코더와, 상기 음성상수디코더에서 복원된 상기 음성상수와 상기 음성처리제어부에서 복원된 기준음성데이타를 합성시켜 상기 다수 특정인 중 어느 한 음성신호로 변조 및 재생시키는 음성재생부와, 상기 불특정인의 음성을 전기적인 음성소오스신호로 변환하여 상기 음성처리제어부에게 출력하고, 상기 음성재생부의 음성신호를 소정의 비율로 증폭하여 불특정인에게 청각적으로 들려주는 음성입출력부를 포함하는 캐릭터 완구용 음성변조시스템에 의해 달성된다.The above object is, according to the present invention, in the character toy speech modulation system for talking with an unspecified person, the reference speech memory unit for storing reference speech data in which a plurality of sentences' digital speech signal streams are compressed at a predetermined compression rate. And an operation memory unit for providing an operation space for recognizing the voice source signal inputted from the unspecified person, and for modulation corresponding to characteristic voice factors (voice frequency and voice amplitude) of a plurality of specific persons (entertainers, politicians, broadcasters). The voice constant memory unit compresses the voice constant at a predetermined compression rate and stores them in separate storage spaces, and the unspecified voice source signal according to the recognition operation of the operation memory unit. Analyze and expand and restore the reference voice data corresponding to the response from the reference voice memory unit. And a voice processing control unit for generating a clock control signal such that the voice constant of the voice upper memory unit is output according to the restoration timing, and extracting and expanding the voice constant compressed and stored in the voice constant memory unit according to the clock control signal. A voice reproducing unit for synthesizing and reproducing a voice constant decoder, the voice constant reconstructed by the voice constant decoder and reference voice data reconstructed by the voice processing control unit, and modulating and reproducing the voice signal to any one of the plurality of specific persons; Converts the voice into an electrical voice source signal and outputs the voice signal to the voice processing control unit, and amplifies the voice signal of the voice reproducing unit at a predetermined ratio, and includes a voice input / output unit for audibly listening to an unspecified person. Achieved by the system.
여기서, 상기 음성처리제어부는 상기 음성입출력부로부터 입력되는 프레임단위의 불특정인 음성소오스신호를 일시적으로 저장하고 있는 써큘러버퍼와; 상기 써큘러버퍼에 저장된 음성소오스신호와 상기 기준음성메모리부에 저장된 기준음성데이타의 음성인식용 상수를 상기 연산메모리부에 출력하고 이를 인식용 연산에 따라 음성인식용 단어로 구분하고, 특정인의 음성을 재생하기 위하여 소정의 시나리오에 대응되도록 선택된 기준음성데이타의 타이밍에 맞추어 음성상수메모리부의 음성상수를 인출하는 클럭제어신호를 상기 음성상수메모리부와 상기 음성재생부에게 발생시키는 시스템 콘트롤러와; 상기 음성인식용 단어를 비터비알고리즘으로 조합하여 전체음성을 인식하는 음성인식부와; 상기 음성인식부에서 인식된 음성에 따라 기준음성에 따른 소정의 시나리오에 대응되도록 적어도 하나의 문장을 상기 기준음성메모리부에서 선택하여 기준음성데이타를 인출하는 다이얼로그 매니져와; 상기 다이얼로그 매니져로부터 선택된 시나리오 문장에 해당하는 상기 기준음성메모리부의 기준음성데이타를 인출하여 신장 및 복원시키는 음성디코더를 포함하는 것이 바람직하다.The voice processing control unit may include: a circular buffer temporarily storing an unspecified voice source signal in units of frames inputted from the voice input / output unit; The voice recognition constants of the voice source signal stored in the circular buffer and the reference voice data stored in the reference voice memory unit are output to the operation memory unit, and are divided into voice recognition words according to a recognition operation, and the voice of a specific person. A system controller for generating a clock control signal to the voice constant memory unit and the voice reproducing unit to extract a voice constant of the voice constant memory unit in accordance with the timing of the reference voice data selected to correspond to a predetermined scenario for reproducing a voice signal; A voice recognition unit recognizing the entire voice by combining the voice recognition words with a Viterbi algorithm; A dialog manager for selecting at least one sentence from the reference voice memory unit and retrieving reference voice data so as to correspond to a predetermined scenario according to the reference voice according to the voice recognized by the voice recognition unit; And a voice decoder for extracting, expanding, and restoring reference voice data of the reference voice memory unit corresponding to the scenario sentence selected from the dialog manager.
또한, 상기 기준음성메모리부의 기준음성데이타와 음성인식용 상수를 인출하여 상기 시스템 콘트롤러로 이동시키는 리스트콘트롤러와, 상기 시스템콘트롤러와 상기 연산메모리부 사이에 인식용 연산을 가능케하기 위해 상기 음성소오스신호를 상기 연산메모리부에게 출력하는 메모리콘트롤러를 더 포함하는 것이 바람직하다.In addition, the list controller for extracting the reference voice data and the voice recognition constant to move to the system controller and the voice source signal to enable the recognition operation between the system controller and the operation memory unit; It is preferable to further include a memory controller for outputting to the operation memory unit.
그리고, 상기 음성상수디코더에는 상기 음성상수메모리부를 착탈가능하게 연결시키는 메모리소켓이 전기적으로 연결되어 있는 것이 바람직하다.The voice constant decoder may be electrically connected to a memory socket for detachably connecting the voice constant memory unit.
상기 목적은, 본 발명의 다른 분야에 따라, 불특정인의 음성을 전기적인 음성신호로 변환하고 이로부터 음성소오스신호를 검출하는 단계와, 상기 음성소오스 신호와 음성인식용 상수를 인식용 연산에 따라 인식하는 단계와, 상기 단계에서 음성을 인식하면 다이얼로그 시나리오에 따라 대화형 응답을 분석하는 단계와, 상기 대화형 응답분석에 따라 매스컴을 통하여 잘 알려진 유명 특정인의 음성을 원하는 것인지를 판단하는 단계와, 상기 단계에 기초하여 기준음성데이타를 인출하여 디코딩하거나, 이와 함께 상기 특정인의 음성인자에 해당하는 변조용 음성상수를 인출하여 디코딩하는 단계와, 디코딩된 상기 기준음성데이타를 아날로그의 소정 비율에 따라 증폭하여 청각적인 기준음성으로 재생하는 단계와, 디코딩된 상기 변조용 음성상수와 상기 기준음성데이타를 합성하여 특정인의 원음으로 변조하고, 이를 아날로그의 소정비율에 따라 증폭하여 특정인의 원음을 청각적으로 재생하는 단계를 포함하는 캐릭터 완구용 음성변조방법에 의해 달성된다.According to another aspect of the present invention, the object of the present invention is to convert a voice of an unspecified person into an electrical voice signal and to detect a voice source signal therefrom, and to perform the operation for recognizing the voice source signal and the voice recognition constant. Recognizing a voice in the dialogue scenario; and determining whether a voice of a well-known famous person is desired through mass media according to the interactive response analysis. Extracting and decoding reference voice data based on the step; or extracting and decoding a modulation voice constant corresponding to the voice factor of the specific person, and amplifying the decoded reference voice data according to an analog ratio. Reproducing the audio reference sound using the audio signal, and decoding the modulated voice constant and Synthesizing the reference sound data to modulate the original sound of a specific person, and amplifying it according to an analog predetermined ratio to achieve the original sound of the specific person by the audio toy modulation method for a character toy.
이하, 첨부된 도면을 참조하여 본 발명에 따른 캐릭터 완구용 음성변조시스템 및 그 방법을 상세하게 설명하면 다음과 같다. 도 1은 본 발명에 따른 캐릭터 완구용 음성변조시스템을 나타낸 블록도이고, 도 2는 본 발명에 따른 캐릭터 완구용 음성변조방법을 나타낸 플로우차트이다. Hereinafter, with reference to the accompanying drawings will be described in detail a voice modulator system and method for a character toy according to the present invention. 1 is a block diagram showing a voice for a character toy modulation system according to the present invention, Figure 2 is a flowchart showing a voice for a character toy modulation system according to the present invention.
본 캐릭터 완구용 음성변조시스템은 도 1에 도시된 바와 같이, 기준음성메모리부(1)와 연산메모리부(3), 음성상수메모리부(5), 음성처리제어부(7), 음성상수디코더(9), 음성재생부(11), 음성입출력부(13)를 가지고 있으며, 특정한 종류의 완구에 설치되어 있다.As shown in Fig. 1, the character toy voice modulation system includes a reference voice memory unit 1, an operation memory unit 3, a voice constant memory unit 5, a voice processing control unit 7, and a voice constant decoder ( 9), the audio reproducing section 11 and the audio input / output section 13 are provided in a specific type of toy.
상기 기준음성메모리부(1)는 다수개 음성으로 표현되는 문장의 디지탈 음성신호스트림이 소정의 압축율로 압축된 기준음성데이타를 저장하고 있으며, 상기 연산메모리부(3)는 다수의 사용자 중 어느 한 불특정인으로부터 입력된 음성소오스신호를 인식하기 위하여 일정한 연산공간을 제공한다. 상기 기준음성데이타는 정형화된 음성으로써 단어마다 각각 특징적인 음성의 주파수와 진폭을 가지며, 기준적인 음성의 소리를 청각적으로 발생시킨다. 단순한 대화음성 뿐만 아니라 멜로디가 포함된 노래음성도 저장되어 있다.The reference voice memory unit 1 stores reference voice data in which a digital voice signal stream of sentences represented by a plurality of voices is compressed at a predetermined compression rate, and the arithmetic memory unit 3 is one of a plurality of users. In order to recognize a voice source signal input from an unspecified person, a certain computing space is provided. The reference voice data is a standardized voice having a frequency and an amplitude of a characteristic voice for each word, and audibly generating the reference voice. In addition to simple conversational voices, song voices with melodies are also stored.
여기서, 상기 사용자는 어린이, 어른, 남자, 여자 등을 지칭하며, 상기 음성소오스신호는 이들로부터 발성된 명령을 음성입출력부(13)의 A/D컨버터(미도시)에서 x256FS값인 2,048㎒로 행하여 지는 Interpolation에 따라 8㎑의 샘플링율(sampling rate)로 처리한 인식용 소오스신호로 가공된 것이며, 상기 음성처리제어부(7)에 전달되어 상기 연산메모리부(3)에서 음성인식 연산의 소오스로 사용된 된다.Here, the user refers to a child, an adult, a man, a woman, and the like, and the voice source signal is executed by the command generated from these at an A / D converter (not shown) of the voice input / output unit 13 at an x256FS value of 2,048 MHz. The ground is processed into a recognition source signal processed at a sampling rate of 8 Hz according to the interpolation, and is transmitted to the voice processing control unit 7 to be used as a source of voice recognition operation in the operation memory unit 3. Becomes.
상기 음성상수메모리부(5)는 다수의 특정인 즉 연예인, 정치인, 방송인, 유명인사, 유명종교인, 유명스포츠스타 등과 같은 지명도가 있는 사람의 음성으로부터 특징적 음성인자에 해당하는 변조용 음성상수가 소정의 압축율로 압축되어 이를 각각의 단어별로 각각의 인물별로 특정한 저장공간에 저장되어 있다. 여기서, 특징적 음성인자는 상기 인물들의 음성을 각 단어별로 분류하고 각 단어를 주파수 및 진폭으로 분석하여 그 인물이 갖는 고유의 주파수와 진폭을 추출한 것이다. 특정인물에 해당하는 상기 고유의 주파수와 진폭은 기준음성의 주파수 및 진폭에 해당하는 스펙트럼보다 변화된 가변치(증가치 또는 감소치)에 해당하는 상수적 값으로 표현되며 이를 변조용 음성상수라 한다. 그리고, 상기 음성상수메모리부(5)는 메모리소켓(15)에 착탈가능하게 형성되어 있으며, 상기 메모리소켓(15)은 상기 음성상수디코더(9)에 연결되어 있다.The voice constant memory unit 5 has a predetermined number of modulation voice constants corresponding to the characteristic voice factors from the voices of a plurality of specific persons, such as celebrities, politicians, broadcasters, celebrities, celebrities, famous sports stars, etc. It is compressed at a compression rate and stored in a specific storage space for each person for each word. Here, the characteristic voice factor is to classify the voices of the persons by each word and analyze each word by frequency and amplitude to extract the inherent frequency and amplitude of the character. The intrinsic frequency and amplitude corresponding to a particular person are expressed as a constant value corresponding to a variable value (increase or decrease) that is changed from the spectrum corresponding to the frequency and amplitude of the reference voice and is called a modulation voice constant. The voice constant memory unit 5 is detachably formed in the memory socket 15, and the memory socket 15 is connected to the voice constant decoder 9.
상기 음성처리제어부(7)는 약 100만게이트 이상으로 구성된 집적소자(integrated chip)로서, 상기 음성입출력부(13)를 통하여 입력되는 불특정인 즉 사용자의 음성소오스신호를 받아 상기 연산메모리부(3)에 제공하여 인식용 연산에 따라 인식알고리즘을 수행하고, 인식 후 이에 상응하는 대화형 응답을 분석하여 상기 음성기준메모리부(1)로부터 그 응답에 해당하는 기준음성데이타를 인출하고 이를 압축으로부터 신장하고 복원한다. 이어 인식 내용이 특정인의 음성을 원할 경우 그에 대응하는 특징적 음성인자에 대한 변조용 음성상수를 상기 음성상수메모리부(5)로부터 인출하도록 인출하는데, 복원타이밍에 따라 재생될 수 있도록 하기 위하여 클럭제어신호를 상기 음성상수디코더(9)와 상기 음성재생부(11)에게 출력한다. 여기서, 상기 음성처리제어부(7)와 상기 연산메모리부(3) 사이에는 인식용 연산을 가능케하기 위해 상기 음성소오스신호를 상기 연산메모리부(3)에게 출력하는 메모리콘트롤러(17)가 마련되어 있다. The voice processing control unit 7 is an integrated chip composed of about 1 million gates or more, and receives the unspecified user's voice source signal input through the voice input / output unit 13, and thus receives the operation memory unit 3. Recognition algorithm is performed according to the operation for recognition, and after the recognition, the corresponding interactive response is analyzed and the reference voice data corresponding to the response is extracted from the voice reference memory unit 1, and the information is decompressed from the compression. And restore. Then, if the recognition content desires the voice of a specific person, the voice constant for voice is extracted from the voice constant memory unit 5 so as to be reproduced according to the restoration timing. Is output to the voice constant decoder 9 and the voice reproducing unit 11. Here, a memory controller 17 is provided between the voice processing control section 7 and the arithmetic memory section 3 to output the voice source signal to the arithmetic memory section 3 in order to enable a calculation operation for recognition.
이를 위하여 상기 음성처리제어부(7)는 써큘러버퍼(19), 시스템콘트롤러(21), 음성인식부(23), 다이얼로그 메니져(25), 음성디코더(27)로 구성되어 있다.To this end, the voice processing control unit 7 includes a circular buffer 19, a system controller 21, a voice recognition unit 23, a dialog manager 25, and a voice decoder 27.
상기 써큘러버퍼(19)는 상기 음성입출력부(13)의 A/D컨버터(미도시)로부터 입력되는 프레임단위로 디지탈화된 음성샘플링신호 즉 불특정인 음성소오스신호를 일시적으로 저장하여 시스템콘트롤러(21)에 제공한다. 연속되는 음성소오스신호를 순차적으로 저장하고 선입선출식으로 상기 시스템콘트롤러(21)에게 제공한다.The circular buffer 19 temporarily stores a digital sampling signal, that is, an unspecified voice source signal, in a frame unit input from an A / D converter (not shown) of the voice input / output unit 13 to control the system controller 21. To provide. A continuous voice source signal is sequentially stored and provided to the system controller 21 on a first in, first out basis.
상기 시스템 콘트롤러(21)는 상기 써큘러버퍼(19)에 저장된 음성소오스신호와 상기 기준음성메모리부(1)에 저장된 기준음성데이타의 음성인식용 상수를 상기 연산메모리부(3)에 제공하고 이를 인식용 연산에 따라 음성인식용 단어로 구분하여 상기 음성인식부(23)에 제공한다. 이에 따라 인식된 전체 음성에 대응하는 시나리오값을 상기 다이얼로그 메니져(25)로부터 인출하여 이에 해당하는 음성을 상기 기준음성메모리부(1)로부터 인출하도록 제어한다. 또한 상기 인식 내용이 특징인(연예인, 정치인, 방송인, 유명인사, 유명종교인, 유명스포츠스타 중 어느 하나)의 음성을 들려줄 것을 요구한 것이면, 상기 음성상수메모리부(5), 상기 음성상수디코더(9), 음성재생부(11)에게 클럭제어신호를 복원타이밍에 맞추어 출력한다. 여기서, 상기 기준음성메모리부(1)의 기준음성데이타와 음성인식용 상수를 인출하여 상기 시스템 콘트롤러(21)로 이동시키기 위한 리스트콘트롤러(29)가 마련되어 있다. 상기 리스트콘트롤러(29)와 상기 메모리콘트롤러(17)는 시스템 콘트롤러(21)에 포함시켜 칩화할 수 있다. The system controller 21 provides a voice source constant stored in the circular buffer 19 and a voice recognition constant of the reference voice data stored in the reference voice memory unit 1 to the arithmetic memory unit 3. The speech recognition unit 23 is divided into speech recognition words according to a recognition operation and provided to the speech recognition unit 23. Accordingly, the scenario value corresponding to the recognized whole voice is extracted from the dialog manager 25 and the corresponding voice is extracted from the reference voice memory unit 1. In addition, the voice constant memory unit (5), the voice constant decoder, if the recognition content is requested to hear the voice of any of the characteristics (celebrities, politicians, broadcasters, celebrities, celebrities, famous sports stars) (9) The audio reproducing section 11 outputs the clock control signal in accordance with the restoration timing. Here, a list controller 29 is provided for extracting the reference voice data and the voice recognition constant of the reference voice memory unit 1 and moving them to the system controller 21. The list controller 29 and the memory controller 17 may be included in the system controller 21 and chipped.
상기 음성인식부(23)는 상기 시스템 콘트롤러(21)에 의한 상기 음성인식용 단어를 비터비알고리즘으로 조합하여 전체음성의 뜻을 인식한다. 상기 다이얼로그 메니져(25)는 상기 시스템 콘트롤러(21)에 의해 상기 음성인식부(23)에서 인식된 음성에 따라 기준음성에 따른 소정의 시나리오에 대응되도록 적어도 하나의 문장을 상기 기준음성메모리(1)에서 선택하여 기준음성데이타를 인출한다.The speech recognition unit 23 recognizes the meaning of the entire speech by combining the speech recognition word by the system controller 21 into a Viterbi algorithm. The dialog manager 25 displays the at least one sentence so as to correspond to a predetermined scenario according to a reference voice according to the voice recognized by the system controller 21 by the system controller 21. Select from to retrieve the reference voice data.
상기 음성디코더(27)는 상기 다이얼로그 매니져(25)로부터 선택된 시나리오 문장에 해당하는 상기 기준음성메모리부(1)의 기준음성데이타를 인출하여 신장 및 복원시켜 상기 음성재생부(11)와 상기 음성입출력부(13)의 D/A컨버터(미도시)에 순차적으로 출력하고, 스피커(미도시)를 통하여 청각적으로 들을 수 있도록 한다.The voice decoder 27 extracts, expands and restores the reference voice data of the reference voice memory unit 1 corresponding to the scenario sentence selected from the dialog manager 25 to expand and restore the voice reproducing unit 11 and the voice input / output. It is sequentially output to the D / A converter (not shown) of the unit 13, so that it can be audibly heard through the speaker (not shown).
이와 같은 음성처리제어부(7)의 시스템 콘트롤러(21)의 클럭제어신호에 따라 동작하는 음성상수디코더(9)는 상기 음성상수메모리부(5)에 압축저장되어 있는 변조용 음성상수를 인출하여 신장 및 복원시킨다.The voice constant decoder 9 operating according to the clock control signal of the system controller 21 of the voice processing control unit 7 extracts and expands the modulation voice constant stored in the voice constant memory unit 5. And restore.
상기 음성재생부(11)는 상기 시스템 콘트롤러(21)의 클럭제어신호에 따라 복원타이밍으로 동작한 것이며, 상기 음성상수디코더(9)에서 복원된 상기 음성상수와 상기 음성처리제어부(7)의 시스템 콘트롤러(21) 및 음성디코더(27)에서 복원된 기준음성데이타를 합성시켜 상기 다수 특정인(연예인, 정치인, 방송인, 유명인사, 유명종교인, 유명스포츠스타 중 어느 하나) 중 인식된 해당 인물의 음성신호로 음성을 변조 및 재생시키고, 이를 상기 음성입출력부(13)의 D/A컨버터에게 출력한다. 한편, 상기 음성재생부(11)와 상기 음성상수디코더(9) 및 음성상수메모리부(5)의 동작이 없을 경우에는 상기 음성디코더(27)의 출력분을 그대로 음성입출력부(13)로 패스시킨다.The voice reproducing unit 11 is operated by reconstruction timing according to the clock control signal of the system controller 21, and the voice constant restored by the voice constant decoder 9 and the system of the voice processing control unit 7 The voice signal of the person recognized among the plurality of specific persons (celebrities, politicians, broadcasters, celebrities, celebrities, famous sports stars) by synthesizing the reference voice data restored by the controller 21 and the voice decoder 27 Modulates and reproduces the voice, and outputs it to the D / A converter of the voice input / output unit 13. On the other hand, when there is no operation of the voice reproducing unit 11, the voice constant decoder 9 and the voice constant memory unit 5, the output of the voice decoder 27 is passed to the voice input / output unit 13 as it is. Let's do it.
그러면 상기 음성입출력부(13)는 도면에 도시하지 않았지만, 마이크로폰, 스피커, 전력증폭부, A/D 및 D/A컨버터를 가지고 있으며, 상기 마이크로폰으로 입력된 어린이 등 사용자인 불특정인의 음성을 전기적으로 음성소오스신호로 변환하고 이를 A/D컨버터에서 디지탈로 변환하여 상기 써큘러버퍼(19)에게 입력하고, 상기 음성재생부(11)의 음성신호 및 음성변조신호를 전력증폭부에서 소정의 비율로 증폭하여 불특정인에게 청각적으로 들려줄 수 있다.Then, the voice input / output unit 13 has a microphone, a speaker, a power amplifier, an A / D and a D / A converter, although not shown in the drawing, and electrically inputs an unspecified voice of a user such as a child inputted into the microphone. Converts the audio source signal into a digital source in the A / D converter and inputs it to the circular buffer 19, and converts the voice signal and the voice modulated signal of the voice reproducing unit 11 into a predetermined ratio in the power amplifier. It can be amplified to be heard aurally by an unspecified person.
한편, 상기 음성인식부(23)에 대한 그 상세한 세부 구성은 종래의 구성과 동일하게 이루어져 있으며, 상기 본 발명의 필수구성요소들과 유기적인 동작으로 상호 결합되어 있다.On the other hand, the detailed configuration of the voice recognition unit 23 is made in the same manner as the conventional configuration, it is combined with the essential components of the present invention in an organic operation.
상술한 바와 같은 본 발명에 따른 캐릭터 완구용 음성변조시스템의 동작방법은 도 2에 도시된 바와 같다.The operation method of the character toy voice modulation system according to the present invention as described above is as shown in FIG.
먼저, 본 음성변조시스템이 내장된 캐릭터 완구에게 사용자의 물리적인 음성이 가해지면, 음성을 감지하게 되는데(S1) 그 음성은 음성입출력부(13)의 마이크로폰을 통하여 전기적인 아날로그 음성신호로 변환된다(S2). 상기 아날로그 음성신호는 음성입출력부(13)의 A/D컨버터에 의해서 디지탈 음성소오스신호로 변환되어 음성처리제어부(7)의 써큘러버퍼(19)에 일시적으로 저장되고, 시스템 콘트롤러(21)는 상기 써큘러버퍼(19)에 일시적으로 저장된 음성소오스신호를 검출한다(S3). 여기서, 상기 물리적인 음성이 입력되면 아날로그 음성신호의 값이 일정한 전압레벨이상의 신호에 해당하는지 판단하여 선별적으로 감지하므로 가까이에서 발생하는 음성만을 감지할 수 있다.First, when the user's physical voice is applied to a character toy having a built-in voice modulation system, the voice is sensed (S1). The voice is converted into an electrical analog voice signal through a microphone of the voice input / output unit 13. (S2). The analog voice signal is converted into a digital voice source signal by the A / D converter of the voice input / output unit 13, and temporarily stored in the circular buffer 19 of the voice processing controller 7, and the system controller 21 The voice source signal temporarily stored in the circular buffer 19 is detected (S3). Here, when the physical voice is input, it is possible to detect whether the value of the analog voice signal corresponds to a signal of a predetermined voltage level or higher and selectively detect only the voice generated near.
이와 같이 음성소오스신호를 검출한 시스템콘트롤러(21)는 음성소오스신호와 상기 기준음성메모리부(1)에 저장된 기준음성데이타의 음성인식용 상수를 상기 연산메모리부(3)에 제공하여 이를 인식용 연산에 따라 음성인식용 단어로 구분하여 상기 음성인식부(23)에 제공하고, 상기 음성인식부(23)는 상기 음성인식용 단어를 비터비알고리즘으로 조합하여 전체음성의 뜻을 인식한다(S4). 음성인식이 완료될때까지 시스템콘트롤러(21)는 상기 동작루프를 반복적으로 수행하여 완료되면(S5) 인식된 음성과 다이얼로그 매니져(25)에 의하여 소정의 시나리오에 대응되는 적어도 하나의 문장을 분석한다(S6).The system controller 21 that detects the voice source signal as described above provides the operation memory unit 3 with a voice recognition constant of the voice source signal and the reference voice data stored in the reference voice memory unit 1 for recognition. The speech recognition unit 23 is divided into speech recognition words according to an operation and provided to the speech recognition unit 23, and the speech recognition unit 23 combines the speech recognition words into a Viterbi algorithm to recognize the meaning of the entire speech (S4). ). Until the voice recognition is completed, the system controller 21 repeatedly executes the operation loop (S5) and analyzes at least one sentence corresponding to the predetermined scenario by the recognized voice and the dialog manager 25 ( S6).
상기 분석에서 특정인 즉 연예인, 정치인, 방송인, 유명인사, 유명종교인, 유명스포츠스타 중 어느 하나의 음성에 관한 시나리오인지 판단하고(S7), 설정된 특정인의 음성을 원하는 것으로 판단될 경우 상기 시스템콘트롤러(21)는 음성상수디코더(9)를 통하여 음성상수메모리부(5)에 저장된 특정인을 검색한다(S8).In the analysis, it is determined whether a scenario relating to the voice of any one of a specific person, celebrity, politician, broadcaster, celebrity, celebrity religion, and famous sports star (S7), and if it is determined that a desired voice of a specific person is set, the system controller 21 is determined. ) Searches for a specific person stored in the voice constant memory unit 5 via the voice constant decoder 9 (S8).
상기 음성상수메모리부(5)에 상기 다이얼로그매니져(25)에서 원하는 유명 특정인의 음성이 저장되어 있는지 판단하고(S9), 이에 따라 유명 특정인에 해당하는 상기 음성상수메모리부(5)로부터 변조용 음성상수를 인출하고(S10), 동시에 기준음성메모리부(1)에 저장된 기준음성데이타를 인출한다(S11). 상기 시스템콘트롤러(21)는 인출된 상기 기준음성데이타와 상기 변조용 음성상수를 대기상태로 하여 동기를 맞추어 각각 음성디코더(27)와 음성상수디코더(9)에 의해서 디코딩된다(S12). It is determined whether the voice of the famous famous person desired in the dialog manager 25 is stored in the voice constant memory unit 5 (S9), thereby modulating the voice from the voice constant memory unit 5 corresponding to the famous famous person. The constant is taken out (S10), and at the same time, the reference sound data stored in the reference voice memory unit 1 is taken out (S11). The system controller 21 is decoded by the voice decoder 27 and the voice constant decoder 9, respectively, in synchronization with the extracted reference voice data and the modulation voice constant as a standby state (S12).
그러면 이와 같이 디코딩된 상기 기준음성데이타와 상기 변조용 음성상수는 음성재생부(11)에서 합성되어 사용자가 원하는 유명 특정인 즉 연예인, 정치인, 방송인, 유명인사, 유명종교인, 유명스포츠스타 중 어느 하나의 음성에 해당하는 사운드비트스트림데이타가 음성입출력부(13)에 전달된다(S13). 상기 음성입출력부(13)는 D/A컨버터와 전력증폭부 및 스피커를 통하여 특정인의 원음에 해당하는 음성을 청각적으로 들려준다(S14). 여기서, 상기 기준음성데이타와 상기 변조용 음성상수의 합성은 단어의 주파수 및 진폭과 단어의 동기에 맞추어 순차적으로 이루어진다.Then, the reference voice data decoded as described above and the modulated voice constant are synthesized by the voice reproducing unit 11 so that any one of a celebrity specific person desired by the user, such as a celebrity, a politician, a broadcaster, a celebrity, a celebrity religion, a famous sports star, Sound bit stream data corresponding to the voice is transmitted to the voice input and output unit 13 (S13). The voice input / output unit 13 audibly plays the voice corresponding to the original sound of a specific person through the D / A converter, the power amplifier, and the speaker (S14). Here, the synthesis of the reference voice data and the modulation voice constant is sequentially performed in accordance with the frequency and amplitude of the word and the synchronization of the word.
한편, 상기 제7단계 및 상기 제9단계에서 특정인의 음성을 요구하지 않거나, 특정인의 음성이 음성상수메모리부(5)에 저장되어 있지 않을 경우, 상기 기준음성메모리부(1)에 저장된 기준음성데이타를 인출하여(S15) 음성디코더(27)에서 설정된 기준음성에 해당하는 사운드비트스트림데이타로 디코딩된다(S16). 이와 같이 디코딩된 사운드비트스트림데이타는 상기 음성입출력부(13)의 D/A컨버터와 전력증폭부를 통하여 기준원음에 해당하는 음성을 변환 및 증폭되어 스피커에서 청각적인 사운드로 출력한다(S17).On the other hand, if the voice of a specific person is not requested in the seventh and ninth steps, or if the voice of the specific person is not stored in the voice constant memory unit 5, the reference voice stored in the reference voice memory unit 1 is used. The data is extracted (S15) and decoded into sound bitstream data corresponding to the reference voice set by the voice decoder 27 (S16). The decoded sound bit stream data converts and amplifies the voice corresponding to the reference source sound through the D / A converter and the power amplifier of the voice input / output unit 13 and outputs the audible sound from the speaker (S17).
본 발명은 하나의 학습용 캐릭터가 사용자와 음성으로 대화하면서 사용자의 요구에 따라 다수의 연예인들 중 어느 특정한 연예인의 음성으로 변조하여 학습의 능률을 향상시키기 때문에 장시간동안 학습자인 어린이의 흥미와 욕구를 충족시키며, 항상 새로운 음성으로 인하여 쉽게 싫증내지 않고, 실제 연예인과 친밀하게 대화하는 대리만족으로 정신적인 안정감을 이루어 정서 발달 및 함양에 기여하는 효과가 있다.The present invention satisfies the interests and desires of a child who is a learner for a long time because one learning character talks with the user by voice and modulates the voice of a specific entertainer among a plurality of entertainers according to the user's request to improve learning efficiency. In addition, the new voice does not always get tired easily, and it is effective for emotional development and cultivation by creating a sense of mental stability with a surrogate satisfaction that intimately communicates with actual entertainers.
또한, 사용자인 어린이가 원하는 특정한 연예인이나 만화영화 주인공, 애니메이션 캐릭터 중 어느 하나를 인터넷이나 컴퓨터를 통하여 다운 받아 저장하여 대화할 수 있기 때문에 필요시 원하는 유명한 음성으로 신속하게 전환하므로 거의 반영구적으로 사용할 수 있는 효과가 있으며, 사용자의 편리성을 극대화시킬 수 있다.In addition, the user can download and store any one of a specific entertainer, cartoon character, or animated character desired through the Internet or a computer. It is effective and can maximize user convenience.
도 1은 본 발명에 따른 캐릭터 완구용 음성변조시스템을 나타낸 블록도이고,1 is a block diagram showing a voice modulator system for character toys according to the present invention,
도 2는 본 발명에 따른 캐릭터 완구용 음성변조방법을 나타낸 플로우차트이다.2 is a flowchart illustrating a voice toy modulation method for a character toy according to the present invention.
-도면의 주요부분에 대한 부호의 설명-Explanation of symbols on the main parts of the drawing
1 ; 기준음성메모리부 3 ; 연산메모리부One ; Reference sound memory section 3; Operational Memory
5 ; 음성상수메모리부 7 ; 음성처리제어부5; Voice constant memory section 7; Voice processing control unit
9 ; 음성상수디코더 11 ; 음성재생부9; Negative constant decoder 11; Voice playback unit
13 ; 음성입출력부 15 ; 메모리소켓13; Voice input and output unit 15; Memory socket
17 ; 메모리콘트롤러 19 ; 써큘러버퍼17; Memory controller 19; Circular buffer
21 ; 시스템콘트롤러 23 ; 음성인식부21; System controller 23; Voice recognition unit
25 ; 다이얼로그매니져 27 ; 음성디코더25; Dialog manager 27; Voice decoder
29 ; 리스트콘트롤러29; List Controller
Claims (5)
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020040025987A KR20050100820A (en) | 2004-04-14 | 2004-04-14 | Voice changing system for toy of a character and method thereof |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020040025987A KR20050100820A (en) | 2004-04-14 | 2004-04-14 | Voice changing system for toy of a character and method thereof |
Publications (1)
Publication Number | Publication Date |
---|---|
KR20050100820A true KR20050100820A (en) | 2005-10-20 |
Family
ID=37279469
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020040025987A KR20050100820A (en) | 2004-04-14 | 2004-04-14 | Voice changing system for toy of a character and method thereof |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR20050100820A (en) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR102045761B1 (en) * | 2019-09-26 | 2019-11-18 | 미디어젠(주) | Device for changing voice synthesis model according to character speech context |
KR20200033189A (en) * | 2018-09-19 | 2020-03-27 | 삼성전자주식회사 | System and method for providing voice assistant service |
US11848012B2 (en) | 2018-09-19 | 2023-12-19 | Samsung Electronics Co., Ltd. | System and method for providing voice assistant service |
-
2004
- 2004-04-14 KR KR1020040025987A patent/KR20050100820A/en not_active Application Discontinuation
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20200033189A (en) * | 2018-09-19 | 2020-03-27 | 삼성전자주식회사 | System and method for providing voice assistant service |
US11848012B2 (en) | 2018-09-19 | 2023-12-19 | Samsung Electronics Co., Ltd. | System and method for providing voice assistant service |
KR102045761B1 (en) * | 2019-09-26 | 2019-11-18 | 미디어젠(주) | Device for changing voice synthesis model according to character speech context |
WO2021060591A1 (en) * | 2019-09-26 | 2021-04-01 | 미디어젠 주식회사 | Device for changing speech synthesis models according to character utterance contexts |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10789290B2 (en) | Audio data processing method and apparatus, and computer storage medium | |
US6442517B1 (en) | Methods and system for encoding an audio sequence with synchronized data and outputting the same | |
US20050169114A1 (en) | Digital recorder for selectively storing only a music section out of radio broadcasting contents and method thereof | |
CN110675886B (en) | Audio signal processing method, device, electronic equipment and storage medium | |
CN101606190A (en) | Firmly sound conversion device, sound conversion device, speech synthesizing device, sound converting method, speech synthesizing method and program | |
US7203558B2 (en) | Method for computing sense data and device for computing sense data | |
JPH08190400A (en) | Acoustic variable-speed reproducing apparatus | |
WO2023276539A1 (en) | Voice conversion device, voice conversion method, program, and recording medium | |
CN114329041A (en) | Multimedia data processing method and device and readable storage medium | |
WO2007091475A1 (en) | Speech synthesizing device, speech synthesizing method, and program | |
CN111105776A (en) | Audio playing device and playing method thereof | |
JP2000325669A (en) | Voice recognizable dialogue type doll toy, and control method thereof | |
JP2007264569A (en) | Retrieval device, control method, and program | |
KR20050100820A (en) | Voice changing system for toy of a character and method thereof | |
Scheirer et al. | Synthetic and SNHC audio in MPEG-4 | |
JP2020003762A (en) | Simple operation voice quality conversion system | |
CN107393566A (en) | The audio-frequency decoding method and device of a kind of Intelligent story device | |
JP4563418B2 (en) | Audio processing apparatus, audio processing method, and program | |
JP3620787B2 (en) | Audio data encoding method | |
JP3702297B2 (en) | Robot control apparatus, robot control method, and program thereof | |
KR100329941B1 (en) | The changed method of a tone color in oral narration system of the fairy tale | |
JP5471138B2 (en) | Phoneme code converter and speech synthesizer | |
KR100793023B1 (en) | Method and apparatus for displaying audio data | |
KR100677215B1 (en) | Method for selecting file using text to speech in mp3 player | |
RU2715958C2 (en) | Method of separate synchronous reproduction using singing doll, controlled from smartphone or computer |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
N231 | Notification of change of applicant | ||
A201 | Request for examination | ||
N231 | Notification of change of applicant | ||
N231 | Notification of change of applicant | ||
E902 | Notification of reason for refusal | ||
E601 | Decision to refuse application | ||
E601 | Decision to refuse application | ||
N231 | Notification of change of applicant |