KR20010039090A - Interactive toy - Google Patents

Interactive toy Download PDF

Info

Publication number
KR20010039090A
KR20010039090A KR1019990047324A KR19990047324A KR20010039090A KR 20010039090 A KR20010039090 A KR 20010039090A KR 1019990047324 A KR1019990047324 A KR 1019990047324A KR 19990047324 A KR19990047324 A KR 19990047324A KR 20010039090 A KR20010039090 A KR 20010039090A
Authority
KR
South Korea
Prior art keywords
content
unit
interactive toy
voice
input
Prior art date
Application number
KR1019990047324A
Other languages
Korean (ko)
Inventor
김병수
이광범
하인용
Original Assignee
김병수
주식회사 로보티즈
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 김병수, 주식회사 로보티즈 filed Critical 김병수
Priority to KR1019990047324A priority Critical patent/KR20010039090A/en
Publication of KR20010039090A publication Critical patent/KR20010039090A/en

Links

Classifications

    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63HTOYS, e.g. TOPS, DOLLS, HOOPS OR BUILDING BLOCKS
    • A63H5/00Musical or noise- producing devices for additional toy effects other than acoustical
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63HTOYS, e.g. TOPS, DOLLS, HOOPS OR BUILDING BLOCKS
    • A63H13/00Toy figures with self-moving parts, with or without movement of the toy as a whole
    • A63H13/02Toy figures with self-moving parts, with or without movement of the toy as a whole imitating natural actions, e.g. catching a mouse by a cat, the kicking of an animal
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63HTOYS, e.g. TOPS, DOLLS, HOOPS OR BUILDING BLOCKS
    • A63H2200/00Computerized interactive toys, e.g. dolls
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63HTOYS, e.g. TOPS, DOLLS, HOOPS OR BUILDING BLOCKS
    • A63H3/00Dolls
    • A63H3/28Arrangements of sound-producing means in dolls; Means in dolls for producing sounds
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09BEDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
    • G09B5/00Electrically-operated educational appliances
    • G09B5/04Electrically-operated educational appliances with audible presentation of the material to be studied

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Acoustics & Sound (AREA)
  • Multimedia (AREA)
  • Computational Linguistics (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Human Computer Interaction (AREA)
  • Toys (AREA)

Abstract

PURPOSE: Provided is an interactive toy which can do reciprocal action with a man by using speech recognition function, and whose type of reciprocal action is changable by changing contents. Interactive toy, for example, can tell fairy tales, sing a song, or play music like portable MP3 as man's reaction. CONSTITUTION: Interactive toy by using speech recognition function is composed of the following parts: (i) a connecting part(110) that is connected with contents-providing sources such as computers in order to use contents provided through internet home page or CD-ROM; (ii) a storage part(106) that stores contents; (iii) a controlling part(100); (iv) a speech input and output part(102) that outputs contents; (v) a sensor part(104); and (vi) a driving part(108).

Description

인터렉티브 토이 {INTERACTIVE TOY}Interactive Toy {INTERACTIVE TOY}

본 발명은 아이들과 대화 할 수 있는 기능을 가진 인터렉티브 토이에 관한 것이다. 본 발명의 인터렉티브 토이는 아이들에게 동화를 들려주거나 자장가를 들려주는 등의 교육적인 목적으로 사용할 수 있다. 또한 MP3 파일을 출력할 수 있는 기능을 또한 포함하고 있으므로 아이들 대상의 사용용도 외에 음악감상의 용도로 사용이 가능하다.The present invention relates to an interactive toy having the ability to communicate with children. The interactive toy of the present invention can be used for educational purposes such as telling children a fairy tale or lullaby. It also includes the ability to output MP3 files, which can be used for listening to music as well as for children.

종래의 인터렉티브 토이의 형태는 단순한 기능의 음성인식을 바탕으로 사용자의 한정된 음성 입력에 반응하는 방식으로 동작한다. 또한 고정된 컨텐츠(contents)를 가지고 있어서 한정된 형태로만 동작할 수밖에 없는 것이 주류를 이루고 있다. 따라서, 인터렉티브 토이의 반응 형태를 변경하거나 인터렉티브 토이가 제공하는 기능의 종류를 변경할 수는 없다.Conventional forms of interactive toys operate in a manner that responds to a user's limited speech input based on simple functional speech recognition. In addition, it has a fixed content (contents) to operate only in a limited form is the mainstream. Therefore, it is not possible to change the response form of the interactive toy or the kind of the function provided by the interactive toy.

본 발명은 인터렉티브 토이의 반응 형태를 변경하거나 인터렉티브 토이가 제공하는 기능의 종류를 변경할 수 있는 인터렉티브 토이를 제공하는 것을 목적으로 한다.An object of the present invention is to provide an interactive toy that can change the response form of the interactive toy or change the type of the function provided by the interactive toy.

도 1은 본 발명의 원리에 따른 실시예의 구성도1 is a block diagram of an embodiment according to the principles of the present invention

도 2는 본 발명에 따른 음성입출력부의 구성도2 is a block diagram of a voice input and output unit according to the present invention

도 3은 본 발명을 이용하는 전체 시스템의 구성도3 is a block diagram of an entire system using the present invention;

도 4는 본 발명에 사용되는 컨텐츠를 제작하는 시스템의 구성도4 is a configuration diagram of a system for producing content used in the present invention;

* 도면의 주요 부분에 대한 부호의 설명 *Explanation of symbols on the main parts of the drawings

100: 컨트롤러부 102: 음성입출력부100: controller unit 102: voice input and output unit

104: 기타 센서부 106: 저장부104: other sensor unit 106: storage unit

108: 구동부 110: PC연결부108: drive unit 110: PC connection

112: 디코더 200: 음성 인식ㆍ합성기112: decoder 200: speech recognition and synthesizer

202: A/D 컨버터 204: D/A 컨버터202: A / D converter 204: D / A converter

206: 마이크 208: 스피커206: microphone 208: speaker

본 발명은 인터넷, CD-ROM등의 컨텐츠 소스로부터 PC로 컨텐츠를 받아서 이를 다시 인터렉티브 토이로 다운로드할 수 있어서 컨텐츠 변경이 가능하다. 컨텐츠의 내용에 따라서 아이들에게 자장가를 들려 줄 수도 있고, 동화책 내용을 읽어주거나 이야기를 들려주는 기능을 할 수 있으며, 음악을 다운로드하는 경우에는 음악감상의 용도로도 사용할 수 있으며, 컨텐츠가 문자를 포함하는 시각적 내용을 가질 경우에는 아이에게 문자 학습을 시키거나 소정의 일을 시킬 수도 있는 등 컨텐츠에 따라서 활용범위는 다양할 수 있다. 물론, 문자와 음향의 결합형태도 가능하다.The present invention can receive content from a content source such as the Internet, CD-ROM, etc., and download it back to the interactive toy, thereby changing the content. Depending on the content of the content, you can play a lullaby to children, read the contents of a fairy tale book or tell a story, and when downloading music can be used for listening to music, the content includes characters In the case of having visual content, the application range may vary depending on the content, such as allowing a child to learn text or to perform a predetermined task. Of course, a combination of letters and sounds is also possible.

또한 사용자의 반응에 따른 입력을 인식하여 다양한 형태로 동작할 수 있다. 즉, 여러 종류의 센서를 통해서 온도, 빛의 밝기, 소리, 영상 등의 정보를 가지고 주변 상황을 판단하여 움직이며, 마치 살아있는 생명체와 같이 사용한 시간이나 방법에 따라 더 많은 기능을 수행될 수 있다. 예를 들면 광 센서를 가지고 있어서 현재 시간이 낮인지 밤인지를 구분하여 모두 자는 시간에 동작하지 않도록 할 수 있으며, 아이들에게 자장가나 동화를 들려주면서 아이가 잠들었는지 여부를 아이들에게 음성으로 물어 본 후 응답이 없으면 동작을 멈추게 하는 등의 주변 상황을 판단하여 움직이는 것과, 야이들이 인터렉티브 토이와 많이 놀아 주면 줄수록 출력할 수 있는 문장의 수가 늘어나거나, 사용자의 입력에 반응을 더 잘 할 수 있는 등 시간과 경험을 통해 더 많은 기능을 수행할 수 있다. 또 다른 예로서 노래를 들려주는 기능을 수행할 경우 인터렉티브 토이와 아이들이 자주 이야기를 하지 않는 등 함께 한 시간이 적으면 토이의 감정 상태가 나빠지고 노래 출력 요청이 있어도 노래를 들려주지 않게 되는 것도 한 예가 될 수 있다.In addition, it can operate in various forms by recognizing the input according to the user's response. In other words, by using various types of sensors to determine the surrounding environment with information such as temperature, light brightness, sound, image, etc., more functions can be performed according to the time or method used like living organisms. For example, it has an optical sensor that can distinguish whether the current time is day or night so that everyone does not work at the time of sleep, and asks the children whether they have fallen asleep while playing lullabies or fairy tales. If there is no response, it will move around by judging the surrounding situation such as stopping the motion, and the more the YOY plays with the interactive toy, the more the number of sentences that can be printed increases or the better the user's input will be. And experience can help you do more. As another example, if you perform the function of playing a song, the interactive toy and the children do not talk frequently, and if the time is less, the toy's emotional state worsens and the song is not output even if a song output request is requested. This can be an example.

본 발명은 인터넷의 컨텐츠 제공자로부터 PC, 휴대용 전화기, PDA 등과 같은 인터넷 연결 기능을 가지는 장치로 컨텐츠를 다운로드 받거나 또는 CD-ROM 등과 같은 통상적인 데이터 저장 매체로부터 컨텐츠를 받아서 이를 저장장치에 저장하고 사람의 음성 등의 입력을 통해서 사람이 인지할 수 있는 형태로 컨텐츠를 출력하는 장치로서, 동작 중에 사용자 혹은 주변 상황의 입력을 여러 가지 센서를 이용하여 받아 들여서 입력 내용이 의미하는 주변 상황에 따라서 적당하게 반응 및 동작하는 인터렉티브 토이이다. 상기, 컨텐츠는 자장가, 이야기, 노래 등의 소리로 표현되는 어떠한 정보도 가능하며, 이와 함께 또는 별도로 저장된 영상 정보 등의 사람이 인지할 수 있는 다른 형태의 정보도 컨텐츠가 될 수 있다. 이하의 실시예에서는 컨텐츠가 음성인 경우를 예로서 설명한다.The present invention downloads content from a content provider of the Internet to a device having an Internet connection function such as a PC, a mobile phone, a PDA, or the like, or receives the content from a conventional data storage medium such as a CD-ROM, and stores the content in a storage device. A device that outputs content in a form that can be perceived by humans through input such as voice, and accepts input from the user or surroundings by using various sensors during operation, and responds appropriately according to the surrounding situation indicated by the input contents. And an interactive toy in operation. The content may be any information represented by a sound such as a lullaby, a story, a song, and the like, and other types of information that may be recognized by a person, such as image information stored separately or separately, may be the content. In the following embodiment, the case where the content is voice is described as an example.

구체적으로 본 발명은 다음과 같은 구성요소로 이루어진다.Specifically, the present invention consists of the following components.

먼저 컨트롤러부(100)는 나머지 다른 구성요소들과 연결이 되어 각 구성요소의 기능을 제어하는 역할을 한다. 일반적으로 범용 프로세서나 DSP(Digital signal Processor)가 컨트롤러의 역할을 담당한다. 컨트롤러의 성능에 따라서 구성도에서 디코더와 음성 인식기 등의 몇몇 기능들은 소프트웨어적으로 컨트롤러를 이용하여 구현될 수도 있다.First, the controller unit 100 is connected to the other components to control the function of each component. Typically, a general-purpose processor or digital signal processor (DSP) acts as a controller. Depending on the performance of the controller, some functions such as a decoder and a voice recognizer in the schematic diagram may be implemented using the controller in software.

음성입출력부(102)는 음성을 받아 들여 특정 음성을 추출, 인식하는 기능과 저장된 또는 합성된 음성을 출력하는 기능을 가진다. 도 2에 음성입출력부의 구성이 구체적으로 도시되어 있다. 음성인식ㆍ합성기(200)는 음성을 인식하는 기능과 음성을 합성하는 두 가지 기능을 갖는다. 두 기능은 각기 별도의 장치를 통하여 구현 될 수도 있다.The voice input / output unit 102 has a function of receiving a voice, extracting and recognizing a specific voice, and outputting a stored or synthesized voice. 2 illustrates the configuration of the voice input and output unit in detail. The speech recognition and synthesizer 200 has two functions of recognizing speech and synthesizing the speech. Both functions may be implemented through separate devices.

먼저 음성 인식기능의 경우, 마이크(206)를 통해 들어온 아날로그 음성 신호는 A/D 컨버터(202)를 통해서 디지털 데이터로 변환되고 음성인식ㆍ합성기(200)에 저장된 지정된 인식 단어 또는 문장과 비교되어 사용자의 입력 내용을 구분해 내게 된다. 입력 정보는 컨트롤러로 보내지고 입력 내용이 구분하기 부적당한 입력일 경우에는 사용자가 다시 입력을 할 수 있도록 컨트롤러는 음성 출력 등의 외부 출력 방법을 이용하여 사용자의 재 입력을 요청한다. 인식하는 방법은 다양한 방식으로 구현이 가능하다. 예를 들면 몇 개의 지정된 단어를 비교하여 매칭시키는 방법이 있을 수 있다. 이 방법은 "예", "아니오", "재생'' 등의 단어를 마이크로 입력을 하면 어떤 입력이 들어 왔는지를 찾아내는 방식이다. 또 다른 방법으로는 음소 단위로 인식을 할 수도 있다. 이 방법은 '가', '나', '이', 혹은 자음, 모음과 같은 작은 단위로 구별을 해내서 다양한 음성을 인식 할 수 있는 방법이다. 이외에도 공지의 음성 인식 장치에서 사용되는 음성 인식 방법이 모두 적용될 수 있다. 이러한 음성 인식기능은 별도의 인식ㆍ합성장치 없이도 컨트롤러부(100)에 의해 소프트웨어를 이용하여 구현될 수 있으며, 또한 별도의 공지된 전용 음성인식장치(도시되지 않음)로 음성 인식기능을 구현할 수도 있다.First, in the case of the voice recognition function, the analog voice signal entered through the microphone 206 is converted into digital data through the A / D converter 202 and compared with a designated recognition word or sentence stored in the voice recognition / synthesizer 200 to be used. The input of is separated. The input information is sent to the controller, and if the input is inappropriate to distinguish, the controller requests the user's input again using an external output method such as voice output so that the user can input again. The recognition method can be implemented in various ways. For example, there may be a method of comparing and matching several designated words. This is a way to find out what type of input the word "Yes", "No", "Play" is, etc. If you enter a word, you can also recognize the phoneme by phoneme. It is a method that can recognize various voices by distinguishing them into small units such as 'A', 'I', 'I', or consonants and vowels. Such a voice recognition function may be implemented by software by the controller unit 100 without a separate recognition / synthesis device, and a voice recognition function may be implemented by a separate known dedicated voice recognition device (not shown). It can also be implemented.

다음으로 음성 출력의 경우, 저장부(106)에 저장된 압축된 디지털 음성 데이터는 디코더(112)를 통해 압축이 풀려지고, 압축이 풀려진 디지털 음성 데이터는 D/A 컨버터(204)를 거처 음성입출력부(102)의 스피커(208)를 통해서 아날로그 음성으로 출력이 된다. 데이터가 문자정보로 저장된 경우에는, 음성인식ㆍ합성기(200)의 음성 합성 기능을 통해서 문자정보로 되어있는 데이터가 음성으로 합성되어 출력되거나 문자를 나타내는 수단(예를 들어, LCD, Monitor 등)을 통해 출력된다.Next, in the case of voice output, the compressed digital voice data stored in the storage unit 106 is decompressed through the decoder 112, and the decompressed digital voice data is passed through the D / A converter 204. The speaker 208 of the unit 102 outputs the analog voice. In the case where the data is stored as text information, a means (for example, LCD, monitor, etc.) for synthesizing or outputting the data that is text information through voice synthesis function of the voice recognition / synthesizer 200 or displaying the text is used. Is output via

기타 센서부(104)의 예로서는 온도센서, 터치센서, 이미지 센서, 빛 감지 센서 등이 있을 수 있다. 기타 센서부(104)로 들어온 음성 이외의 입력 정보는 단독으로 또는 음성 정보와 함께 주변의 상황을 컨트롤러가 판단하고 동작하는 기초 자료로 사용이 된다. 기타 센서부(104)에서 취득 된 정보는 컨트롤러부(100)로 보내지고 컨트롤러부는 저장부에 기타센서부에서 들어온 센서 입력을 가지고 저장부(106)에 상태 정보를 저장한다. 예를 들면 온도 센서를 사용하여 사람이 인터렉티브 토이를 안아 주면 사람의 체온을 감지하여 컨트롤러부(100)가 인터렉티브 토이의 감정상태가 좋아지도록 구성할 수 있다.Examples of the other sensor unit 104 may include a temperature sensor, a touch sensor, an image sensor, a light sensor, and the like. The input information other than the voice input to the other sensor unit 104 is used alone or together with the voice information as a basic data for the controller to determine and operate the surrounding situation. Information acquired from the other sensor unit 104 is sent to the controller unit 100 and the controller unit stores the state information in the storage unit 106 with the sensor input from the other sensor unit in the storage unit. For example, when a person hugs the interactive toy using a temperature sensor, the controller 100 may be configured to improve the emotional state of the interactive toy by detecting a human body temperature.

저장부(106)는 플래시 메모리와 같이 반복적으로 읽고 쓸 수 있는 데이터 저장 매체여야 한다. 저장부(106)는 컨텐츠뿐만 아니라 인터렉티브 토이의 현재 경험과 감정상태 정보를 저장한다. 저장부(106)는 컨텐츠뿐만 아니라 토이의 현재 경험과 감정상태 정보를 저장한다. 토이의 현재 경험과 감정 상태 정보는 저장부에 변수 형태로 저장된다. 인터렉티브 토이를 사용한 시간이 많으면 경험에 관한 변수의 값을 증가시킨다. 또한 현재 감정상태의 정보를 저장하는 변수 값은 인터렉티브 토이의 접촉센서에 입력이 들어오거나 온도 센서 값이 올라가거나, 또한 사용자가 빈번히 음성을 입력하였을 때 변수의 값을 증가시킨다. 컨트롤러부(100)는 동작 시 이와 같은 변수 값을 확인하여 동작방법을 판단 할 수 있다. 판단방법은 어떤 임계 값을 정하고 임계 값 이상이면 동작하고 그렇지 않으면 동작하지 않는 등의 단순 비교 방법이 사용될 수 있으며, 퍼지 또는 적응 제어 등의 인공 지능 기법을 적용하여 컨트롤러가 동작하도록 만들 수도 있다. 컨트롤러부(100)는 음성신호와 기타 센서를 통해 들어온 사용자의 입력을 분석하여 저장부에 인터렉티브 토이의 상태정보를 저장한다. 또한 컨트롤러부(100)는 PC연결부(110)를 통해서 정보를 받아서 저장부(106)에 컨텐츠를 저장한다. 저장부(106)에 저장되는 데이터는 도 4에 있는 컨텐츠 제작 장치에 의해 만들어진 데이터이다. 멀티미디어 PC, 전문 음성 압축 하드웨어 등을 통해서 제작을 할 수 있다. 먼저 음악, 동화, 자장가 등의 아날로그 음성 정보가 마이크(404)를 통해 입력이 되고 A/D 컨버터(402)를 통해 디지털 음성 정보를 변환된 후 압축장치(400)에 의해 압축된 후 저장장치(406)에 저장된다. 이 데이터는 다양한 방법의 통상적인 압축 방식으로 압축되어 저장될 수 있다. 디코더(112)는 압축된 정보를 원래의 디지털 음성 데이터로 복원해 주는 역할을 한다. 복원 기능은 디코더(112)와 같은 별도의 하드웨어를 통하여 구성될 수도 있고, 컨트롤러부(100)가 디코더의 복원 기능을 소프트웨어적으로 수행할 수도 있다.The storage unit 106 should be a data storage medium that can be repeatedly read and written, such as a flash memory. The storage unit 106 stores not only the content but also the current experience and emotional state information of the interactive toy. The storage unit 106 stores not only the content but also the toy's current experience and emotional state information. Toy's current experience and emotional state information is stored in variable form in the storage. A lot of time using interactive toys increases the value of a variable about experience. In addition, the variable value that stores the information of the current emotional state increases the value of the variable when an input is input to the touch sensor of the interactive toy, the temperature sensor value is increased, or the user frequently inputs a voice. The controller unit 100 may determine the operation method by checking such variable values during operation. The determination method may be a simple comparison method such as setting a certain threshold value and operating above the threshold value or otherwise not operating. The controller may be operated by applying artificial intelligence techniques such as fuzzy or adaptive control. The controller unit 100 analyzes the user's input through the voice signal and other sensors and stores the state information of the interactive toy in the storage unit. In addition, the controller unit 100 receives information through the PC connection unit 110 and stores the content in the storage unit 106. The data stored in the storage unit 106 is data generated by the content producing apparatus in FIG. 4. Production can be done through multimedia PCs and professional voice compression hardware. First, analog voice information such as music, moving picture, lullabies, etc. is input through the microphone 404, digital voice information is converted through the A / D converter 402, and then compressed by the compression device 400, and then stored in a storage device ( 406. This data can be compressed and stored in a conventional compression manner in a variety of ways. The decoder 112 serves to restore the compressed information to the original digital voice data. The restoration function may be configured through separate hardware such as the decoder 112, or the controller unit 100 may perform the restoration function of the decoder in software.

구동부(108)는 인터렉티브 토이를 움직이도록 해주는 부분으로 주로 모터와 같은 물리적 운동장치와 모터를 구동하기 위한 드라이버로 구성된다. 구동부(108)에 의해 본 발명의 인터렉티브 토이가 팔, 다리를 움직이거나 앞 뒤 좌우로 이동하는 등의 간단한 운동 동작을 할 수 있게 된다.The driver 108 is a part that allows the interactive toy to move, and is mainly composed of a physical exercise device such as a motor and a driver for driving the motor. The driving unit 108 enables the interactive toy of the present invention to perform a simple exercise operation such as moving an arm and a leg or moving back and forth left and right.

PC연결부(110)는 Serial, Parallel, 또는 USB 등을 사용하여 PC와 인터렉티브 토이 사이에 양방향으로 데이터를 주고받는 기능을 가진다. 즉, PC연결부(110)는 PC에 있는 컨텐츠 데이터를 인터렉티브 토이로 보내주고 인터렉티브 토이에서 PC로 자신의 상태 정보 등을 보내 PC에 저장시킬 수도 있다.The PC connection unit 110 has a function of exchanging data in both directions between the PC and the interactive toy using serial, parallel, or USB. That is, the PC connection unit 110 may send the content data in the PC to the interactive toy and send its status information to the PC from the interactive toy and store the data in the PC.

본 발명의 디코더(112)에 통상적인 방법으로 MP3파일 디코딩 기능을 넣을 경우, 본 인터렉티브 토이가 휴대용 MP3 플레이어의 역할을 할 수도 있다.When inserting the MP3 file decoding function in a conventional manner into the decoder 112 of the present invention, this interactive toy may serve as a portable MP3 player.

이상에서는 인터넷의 컨텐츠 제공자로부터 PC로 컨텐츠를 다운로드 받아서 이를 저장부(106)에 저장한 후 사람의 음성 등의 입력을 통해서 사람이 인지할 수 있는 형태로 컨텐츠를 출력하는 경우를 상정하여 이를 실시예로서 설명하고, 이에 따라 연결부도 PC연결부(11O)라고 하였으나, 컨텐츠 소스가 CD-ROM 등의 기록 매체이거나 PC 대신에 이동 전화기 등의 통신 장치가 사용될 경우에도 유사하게 적용될 수 있다.In the above, it is assumed that the content is downloaded from a content provider on the Internet to a PC, stored in the storage unit 106, and the content is output in a form that can be recognized by a person through an input such as a human voice. As described above, the connection portion is also referred to as a PC connection portion 110, but can be similarly applied when the content source is a recording medium such as a CD-ROM or a communication device such as a mobile phone instead of a PC.

컨텐츠의 흐름의 관점에서 발명의 기능을 설명하면 다음과 같다.The function of the invention in terms of the flow of content is as follows.

먼저 제품의 제작사 혹은 컨텐츠 제공업자는 인터넷 홈페이지나 CD-ROM 타이틀 등의 형태로 컨텐츠를 공급한다. PC통신이나 인터넷과 같은 외부 연결 수단을 이용할 경우에는 사용자는 컨텐츠 제공자(304)에게 PC(302)의 통신 프로그램(308)을 이용하여 접속한 후 컨텐츠를 다운로드 받아서 PC(302)의 저장매체(306)에 저장한다. CD-ROM등의 저장 매체 형태로 공급될 경우 위의 과정은 필요하지 않게 된다.저장 매체에 컨텐츠를 갖게 되면 사용자는 별도의 인터렉티브 토이와 연동되는 토이 연동 프로그램(310)을 이용하여 PC에 저장된 컨텐츠 파일을 본 발명의 인터렉티브 토이로 다운로드한다. 토이 연동 프로그램은 PC에서 인터렉티브 토이로 컨텐츠를 전송해주는 역할과 토이로부터 상태 감정 정보 등을 PC로 보내 주어 저장하게 해주는 양방향 통신 프로그램이다. 위와 같은 과정으로 컨텐츠를 인터렉티브 토이로 보내면 인터렉티브 토이의 컨트롤러부(100)는 PC연결부(110)로 들어온 컨텐츠 파일을 저장부(106)로 보내 저장한다. 저장된 컨텐츠를 출력하기 위해서는 사용자가 음성 등을 인터렉티브 토이에 입력하여 컨텐츠를 출력할 것을 요구한다. 입력된 사용자의 음성 정보가 음성입출력부(102)를 거처서 컨트롤러부(100)에 보내지면, 컨트롤러부(100)는 수동적으로 출력요청에 따라 요청된 컨텐츠를 출력하는 것이 아니라 현재 저장부에 저장되어 있는 토이의 경험이나 감정 상태에 관한 정보에 따라서 능동적으로 출력여부를 결정한다.First, the producer or the content provider of the product supplies the content in the form of an Internet homepage or a CD-ROM title. When using an external connection means such as PC communication or the Internet, the user connects to the content provider 304 by using the communication program 308 of the PC 302, downloads the content, and then stores the storage medium 306 of the PC 302. ). The above process is not necessary when supplied in a storage medium such as a CD-ROM. When the storage medium has contents, the user stores contents stored in the PC by using a toy interworking program 310 linked with a separate interactive toy. Download the file into the interactive toy of the present invention. Toy interworking program is a two-way communication program that transmits content from the PC to the interactive toy, and sends the state emotion information from the toy to the PC for storage. When the content is sent to the interactive toy as described above, the controller 100 of the interactive toy sends the content file entered into the PC connection unit 110 to the storage unit 106 and stores the content file. In order to output the stored content, the user inputs a voice or the like into the interactive toy and outputs the content. When the input voice information of the user is sent to the controller unit 100 via the voice input / output unit 102, the controller unit 100 does not output the requested content manually according to the output request, but is stored in the current storage unit. It actively determines whether to output based on information about the experience or emotional state of a toy.

본 발명에 의해 컨텐츠의 내용 변경이 가능하고 사용자의 사용 태양에 따라 반응 변화가 가능한 인터렉티브 토이가 제공된다.The present invention provides an interactive toy capable of changing the content of the content and changing the response according to the user's usage aspect.

Claims (1)

컨텐츠 제공원으로부터 컨텐츠를 제공받아서, 컨텐츠의 내용을 출력하는 인터렉티브 토이에 있어서,In an interactive toy that receives content from a content provider and outputs the content of the content, 컨텐츠 제공원과 연결된 연결부;A connection unit connected to a content provider; 컨텐츠를 저장하는 저장부;A storage unit for storing contents; 컨트롤러부;A controller unit; 컨텐츠를 출력하는 음성입출력부;A voice input / output unit for outputting content; 기타 센서부; 그리고Other sensor units; And 구동부를 포함하며,It includes a drive unit, 외부 음성 입력은 상기 음성입출력부와 상기 컨트롤러부를 통해 저장부에 저장되며, 음향 이외의 외부 입력은 상기 기타 센서부로부터 상기 컨트롤러부를 통해 저장부에 저장되며, 상기 컨트롤러부는 상기 컨텐츠 제공원으로부터 상기 저장부로의 컨텐츠의 이동을 제어하며, 상기 음성입출력부를 통한 음성 입출력을 제어하며, 상기 기타 센서부를 통한 외부 입력을 제어하며, 상기 구동부의 동작을 제어하는 것을 특징으로 하는 인터렉티브 토이.External voice input is stored in the storage unit through the voice input and output unit and the controller unit, external input other than sound is stored in the storage unit through the controller unit from the other sensor unit, and the controller unit is stored in the content provider. Interactive content control, characterized in that for controlling the movement of the content to the negative portion, the voice input and output through the voice input and output unit, the external input through the other sensor unit, the operation of the drive unit.
KR1019990047324A 1999-10-28 1999-10-28 Interactive toy KR20010039090A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1019990047324A KR20010039090A (en) 1999-10-28 1999-10-28 Interactive toy

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1019990047324A KR20010039090A (en) 1999-10-28 1999-10-28 Interactive toy

Publications (1)

Publication Number Publication Date
KR20010039090A true KR20010039090A (en) 2001-05-15

Family

ID=19617519

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1019990047324A KR20010039090A (en) 1999-10-28 1999-10-28 Interactive toy

Country Status (1)

Country Link
KR (1) KR20010039090A (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20010093468A (en) * 2000-03-29 2001-10-29 손승철 Toy system and its control method for responding to network
KR20020066692A (en) * 2001-02-13 2002-08-21 김용대 Method to provide game service connecting internet and offline
WO2002095728A1 (en) * 2001-05-18 2002-11-28 Tae-Soo Yoon Portable voice/letter processing apparatus
KR20030003850A (en) * 2001-07-04 2003-01-14 세라에스이(주) Voice-generating and moving toy

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20010093468A (en) * 2000-03-29 2001-10-29 손승철 Toy system and its control method for responding to network
KR20020066692A (en) * 2001-02-13 2002-08-21 김용대 Method to provide game service connecting internet and offline
WO2002095728A1 (en) * 2001-05-18 2002-11-28 Tae-Soo Yoon Portable voice/letter processing apparatus
KR20030003850A (en) * 2001-07-04 2003-01-14 세라에스이(주) Voice-generating and moving toy

Similar Documents

Publication Publication Date Title
US7299182B2 (en) Text-to-speech (TTS) for hand-held devices
WO1997041936A1 (en) Computer-controlled talking figure toy with animated features
JP2003271174A (en) Speech synthesis method, speech synthesis device, program, recording medium, method and apparatus for generating constraint information and robot apparatus
US20140249673A1 (en) Robot for generating body motion corresponding to sound signal
JP2002177656A (en) Electronic toy
JP2003271173A (en) Speech synthesis method, speech synthesis device, program, recording medium and robot apparatus
US7222076B2 (en) Speech output apparatus
KR102495888B1 (en) Electronic device for outputting sound and operating method thereof
JP2021157172A (en) Virtual personal assistance responding with emotion
KR20220165666A (en) Method and system for generating synthesis voice using style tag represented by natural language
KR20050008723A (en) Talking e-book
WO1999032203A1 (en) A standalone interactive toy
KR100423788B1 (en) The system and method of a dialogue form voice and multi-sense recognition for a toy
KR20010039090A (en) Interactive toy
US20040199391A1 (en) Portable voice/letter processing apparatus
JPWO2020116356A1 (en) Robots, speech synthesis programs, and speech output methods
WO2000068932A1 (en) Control device and method therefor, information processing device and method therefor, and medium
CN2789862Y (en) Intelligent family education toy
JP2002311981A (en) Natural language processing system and natural language processing method as well as program and recording medium
JP2001043126A (en) Robot system
Dhal Controlling Devices Through Voice Based on AVR Microcontroller
KR20200085433A (en) Voice synthesis system with detachable speaker and method using the same
WO2024001462A1 (en) Song playback method and apparatus, and computer device and computer-readable storage medium
Chandramouli et al. Speech recognition based computer keyboard replacement for the Quadriplegics, Paraplegics, paralytics and amputees
KR200229985Y1 (en) Audio generator

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E902 Notification of reason for refusal
E601 Decision to refuse application