KR20130139137A - Dialog-doll reacting to a sensor input and its application method thereof - Google Patents
Dialog-doll reacting to a sensor input and its application method thereof Download PDFInfo
- Publication number
- KR20130139137A KR20130139137A KR1020120062921A KR20120062921A KR20130139137A KR 20130139137 A KR20130139137 A KR 20130139137A KR 1020120062921 A KR1020120062921 A KR 1020120062921A KR 20120062921 A KR20120062921 A KR 20120062921A KR 20130139137 A KR20130139137 A KR 20130139137A
- Authority
- KR
- South Korea
- Prior art keywords
- sensor
- response
- doll
- type
- question
- Prior art date
Links
Images
Classifications
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63H—TOYS, e.g. TOPS, DOLLS, HOOPS OR BUILDING BLOCKS
- A63H3/00—Dolls
- A63H3/28—Arrangements of sound-producing means in dolls; Means in dolls for producing sounds
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63H—TOYS, e.g. TOPS, DOLLS, HOOPS OR BUILDING BLOCKS
- A63H2200/00—Computerized interactive toys, e.g. dolls
Landscapes
- Toys (AREA)
- User Interface Of Digital Computer (AREA)
Abstract
Description
본 발명은 시각, 청각, 후각, 촉각 등 센서입력에 반응해서 음성으로 응답 대화할 수 있는 센서입력에 반응하는 대화인형 및 그 운용 방법에 관한 것으로, 더욱 상세하게는 센서로부터 신호를 입력 받은 뒤에 상기 신호를 감지하고 분석하여, 상기 센서의 종류, 센서데이터, 센서입력 위치에 따라 질의응답을 수행하고, 응답 대화 내용에 따라 감정을 표현하는 것을 특징으로 하는 센서입력에 반응하는 대화인형 및 그 운용 방법에 관한 것이다.
The present invention relates to a conversation doll that responds to a sensor input capable of responding to a voice response in response to a sensor input such as visual, auditory, olfactory, tactile, and the like, and more particularly, after receiving a signal from a sensor. By detecting and analyzing a signal, performing a question and answer according to the type of sensor, sensor data, and sensor input location, and expressing emotions according to the response conversation contents. It is about.
인형은 인간에게 매우 친근한 존재이며, 인형을 안고 있는 것 만으로 아이들에게 위로와 용기를 주기도 한다.Dolls are very friendly to humans, and they can comfort and encourage children just by holding them.
더구나, 인형이 인간에게 음성으로 질문하기도 하고 답변도 할 수 있다면, 아이들에게 큰 위안과 즐거움을 줄 것으로 예상한다.Moreover, if the doll can ask and answer questions with human voices, it is expected to bring great comfort and pleasure to the children.
현재 인형 중에 음성으로 인간과 자유롭게 대화하는 기능을 가진 인형은 출시되지 않았으며, 음성인식 기술의 한계, 대화 기술의 한계 등으로 인하여 아직 시도 조차 되지 않고 있다.
Among the dolls, dolls that have the ability to communicate freely with humans by voice have not been released and have not been attempted yet due to the limitations of speech recognition technology and dialogue technology.
본 발명은 상기한 문제점을 해결하기 위하여 제안된 것으로서, 시각, 청각, 후각, 촉각 등 센서입력에 반응해서 음성으로 응답 대화할 수 있는 센서입력에 반응하는 대화인형 및 그 운용 방법을 제시하였다.
The present invention has been proposed in order to solve the above problems, and has proposed a conversation doll that responds to a sensor input capable of responding to a voice response in response to sensor inputs such as visual, auditory, olfactory, and tactile senses, and a method of operating the same.
상기한 바와 같은 목적을 달성하기 위한 본 발명의 특징에 따른 센서입력에 반응하는 대화인형은 Interactive doll responding to the sensor input according to a feature of the present invention for achieving the object as described above
센서로부터 신호를 입력하는 센서입력부;A sensor input unit for inputting a signal from a sensor;
상기 센서입력부에서 전달된 신호를 감지하고 분석하는 센서인식부; A sensor recognition unit for detecting and analyzing a signal transmitted from the sensor input unit;
상기 센서의 종류, 센서데이터, 센서입력 위치에 따라 질의응답을 수행하는 질의응답부;A question-and-answer unit that performs a question-and-response according to the type of sensor, sensor data, and sensor input position;
상기 질의응답부의 대화 내용에 따라 감정을 표현하는 감정출력부를 포함한다.
It includes an emotion output unit for expressing the emotion in accordance with the dialogue content of the question and answer.
또한, 본 발명의 특징에 따른 센서입력에 반응하는 대화인형의 운용방법에서 In addition, in the operation method of the conversation doll in response to the sensor input according to a feature of the present invention
센서로부터 신호를 입력 받는 제 1단계; A first step of receiving a signal from a sensor;
상기 입력된 신호를 감지하고 분석하는 제 2단계; A second step of sensing and analyzing the input signal;
상기 센서의 종류, 센서데이터, 센서입력 위치에 따라 질의응답을 수행하는 제 3단계; Performing a query response according to the type of sensor, sensor data, and sensor input position;
상기 질의응답 대화 내용에 따라 감정을 표현하는 제 4단계를 포함한다.
And a fourth step of expressing an emotion according to the content of the question and answer conversation.
이와 같은 본 발명의 실시 예에 따르면, 시각, 청각, 후각, 촉각 등 센서입력에 반응해서 음성으로 응답 대화할 수 있는 대화인형을 통해서, 시각, 청각, 후각, 촉각에 의해서 다양한 대화가 가능한 인형을 통해서 위로를 받고, 즐거움을 느낄 수 있는 효과가 있다.
According to the embodiment of the present invention, through the conversation doll that can respond to the voice response in response to the sensor input such as sight, hearing, smell, tactile sense, a doll capable of various conversations by sight, hearing, smell, tactile sense Through comfort, the effect is to feel the joy.
도 1은 본 발명의 실시예에 따른 센서입력에 반응하는 대화인형의 구성을 도시한 도면이다.
도 2는 본 발명의 실시예에 따른 센서입력에 반응하는 대화인형의 운용방법을 나타낸 도면이다.1 is a view showing a configuration of a conversation doll in response to a sensor input according to an embodiment of the present invention.
2 is a view showing a method of operating a conversation doll in response to a sensor input according to an embodiment of the present invention.
이하, 첨부된 도면을 참조하여 본 발명의 바람직한 실시예를 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자가 용이하게 실시할 수 있도록 상세하게 설명하면 다음과 같다.Hereinafter, preferred embodiments of the present invention will be described in detail with reference to the accompanying drawings so that those skilled in the art to which the present invention pertains can easily carry out the embodiments.
본 발명은 여러 가지 상이한 형태로 구현될 수 있으므로, 여기에서 설명하는 실시예에 한정되지 않으며, 도면에서 본 발명을 명확하게 설명하기 위하여 설명과 관계없는 부분은 생략하였다. Since the present invention can be implemented in various different forms, the present invention is not limited to the exemplary embodiments described herein, and parts not related to the description are omitted in the drawings in order to clearly describe the present invention.
도 1은 본 발명의 실시예에 따른 센서입력에 반응하는 대화인형의 구성을 도시한 도면이다.1 is a view showing a configuration of a conversation doll in response to a sensor input according to an embodiment of the present invention.
도 1에 도시된 바와 같이, 본 발명의 센서입력에 반응하는 대화인형은 다양한 센서입력에 반응해서 음성으로 질의 응답하는 인형으로써,As shown in Figure 1, the conversation doll in response to the sensor input of the present invention is a doll that responds to the question by voice in response to various sensor inputs,
센서로부터 신호를 입력하는 센서입력부(100);A
상기 센서입력부에서 전달된 신호를 감지하고 분석하는 센서인식부(200); A
상기 센서의 종류, 센서데이터, 센서입력 위치에 따라 질의응답을 수행하는 질의응답부(300);A question-and-
상기 질의응답부의 대화 내용에 따라 감정을 표현하는 감정출력부(400);
를 포함한다.
.
상기 센서입력부는 시각센서(110), 청각센서(120), 후각센서(130), 촉각센서(140) 중에 하나 이상의 조합으로 구성된다.
The sensor input unit is composed of one or more combinations of the
상기 센서입력부의 촉각센서는 인형의 외피 밑에 전신에 걸쳐 골고루 배치되어서, 촉각이 느껴지는 위치에 따라 응답 대화를 출력한다.
The tactile sensor of the sensor input unit is arranged evenly over the whole body under the skin of the doll, and outputs a response dialogue according to the position where the tactile sense is felt.
상기 센서인식부는 센서의 종류가 시각센서일 때, 객체인식(물체, 동물, 사람, 얼굴)(210) 후, 객체의 종류를 질의응답부로 전달하여 응답 대화를 출력한다.
When the type of sensor is a visual sensor, the sensor recognition unit outputs a response conversation by transferring the type of object to the question answering unit after object recognition (object, animal, person, face) 210.
상기 센서인식부는 센서의 종류가 청각센서일 때, 사람의 음성인지 소리인지를 구분해서(220), 사람의 음성일 때에는 음성인식 기능에 의해 질문 문장을 질의응답부(300)로 전달하고, 소리일 경우에는 소리인식 기능에 의해 소리인식 종류를 질의응답부로 전달하여 응답대화를 출력한다.
When the type of sensor is an aural sensor, the sensor recognition unit distinguishes whether a person's voice or sound is 220, and when the person's voice transmits a question sentence to the
상기 센서인식부는 센서의 종류가 후각센서일 때, 냄새의 종류(가스, 연기, 꽃, 음식)(230)를 질의응답부로 전달하여 응답대화를 출력한다.
When the type of sensor is an olfactory sensor, the sensor recognition unit transmits the type of smell (gas, smoke, flowers, food) 230 to the question answering unit to output a response conversation.
상기 센서인식부는 센서의 종류가 촉각센서일 때, 촉각의 위치정보(240)를 질의응답부로 전달하여 응답대화를 출력한다.
When the type of sensor is a tactile sensor, the sensor recognition unit transmits the
상기 질의응답부는 객체의 종류, 소리인식 종류, 냄새의 종류, 촉각의 위치정보에 따라 미리 구축된 답변DB에서 답변을 가져와서 응답대화를 출력한다.
The question-and-answer unit outputs an answer conversation by taking an answer from a pre-built answer DB according to the object type, sound recognition type, smell type, and touch location information.
상기 질의응답부는 객체의 종류, 소리인식 종류, 냄새의 종류, 촉각의 위치정보는 대화인형의 상황이나 성격에 따라 미리 구축된 답변DB에서 답변을 가져와서 응답대화를 출력한다.
The question-and-answer unit outputs an answer conversation by taking an answer from a pre-built answer DB according to the type of object, sound recognition type, smell type, and tactile location information according to the situation or nature of the conversation doll.
상기 질의응답부는 질문 문장을 전달 받았을 때, 질문문장으로부터 문장분석과정을 수행하여 정확한 질문 의도를 파악하고, 정확한 답변을 요구하는 질문은 미리 구축된 답변 DB에서 답변을 가져오고, 특정 정보를 요청할 때는 해당 정보를 토대로 답변을 생성한다.
When the question answering unit receives a question sentence, it performs a sentence analysis process from the question sentence to determine the exact question intention, and a question requiring an accurate answer brings an answer from a pre-established answer DB, and requests specific information. Generate an answer based on that information.
상기 질의응답부는 질문문장이 시간, 뉴스, 날씨와 같은 특정 정보를 요청할 때에는 유무선 통신 네트워크를 통해서 해당 정보를 가져와서 답변을 생성한다.
The question answering unit generates an answer when the question sentence requests specific information such as time, news, and weather through the wired / wireless communication network.
상기 감정출력부는 질의응답부의 응답 대화를 감정분석해서 감정내용에 따라 대화인형의 얼굴표정, 동작으로 감정을 표현한다.
The emotion output unit expresses emotions by facial expressions and gestures of the conversation doll according to the emotion contents by analyzing the response dialogues of the question-answering unit.
도 2는 본 발명의 실시예에 따른 센서입력에 반응하는 대화인형의 운용방법을 나타낸 도면이다.
2 is a view showing a method of operating a conversation doll in response to a sensor input according to an embodiment of the present invention.
본 발명의 센서입력에 반응해서 음성으로 질의 응답하는 인형을 운용하는 방법은,The method of operating a doll answering questions by voice in response to the sensor input of the present invention,
센서로부터 신호를 입력 받는 제 1단계(S200);A first step (S200) of receiving a signal from a sensor;
상기 입력된 신호를 감지하고 분석하는 제 2단계(S210); A second step (S210) of detecting and analyzing the input signal;
상기 센서의 종류, 센서데이터, 센서입력 위치에 따라 질의응답을 수행하는 제 3단계(S220); A third step (S220) of performing a query response according to the type of sensor, sensor data, and sensor input position;
상기 질의응답 대화 내용에 따라 감정을 표현하는 제 4단계(S230)를 포함한다.
And a fourth step (S230) of expressing an emotion according to the content of the question and answer conversation.
100 : 센서입력부
110 : 시각센서
120 : 청각센서
130 : 후각센서
140 : 촉각센서
200 : 센서인식부
210 : 객체인식
220 : 음성인식, 소리인식
230 : 냄새인식
240 : 촉각위치인식
300 : 질의응답부
400 : 감정출력부100: sensor input unit
110: visual sensor
120: hearing sensor
130: olfactory sensor
140: tactile sensor
200: sensor recognition unit
210: object recognition
220: voice recognition, sound recognition
230: smell recognition
240: tactile position recognition
300: question and answer
400: emotion output unit
Claims (24)
센서로부터 신호를 입력하는 센서입력부;
상기 센서입력부에서 전달된 신호를 감지하고 분석하는 센서인식부;
상기 센서의 종류, 센서데이터, 센서입력 위치에 따라 질의응답을 수행하는 질의응답부;
상기 질의응답부의 대화 내용에 따라 감정을 표현하는 감정출력부를 포함하는 것을 특징으로 하는 센서입력에 반응하는 대화인형.
In the doll responding to the voice input in response to the sensor input,
A sensor input unit for inputting a signal from a sensor;
A sensor recognition unit for detecting and analyzing a signal transmitted from the sensor input unit;
A question-and-answer unit that performs a question-and-response according to the type of sensor, sensor data, and sensor input position;
And a dialogue doll responding to the sensor input, the emotion output unit expressing the emotion according to the dialogue contents of the question-answering unit.
상기 센서입력부는 시각센서, 청각센서, 후각센서, 촉각센서 중에 하나 이상의 조합으로 구성되는 것을 특징으로 하는 센서입력에 반응하는 대화인형.
The method of claim 1,
The sensor input unit is a conversation doll in response to the sensor input, characterized in that composed of one or more combinations of the visual sensor, auditory sensor, olfactory sensor, tactile sensor.
상기 센서입력부의 촉각센서는 인형의 외피 밑에 전신에 걸쳐 골고루 배치되어서, 촉각이 느껴지는 위치에 따라 응답 대화를 출력하는 것을 특징으로 하는 센서입력에 반응하는 대화인형.
The method of claim 1,
The tactile sensor of the sensor input unit is arranged evenly over the whole body under the outer shell of the doll, the dialogue doll in response to the sensor input, characterized in that to output a response dialogue according to the position where the tactile sense is felt.
상기 센서인식부는 센서의 종류가 시각센서일 때, 객체인식(물체, 동물, 사람, 얼굴) 후, 객체의 종류를 질의응답부로 전달하여 응답 대화를 출력하는 것을 특징으로 하는 센서입력에 반응하는 대화인형.
The method of claim 1,
The sensor recognition unit, when the type of sensor is a visual sensor, after the object recognition (objects, animals, people, faces), the type of the object to the response to the response to the sensor input, the dialogue response in response to the sensor input, characterized in that for outputting doll.
상기 센서인식부는 센서의 종류가 청각센서일 때, 사람의 음성인지 소리인지를 구분해서, 사람의 음성일 때에는 음성인식 기능에 의해 질문 문장을 질의응답부로 전달하고, 소리일 경우에는 소리인식 기능에 의해 소리인식 종류를 질의응답부로 전달하여 응답대화를 출력하는 것을 특징으로 하는 센서입력에 반응하는 대화인형.
The method of claim 1,
The sensor recognition unit distinguishes whether the sensor is a human voice or a sound when the sensor type is an audible sensor, and when a human voice is transmitted, a question sentence is transmitted to the question answering unit by a voice recognition function, and in the case of a sound, the sound recognition function is used. Conversation doll in response to the sensor input, characterized in that for transmitting the voice recognition type to the question and answer unit by outputting a response dialogue.
상기 센서인식부는 센서의 종류가 후각센서일 때, 냄새의 종류(가스, 연기, 꽃, 음식)를 질의응답부로 전달하여 응답대화를 출력하는 것을 특징으로 하는 센서입력에 반응하는 대화인형.
The method of claim 1,
The sensor recognition unit is a conversation doll responding to the sensor input, characterized in that when the type of the sensor is an olfactory sensor, the type of smell (gas, smoke, flowers, food) is delivered to the question answering unit to output a response dialogue.
상기 센서인식부는 센서의 종류가 촉각센서일 때, 촉각의 위치정보를 질의응답부로 전달하여 응답대화를 출력하는 것을 특징으로 하는 센서입력에 반응하는 대화인형.
The method of claim 1,
The sensor recognition unit is a conversation doll in response to the sensor input, characterized in that when the type of sensor is a tactile sensor, the position information of the tactile sensor is transmitted to the question answering unit to output a response dialogue.
상기 질의응답부는 객체의 종류, 소리인식 종류, 냄새의 종류, 촉각의 위치정보에 따라 미리 구축된 답변DB에서 답변을 가져와서 응답대화를 출력하는 것을 특징으로 하는 센서입력에 반응하는 대화인형.
The method of claim 1,
The question answering unit responds to the sensor input, characterized in that the response from the pre-established answer DB according to the type of object, the type of sound recognition, the type of smell, the location of the sense of touch and outputs a response dialogue.
상기 질의응답부는 객체의 종류, 소리인식 종류, 냄새의 종류, 촉각의 위치정보는 대화인형의 상황이나 성격에 따라 미리 구축된 답변DB에서 답변을 가져와서 응답대화를 출력하는 것을 특징으로 하는 센서입력에 반응하는 대화인형.
The method of claim 1,
Sensor input, characterized in that the question answering unit outputs a response dialog by taking the answer from the pre-established answer DB according to the type of the object, the sound recognition type, the smell type, the location of the tactile Conversation dolls responding to.
상기 질의응답부는 질문 문장을 전달 받았을 때, 질문문장으로부터 문장분석과정을 수행하여 정확한 질문 의도를 파악하고, 정확한 답변을 요구하는 질문은 미리 구축된 답변 DB에서 답변을 가져오고, 특정 정보를 요청할 때는 해당 정보를 토대로 답변을 생성하는 것을 특징으로 센서입력에 반응하는 대화인형.
The method of claim 1,
When the question answering unit receives a question sentence, it performs a sentence analysis process from the question sentence to determine the exact question intention, and a question requiring an accurate answer brings an answer from a pre-established answer DB, and requests specific information. A conversation doll that responds to sensor inputs by generating an answer based on the corresponding information.
상기 질의응답부는 질문문장이 시간, 뉴스, 날씨와 같은 특정 정보를 요청할 때에는 유무선 통신 네트워크를 통해서 해당 정보를 가져와서 답변을 생성하는 것을 특징으로 하는 센서입력에 반응하는 대화인형.
The method of claim 1,
The question-and-answer unit responds to a sensor input, wherein the question sentence generates specific answers by obtaining the corresponding information through a wired / wireless communication network when requesting specific information such as time, news, and weather.
상기 감정출력부는 질의응답부의 응답 대화를 감정분석해서 감정내용에 따라 대화인형의 얼굴표정, 동작으로 감정을 표현하는 것을 특징으로 하는 센서입력에 반응하는 대화인형.
The method of claim 1,
The emotion output unit is a conversation doll in response to the sensor input, characterized in that the emotional response analysis of the response to the question-and-answer section to express the emotion by facial expressions, actions of the conversation doll according to the emotion content.
센서로부터 신호를 입력 받는 제 1단계;
상기 입력된 신호를 감지하고 분석하는 제 2단계;
상기 센서의 종류, 센서데이터, 센서입력 위치에 따라 질의응답을 수행하는 제 3단계;
상기 질의응답 대화 내용에 따라 감정을 표현하는 제 4단계를 포함하는 것을 특징으로 하는 센서입력에 반응하는 대화인형 운용 방법.
In the method of operating a doll that questions and answers in response to the sensor input,
A first step of receiving a signal from a sensor;
A second step of sensing and analyzing the input signal;
Performing a query response according to the type of sensor, sensor data, and sensor input position;
And a fourth step of expressing an emotion according to the content of the question and answer conversation.
상기 제1단계는 시각센서, 청각센서, 후각센서, 촉각센서 중에 하나 이상의 조합으로 구성되는 것을 특징으로 하는 센서입력에 반응하는 대화인형 운용 방법.
The method of claim 13,
The first step is a conversation doll operation method in response to the sensor input, characterized in that composed of one or more of the visual sensor, auditory sensor, olfactory sensor, tactile sensor.
상기 제 1단계의 촉각센서는 인형의 외피 밑에 전신에 걸쳐 골고루 배치되어서, 촉각이 느껴지는 위치에 따라 응답 대화를 출력하는 것을 특징으로 하는 센서입력에 반응하는 대화인형 운용 방법.
The method of claim 13,
The tactile sensor of the first step is arranged evenly over the whole body under the skin of the doll, and outputs a response dialogue according to the position where the tactile sense is felt, the conversation doll operation method in response to the sensor input.
상기 제2단계는 센서의 종류가 시각센서일 때, 객체인식(물체, 동물, 사람, 얼굴) 후, 객체의 종류를 질의응답부로 전달하여 응답 대화를 출력하는 것을 특징으로 하는 센서입력에 반응하는 대화인형 운용 방법.
The method of claim 13,
In the second step, when the type of the sensor is a visual sensor, after the object recognition (object, animal, person, face), the type of the object is transmitted to the question answering unit to respond to the sensor input. How to use the conversation doll.
상기 제2단계는 센서의 종류가 청각센서일 때, 사람의 음성인지 소리인지를 구분해서, 사람의 음성일 때에는 음성인식 기능에 의해 질문 문장을 질의응답부로 전달하고, 소리일 경우에는 소리인식 기능에 의해 소리인식 종류를 질의응답부로 전달하여 응답대화를 출력하는 것을 특징으로 하는 센서입력에 반응하는 대화인형 운용 방법.
The method of claim 13,
In the second step, when the type of sensor is an auditory sensor, the voice is classified as a human voice or a sound, and when the voice is a human voice, a question sentence is transmitted to the question answering unit by a voice recognition function. And responding to the sensor inputs by transmitting a voice recognition type to the question answering unit.
상기 제2단계는 센서의 종류가 후각센서일 때, 냄새의 종류(가스, 연기, 꽃, 음식)를 질의응답부로 전달하여 응답대화를 출력하는 것을 특징으로 하는 센서입력에 반응하는 대화인형 운용 방법.
The method of claim 13,
In the second step, when the type of sensor is an olfactory sensor, a conversation doll operating method responsive to sensor inputs is outputted by transmitting a kind of smell (gas, smoke, flowers, food) to the question answering unit. .
상기 제2단계는 센서의 종류가 촉각센서일 때, 촉각의 위치정보를 제 3단계로 전달하여 응답대화를 출력하는 것을 특징으로 하는 센서입력에 반응하는 대화인형 운용 방법.
The method of claim 13,
In the second step, when the type of the sensor is a tactile sensor, the conversation doll operating method in response to the sensor input, outputting a response dialogue by transmitting the position information of the tactile sensor to the third stage.
상기 제3단계는 객체의 종류, 소리인식 종류, 냄새의 종류, 촉각의 위치정보에 따라 미리 구축된 답변DB에서 답변을 가져와서 응답대화를 출력하는 것을 특징으로 하는 센서입력에 반응하는 대화인형 운용 방법.
The method of claim 13,
The third step is a conversation doll operation in response to a sensor input, which outputs a response dialogue by taking an answer from a pre-built answer DB according to an object type, a sound recognition type, a smell type, and tactile location information. Way.
상기 제3단계는 객체의 종류, 소리인식 종류, 냄새의 종류, 촉각의 위치정보는 대화인형의 상황이나 성격에 따라 미리 구축된 답변DB에서 답변을 가져와서 응답대화를 출력하는 것을 특징으로 하는 센서입력에 반응하는 대화인형 운용 방법.
The method of claim 13,
The third step is a sensor, characterized in that the type of the object, the type of sound recognition, the type of smell, the location information of the tactile position by taking the answer from the pre-established answer DB according to the situation or nature of the conversation doll How to operate a conversation doll in response to input.
상기 제3단계는 질문 문장을 전달 받았을 때, 질문문장으로부터 문장분석과정을 수행하여 정확한 질문 의도를 파악하고, 정확한 답변을 요구하는 질문은 미리 구축된 답변 DB에서 답변을 가져오고, 특정 정보를 요청할 때는 해당 정보를 토대로 답변을 생성하는 것을 특징으로 센서입력에 반응하는 대화인형 운용 방법.
The method of claim 13,
In the third step, when the question sentence is received, the sentence sentence analysis is performed from the question sentence to determine the exact question intention, and the question requiring the correct answer brings the answer from the pre-established answer DB, and requests specific information. When the response to the sensor input characterized in that for generating an answer based on the corresponding information.
상기 제3단계는 질문문장이 시간, 뉴스, 날씨와 같은 특정 정보를 요청할 때에는 유무선 통신 네트워크를 통해서 해당 정보를 가져와서 답변을 생성하는 것을 특징으로 하는 센서입력에 반응하는 대화인형 운용 방법.
The method of claim 13,
In the third step, when the question sentence requests specific information such as time, news, and weather, the conversation doll operating method responsive to sensor inputs may be generated by obtaining corresponding information through a wired / wireless communication network.
상기 제4단계는 질의응답부의 응답 대화를 감정분석해서 감정내용에 따라 대화인형의 얼굴표정, 동작으로 감정을 표현하는 것을 특징으로 하는 센서입력에 반응하는 대화인형 운용 방법.
The method of claim 13,
The fourth step is a conversation doll operation method in response to the sensor input, characterized in that the emotional response analysis of the response to the question-and-answer section to express the emotions by facial expressions, actions of the conversation doll.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020120062921A KR20130139137A (en) | 2012-06-12 | 2012-06-12 | Dialog-doll reacting to a sensor input and its application method thereof |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020120062921A KR20130139137A (en) | 2012-06-12 | 2012-06-12 | Dialog-doll reacting to a sensor input and its application method thereof |
Publications (1)
Publication Number | Publication Date |
---|---|
KR20130139137A true KR20130139137A (en) | 2013-12-20 |
Family
ID=49984543
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020120062921A KR20130139137A (en) | 2012-06-12 | 2012-06-12 | Dialog-doll reacting to a sensor input and its application method thereof |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR20130139137A (en) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20170013015A (en) | 2015-07-27 | 2017-02-06 | 주식회사 프론트유 | An emotion communication system by using smart toys |
CN110152314A (en) * | 2018-02-13 | 2019-08-23 | 卡西欧计算机株式会社 | Session output system, session export server, session output method and storage medium |
KR102414878B1 (en) | 2021-11-17 | 2022-07-01 | 주식회사 마링 | Customer-tailored mental care system and method using toys and communication terminals |
-
2012
- 2012-06-12 KR KR1020120062921A patent/KR20130139137A/en active Search and Examination
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20170013015A (en) | 2015-07-27 | 2017-02-06 | 주식회사 프론트유 | An emotion communication system by using smart toys |
CN110152314A (en) * | 2018-02-13 | 2019-08-23 | 卡西欧计算机株式会社 | Session output system, session export server, session output method and storage medium |
KR102414878B1 (en) | 2021-11-17 | 2022-07-01 | 주식회사 마링 | Customer-tailored mental care system and method using toys and communication terminals |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11241789B2 (en) | Data processing method for care-giving robot and apparatus | |
CN105807933B (en) | A kind of man-machine interaction method and device for intelligent robot | |
KR101336641B1 (en) | Emotional Sympathy Robot Service System and Method of the Same | |
KR20170087416A (en) | Voice affect modification | |
JP6719741B2 (en) | Dialogue method, dialogue device, and program | |
CN103116576A (en) | Voice and gesture interactive translation device and control method thereof | |
JP2010094799A (en) | Humanoid robot | |
JP6699010B2 (en) | Dialogue method, dialogue system, dialogue device, and program | |
KR20060096520A (en) | Information processing system, information processing method, and information processing program | |
WO2018163645A1 (en) | Dialogue method, dialogue system, dialogue device, and program | |
Tan et al. | iSocioBot: a multimodal interactive social robot | |
JP2013086226A (en) | Communication robot | |
KR20200143764A (en) | Emotional Sympathy Service System and Method of the Same | |
CN203149569U (en) | Voice and gesture interactive translation device | |
JP2016087402A (en) | User-interaction toy and interaction method of the toy | |
KR101504699B1 (en) | Phonetic conversation method and device using wired and wiress communication | |
JP2017208003A (en) | Dialogue method, dialogue system, dialogue device, and program | |
CN116188642A (en) | Interaction method, device, robot and storage medium | |
KR20130139137A (en) | Dialog-doll reacting to a sensor input and its application method thereof | |
JP7120060B2 (en) | VOICE DIALOGUE DEVICE, CONTROL DEVICE AND CONTROL PROGRAM FOR VOICE DIALOGUE DEVICE | |
CN110197103B (en) | Method, device, equipment and storage medium for human-animal interaction | |
JP6783469B2 (en) | Response interface and dialogue training system | |
KR102063389B1 (en) | Character display device based the artificial intelligent and the display method thereof | |
JP6647636B2 (en) | Dialogue method, dialogue system, dialogue device, and program | |
KR20230066821A (en) | Personal chatbot system based on Artificial Intelligence |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A201 | Request for examination | ||
E902 | Notification of reason for refusal | ||
AMND | Amendment |