KR20130139137A - Dialog-doll reacting to a sensor input and its application method thereof - Google Patents

Dialog-doll reacting to a sensor input and its application method thereof Download PDF

Info

Publication number
KR20130139137A
KR20130139137A KR1020120062921A KR20120062921A KR20130139137A KR 20130139137 A KR20130139137 A KR 20130139137A KR 1020120062921 A KR1020120062921 A KR 1020120062921A KR 20120062921 A KR20120062921 A KR 20120062921A KR 20130139137 A KR20130139137 A KR 20130139137A
Authority
KR
South Korea
Prior art keywords
sensor
response
doll
type
question
Prior art date
Application number
KR1020120062921A
Other languages
Korean (ko)
Inventor
윤재민
Original Assignee
윤재민
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 윤재민 filed Critical 윤재민
Priority to KR1020120062921A priority Critical patent/KR20130139137A/en
Publication of KR20130139137A publication Critical patent/KR20130139137A/en

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63HTOYS, e.g. TOPS, DOLLS, HOOPS OR BUILDING BLOCKS
    • A63H3/00Dolls
    • A63H3/28Arrangements of sound-producing means in dolls; Means in dolls for producing sounds
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63HTOYS, e.g. TOPS, DOLLS, HOOPS OR BUILDING BLOCKS
    • A63H2200/00Computerized interactive toys, e.g. dolls

Landscapes

  • Toys (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

The present invention relates to a talking doll reacting to sense input including sight, hearing, smell, and touch and a control method thereof, and more specifically, to a talking doll reacting to sense input and a control method thereof, wherein the talking doll receives a signal from a sensor, detects and analyzes the signal, performs questions and answers according to the type of the sensor, sensor data, the location of sense input, and expresses emotions according to dialog. [Reference numerals] (100) Sensor input unit;(110) Visual sensor;(120) Sound sensor;(130) Smell sensor;(140) Touch sensor;(200) Sensor recognizing unit;(210) Object recognition;(220) Voice recognition, sound recognition;(230) Smell recognition;(240) Touch location recognition;(300) Questioning and answering unit;(400) Emotion outputting unit;(AA) User;(BB) Talking doll

Description

센서입력에 반응하는 대화인형 및 그 운용 방법 {Dialog-doll reacting to a sensor input and its application method thereof}Dialogue doll reacting to a sensor input and its application method

본 발명은 시각, 청각, 후각, 촉각 등 센서입력에 반응해서 음성으로 응답 대화할 수 있는 센서입력에 반응하는 대화인형 및 그 운용 방법에 관한 것으로, 더욱 상세하게는 센서로부터 신호를 입력 받은 뒤에 상기 신호를 감지하고 분석하여, 상기 센서의 종류, 센서데이터, 센서입력 위치에 따라 질의응답을 수행하고, 응답 대화 내용에 따라 감정을 표현하는 것을 특징으로 하는 센서입력에 반응하는 대화인형 및 그 운용 방법에 관한 것이다.
The present invention relates to a conversation doll that responds to a sensor input capable of responding to a voice response in response to a sensor input such as visual, auditory, olfactory, tactile, and the like, and more particularly, after receiving a signal from a sensor. By detecting and analyzing a signal, performing a question and answer according to the type of sensor, sensor data, and sensor input location, and expressing emotions according to the response conversation contents. It is about.

인형은 인간에게 매우 친근한 존재이며, 인형을 안고 있는 것 만으로 아이들에게 위로와 용기를 주기도 한다.Dolls are very friendly to humans, and they can comfort and encourage children just by holding them.

더구나, 인형이 인간에게 음성으로 질문하기도 하고 답변도 할 수 있다면, 아이들에게 큰 위안과 즐거움을 줄 것으로 예상한다.Moreover, if the doll can ask and answer questions with human voices, it is expected to bring great comfort and pleasure to the children.

현재 인형 중에 음성으로 인간과 자유롭게 대화하는 기능을 가진 인형은 출시되지 않았으며, 음성인식 기술의 한계, 대화 기술의 한계 등으로 인하여 아직 시도 조차 되지 않고 있다.
Among the dolls, dolls that have the ability to communicate freely with humans by voice have not been released and have not been attempted yet due to the limitations of speech recognition technology and dialogue technology.

본 발명은 상기한 문제점을 해결하기 위하여 제안된 것으로서, 시각, 청각, 후각, 촉각 등 센서입력에 반응해서 음성으로 응답 대화할 수 있는 센서입력에 반응하는 대화인형 및 그 운용 방법을 제시하였다.
The present invention has been proposed in order to solve the above problems, and has proposed a conversation doll that responds to a sensor input capable of responding to a voice response in response to sensor inputs such as visual, auditory, olfactory, and tactile senses, and a method of operating the same.

상기한 바와 같은 목적을 달성하기 위한 본 발명의 특징에 따른 센서입력에 반응하는 대화인형은 Interactive doll responding to the sensor input according to a feature of the present invention for achieving the object as described above

센서로부터 신호를 입력하는 센서입력부;A sensor input unit for inputting a signal from a sensor;

상기 센서입력부에서 전달된 신호를 감지하고 분석하는 센서인식부; A sensor recognition unit for detecting and analyzing a signal transmitted from the sensor input unit;

상기 센서의 종류, 센서데이터, 센서입력 위치에 따라 질의응답을 수행하는 질의응답부;A question-and-answer unit that performs a question-and-response according to the type of sensor, sensor data, and sensor input position;

상기 질의응답부의 대화 내용에 따라 감정을 표현하는 감정출력부를 포함한다.
It includes an emotion output unit for expressing the emotion in accordance with the dialogue content of the question and answer.

또한, 본 발명의 특징에 따른 센서입력에 반응하는 대화인형의 운용방법에서 In addition, in the operation method of the conversation doll in response to the sensor input according to a feature of the present invention

센서로부터 신호를 입력 받는 제 1단계; A first step of receiving a signal from a sensor;

상기 입력된 신호를 감지하고 분석하는 제 2단계; A second step of sensing and analyzing the input signal;

상기 센서의 종류, 센서데이터, 센서입력 위치에 따라 질의응답을 수행하는 제 3단계; Performing a query response according to the type of sensor, sensor data, and sensor input position;

상기 질의응답 대화 내용에 따라 감정을 표현하는 제 4단계를 포함한다.
And a fourth step of expressing an emotion according to the content of the question and answer conversation.

이와 같은 본 발명의 실시 예에 따르면, 시각, 청각, 후각, 촉각 등 센서입력에 반응해서 음성으로 응답 대화할 수 있는 대화인형을 통해서, 시각, 청각, 후각, 촉각에 의해서 다양한 대화가 가능한 인형을 통해서 위로를 받고, 즐거움을 느낄 수 있는 효과가 있다.
According to the embodiment of the present invention, through the conversation doll that can respond to the voice response in response to the sensor input such as sight, hearing, smell, tactile sense, a doll capable of various conversations by sight, hearing, smell, tactile sense Through comfort, the effect is to feel the joy.

도 1은 본 발명의 실시예에 따른 센서입력에 반응하는 대화인형의 구성을 도시한 도면이다.
도 2는 본 발명의 실시예에 따른 센서입력에 반응하는 대화인형의 운용방법을 나타낸 도면이다.
1 is a view showing a configuration of a conversation doll in response to a sensor input according to an embodiment of the present invention.
2 is a view showing a method of operating a conversation doll in response to a sensor input according to an embodiment of the present invention.

이하, 첨부된 도면을 참조하여 본 발명의 바람직한 실시예를 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자가 용이하게 실시할 수 있도록 상세하게 설명하면 다음과 같다.Hereinafter, preferred embodiments of the present invention will be described in detail with reference to the accompanying drawings so that those skilled in the art to which the present invention pertains can easily carry out the embodiments.

본 발명은 여러 가지 상이한 형태로 구현될 수 있으므로, 여기에서 설명하는 실시예에 한정되지 않으며, 도면에서 본 발명을 명확하게 설명하기 위하여 설명과 관계없는 부분은 생략하였다. Since the present invention can be implemented in various different forms, the present invention is not limited to the exemplary embodiments described herein, and parts not related to the description are omitted in the drawings in order to clearly describe the present invention.

도 1은 본 발명의 실시예에 따른 센서입력에 반응하는 대화인형의 구성을 도시한 도면이다.1 is a view showing a configuration of a conversation doll in response to a sensor input according to an embodiment of the present invention.

도 1에 도시된 바와 같이, 본 발명의 센서입력에 반응하는 대화인형은 다양한 센서입력에 반응해서 음성으로 질의 응답하는 인형으로써,As shown in Figure 1, the conversation doll in response to the sensor input of the present invention is a doll that responds to the question by voice in response to various sensor inputs,

센서로부터 신호를 입력하는 센서입력부(100);A sensor input unit 100 for inputting a signal from a sensor;

상기 센서입력부에서 전달된 신호를 감지하고 분석하는 센서인식부(200); A sensor recognition unit 200 for detecting and analyzing a signal transmitted from the sensor input unit;

상기 센서의 종류, 센서데이터, 센서입력 위치에 따라 질의응답을 수행하는 질의응답부(300);A question-and-answer unit 300 that performs a question-and-answer according to the type of sensor, sensor data, and sensor input position;

상기 질의응답부의 대화 내용에 따라 감정을 표현하는 감정출력부(400);Emotion output unit 400 for expressing the emotion in accordance with the dialogue content of the question and answer unit;

를 포함한다.
.

상기 센서입력부는 시각센서(110), 청각센서(120), 후각센서(130), 촉각센서(140) 중에 하나 이상의 조합으로 구성된다.
The sensor input unit is composed of one or more combinations of the visual sensor 110, auditory sensor 120, olfactory sensor 130, tactile sensor 140.

상기 센서입력부의 촉각센서는 인형의 외피 밑에 전신에 걸쳐 골고루 배치되어서, 촉각이 느껴지는 위치에 따라 응답 대화를 출력한다.
The tactile sensor of the sensor input unit is arranged evenly over the whole body under the skin of the doll, and outputs a response dialogue according to the position where the tactile sense is felt.

상기 센서인식부는 센서의 종류가 시각센서일 때, 객체인식(물체, 동물, 사람, 얼굴)(210) 후, 객체의 종류를 질의응답부로 전달하여 응답 대화를 출력한다.
When the type of sensor is a visual sensor, the sensor recognition unit outputs a response conversation by transferring the type of object to the question answering unit after object recognition (object, animal, person, face) 210.

상기 센서인식부는 센서의 종류가 청각센서일 때, 사람의 음성인지 소리인지를 구분해서(220), 사람의 음성일 때에는 음성인식 기능에 의해 질문 문장을 질의응답부(300)로 전달하고, 소리일 경우에는 소리인식 기능에 의해 소리인식 종류를 질의응답부로 전달하여 응답대화를 출력한다.
When the type of sensor is an aural sensor, the sensor recognition unit distinguishes whether a person's voice or sound is 220, and when the person's voice transmits a question sentence to the question answering unit 300 by a voice recognition function, In one case, the voice recognition function transmits the voice recognition type to the question answering unit and outputs a response dialogue.

상기 센서인식부는 센서의 종류가 후각센서일 때, 냄새의 종류(가스, 연기, 꽃, 음식)(230)를 질의응답부로 전달하여 응답대화를 출력한다.
When the type of sensor is an olfactory sensor, the sensor recognition unit transmits the type of smell (gas, smoke, flowers, food) 230 to the question answering unit to output a response conversation.

상기 센서인식부는 센서의 종류가 촉각센서일 때, 촉각의 위치정보(240)를 질의응답부로 전달하여 응답대화를 출력한다.
When the type of sensor is a tactile sensor, the sensor recognition unit transmits the location information 240 of the tactile sensor to the question answering unit and outputs a response dialogue.

상기 질의응답부는 객체의 종류, 소리인식 종류, 냄새의 종류, 촉각의 위치정보에 따라 미리 구축된 답변DB에서 답변을 가져와서 응답대화를 출력한다.
The question-and-answer unit outputs an answer conversation by taking an answer from a pre-built answer DB according to the object type, sound recognition type, smell type, and touch location information.

상기 질의응답부는 객체의 종류, 소리인식 종류, 냄새의 종류, 촉각의 위치정보는 대화인형의 상황이나 성격에 따라 미리 구축된 답변DB에서 답변을 가져와서 응답대화를 출력한다.
The question-and-answer unit outputs an answer conversation by taking an answer from a pre-built answer DB according to the type of object, sound recognition type, smell type, and tactile location information according to the situation or nature of the conversation doll.

상기 질의응답부는 질문 문장을 전달 받았을 때, 질문문장으로부터 문장분석과정을 수행하여 정확한 질문 의도를 파악하고, 정확한 답변을 요구하는 질문은 미리 구축된 답변 DB에서 답변을 가져오고, 특정 정보를 요청할 때는 해당 정보를 토대로 답변을 생성한다.
When the question answering unit receives a question sentence, it performs a sentence analysis process from the question sentence to determine the exact question intention, and a question requiring an accurate answer brings an answer from a pre-established answer DB, and requests specific information. Generate an answer based on that information.

상기 질의응답부는 질문문장이 시간, 뉴스, 날씨와 같은 특정 정보를 요청할 때에는 유무선 통신 네트워크를 통해서 해당 정보를 가져와서 답변을 생성한다.
The question answering unit generates an answer when the question sentence requests specific information such as time, news, and weather through the wired / wireless communication network.

상기 감정출력부는 질의응답부의 응답 대화를 감정분석해서 감정내용에 따라 대화인형의 얼굴표정, 동작으로 감정을 표현한다.
The emotion output unit expresses emotions by facial expressions and gestures of the conversation doll according to the emotion contents by analyzing the response dialogues of the question-answering unit.

도 2는 본 발명의 실시예에 따른 센서입력에 반응하는 대화인형의 운용방법을 나타낸 도면이다.
2 is a view showing a method of operating a conversation doll in response to a sensor input according to an embodiment of the present invention.

본 발명의 센서입력에 반응해서 음성으로 질의 응답하는 인형을 운용하는 방법은,The method of operating a doll answering questions by voice in response to the sensor input of the present invention,

센서로부터 신호를 입력 받는 제 1단계(S200);A first step (S200) of receiving a signal from a sensor;

상기 입력된 신호를 감지하고 분석하는 제 2단계(S210); A second step (S210) of detecting and analyzing the input signal;

상기 센서의 종류, 센서데이터, 센서입력 위치에 따라 질의응답을 수행하는 제 3단계(S220); A third step (S220) of performing a query response according to the type of sensor, sensor data, and sensor input position;

상기 질의응답 대화 내용에 따라 감정을 표현하는 제 4단계(S230)를 포함한다.
And a fourth step (S230) of expressing an emotion according to the content of the question and answer conversation.

100 : 센서입력부
110 : 시각센서
120 : 청각센서
130 : 후각센서
140 : 촉각센서
200 : 센서인식부
210 : 객체인식
220 : 음성인식, 소리인식
230 : 냄새인식
240 : 촉각위치인식
300 : 질의응답부
400 : 감정출력부
100: sensor input unit
110: visual sensor
120: hearing sensor
130: olfactory sensor
140: tactile sensor
200: sensor recognition unit
210: object recognition
220: voice recognition, sound recognition
230: smell recognition
240: tactile position recognition
300: question and answer
400: emotion output unit

Claims (24)

센서입력에 반응해서 음성으로 질의 응답하는 인형에 있어서,
센서로부터 신호를 입력하는 센서입력부;
상기 센서입력부에서 전달된 신호를 감지하고 분석하는 센서인식부;
상기 센서의 종류, 센서데이터, 센서입력 위치에 따라 질의응답을 수행하는 질의응답부;
상기 질의응답부의 대화 내용에 따라 감정을 표현하는 감정출력부를 포함하는 것을 특징으로 하는 센서입력에 반응하는 대화인형.
In the doll responding to the voice input in response to the sensor input,
A sensor input unit for inputting a signal from a sensor;
A sensor recognition unit for detecting and analyzing a signal transmitted from the sensor input unit;
A question-and-answer unit that performs a question-and-response according to the type of sensor, sensor data, and sensor input position;
And a dialogue doll responding to the sensor input, the emotion output unit expressing the emotion according to the dialogue contents of the question-answering unit.
제 1항에 있어서,
상기 센서입력부는 시각센서, 청각센서, 후각센서, 촉각센서 중에 하나 이상의 조합으로 구성되는 것을 특징으로 하는 센서입력에 반응하는 대화인형.
The method of claim 1,
The sensor input unit is a conversation doll in response to the sensor input, characterized in that composed of one or more combinations of the visual sensor, auditory sensor, olfactory sensor, tactile sensor.
제 1항에 있어서,
상기 센서입력부의 촉각센서는 인형의 외피 밑에 전신에 걸쳐 골고루 배치되어서, 촉각이 느껴지는 위치에 따라 응답 대화를 출력하는 것을 특징으로 하는 센서입력에 반응하는 대화인형.
The method of claim 1,
The tactile sensor of the sensor input unit is arranged evenly over the whole body under the outer shell of the doll, the dialogue doll in response to the sensor input, characterized in that to output a response dialogue according to the position where the tactile sense is felt.
제 1항에 있어서,
상기 센서인식부는 센서의 종류가 시각센서일 때, 객체인식(물체, 동물, 사람, 얼굴) 후, 객체의 종류를 질의응답부로 전달하여 응답 대화를 출력하는 것을 특징으로 하는 센서입력에 반응하는 대화인형.
The method of claim 1,
The sensor recognition unit, when the type of sensor is a visual sensor, after the object recognition (objects, animals, people, faces), the type of the object to the response to the response to the sensor input, the dialogue response in response to the sensor input, characterized in that for outputting doll.
제 1항에 있어서,
상기 센서인식부는 센서의 종류가 청각센서일 때, 사람의 음성인지 소리인지를 구분해서, 사람의 음성일 때에는 음성인식 기능에 의해 질문 문장을 질의응답부로 전달하고, 소리일 경우에는 소리인식 기능에 의해 소리인식 종류를 질의응답부로 전달하여 응답대화를 출력하는 것을 특징으로 하는 센서입력에 반응하는 대화인형.
The method of claim 1,
The sensor recognition unit distinguishes whether the sensor is a human voice or a sound when the sensor type is an audible sensor, and when a human voice is transmitted, a question sentence is transmitted to the question answering unit by a voice recognition function, and in the case of a sound, the sound recognition function is used. Conversation doll in response to the sensor input, characterized in that for transmitting the voice recognition type to the question and answer unit by outputting a response dialogue.
제 1항에 있어서,
상기 센서인식부는 센서의 종류가 후각센서일 때, 냄새의 종류(가스, 연기, 꽃, 음식)를 질의응답부로 전달하여 응답대화를 출력하는 것을 특징으로 하는 센서입력에 반응하는 대화인형.
The method of claim 1,
The sensor recognition unit is a conversation doll responding to the sensor input, characterized in that when the type of the sensor is an olfactory sensor, the type of smell (gas, smoke, flowers, food) is delivered to the question answering unit to output a response dialogue.
제 1항에 있어서,
상기 센서인식부는 센서의 종류가 촉각센서일 때, 촉각의 위치정보를 질의응답부로 전달하여 응답대화를 출력하는 것을 특징으로 하는 센서입력에 반응하는 대화인형.
The method of claim 1,
The sensor recognition unit is a conversation doll in response to the sensor input, characterized in that when the type of sensor is a tactile sensor, the position information of the tactile sensor is transmitted to the question answering unit to output a response dialogue.
제 1항에 있어서,
상기 질의응답부는 객체의 종류, 소리인식 종류, 냄새의 종류, 촉각의 위치정보에 따라 미리 구축된 답변DB에서 답변을 가져와서 응답대화를 출력하는 것을 특징으로 하는 센서입력에 반응하는 대화인형.
The method of claim 1,
The question answering unit responds to the sensor input, characterized in that the response from the pre-established answer DB according to the type of object, the type of sound recognition, the type of smell, the location of the sense of touch and outputs a response dialogue.
제 1항에 있어서,
상기 질의응답부는 객체의 종류, 소리인식 종류, 냄새의 종류, 촉각의 위치정보는 대화인형의 상황이나 성격에 따라 미리 구축된 답변DB에서 답변을 가져와서 응답대화를 출력하는 것을 특징으로 하는 센서입력에 반응하는 대화인형.
The method of claim 1,
Sensor input, characterized in that the question answering unit outputs a response dialog by taking the answer from the pre-established answer DB according to the type of the object, the sound recognition type, the smell type, the location of the tactile Conversation dolls responding to.
제 1항에 있어서,
상기 질의응답부는 질문 문장을 전달 받았을 때, 질문문장으로부터 문장분석과정을 수행하여 정확한 질문 의도를 파악하고, 정확한 답변을 요구하는 질문은 미리 구축된 답변 DB에서 답변을 가져오고, 특정 정보를 요청할 때는 해당 정보를 토대로 답변을 생성하는 것을 특징으로 센서입력에 반응하는 대화인형.
The method of claim 1,
When the question answering unit receives a question sentence, it performs a sentence analysis process from the question sentence to determine the exact question intention, and a question requiring an accurate answer brings an answer from a pre-established answer DB, and requests specific information. A conversation doll that responds to sensor inputs by generating an answer based on the corresponding information.
제 1항에 있어서,
상기 질의응답부는 질문문장이 시간, 뉴스, 날씨와 같은 특정 정보를 요청할 때에는 유무선 통신 네트워크를 통해서 해당 정보를 가져와서 답변을 생성하는 것을 특징으로 하는 센서입력에 반응하는 대화인형.
The method of claim 1,
The question-and-answer unit responds to a sensor input, wherein the question sentence generates specific answers by obtaining the corresponding information through a wired / wireless communication network when requesting specific information such as time, news, and weather.
제 1항에 있어서,
상기 감정출력부는 질의응답부의 응답 대화를 감정분석해서 감정내용에 따라 대화인형의 얼굴표정, 동작으로 감정을 표현하는 것을 특징으로 하는 센서입력에 반응하는 대화인형.
The method of claim 1,
The emotion output unit is a conversation doll in response to the sensor input, characterized in that the emotional response analysis of the response to the question-and-answer section to express the emotion by facial expressions, actions of the conversation doll according to the emotion content.
센서입력에 반응해서 음성으로 질의 응답하는 인형을 운용하는 방법에 있어서,
센서로부터 신호를 입력 받는 제 1단계;
상기 입력된 신호를 감지하고 분석하는 제 2단계;
상기 센서의 종류, 센서데이터, 센서입력 위치에 따라 질의응답을 수행하는 제 3단계;
상기 질의응답 대화 내용에 따라 감정을 표현하는 제 4단계를 포함하는 것을 특징으로 하는 센서입력에 반응하는 대화인형 운용 방법.
In the method of operating a doll that questions and answers in response to the sensor input,
A first step of receiving a signal from a sensor;
A second step of sensing and analyzing the input signal;
Performing a query response according to the type of sensor, sensor data, and sensor input position;
And a fourth step of expressing an emotion according to the content of the question and answer conversation.
제 13항에 있어서,
상기 제1단계는 시각센서, 청각센서, 후각센서, 촉각센서 중에 하나 이상의 조합으로 구성되는 것을 특징으로 하는 센서입력에 반응하는 대화인형 운용 방법.
The method of claim 13,
The first step is a conversation doll operation method in response to the sensor input, characterized in that composed of one or more of the visual sensor, auditory sensor, olfactory sensor, tactile sensor.
제 13항에 있어서,
상기 제 1단계의 촉각센서는 인형의 외피 밑에 전신에 걸쳐 골고루 배치되어서, 촉각이 느껴지는 위치에 따라 응답 대화를 출력하는 것을 특징으로 하는 센서입력에 반응하는 대화인형 운용 방법.
The method of claim 13,
The tactile sensor of the first step is arranged evenly over the whole body under the skin of the doll, and outputs a response dialogue according to the position where the tactile sense is felt, the conversation doll operation method in response to the sensor input.
제 13항에 있어서,
상기 제2단계는 센서의 종류가 시각센서일 때, 객체인식(물체, 동물, 사람, 얼굴) 후, 객체의 종류를 질의응답부로 전달하여 응답 대화를 출력하는 것을 특징으로 하는 센서입력에 반응하는 대화인형 운용 방법.
The method of claim 13,
In the second step, when the type of the sensor is a visual sensor, after the object recognition (object, animal, person, face), the type of the object is transmitted to the question answering unit to respond to the sensor input. How to use the conversation doll.
제 13항에 있어서,
상기 제2단계는 센서의 종류가 청각센서일 때, 사람의 음성인지 소리인지를 구분해서, 사람의 음성일 때에는 음성인식 기능에 의해 질문 문장을 질의응답부로 전달하고, 소리일 경우에는 소리인식 기능에 의해 소리인식 종류를 질의응답부로 전달하여 응답대화를 출력하는 것을 특징으로 하는 센서입력에 반응하는 대화인형 운용 방법.
The method of claim 13,
In the second step, when the type of sensor is an auditory sensor, the voice is classified as a human voice or a sound, and when the voice is a human voice, a question sentence is transmitted to the question answering unit by a voice recognition function. And responding to the sensor inputs by transmitting a voice recognition type to the question answering unit.
제 13항에 있어서,
상기 제2단계는 센서의 종류가 후각센서일 때, 냄새의 종류(가스, 연기, 꽃, 음식)를 질의응답부로 전달하여 응답대화를 출력하는 것을 특징으로 하는 센서입력에 반응하는 대화인형 운용 방법.
The method of claim 13,
In the second step, when the type of sensor is an olfactory sensor, a conversation doll operating method responsive to sensor inputs is outputted by transmitting a kind of smell (gas, smoke, flowers, food) to the question answering unit. .
제 13항에 있어서,
상기 제2단계는 센서의 종류가 촉각센서일 때, 촉각의 위치정보를 제 3단계로 전달하여 응답대화를 출력하는 것을 특징으로 하는 센서입력에 반응하는 대화인형 운용 방법.
The method of claim 13,
In the second step, when the type of the sensor is a tactile sensor, the conversation doll operating method in response to the sensor input, outputting a response dialogue by transmitting the position information of the tactile sensor to the third stage.
제 13항에 있어서,
상기 제3단계는 객체의 종류, 소리인식 종류, 냄새의 종류, 촉각의 위치정보에 따라 미리 구축된 답변DB에서 답변을 가져와서 응답대화를 출력하는 것을 특징으로 하는 센서입력에 반응하는 대화인형 운용 방법.
The method of claim 13,
The third step is a conversation doll operation in response to a sensor input, which outputs a response dialogue by taking an answer from a pre-built answer DB according to an object type, a sound recognition type, a smell type, and tactile location information. Way.
제 13항에 있어서,
상기 제3단계는 객체의 종류, 소리인식 종류, 냄새의 종류, 촉각의 위치정보는 대화인형의 상황이나 성격에 따라 미리 구축된 답변DB에서 답변을 가져와서 응답대화를 출력하는 것을 특징으로 하는 센서입력에 반응하는 대화인형 운용 방법.
The method of claim 13,
The third step is a sensor, characterized in that the type of the object, the type of sound recognition, the type of smell, the location information of the tactile position by taking the answer from the pre-established answer DB according to the situation or nature of the conversation doll How to operate a conversation doll in response to input.
제 13항에 있어서,
상기 제3단계는 질문 문장을 전달 받았을 때, 질문문장으로부터 문장분석과정을 수행하여 정확한 질문 의도를 파악하고, 정확한 답변을 요구하는 질문은 미리 구축된 답변 DB에서 답변을 가져오고, 특정 정보를 요청할 때는 해당 정보를 토대로 답변을 생성하는 것을 특징으로 센서입력에 반응하는 대화인형 운용 방법.
The method of claim 13,
In the third step, when the question sentence is received, the sentence sentence analysis is performed from the question sentence to determine the exact question intention, and the question requiring the correct answer brings the answer from the pre-established answer DB, and requests specific information. When the response to the sensor input characterized in that for generating an answer based on the corresponding information.
제 13항에 있어서,
상기 제3단계는 질문문장이 시간, 뉴스, 날씨와 같은 특정 정보를 요청할 때에는 유무선 통신 네트워크를 통해서 해당 정보를 가져와서 답변을 생성하는 것을 특징으로 하는 센서입력에 반응하는 대화인형 운용 방법.
The method of claim 13,
In the third step, when the question sentence requests specific information such as time, news, and weather, the conversation doll operating method responsive to sensor inputs may be generated by obtaining corresponding information through a wired / wireless communication network.
제 13항에 있어서,
상기 제4단계는 질의응답부의 응답 대화를 감정분석해서 감정내용에 따라 대화인형의 얼굴표정, 동작으로 감정을 표현하는 것을 특징으로 하는 센서입력에 반응하는 대화인형 운용 방법.

The method of claim 13,
The fourth step is a conversation doll operation method in response to the sensor input, characterized in that the emotional response analysis of the response to the question-and-answer section to express the emotions by facial expressions, actions of the conversation doll.

KR1020120062921A 2012-06-12 2012-06-12 Dialog-doll reacting to a sensor input and its application method thereof KR20130139137A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020120062921A KR20130139137A (en) 2012-06-12 2012-06-12 Dialog-doll reacting to a sensor input and its application method thereof

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020120062921A KR20130139137A (en) 2012-06-12 2012-06-12 Dialog-doll reacting to a sensor input and its application method thereof

Publications (1)

Publication Number Publication Date
KR20130139137A true KR20130139137A (en) 2013-12-20

Family

ID=49984543

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020120062921A KR20130139137A (en) 2012-06-12 2012-06-12 Dialog-doll reacting to a sensor input and its application method thereof

Country Status (1)

Country Link
KR (1) KR20130139137A (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20170013015A (en) 2015-07-27 2017-02-06 주식회사 프론트유 An emotion communication system by using smart toys
CN110152314A (en) * 2018-02-13 2019-08-23 卡西欧计算机株式会社 Session output system, session export server, session output method and storage medium
KR102414878B1 (en) 2021-11-17 2022-07-01 주식회사 마링 Customer-tailored mental care system and method using toys and communication terminals

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20170013015A (en) 2015-07-27 2017-02-06 주식회사 프론트유 An emotion communication system by using smart toys
CN110152314A (en) * 2018-02-13 2019-08-23 卡西欧计算机株式会社 Session output system, session export server, session output method and storage medium
KR102414878B1 (en) 2021-11-17 2022-07-01 주식회사 마링 Customer-tailored mental care system and method using toys and communication terminals

Similar Documents

Publication Publication Date Title
US11241789B2 (en) Data processing method for care-giving robot and apparatus
CN105807933B (en) A kind of man-machine interaction method and device for intelligent robot
KR101336641B1 (en) Emotional Sympathy Robot Service System and Method of the Same
KR20170087416A (en) Voice affect modification
JP6719741B2 (en) Dialogue method, dialogue device, and program
CN103116576A (en) Voice and gesture interactive translation device and control method thereof
JP2010094799A (en) Humanoid robot
JP6699010B2 (en) Dialogue method, dialogue system, dialogue device, and program
KR20060096520A (en) Information processing system, information processing method, and information processing program
WO2018163645A1 (en) Dialogue method, dialogue system, dialogue device, and program
Tan et al. iSocioBot: a multimodal interactive social robot
JP2013086226A (en) Communication robot
KR20200143764A (en) Emotional Sympathy Service System and Method of the Same
CN203149569U (en) Voice and gesture interactive translation device
JP2016087402A (en) User-interaction toy and interaction method of the toy
KR101504699B1 (en) Phonetic conversation method and device using wired and wiress communication
JP2017208003A (en) Dialogue method, dialogue system, dialogue device, and program
CN116188642A (en) Interaction method, device, robot and storage medium
KR20130139137A (en) Dialog-doll reacting to a sensor input and its application method thereof
JP7120060B2 (en) VOICE DIALOGUE DEVICE, CONTROL DEVICE AND CONTROL PROGRAM FOR VOICE DIALOGUE DEVICE
CN110197103B (en) Method, device, equipment and storage medium for human-animal interaction
JP6783469B2 (en) Response interface and dialogue training system
KR102063389B1 (en) Character display device based the artificial intelligent and the display method thereof
JP6647636B2 (en) Dialogue method, dialogue system, dialogue device, and program
KR20230066821A (en) Personal chatbot system based on Artificial Intelligence

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
AMND Amendment