KR100911725B1 - A language purifier robot - Google Patents

A language purifier robot Download PDF

Info

Publication number
KR100911725B1
KR100911725B1 KR1020070080217A KR20070080217A KR100911725B1 KR 100911725 B1 KR100911725 B1 KR 100911725B1 KR 1020070080217 A KR1020070080217 A KR 1020070080217A KR 20070080217 A KR20070080217 A KR 20070080217A KR 100911725 B1 KR100911725 B1 KR 100911725B1
Authority
KR
South Korea
Prior art keywords
slang
signal
interaction
language
sound
Prior art date
Application number
KR1020070080217A
Other languages
Korean (ko)
Other versions
KR20090015678A (en
Inventor
김명석
곽소나
김은호
김지명
곽윤근
Original Assignee
한국과학기술원
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 한국과학기술원 filed Critical 한국과학기술원
Priority to KR1020070080217A priority Critical patent/KR100911725B1/en
Publication of KR20090015678A publication Critical patent/KR20090015678A/en
Application granted granted Critical
Publication of KR100911725B1 publication Critical patent/KR100911725B1/en

Links

Images

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/08Speech classification or search
    • G10L15/18Speech classification or search using natural language modelling
    • G10L15/1815Semantic context, e.g. disambiguation of the recognition hypotheses based on word meaning
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/48Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use
    • G10L25/51Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination

Landscapes

  • Engineering & Computer Science (AREA)
  • Computational Linguistics (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • Acoustics & Sound (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Artificial Intelligence (AREA)
  • Toys (AREA)

Abstract

본 발명에 따른 언어청정로봇은, 음성 인식기에 의해 인식되어진 음성을 비속어 테이블과 비교하여 "테이블 비속어 신호"와 "테이블 비속어 아님 신호"로 구분하여 출력하는 비속어 테이블기; "테이블 비속어 아님 신호"를 입력받아 음성 내의 장애음의 비율이 소정치 이상이면 "장애음 비속어 신호"를 출력하고 그 미만이면 "장애음 비속어 아님 신호"를 출력하는 장애음 비속어 검출기; "장애음 비속어 신호", "장애음 비속어 아님 신호", 및 "테이블 비속어 신호"를 입력받아 "장애음 비속어 신호" 및 "테이블 비속어 신호"의 입력횟수가 누적됨에 따라 강한 인터렉션 신호를 출력하고, "장애음 비속어 아님 신호"가 누적됨에 따라 약한 인터렉션 신호를 출력하는 인터렉션부; 및 인터렉션 신호의 강도에 따른 감성을 사용자에게 시각, 청각, 또는 촉각적으로 알려주는 출력부;를 구비한다. 본 발명에 의하면, 언어를 습득하는 시기에 비속어를 무분별하게 습관적으로 사용하는 아동들에게 로봇과 인터렉션을 통하여, 로봇의 부정적(멍) 또는 긍적적인 반응을 통하여 아동들의 비속어 사용이 사람에게 상처를 주는 말인지를 인지하게 함으로써 비속어 사용을 줄이게 할 수 있다. 기타 사용자의 언어순화에도 도움을 준다. According to an aspect of the present invention, there is provided a speech cleaning robot comprising: a slang table device for comparing a speech recognized by a speech recognizer to a "slang table signal" and a "not a table slang signal" in comparison with a slang table; A barrier sound slang detector which receives a "not a table slang signal" and outputs a "block noise slang signal" if the ratio of the barrier sounds in the voice is greater than or equal to a predetermined value, and outputs a signal that is not a barrier sound slang word; A strong interaction signal is output as the number of inputs of the "spoken slang signal" and the "table slang signal" is accumulated by receiving the "spoken slang signal", "not the slang signal", and "table slang signal", An interaction unit configured to output a weak interaction signal as the "no sound impairment signal" accumulates; And an output unit that informs the user visually, auditoryly, or tactilely of the sensitivity according to the intensity of the interaction signal. According to the present invention, children's use of slang hurts humans through interaction with the robot through the interaction with the robot to children who indiscriminately use the slang language at the time of language acquisition. You can reduce the use of slang by making you aware of what it is. It also helps other users with their language.

언어청정로봇, 인터렉션, 장애음, 비속어 테이블, 멍 Language Cleaning Robot, Interaction, Disability Sounds, Slang Table, Bruise

Description

언어청정로봇 {A language purifier robot}A language purifier robot}

도 1 내지 도 3은 본 발명에 따른 언어청정로봇의 외형을 설명하기 위한 도면들;1 to 3 are views for explaining the appearance of the language-cleaning robot according to the present invention;

도 4는 본 발명에 따른 언어청정로봇의 전체적인 블록도;4 is an overall block diagram of a language cleaning robot according to the present invention;

도 5는 도 4의 인식부(100)를 설명하기 위한 블록도;FIG. 5 is a block diagram illustrating the recognition unit 100 of FIG. 4.

도 6은 도 4의 인터렉션부(200)를 설명하기 위한 블록도;FIG. 6 is a block diagram illustrating the interaction unit 200 of FIG. 4.

도 7은 도 4의 출력부(300)를 설명하기 위한 블록도이다. FIG. 7 is a block diagram illustrating the output unit 300 of FIG. 4.

<도면의 주요부분에 대한 참조번호의 설명><Description of reference numbers for the main parts of the drawings>

100: 인식부 101: 음성인식기100: recognition unit 101: speech recognizer

102: 비속어 테이블기 103: 장애음 비속어 검출기102: slang table machine 103: slang slang detector

200: 인터렉션부 201: 빈도, 확률저장기200: interaction unit 201: frequency, probability storage

202: 1자유도 감쇠 진동 모델기202: 1 degree of freedom damped vibration model

203: 장애음 비속어 저장수단203: means for storing the swear words

300: 출력부 301: LED300: output unit 301: LED

302: 진동모터 303: 스피커 302: vibration motor 303: speaker

본 발명은 언어청정로봇에 관한 것으로서, 특히 "맞으면 멍이 든다." 라는 인터랙션 컨셉으로 비속어나 욕 등의 부적절한 언어에 대해 감성적으로 상처를 받아 멍이 드는 언어청정로봇에 관한 것이다.FIELD OF THE INVENTION The present invention relates to language clean robots, in particular "bruise if correct." It is about a language-cleaning robot that is bruised emotionally by inappropriate language such as slang or swearing with an interaction concept.

언어청정로봇은 사용자의 언어를 순화시키기 위한 것으로, 특히 부적절한 언어를 습관적으로 습득하고 사용하게 되는 아동들을 위해서 초등학교 또는 가정이나, 언쟁이 높아지는 국회 등의 토론 장소, 바른말 사용과 관련된 오락 프로그램 등에 사용될 수 있다. Linguistic clean robots are used to purify the user's language, especially for children who are habitually acquiring and using inappropriate language. Can be.

언어청정로봇에는 비속어 인식기술이 핵심적으로 포함되어야 하는데, 종래의 비속어 인식기술은 음성인식을 통하여 미리 저장된 비속어 테이블과 비교를 통하여 비속어 검출을 수행하였다. 그러나 이러한 종래의 방법은 모든 비속어를 미리 비속어 테이블에 저장해야 하는 문제점을 가지고 있으며 비속어 테이블에 저장되지 않은 비속어는 인식하지 못하는 한계점을 가지고 있다. The slang recognition technology must be included in the language clean robot, but the conventional slang recognition technology performs slang detection through comparison with a slang table stored in advance through speech recognition. However, this conventional method has a problem in that all the slang words must be stored in the slang table in advance, and the slang words which are not stored in the slang table have a limitation of not being recognized.

사람들은 물리적으로 맞아서 육체적인 멍이 들기도 하지만, 말에 의해 정신적인 멍이 드는 경우가 많다. 기존에 로봇의 감정 표현에 관련된 다양한 연구들이 있었으나 이들은 대부분 LED를 통한 로봇의 얼굴 표정이나 눈, 눈썹, 입 모양 등의 움직임을 통한 로봇의 얼굴 표정, 로봇의 음성 등이 주를 이룬다. People are physically bruised and physically bruised, but are often mentally bruised by words. There have been various studies related to the emotional expression of robots, but most of them are mainly related to facial expressions of robots through LEDs, facial expressions of robots through movement of eyes, eyebrows, and mouth shapes, and voices of robots.

일본의 유명한 로봇 공학자인 마사히로 모리가 1970년에 발표한 그의 논문에 서 소개한 "불쾌한 골짜기(Uncanny Valley)"를 통해 알 수 있듯이, 기존의 사람의 얼굴 표정이나 음성을 모방한 로봇의 감정 표현은 사용자들의 기대치를 높이게 되고, 이에 따라 로봇이 제공하는 인터랙션이 기대치에 도달하지 못할 때에는 사용자들의 로봇에 대한 만족도가 저하될 수 있다.As we can see from the Uncanny Valley, introduced in his thesis published in 1970 by famous Japanese robot engineer Masahiro Mori, the robot's emotional expression that mimics the facial expressions and voices of existing humans The expectations of the users are increased, and when the interactions provided by the robots do not reach the expectations, the satisfaction of the robots may be lowered.

칸다(T. Kanda)의 연구에서는 로봇이 먼저 사람에게 말을 걸어 인터랙션이 시작되는 활동적인(active) 로봇의 인터랙션보다, 사람이 먼저 로봇에게 말을 걸어 인터랙션이 시작되는 즉 수동적인(passive) 로봇의 인터랙션이 선호됨이 밝혀졌다. In T. Kanda's research, a passive robot, in which a person talks to a robot first and interacts with it, begins, rather than an interaction of an active robot, where a robot first talks to a person and begins to interact. It is found that the interaction of is preferred.

따라서 본 발명이 이루고자 하는 기술적 과제는, 비속어 테이블에 저장되어 있지 않은 비속어도 검출가능하여 비속어 테이블을 업데이트 시킬 수 있으며, 비속어에 대하여 얼굴 표정을 통한 적극적인 감정 표현이 아닌, 로봇의 피부에 멍이 드는 수동적인 감정 표현을 통해 사용자에게 보다 신선하고 감성적으로 호소할 수 있는 언어청정로봇을 제공하는 데 있다. Therefore, the technical problem of the present invention is to detect slang words that are not stored in the slang table so that the slang table can be updated. It is to provide a language-cleaning robot that can appeal to users more freshly and emotionally through passive emotional expression.

상기 기술적 과제를 달성하기 위한 본 발명에 따른 언어청정로봇은, 사용자의 음성을 인식하는 음성인식기; 상기 음성 인식기에 의해 인식되어진 음성을 비속어 테이블과 비교하여 "테이블 비속어 신호"와 "테이블 비속어 아님 신호"로 구분하여 출력하는 비속어 테이블기; 상기 "테이블 비속어 아님 신호"를 입력받아 상기 음성 내의 장애음의 비율이 소정치 이상이면 "장애음 비속어 신호"를 출력하고 그 미만이면 "장애음 비속어 아님 신호"를 출력하는 장애음 비속어 검출기; 상기 "장애음 비속어 신호", "장애음 비속어 아님 신호", 및 "테이블 비속어 신호"를 입력받아 상기 "장애음 비속어 신호" 및 "테이블 비속어 신호"의 입력횟수가 누적됨에 따라 강한 인터렉션 신호를 출력하고, 상기 "장애음 비속어 아님 신호"가 누적됨에 따라 약한 인터렉션 신호를 출력하는 인터렉션부; 및 상기 인터렉션 신호의 강도에 따른 감성을 사용자에게 시각, 청각, 또는 촉각적으로 알려주는 출력부;를 구비하는 것을 특징으로 한다. According to an aspect of the present invention, there is provided a language cleaning robot, including: a voice recognizer for recognizing a user voice; A slang table that compares the speech recognized by the speech recognizer with a slang table and outputs a " table slang word " and a " not a table slang word " A barrier sound slang detector which receives the "not a table slang signal" and outputs a "block noise slang signal" if the ratio of the barrier sounds in the voice is equal to or greater than a predetermined value and outputs a signal that is not a barrier sound slang word; A strong interaction signal is output as the number of inputs of the "sound impaired slang signal" and the "table slang signal" is accumulated by receiving the "fault sound slang signal", "not a sound impaired signal", and a "table slang signal". And an interaction unit configured to output a weak interaction signal as the "no sound impairment signal" is accumulated; And an output unit configured to visually, auditoryly, or tactilely notify the user of the sensitivity according to the intensity of the interaction signal.

상기 출력부는 상기 인터렉션 신호의 강도가 강할수록 부정적인 감성신호를 출력하는 것이 바람직하다. The output unit preferably outputs a negative emotional signal as the intensity of the interaction signal increases.

본 발명에 있어서, 상기 인터렉션부는 상기 "장애음 비속어 신호", "장애음 비속어 아님 신호", 및 "테이블 비속어 신호"의 빈도와 확률값을 파라미터로하여 1자유도 감쇠진동모델에 의해 모델링된 시간에 따른 인터렉션 신호를 출력하는 것을 특징으로 한다. In the present invention, the interaction unit uses the frequency and probability values of the "disabled slang words", "not a slang words" signal, and a "table slang signal" as parameters, at a time modeled by a single degree of freedom attenuation vibration model. It is characterized in that for outputting the interaction signal according to.

상기 출력부는 LED를 포함하여 이루어질 수 있으며, 이 경우 상기 LED는 상기 인터렉션 신호의 강도에 따라 빛의 색깔 및 밝기를 통하여 다양한 느낌의 멍, 혈색, 또는 눈빛을 표현하도록 설치된다. The output unit may include an LED. In this case, the LED may be installed to express a variety of bruises, colors, or eyes through the color and brightness of the light according to the intensity of the interaction signal.

상기 출력부가 진동모터와 스피커를 포함하여 이루어질 수 있으며, 이 경우 상기 진동모터와 상기 스피커는 상기 인터렉션 신호의 강도에 따라 다양한 진동과 소리를 출력하여 로봇의 감정상태를 표현한다. The output unit may include a vibration motor and a speaker. In this case, the vibration motor and the speaker output various vibrations and sounds according to the intensity of the interaction signal to express the emotional state of the robot.

상기 인터렉션부는 상기 장애음 비속어 신호에 해당하는 음성을 저장하였다가 이를 주기적으로 상기 비속어 테이블기의 비속어 테이블에 업로드하는 것이 바람직하다. Preferably, the interaction unit stores a voice corresponding to the impaired slang signal and uploads it to a slang table of the slang table.

이하에서, 본 발명의 바람직한 실시예를 첨부한 도면들을 참조하여 상세히 설명한다. 종래기술과의 반복적인 설명을 피하기 위하여 본 발명의 특징부만 도시한다. 아래의 실시예는 본 발명의 내용을 이해하기 위해 제시된 것일 뿐이며 당 분야에서 통상의 지식을 가진 자라면 본 발명의 기술적 사상 내에서 많은 변형이 가능할 것이다. 따라서, 본 발명의 권리범위가 이러한 실시예에 한정되는 것으로 해석돼서는 안 된다. Hereinafter, with reference to the accompanying drawings, preferred embodiments of the present invention will be described in detail. Only features of the invention are shown in order to avoid repeated description with the prior art. The following examples are only presented to understand the content of the present invention, and those skilled in the art will be capable of many modifications within the technical spirit of the present invention. Therefore, the scope of the present invention should not be construed as being limited to these examples.

도 1은 본 발명에 따른 언어청정로봇의 외형을 설명하기 위한 도면이다. 도 1에 도시된 바와 같이, 왼쪽부터 찐빵 로봇, 도자기 로봇, 계란 로봇 형태 등 다양한 형태가 있을 수 있다. '멍이 든다, 상처를 입는다.' 라는 수동적인 로봇의 특성을 부각시키기 위해 몸과 눈으로만 구성된 심플한 외형이 바람직하며, 재질도 반투명 재질과 금속 재질을 사용하였다. 1 is a view for explaining the appearance of the language-cleaning robot according to the present invention. As shown in Figure 1, from the left can be a variety of forms, such as steamed bun robot, porcelain robot, egg robot. 'You bruise, you get hurt.' In order to highlight the characteristics of the passive robot, a simple appearance consisting of body and eyes is desirable, and the material is translucent and metal.

본 발명에 따른 언어청정로봇은, 크게 멍이 들거나 혈색이 도는 인터랙션을 표현하는 몸통 부분과 언어 인지를 표현하는 눈 부분으로 구성된다. 몸통 부분은 비속어인지 일반 언어인지를 구분하는 비속어 인식 장치를 포함하며, 컬러 LED와 진동모듈을 통해 멍(도2)과 혈색(도3) 등을 표현한다. 눈 부분은 언어를 인식할 때 마다 컬러 LED를 통한 눈 깜박임을 통해 사용자에게 비속어를 인식하고 있는 중임을 알려준다. The language-cleaning robot according to the present invention is composed of a body part expressing a bruised or bloody interaction and an eye part expressing language perception. The body part includes a slang recognition device that distinguishes between slang and general language, and expresses a bruise (FIG. 2) and a color (FIG. 3) through color LEDs and a vibration module. The eye part tells the user that he is aware of the slang language by blinking an eye through the color LEDs whenever the language is recognized.

도 4는 본 발명에 따른 언어청정로봇의 전체적인 블록도이다. 도 4에 도시된 바와 같이 크게 인식부(100), 인터렉션부(200), 및 출력부(300)를 포함한다. 4 is an overall block diagram of a language cleaning robot according to the present invention. As shown in FIG. 4, the recognition unit 100 includes a recognition unit 100, an interaction unit 200, and an output unit 300.

도 5는 도 4의 인식부(100)를 설명하기 위한 도면이다. 인식부(100)는 음성인식기(101), 비속어 테이블기(102), 및 장애음 비속어 검출기(103)를 포함한다. 사용자의 음성은 음성인식기(101)를 통하여 인식된다. 비속어 테이블기(102)에서는 음성인식기(101)에 의해 인식되는 음성을 비속어 테이블과 비교하여 비속어 테이블에 있는 비속어에 해당되면 "테이블 비속어 신호"를 인터렉션부(200)로 출력하고, 비속어 테이블에 있는 비속어에 해당되지 않으면 "테이블 비속어 아님 신호"를 장애음 비속어 검출기(103)로 출력한다. FIG. 5 is a diagram for describing the recognizer 100 of FIG. 4. The recognition unit 100 includes a voice recognizer 101, a slang table 102, and a disability sound slang detector 103. The voice of the user is recognized through the voice recognizer 101. The slang table 102 compares the voice recognized by the speech recognizer 101 with the slang table and outputs a "table slang signal" to the interaction unit 200 if it corresponds to the slang word in the slang table. If it does not correspond to a slang word, a "not a table slang word" signal is output to the scam slang detector 103.

"테이블 비속어 아님 신호"를 입력받은 장애음 비속어 검출기(103)는 사용자의 음성 속에 포함된 장애음(Obstruents)을 스펙트럴 센터(Spectral Center)를 이용하여 검출함으로서 음성에 포함된 장애음의 비율을 통하여 비속어를 검출한다. 즉, 장애음의 비율이 소정치 이상이면 "장애음 비속어 신호"를 인터렉션부(200)로 출력하고 그 미만이면 "장애음 비속어 아님 신호"를 인터렉션부(200)로 출력한다. The disability sound slang detector 103 that receives the "not a table slang signal" detects the obstructions included in the user's voice by using a spectral center to detect the ratio of the disability sound included in the voice. Detect slang through That is, if the ratio of the barrier sounds is greater than or equal to the predetermined value, the "speech noise slang signal" is output to the interaction unit 200, and if the ratio of the barrier sounds is less than that, the signal "not a barrier sound slang word" is output to the interaction unit 200.

도 6은 도 4의 인터렉션부(200)를 설명하기 위한 블록도이다. 도 6에 도시된 바와 같이 인터렉션부(200)에서는 비속어 테이블기(102)에서 출력되는 "테이블 비속어 신호"와 장애음 비속어 검출기(103)에서 출력되는 "장애음 비속어 신호"및 "장애음 비속어 아님 신호"를 입력받아 이들의 빈도와 확률값(201)을 저장하고, 이 를 파라미터로하여 1자유도 감쇠진동모델기(202)에 의해 모델링된 인터렉션 신호를 출력부(300)로 출력한다. FIG. 6 is a block diagram illustrating the interaction unit 200 of FIG. 4. As illustrated in FIG. 6, in the interaction unit 200, the "table slang signal" output from the slang table 102 and the "speech slang signal" and the "not slang" slang output from the sneak slang detector 103 are not. Signal, and store their frequency and probability value 201, and output the interaction signal modeled by the 1 degree of freedom attenuation vibration model 202 to the output unit 300.

1자유도 감쇠 진동 모델은 질량(Mass), 스프링(Spring), 댐퍼 시스템(Damper System)의 과감쇠 케이스(Over-damping case)의 모델로 출력신호의 시간에 따른 감쇠를 적절히 모델링 할 수 있다. 1자유도 감쇠 진동 모델의 파라미터는 빈도와 확률값에 따라 정해지게 된다. The 1 degree of freedom damping vibration model is an over-damping case model of mass, spring, and damper system, and can appropriately model attenuation over time of an output signal. The parameters of the 1 DOF vibration model are determined according to the frequency and the probability value.

따라서 인터렉션부(200)에서는 비속어의 인지횟수가 누적됨에 따라 강한 인터렉션 신호를 출력하고, 정상적인 언어의 인지횟수가 누적됨에 따라 약한 인터렉션 신호를 출력한다. 이렇게 "장애음 비속어 및 테이블 비속어"와 "정상적인 언어"의 입력에 의해 출력되는 인터렉션 신호의 시간에 따른 강약은 "장애음 비속어 신호", "장애음 비속어 아님 신호", 및 "테이블 비속어 신호"의 빈도와 확률값에 따라 변하게 된다. Therefore, the interaction unit 200 outputs a strong interaction signal as the number of recognition of the slang words is accumulated, and outputs a weak interaction signal as the number of recognition of the normal language is accumulated. Thus, the time-dependent strength and weakness of the interaction signal output by the inputs of the "spoken slang and the table slang" and the "normal language" are the "speech slang", "not the slang" and "table slang" signals It will change according to the frequency and probability value.

인터렉션부(200)는 장애음 비속어 검출기(103)에 의해 "장애음 비속어"로 판단된 음성을 장애음 비속어 저장수단(203)에 저장하였다가 주기적으로 비속어 테이블기(102)의 비속어 테이블에 업로드하여 비속어 테이블기(102)를 업데이트 시킨다. The interaction unit 200 stores the voice, which is determined by the obstacle sound slang detector 103, in the sound impaired slang storage means 203, and periodically uploads the sound to the slang table of the slang table machine 102. To update the slang table machine 102.

도 7은 도 4의 출력부(300)를 설명하기 위한 블록도이다. 출력부(300)는 인터렉션부(200)에서 출력되는 인터렉션 신호의 강도에 따른 감정상태를 LED(301), 진동모터(302), 스피커(303)를 통하여 사용자에게 시각, 촉각, 또는 청각을 통하여 감성적으로 알려준다. 출력부(300)는 상기 인터렉션 신호의 강도가 강할수록 예컨 대 멍의 부위가 커지거나 멍의 색깔이 짙어지는 등의 부정적인 감성신호를 출력한다. FIG. 7 is a block diagram illustrating the output unit 300 of FIG. 4. The output unit 300 displays the emotional state according to the intensity of the interaction signal output from the interaction unit 200 through the LED 301, the vibration motor 302, and the speaker 303 through visual, tactile, or hearing to the user. Emotionally informs. As the intensity of the interaction signal increases, the output unit 300 outputs a negative emotional signal such as a large portion of the bruise or a darker bruise.

LED(301)는 3색을 이용하여 다양한 종류의 멍, 혈색, 눈빛 등을 표현하며, 인터렉션 신호의 강도에 따라 빛의 종류 및 밝기를 통하여 다양한 느낌의 멍, 혈색, 또는 눈빛을 표현하도록 설치된다. 진동모터(302)와 스피커(303)는 인터렉션 신호의 강도에 따라 다양한 진동과 소리를 출력하여 로봇의 감정상태를 표현함으로써 사용자에게 긍정적 또는 부정적인 피드백을 제공한다. The LED 301 expresses various kinds of bruises, colors, eyes, etc. by using three colors, and is installed to express various feelings of bruises, colors, or eyes through kinds and brightness of light according to the intensity of the interaction signal. . The vibration motor 302 and the speaker 303 output various vibrations and sounds according to the intensity of the interaction signal to express the emotional state of the robot to provide positive or negative feedback to the user.

언어를 습득하는 시기의 아동들은 비속어가 나쁜 것인지, 사람에게 상처를 주는 것인지를 인지하지 못하고 습관적으로 비속어를 사용하게 되는데, 본 발명에 의하면, 이러한 아동들에게 로봇과 인터렉션을 통하여, 로봇의 부정적(멍) 또는 긍적적인 반응을 통하여 아동들의 비속어 사용이 사람에게 상처를 주는 말인지를 인지하게 함으로써 비속어 사용을 줄이게 할 수 있다. 기타 사용자의 언어순화에도 도움을 준다. Children at the time of language acquisition do not know whether slang is bad or hurt people, and use habitually slang words according to the present invention. Bruises or positive reactions can be used to reduce the use of slang words by making children aware that slang words are hurting people. It also helps other users with their language.

Claims (6)

사용자의 음성을 인식하는 음성인식기;A voice recognizer for recognizing a user's voice; 상기 음성 인식기에 의해 인식되어진 음성을 비속어 테이블과 비교하여 "테이블 비속어 신호"와 "테이블 비속어 아님 신호"로 구분하여 출력하는 비속어 테이블기;A slang table that compares the speech recognized by the speech recognizer with a slang table and outputs a " table slang word " and a " not a table slang word " 상기 "테이블 비속어 아님 신호"를 입력받아 상기 음성내의 장애음의 비율이 소정치 이상이면 "장애음 비속어 신호"를 출력하고 그 미만이면 "장애음 비속어 아님 신호"를 출력하는 장애음 비속어 검출기;A barrier sound slang detector that receives the "not a table slang signal" and outputs a "block noise slang signal" if the ratio of the barrier sounds in the voice is greater than or equal to a predetermined value and outputs a signal that is not a barrier sound slang word; 상기 "장애음 비속어 신호", "장애음 비속어 아님 신호", 및 "테이블 비속어 신호"를 입력받아 상기 "장애음 비속어 신호", "장애음 비속어 아님 신호", 및 "테이블 비속어 신호"의 빈도와 확률값을 파라미터로하여 1자유도 감쇠진동모델에 의해 모델링된 시간에 따른 인터렉션 신호를 출력하되, 상기 "장애음 비속어 신호" 및 "테이블 비속어 신호"의 인지횟수가 많이 누적될수록 강한 인터렉션 신호를 출력하고, 상기 "장애음 비속어 아님 신호"가 많이 누적될수록 약한 인터렉션 신호를 출력하는 인터렉션부; 및 The frequency of the "disabled sound slang signal", "not a disabled sound slang signal", and a "table slang signal" by receiving the "disabled sound slang signal", "not a disabled sound slang signal", and a "table slang signal" Output the interaction signal according to the time modeled by the 1 degree of freedom attenuation vibration model using the probability value as a parameter, and the stronger the interaction signal is output as the number of times of recognition of the "failure slang word" and the "table slang word signal" is accumulated. And an interaction unit for outputting a weak interaction signal as the “no sound impairment signal” is accumulated. And 상기 인터렉션 신호의 강도에 따른 감성을 사용자에게 시각, 청각, 또는 촉각적으로 알려주는 출력부;를 구비하는 것을 특징으로 하는 언어청정로봇.And an output unit for visually, auditoryly, or tactilely notifying the user of the sensitivity according to the intensity of the interaction signal. 제1항에 있어서, 상기 출력부는 상기 인터렉션 신호의 강도가 강할수록 부정적인 감성신호를 출력하는 것을 특징으로 하는 언어청정로봇. The language clean robot of claim 1, wherein the output unit outputs a negative emotional signal as the intensity of the interaction signal increases. 삭제delete 제1항에 있어서, 상기 출력부가 LED를 포함하여 이루어지며, 상기 LED는 상기 인터렉션 신호의 강도에 따라 빛의 색깔 및 밝기를 통하여 다양한 느낌의 멍, 혈색, 또는 눈빛을 표현하도록 설치되는 것을 특징으로 하는 언어청정로봇. The method of claim 1, wherein the output unit comprises an LED, wherein the LED is installed to express a variety of bruises, colors, or eyes through the color and brightness of the light according to the intensity of the interaction signal. Language clean robot. 제1항에 있어서, 상기 출력부가 진동모터 및 스피커를 포함하여 이루어지며, 상기 진동모터 및 상기 스피커는 상기 인터렉션 신호의 강도에 따라 다양한 진동 및 소리를 출력하여 로봇의 감정상태를 표현하는 것을 특징으로 하는 언어청정로봇. The method of claim 1, wherein the output unit comprises a vibration motor and a speaker, the vibration motor and the speaker outputs various vibrations and sounds according to the intensity of the interaction signal to represent the emotional state of the robot Language clean robot. 제1항에 있어서, 상기 인터렉션부는 상기 장애음 비속어 신호에 해당하는 음성을 저장하였다가 이를 주기적으로 상기 비속어 테이블기의 비속어 테이블에 업로드하는 것을 특징으로 하는 언어청정로봇. The language clean robot of claim 1, wherein the interaction unit stores a voice corresponding to the impaired slang signal and periodically uploads it to a slang table of the slang table.
KR1020070080217A 2007-08-09 2007-08-09 A language purifier robot KR100911725B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020070080217A KR100911725B1 (en) 2007-08-09 2007-08-09 A language purifier robot

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020070080217A KR100911725B1 (en) 2007-08-09 2007-08-09 A language purifier robot

Publications (2)

Publication Number Publication Date
KR20090015678A KR20090015678A (en) 2009-02-12
KR100911725B1 true KR100911725B1 (en) 2009-08-10

Family

ID=40685208

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020070080217A KR100911725B1 (en) 2007-08-09 2007-08-09 A language purifier robot

Country Status (1)

Country Link
KR (1) KR100911725B1 (en)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102345409B1 (en) 2019-08-29 2021-12-30 주식회사 하이퍼커넥트 Processor Accelerating Convolutional Computation in Convolutional Neural Network AND OPERATING METHOD FOR THE SAME
KR102315211B1 (en) * 2019-10-18 2021-10-21 주식회사 하이퍼커넥트 Mobile and operating method thereof
US11854536B2 (en) 2019-09-06 2023-12-26 Hyperconnect Inc. Keyword spotting apparatus, method, and computer-readable recording medium thereof
CN110751954A (en) * 2019-10-25 2020-02-04 重庆晋才富熙科技有限公司 Classroom teaching warning correction system and method based on voice recognition and semantic recognition
KR102353116B1 (en) 2021-03-10 2022-01-19 이영권 Natural Eco-fill for Artificial grass

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP1326230A1 (en) 2000-10-11 2003-07-09 Sony Corporation Robot control apparatus
KR20070044841A (en) * 2005-10-26 2007-05-02 삼성전자주식회사 Apparatus and method for proofreading speech call in portable communication terminal
KR20070071850A (en) * 2005-12-30 2007-07-04 브이케이 주식회사 Method for expressing emotion of mobile phone

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP1326230A1 (en) 2000-10-11 2003-07-09 Sony Corporation Robot control apparatus
KR20070044841A (en) * 2005-10-26 2007-05-02 삼성전자주식회사 Apparatus and method for proofreading speech call in portable communication terminal
KR20070071850A (en) * 2005-12-30 2007-07-04 브이케이 주식회사 Method for expressing emotion of mobile phone

Also Published As

Publication number Publication date
KR20090015678A (en) 2009-02-12

Similar Documents

Publication Publication Date Title
KR100911725B1 (en) A language purifier robot
US10311869B2 (en) Method and system for automation of response selection and composition in dialog systems
KR100746526B1 (en) Conversation processing apparatus and method, and recording medium therefor
KR101336641B1 (en) Emotional Sympathy Robot Service System and Method of the Same
Nakadai et al. Active audition system and humanoid exterior design
CN114305325A (en) Emotion detection method and device
EP4033775A2 (en) Smart mask and smart mask system
US11133020B2 (en) Assistive technology
Applebaum et al. Prosody in a communication system developed without a language model
JP6643077B2 (en) Dialogue systems and programs
Pinto Towards a Rewilding of the Ear
Crivelli Plato’s philosophy of language
US20210090558A1 (en) Controlling a user interface
KR20200133614A (en) clean language necklace
JP6977445B2 (en) Dialogue device, dialogue method and program
Ramkumar et al. An analysis on augmentative and assistive technology for the speech disorder people
Wilcox Moving beyond structuralism: Usage-based signed language linguistics
US20230068099A1 (en) Method and system for enhancing the intelligibility of information for a user
Schneider et al. Difficult questions kids ask and are afraid to ask about divorce
US20230305797A1 (en) Audio Output Modification
KR20240074567A (en) Warning sound detection system for hearing impaired people
US20210090573A1 (en) Controlling a user interface
Stone-Davis Music and Liminal Ethics
Abdurasulov PSYCHOPHYSIOLOGICAL SIGNIFICANCE OF THE PROCESS ON TEXT LISTENING COMPREHENSION
Budd The Musical Expression of Emotion: metaphorical-as versus imaginative-as perception

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20120730

Year of fee payment: 4

FPAY Annual fee payment

Payment date: 20130730

Year of fee payment: 5

LAPS Lapse due to unpaid annual fee