KR100911725B1 - A language purifier robot - Google Patents
A language purifier robot Download PDFInfo
- Publication number
- KR100911725B1 KR100911725B1 KR1020070080217A KR20070080217A KR100911725B1 KR 100911725 B1 KR100911725 B1 KR 100911725B1 KR 1020070080217 A KR1020070080217 A KR 1020070080217A KR 20070080217 A KR20070080217 A KR 20070080217A KR 100911725 B1 KR100911725 B1 KR 100911725B1
- Authority
- KR
- South Korea
- Prior art keywords
- slang
- signal
- interaction
- language
- sound
- Prior art date
Links
- 230000003993 interaction Effects 0.000 claims abstract description 50
- 230000004888 barrier function Effects 0.000 claims abstract description 12
- 208000034656 Contusions Diseases 0.000 claims abstract description 11
- 230000006735 deficit Effects 0.000 claims abstract description 3
- 230000035945 sensitivity Effects 0.000 claims abstract description 3
- 230000002996 emotional effect Effects 0.000 claims description 10
- 239000003086 colorant Substances 0.000 claims description 5
- 230000001771 impaired effect Effects 0.000 claims description 5
- 238000004140 cleaning Methods 0.000 abstract description 10
- 208000034526 bruise Diseases 0.000 abstract description 6
- 238000010586 diagram Methods 0.000 description 8
- 230000008921 facial expression Effects 0.000 description 3
- 230000014509 gene expression Effects 0.000 description 3
- 238000013016 damping Methods 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 230000004397 blinking Effects 0.000 description 1
- 238000006243 chemical reaction Methods 0.000 description 1
- 238000007796 conventional method Methods 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 210000004709 eyebrow Anatomy 0.000 description 1
- 239000000463 material Substances 0.000 description 1
- 239000002184 metal Substances 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000008447 perception Effects 0.000 description 1
- 229910052573 porcelain Inorganic materials 0.000 description 1
- 230000003595 spectral effect Effects 0.000 description 1
- 230000036962 time dependent Effects 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/08—Speech classification or search
- G10L15/18—Speech classification or search using natural language modelling
- G10L15/1815—Semantic context, e.g. disambiguation of the recognition hypotheses based on word meaning
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/22—Procedures used during a speech recognition process, e.g. man-machine dialogue
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L25/00—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
- G10L25/48—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use
- G10L25/51—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination
Landscapes
- Engineering & Computer Science (AREA)
- Computational Linguistics (AREA)
- Health & Medical Sciences (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- Acoustics & Sound (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Artificial Intelligence (AREA)
- Toys (AREA)
Abstract
본 발명에 따른 언어청정로봇은, 음성 인식기에 의해 인식되어진 음성을 비속어 테이블과 비교하여 "테이블 비속어 신호"와 "테이블 비속어 아님 신호"로 구분하여 출력하는 비속어 테이블기; "테이블 비속어 아님 신호"를 입력받아 음성 내의 장애음의 비율이 소정치 이상이면 "장애음 비속어 신호"를 출력하고 그 미만이면 "장애음 비속어 아님 신호"를 출력하는 장애음 비속어 검출기; "장애음 비속어 신호", "장애음 비속어 아님 신호", 및 "테이블 비속어 신호"를 입력받아 "장애음 비속어 신호" 및 "테이블 비속어 신호"의 입력횟수가 누적됨에 따라 강한 인터렉션 신호를 출력하고, "장애음 비속어 아님 신호"가 누적됨에 따라 약한 인터렉션 신호를 출력하는 인터렉션부; 및 인터렉션 신호의 강도에 따른 감성을 사용자에게 시각, 청각, 또는 촉각적으로 알려주는 출력부;를 구비한다. 본 발명에 의하면, 언어를 습득하는 시기에 비속어를 무분별하게 습관적으로 사용하는 아동들에게 로봇과 인터렉션을 통하여, 로봇의 부정적(멍) 또는 긍적적인 반응을 통하여 아동들의 비속어 사용이 사람에게 상처를 주는 말인지를 인지하게 함으로써 비속어 사용을 줄이게 할 수 있다. 기타 사용자의 언어순화에도 도움을 준다. According to an aspect of the present invention, there is provided a speech cleaning robot comprising: a slang table device for comparing a speech recognized by a speech recognizer to a "slang table signal" and a "not a table slang signal" in comparison with a slang table; A barrier sound slang detector which receives a "not a table slang signal" and outputs a "block noise slang signal" if the ratio of the barrier sounds in the voice is greater than or equal to a predetermined value, and outputs a signal that is not a barrier sound slang word; A strong interaction signal is output as the number of inputs of the "spoken slang signal" and the "table slang signal" is accumulated by receiving the "spoken slang signal", "not the slang signal", and "table slang signal", An interaction unit configured to output a weak interaction signal as the "no sound impairment signal" accumulates; And an output unit that informs the user visually, auditoryly, or tactilely of the sensitivity according to the intensity of the interaction signal. According to the present invention, children's use of slang hurts humans through interaction with the robot through the interaction with the robot to children who indiscriminately use the slang language at the time of language acquisition. You can reduce the use of slang by making you aware of what it is. It also helps other users with their language.
언어청정로봇, 인터렉션, 장애음, 비속어 테이블, 멍 Language Cleaning Robot, Interaction, Disability Sounds, Slang Table, Bruise
Description
도 1 내지 도 3은 본 발명에 따른 언어청정로봇의 외형을 설명하기 위한 도면들;1 to 3 are views for explaining the appearance of the language-cleaning robot according to the present invention;
도 4는 본 발명에 따른 언어청정로봇의 전체적인 블록도;4 is an overall block diagram of a language cleaning robot according to the present invention;
도 5는 도 4의 인식부(100)를 설명하기 위한 블록도;FIG. 5 is a block diagram illustrating the
도 6은 도 4의 인터렉션부(200)를 설명하기 위한 블록도;FIG. 6 is a block diagram illustrating the
도 7은 도 4의 출력부(300)를 설명하기 위한 블록도이다. FIG. 7 is a block diagram illustrating the
<도면의 주요부분에 대한 참조번호의 설명><Description of reference numbers for the main parts of the drawings>
100: 인식부 101: 음성인식기100: recognition unit 101: speech recognizer
102: 비속어 테이블기 103: 장애음 비속어 검출기102: slang table machine 103: slang slang detector
200: 인터렉션부 201: 빈도, 확률저장기200: interaction unit 201: frequency, probability storage
202: 1자유도 감쇠 진동 모델기202: 1 degree of freedom damped vibration model
203: 장애음 비속어 저장수단203: means for storing the swear words
300: 출력부 301: LED300: output unit 301: LED
302: 진동모터 303: 스피커 302: vibration motor 303: speaker
본 발명은 언어청정로봇에 관한 것으로서, 특히 "맞으면 멍이 든다." 라는 인터랙션 컨셉으로 비속어나 욕 등의 부적절한 언어에 대해 감성적으로 상처를 받아 멍이 드는 언어청정로봇에 관한 것이다.FIELD OF THE INVENTION The present invention relates to language clean robots, in particular "bruise if correct." It is about a language-cleaning robot that is bruised emotionally by inappropriate language such as slang or swearing with an interaction concept.
언어청정로봇은 사용자의 언어를 순화시키기 위한 것으로, 특히 부적절한 언어를 습관적으로 습득하고 사용하게 되는 아동들을 위해서 초등학교 또는 가정이나, 언쟁이 높아지는 국회 등의 토론 장소, 바른말 사용과 관련된 오락 프로그램 등에 사용될 수 있다. Linguistic clean robots are used to purify the user's language, especially for children who are habitually acquiring and using inappropriate language. Can be.
언어청정로봇에는 비속어 인식기술이 핵심적으로 포함되어야 하는데, 종래의 비속어 인식기술은 음성인식을 통하여 미리 저장된 비속어 테이블과 비교를 통하여 비속어 검출을 수행하였다. 그러나 이러한 종래의 방법은 모든 비속어를 미리 비속어 테이블에 저장해야 하는 문제점을 가지고 있으며 비속어 테이블에 저장되지 않은 비속어는 인식하지 못하는 한계점을 가지고 있다. The slang recognition technology must be included in the language clean robot, but the conventional slang recognition technology performs slang detection through comparison with a slang table stored in advance through speech recognition. However, this conventional method has a problem in that all the slang words must be stored in the slang table in advance, and the slang words which are not stored in the slang table have a limitation of not being recognized.
사람들은 물리적으로 맞아서 육체적인 멍이 들기도 하지만, 말에 의해 정신적인 멍이 드는 경우가 많다. 기존에 로봇의 감정 표현에 관련된 다양한 연구들이 있었으나 이들은 대부분 LED를 통한 로봇의 얼굴 표정이나 눈, 눈썹, 입 모양 등의 움직임을 통한 로봇의 얼굴 표정, 로봇의 음성 등이 주를 이룬다. People are physically bruised and physically bruised, but are often mentally bruised by words. There have been various studies related to the emotional expression of robots, but most of them are mainly related to facial expressions of robots through LEDs, facial expressions of robots through movement of eyes, eyebrows, and mouth shapes, and voices of robots.
일본의 유명한 로봇 공학자인 마사히로 모리가 1970년에 발표한 그의 논문에 서 소개한 "불쾌한 골짜기(Uncanny Valley)"를 통해 알 수 있듯이, 기존의 사람의 얼굴 표정이나 음성을 모방한 로봇의 감정 표현은 사용자들의 기대치를 높이게 되고, 이에 따라 로봇이 제공하는 인터랙션이 기대치에 도달하지 못할 때에는 사용자들의 로봇에 대한 만족도가 저하될 수 있다.As we can see from the Uncanny Valley, introduced in his thesis published in 1970 by famous Japanese robot engineer Masahiro Mori, the robot's emotional expression that mimics the facial expressions and voices of existing humans The expectations of the users are increased, and when the interactions provided by the robots do not reach the expectations, the satisfaction of the robots may be lowered.
칸다(T. Kanda)의 연구에서는 로봇이 먼저 사람에게 말을 걸어 인터랙션이 시작되는 활동적인(active) 로봇의 인터랙션보다, 사람이 먼저 로봇에게 말을 걸어 인터랙션이 시작되는 즉 수동적인(passive) 로봇의 인터랙션이 선호됨이 밝혀졌다. In T. Kanda's research, a passive robot, in which a person talks to a robot first and interacts with it, begins, rather than an interaction of an active robot, where a robot first talks to a person and begins to interact. It is found that the interaction of is preferred.
따라서 본 발명이 이루고자 하는 기술적 과제는, 비속어 테이블에 저장되어 있지 않은 비속어도 검출가능하여 비속어 테이블을 업데이트 시킬 수 있으며, 비속어에 대하여 얼굴 표정을 통한 적극적인 감정 표현이 아닌, 로봇의 피부에 멍이 드는 수동적인 감정 표현을 통해 사용자에게 보다 신선하고 감성적으로 호소할 수 있는 언어청정로봇을 제공하는 데 있다. Therefore, the technical problem of the present invention is to detect slang words that are not stored in the slang table so that the slang table can be updated. It is to provide a language-cleaning robot that can appeal to users more freshly and emotionally through passive emotional expression.
상기 기술적 과제를 달성하기 위한 본 발명에 따른 언어청정로봇은, 사용자의 음성을 인식하는 음성인식기; 상기 음성 인식기에 의해 인식되어진 음성을 비속어 테이블과 비교하여 "테이블 비속어 신호"와 "테이블 비속어 아님 신호"로 구분하여 출력하는 비속어 테이블기; 상기 "테이블 비속어 아님 신호"를 입력받아 상기 음성 내의 장애음의 비율이 소정치 이상이면 "장애음 비속어 신호"를 출력하고 그 미만이면 "장애음 비속어 아님 신호"를 출력하는 장애음 비속어 검출기; 상기 "장애음 비속어 신호", "장애음 비속어 아님 신호", 및 "테이블 비속어 신호"를 입력받아 상기 "장애음 비속어 신호" 및 "테이블 비속어 신호"의 입력횟수가 누적됨에 따라 강한 인터렉션 신호를 출력하고, 상기 "장애음 비속어 아님 신호"가 누적됨에 따라 약한 인터렉션 신호를 출력하는 인터렉션부; 및 상기 인터렉션 신호의 강도에 따른 감성을 사용자에게 시각, 청각, 또는 촉각적으로 알려주는 출력부;를 구비하는 것을 특징으로 한다. According to an aspect of the present invention, there is provided a language cleaning robot, including: a voice recognizer for recognizing a user voice; A slang table that compares the speech recognized by the speech recognizer with a slang table and outputs a " table slang word " and a " not a table slang word " A barrier sound slang detector which receives the "not a table slang signal" and outputs a "block noise slang signal" if the ratio of the barrier sounds in the voice is equal to or greater than a predetermined value and outputs a signal that is not a barrier sound slang word; A strong interaction signal is output as the number of inputs of the "sound impaired slang signal" and the "table slang signal" is accumulated by receiving the "fault sound slang signal", "not a sound impaired signal", and a "table slang signal". And an interaction unit configured to output a weak interaction signal as the "no sound impairment signal" is accumulated; And an output unit configured to visually, auditoryly, or tactilely notify the user of the sensitivity according to the intensity of the interaction signal.
상기 출력부는 상기 인터렉션 신호의 강도가 강할수록 부정적인 감성신호를 출력하는 것이 바람직하다. The output unit preferably outputs a negative emotional signal as the intensity of the interaction signal increases.
본 발명에 있어서, 상기 인터렉션부는 상기 "장애음 비속어 신호", "장애음 비속어 아님 신호", 및 "테이블 비속어 신호"의 빈도와 확률값을 파라미터로하여 1자유도 감쇠진동모델에 의해 모델링된 시간에 따른 인터렉션 신호를 출력하는 것을 특징으로 한다. In the present invention, the interaction unit uses the frequency and probability values of the "disabled slang words", "not a slang words" signal, and a "table slang signal" as parameters, at a time modeled by a single degree of freedom attenuation vibration model. It is characterized in that for outputting the interaction signal according to.
상기 출력부는 LED를 포함하여 이루어질 수 있으며, 이 경우 상기 LED는 상기 인터렉션 신호의 강도에 따라 빛의 색깔 및 밝기를 통하여 다양한 느낌의 멍, 혈색, 또는 눈빛을 표현하도록 설치된다. The output unit may include an LED. In this case, the LED may be installed to express a variety of bruises, colors, or eyes through the color and brightness of the light according to the intensity of the interaction signal.
상기 출력부가 진동모터와 스피커를 포함하여 이루어질 수 있으며, 이 경우 상기 진동모터와 상기 스피커는 상기 인터렉션 신호의 강도에 따라 다양한 진동과 소리를 출력하여 로봇의 감정상태를 표현한다. The output unit may include a vibration motor and a speaker. In this case, the vibration motor and the speaker output various vibrations and sounds according to the intensity of the interaction signal to express the emotional state of the robot.
상기 인터렉션부는 상기 장애음 비속어 신호에 해당하는 음성을 저장하였다가 이를 주기적으로 상기 비속어 테이블기의 비속어 테이블에 업로드하는 것이 바람직하다. Preferably, the interaction unit stores a voice corresponding to the impaired slang signal and uploads it to a slang table of the slang table.
이하에서, 본 발명의 바람직한 실시예를 첨부한 도면들을 참조하여 상세히 설명한다. 종래기술과의 반복적인 설명을 피하기 위하여 본 발명의 특징부만 도시한다. 아래의 실시예는 본 발명의 내용을 이해하기 위해 제시된 것일 뿐이며 당 분야에서 통상의 지식을 가진 자라면 본 발명의 기술적 사상 내에서 많은 변형이 가능할 것이다. 따라서, 본 발명의 권리범위가 이러한 실시예에 한정되는 것으로 해석돼서는 안 된다. Hereinafter, with reference to the accompanying drawings, preferred embodiments of the present invention will be described in detail. Only features of the invention are shown in order to avoid repeated description with the prior art. The following examples are only presented to understand the content of the present invention, and those skilled in the art will be capable of many modifications within the technical spirit of the present invention. Therefore, the scope of the present invention should not be construed as being limited to these examples.
도 1은 본 발명에 따른 언어청정로봇의 외형을 설명하기 위한 도면이다. 도 1에 도시된 바와 같이, 왼쪽부터 찐빵 로봇, 도자기 로봇, 계란 로봇 형태 등 다양한 형태가 있을 수 있다. '멍이 든다, 상처를 입는다.' 라는 수동적인 로봇의 특성을 부각시키기 위해 몸과 눈으로만 구성된 심플한 외형이 바람직하며, 재질도 반투명 재질과 금속 재질을 사용하였다. 1 is a view for explaining the appearance of the language-cleaning robot according to the present invention. As shown in Figure 1, from the left can be a variety of forms, such as steamed bun robot, porcelain robot, egg robot. 'You bruise, you get hurt.' In order to highlight the characteristics of the passive robot, a simple appearance consisting of body and eyes is desirable, and the material is translucent and metal.
본 발명에 따른 언어청정로봇은, 크게 멍이 들거나 혈색이 도는 인터랙션을 표현하는 몸통 부분과 언어 인지를 표현하는 눈 부분으로 구성된다. 몸통 부분은 비속어인지 일반 언어인지를 구분하는 비속어 인식 장치를 포함하며, 컬러 LED와 진동모듈을 통해 멍(도2)과 혈색(도3) 등을 표현한다. 눈 부분은 언어를 인식할 때 마다 컬러 LED를 통한 눈 깜박임을 통해 사용자에게 비속어를 인식하고 있는 중임을 알려준다. The language-cleaning robot according to the present invention is composed of a body part expressing a bruised or bloody interaction and an eye part expressing language perception. The body part includes a slang recognition device that distinguishes between slang and general language, and expresses a bruise (FIG. 2) and a color (FIG. 3) through color LEDs and a vibration module. The eye part tells the user that he is aware of the slang language by blinking an eye through the color LEDs whenever the language is recognized.
도 4는 본 발명에 따른 언어청정로봇의 전체적인 블록도이다. 도 4에 도시된 바와 같이 크게 인식부(100), 인터렉션부(200), 및 출력부(300)를 포함한다. 4 is an overall block diagram of a language cleaning robot according to the present invention. As shown in FIG. 4, the
도 5는 도 4의 인식부(100)를 설명하기 위한 도면이다. 인식부(100)는 음성인식기(101), 비속어 테이블기(102), 및 장애음 비속어 검출기(103)를 포함한다. 사용자의 음성은 음성인식기(101)를 통하여 인식된다. 비속어 테이블기(102)에서는 음성인식기(101)에 의해 인식되는 음성을 비속어 테이블과 비교하여 비속어 테이블에 있는 비속어에 해당되면 "테이블 비속어 신호"를 인터렉션부(200)로 출력하고, 비속어 테이블에 있는 비속어에 해당되지 않으면 "테이블 비속어 아님 신호"를 장애음 비속어 검출기(103)로 출력한다. FIG. 5 is a diagram for describing the
"테이블 비속어 아님 신호"를 입력받은 장애음 비속어 검출기(103)는 사용자의 음성 속에 포함된 장애음(Obstruents)을 스펙트럴 센터(Spectral Center)를 이용하여 검출함으로서 음성에 포함된 장애음의 비율을 통하여 비속어를 검출한다. 즉, 장애음의 비율이 소정치 이상이면 "장애음 비속어 신호"를 인터렉션부(200)로 출력하고 그 미만이면 "장애음 비속어 아님 신호"를 인터렉션부(200)로 출력한다. The disability
도 6은 도 4의 인터렉션부(200)를 설명하기 위한 블록도이다. 도 6에 도시된 바와 같이 인터렉션부(200)에서는 비속어 테이블기(102)에서 출력되는 "테이블 비속어 신호"와 장애음 비속어 검출기(103)에서 출력되는 "장애음 비속어 신호"및 "장애음 비속어 아님 신호"를 입력받아 이들의 빈도와 확률값(201)을 저장하고, 이 를 파라미터로하여 1자유도 감쇠진동모델기(202)에 의해 모델링된 인터렉션 신호를 출력부(300)로 출력한다. FIG. 6 is a block diagram illustrating the
1자유도 감쇠 진동 모델은 질량(Mass), 스프링(Spring), 댐퍼 시스템(Damper System)의 과감쇠 케이스(Over-damping case)의 모델로 출력신호의 시간에 따른 감쇠를 적절히 모델링 할 수 있다. 1자유도 감쇠 진동 모델의 파라미터는 빈도와 확률값에 따라 정해지게 된다. The 1 degree of freedom damping vibration model is an over-damping case model of mass, spring, and damper system, and can appropriately model attenuation over time of an output signal. The parameters of the 1 DOF vibration model are determined according to the frequency and the probability value.
따라서 인터렉션부(200)에서는 비속어의 인지횟수가 누적됨에 따라 강한 인터렉션 신호를 출력하고, 정상적인 언어의 인지횟수가 누적됨에 따라 약한 인터렉션 신호를 출력한다. 이렇게 "장애음 비속어 및 테이블 비속어"와 "정상적인 언어"의 입력에 의해 출력되는 인터렉션 신호의 시간에 따른 강약은 "장애음 비속어 신호", "장애음 비속어 아님 신호", 및 "테이블 비속어 신호"의 빈도와 확률값에 따라 변하게 된다. Therefore, the
인터렉션부(200)는 장애음 비속어 검출기(103)에 의해 "장애음 비속어"로 판단된 음성을 장애음 비속어 저장수단(203)에 저장하였다가 주기적으로 비속어 테이블기(102)의 비속어 테이블에 업로드하여 비속어 테이블기(102)를 업데이트 시킨다. The
도 7은 도 4의 출력부(300)를 설명하기 위한 블록도이다. 출력부(300)는 인터렉션부(200)에서 출력되는 인터렉션 신호의 강도에 따른 감정상태를 LED(301), 진동모터(302), 스피커(303)를 통하여 사용자에게 시각, 촉각, 또는 청각을 통하여 감성적으로 알려준다. 출력부(300)는 상기 인터렉션 신호의 강도가 강할수록 예컨 대 멍의 부위가 커지거나 멍의 색깔이 짙어지는 등의 부정적인 감성신호를 출력한다. FIG. 7 is a block diagram illustrating the
LED(301)는 3색을 이용하여 다양한 종류의 멍, 혈색, 눈빛 등을 표현하며, 인터렉션 신호의 강도에 따라 빛의 종류 및 밝기를 통하여 다양한 느낌의 멍, 혈색, 또는 눈빛을 표현하도록 설치된다. 진동모터(302)와 스피커(303)는 인터렉션 신호의 강도에 따라 다양한 진동과 소리를 출력하여 로봇의 감정상태를 표현함으로써 사용자에게 긍정적 또는 부정적인 피드백을 제공한다. The
언어를 습득하는 시기의 아동들은 비속어가 나쁜 것인지, 사람에게 상처를 주는 것인지를 인지하지 못하고 습관적으로 비속어를 사용하게 되는데, 본 발명에 의하면, 이러한 아동들에게 로봇과 인터렉션을 통하여, 로봇의 부정적(멍) 또는 긍적적인 반응을 통하여 아동들의 비속어 사용이 사람에게 상처를 주는 말인지를 인지하게 함으로써 비속어 사용을 줄이게 할 수 있다. 기타 사용자의 언어순화에도 도움을 준다. Children at the time of language acquisition do not know whether slang is bad or hurt people, and use habitually slang words according to the present invention. Bruises or positive reactions can be used to reduce the use of slang words by making children aware that slang words are hurting people. It also helps other users with their language.
Claims (6)
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020070080217A KR100911725B1 (en) | 2007-08-09 | 2007-08-09 | A language purifier robot |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020070080217A KR100911725B1 (en) | 2007-08-09 | 2007-08-09 | A language purifier robot |
Publications (2)
Publication Number | Publication Date |
---|---|
KR20090015678A KR20090015678A (en) | 2009-02-12 |
KR100911725B1 true KR100911725B1 (en) | 2009-08-10 |
Family
ID=40685208
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020070080217A KR100911725B1 (en) | 2007-08-09 | 2007-08-09 | A language purifier robot |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR100911725B1 (en) |
Families Citing this family (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR102345409B1 (en) | 2019-08-29 | 2021-12-30 | 주식회사 하이퍼커넥트 | Processor Accelerating Convolutional Computation in Convolutional Neural Network AND OPERATING METHOD FOR THE SAME |
KR102315211B1 (en) * | 2019-10-18 | 2021-10-21 | 주식회사 하이퍼커넥트 | Mobile and operating method thereof |
US11854536B2 (en) | 2019-09-06 | 2023-12-26 | Hyperconnect Inc. | Keyword spotting apparatus, method, and computer-readable recording medium thereof |
CN110751954A (en) * | 2019-10-25 | 2020-02-04 | 重庆晋才富熙科技有限公司 | Classroom teaching warning correction system and method based on voice recognition and semantic recognition |
KR102353116B1 (en) | 2021-03-10 | 2022-01-19 | 이영권 | Natural Eco-fill for Artificial grass |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP1326230A1 (en) | 2000-10-11 | 2003-07-09 | Sony Corporation | Robot control apparatus |
KR20070044841A (en) * | 2005-10-26 | 2007-05-02 | 삼성전자주식회사 | Apparatus and method for proofreading speech call in portable communication terminal |
KR20070071850A (en) * | 2005-12-30 | 2007-07-04 | 브이케이 주식회사 | Method for expressing emotion of mobile phone |
-
2007
- 2007-08-09 KR KR1020070080217A patent/KR100911725B1/en not_active IP Right Cessation
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP1326230A1 (en) | 2000-10-11 | 2003-07-09 | Sony Corporation | Robot control apparatus |
KR20070044841A (en) * | 2005-10-26 | 2007-05-02 | 삼성전자주식회사 | Apparatus and method for proofreading speech call in portable communication terminal |
KR20070071850A (en) * | 2005-12-30 | 2007-07-04 | 브이케이 주식회사 | Method for expressing emotion of mobile phone |
Also Published As
Publication number | Publication date |
---|---|
KR20090015678A (en) | 2009-02-12 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR100911725B1 (en) | A language purifier robot | |
US10311869B2 (en) | Method and system for automation of response selection and composition in dialog systems | |
KR100746526B1 (en) | Conversation processing apparatus and method, and recording medium therefor | |
KR101336641B1 (en) | Emotional Sympathy Robot Service System and Method of the Same | |
Nakadai et al. | Active audition system and humanoid exterior design | |
CN114305325A (en) | Emotion detection method and device | |
EP4033775A2 (en) | Smart mask and smart mask system | |
US11133020B2 (en) | Assistive technology | |
Applebaum et al. | Prosody in a communication system developed without a language model | |
JP6643077B2 (en) | Dialogue systems and programs | |
Pinto | Towards a Rewilding of the Ear | |
Crivelli | Plato’s philosophy of language | |
US20210090558A1 (en) | Controlling a user interface | |
KR20200133614A (en) | clean language necklace | |
JP6977445B2 (en) | Dialogue device, dialogue method and program | |
Ramkumar et al. | An analysis on augmentative and assistive technology for the speech disorder people | |
Wilcox | Moving beyond structuralism: Usage-based signed language linguistics | |
US20230068099A1 (en) | Method and system for enhancing the intelligibility of information for a user | |
Schneider et al. | Difficult questions kids ask and are afraid to ask about divorce | |
US20230305797A1 (en) | Audio Output Modification | |
KR20240074567A (en) | Warning sound detection system for hearing impaired people | |
US20210090573A1 (en) | Controlling a user interface | |
Stone-Davis | Music and Liminal Ethics | |
Abdurasulov | PSYCHOPHYSIOLOGICAL SIGNIFICANCE OF THE PROCESS ON TEXT LISTENING COMPREHENSION | |
Budd | The Musical Expression of Emotion: metaphorical-as versus imaginative-as perception |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A201 | Request for examination | ||
E902 | Notification of reason for refusal | ||
E701 | Decision to grant or registration of patent right | ||
GRNT | Written decision to grant | ||
FPAY | Annual fee payment |
Payment date: 20120730 Year of fee payment: 4 |
|
FPAY | Annual fee payment |
Payment date: 20130730 Year of fee payment: 5 |
|
LAPS | Lapse due to unpaid annual fee |