KR20210135901A - Emotional condition detection method of children based on voice - Google Patents
Emotional condition detection method of children based on voice Download PDFInfo
- Publication number
- KR20210135901A KR20210135901A KR1020200054147A KR20200054147A KR20210135901A KR 20210135901 A KR20210135901 A KR 20210135901A KR 1020200054147 A KR1020200054147 A KR 1020200054147A KR 20200054147 A KR20200054147 A KR 20200054147A KR 20210135901 A KR20210135901 A KR 20210135901A
- Authority
- KR
- South Korea
- Prior art keywords
- voice
- child
- emotion
- information
- extracted
- Prior art date
Links
Images
Classifications
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
- G10L25/00—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
- G10L25/48—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use
- G10L25/51—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination
- G10L25/63—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination for estimating an emotional state
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/0002—Remote monitoring of patients using telemetry, e.g. transmission of vital signals via a communication network
- A61B5/0004—Remote monitoring of patients using telemetry, e.g. transmission of vital signals via a communication network characterised by the type of physiological signal transmitted
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/16—Devices for psychotechnics; Testing reaction times ; Devices for evaluating the psychological state
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/48—Other medical applications
- A61B5/4803—Speech analysis specially adapted for diagnostic purposes
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/72—Signal processing specially adapted for physiological signals or for diagnostic purposes
- A61B5/7235—Details of waveform analysis
- A61B5/7264—Classification of physiological signals or data, e.g. using neural networks, statistical classifiers, expert systems or fuzzy systems
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/74—Details of notification to user or communication with user or patient ; user input means
- A61B5/746—Alarms related to a physiological condition, e.g. details of setting alarm thresholds or avoiding false alarms
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
- G10L25/00—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
- G10L25/03—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the type of extracted parameters
- G10L25/15—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the type of extracted parameters the extracted parameters being formant information
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B2503/00—Evaluating a particular growth phase or type of persons or animals
- A61B2503/06—Children, e.g. for attention deficit diagnosis
Abstract
Description
본 발명은 음성에 기초한 어린이의 감정 컨디션 검출방법에 관한 것으로, 더욱 상세하게는 유치원이나 어린이집과 같은 공동 시설에 설치되는 음성녹음 기기를 통해 공동 시설에 생활하는 어린이의 음성(목소리)을 녹음 수집하고, 그 녹음된 음성정보를 기반으로 설정된 감정 항목에 해당하는 소리를 추출하고, 그 추출된 객관적인 정보를 어린이 보호자의 휴대폰으로 전송함으로, 어린이의 보호자는 추출 정보를 기초로 자신 아이의 감정 컨디션을 매우 객관적으로 인지할 수 있어 공동 시설에 생활하면서 적응하는 아이에 대한 보호자의 근심 걱정을 효과적으로 해소할 수 있는 음성에 기초한 어린이의 감정 컨디션 검출방법에 관한 것이다.The present invention relates to a method for detecting the emotional condition of children based on voice, and more particularly, through a voice recording device installed in a communal facility such as a kindergarten or daycare center, recording and collecting the voice (voice) of a child living in a communal facility, , extracts the sound corresponding to the emotional item set based on the recorded voice information, and transmits the extracted objective information to the child's guardian's mobile phone, so that the child's guardian can determine the emotional condition of their child It relates to a method for detecting emotional condition of children based on voice, which can be objectively recognized and can effectively relieve parents' worries about a child who adapts while living in a communal facility.
일반적으로 유치원이나 어린이집과 같은 공동 시설에 자신의 아이를 의탁하는 부모(보호자)들은 대부분 자신의 아이가 공동 시설에서 잘 적응하여 재미있고 편안하게 생활하고 있는지에 대해 항상 고민과 걱정이 있다.In general, most parents (guardians) who entrust their children to communal facilities such as kindergartens or day care centers are always concerned and worried about whether their children are well-adjusted in communal facilities and live a fun and comfortable life.
비록, 공동 시설에서 아이를 돌보는 선생님과 부모의 소통을 통해 아이의 적응 상태를 전달받지만, 현실적으로 선생님과 부모의 소통 횟수가 매우 적을 뿐만 아니라, 아이에 대한 선생님의 주관적인 판단에 의한 것이므로 상기와 같은 부모의 고민은 현실적으로 해결되지 않고 있는 실정이다.Although the child's adaptation status is communicated through the communication between the teacher and the parent taking care of the child in the common facility, in reality, the number of communication between the teacher and the parent is very small, and it is based on the teacher's subjective judgment about the child. The problem is not realistically resolved.
한편, 공동 시설에 설치되는 CCTV를 통해 촬영된 영상을 통해 공동 시설에서 생활하는 아이의 영상을 확인하는 방식으로 아이의 생활 상태를 확인할 수 있으나, 이러한 영상은 안전사고와 같은 특별한 상황에서만 확인할 수 있고, 또한 최근에는 시설에 설치되는 CCTV는 개인 사생활 보호와 초상권으로 인한 폐해로 인해 설치되지 않거나, 설치되었더라도 제대로 사용되지 않는 경우가 빈번하여 CCTV를 통해서는 아이의 적응, 생활 상태를 효과적으로 확인하기가 곤란하다.On the other hand, you can check the living condition of a child by checking the video of a child living in a communal facility through the video taken through the CCTV installed in the communal facility, but these images can only be checked in special situations such as safety accidents. , In addition, recently, CCTV installed in facilities is often not installed due to harm caused by privacy protection and portrait rights, or is not used properly even though it is installed. do.
더욱이, CCTV는 설치 및 운영에 금전적으로 많은 비용이 요구되는 만큼 규모가 작은 공동 시설에서는 CCTV의 설치가 자체가 곤란하여 CCTV를 통한 아이의 적응 및 생활 상태를 확인하기에는 많은 어려움이 있다.Moreover, as CCTV requires a lot of money for installation and operation, it is difficult to install CCTV in a small communal facility, so it is difficult to check the child's adaptation and living conditions through CCTV.
따라서 유치원이나 어린이집과 같은 공동 시설에 아이를 의탁하는 부모에게 아이가 공동 시설에서 생활하는 적응 상태를 명확하게 인지할 수 있는 객관적인 정보를 제공할 수 있는 방법이 필요한 실정이다.Therefore, there is a need for a method that can provide objective information to the parents who entrust their children to communal facilities such as kindergartens or daycare centers to clearly recognize the adaptive state of their children living in communal facilities.
본 발명은 상기한 바와 같은 제반 문제점을 해결하기 위하여 제안된 것으로, 그 목적은 유치원이나 어린이집과 같은 공동 시설에 설치되는 음성녹음 기기를 통해 공동 시설에 생활하는 어린이의 음성을 녹음 수집하고, 그 녹음된 음성정보를 기반으로 설정된 감정 항목에 해당하는 소리를 추출하고, 그 추출된 객관적인 정보를 어린이 보호자의 휴대폰으로 전송함으로, 어린이의 보호자는 추출 정보를 기초로 자신 아이의 감정 컨디션을 매우 객관적으로 인지할 수 있어 공동 시설에 생활하면서 적응하는 아이에 대한 보호자의 근심 걱정을 효과적으로 해소할 수 있는 음성에 기초한 어린이의 감정 컨디션 검출방법을 제공함에 있다.The present invention has been proposed to solve the above-mentioned problems, and its purpose is to record and collect the voices of children living in a common facility through a voice recording device installed in a common facility such as a kindergarten or daycare center, and record the recording. By extracting the sound corresponding to the emotional item set based on the voice information and transmitting the extracted objective information to the child's guardian's mobile phone, the child's guardian recognizes the emotional condition of their child very objectively based on the extracted information. An object of the present invention is to provide a method for detecting children's emotional condition based on voice that can effectively relieve the worries and concerns of parents about children who adapt while living in communal facilities.
또한, 음성을 녹음하는 음성녹음 기기는 종래의 CCTV와 같은 기기에 대비하여 매우 저렴한 가격을 형성하고 있어 설치 운영에 대한 금전적인 부담이 없어 소규모의 공동 시설에서도 용이하게 운영될 수 있을 뿐만 아니라, 음성만 녹음되는 특성상 개인 사생활 보호 및 초상권에 대한 폐해를 방지할 수 있어 현실적으로 사용범용성이 우수한 음성에 기초한 어린이의 감정 컨디션 검출방법을 제공함에 있다.In addition, the voice recording device that records voice has a very low price compared to the conventional CCTV device, so there is no financial burden for installation and operation, so it can be easily operated even in a small communal facility. It is intended to provide a method for detecting children's emotional condition based on voice, which is practically usable and has excellent versatility as it can prevent harm to personal privacy and portrait rights due to the nature of the recording only.
상기와 같은 목적을 달성하기 위한 본 발명에 따른 음성에 기초한 어린이의 감정 컨디션 검출방법은 적어도 하나 이상의 음성녹음 기기를 통해 어린이의 음성을 녹음 수집하는 음성 수집단계(S10);와, 상기 음성녹음 기기에 녹음 수집된 음성 정보로부터 추출하고자 하는 감정 항목을 적어도 하나 이상 설정하고, 그 설정된 감정 항목에 해당하는 소리를 음성 정보로부터 추출하는 감정 추출단계(S20);로 이루어지는 것을 특징으로 한다.In order to achieve the above object, the method for detecting the emotional condition of a child based on a voice according to the present invention is a voice collecting step (S10) of recording and collecting the voice of a child through at least one voice recording device; and, the voice recording device Setting at least one emotion item to be extracted from the voice information recorded and collected in the , and extracting a sound corresponding to the set emotion item from the voice information (S20); characterized in that it consists of.
또한, 상기 감정 추출단계(S20)는 기쁨, 슬픔, 분노를 포함하는 감정 항목 중에서 적어도 하나 이상의 감정 항목을 설정하는 설정과정(S21)과, 상기 음성녹음 기기에서 수집된 음성 정보를 기반으로 설정된 감정 항목에 해당하는 소리를 추출하되, 상기 기쁨 감정 항목은 웃음소리, 상기 슬픔 감정 항목은 울음소리, 상기 분노 감정 항목은 화내는 소리를 추출하도록 하는 추출과정(S22)과, 상기 추출과정(S22)을 통해 추출된 정보를 기반으로 상기 설정과정(S21)에서 설정된 각 감정 항목에 해당하는 소리가 지속된 시간이나 횟수 또는 시간과 횟수를 검출하는 검출과정(S23)으로 이루어지는 것을 특징으로 한다.In addition, the emotion extraction step (S20) includes a setting process (S21) of setting at least one emotion item among emotion items including joy, sadness, and anger, and emotion set based on the voice information collected from the voice recording device. An extraction process (S22) of extracting a sound corresponding to the item, wherein the joy emotion item is laughter, the sadness emotion item is a crying sound, and the anger emotion item is a anger sound, and the extraction process (S22) It is characterized in that it consists of a detection process (S23) of detecting the duration or number of times or time and number of sounds corresponding to each emotion item set in the setting process (S21) based on the information extracted through
또한, 상기 감정 추출단계(S20)의 설정과정(S21)에서 설정되는 항목으로 활동성 항목을 더 포함하며,In addition, it further includes an activity item as an item set in the setting process (S21) of the emotion extraction step (S20),
상기 추출과정(S22)에서는 활동성 항목으로 상기 음성녹음 기기를 통해 녹음되는 음성이 멀어지고 가까워지는 정보를 기반으로 어린이의 움직임 상태를 추출하며,In the extraction process (S22), the movement state of the child is extracted based on the information that the voice recorded through the voice recording device is moving away and approaching as an activity item,
상기 검출과정(S23)에서는 상기 추출과정(S22)에서 추출된 정보를 기반으로 상기 활동성 항목에 해당하는 어린이의 움직임이 지속되는 시간이나 횟수 또는 시간과 횟수를 검출하도록 하는 것을 특징으로 한다.In the detection process (S23), based on the information extracted in the extraction process (S22), it is characterized in that the duration or the number of times or the time and number of the movement of the child corresponding to the activity item is detected.
또한, 상기 음성 수집단계(S10) 전에 수행하는 과정으로,In addition, as a process performed before the voice collecting step (S10),
어린이와, 그 어린이 고유의 음성(목소리)을 매칭시켜 상기 음성 수집단계(S10)에서 음성녹음 기기를 통해 다수의 어린이 음성이 녹음되더라도, 그 녹음 수집되는 음성 정보로부터 각 어린이 별로 음성이 구분되어 수집되도록 하는 음성 인식단계(S30);를 더 포함하여 이루어지는 것을 특징으로 한다.Even if a number of children's voices are recorded through the voice recording device in the voice collecting step (S10) by matching the child and the child's unique voice (voice), the voice is separated and collected for each child from the recorded and collected voice information It is characterized in that it further comprises; a voice recognition step (S30) to make it possible.
또한, 상기 감정 추출단계(S20)에서 추출 검출된 정보를 각 어린이의 보호자 휴대폰으로 전송하는 전송단계(40);를 더 포함하여 이루어지는 것을 특징으로 한다.In addition, it is characterized in that it further comprises; a transmission step (40) of transmitting the extracted and detected information in the emotion extraction step (S20) to each child's guardian mobile phone.
이상에서와 같이 본 발명에 따른 음성에 기초한 어린이의 감정 컨디션 검출방법에 의하면, 유치원이나 어린이집과 같은 공동 시설에 설치되는 음성녹음 기기를 통해 공동 시설에 생활하는 어린이의 음성을 녹음 수집하고, 그 녹음된 음성정보를 기반으로 설정된 감정 항목에 해당하는 소리를 추출하고, 그 추출된 객관적인 정보를 어린이 보호자의 휴대폰으로 전송함으로, 어린이의 보호자는 추출 정보를 기초로 자신 아이의 감정 컨디션을 매우 객관적으로 인지할 수 있어 공동 시설에 생활하면서 적응하는 아이에 대한 보호자의 근심 걱정을 효과적으로 해소할 수 있는 효과가 있다.As described above, according to the method for detecting the emotional condition of children based on voice according to the present invention, the voices of children living in the communal facilities are recorded and collected through the voice recording device installed in the communal facilities such as kindergartens or daycare centers, and the recordings are performed. By extracting the sound corresponding to the emotional item set based on the voice information and transmitting the extracted objective information to the child's guardian's mobile phone, the child's guardian recognizes the emotional condition of their child very objectively based on the extracted information. This has the effect of effectively resolving the worries and concerns of parents about the child who adapts while living in a communal facility.
또한, 음성을 녹음하는 음성녹음 기기는 종래의 CCTV와 같은 기기에 대비하여 매우 저렴한 가격을 형성하고 있어 설치 운영에 대한 금전적인 부담이 없어 소규모의 공동 시설에서도 용이하게 운영될 수 있을 뿐만 아니라, 음성만 녹음되는 특성상 개인 사생활 보호 및 초상권에 대한 폐해를 방지할 수 있어 현실적으로 사용범용성이 우수한 효과가 있다.In addition, the voice recording device that records voice has a very low price compared to the conventional CCTV device, so there is no financial burden for installation and operation, so it can be easily operated even in a small communal facility. Due to the nature of the recording, it is possible to prevent harm to personal privacy and portrait rights, so it has an excellent effect in practical use and versatility.
도 1은 본 발명의 실시예에 따른 음성에 기초한 어린이의 감정 컨디션 검출방법의 블럭도
도 2는 도 1에 도시된 음성에 기초한 어린이의 감정 컨디션 검출방법을 설명하기 위한 도면1 is a block diagram of a method for detecting a child's emotional condition based on voice according to an embodiment of the present invention;
FIG. 2 is a diagram for explaining a method for detecting a child's emotional condition based on the voice shown in FIG. 1; FIG.
본 발명의 바람직한 실시예에 따른 음성에 기초한 어린이의 감정 컨디션 검출방법을 첨부된 도면에 의거하여 상세히 설명한다. 본 발명의 요지를 불필요하게 흐릴 수 있다고 판단되는 공지 기능 및 구성에 대한 상세한 기술은 생략한다.A method for detecting a child's emotional condition based on voice according to a preferred embodiment of the present invention will be described in detail with reference to the accompanying drawings. Detailed descriptions of well-known functions and configurations that are determined to unnecessarily obscure the gist of the present invention will be omitted.
도 1과 도 2는 본 발명의 실시예에 따른 음성에 기초한 어린이의 감정 컨디션 검출방법을 도시한 것으로, 도 1은 본 발명의 실시예에 따른 음성에 기초한 어린이의 감정 컨디션 검출방법의 블럭도를, 도 2는 도 1에 도시된 음성에 기초한 어린이의 감정 컨디션 검출방법을 설명하기 위한 도면을 각각 나타낸 것이다.1 and 2 show a method for detecting a child's emotional condition based on a voice according to an embodiment of the present invention, and FIG. 1 is a block diagram of a method for detecting a child's emotional condition based on a voice according to an embodiment of the present invention. , FIG. 2 is a diagram for explaining a method of detecting a child's emotional condition based on the voice shown in FIG. 1, respectively.
상기 도면에 도시한 바와 같이, 본 발명의 실시예에 따른 음성에 기초한 어린이의 감정 컨디션 검출방법(100)은 음성 수집단계(S10)와, 감정 추출단계(S20)를 포함하고 있다.As shown in the figure, the
도 1에 도시된 바와 같이, 상기 음성 수집단계(S10)는 적어도 하나 이상의 음성녹음 기기(1)를 통해 어린이의 음성(목소리)을 녹음 수집하는 과정이다.As shown in FIG. 1 , the voice collecting step S10 is a process of recording and collecting children's voices (voices) through at least one
여기서, 도 2b에 도시된 바와 같이 상기 음성녹음 기기(1)를 통해 녹음되는 음성 정보는 후설될 상기 감정 추출단계(S20)에서 어린이의 감정 컨디션을 인지할 수 있는 감정을 추출하는 기반이 되므로, 상기 음성녹음 기기(1)는 어린이의 음성이 용이하게 녹음될 수 있도록 어린이가 활동하는 영역에 골고루 배치됨이 바람직하다.Here, as shown in Fig. 2b, the voice information recorded through the
이러한, 상기 음성녹음 기기(1)는 어린이가 생활하는 유치원이나 어린이집 등과 같은 공동 시설에 설치될 수 있으며, 이러한 음성녹음 기기(1)는 통상의 음성인식 스피커 등과 같은 기기로 구현될 수 있다. The
도 1에 도시된 바와 같이, 상기 감정 추출단계(S20)은 상기 음성녹음 기기(1)에 녹음 수집된 음성 정보로부터 추출하고자 하는 감정 항목을 적어도 하나 이상 설정하고, 그 설정된 감정 항목에 해당하는 소리를 음성 정보로부터 추출하는 과정으로,1, in the emotion extraction step (S20), at least one emotion item to be extracted from the voice information recorded and collected in the
설정과정(S21)과, 추출과정(S22)과, 검출과정(S23)으로 이루어진다.It consists of a setting process (S21), an extraction process (S22), and a detection process (S23).
도 1에 도시된 바와 같이, 상기 설정과정(S21)은 기쁨, 슬픔, 분노를 포함하는 감정 항목 중에서 적어도 하나 이상의 감정 항목을 설정하는 과정이다.As shown in FIG. 1 , the setting process ( S21 ) is a process of setting at least one emotion item among emotion items including joy, sadness, and anger.
여기서, 상기 설정과정(S21)은 상기 음성녹음 기기(1)에 녹음된 어린이의 음성 정보에서 추출하고자 하는 감정 항목을 설정하는 과정으로, 이때 설정되는 감정 항목을 기반으로 어린이의 감정 컨디션을 검출하게 된다.Here, the setting process (S21) is a process of setting an emotion item to be extracted from the child's voice information recorded in the
이러한 상기 감정 항목으로 본 발명의 음성에 기초한 어린이의 감정 컨디션 검출방법(100)에서는 사람의 가장 기본적인 감정인 기쁨, 슬픔, 분노 중에서 설정하도록 하였으나, 그 외의 감정인 질투심, 괴로움 등의 감정으로 확산하여 설정 검출할 수 있음은 물론이다.In the
도 1에 도시된 바와 같이, 상기 추출과정(S22)은 상기 음성녹음 기기(1)에서 수집된 음성 정보를 기반으로 설정된 감정 항목에 해당하는 소리를 추출하는 과정으로, 상기 기쁨 감정 항목은 웃음소리, 상기 슬픔 감정 항목은 울음소리, 상기 분노 감정 항목은 화내는 소리로 추출할 수 있다.1, the extraction process (S22) is a process of extracting a sound corresponding to an emotion item set based on the voice information collected by the
이렇게 상기 음성 정보로부터 추출된 추출정보는 후설될 상기 검출과정(S23)에서 검출정보를 획득하는데 사용된다.In this way, the extracted information extracted from the voice information is used to obtain the detection information in the detection process (S23), which will be described later.
도 1에 도시된 바와 같이, 상기 검출과정(S23)은 상기 추출과정(S22)을 통해 추출된 정보를 기반으로 상기 설정과정(S21)에서 설정된 각 감정 항목에 해당하는 소리가 지속된 시간이나 횟수 또는 시간과 횟수를 검출하는 과정이다.1, the detection process (S23) is based on the information extracted through the extraction process (S22), the duration or number of times the sound corresponding to each emotion item set in the setting process (S21) is continued. Or the process of detecting time and number of times.
즉, 도 2c에 도시된 바와 같이 상기 검출과정(S23)에서 추출되는 검출정보는 어린이가 공동 시설에서 생활하는 과정에서 녹음된 음성 정보로부터 추출된 객관적인 검출정보이므로, 각각의 항목의 지속 시간이나 횟수를 기반으로 공동 시설에서 생활하는 어린이의 감정 컨디션을 알 수 있게 된다.That is, as shown in FIG. 2C , the detection information extracted in the detection process S23 is objective detection information extracted from voice information recorded in the process of children living in a common facility, so the duration or number of each item Based on this, it is possible to know the emotional condition of children living in communal facilities.
일 예로, 어린이의 음성 정보로부터 추출된 항목 중에서 상기 기쁨 항목의 시간이나 횟수가 많은 경우에는 어린이의 감정 컨디션이 밝고 행복한 상태로 인지할 수 있고, 상기 슬픔 항목이 많은 경우에는 어린이의 감정 컨디션이 다소 불편하고 불행한 상태로 인지할 수 있고, 상기 분노 항목이 많은 경우에는 어린이의 감정 컨디션이 다소 불안하고 화가 난 상태로 인지할 수 있다.For example, among the items extracted from the voice information of children, when the time or number of the joy item is large, the emotional condition of the child can be recognized as a bright and happy state, and when there are many sadness items, the emotional condition of the child is somewhat lower It can be recognized as an uncomfortable and unhappy state, and when there are many anger items, the emotional condition of the child can be perceived as a somewhat anxious and angry state.
여기서, 각 항목에 대한 단편적인 어린이의 감정 컨디션 상태를 설명하였으나, 상기의 감정 항목들을 복합적으로 수집 해석하여 보다 다양하고 정밀하게 어린이의 감정 컨디션을 검출할 수 있음은 물론이다.Here, although fragmentary emotional condition states of children for each item have been described, it goes without saying that the emotional conditions of children can be detected more diversely and precisely by complexly collecting and interpreting the above emotional items.
또한, 상기 감정 추출단계(S20)의 설정과정(S21)에서 설정되는 항목으로 활동성 항목을 더 포함하며,In addition, it further includes an activity item as an item set in the setting process (S21) of the emotion extraction step (S20),
상기 추출과정(S22)에서는 활동성 항목으로 상기 음성녹음 기기를 통해 녹음되는 음성이 멀어지고 가까워지는 정보를 기반으로 어린이의 움직임 상태를 추출하며,In the extraction process (S22), the movement state of the child is extracted based on the information that the voice recorded through the voice recording device is moving away and approaching as an activity item,
상기 검출과정(S23)에서는 상기 추출과정(S22)에서 추출된 정보를 기반으로 상기 활동성 항목에 해당하는 어린이의 움직임이 지속되는 시간이나 횟수 또는 시간과 횟수를 검출하도록 한다.In the detection process (S23), based on the information extracted in the extraction process (S22), the duration or the number of times or the time and number of the movement of the child corresponding to the activity item is detected.
여기서, 상기 추출과정(S22)에서는 통상 어린이가 소리를 내면서 이동하는 경우에 상기 음성녹음 기기(1)로부터 어린이가 멀어지면 음성의 소리가 점차 작아지고, 반대로 상기 음성녹음 기기(1)로 가까워지면 음성 소리가 점차 커지지는 현상을 기반으로 어린이의 움직임 상태를 추출하게 된다.Here, in the extraction process (S22), when the child moves while making a sound, the sound of the voice gradually decreases as the child moves away from the
즉, 도 2c에 도시된 바와 같이 상기 감정 추출단계(S20)에서 상기 음성녹음 기기(1)로부터 녹음된 음성 정보를 기반으로 어린이의 움직임 상태가 지속된 시간, 횟수를 검출함으로, 어린이의 감정 컨디션과 함께 활동성을 함께 검출하도록 한다.That is, as shown in Fig. 2c, in the emotion extraction step (S20), based on the voice information recorded from the
여기서, 상기 음성녹음 기기(1)에 녹음된 음성 정보로부터 상기 감정 및 활동성 항목에 대한 추출은 각종 소리를 구분 검출하는 프로그램을 구축하여 수행하거나, 각각의 소리를 다양한 딥 러닝 방식으로 학습 습득하는 AI(Artificial Intelligence)를 통해 수행할 수 있음은 물론이다.Here, the extraction of the emotion and activity items from the voice information recorded in the
한편, 도 1에 도시된 바와 같이 상기 감정 추출단계(S20)에서 추출된 객관적인 검출정보(각 항목에 대한 소리가 지속된 시간 및 횟수)를 각 어린이의 보호자 휴대폰(2)으로 전송하는 전송단계(40);를 더 포함할 수 있다.On the other hand, as shown in Fig. 1, the objective detection information extracted in the emotion extraction step (S20) (the duration and number of times the sound for each item) is transmitted to the
즉, 도 2d에 도시된 바와 같이 상기 전송단계(S40)에서 전송되는 객관적인 검출정보를 수신하는 어린이의 보호자는 공동 시설에서 생활하는 자신 아이의 감정 컨디션과 활동성을 객관적으로 확인 인지할 수 있어 공동 시설에 생활하면서 적응하는 아이에 대한 보호자의 근심 걱정을 효과적으로 해소할 수 있도록 한다.That is, as shown in Fig. 2d, the guardian of the child who receives the objective detection information transmitted in the transmission step (S40) can objectively confirm and recognize the emotional condition and activity of his or her child living in the common facility. To effectively relieve the worries and concerns of the parents about the child who is adjusting while living in the home.
더욱이, 상기 전송단계(S40)에서 전송되는 객관적인 검출정보를 통해 상기 슬픔 및 분노 항목이 과도하게 검출된 경우에는 보호자의 적절한 개입을 유도하여 어린이가 바른 인성을 갖도록 적합한 시기에 바람직한 교육을 받도록 유도하거나, 어린이에 대한 학대와 폭력이 발생하는 상황을 미리 포착 대처하여 어린이가 안전하게 보호될 수 있도록 유도할 수 있다.Furthermore, if the sadness and anger items are excessively detected through the objective detection information transmitted in the transmission step (S40), the appropriate intervention of the guardian is induced to induce the child to receive a desirable education at a suitable time so that the child has the right personality, or , it can induce children to be safely protected by detecting and responding to situations in which abuse and violence against children occur in advance.
여기서, 상기 전송단계(S40)는 상기 감정 추출단계(S20)에서 추출된 검출정보를 하루에 한 번씩 보호자의 휴대폰(2)으로 전송하도록 하나, 시간별, 주별, 월별 등과 같이 다양한 시간 간격으로 전송할 수 있음은 물론이다.Here, in the transmitting step (S40), the detection information extracted in the emotion extraction step (S20) is transmitted to the
한편, 도 1에 도시된 바와 같이 상기 음성 수집단계(S10) 전에 수행하는 과정으로, 어린이와, 그 어린이 고유의 음성(목소리)을 매칭시켜 상기 음성 수집단계(S10)에서 음성녹음 기기(1)를 통해 다수의 어린이 음성이 녹음되더라도, 그 녹음 수집되는 음성 정보로부터 각 어린이 별로 음성이 구분되어 수집되도록 하는 음성 인식단계(S30);를 더 포함하여 이루어진다.On the other hand, as shown in FIG. 1, as a process performed before the voice collecting step (S10), the voice recording device (1) in the voice collecting step (S10) by matching the child and the child's own voice (voice) Even if a plurality of children's voices are recorded through , the voice recognition step (S30) of distinguishing and collecting voices for each child from the recorded and collected voice information is further included.
통상적으로 유치원이나 어린이집과 같은 공동 시설은 다수의 어린이가 함께 생활하는 공간이므로 상기 음성인식 기기(1)를 통해 다수의 어린이 음성이 함께 녹음되므로, 그 녹음된 음성 정보로부터 각 어린이의 감정 항목을 추출하기 위해서는 음성 정보로부터 각 어린이 별로 음성의 구분 수집이 요구된다.In general, common facilities such as kindergartens or daycare centers are spaces where a large number of children live together, so a plurality of children's voices are recorded together through the
따라서, 도 2a에 도시된 바와 같이 상기 음성 인식단계(S30)와 같이 상기 음성녹음 기기(1)에 녹음될 수 있는 어린이 별로 각 어린이의 고유의 음성 파형을 인식시켜 어린이와 그 어린이의 음성을 매칭하는 과정이 선 수행되어야 하는데,Therefore, as shown in Fig. 2a, as in the voice recognition step (S30), each child's unique voice waveform is recognized for each child that can be recorded in the
본 발명의 음성 인식단계(S30)에서는 상기 음성녹음 기기(1)로부터 녹음될 어린이의 음성을 상기 음성녹음 기기(1)를 통해 최소 2회 이상 반복 녹음하고, 그 녹음된 음성 정보를 기반으로 어린이의 음성에 대한 고유의 파형을 분석하는 방식으로 어린이와 그 어린이 고유의 음성을 매칭시킨다.In the voice recognition step (S30) of the present invention, the voice of the child to be recorded from the
이러한 각 어린이의 음성 매칭을 위한 음성의 분석은 통상의 음성 분석기기나, 음성 정보로부터 감정 항목을 추출하는 컴퓨터와 같은 기기에 구축되는 프로그램을 통해 수행될 수 있다.The analysis of the voice for each child's voice matching may be performed through a program built in a device such as a general voice analysis device or a computer that extracts emotion items from voice information.
상기와 같은 음성 인식단계(S30)를 통해 어린이와 그 어린이의 음성을 서로 매칭시킴으로 공동 시설에 생활하는 다수의 어린이의 음성이 녹음되는 음성 정보로부터 각 어린이의 감정 항목을 원활하게 추출할 수 있어 다수의 어린이의 감정 컨디션을 용이하게 검출할 수 있다.Through the voice recognition step (S30) as described above, each child's emotional items can be smoothly extracted from the voice information in which the voices of multiple children living in a common facility are recorded by matching the voices of the children and the children with each other. of children's emotional condition can be easily detected.
상기와 같은 과정으로 이루어진 본 발명의 음성에 기초한 어린이의 감정 컨디션 검출방법(100)은 유치원이나 어린이집과 같은 공동 시설에 설치되는 음성녹음 기기(1)를 통해 공동 시설에 생활하는 어린이의 음성을 녹음 수집하고, 그 녹음된 음성정보를 기반으로 설정된 감정 항목에 해당하는 소리를 추출하고, 그 추출된 객관적인 정보를 어린이 보호자의 휴대폰(2)으로 전송함으로, 어린이의 보호자는 추출 정보를 기초로 자신 아이의 감정 컨디션을 매우 객관적으로 인지할 수 있어 공동 시설에 생활하면서 적응하는 아이에 대한 보호자의 근심 걱정을 효과적으로 해소할 수 있는 효과가 있다.The
또한, 음성을 녹음하는 음성녹음 기기(1)는 종래의 CCTV와 같은 기기에 대비하여 매우 저렴한 가격을 형성하고 있어 설치 운영에 대한 금전적인 부담이 없어 소규모의 공동 시설에서도 용이하게 운영될 수 있을 뿐만 아니라, 음성만 녹음되는 특성상 개인 사생활 보호 및 초상권에 대한 폐해를 방지할 수 있어 현실적으로 사용범용성이 우수하다는 장점이 있다.In addition, the voice recording device (1) for recording voice has a very low price compared to the conventional equipment such as CCTV, and there is no financial burden for installation and operation, so it can be easily operated even in a small communal facility. However, since only voice is recorded, it is possible to protect personal privacy and prevent harm to portrait rights, so it has the advantage of being practically excellent in versatility.
상기와 같은 구성을 가진 본 발명의 실시예에 따른 음성에 기초한 어린이의 감정 컨디션 검출방법(100)은 다음과 같이 어린이의 감정 컨디션을 검출하고, 그 검출정보를 보호자에게 제공하도록 한다.The
먼저, 도 2a에 도시된 바와 같이 유치원이나 어린이집과 같은 공동 시설에 생활하는 다수의 어린이에 대한 감정 컨디션의 검출이 요구되면, 각 어린이 별로 어린이와 그 어린이의 고유의 음성을 매칭시킨다. (S30)First, as shown in FIG. 2A , when detection of emotional conditions for a plurality of children living in a common facility such as a kindergarten or daycare center is required, the child and the child's unique voice are matched for each child. (S30)
그런 후, 도 2b에 도시된 바와 같이 공동 시설에 설치되는 음성녹음 기기(1)를 통해 공동 시설에서 생활하는 다수의 어린이 음성을 녹음하도록 한다. Then, as shown in FIG. 2B , the voices of a number of children living in the common facility are recorded through the
이때, 상기 음성녹음 기기(1)에 녹음된 음성 정보는 유·무선 통신을 통해 음성 정보로부터 감정 항목을 추출하는 관리서버(3)로 전송될 수 있다. (S10)At this time, the voice information recorded in the
그런 후, 상기 관리서버(3)에서는 음성 정보로부터 각 어린이 별로 감정 항목에 대한 지속 시간 및 횟수를 추출하는데, 이때 미리 설정된 감정 항목에 대한 소리를 음성 정보로부터 추출하도록 한다.Then, the
여기서, 상기 관리서버(3)는 컴퓨터의 설치되는 프로그램이나 AI 방식을 통해 음성 정보로부터 각 감정 항목에 대한 소리를 추출 검출함은 물론이다.Here, of course, the
일 예로, 상기 감정 항목으로 기쁨, 슬픔, 분노 항목 모두가 선택 설정되었으나, 일부를 선택적으로 설정하여 감정 항목을 추출할 수 있음은 물론이다. (S20)For example, although all of the joy, sadness, and anger items are selectively set as the emotion items, it goes without saying that some of the emotion items may be selectively set. (S20)
그런 후, 상기 음성 정보로부터 추출 검출된 각 어린이의 감정 항목에 대한 검출정보는 각 어린이의 보호자 휴대폰(2)으로 전송시켜 보호자가 자신 아이의 감정 컨디션을 객관적으로 인지할 수 있도록 한다. (S40)Then, the detection information for each child's emotional item extracted and detected from the voice information is transmitted to the guardian's
본 발명의 음성에 기초한 어린이의 감정 컨디션 검출방법(100)을 유치원이나 어린이집과 같이 어린이가 생활하는 공동 시설에 적용하여 어린이의 감정 컨디션을 검출하는 방법으로 설명하였으나, 노인들이 생활하는 양로원, 경로당, 요양원 등의 공동 시설에 설치하여 관심과 관리가 요구되는 노인들의 감정 컨디션을 검출하는데 적용하여 사용할 수 있음은 물론이다.Although the method for detecting the emotional condition of children based on the voice of the present invention (100) has been described as a method of detecting the emotional condition of children by applying it to a common facility where children live, such as a kindergarten or daycare center, a nursing home where the elderly live, Of course, it can be applied and used to detect the emotional condition of the elderly who require attention and management by installing it in a communal facility such as a nursing home.
본 발명은 첨부된 도면에 도시된 실시예를 참고로 설명되었으나 이는 예시적인 것으로 상술한 실시예에 한정되지 않으며, 당해 분야에서 통상의 지식을 가진 자라면 이로부터 다양한 변형 및 균등한 실시예가 가능하다는 점을 이해할 수 있을 것이다. 또한, 본 발명의 사상을 해치지 않는 범위 내에서 당업자에 의한 변형이 가능함은 물론이다. 따라서, 본 발명에서 권리를 청구하는 범위는 상세한 설명의 범위 내로 정해지는 것이 아니라 후술되는 청구범위와 이의 기술적 사상에 의해 한정될 것이다.Although the present invention has been described with reference to the embodiments shown in the accompanying drawings, which are illustrative and not limited to the above-described embodiments, those of ordinary skill in the art will realize that various modifications and equivalent embodiments are possible therefrom. point can be understood. In addition, it is a matter of course that modifications by those skilled in the art are possible within the scope that does not impair the spirit of the present invention. Accordingly, the scope of claiming the right in the present invention will not be defined within the scope of the detailed description, but will be limited by the claims and its technical spirit to be described later.
1. 음성녹음 기기 2. 휴대폰
3. 관리서버
S10. 음성 수집단계 S20. 감정 추출단계
S21. 설정과정 S22. 추출과정
S23. 검출과정 S30. 음성 인식단계
S40. 전송단계
100. 음성에 기초한 어린이의 감정 컨디션 검출방법1.
3. Management Server
S10. Voice collection step S20. emotion extraction stage
S21. Setting process S22. extraction process
S23. Detection process S30. speech recognition stage
S40. transmission step
100. Method of detecting emotional condition of children based on voice
Claims (5)
상기 음성녹음 기기(1)에 녹음 수집된 음성 정보로부터 추출하고자 하는 감정 항목을 적어도 하나 이상 설정하고, 그 설정된 감정 항목에 해당하는 소리를 음성 정보로부터 추출하는 감정 추출단계(S20);로 이루어지는 것을 특징으로 하는 음성에 기초한 어린이의 감정 컨디션 검출방법.
a voice collecting step (S10) of recording and collecting children's voices (voices) through at least one voice recording device (1); and
Setting at least one emotion item to be extracted from the voice information recorded and collected in the voice recording device 1, and extracting a sound corresponding to the set emotion item from the voice information (S20); A method for detecting the emotional condition of children based on the characteristic voice.
상기 감정 추출단계(S20)는,
기쁨, 슬픔, 분노를 포함하는 감정 항목 중에서 적어도 하나 이상의 감정 항목을 설정하는 설정과정(S21)과,
상기 음성녹음 기기(1)에서 수집된 음성 정보를 기반으로 설정된 감정 항목에 해당하는 소리를 추출하되, 상기 기쁨 감정 항목은 웃음소리, 상기 슬픔 감정 항목은 울음소리, 상기 분노 감정 항목은 화내는 소리를 추출하도록 하는 추출과정(S22)과,
상기 추출과정(S22)을 통해 추출된 정보를 기반으로 상기 설정과정(S21)에서 설정된 각 감정 항목에 해당하는 소리가 지속된 시간이나 횟수 또는 시간과 횟수를 검출하는 검출과정(S23)으로 이루어지는 것을 특징으로 하는 음성에 기초한 어린이의 감정 컨디션 검출방법.
The method of claim 1,
The emotion extraction step (S20) is,
A setting process (S21) of setting at least one emotion item among emotion items including joy, sadness, and anger;
A sound corresponding to an emotion item set based on the voice information collected by the voice recording device 1 is extracted, wherein the joy emotion item is laughter, the sadness emotion item is a crying sound, and the anger emotion item is an angry sound. An extraction process (S22) to extract
Based on the information extracted through the extraction process (S22), the detection process (S23) of detecting the duration or number of times or the time and number of the sound corresponding to each emotion item set in the setting process (S21) A method for detecting the emotional condition of children based on the characteristic voice.
상기 감정 추출단계(S20)의 설정과정(S21)에서 설정되는 항목으로 활동성 항목을 더 포함하며,
상기 추출과정(S22)에서는 활동성 항목으로 상기 음성녹음 기기를 통해 녹음되는 음성이 멀어지고 가까워지는 정보를 기반으로 어린이의 움직임 상태를 추출하며,
상기 검출과정(S23)에서는 상기 추출과정(S22)에서 추출된 정보를 기반으로 상기 활동성 항목에 해당하는 어린이의 움직임이 지속되는 시간이나 횟수 또는 시간과 횟수를 검출하도록 하는 것을 특징으로 하는 음성에 기초한 어린이의 감정 컨디션 검출방법.
3. The method of claim 2,
It further includes an activity item as an item set in the setting process (S21) of the emotion extraction step (S20),
In the extraction process (S22), the movement state of the child is extracted based on the information that the voice recorded through the voice recording device is moving away and approaching as an activity item,
In the detection process (S23), based on the information extracted in the extraction process (S22), the duration or number of times or the time and number of the movement of the child corresponding to the activity item is detected. A method for detecting emotional conditions in children.
상기 음성 수집단계(S10) 전에 수행하는 과정으로,
어린이와, 그 어린이 고유의 음성(목소리)을 매칭시켜 상기 음성 수집단계(S10)에서 음성녹음 기기를 통해 다수의 어린이 음성이 녹음되더라도, 그 녹음 수집되는 음성 정보로부터 각 어린이 별로 음성이 구분되어 수집되도록 하는 음성 인식단계(S30);를 더 포함하여 이루어지는 것을 특징으로 하는 음성에 기초한 어린이의 감정 컨디션 검출방법.
According to any one of claims 1 to 3 selected from,
As a process performed before the voice collection step (S10),
Even if a number of children's voices are recorded through the voice recording device in the voice collecting step (S10) by matching the child and the child's unique voice (voice), the voice is separated and collected for each child from the recorded and collected voice information A voice recognition step (S30) to enable the child's emotional condition detection method based on the voice, characterized in that it further comprises.
상기 감정 추출단계(S20)에서 추출 검출된 정보를 각 어린이의 보호자 휴대폰(2)으로 전송하는 전송단계(40);를 더 포함하여 이루어지는 것을 특징으로 하는 음성에 기초한 어린이의 감정 컨디션 검출방법.The method of claim 1,
A method for detecting emotional condition of children based on voice, characterized in that it further comprises; a transmission step (40) of transmitting the extracted and detected information in the emotion extraction step (S20) to the guardian mobile phone (2) of each child.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020200054147A KR102433242B1 (en) | 2020-05-06 | 2020-05-06 | Emotional condition detection method of children based on voice |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020200054147A KR102433242B1 (en) | 2020-05-06 | 2020-05-06 | Emotional condition detection method of children based on voice |
Publications (2)
Publication Number | Publication Date |
---|---|
KR20210135901A true KR20210135901A (en) | 2021-11-16 |
KR102433242B1 KR102433242B1 (en) | 2022-08-17 |
Family
ID=78717120
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020200054147A KR102433242B1 (en) | 2020-05-06 | 2020-05-06 | Emotional condition detection method of children based on voice |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR102433242B1 (en) |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20080037402A (en) * | 2006-10-26 | 2008-04-30 | 엘지전자 주식회사 | Method for making of conference record file in mobile terminal |
KR101029786B1 (en) * | 2006-09-13 | 2011-04-19 | 니뽄 덴신 덴와 가부시키가이샤 | Emotion detecting method, emotion detecting apparatus, emotion detecting program that implements the same method, and storage medium that stores the same program |
KR20140094336A (en) * | 2013-01-22 | 2014-07-30 | 삼성전자주식회사 | A electronic device for extracting a emotion of user and method for extracting a emotion of user in the electronic device |
KR20160116586A (en) * | 2015-03-30 | 2016-10-10 | 한국전자통신연구원 | Method and apparatus for emotion recognition |
KR20190069992A (en) * | 2017-12-12 | 2019-06-20 | 세종대학교산학협력단 | Method and system for recognizing emotions based on speaking style |
-
2020
- 2020-05-06 KR KR1020200054147A patent/KR102433242B1/en active IP Right Grant
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101029786B1 (en) * | 2006-09-13 | 2011-04-19 | 니뽄 덴신 덴와 가부시키가이샤 | Emotion detecting method, emotion detecting apparatus, emotion detecting program that implements the same method, and storage medium that stores the same program |
KR20080037402A (en) * | 2006-10-26 | 2008-04-30 | 엘지전자 주식회사 | Method for making of conference record file in mobile terminal |
KR20140094336A (en) * | 2013-01-22 | 2014-07-30 | 삼성전자주식회사 | A electronic device for extracting a emotion of user and method for extracting a emotion of user in the electronic device |
KR20160116586A (en) * | 2015-03-30 | 2016-10-10 | 한국전자통신연구원 | Method and apparatus for emotion recognition |
KR20190069992A (en) * | 2017-12-12 | 2019-06-20 | 세종대학교산학협력단 | Method and system for recognizing emotions based on speaking style |
Non-Patent Citations (1)
Title |
---|
extrinsic" and the ‘ bio-signal the The Journal of Society for e-Business Studies" and 2017. 05 * |
Also Published As
Publication number | Publication date |
---|---|
KR102433242B1 (en) | 2022-08-17 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN104850846B (en) | A kind of Human bodys' response method and identifying system based on deep neural network | |
US8301443B2 (en) | Identifying and generating audio cohorts based on audio data input | |
JP5604033B2 (en) | Learning system and method using situation feedback | |
Kim et al. | Occupant behavior monitoring and emergency event detection in single-person households using deep learning-based sound recognition | |
CN103875034B (en) | Medical reponse system based on the phonetic analysis in medical environment | |
Gray | Always on: privacy implications of microphone-enabled devices | |
US20200302951A1 (en) | Activity recognition system for security and situation awareness | |
KR102359344B1 (en) | System for smart childcare environment monitoring infant behavior and psychological analysis based on artificial intelligence and method thereof | |
KR20080046644A (en) | Device and method relating to the emotional state of a person | |
CN104040480A (en) | Methods and systems for searching utilizing acoustical context | |
KR20210006419A (en) | Generating and storing health-related information | |
Benítez-Barrera et al. | Remote microphone system use at home: impact on child-directed speech | |
Chuah et al. | Smartphone based autism social alert system | |
Oldoni et al. | The acoustic summary as a tool for representing urban sound environments | |
Liaqat et al. | Challenges with real-world smartwatch based audio monitoring | |
KR102433242B1 (en) | Emotional condition detection method of children based on voice | |
KR102433246B1 (en) | Voice-based emotional condition detection system for children | |
KR102573186B1 (en) | Apparatus, method, and recording medium for providing animal sound analysis information | |
KR101862337B1 (en) | Apparatus, method and computer readable recoding medium for offering information | |
KR102338445B1 (en) | Apparatus, method and computer readable recoding medium for offering information | |
KR102331335B1 (en) | Vulnerable person care robot and its control method | |
Teng et al. | Abnormal sound analytical surveillance system using microcontroller | |
JP7367870B2 (en) | Conversation control program, conversation control method, and information processing device | |
KR20160115196A (en) | Safety caregiver system and method using voice recognition | |
KR101757426B1 (en) | Hairwear having voice recording function and user emotion recognition system using the same |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
E902 | Notification of reason for refusal | ||
E701 | Decision to grant or registration of patent right | ||
GRNT | Written decision to grant |