KR20210135901A - Emotional condition detection method of children based on voice - Google Patents

Emotional condition detection method of children based on voice Download PDF

Info

Publication number
KR20210135901A
KR20210135901A KR1020200054147A KR20200054147A KR20210135901A KR 20210135901 A KR20210135901 A KR 20210135901A KR 1020200054147 A KR1020200054147 A KR 1020200054147A KR 20200054147 A KR20200054147 A KR 20200054147A KR 20210135901 A KR20210135901 A KR 20210135901A
Authority
KR
South Korea
Prior art keywords
voice
child
emotion
information
extracted
Prior art date
Application number
KR1020200054147A
Other languages
Korean (ko)
Other versions
KR102433242B1 (en
Inventor
이영규
Original Assignee
(주)아이티공간
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by (주)아이티공간 filed Critical (주)아이티공간
Priority to KR1020200054147A priority Critical patent/KR102433242B1/en
Publication of KR20210135901A publication Critical patent/KR20210135901A/en
Application granted granted Critical
Publication of KR102433242B1 publication Critical patent/KR102433242B1/en

Links

Images

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/48Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use
    • G10L25/51Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination
    • G10L25/63Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination for estimating an emotional state
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/0002Remote monitoring of patients using telemetry, e.g. transmission of vital signals via a communication network
    • A61B5/0004Remote monitoring of patients using telemetry, e.g. transmission of vital signals via a communication network characterised by the type of physiological signal transmitted
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/16Devices for psychotechnics; Testing reaction times ; Devices for evaluating the psychological state
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/48Other medical applications
    • A61B5/4803Speech analysis specially adapted for diagnostic purposes
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/72Signal processing specially adapted for physiological signals or for diagnostic purposes
    • A61B5/7235Details of waveform analysis
    • A61B5/7264Classification of physiological signals or data, e.g. using neural networks, statistical classifiers, expert systems or fuzzy systems
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/74Details of notification to user or communication with user or patient ; user input means
    • A61B5/746Alarms related to a physiological condition, e.g. details of setting alarm thresholds or avoiding false alarms
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/03Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the type of extracted parameters
    • G10L25/15Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the type of extracted parameters the extracted parameters being formant information
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B2503/00Evaluating a particular growth phase or type of persons or animals
    • A61B2503/06Children, e.g. for attention deficit diagnosis

Abstract

The present invention relates to a method of detecting an emotional condition of a child based on a voice. The method comprises: a voice collection step (S10) of recording and collecting a voice of a child through at least one voice recorder; and an emotion extraction step (S20) of setting at least one emotion item to be extracted from the voice information recorded and collected by the voice recorder, and then, extracting a sound corresponding to the set emotion item from the voice information. According to the present invention, a voice of a child staying in a public facility such as a kindergarten or the like is recorded and collected through a voice recorder installed in the public facility, a sound corresponding to an emotion item set based on the recorded voice information is extracted, and the extracted objective information is transmitted to a mobile phone of a protector of the child, and, as a result, the protector of the child can be objectively aware of an emotional condition of the child based on the extracted information, which can lead to an effect of effectively relieving concerns of the protector about the child trying to accommodate him or herself while staying the public facility. Moreover, since the voice recorder for recording the voice can be low-priced in comparison to existing equipment such as a CCTV or the like, the voice recorder can be easily operated even in a small scale public facility without causing a financial burden regarding installation/operation, and, moreover, privacy and portrait rights can be protected due to the characteristic in which only a voice is recorded, which can lead to an excellent wide use effect in a practical manner.

Description

음성에 기초한 어린이의 감정 컨디션 검출방법{Emotional condition detection method of children based on voice}Emotional condition detection method of children based on voice

본 발명은 음성에 기초한 어린이의 감정 컨디션 검출방법에 관한 것으로, 더욱 상세하게는 유치원이나 어린이집과 같은 공동 시설에 설치되는 음성녹음 기기를 통해 공동 시설에 생활하는 어린이의 음성(목소리)을 녹음 수집하고, 그 녹음된 음성정보를 기반으로 설정된 감정 항목에 해당하는 소리를 추출하고, 그 추출된 객관적인 정보를 어린이 보호자의 휴대폰으로 전송함으로, 어린이의 보호자는 추출 정보를 기초로 자신 아이의 감정 컨디션을 매우 객관적으로 인지할 수 있어 공동 시설에 생활하면서 적응하는 아이에 대한 보호자의 근심 걱정을 효과적으로 해소할 수 있는 음성에 기초한 어린이의 감정 컨디션 검출방법에 관한 것이다.The present invention relates to a method for detecting the emotional condition of children based on voice, and more particularly, through a voice recording device installed in a communal facility such as a kindergarten or daycare center, recording and collecting the voice (voice) of a child living in a communal facility, , extracts the sound corresponding to the emotional item set based on the recorded voice information, and transmits the extracted objective information to the child's guardian's mobile phone, so that the child's guardian can determine the emotional condition of their child It relates to a method for detecting emotional condition of children based on voice, which can be objectively recognized and can effectively relieve parents' worries about a child who adapts while living in a communal facility.

일반적으로 유치원이나 어린이집과 같은 공동 시설에 자신의 아이를 의탁하는 부모(보호자)들은 대부분 자신의 아이가 공동 시설에서 잘 적응하여 재미있고 편안하게 생활하고 있는지에 대해 항상 고민과 걱정이 있다.In general, most parents (guardians) who entrust their children to communal facilities such as kindergartens or day care centers are always concerned and worried about whether their children are well-adjusted in communal facilities and live a fun and comfortable life.

비록, 공동 시설에서 아이를 돌보는 선생님과 부모의 소통을 통해 아이의 적응 상태를 전달받지만, 현실적으로 선생님과 부모의 소통 횟수가 매우 적을 뿐만 아니라, 아이에 대한 선생님의 주관적인 판단에 의한 것이므로 상기와 같은 부모의 고민은 현실적으로 해결되지 않고 있는 실정이다.Although the child's adaptation status is communicated through the communication between the teacher and the parent taking care of the child in the common facility, in reality, the number of communication between the teacher and the parent is very small, and it is based on the teacher's subjective judgment about the child. The problem is not realistically resolved.

한편, 공동 시설에 설치되는 CCTV를 통해 촬영된 영상을 통해 공동 시설에서 생활하는 아이의 영상을 확인하는 방식으로 아이의 생활 상태를 확인할 수 있으나, 이러한 영상은 안전사고와 같은 특별한 상황에서만 확인할 수 있고, 또한 최근에는 시설에 설치되는 CCTV는 개인 사생활 보호와 초상권으로 인한 폐해로 인해 설치되지 않거나, 설치되었더라도 제대로 사용되지 않는 경우가 빈번하여 CCTV를 통해서는 아이의 적응, 생활 상태를 효과적으로 확인하기가 곤란하다.On the other hand, you can check the living condition of a child by checking the video of a child living in a communal facility through the video taken through the CCTV installed in the communal facility, but these images can only be checked in special situations such as safety accidents. , In addition, recently, CCTV installed in facilities is often not installed due to harm caused by privacy protection and portrait rights, or is not used properly even though it is installed. do.

더욱이, CCTV는 설치 및 운영에 금전적으로 많은 비용이 요구되는 만큼 규모가 작은 공동 시설에서는 CCTV의 설치가 자체가 곤란하여 CCTV를 통한 아이의 적응 및 생활 상태를 확인하기에는 많은 어려움이 있다.Moreover, as CCTV requires a lot of money for installation and operation, it is difficult to install CCTV in a small communal facility, so it is difficult to check the child's adaptation and living conditions through CCTV.

따라서 유치원이나 어린이집과 같은 공동 시설에 아이를 의탁하는 부모에게 아이가 공동 시설에서 생활하는 적응 상태를 명확하게 인지할 수 있는 객관적인 정보를 제공할 수 있는 방법이 필요한 실정이다.Therefore, there is a need for a method that can provide objective information to the parents who entrust their children to communal facilities such as kindergartens or daycare centers to clearly recognize the adaptive state of their children living in communal facilities.

본 발명은 상기한 바와 같은 제반 문제점을 해결하기 위하여 제안된 것으로, 그 목적은 유치원이나 어린이집과 같은 공동 시설에 설치되는 음성녹음 기기를 통해 공동 시설에 생활하는 어린이의 음성을 녹음 수집하고, 그 녹음된 음성정보를 기반으로 설정된 감정 항목에 해당하는 소리를 추출하고, 그 추출된 객관적인 정보를 어린이 보호자의 휴대폰으로 전송함으로, 어린이의 보호자는 추출 정보를 기초로 자신 아이의 감정 컨디션을 매우 객관적으로 인지할 수 있어 공동 시설에 생활하면서 적응하는 아이에 대한 보호자의 근심 걱정을 효과적으로 해소할 수 있는 음성에 기초한 어린이의 감정 컨디션 검출방법을 제공함에 있다.The present invention has been proposed to solve the above-mentioned problems, and its purpose is to record and collect the voices of children living in a common facility through a voice recording device installed in a common facility such as a kindergarten or daycare center, and record the recording. By extracting the sound corresponding to the emotional item set based on the voice information and transmitting the extracted objective information to the child's guardian's mobile phone, the child's guardian recognizes the emotional condition of their child very objectively based on the extracted information. An object of the present invention is to provide a method for detecting children's emotional condition based on voice that can effectively relieve the worries and concerns of parents about children who adapt while living in communal facilities.

또한, 음성을 녹음하는 음성녹음 기기는 종래의 CCTV와 같은 기기에 대비하여 매우 저렴한 가격을 형성하고 있어 설치 운영에 대한 금전적인 부담이 없어 소규모의 공동 시설에서도 용이하게 운영될 수 있을 뿐만 아니라, 음성만 녹음되는 특성상 개인 사생활 보호 및 초상권에 대한 폐해를 방지할 수 있어 현실적으로 사용범용성이 우수한 음성에 기초한 어린이의 감정 컨디션 검출방법을 제공함에 있다.In addition, the voice recording device that records voice has a very low price compared to the conventional CCTV device, so there is no financial burden for installation and operation, so it can be easily operated even in a small communal facility. It is intended to provide a method for detecting children's emotional condition based on voice, which is practically usable and has excellent versatility as it can prevent harm to personal privacy and portrait rights due to the nature of the recording only.

상기와 같은 목적을 달성하기 위한 본 발명에 따른 음성에 기초한 어린이의 감정 컨디션 검출방법은 적어도 하나 이상의 음성녹음 기기를 통해 어린이의 음성을 녹음 수집하는 음성 수집단계(S10);와, 상기 음성녹음 기기에 녹음 수집된 음성 정보로부터 추출하고자 하는 감정 항목을 적어도 하나 이상 설정하고, 그 설정된 감정 항목에 해당하는 소리를 음성 정보로부터 추출하는 감정 추출단계(S20);로 이루어지는 것을 특징으로 한다.In order to achieve the above object, the method for detecting the emotional condition of a child based on a voice according to the present invention is a voice collecting step (S10) of recording and collecting the voice of a child through at least one voice recording device; and, the voice recording device Setting at least one emotion item to be extracted from the voice information recorded and collected in the , and extracting a sound corresponding to the set emotion item from the voice information (S20); characterized in that it consists of.

또한, 상기 감정 추출단계(S20)는 기쁨, 슬픔, 분노를 포함하는 감정 항목 중에서 적어도 하나 이상의 감정 항목을 설정하는 설정과정(S21)과, 상기 음성녹음 기기에서 수집된 음성 정보를 기반으로 설정된 감정 항목에 해당하는 소리를 추출하되, 상기 기쁨 감정 항목은 웃음소리, 상기 슬픔 감정 항목은 울음소리, 상기 분노 감정 항목은 화내는 소리를 추출하도록 하는 추출과정(S22)과, 상기 추출과정(S22)을 통해 추출된 정보를 기반으로 상기 설정과정(S21)에서 설정된 각 감정 항목에 해당하는 소리가 지속된 시간이나 횟수 또는 시간과 횟수를 검출하는 검출과정(S23)으로 이루어지는 것을 특징으로 한다.In addition, the emotion extraction step (S20) includes a setting process (S21) of setting at least one emotion item among emotion items including joy, sadness, and anger, and emotion set based on the voice information collected from the voice recording device. An extraction process (S22) of extracting a sound corresponding to the item, wherein the joy emotion item is laughter, the sadness emotion item is a crying sound, and the anger emotion item is a anger sound, and the extraction process (S22) It is characterized in that it consists of a detection process (S23) of detecting the duration or number of times or time and number of sounds corresponding to each emotion item set in the setting process (S21) based on the information extracted through

또한, 상기 감정 추출단계(S20)의 설정과정(S21)에서 설정되는 항목으로 활동성 항목을 더 포함하며,In addition, it further includes an activity item as an item set in the setting process (S21) of the emotion extraction step (S20),

상기 추출과정(S22)에서는 활동성 항목으로 상기 음성녹음 기기를 통해 녹음되는 음성이 멀어지고 가까워지는 정보를 기반으로 어린이의 움직임 상태를 추출하며,In the extraction process (S22), the movement state of the child is extracted based on the information that the voice recorded through the voice recording device is moving away and approaching as an activity item,

상기 검출과정(S23)에서는 상기 추출과정(S22)에서 추출된 정보를 기반으로 상기 활동성 항목에 해당하는 어린이의 움직임이 지속되는 시간이나 횟수 또는 시간과 횟수를 검출하도록 하는 것을 특징으로 한다.In the detection process (S23), based on the information extracted in the extraction process (S22), it is characterized in that the duration or the number of times or the time and number of the movement of the child corresponding to the activity item is detected.

또한, 상기 음성 수집단계(S10) 전에 수행하는 과정으로,In addition, as a process performed before the voice collecting step (S10),

어린이와, 그 어린이 고유의 음성(목소리)을 매칭시켜 상기 음성 수집단계(S10)에서 음성녹음 기기를 통해 다수의 어린이 음성이 녹음되더라도, 그 녹음 수집되는 음성 정보로부터 각 어린이 별로 음성이 구분되어 수집되도록 하는 음성 인식단계(S30);를 더 포함하여 이루어지는 것을 특징으로 한다.Even if a number of children's voices are recorded through the voice recording device in the voice collecting step (S10) by matching the child and the child's unique voice (voice), the voice is separated and collected for each child from the recorded and collected voice information It is characterized in that it further comprises; a voice recognition step (S30) to make it possible.

또한, 상기 감정 추출단계(S20)에서 추출 검출된 정보를 각 어린이의 보호자 휴대폰으로 전송하는 전송단계(40);를 더 포함하여 이루어지는 것을 특징으로 한다.In addition, it is characterized in that it further comprises; a transmission step (40) of transmitting the extracted and detected information in the emotion extraction step (S20) to each child's guardian mobile phone.

이상에서와 같이 본 발명에 따른 음성에 기초한 어린이의 감정 컨디션 검출방법에 의하면, 유치원이나 어린이집과 같은 공동 시설에 설치되는 음성녹음 기기를 통해 공동 시설에 생활하는 어린이의 음성을 녹음 수집하고, 그 녹음된 음성정보를 기반으로 설정된 감정 항목에 해당하는 소리를 추출하고, 그 추출된 객관적인 정보를 어린이 보호자의 휴대폰으로 전송함으로, 어린이의 보호자는 추출 정보를 기초로 자신 아이의 감정 컨디션을 매우 객관적으로 인지할 수 있어 공동 시설에 생활하면서 적응하는 아이에 대한 보호자의 근심 걱정을 효과적으로 해소할 수 있는 효과가 있다.As described above, according to the method for detecting the emotional condition of children based on voice according to the present invention, the voices of children living in the communal facilities are recorded and collected through the voice recording device installed in the communal facilities such as kindergartens or daycare centers, and the recordings are performed. By extracting the sound corresponding to the emotional item set based on the voice information and transmitting the extracted objective information to the child's guardian's mobile phone, the child's guardian recognizes the emotional condition of their child very objectively based on the extracted information. This has the effect of effectively resolving the worries and concerns of parents about the child who adapts while living in a communal facility.

또한, 음성을 녹음하는 음성녹음 기기는 종래의 CCTV와 같은 기기에 대비하여 매우 저렴한 가격을 형성하고 있어 설치 운영에 대한 금전적인 부담이 없어 소규모의 공동 시설에서도 용이하게 운영될 수 있을 뿐만 아니라, 음성만 녹음되는 특성상 개인 사생활 보호 및 초상권에 대한 폐해를 방지할 수 있어 현실적으로 사용범용성이 우수한 효과가 있다.In addition, the voice recording device that records voice has a very low price compared to the conventional CCTV device, so there is no financial burden for installation and operation, so it can be easily operated even in a small communal facility. Due to the nature of the recording, it is possible to prevent harm to personal privacy and portrait rights, so it has an excellent effect in practical use and versatility.

도 1은 본 발명의 실시예에 따른 음성에 기초한 어린이의 감정 컨디션 검출방법의 블럭도
도 2는 도 1에 도시된 음성에 기초한 어린이의 감정 컨디션 검출방법을 설명하기 위한 도면
1 is a block diagram of a method for detecting a child's emotional condition based on voice according to an embodiment of the present invention;
FIG. 2 is a diagram for explaining a method for detecting a child's emotional condition based on the voice shown in FIG. 1; FIG.

본 발명의 바람직한 실시예에 따른 음성에 기초한 어린이의 감정 컨디션 검출방법을 첨부된 도면에 의거하여 상세히 설명한다. 본 발명의 요지를 불필요하게 흐릴 수 있다고 판단되는 공지 기능 및 구성에 대한 상세한 기술은 생략한다.A method for detecting a child's emotional condition based on voice according to a preferred embodiment of the present invention will be described in detail with reference to the accompanying drawings. Detailed descriptions of well-known functions and configurations that are determined to unnecessarily obscure the gist of the present invention will be omitted.

도 1과 도 2는 본 발명의 실시예에 따른 음성에 기초한 어린이의 감정 컨디션 검출방법을 도시한 것으로, 도 1은 본 발명의 실시예에 따른 음성에 기초한 어린이의 감정 컨디션 검출방법의 블럭도를, 도 2는 도 1에 도시된 음성에 기초한 어린이의 감정 컨디션 검출방법을 설명하기 위한 도면을 각각 나타낸 것이다.1 and 2 show a method for detecting a child's emotional condition based on a voice according to an embodiment of the present invention, and FIG. 1 is a block diagram of a method for detecting a child's emotional condition based on a voice according to an embodiment of the present invention. , FIG. 2 is a diagram for explaining a method of detecting a child's emotional condition based on the voice shown in FIG. 1, respectively.

상기 도면에 도시한 바와 같이, 본 발명의 실시예에 따른 음성에 기초한 어린이의 감정 컨디션 검출방법(100)은 음성 수집단계(S10)와, 감정 추출단계(S20)를 포함하고 있다.As shown in the figure, the method 100 for detecting a child's emotional condition based on a voice according to an embodiment of the present invention includes a voice collecting step (S10) and an emotion extraction step (S20).

도 1에 도시된 바와 같이, 상기 음성 수집단계(S10)는 적어도 하나 이상의 음성녹음 기기(1)를 통해 어린이의 음성(목소리)을 녹음 수집하는 과정이다.As shown in FIG. 1 , the voice collecting step S10 is a process of recording and collecting children's voices (voices) through at least one voice recording device 1 .

여기서, 도 2b에 도시된 바와 같이 상기 음성녹음 기기(1)를 통해 녹음되는 음성 정보는 후설될 상기 감정 추출단계(S20)에서 어린이의 감정 컨디션을 인지할 수 있는 감정을 추출하는 기반이 되므로, 상기 음성녹음 기기(1)는 어린이의 음성이 용이하게 녹음될 수 있도록 어린이가 활동하는 영역에 골고루 배치됨이 바람직하다.Here, as shown in Fig. 2b, the voice information recorded through the voice recording device 1 is the basis for extracting the emotion that can recognize the emotional condition of the child in the emotion extraction step (S20), which will be described later, It is preferable that the voice recording device 1 is evenly arranged in the area where the child is active so that the child's voice can be easily recorded.

이러한, 상기 음성녹음 기기(1)는 어린이가 생활하는 유치원이나 어린이집 등과 같은 공동 시설에 설치될 수 있으며, 이러한 음성녹음 기기(1)는 통상의 음성인식 스피커 등과 같은 기기로 구현될 수 있다. The voice recording device 1 may be installed in a common facility such as a kindergarten or daycare center where children live, and the voice recording device 1 may be implemented as a device such as a conventional voice recognition speaker.

도 1에 도시된 바와 같이, 상기 감정 추출단계(S20)은 상기 음성녹음 기기(1)에 녹음 수집된 음성 정보로부터 추출하고자 하는 감정 항목을 적어도 하나 이상 설정하고, 그 설정된 감정 항목에 해당하는 소리를 음성 정보로부터 추출하는 과정으로,1, in the emotion extraction step (S20), at least one emotion item to be extracted from the voice information recorded and collected in the voice recording device 1 is set, and a sound corresponding to the set emotion item In the process of extracting from voice information,

설정과정(S21)과, 추출과정(S22)과, 검출과정(S23)으로 이루어진다.It consists of a setting process (S21), an extraction process (S22), and a detection process (S23).

도 1에 도시된 바와 같이, 상기 설정과정(S21)은 기쁨, 슬픔, 분노를 포함하는 감정 항목 중에서 적어도 하나 이상의 감정 항목을 설정하는 과정이다.As shown in FIG. 1 , the setting process ( S21 ) is a process of setting at least one emotion item among emotion items including joy, sadness, and anger.

여기서, 상기 설정과정(S21)은 상기 음성녹음 기기(1)에 녹음된 어린이의 음성 정보에서 추출하고자 하는 감정 항목을 설정하는 과정으로, 이때 설정되는 감정 항목을 기반으로 어린이의 감정 컨디션을 검출하게 된다.Here, the setting process (S21) is a process of setting an emotion item to be extracted from the child's voice information recorded in the voice recording device 1, and the emotional condition of the child is detected based on the emotion item set at this time. do.

이러한 상기 감정 항목으로 본 발명의 음성에 기초한 어린이의 감정 컨디션 검출방법(100)에서는 사람의 가장 기본적인 감정인 기쁨, 슬픔, 분노 중에서 설정하도록 하였으나, 그 외의 감정인 질투심, 괴로움 등의 감정으로 확산하여 설정 검출할 수 있음은 물론이다.In the method 100 for detecting the emotional condition of children based on the voice of the present invention as the above-mentioned emotion items, it was set among the most basic emotions of a person, such as joy, sadness, and anger, but it spreads to other emotions such as jealousy and suffering to detect the setting Of course you can.

도 1에 도시된 바와 같이, 상기 추출과정(S22)은 상기 음성녹음 기기(1)에서 수집된 음성 정보를 기반으로 설정된 감정 항목에 해당하는 소리를 추출하는 과정으로, 상기 기쁨 감정 항목은 웃음소리, 상기 슬픔 감정 항목은 울음소리, 상기 분노 감정 항목은 화내는 소리로 추출할 수 있다.1, the extraction process (S22) is a process of extracting a sound corresponding to an emotion item set based on the voice information collected by the voice recording device 1, and the joy emotion item is a laughter sound. , the sadness emotion item may be extracted as a crying sound, and the anger emotion item may be extracted as an angry sound.

이렇게 상기 음성 정보로부터 추출된 추출정보는 후설될 상기 검출과정(S23)에서 검출정보를 획득하는데 사용된다.In this way, the extracted information extracted from the voice information is used to obtain the detection information in the detection process (S23), which will be described later.

도 1에 도시된 바와 같이, 상기 검출과정(S23)은 상기 추출과정(S22)을 통해 추출된 정보를 기반으로 상기 설정과정(S21)에서 설정된 각 감정 항목에 해당하는 소리가 지속된 시간이나 횟수 또는 시간과 횟수를 검출하는 과정이다.1, the detection process (S23) is based on the information extracted through the extraction process (S22), the duration or number of times the sound corresponding to each emotion item set in the setting process (S21) is continued. Or the process of detecting time and number of times.

즉, 도 2c에 도시된 바와 같이 상기 검출과정(S23)에서 추출되는 검출정보는 어린이가 공동 시설에서 생활하는 과정에서 녹음된 음성 정보로부터 추출된 객관적인 검출정보이므로, 각각의 항목의 지속 시간이나 횟수를 기반으로 공동 시설에서 생활하는 어린이의 감정 컨디션을 알 수 있게 된다.That is, as shown in FIG. 2C , the detection information extracted in the detection process S23 is objective detection information extracted from voice information recorded in the process of children living in a common facility, so the duration or number of each item Based on this, it is possible to know the emotional condition of children living in communal facilities.

일 예로, 어린이의 음성 정보로부터 추출된 항목 중에서 상기 기쁨 항목의 시간이나 횟수가 많은 경우에는 어린이의 감정 컨디션이 밝고 행복한 상태로 인지할 수 있고, 상기 슬픔 항목이 많은 경우에는 어린이의 감정 컨디션이 다소 불편하고 불행한 상태로 인지할 수 있고, 상기 분노 항목이 많은 경우에는 어린이의 감정 컨디션이 다소 불안하고 화가 난 상태로 인지할 수 있다.For example, among the items extracted from the voice information of children, when the time or number of the joy item is large, the emotional condition of the child can be recognized as a bright and happy state, and when there are many sadness items, the emotional condition of the child is somewhat lower It can be recognized as an uncomfortable and unhappy state, and when there are many anger items, the emotional condition of the child can be perceived as a somewhat anxious and angry state.

여기서, 각 항목에 대한 단편적인 어린이의 감정 컨디션 상태를 설명하였으나, 상기의 감정 항목들을 복합적으로 수집 해석하여 보다 다양하고 정밀하게 어린이의 감정 컨디션을 검출할 수 있음은 물론이다.Here, although fragmentary emotional condition states of children for each item have been described, it goes without saying that the emotional conditions of children can be detected more diversely and precisely by complexly collecting and interpreting the above emotional items.

또한, 상기 감정 추출단계(S20)의 설정과정(S21)에서 설정되는 항목으로 활동성 항목을 더 포함하며,In addition, it further includes an activity item as an item set in the setting process (S21) of the emotion extraction step (S20),

상기 추출과정(S22)에서는 활동성 항목으로 상기 음성녹음 기기를 통해 녹음되는 음성이 멀어지고 가까워지는 정보를 기반으로 어린이의 움직임 상태를 추출하며,In the extraction process (S22), the movement state of the child is extracted based on the information that the voice recorded through the voice recording device is moving away and approaching as an activity item,

상기 검출과정(S23)에서는 상기 추출과정(S22)에서 추출된 정보를 기반으로 상기 활동성 항목에 해당하는 어린이의 움직임이 지속되는 시간이나 횟수 또는 시간과 횟수를 검출하도록 한다.In the detection process (S23), based on the information extracted in the extraction process (S22), the duration or the number of times or the time and number of the movement of the child corresponding to the activity item is detected.

여기서, 상기 추출과정(S22)에서는 통상 어린이가 소리를 내면서 이동하는 경우에 상기 음성녹음 기기(1)로부터 어린이가 멀어지면 음성의 소리가 점차 작아지고, 반대로 상기 음성녹음 기기(1)로 가까워지면 음성 소리가 점차 커지지는 현상을 기반으로 어린이의 움직임 상태를 추출하게 된다.Here, in the extraction process (S22), when the child moves while making a sound, the sound of the voice gradually decreases as the child moves away from the voice recording device 1, and conversely, when the child moves closer to the voice recording device 1 Based on the phenomenon in which the voice sound gradually becomes louder, the movement state of the child is extracted.

즉, 도 2c에 도시된 바와 같이 상기 감정 추출단계(S20)에서 상기 음성녹음 기기(1)로부터 녹음된 음성 정보를 기반으로 어린이의 움직임 상태가 지속된 시간, 횟수를 검출함으로, 어린이의 감정 컨디션과 함께 활동성을 함께 검출하도록 한다.That is, as shown in Fig. 2c, in the emotion extraction step (S20), based on the voice information recorded from the voice recording device 1, the time and number of times the child's movement state has been maintained is detected, so that the emotional condition of the child is to detect activity together with

여기서, 상기 음성녹음 기기(1)에 녹음된 음성 정보로부터 상기 감정 및 활동성 항목에 대한 추출은 각종 소리를 구분 검출하는 프로그램을 구축하여 수행하거나, 각각의 소리를 다양한 딥 러닝 방식으로 학습 습득하는 AI(Artificial Intelligence)를 통해 수행할 수 있음은 물론이다.Here, the extraction of the emotion and activity items from the voice information recorded in the voice recording device 1 is performed by constructing a program for distinguishing and detecting various sounds, or AI that learns and acquires each sound through various deep learning methods Of course, it can be done through (Artificial Intelligence).

한편, 도 1에 도시된 바와 같이 상기 감정 추출단계(S20)에서 추출된 객관적인 검출정보(각 항목에 대한 소리가 지속된 시간 및 횟수)를 각 어린이의 보호자 휴대폰(2)으로 전송하는 전송단계(40);를 더 포함할 수 있다.On the other hand, as shown in Fig. 1, the objective detection information extracted in the emotion extraction step (S20) (the duration and number of times the sound for each item) is transmitted to the mobile phone 2 of the guardian of each child ( 40); may further include.

즉, 도 2d에 도시된 바와 같이 상기 전송단계(S40)에서 전송되는 객관적인 검출정보를 수신하는 어린이의 보호자는 공동 시설에서 생활하는 자신 아이의 감정 컨디션과 활동성을 객관적으로 확인 인지할 수 있어 공동 시설에 생활하면서 적응하는 아이에 대한 보호자의 근심 걱정을 효과적으로 해소할 수 있도록 한다.That is, as shown in Fig. 2d, the guardian of the child who receives the objective detection information transmitted in the transmission step (S40) can objectively confirm and recognize the emotional condition and activity of his or her child living in the common facility. To effectively relieve the worries and concerns of the parents about the child who is adjusting while living in the home.

더욱이, 상기 전송단계(S40)에서 전송되는 객관적인 검출정보를 통해 상기 슬픔 및 분노 항목이 과도하게 검출된 경우에는 보호자의 적절한 개입을 유도하여 어린이가 바른 인성을 갖도록 적합한 시기에 바람직한 교육을 받도록 유도하거나, 어린이에 대한 학대와 폭력이 발생하는 상황을 미리 포착 대처하여 어린이가 안전하게 보호될 수 있도록 유도할 수 있다.Furthermore, if the sadness and anger items are excessively detected through the objective detection information transmitted in the transmission step (S40), the appropriate intervention of the guardian is induced to induce the child to receive a desirable education at a suitable time so that the child has the right personality, or , it can induce children to be safely protected by detecting and responding to situations in which abuse and violence against children occur in advance.

여기서, 상기 전송단계(S40)는 상기 감정 추출단계(S20)에서 추출된 검출정보를 하루에 한 번씩 보호자의 휴대폰(2)으로 전송하도록 하나, 시간별, 주별, 월별 등과 같이 다양한 시간 간격으로 전송할 수 있음은 물론이다.Here, in the transmitting step (S40), the detection information extracted in the emotion extraction step (S20) is transmitted to the mobile phone 2 of the guardian once a day, but can be transmitted at various time intervals such as hourly, weekly, monthly, etc. of course there is

한편, 도 1에 도시된 바와 같이 상기 음성 수집단계(S10) 전에 수행하는 과정으로, 어린이와, 그 어린이 고유의 음성(목소리)을 매칭시켜 상기 음성 수집단계(S10)에서 음성녹음 기기(1)를 통해 다수의 어린이 음성이 녹음되더라도, 그 녹음 수집되는 음성 정보로부터 각 어린이 별로 음성이 구분되어 수집되도록 하는 음성 인식단계(S30);를 더 포함하여 이루어진다.On the other hand, as shown in FIG. 1, as a process performed before the voice collecting step (S10), the voice recording device (1) in the voice collecting step (S10) by matching the child and the child's own voice (voice) Even if a plurality of children's voices are recorded through , the voice recognition step (S30) of distinguishing and collecting voices for each child from the recorded and collected voice information is further included.

통상적으로 유치원이나 어린이집과 같은 공동 시설은 다수의 어린이가 함께 생활하는 공간이므로 상기 음성인식 기기(1)를 통해 다수의 어린이 음성이 함께 녹음되므로, 그 녹음된 음성 정보로부터 각 어린이의 감정 항목을 추출하기 위해서는 음성 정보로부터 각 어린이 별로 음성의 구분 수집이 요구된다.In general, common facilities such as kindergartens or daycare centers are spaces where a large number of children live together, so a plurality of children's voices are recorded together through the voice recognition device 1, so each child's emotional items are extracted from the recorded voice information. In order to do this, it is required to separate and collect voices for each child from voice information.

따라서, 도 2a에 도시된 바와 같이 상기 음성 인식단계(S30)와 같이 상기 음성녹음 기기(1)에 녹음될 수 있는 어린이 별로 각 어린이의 고유의 음성 파형을 인식시켜 어린이와 그 어린이의 음성을 매칭하는 과정이 선 수행되어야 하는데,Therefore, as shown in Fig. 2a, as in the voice recognition step (S30), each child's unique voice waveform is recognized for each child that can be recorded in the voice recording device 1, and the child's voice is matched with the child's voice. The process must be carried out in advance,

본 발명의 음성 인식단계(S30)에서는 상기 음성녹음 기기(1)로부터 녹음될 어린이의 음성을 상기 음성녹음 기기(1)를 통해 최소 2회 이상 반복 녹음하고, 그 녹음된 음성 정보를 기반으로 어린이의 음성에 대한 고유의 파형을 분석하는 방식으로 어린이와 그 어린이 고유의 음성을 매칭시킨다.In the voice recognition step (S30) of the present invention, the voice of the child to be recorded from the voice recording device 1 is repeatedly recorded at least twice through the voice recording device 1, and based on the recorded voice information, the child Matches the child's unique voice with the child's voice by analyzing the unique waveform for the voice of the child.

이러한 각 어린이의 음성 매칭을 위한 음성의 분석은 통상의 음성 분석기기나, 음성 정보로부터 감정 항목을 추출하는 컴퓨터와 같은 기기에 구축되는 프로그램을 통해 수행될 수 있다.The analysis of the voice for each child's voice matching may be performed through a program built in a device such as a general voice analysis device or a computer that extracts emotion items from voice information.

상기와 같은 음성 인식단계(S30)를 통해 어린이와 그 어린이의 음성을 서로 매칭시킴으로 공동 시설에 생활하는 다수의 어린이의 음성이 녹음되는 음성 정보로부터 각 어린이의 감정 항목을 원활하게 추출할 수 있어 다수의 어린이의 감정 컨디션을 용이하게 검출할 수 있다.Through the voice recognition step (S30) as described above, each child's emotional items can be smoothly extracted from the voice information in which the voices of multiple children living in a common facility are recorded by matching the voices of the children and the children with each other. of children's emotional condition can be easily detected.

상기와 같은 과정으로 이루어진 본 발명의 음성에 기초한 어린이의 감정 컨디션 검출방법(100)은 유치원이나 어린이집과 같은 공동 시설에 설치되는 음성녹음 기기(1)를 통해 공동 시설에 생활하는 어린이의 음성을 녹음 수집하고, 그 녹음된 음성정보를 기반으로 설정된 감정 항목에 해당하는 소리를 추출하고, 그 추출된 객관적인 정보를 어린이 보호자의 휴대폰(2)으로 전송함으로, 어린이의 보호자는 추출 정보를 기초로 자신 아이의 감정 컨디션을 매우 객관적으로 인지할 수 있어 공동 시설에 생활하면서 적응하는 아이에 대한 보호자의 근심 걱정을 효과적으로 해소할 수 있는 효과가 있다.The method 100 for detecting the emotional condition of children based on the voice of the present invention consisting of the above process records the voice of a child living in a communal facility through the voice recording device 1 installed in a communal facility such as a kindergarten or daycare center. By collecting, extracting the sound corresponding to the emotional item set based on the recorded voice information, and transmitting the extracted objective information to the child's guardian's mobile phone (2), the child's guardian is his/her child based on the extracted information The emotional condition of children can be recognized very objectively, so it has the effect of effectively resolving the worries and concerns of the parents about the child who adapts while living in a communal facility.

또한, 음성을 녹음하는 음성녹음 기기(1)는 종래의 CCTV와 같은 기기에 대비하여 매우 저렴한 가격을 형성하고 있어 설치 운영에 대한 금전적인 부담이 없어 소규모의 공동 시설에서도 용이하게 운영될 수 있을 뿐만 아니라, 음성만 녹음되는 특성상 개인 사생활 보호 및 초상권에 대한 폐해를 방지할 수 있어 현실적으로 사용범용성이 우수하다는 장점이 있다.In addition, the voice recording device (1) for recording voice has a very low price compared to the conventional equipment such as CCTV, and there is no financial burden for installation and operation, so it can be easily operated even in a small communal facility. However, since only voice is recorded, it is possible to protect personal privacy and prevent harm to portrait rights, so it has the advantage of being practically excellent in versatility.

상기와 같은 구성을 가진 본 발명의 실시예에 따른 음성에 기초한 어린이의 감정 컨디션 검출방법(100)은 다음과 같이 어린이의 감정 컨디션을 검출하고, 그 검출정보를 보호자에게 제공하도록 한다.The method 100 for detecting a child's emotional condition based on voice according to an embodiment of the present invention having the above configuration detects the child's emotional condition as follows, and provides the detection information to the guardian.

먼저, 도 2a에 도시된 바와 같이 유치원이나 어린이집과 같은 공동 시설에 생활하는 다수의 어린이에 대한 감정 컨디션의 검출이 요구되면, 각 어린이 별로 어린이와 그 어린이의 고유의 음성을 매칭시킨다. (S30)First, as shown in FIG. 2A , when detection of emotional conditions for a plurality of children living in a common facility such as a kindergarten or daycare center is required, the child and the child's unique voice are matched for each child. (S30)

그런 후, 도 2b에 도시된 바와 같이 공동 시설에 설치되는 음성녹음 기기(1)를 통해 공동 시설에서 생활하는 다수의 어린이 음성을 녹음하도록 한다. Then, as shown in FIG. 2B , the voices of a number of children living in the common facility are recorded through the voice recording device 1 installed in the common facility.

이때, 상기 음성녹음 기기(1)에 녹음된 음성 정보는 유·무선 통신을 통해 음성 정보로부터 감정 항목을 추출하는 관리서버(3)로 전송될 수 있다. (S10)At this time, the voice information recorded in the voice recording device 1 may be transmitted to the management server 3 for extracting emotion items from the voice information through wired/wireless communication. (S10)

그런 후, 상기 관리서버(3)에서는 음성 정보로부터 각 어린이 별로 감정 항목에 대한 지속 시간 및 횟수를 추출하는데, 이때 미리 설정된 감정 항목에 대한 소리를 음성 정보로부터 추출하도록 한다.Then, the management server 3 extracts the duration and number of emotions for each child from the voice information, and at this time, extracts the preset sound for the emotion item from the voice information.

여기서, 상기 관리서버(3)는 컴퓨터의 설치되는 프로그램이나 AI 방식을 통해 음성 정보로부터 각 감정 항목에 대한 소리를 추출 검출함은 물론이다.Here, of course, the management server 3 extracts and detects the sound for each emotion item from the voice information through a program installed on the computer or the AI method.

일 예로, 상기 감정 항목으로 기쁨, 슬픔, 분노 항목 모두가 선택 설정되었으나, 일부를 선택적으로 설정하여 감정 항목을 추출할 수 있음은 물론이다. (S20)For example, although all of the joy, sadness, and anger items are selectively set as the emotion items, it goes without saying that some of the emotion items may be selectively set. (S20)

그런 후, 상기 음성 정보로부터 추출 검출된 각 어린이의 감정 항목에 대한 검출정보는 각 어린이의 보호자 휴대폰(2)으로 전송시켜 보호자가 자신 아이의 감정 컨디션을 객관적으로 인지할 수 있도록 한다. (S40)Then, the detection information for each child's emotional item extracted and detected from the voice information is transmitted to the guardian's mobile phone 2 of each child so that the guardian can objectively recognize the emotional condition of his/her child. (S40)

본 발명의 음성에 기초한 어린이의 감정 컨디션 검출방법(100)을 유치원이나 어린이집과 같이 어린이가 생활하는 공동 시설에 적용하여 어린이의 감정 컨디션을 검출하는 방법으로 설명하였으나, 노인들이 생활하는 양로원, 경로당, 요양원 등의 공동 시설에 설치하여 관심과 관리가 요구되는 노인들의 감정 컨디션을 검출하는데 적용하여 사용할 수 있음은 물론이다.Although the method for detecting the emotional condition of children based on the voice of the present invention (100) has been described as a method of detecting the emotional condition of children by applying it to a common facility where children live, such as a kindergarten or daycare center, a nursing home where the elderly live, Of course, it can be applied and used to detect the emotional condition of the elderly who require attention and management by installing it in a communal facility such as a nursing home.

본 발명은 첨부된 도면에 도시된 실시예를 참고로 설명되었으나 이는 예시적인 것으로 상술한 실시예에 한정되지 않으며, 당해 분야에서 통상의 지식을 가진 자라면 이로부터 다양한 변형 및 균등한 실시예가 가능하다는 점을 이해할 수 있을 것이다. 또한, 본 발명의 사상을 해치지 않는 범위 내에서 당업자에 의한 변형이 가능함은 물론이다. 따라서, 본 발명에서 권리를 청구하는 범위는 상세한 설명의 범위 내로 정해지는 것이 아니라 후술되는 청구범위와 이의 기술적 사상에 의해 한정될 것이다.Although the present invention has been described with reference to the embodiments shown in the accompanying drawings, which are illustrative and not limited to the above-described embodiments, those of ordinary skill in the art will realize that various modifications and equivalent embodiments are possible therefrom. point can be understood. In addition, it is a matter of course that modifications by those skilled in the art are possible within the scope that does not impair the spirit of the present invention. Accordingly, the scope of claiming the right in the present invention will not be defined within the scope of the detailed description, but will be limited by the claims and its technical spirit to be described later.

1. 음성녹음 기기 2. 휴대폰
3. 관리서버
S10. 음성 수집단계 S20. 감정 추출단계
S21. 설정과정 S22. 추출과정
S23. 검출과정 S30. 음성 인식단계
S40. 전송단계
100. 음성에 기초한 어린이의 감정 컨디션 검출방법
1. Voice recording device 2. Mobile phone
3. Management Server
S10. Voice collection step S20. emotion extraction stage
S21. Setting process S22. extraction process
S23. Detection process S30. speech recognition stage
S40. transmission step
100. Method of detecting emotional condition of children based on voice

Claims (5)

적어도 하나 이상의 음성녹음 기기(1)를 통해 어린이의 음성(목소리)을 녹음 수집하는 음성 수집단계(S10); 및
상기 음성녹음 기기(1)에 녹음 수집된 음성 정보로부터 추출하고자 하는 감정 항목을 적어도 하나 이상 설정하고, 그 설정된 감정 항목에 해당하는 소리를 음성 정보로부터 추출하는 감정 추출단계(S20);로 이루어지는 것을 특징으로 하는 음성에 기초한 어린이의 감정 컨디션 검출방법.
a voice collecting step (S10) of recording and collecting children's voices (voices) through at least one voice recording device (1); and
Setting at least one emotion item to be extracted from the voice information recorded and collected in the voice recording device 1, and extracting a sound corresponding to the set emotion item from the voice information (S20); A method for detecting the emotional condition of children based on the characteristic voice.
제 1 항에 있어서,
상기 감정 추출단계(S20)는,
기쁨, 슬픔, 분노를 포함하는 감정 항목 중에서 적어도 하나 이상의 감정 항목을 설정하는 설정과정(S21)과,
상기 음성녹음 기기(1)에서 수집된 음성 정보를 기반으로 설정된 감정 항목에 해당하는 소리를 추출하되, 상기 기쁨 감정 항목은 웃음소리, 상기 슬픔 감정 항목은 울음소리, 상기 분노 감정 항목은 화내는 소리를 추출하도록 하는 추출과정(S22)과,
상기 추출과정(S22)을 통해 추출된 정보를 기반으로 상기 설정과정(S21)에서 설정된 각 감정 항목에 해당하는 소리가 지속된 시간이나 횟수 또는 시간과 횟수를 검출하는 검출과정(S23)으로 이루어지는 것을 특징으로 하는 음성에 기초한 어린이의 감정 컨디션 검출방법.
The method of claim 1,
The emotion extraction step (S20) is,
A setting process (S21) of setting at least one emotion item among emotion items including joy, sadness, and anger;
A sound corresponding to an emotion item set based on the voice information collected by the voice recording device 1 is extracted, wherein the joy emotion item is laughter, the sadness emotion item is a crying sound, and the anger emotion item is an angry sound. An extraction process (S22) to extract
Based on the information extracted through the extraction process (S22), the detection process (S23) of detecting the duration or number of times or the time and number of the sound corresponding to each emotion item set in the setting process (S21) A method for detecting the emotional condition of children based on the characteristic voice.
제 2 항에 있어서,
상기 감정 추출단계(S20)의 설정과정(S21)에서 설정되는 항목으로 활동성 항목을 더 포함하며,
상기 추출과정(S22)에서는 활동성 항목으로 상기 음성녹음 기기를 통해 녹음되는 음성이 멀어지고 가까워지는 정보를 기반으로 어린이의 움직임 상태를 추출하며,
상기 검출과정(S23)에서는 상기 추출과정(S22)에서 추출된 정보를 기반으로 상기 활동성 항목에 해당하는 어린이의 움직임이 지속되는 시간이나 횟수 또는 시간과 횟수를 검출하도록 하는 것을 특징으로 하는 음성에 기초한 어린이의 감정 컨디션 검출방법.
3. The method of claim 2,
It further includes an activity item as an item set in the setting process (S21) of the emotion extraction step (S20),
In the extraction process (S22), the movement state of the child is extracted based on the information that the voice recorded through the voice recording device is moving away and approaching as an activity item,
In the detection process (S23), based on the information extracted in the extraction process (S22), the duration or number of times or the time and number of the movement of the child corresponding to the activity item is detected. A method for detecting emotional conditions in children.
제 1 항 내지 제 3 항 중에서 선택되는 어느 한 항에 있어서,
상기 음성 수집단계(S10) 전에 수행하는 과정으로,
어린이와, 그 어린이 고유의 음성(목소리)을 매칭시켜 상기 음성 수집단계(S10)에서 음성녹음 기기를 통해 다수의 어린이 음성이 녹음되더라도, 그 녹음 수집되는 음성 정보로부터 각 어린이 별로 음성이 구분되어 수집되도록 하는 음성 인식단계(S30);를 더 포함하여 이루어지는 것을 특징으로 하는 음성에 기초한 어린이의 감정 컨디션 검출방법.
According to any one of claims 1 to 3 selected from,
As a process performed before the voice collection step (S10),
Even if a number of children's voices are recorded through the voice recording device in the voice collecting step (S10) by matching the child and the child's unique voice (voice), the voice is separated and collected for each child from the recorded and collected voice information A voice recognition step (S30) to enable the child's emotional condition detection method based on the voice, characterized in that it further comprises.
제 1 항에 있어서,
상기 감정 추출단계(S20)에서 추출 검출된 정보를 각 어린이의 보호자 휴대폰(2)으로 전송하는 전송단계(40);를 더 포함하여 이루어지는 것을 특징으로 하는 음성에 기초한 어린이의 감정 컨디션 검출방법.
The method of claim 1,
A method for detecting emotional condition of children based on voice, characterized in that it further comprises; a transmission step (40) of transmitting the extracted and detected information in the emotion extraction step (S20) to the guardian mobile phone (2) of each child.
KR1020200054147A 2020-05-06 2020-05-06 Emotional condition detection method of children based on voice KR102433242B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020200054147A KR102433242B1 (en) 2020-05-06 2020-05-06 Emotional condition detection method of children based on voice

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020200054147A KR102433242B1 (en) 2020-05-06 2020-05-06 Emotional condition detection method of children based on voice

Publications (2)

Publication Number Publication Date
KR20210135901A true KR20210135901A (en) 2021-11-16
KR102433242B1 KR102433242B1 (en) 2022-08-17

Family

ID=78717120

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020200054147A KR102433242B1 (en) 2020-05-06 2020-05-06 Emotional condition detection method of children based on voice

Country Status (1)

Country Link
KR (1) KR102433242B1 (en)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20080037402A (en) * 2006-10-26 2008-04-30 엘지전자 주식회사 Method for making of conference record file in mobile terminal
KR101029786B1 (en) * 2006-09-13 2011-04-19 니뽄 덴신 덴와 가부시키가이샤 Emotion detecting method, emotion detecting apparatus, emotion detecting program that implements the same method, and storage medium that stores the same program
KR20140094336A (en) * 2013-01-22 2014-07-30 삼성전자주식회사 A electronic device for extracting a emotion of user and method for extracting a emotion of user in the electronic device
KR20160116586A (en) * 2015-03-30 2016-10-10 한국전자통신연구원 Method and apparatus for emotion recognition
KR20190069992A (en) * 2017-12-12 2019-06-20 세종대학교산학협력단 Method and system for recognizing emotions based on speaking style

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101029786B1 (en) * 2006-09-13 2011-04-19 니뽄 덴신 덴와 가부시키가이샤 Emotion detecting method, emotion detecting apparatus, emotion detecting program that implements the same method, and storage medium that stores the same program
KR20080037402A (en) * 2006-10-26 2008-04-30 엘지전자 주식회사 Method for making of conference record file in mobile terminal
KR20140094336A (en) * 2013-01-22 2014-07-30 삼성전자주식회사 A electronic device for extracting a emotion of user and method for extracting a emotion of user in the electronic device
KR20160116586A (en) * 2015-03-30 2016-10-10 한국전자통신연구원 Method and apparatus for emotion recognition
KR20190069992A (en) * 2017-12-12 2019-06-20 세종대학교산학협력단 Method and system for recognizing emotions based on speaking style

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
extrinsic" and the ‘ bio-signal the The Journal of Society for e-Business Studies" and 2017. 05 *

Also Published As

Publication number Publication date
KR102433242B1 (en) 2022-08-17

Similar Documents

Publication Publication Date Title
CN104850846B (en) A kind of Human bodys' response method and identifying system based on deep neural network
US8301443B2 (en) Identifying and generating audio cohorts based on audio data input
JP5604033B2 (en) Learning system and method using situation feedback
Kim et al. Occupant behavior monitoring and emergency event detection in single-person households using deep learning-based sound recognition
CN103875034B (en) Medical reponse system based on the phonetic analysis in medical environment
Gray Always on: privacy implications of microphone-enabled devices
US20200302951A1 (en) Activity recognition system for security and situation awareness
KR102359344B1 (en) System for smart childcare environment monitoring infant behavior and psychological analysis based on artificial intelligence and method thereof
KR20080046644A (en) Device and method relating to the emotional state of a person
CN104040480A (en) Methods and systems for searching utilizing acoustical context
KR20210006419A (en) Generating and storing health-related information
Benítez-Barrera et al. Remote microphone system use at home: impact on child-directed speech
Chuah et al. Smartphone based autism social alert system
Oldoni et al. The acoustic summary as a tool for representing urban sound environments
Liaqat et al. Challenges with real-world smartwatch based audio monitoring
KR102433242B1 (en) Emotional condition detection method of children based on voice
KR102433246B1 (en) Voice-based emotional condition detection system for children
KR102573186B1 (en) Apparatus, method, and recording medium for providing animal sound analysis information
KR101862337B1 (en) Apparatus, method and computer readable recoding medium for offering information
KR102338445B1 (en) Apparatus, method and computer readable recoding medium for offering information
KR102331335B1 (en) Vulnerable person care robot and its control method
Teng et al. Abnormal sound analytical surveillance system using microcontroller
JP7367870B2 (en) Conversation control program, conversation control method, and information processing device
KR20160115196A (en) Safety caregiver system and method using voice recognition
KR101757426B1 (en) Hairwear having voice recording function and user emotion recognition system using the same

Legal Events

Date Code Title Description
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant