KR101941225B1 - System, method and program for analyzing the crying sound of baby - Google Patents

System, method and program for analyzing the crying sound of baby Download PDF

Info

Publication number
KR101941225B1
KR101941225B1 KR1020170054080A KR20170054080A KR101941225B1 KR 101941225 B1 KR101941225 B1 KR 101941225B1 KR 1020170054080 A KR1020170054080 A KR 1020170054080A KR 20170054080 A KR20170054080 A KR 20170054080A KR 101941225 B1 KR101941225 B1 KR 101941225B1
Authority
KR
South Korea
Prior art keywords
data
crying
interval
vowel
baby
Prior art date
Application number
KR1020170054080A
Other languages
Korean (ko)
Other versions
KR20180120340A (en
Inventor
정재효
전준호
Original Assignee
정재효
전준호
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 정재효, 전준호 filed Critical 정재효
Priority to KR1020170054080A priority Critical patent/KR101941225B1/en
Publication of KR20180120340A publication Critical patent/KR20180120340A/en
Application granted granted Critical
Publication of KR101941225B1 publication Critical patent/KR101941225B1/en

Links

Images

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/48Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use
    • G10L25/51Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination
    • G10L25/63Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination for estimating an emotional state
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F9/00Arrangements for program control, e.g. control units
    • G06F9/06Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
    • G06F9/44Arrangements for executing specific programs
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L21/00Processing of the speech or voice signal to produce another audible or non-audible signal, e.g. visual or tactile, in order to modify its quality or its intelligibility
    • G10L21/02Speech enhancement, e.g. noise reduction or echo cancellation
    • G10L21/0208Noise filtering
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/03Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the type of extracted parameters
    • G10L25/15Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the type of extracted parameters the extracted parameters being formant information
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/93Discriminating between voiced and unvoiced parts of speech signals

Abstract

본 발명은 아기 울음소리 분석 방법 및 프로그램에 관한 것이다.
본 발명의 일 실시예에 따른 아기 울음소리 분석 방법은, 컴퓨터가 아기의 울음소리와 관련된 울음데이터를 수신하는 단계(S100); 상기 울음데이터에서 특정시간 길이만 획득하여 분할구간데이터를 생성하는 단계(S300); 상기 컴퓨터가 복수의 샘플링데이터를 추출하는 단계(S500); 시간영역에서의 파형 변화 또는 파형 반복을 기반으로 자음구간데이터와 모음구간데이터를 구별한 후, 상기 모음구간데이터를 추출모음에 상응하는 모음구간데이터를 추출하는 단계(S700); 상기 모음구간데이터에서 특징정보를 추출하는 단계(S900); 및 상기 특징정보를 기준데이터와 비교하여 상기 울음데이터와 대응되는 감정정보를 결정하는 감정정보 결정단계(S1100);를 포함한다.
The present invention relates to a method and program for analyzing a baby crying sound.
A method for analyzing a baby crying sound according to an exemplary embodiment of the present invention includes: receiving a crying data related to a crying sound of a baby (S100); Acquiring only a specific length of time from the crying data to generate divided section data (S300); The computer extracting a plurality of sampling data (S500); Extracting the vowel interval data from the vowel interval data and the vowel interval data based on the waveform change or the waveform repetition in the time domain, and extracting vowel interval data corresponding to the extracted vowel data (S700); Extracting feature information from the vowel interval data (S900); And an emotion information determination step (S1100) of comparing the feature information with reference data to determine emotion information corresponding to the crying data.

Description

아기 울음소리 분석시스템, 방법 및 프로그램{SYSTEM, METHOD AND PROGRAM FOR ANALYZING THE CRYING SOUND OF BABY}METHOD AND PROGRAM FOR ANALYZING THE CRYING SOUND OF BABY BACKGROUND OF THE INVENTION [0001]

본 발명은 아기 울음소리 분석방법에 관한 것으로, 보다 자세하게는 아기 울음소리를 분석하여 아기의 현재 심리상태를 분석할 수 있는 방법에 관한 것이다.The present invention relates to a method for analyzing a baby crying sound, and more particularly, to a method for analyzing a baby crying to analyze a current psychological state of a baby.

일반적으로, 말을하지 못하는 유아들은 표정, 행동과 소리 등으로 자신의 의사를 타인에게 전달한다. 특히, 아기의 울음소리는 아기의 현재상태, 예컨대 배고픔, 가스참, 졸림, 불편함 등에 따라 고유의 전형적인 패턴이 존재함이 밝혀지면서, 종래에 보호자의 판단에 의해 유아의 상태를 판단하는 것에서 아기의 울음소리를 분석하여 과학적으로 유아의 현재상태를 유추하는 것이 가능해졌다.Generally speaking, infants who do not speak communicate their opinions to others with facial expressions, behaviors, and sounds. Particularly, it has been found that a typical pattern of a baby exists according to the current state of the baby, such as hunger, gas chorus, drowsiness, inconvenience, and the like. In the past, It is now possible to scientifically analyze the current state of the infant by analyzing the cry of the child.

이와 관련하여, 아기울음을 이용하여 사용자에게 아기의 심리상태를 분석해주는 서비스 및 플랫폼이 제공되고 있으며, 그 예로 아기 울음소리 분석장치 등이 시중에 유통되고 있다.In this regard, a service and a platform for analyzing the psychological state of a baby using a baby cry are provided, for example, a baby crying analyzer is being distributed on the market.

한국공개특허 특2003-0077489호Korean Patent Publication No. 2003-0077489 한국등록특허 10-0337235호Korean Patent No. 10-0337235

종래의 유아울음분석장치는, 사용자가 별도의 장치를 구매해야되는 경제적인 부담이 발생하였고, 항상 장치를 휴대해야되는 불편함이 있었다. 즉, 아기의 보호자는 외출할 경우에도 장치를 휴대해야 하기 때문에 매우 번거롭고 불편했으며, 장치를 휴대하지 못한 경우 아기의 현재상태를 판단하지 못하는 문제점이 있었다.In the conventional baby crying analyzing apparatus, an economical burden has arisen for a user to purchase a separate apparatus, and there has been an inconvenience in carrying the apparatus at all times. That is, the caregiver of the baby is very cumbersome and inconvenient because it is necessary to carry the device even when going out, and when the device is not carried, the baby's current condition can not be judged.

또한, 종래의 유아울음분석장치는 울음소리에 따른 유아의 상태를 몇 가지의 제한된 감정상태로 분류하고, 이를 장치의 발광부로 표시하여 구체적인 아기의 심리상태를 전달할 수 없는 문제점이 있으며, 장치의 사용법을 잘 모르는 사용자의 경우 메뉴얼을 통하여 부가적인 정보를 얻어야 하는 불편함이 있었다.In addition, the conventional baby crying analyzing apparatus has a problem that it can not transmit a specific baby's psychological state by classifying the infant's state according to a crying sound into a limited limited emotional state and displaying it as a light emitting unit of the apparatus. It is inconvenient to obtain additional information through a manual.

또한, 기존의 유아울음 분석장치 및 프로그램은 아기 울음 소리를 획득한 후 분석결과를 제시하는데 소요시간이 길어서, 부모가 빠르게 아기 울음에 대처하기 어려운 불편함이 존재하였다.In addition, existing infant crying analyzing apparatuses and programs have a long time to acquire the baby crying result and present the analysis result, which makes it difficult for parents to cope with baby crying rapidly.

위와 같은 문제점으로부터 안출된 본 발명이 해결하고자 하는 기술적 과제는, 사용자가 미리 구비하고 있는 PC, 스마트폰, 태블릿 PC 등을 이용하여 아기 울음소리를 분석하고, 이를 이용하여 아기의 다양한 심리상태를 분석할 수 있는 아기 울음소리 분석방법 및 프로그램을 제공하고자 하는 것이다.SUMMARY OF THE INVENTION The present invention has been made in view of the above problems, and an object of the present invention is to analyze a baby's crying sound using a PC, a smart phone, a tablet PC, and the like, A method for analyzing a baby cry that can be performed, and a program.

또한, 본 발명이 해결하고자 하는 기술적 과제는, 아기울음소리를 분석하는데 필요한 절차를 줄이면서 정확도를 높여서, 부모가 신속하게 아기 울음에 대해 적절하게 대처할 수 있는, 아기 울음소리 분석방법 및 프로그램을 제공하고자 하는 것이다.The present invention also provides a method and program for analyzing a baby crying sound, in which parents can quickly cope with baby crying by increasing the accuracy while reducing the procedure required for analyzing baby crying sounds I would like to.

본 발명이 해결하고자 하는 다른 기술적 과제는, 아기의 울음소리를 분석하여 유아의 다양한 현재상태를 정확하게 분석할 수 있는 아기 울음소리 분석방법을 제공하고자 하는 것이다.It is another object of the present invention to provide a baby crying sound analysis method capable of accurately analyzing various current states of infants by analyzing a baby's crying sound.

본 발명의 기술적 과제들은 이상에서 언급한 기술적 과제들로 제한되지 않으며, 언급되지 않은 또 다른 기술적 과제들은 아래의 기재로부터 당업자에게 명확하게 이해될 수 있을 것이다.The technical objects of the present invention are not limited to the above-mentioned technical problems, and other technical subjects not mentioned can be clearly understood by those skilled in the art from the following description.

상기 언급된 기술적 과제들을 해결하기 위한, 본 발명의 일 실시예에 따른 아기 울음소리 분석 방법은, 컴퓨터가 아기의 울음소리와 관련된 울음데이터를 수신하는 울음데이터수신단계; 상기 울음데이터에서 특정시간 길이만 획득하여 분할구간데이터를 생성하되, 상기 분할구간데이터는 상기 울음데이터를 특정한 시간간격으로 분할한 각 분할구간의 데이터인, 분할구간데이터생성단계; 상기 컴퓨터가 복수의 샘플링데이터를 추출하되, 상기 샘플링데이터는 하나 이상의 샘플을 포함하는 것이며, 상기 샘플은 시간영역에서 소정 추출시간간격으로 샘플링함에 따라 획득되는 것인, 샘플링데이터추출단계; 시간영역에서의 파형 변화 또는 파형 반복을 기반으로 자음구간데이터와 모음구간데이터를 구별한 후, 상기 모음구간데이터를 추출모음에 상응하는 모음구간데이터를 추출하는 단계; 상기 모음구간데이터에서 특징정보를 추출하되, 상기 특징정보는 음폭 변화 패턴 또는 반복구간의 형태를 포함하는 것인, 특징정보 추출 단계; 및 상기 특징정보를 기준데이터와 비교하여 상기 울음데이터와 대응되는 감정정보를 결정하는 감정정보 결정단계;를 포함한다.According to an aspect of the present invention, there is provided a method for analyzing a baby crying sound, comprising: receiving crying data for receiving crying data related to a crying sound of a baby; The divided interval data being data of each divided interval obtained by dividing the crying data by a specific time interval, wherein the divided interval data is obtained by acquiring only a specific length of time from the crying data; Wherein the computer extracts a plurality of sampling data, the sampling data including one or more samples, the sampling being obtained by sampling at a predetermined extraction time interval in a time domain; Extracting the vowel interval data corresponding to the vowel interval data from the vowel interval data and the vowel interval data based on the waveform change or the waveform repetition in the time domain; Extracting feature information from the vowel interval data, wherein the feature information includes a shape of a loudness variation pattern or a repetition interval; And an emotion information determining step of comparing the feature information with reference data to determine emotion information corresponding to the crying data.

또한, 다른 일실시예는, 상기 울음데이터를 주파수영역으로 변환하지 않고 시간영역에서 분석을 수행되는 것을 특징으로 한다.Another embodiment is characterized in that the analysis is performed in the time domain without converting the crying data into the frequency domain.

또한, 다른 일실시예는, 상기 샘플링데이터추출단계는, 상기 울음데이터를 실시간으로 수신하는 과정에서 추출시간간격으로 바로 샘플링을 수행하고, 상기 분할구간데이터생성단계는, 상기 울음데이터 획득요청시점으로부터 분할구간에 상응하는 시간간격의 울음데이터를 획득하는 것을 특징으로 한다.According to another embodiment of the present invention, in the sampling data extracting step, sampling is performed at an extraction time interval in the process of receiving the crying data in real time, and the dividing interval data generating step includes: And to acquire cry data of a time interval corresponding to the divided section.

또한, 다른 일실시예는, 상기 특징정보 추출단계는, 특정한 모음구간데이터의 출현빈도 또는 상기 하나 이상의 모음구간데이터 내에 포함된 패턴형태를 추출하고, 상기 감정정보 결정단계는, 상기 컴퓨터 내에 저장된 하나 이상의 기준데이터 중에서 상기 울음데이터 내의 모음구간데이터에 포함된 패턴형태를 가지는 특정한 기준데이터를 추출하고, 상기 기준데이터에 대응하는 감정정보를 유아의 상태로 결정하되, 상기 기준데이터는 각 감정정보에 따른 특정한 패턴형태를 가지는 샘플링데이터로서, 서버 내에 저장되는 것이다.According to another embodiment, the feature information extracting step may extract the appearance frequency of the specific vowel interval data or the pattern type contained in the at least one vowel interval data, Extracting specific reference data having a pattern form included in vowel interval data in the crying data from the reference data and determining emotion information corresponding to the reference data as a state of the infant, And is stored in the server as sampling data having a specific pattern form.

또한, 다른 일실시예는, 상기 울음데이터 수신단계는, 기준데이터의 음높이를 기초로 상기 울음데이터의 음높이를 보정하는 단계; 및 상기 울음데이터에 포함된 잡음데이터를 제거하는 단계를 포함한다.According to another embodiment of the present invention, the crying data reception step includes the steps of: correcting the pitch of the crying data based on the pitch of the reference data; And removing noise data included in the crying data.

또한, 다른 일실시예는, 상기 모음구간데이터에서 추출된 특징정보를 바탕으로 상기 특징정보를 표현하는 제1특징벡터를 생성하는 단계;를 포함하고, 상기 감정정보 결정단계는, 상기 제1 특징벡터를 각 기준데이터의 제2 특징벡터와 비교하여 상기 울음데이터와 대응되는 감정정보를 산출하는 것을 특징으로 한다.According to another aspect of the present invention, there is provided a method for generating vowel section data, comprising the steps of: generating a first feature vector expressing the feature information based on feature information extracted from the vowel interval data; And compares the vector with a second feature vector of each reference data to calculate emotion information corresponding to the crying data.

또한, 다른 일실시예는, 상기 감정정보에 대한 피드백을 기반으로, 분석결과를 확인하는 단계; 및 상기 울음데이터와 상기 감정정보를 매칭하여, 빅데이터를 구축하는 단계;를 더 포함한다.According to another embodiment of the present invention, there is provided a method of analyzing an emotion information, comprising: confirming an analysis result based on feedback on the emotion information; And constructing big data by matching the crying data with the emotion information.

또한, 다른 일실시예는, 상기 특징정보 추출단계는, 상기 샘플링데이터에서 특정한 기준값 이하의 샘플을 제외한 변환데이터를 생성하는 단계;를 포함하고, 상기 감정정보 결정단계는, 상기 변환데이터 내에 포함된 파형의 특징정보를 기반으로 아기의 감정정보를 산출하는 것을 특징으로 한다.According to another embodiment of the present invention, in the extracting of the feature information, a step of generating conversion data excluding samples below a certain reference value in the sampling data, And the emotion information of the baby is calculated based on the feature information of the waveform.

본 발명의 또 다른 일실시예에 따른 아기 울음소리 분석 프로그램은, 하드웨어인 컴퓨터와 결합되어 상기 언급된 아기 울음소리 분석 방법을 실행하며, 매체에 저장된다.A baby crying sound analysis program according to another embodiment of the present invention is combined with a computer which is a hardware, executes the aforementioned method for analyzing a baby crying sound, and is stored in a medium.

상기와 같은 본 발명에 따르면, 사용자, 즉 유아의 보호자는 자신이 보유한 PC, 스마트폰, 태블릿 PC 등에 응용프로그램을 설치하고, 이를 이용하여 유아의 울음소리를 분석할 수 있으므로 휴대성 및 편의성이 증대될 수 있다.According to the present invention as described above, a user, that is, a protector of an infant, can install an application program on a PC, a smart phone, a tablet PC, and the like, and analyze the crying sound of the infant by using the application program. .

또한, 아기 울음소리를 소정 구간으로 분할하고, 울음소리에 포함된 모음구간을 분석하여 해당 구간의 특징을 기초로 아기의 울음소리에 대응되는 감정정보를 결정할 수 있어, 아기의 다양한 심리상태에 따른 다양한 울음소리를 신뢰성있게 분석할 수 있다.Further, it is possible to divide the baby crying into a predetermined section, analyze the vowel section included in the crying, and determine the emotion information corresponding to the baby's crying based on the characteristic of the section, Various cries can be reliably analyzed.

또한, 본 발명은 주파수 영역에서 아기 울음소리를 분석하는 방식에 비해 아기 상태를 정확하게 구별할 수 있다. 본 발명의 실시예들은 동일한 발음에서도 5가지 아기 울음의 원인을 구별해내는 효과를 제공한다.In addition, the present invention can accurately discriminate a baby state from a method of analyzing baby crying in the frequency domain. Embodiments of the present invention provide the effect of distinguishing the causes of five baby cries in the same pronunciation.

또한, 본 발명은 시간영역에서 연속적으로 획득되는 신호 내에서 특정한 패턴이 확인되기만 하면 바로 아기의 감정상태를 판단해낼 수 있으므로, 기존의 아기울음소리 분석방식(특히, 특정구간의 신호를 획득한 후 주파수 영역변환을 통해 분석을 수행하는 방식)에 비해 빠르게 아기 울음소리 분석을 수행할 수 있다.In addition, since the present invention can determine the emotional state of a baby immediately after a certain pattern is confirmed in a signal continuously obtained in the time domain, it is possible to perform a conventional baby crying analysis method (in particular, And performing analysis through frequency domain transformations).

도 1은 본 발명의 일실시예에 따른 아기 울음소리 분석방법의 개략적인 흐름을 나타내는 순서도이다.
도 2는 본 발명의 일실시예에 따라 서버에서 울음소리 분석을 수행하는 경우의 구성요소들간 연결되어 아기 울음소리를 분석하여 감정상태를 결정하는 일 예를 나타내는 도면이다.
도 3는 본 발명의 일실시예에 따라 울음데이터에서 분할구간데이터를 생성하는 예시도면이다.
도 4는 본 발명의 일실시예에 따라 샘플링데이터에서 모음구간데이터를 추출하는 예시도면이다.
도 5는 본 발명의 일실시예에 따른 배고픈 상태의 아기 울음소리에 대한 울음데이터 그래프이다.
도 6은 본 발명의 일실시예에 따른 불편한 상태의 아기 울음소리에 대한 울음데이터 그래프이다.
도 7은 본 발명의 일실시예에 따른 졸린 상태의 아기 울음소리에 대한 울음데이터 그래프이다.
도 8은 본 발명의 일실시예에 따른 분석방법을 이용하여 울음패턴에 따른 감정정보를 구분하는 일 예를 나타내는 도면이다.
1 is a flowchart showing a schematic flow of a baby crying sound analysis method according to an embodiment of the present invention.
FIG. 2 is a diagram illustrating an example of determining an emotional state by analyzing a baby's crying sound connected between components in performing a crying sound analysis in a server according to an exemplary embodiment of the present invention.
3 is an exemplary diagram for generating divided interval data in crying data according to an embodiment of the present invention.
4 is an exemplary diagram for extracting vowel interval data from sampling data according to an embodiment of the present invention.
5 is a graph of crying data for a baby cry in a hungry state according to an embodiment of the present invention.
6 is a graph of crying data for an uncomfortable baby cry according to an embodiment of the present invention.
7 is a graph of crying data for a sleeping baby cry according to an embodiment of the present invention.
8 is a diagram illustrating an example of distinguishing emotion information according to a crying pattern using an analysis method according to an embodiment of the present invention.

이하, 첨부된 도면을 참조하여 본 발명의 바람직한 실시예를 상세히 설명한다. 본 발명의 이점 및 특징, 그리고 그것들을 달성하는 방법은 첨부되는 도면과 함께 상세하게 후술되어 있는 실시예들을 참조하면 명확해질 것이다. 그러나 본 발명은 이하에서 게시되는 실시예들에 한정되는 것이 아니라 서로 다른 다양한 형태로 구현될 수 있으며, 단지 본 실시예들은 본 발명의 게시가 완전하도록 하고, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 발명의 범주를 완전하게 알려주기 위해 제공되는 것이며, 본 발명은 청구항의 범주에 의해 정의될 뿐이다. 명세서 전체에 걸쳐 동일 참조 부호는 동일 구성 요소를 지칭한다.Hereinafter, preferred embodiments of the present invention will be described in detail with reference to the accompanying drawings. BRIEF DESCRIPTION OF THE DRAWINGS The advantages and features of the present invention and the manner of achieving them will become apparent with reference to the embodiments described in detail below with reference to the accompanying drawings. The present invention may, however, be embodied in many different forms and should not be construed as limited to the embodiments set forth herein. Rather, these embodiments are provided so that this disclosure will be thorough and complete, and will fully convey the scope of the invention to those skilled in the art. To fully disclose the scope of the invention to those skilled in the art, and the invention is only defined by the scope of the claims. Like reference numerals refer to like elements throughout the specification.

다른 정의가 없다면, 본 명세서에서 사용되는 모든 용어(기술 및 과학적 용어를 포함)는 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 공통적으로 이해될 수 있는 의미로 사용될 수 있을 것이다. 또 일반적으로 사용되는 사전에 정의되어 있는 용어들은 명백하게 특별히 정의되어 있지 않는 한 이상적으로 또는 과도하게 해석되지 않는다.Unless defined otherwise, all terms (including technical and scientific terms) used herein may be used in a sense commonly understood by one of ordinary skill in the art to which this invention belongs. Also, commonly used predefined terms are not ideally or excessively interpreted unless explicitly defined otherwise.

본 명세서에서 사용된 용어는 실시예들을 설명하기 위한 것이며 본 발명을 제한하고자 하는 것은 아니다. 본 명세서에서, 단수형은 문구에서 특별히 언급하지 않는 한 복수형도 포함한다. 명세서에서 사용되는 "포함한다(comprises)" 및/또는 "포함하는(comprising)"은 언급된 구성요소 외에 하나 이상의 다른 구성요소의 존재 또는 추가를 배제하지 않는다.The terminology used herein is for the purpose of illustrating embodiments and is not intended to be limiting of the present invention. In the present specification, the singular form includes plural forms unless otherwise specified in the specification. The terms " comprises " and / or " comprising " used in the specification do not exclude the presence or addition of one or more other elements in addition to the stated element.

본 명세서에서 '컴퓨터'는 연산처리를 수행하여 사용자에게 결과를 제공할 수 있는 다양한 장치들이 모두 포함된다. 예를 들어, 컴퓨터는 데스크 탑 PC, 노트북(Note Book) 뿐만 아니라 스마트폰(Smart phone), 태블릿 PC, 셀룰러폰(Cellular phone), 피씨에스폰(PCS phone; Personal Communication Service phone), 동기식/비동기식 IMT-2000(International Mobile Telecommunication-2000)의 이동 단말기, 팜 PC(Palm Personal Computer), 개인용 디지털 보조기(PDA; Personal Digital Assistant) 등도 해당될 수 있다. 또한, 컴퓨터는 클라이언트로부터 요청을 수신하여 정보처리를 수행하는 서버가 해당될 수 있다.The term " computer " as used herein encompasses various devices capable of performing computational processing to provide results to a user. For example, the computer may be a smart phone, a tablet PC, a cellular phone, a personal communication service phone (PCS phone), a synchronous / asynchronous A mobile terminal of IMT-2000 (International Mobile Telecommunication-2000), a Palm Personal Computer (PC), a personal digital assistant (PDA), and the like. Also, the computer may correspond to a server that receives a request from a client and performs information processing.

본 명세서에서 '클라이언트'는 서버와 데이터를 주고받는 일련의 과정을 수행하는 주체 또는 획득된 데이터를 기반으로 자체적으로 데이터 처리를 수행하는 장치를 의미한다. In this specification, the term 'client' refers to a device that performs a series of processes of exchanging data with a server, or a device that performs data processing on its own based on acquired data.

본 명세서에서 '서버'는 네트워크를 통해 하나 이상의 클라이언트와 연결되는 장치를 의미한다. 네트워크는 유선 또는 무선 인터넷일 수도 있고, 이외에도 유선 공중망, 무선 이동 통신망, 또는 휴대 인터넷 등과 통합된 코어망일 수도 있고, TCP/IP 프로토콜 및 그 상위 계층에 존재하는 여러 서비스, 즉 HTTP(Hyper Text Transfer Protocol), Telnet, FTP(File Transfer Protocol), DNS(Domain Name System), SMTP(Simple Mail Transfer Protocol) 등을 제공하는 전 세계적인 개방형 컴퓨터 네트워크 구조를 의미할 수 있다.In this specification, 'server' means a device connected to one or more clients through a network. The network may be a wired or wireless Internet, or may be a core network integrated with a wired public network, a wireless mobile communication network, or a portable Internet, or may be a core network including a TCP / IP protocol and various services located thereon, ), Telnet, File Transfer Protocol (FTP), Domain Name System (DNS), Simple Mail Transfer Protocol (SMTP), and the like.

이하, 도면을 참고하여, 본 발명의 일실시예들에 따른 아기울음소리 분석시스템, 분석방법 및 프로그램을 상세히 설명한다.DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS Reference will now be made in detail to the embodiments of the present invention, examples of which are illustrated in the accompanying drawings.

기존의 아기 울음분석장치 또는 방법은 특정 길이 이상의 울음데이터를 수신한 후에 분석을 위해 주파수 영역으로 변환하여 음성 분석을 수행한다. 구체적으로 주파수 영역 내에서 특징정보에 상응하는 포먼트(Formant)를 추출한다. 포먼트는 어떤 음색을 특정 짓는, 음원의 스펙트럼 에너지가 집중되어 있는 대역으로서, 모음 또는 이에 가까운 유성음의 단음을 주파수로 분석하였을 때 공진으로 인하여 몇 군데의 특정 주파수 영역에 생기는 에너지의 산을 의미한다. 즉, 기존의 아기 울음소리 분석장치 또는 방법은 음원의 주파수 영역에서의 스펙트럼을 바탕으로 분석을 수행하여 음색을 특정짓는 모음과 유성음의 특질인 포먼트를 추출한다.A conventional baby crying analyzing apparatus or method performs voice analysis by converting crying data over a specific length into a frequency domain for analysis. Specifically, a formant corresponding to the feature information is extracted in the frequency domain. A formant is a band in which the spectral energy of a sound source is concentrated, which is specific to a certain tone, and refers to an acid of energy generated in a certain frequency region due to resonance when a vowel or a voiced sound close thereto is analyzed by frequency . In other words, the conventional apparatus for analyzing baby crying sound extracts vowels and voices characteristic of voiced sounds by analyzing based on spectrum in a frequency domain of a sound source.

반면, 본 발명의 실시예들은 울음데이터를 주파수영역으로 변환하지 않고 시간영역에서 분석을 수행한다. 구체적으로, 본 발명의 실시예들은 시간영역에서 울음데이터로부터 분석을 수행할 샘플링데이터를 획득하고, 획득된 샘플링데이터에서 시간영역 내 특징정보를 추출하여 아기(또는 유아)의 감정상태를 분석한다. On the other hand, embodiments of the present invention perform analysis in the time domain without converting the crying data into the frequency domain. Specifically, embodiments of the present invention acquire sampling data for performing analysis from crying data in a time domain, and extract characteristic information in a time domain from the obtained sampling data to analyze an emotional state of a baby (or an infant).

도 1은 본 발명의 일실시예에 따른 아기 울음소리 분석방법의 순서도이다.1 is a flowchart of a method for analyzing a baby crying sound according to an embodiment of the present invention.

도 1을 참조하면, 본 발명의 일 실시예에 따른 아기 울음소리 분석 방법은, 컴퓨터가 아기의 울음소리와 관련된 울음데이터를 수신하는 단계(S100); 상기 울음데이터에서 특정시간 길이만 획득하여 분할구간데이터를 생성하는 단계(S300); 상기 컴퓨터가 복수의 샘플링데이터를 추출하는 단계(S500); 시간영역에서의 파형 변화 또는 파형 반복을 기반으로 자음구간데이터와 모음구간데이터를 구별한 후, 상기 모음구간데이터를 추출모음에 상응하는 모음구간데이터를 추출하는 단계(S700); 상기 모음구간데이터에서 특징정보를 추출하는 단계(S900); 및 상기 특징정보를 기준데이터와 비교하여 상기 울음데이터와 대응되는 감정정보를 결정하는 감정정보 결정단계(S1100);를 포함한다. 이하, 각 단계에 대한 상세한 설명을 기재한다.Referring to FIG. 1, a method for analyzing a baby crying sound according to an exemplary embodiment of the present invention includes: receiving a crying data related to a crying sound of a baby (S100); Acquiring only a specific length of time from the crying data to generate divided section data (S300); The computer extracting a plurality of sampling data (S500); Extracting the vowel interval data from the vowel interval data and the vowel interval data based on the waveform change or the waveform repetition in the time domain, and extracting vowel interval data corresponding to the extracted vowel data (S700); Extracting feature information from the vowel interval data (S900); And an emotion information determination step (S1100) of comparing the feature information with reference data to determine emotion information corresponding to the crying data. Hereinafter, a detailed description of each step will be described.

컴퓨터가 아기의 울음소리와 관련된 울음데이터를 수신한다(S100; 울음데이터수신단계). 일실시예로, 도 2에서와 같이, 컴퓨터가 서버인 경우, 서버가 아기 울음소리를 기반으로 아기 감정상태를 파악하고자 하는 사용자의 클라이언트로부터 아기의 울음소리와 관련된 울음데이터를 수신한다. 다른 일실시예로, 컴퓨터가 클라이언트인 경우(즉, 클라이언트 장치에서 자체적으로 울음데이터 획득 및 분석을 수행하는 경우), 클라이언트는 자체적으로 분석을 수행할 울음데이터를 클라이언트에 구비된 마이크를 통해 획득하거나 아기 울음소리를 획득 가능한 별도의 디바이스로부터 유무선 통신을 통해 획득한다.The computer receives crying data related to the baby's crying (S100; crying data receiving step). In one embodiment, as shown in FIG. 2, when the computer is a server, the server receives crying data related to the baby's crying sound from the client of the user who wants to grasp the baby's emotional state based on the baby crying sound. In another embodiment, if the computer is a client (i.e., if the client device performs its own culling data acquisition and analysis), the client may obtain crying data for performing the analysis itself, via a microphone provided in the client Acquire baby cry through wired or wireless communication from a separate device that can obtain it.

컴퓨터(즉, 서버 또는 클라이언트)가 분석을 수행할 아기 울음소리를 클라이언트가 획득하는 경우, 클라이언트는 아기 울음소리 분석 방법이 구현된 별도의 어플리케이션 또는 응용프로그램을 다운로드하여 설치할 수 있다. 어플리케이션 또는 응용프로그램은, 사용자(예를 들어, 아기 감정을 파악하고자 하는 부모 사용자)로부터 분석요청(예를 들어, 어플리케이션 유저인터페이스 상의 아기울음소리 녹음 버튼 조작)을 입력받으면, 울음데이터를 획득하는 역할을 수행한다. 구체적으로, 사용자는 클라이언트에 설치된 어플리케이션 또는 응용프로그램을 실행한 상태에서, 클라이언트, 예컨대 스마트폰에 구비된 마이크모듈을 이용하여 아기의 울음소리를 수집하여 울음데이터를 생성할 수 있다. When a client acquires a baby cry for analysis by a computer (i.e., a server or a client), the client can download and install a separate application or application in which the baby cry analyzing method is implemented. When an application or an application program receives an analysis request (for example, a baby crying sound recording button operation on the application user interface) from a user (for example, a parent user who intends to grasp a baby emotion) . Specifically, the user can generate crying data by collecting a baby's crying sound using a microphone module provided in a client, for example, a smart phone, while the application or application program installed in the client is running.

또한, 서버가 아기울음소리 분석과정을 수행하는 경우, 어플리케이션은 아기울음소리를 획득(예를 들어, 녹음)하여 서버로 전송하고 분석결과(즉, 아기 울음소리 기반의 감정상태정보)를 수신하여 화면 상에 표시하는 역할을 수행할 수 있다. 또한, 서버로 전송되는 데이터의 크기를 줄이기 위해, 어플리케이션은, 후술하는 바와 같이, 분석을 수행할 특정한 분할구간에 대한 샘플링데이터를 생성하는 역할도 수행할 수 있다. 또한, 클라이언트가 아기울음소리 분석과정을 수행하는 경우, 어플리케이션 또는 프로그램은 내부에 아기울음소리 분석을 수행하기 위한 전체 프로세스에 대한 모듈이 모두 포함된다.In addition, when the server performs the process of analyzing the baby crying sound, the application acquires (e.g., records) the baby crying sound and transmits it to the server and receives the analysis result (i.e., emotion state information based on the baby crying sound) It can play a role of displaying on the screen. In addition, in order to reduce the size of data transmitted to the server, the application may also generate sampling data for a specific segment to be analyzed, as described later. In addition, when the client performs the baby crying analysis process, the application or program includes all of the modules for the entire process to perform the baby crying analysis inside.

또한, 다른 일실시예는, 상기 울음데이터 수신단계(S100)는, 기준데이터의 음높이를 기초로 상기 울음데이터의 음높이를 보정하는 단계;를 포함한다. 음높이 보정과정은, 획득된 울음데이터를 저장된 기준데이터, 즉 울음데이터와 비교할 데이터와의 음높이를 보정하는 과정일 수 있다. 아기의 울음소리의 다양한 패턴, 예를 들어 음폭, 음높이, 진동, 반복구간 등을 이용하여 아기의 감정상태를 분석하므로, 음높이를 기준데이터와 비교될 수 있도록 보정하는 전처리작업을 수행할 수 있다. 구체적으로, 컴퓨터가 분석대상인 울음데이터에 포함된 울음소리에서 평균이 되는 음높이를 획득한다. 그리고, 기준데이터가 특정한 음높이로 설정되어 있는 경우, 컴퓨터는 분석대상데이터의 음높이와 기준데이터의 음높이를 비교하여, 분석대상데이터의 음높이를 보정한다.According to another embodiment of the present invention, the crying data receiving step (SlOO) includes correcting the pitch of the crying data based on the pitch of the reference data. The pitch correction process may be a process of correcting the pitch of the obtained crying data with the stored reference data, that is, the data to be compared with the crying data. The baby's emotional state is analyzed by using various patterns of the baby's crying sound, for example, sound volume, pitch, vibration, repetition interval, etc., so that it is possible to perform a preprocessing operation for correcting the pitch to be compared with the reference data. Specifically, the computer obtains the average pitch from the cry included in the cry data to be analyzed. When the reference data is set to a specific pitch, the computer compares the pitch of the data to be analyzed with the pitch of the reference data to correct the pitch of the data to be analyzed.

또한, 다른 일실시예는, 상기 울음데이터 수신단계(S100)는, 상기 울음데이터에 포함된 잡음데이터를 제거하는 단계;를 포함한다. 아기의 울음소리를 기준으로 울음소리와 관계가 없는 소리, 즉 잡음을 제거함으로써 분석의 정확도 및 신뢰성을 향상시킬 수 있다. 즉, 클라이언트 및 클라이언트 장치의 주변환경 등에 따라 동일한 울음이라 하더라도 서로 다른 잡음 및 소리패턴을 가질 수 있으며, 이를 보정하여 분석의 정확도를 향상시킬 수 있다. 예를 들어, 컴퓨터는 필터(예를 들어, Band-Pass Filter)를 이용하여 울음소리 범위를 벗어나는 잡음데이터를 제거할 수 있다. According to another embodiment of the present invention, the crying data receiving step (S100) includes removing noise data included in the crying data. The accuracy and reliability of the analysis can be improved by eliminating noise that is not related to the crying based on the baby's crying. That is, even if the crying is the same according to the surrounding environment of the client and the client device, it can have different noise and sound patterns, and the accuracy of the analysis can be improved by correcting the same. For example, a computer may use a filter (e.g., a Band-Pass Filter) to remove noise data that falls outside the range of the cry.

컴퓨터가, 도 3에서와 같이, 상기 울음데이터에서 특정시간 길이만 획득하여 분할구간데이터를 생성한다(S300; 분할구간데이터생성단계). 상기 분할구간데이터는 상기 울음데이터를 특정한 시간간격으로 분할한 각 분할구간의 데이터이다. 주파수영역으로 변환하지 않고 시간영역에서 바로 분석을 수행하므로, 주파수영역 변환을 위한 충분한 시간길이를 획득하지 않고 짧은 시간단위(예를 들어, 0.025초)를 분할구간데이터의 단위로 설정할 수 있다. 구체적으로, 분할구간의 시간길이는 시간영역에서 각각의 감정상태별 울음데이터의 파형 패턴이 하나 이상이 포함됨에 따라 파형 비교를 통해 감정상태를 분석할 수 있는 시간단위 이상이다. 즉, 본 실시예에서, 분할구간데이터는 0.025초 간격으로 설정되었으나, 이에 한정되는 것은 아니며 사용자의 환경 및 설정 등에 따라 다양한 기준 간격으로 분할구간 간격이 결정될 수 있다.As shown in FIG. 3, the computer acquires only a specific length of time from the crying data to generate divided section data (S300: divided section data generating step). The divided section data is data of each divided section in which the crying data is divided at a specific time interval. Since the analysis is directly performed in the time domain without being transformed into the frequency domain, a short time unit (for example, 0.025 second) can be set as a unit of the divided section data without acquiring a sufficient time length for the frequency domain transformation. Specifically, the time length of the divided section is equal to or longer than a time unit in which the emotion state can be analyzed through the waveform comparison as one or more waveform patterns of the crying data for each emotion state are included in the time domain. That is, in this embodiment, the divided section data is set at an interval of 0.025 seconds, but the present invention is not limited thereto, and the divided section intervals may be determined at various reference intervals according to the user's environment and setting.

컴퓨터가 복수의 샘플링데이터를 추출한다(S500; 샘플링데이터추출단계). 상기 샘플링데이터는 하나 이상의 샘플을 포함하는 것이며, 상기 샘플은 시간영역에서 소정 추출시간간격으로 샘플링함에 따라 획득되는 것이다. 예를 들어, 컴퓨터는 SampleRate 8000Hz, PCM signed 16bit로 샘플링데이터를 획득할 수 있다.The computer extracts a plurality of sampling data (S500: Sampling data extracting step). The sampling data includes at least one sample, and the sample is obtained by sampling at a predetermined extraction time interval in the time domain. For example, a computer can acquire sampling data at SampleRate 8000Hz, PCM signed 16bit.

일실시예로, 샘플링데이터추출단계(S500)는, 분할구간데이터생성단계(S300) 전에 수행될 수도 있고, 분할구간데이터생성단계(S300) 후에 수행될 수도 있다. 예를 들어, 울음데이터 획득 시에 바로 샘플링데이터추출단계(S500)가 수행되어, 획득되는 울음데이터의 전체범위를 샘플링하여 샘플링데이터로 생성하고, 샘플링데이터를 특정한 분할구간의 시간단위로 나누어서 하나 이상의 분할구간데이터로 생성할 수 있다. 또한, 예를 들어, 컴퓨터는 울음데이터를 특정한 분할구간 단위로 분할구간데이터를 생성한 후, 특정한 개수의 분할구간데이터에 대해서만 샘플링데이터추출단계(S500)를 수행할 수도 있다.In one embodiment, the sampling data extracting step (S500) may be performed before the divided section data generating step (S300) or after the divided section data generating step (S300). For example, when the crying data is acquired, the sampling data extraction step (S500) is immediately performed to generate the sampling data for sampling the entire range of crying data to be obtained, divide the sampling data into time units of a specific division period, And can be generated as divided section data. In addition, for example, the computer may execute the sampling data extracting step S500 only for a specific number of divided section data after generating the divided section data for the specific division section on the crying data.

또한, 다른 일실시예로, 샘플링데이터추출단계(S500)는, 분할구간데이터생성단계(S300)와 동시에 수행될 수도 있다. 구체적으로, 컴퓨터는 울음데이터를 실시간으로 획득 또는 수신하는 과정에서 추출시간간격으로 바로 샘플링을 수행(S500; 샘플링데이터추출단계)하고, 상기 울음데이터 획득요청시점으로부터 분할구간에 상응하는 시간간격으로 울음데이터를 획득하여 하나 이상의 분할구간데이터를 샘플링된 형태로 획득한다(S300; 분할구간데이터생성단계). 컴퓨터가 울음데이터를 획득할 때 동시에 분할구간 단위로 나누고 샘플링을 수행 (즉, S100, S300 및 S500단계를 동시에 수행)함에 따라, 아기 울음소리 분석을 위한 분석대상데이터를 생성하는데 소요되는 시간을 현저히 줄일 수 있다. 특히, 사용자 단말기(예를 들어, 아기울음소리 어플리케이션이 설치되는 스마트폰)가 서버와의 통신없이 아기울음소리를 분석하는 경우, 빠른 분석결과 제공을 위해 아기울음소리 획득 시에 분할데이터 생성 및 샘플링데이터 생성을 동시에 수행할 수 있다.In another embodiment, the sampling data extracting step (S500) may be performed simultaneously with the dividing section data generating step (S300). Specifically, the computer performs sampling immediately at the extraction time interval (S500; sampling data extraction step) in the process of acquiring or receiving the crying data in real time, and crying at a time interval corresponding to the division interval from the crying data acquisition requesting time And acquires one or more divided section data in a sampled form (S300: division section data generation step). When the computer acquires the crying data, the time required to generate the analysis target data for analyzing the baby crying sound is remarkably reduced by dividing the crying data at the same time in units of divisional sections and performing sampling (that is, performing the steps S100, S300, and S500 simultaneously) Can be reduced. Particularly, when a user terminal (for example, a smartphone in which a baby crying application is installed) analyzes baby crying without communication with a server, division data generation and sampling Data generation can be performed simultaneously.

컴퓨터는 시간영역에서의 파형 변화 또는 파형 반복을 기반으로 자음구간데이터와 모음구간데이터를 구별한 후, 상기 모음구간데이터를 추출모음에 상응하는 모음구간데이터를 추출한다(S700). 샘플링이 수행된 울음데이터 내에서 하나의 음절 내에서 초반부와 후반부 사이에 파형 변화가 생긴다. 음절의 초반부에는 자음이 포함되나, 후반부에는 자음 발음은 제외되고, 모음 발음만 남게 된다. 따라서, 자음발음이 포함된 구간(이하, 자음구간)과 모음발음만 포함된 구간(이하, 모음구간)은 파형 패턴에 차이를 가진다. 자음구간이 먼저 등장하고 모음구간이 등장하게 되고, 자음발음이 포함된 구간은 일정한 패턴을 가지지 않으나 모음구간은 전체범위 내에서 동일한 패턴을 가진다. 예를 들어, 도 4에서와 같이, 아기가 울면서 '나'라는 소리를 내는 경우, 자음에 해당하는 'ㄴ'발음이 포함된 구간은 일정하지 않은 패턴을 가지지는 반면, 모음인'ㅏ'발음만 포함된 구간은 일정한 패턴을 보이면서 감정상태에 따라 상이한 패턴을 보이게 된다. The computer distinguishes vowel interval data from vowel interval data based on waveform changes or waveform repetition in the time domain, and extracts vowel interval data corresponding to the extracted vowel data (S700). Within the crying data where sampling is performed, a waveform change occurs between the beginning and end of a syllable. At the beginning of the syllable, consonants are included, but at the end of the syllable, the pronunciation of the consonants is excluded, leaving only vowel pronunciations. Therefore, a section including a consonant sound (hereinafter referred to as a consonant section) and a section including only a vowel sound (hereinafter referred to as a vowel section) have different waveform patterns. The consonant section appears first, the vowel section appears, and the section including the consonant pronunciation does not have a certain pattern, but the vowel section has the same pattern within the entire range. For example, as shown in FIG. 4, when the baby cries 'I', the section including the 'b' sound corresponding to the consonant has a non-uniform pattern, whereas only the vowel 'a' The included section shows a certain pattern, but shows a different pattern depending on the emotional state.

따라서, 컴퓨터는 파형 변화 또는 파형 반복을 기반으로 자음구간과 모음구간을 구별(예를 들어, 자음구간과 모음구간의 경계를 인식)한다. 구체적으로, 컴퓨터는 시간영역에서 파형이 일정패턴을 보이지 않는 구간(즉, 자음구간)에서 동일한 파형이 반복적으로 등장하는 구간(즉, 모음구간)으로 바뀌는 지점을 자음구간과 모음구간의 경계로 파악할 수 있다. 그 후, 컴퓨터는 자음구간과 모음구간의 경계지점 이후에서 모음구간에 해당하는 모음구간데이터를 추출한다. 상기 모음구간데이터는 모음 발음에 해당하는, 분할구간 단위의 샘플링데이터가 된다.Thus, the computer distinguishes consonant intervals and vowel intervals (e.g., recognizes boundaries between consonant intervals and vowel intervals) based on waveform changes or waveform repetitions. Specifically, the computer recognizes the point at which the waveform changes to a section where the same waveform repeatedly appears (i.e., vowel section) in a section where the waveform does not show a certain pattern (i.e., consonant section) as a boundary between the consonant section and vowel section . Then, the computer extracts the vowel interval data corresponding to the vowel section after the boundary point between the consonant section and the vowel section. The vowel interval data is sampled data in a divided interval unit corresponding to vowel pronunciation.

또한, 다른 일실시예로, 컴퓨터는 울음데이터를 소정 구간 간격으로 분할한 후에 모음구간데이터를 추출하는 대신, 울음데이터에 포함된 모음구간을 추출한 후에 분석을 수행하기 용이한 형태로 모음구간을 포함하는 복수 개의 분할구간데이터를 생성할 수 있다. 즉, 아기 울음소리 패턴은 대부분 모음구간에서 발생하므로, 컴퓨터는 전체 울음데이터를 샘플링하는 대신 울음데이터에 포함된 모음구간을 먼저 추출하고, 모음구간만을 샘플링하여 샘플링데이터를 생성할 수도 있다.In another embodiment, instead of extracting the vowel interval data after dividing the crying data at intervals of predetermined intervals, the computer may include a vowel section in a form that is easy to perform analysis after extracting vowel sections included in crying data A plurality of divided section data can be generated. That is, since the baby crying pattern occurs mostly in the vowel section, the computer may extract the vowel section included in the crying data first, and may generate the sampling data by sampling only the vowel section, instead of sampling the entire crying data.

컴퓨터가 상기 모음구간데이터에서 특징정보를 추출한다(S900; 특징정보 추출 단계). 상기 특징정보는 음폭 변화 패턴 또는 반복구간의 형태를 포함하는 것이다. 일실시예로, 상기 특징정보 추출단계(S900)는, 특정한 모음구간데이터의 출현빈도 또는 상기 하나 이상의 모음구간데이터 내에 포함된 패턴형태를 추출한다. 예를 들어, 도 8에서와 같이, 컴퓨터는 모음구간데이터 내에 포함된 반복적으로 나타나는 특정한 패턴형태를 추출한다. The computer extracts feature information from the vowel section data (S900: feature information extraction step). The feature information includes a form of a loudness variation pattern or a repeated section. In one embodiment, the characteristic information extracting step S900 extracts the appearance frequency of the specific vowel interval data or the pattern type contained in the at least one vowel interval data. For example, as shown in FIG. 8, the computer extracts a specific pattern shape repeatedly appearing in the vowel interval data.

또한, 아기가 여러 상황이 복합된 감정상태를 가지고 있을 수 있다. 이러한 경우에 한가지 패턴형태가 하나 이상의 모음구간데이터 내에 등장하는 것이 아니라 여러 파형 패턴이 모음구간데이터 내에 등장할 수 있고, 컴퓨터는 하나 이상의 모음구간데이터 내에 포함된 복수의 파형패턴을 추출해낼 수 있다.In addition, the baby may have multiple emotional states. In this case, one pattern form does not appear in one or more vowel section data but a plurality of waveform patterns can appear in the vowel section data, and the computer can extract a plurality of waveform patterns contained in one or more vowel section data.

또한, 컴퓨터는 하나 이상의 모음구간데이터 내의 각 패턴의 출현빈도를 산출할 수 있다. 컴퓨터는 각 파형패턴의 출현빈도를 반영하여 아기의 정확한 감정상태를 산출할 수 있다. 구체적으로, 컴퓨터는 특정한 시간범위 내에 복수의 모음 패턴이 존재할 수 있으므로(예를 들어, 배고픔에 의한 울음이 심해져서 불편함(짜증)에 대한 울음까지 합쳐지는 경우가 있으므로), 각 특정한 모음패턴의 횟수 또는 나타나는 빈도 등을 고려하여 아기의 상황을 파악할 수 있다.Further, the computer can calculate the appearance frequency of each pattern in one or more vowel interval data. The computer can calculate the accurate emotional state of the baby by reflecting the occurrence frequency of each waveform pattern. Specifically, since the computer may have a plurality of vowel patterns within a specific time range (for example, the voices of the vowel pattern may be combined due to an increase in crying due to hunger) The number of times or frequency of appearance can be taken into consideration to grasp the situation of the baby.

또한, 다른 일실시예로, 도 5 내지 도 7에서와 같이, 상기 특징정보 추출단계(S700)는, 모음구간데이터을 특정한 기준값을 중심으로 변환데이터를 생성하는 단계;를 더 포함한다. 즉, 컴퓨터는, 아기울음의 빠르고 정확한 분석을 수행하기 위해, 모음구간에 대한 샘플링데이터(즉, 도 5(a), 도 6(a) 및 도 7(a))를 디지털데이터(즉, 도 5(b), 도 6(b) 및 도 7(b))로 변환하는 과정을 수행한다. 예를 들어, 컴퓨터는 특정한 기준값보다 큰 샘플은 1로 처리하고, 기준값보다 작은 샘플은 0으로 처리하여 디지털신호를 생성할 수 있다. 5 to 7, the characteristic information extracting step S700 may further include generating transformed data of the vowel interval data around a specific reference value. Namely, in order to perform a quick and accurate analysis of the baby crying, the computer converts the sampling data (i.e., Figs. 5A, 6A and 7A) 5 (b), 6 (b), and 7 (b)). For example, a computer can process a sample larger than a certain reference value by 1 and process a sample smaller than a reference value to 0 to generate a digital signal.

또한, 컴퓨터는 복수의 기준값을 설정하여 샘플링데이터를 복수의 레벨값으로 생성할 수 있다. 예를 들어, 컴퓨터는 아기울음소리에서 나타날 수 있는 샘플값의 전체 범위를 복수의 구간으로 분할하고, 특정구간에 포함되는 샘플을 해당 구간에 상응하는 레벨로 결정할 수 있다. 이를 통해, 컴퓨터는 샘플링데이터를 각 구간의 레벨에 해당하는 자연수 패턴으로 생성할 수 있다. Further, the computer can generate a plurality of level values by setting a plurality of reference values. For example, the computer may divide the entire range of sample values that may appear in the baby crying into a plurality of intervals, and determine a sample included in a specific interval as a level corresponding to the interval. Accordingly, the computer can generate the sampling data in a natural number pattern corresponding to the level of each section.

이를 통해, 컴퓨터는 각 모음구간의 샘플링데이터를 디지털데이터로 생성함에 따라, 기준데이터의 디지털데이터와 비교하여 아기의 감정상태를 판단할 수 있다.Accordingly, the computer can generate the digital data of the sampling data of each vowel section, and compare the digital data of the reference data with the digital data of the reference data to determine the baby's emotional state.

또한, 다른 일실시예로, 도 5 내지 도 7에서와 같이, 컴퓨터는 값 자체 또는 절대값이 특정한 기준값보다 작은 샘플은 0으로 처리하고, 값 자체 또는 절대값이 기준값 이상인 값은 절대값으로 처리하여 남기는 방식으로 샘플링데이터를 처리할 수 있다. 예를 들어, 음이 높게 발생하는 빈도와 패턴이 아기 감정상태 구별의 판단요소가 되므로, 컴퓨터는 특정한 기준값 이상의 샘플만을 남겨서 변환데이터를 생성한다.5 to 7, the computer processes the value itself or the sample in which the absolute value is smaller than the specific reference value as 0, and processes the value itself or the value whose absolute value is equal to or greater than the reference value as an absolute value The sampling data can be processed in such a manner as to be left behind. For example, since the frequencies and patterns that occur with a high degree of sound are the determining factors of the distinction of the baby's emotional state, the computer generates the conversion data by leaving only the samples over a certain reference value.

또한, 특징정보를 추출하는 방식의 다른 일실시예로, 컴퓨터는 모음구간데이터의 특징정보를 특징벡터의 형태로 생성할 수 있다. 즉, 상기 특징정보추출단계(S900)는, 상기 모음구간데이터에서 추출된 특징정보를 바탕으로 상기 특징정보를 표현하는 제1특징벡터를 생성하는 단계;를 포함한다. 샘플링된 모음구간데이터는, 샘플링 간격에 따라 각각의 음폭, 음높이, 음진동, 반복구간 등을 가질 수 있으며, 이를 특징벡터화하여 추출할 수 있다. 다시 말해, 특징벡터는 각 샘플링데이터의 음폭, 음높이, 음진동, 반복구간 중 하나 이상의 특징을 포함하는 벡터일 수 있다. In another embodiment of the feature information extracting method, the computer may generate feature information of the vowel interval data in the form of a feature vector. That is, the feature information extracting step S900 includes generating a first feature vector expressing the feature information based on the feature information extracted from the vowel interval data. The sampled vowel interval data can have respective sounding widths, pitches, sound vibrations, repetition intervals, etc. according to sampling intervals, and can be extracted by feature vectorization. In other words, the feature vector may be a vector including one or more of the following characteristics of sounding, pitch, sound vibration, and repeat section of each sampling data.

컴퓨터가 상기 특징정보를 기준데이터와 비교하여 상기 울음데이터와 대응되는 감정정보를 결정한다(S1100; 감정정보 결정단계). 상기 감정정보는 아기의 다양한 현재상태를 구체화한 정보로써, 예를 들어 배고픔, 불편함, 졸림, 편안함, 가스참 등에 대한 정보일 수 있다. 도 10에서와 같이, 컴퓨터는 유아 또는 아기의 감정상태별로 기준데이터를 저장하고, 기준데이터의 특징정보와 분석대상데이터에서 추출된 특징정보를 비교하여 아기 또는 유아의 감정상태를 파악한다. 상기 기준데이터는 각 감정정보에 따른 특정한 패턴형태를 가지는 샘플링데이터로서, 상기 서버 내에 저장되는 것이다.The computer compares the feature information with reference data to determine emotion information corresponding to the crying data (S1100: emotion information determination step). The emotion information is information that embodies various current states of the baby, and may be information on hunger, inconvenience, sleepiness, comfort, gas charm, and the like. As shown in FIG. 10, the computer stores reference data for each emotion state of a baby or a baby, and compares the feature information of the reference data with the feature information extracted from the analysis target data to grasp the emotional state of the baby or the infant. The reference data is stored in the server as sampling data having a specific pattern form according to each emotion information.

예를 들어, 상기 감정정보 결정단계(S1100)에서, 컴퓨터가 저장된 하나 이상의 기준데이터 중에서 울음데이터 내의 모음구간데이터에 포함된 패턴형태를 가지는 특정한 기준데이터를 추출하고, 상기 기준데이터에 대응하는 감정정보를 유아의 상태로 결정한다. For example, in the emotion information determination step S1100, specific reference data having a pattern form included in vowel interval data in crying data among at least one reference data stored in a computer is extracted, and emotion information corresponding to the reference data To determine the state of the infant.

구체적으로, 컴퓨터가 사용자 단말(예를 들어, 아기울음소리 분석 어플리케이션이 설치된 스마트폰 또는 태블릿PC)인 경우, 컴퓨터는 서버로부터 어플리케이션 설치 시 또는 업데이트 시에 제공받은 기준데이터를 바탕으로 샘플링된 모음구간데이터에 상응하는 감정정보를 산출한다. 예를 들어, 사용자 단말에 설치된 아기울음소리 분석 어플리케이션 내에 5가지 상황(배고픔, 불편함, 졸림, 트림, 가스참)에 대한 기준데이터(각 상황에 해당하는 패턴데이터)를 저장하고, 샘플링된 모음구간데이터가 어느 기준데이터에 가장 근사한 지를 판단하여 아기의 감정상태를 판단한다.Specifically, when the computer is a user terminal (for example, a smartphone or a tablet PC in which a baby crying analysis application is installed), the computer displays a collection interval sampled based on the reference data, And calculates emotion information corresponding to the data. For example, reference data (pattern data corresponding to each situation) for five situations (hunger, discomfort, sleepiness, trimming, gas true) are stored in a baby crying sound analysis application installed in a user terminal, It is determined which reference data is closest to the reference data and the baby's emotional state is determined.

상기 특징정보추출단계(S900)에서 특징정보를 추출하여 특징벡터를 생성하는 경우, 상기 감정정보 결정단계(S1100)는, 상기 제1 특징벡터를 각 기준데이터의 제2 특징벡터와 비교하여 상기 울음데이터와 대응되는 감정정보를 산출한다.When the feature information is extracted in the feature information extracting step (S900) to generate a feature vector, the emotion information determining step (S1100) compares the first feature vector with a second feature vector of each reference data, And calculates emotion information corresponding to the data.

또한, 상기 특징정보추출단계(S900)에서 특징정보를 추출하여 디지털데이터를 생성하는 경우, 상기 감정정보 결정단계(S1100)는, 감정상태별 기준데이터를 기반으로 생성된 복수의 디지털데이터(즉, 제2디지털데이터)와 획득된 울음데이터 내 모음구간데이터에서 생성된 디지털데이터(즉, 제1디지털데이터)를 비교하여, 제1디지털데이터가 대응되는 제2디지털데이터를 파악하여 울음데이터에 상응하는 아기의 감정상태를 산출한다.When the feature information is extracted in the feature information extracting step S900 to generate digital data, the emotion information determining step S1100 may include a step of extracting a plurality of pieces of digital data (i.e., (I.e., first digital data) generated in the vowel interval data in the obtained crying data by comparing the first digital data with the second digital data, The baby's emotional state is calculated.

도 8을 참조하면, 본 실시예에 따른 아기울음 분석방법을 이용하여 울음패턴에 따른 감정정보를 구분하는 실시예를 상세히 설명한다. Referring to FIG. 8, an embodiment for distinguishing emotion information according to a crying pattern using the baby crying analysis method according to the present embodiment will be described in detail.

구체적으로, 도 8의 (a)는 배고픔 상태의 모음구간 패턴, 도 10의 (b)는 졸림 상태의 모음구간 패턴, 도 10의 (c)는 불편함 상태의 모음구간 패턴의 일 예이다. 도시된 바와 같이, 각각의 울음소리에 포함된 모음구간은 (a)의 6.88~6.89초, (b)의 8.41~8.42초, (c)의 1.83~1.84초 구간동안 포함된 모음 패턴을 분석한 결과로써, 0.01초의 비교적 짧은 구간에서도 반복적으로 나타나므로, 기존 아기울음소리 분석방법에 비해 짧은 울음데이터를 이용하여 빠르게 신뢰성 있는 분석결과를 제공할 수 있다. Specifically, FIG. 8A is an example of a vowel section pattern in a hungry state, FIG. 10B is an example of a vowel section pattern in a sleeping state, and FIG. 10C is an example of a vowel section pattern in an uncomfortable state. As shown in the figure, the vowel sections included in each cry were analyzed for vowel patterns included during 6.88 to 6.89 seconds of (a), 8.41 to 8.42 seconds of (b), and 1.83 to 1.84 seconds of (c) As a result, since it appears repeatedly in a relatively short interval of 0.01 second, it is possible to provide fast and reliable analysis results using short crying data compared with the existing baby crying analysis method.

또한, 각각 감정상태별로 시간영역에서 명확하게 상이한 패턴을 가지므로, 부모가 적절한 대처를 수행하도록 정확한 아기 감정상태를 안내할 수 있다. 구체적으로, 부모가 대처해야하는 아기의 감정상태는 크게 졸림, 불편함, 배고픔, 트림, 가스참의 5가지로 나눌 수 있다. 컴퓨터가 5가지 유형의 아기 감정상태를 개별적(즉, 아기가 하나의 감정상태만 가지는 경우) 또는 복합적(즉, 아기가 여러가지 원인으로 우는 경우)으로 안내하여 줌에 따라, 사용자는 우는 아기에 대해 충분한 대응이 가능하다.In addition, since each of the emotion states has a clearly different pattern in the time domain, it is possible to guide the correct baby emotion state so that the parent performs appropriate coping. Specifically, the emotional state of the baby that the parent has to cope with can be classified into five types: drowsiness, discomfort, hunger, trimming, and gas charm. As the computer directs the five types of baby emotional states individually (i.e., the baby has only one emotional state) or complex (i.e., the baby is crying for several reasons), the user Sufficient response is possible.

도 5 내지 도 7를 참조하여, 아기의 감정상태별 파형 패턴에 대해 구체적으로 설명한다. 도 5(a), 도 6(a) 및 도 7(a) 는 각 감정상태별로 샘플링된 모음구간데이터에 대한 그래프이고, 도 5(b), 도 6(b) 및 도 7(b) 는 모음구간데이터의 각 샘플 중에서 특정한 기준값 이상의 값만을 남기고 나머지 샘플은 제외(즉, 0으로 처리)한 변환데이터의 그래프이다.The waveform pattern of each baby's emotional state will be described in detail with reference to Figs. 5 to 7. Fig. 5 (a), 6 (a) and 7 (a) are graphs of vowel interval data sampled for each emotion state, and FIGS. 5 (b), 6 (b) and 7 Is a graph of transformed data in which only the value of a certain reference value or more is left out of the samples of the vowel interval data, and the remaining samples are excluded (i.

아기의 감정상태가 '배고픔'에 해당하는 경우, 도 5에서와 같이, 높은 음과 낮은 음이 간격이 좁으며 규칙적인 패턴(예를 들어, 젖을 빨듯이 내는 'ㅏ'소리 패턴)을 보인다. 또한, '가스참'과 '배고픔'이 배가 아픈 비슷한 아기 상태이므로, 기준데이터 생성에 이용되는 다수의 울음데이터에서 비슷한 파형 패턴 형태를 가진다. When the baby's emotional state corresponds to "hunger", as shown in FIG. 5, the high and low notes are spaced narrow and show a regular pattern (eg, a 'a' sound pattern that sucks the milk). In addition, since 'gas true' and 'hunger' are similar baby states, they have a similar waveform pattern form in a plurality of crying data used for generating reference data.

아기의 감정상태가 '불편함'에 해당하는 경우, 도 6에서와 같이, 'ㅏ'라는 모음 음이 비교적 굵고 짧게 반복적으로 나타난다. 즉, 불편하기 때문에 힘을 주어 소리를 내어서 높은 음 구간이 비교적 굵게 나타나며, 낮은음 구간이 높은 음구간보다 2~4배 정도 넓은 패턴을 가진다. 불편한 상태에서 수집되는 아기의 울음소리는 배고픈 상태의 모음패턴과 유사하나, 각 패턴들간의 출현주기가 더욱 조밀하며 불규칙적으로 형성된다.When the baby's emotional state corresponds to 'discomfort', as shown in FIG. 6, the vowel sound 'a' appears relatively repeatedly and coarsely. In other words, because it is inconvenient, it gives a strong sound, and the high sound interval appears relatively thick, and the low sound interval is 2 ~ 4 times wider than the high sound interval. Baby cries collected in uncomfortable conditions are similar to hungry vowel patterns, but are more dense and irregularly formed between each pattern.

아기의 감정상태가 '졸림'에 해당하는 경우, 도 7에서와 같이, 'ㅏ'라는 모음의 음이 튀어오르듯 끊어지면서 늘어지는 음을 가지게 되고, 막혔다가 터지는 소리가 반복되는 파형을 가진다. 아기가 졸림에 따라 목에 힘을 주어 소리를 내지 못해서, 짧은 구간 동안 낮은 음의 구간이 넓으면서 높은 음의 구간은 짧은 파형을 가진다.When the baby's emotional state corresponds to 'sleepiness', as shown in FIG. 7, the sound of the vowel 'A' is cut off like a bouncing sound, and the sound is stretched, and the sound is blocked and the sound is repeated. As the baby is drowsy, the neck is not able to make a sound because of its strength, so the interval of low notes is wide for a short interval and the interval of high notes is short.

또한, 다른 일실시예는, 아기 울음소리 분석을 위한 기준데이터를 생성하는 단계;를 더 포함한다. 기준데이터를 생성하는 일실시예로, 컴퓨터는 전문가로부터 특정한 울음소리에 대한 특징정보를 제공받아서 기준데이터를 생성할 수 있다. 예컨대, 서버는 다양한 패턴의 아기울음에 대한 감정상태정보를 전문가로부터 수집하여 각 울음패턴에 대응되는 감정정보를 사전에 매칭하고, 이를 데이터베이스화하여 관리할 수 있다.Still another embodiment further includes generating reference data for baby crying analysis. In one embodiment of generating reference data, the computer may generate reference data by receiving characteristic information on a specific cry from the expert. For example, the server collects emotion state information about baby cries of various patterns from an expert, matches the emotion information corresponding to each crying pattern in advance, and manages the emotion information in a database.

또한, 기준데이터를 생성하는 다른 일실시예로, 컴퓨터가 사용자단말(예를 들어, 아기울음소리 분석 어플리케이션이 설치된 단말기)인 경우, 컴퓨터는 주기적 또는 특정시기에 서버로부터 기준데이터를 업데이트받아서 최근 기준데이터를 저장한다. 사용자단말은 기준데이터만 서버로부터 수신하여 업데이트함에 따라 아기울음소리 분석 시에 서버와의 통신을 수행하지 않아도 되므로, 데이터 사용량을 줄일 수 있으며 서버와의 통신을 위해 소요되는 시간을 줄일 수 있다.Further, in another embodiment of generating reference data, when the computer is a user terminal (e.g., a terminal equipped with a baby crysis analysis application), the computer periodically or at certain times updates the reference data from the server, And stores the data. Since the user terminal receives only the reference data from the server and updates it, the user terminal does not need to communicate with the server at the time of analyzing the baby crying sound, so the data usage can be reduced and the time required for communication with the server can be reduced.

또한, 기준데이터를 생성하는 다른 일실시예로, 사용자로부터 클라이언트를 통해 아기울음소리 기반으로 판단된 감정정보에 대한 피드백을 수신하여, 분석결과로 제공된 감정정보의 오류를 판단하여 기준데이터를 보완한다. 즉, 상기 감정정보에 대한 피드백을 기반으로, 분석결과를 확인하는 단계; 및 상기 울음데이터와 상기 감정정보를 매칭하여, 빅데이터를 구축하는 단계;를 더 포함할 수 있다. In another embodiment of generating reference data, feedback from the user about the emotion information determined based on the baby crying sound is received through the client, and the error of the emotion information provided as the analysis result is determined to supplement the reference data . That is, it is possible to check the analysis result based on the feedback on the emotion information. And constructing big data by matching the crying data with the emotion information.

컴퓨터가 분석결과(즉, 산출된 감정정보)를 사용자에게 제공하고, 이를 바탕으로 아기울음에 대응한 후의 결과를 클라이언트를 통해 입력받을 수 있다. 예를 들어, 분석결과 제공이 효과적이었는지 여부를 사용자에게 질의하고, 긍정적인 피드백이 수신되면 분석결과가 정확하였던 것으로 판단하고 부정적인 피드백이 수신되면 분석결과에 오류가 있었던 것으로 판단할 수 있다. 또한, 부정적인 피드백을 수신한 경우에, 컴퓨터는 사용자에게 리워드를 제공하면서 아기의 실제상황에 대한 데이터(즉, 실제로 아기가 울었던 이유 또는 아기가 울음을 그치게 한 실제 조치)를 입력받을 수 있다.The computer provides the analysis result (i.e., the calculated emotion information) to the user, and based on this, the result after responding to the baby cry can be inputted through the client. For example, the user may be asked whether the analysis result is effective, and if the positive feedback is received, it is determined that the analysis result is correct, and if the negative feedback is received, the analysis result may be determined to be in error. In addition, in the case of receiving negative feedback, the computer may be provided with a reward for the user and input data on the actual condition of the baby (i.e., the actual reason for the baby's crying or the actual crying of the baby).

이를 통해, 컴퓨터는 아기 울음소리 패턴과 실제 울음 원인을 정확하게 매칭할 수 있다. 컴퓨터는 정확하게 매칭된 울음소리 패턴과 울음원인의 분석을 통해 감정 유형별로 정확한 울음소리 패턴을 기준데이터로 생성하여 분석 정확도를 높일 수 있다.This allows the computer to accurately match the baby cry pattern to the actual crying cause. Computers can improve the accuracy of analysis by generating accurate cry patterns for each emotion type as reference data through analysis of precisely matched cry patterns and causes of crying.

또한, 다른 일실시예로, 컴퓨터는 아기 울음소리의 패턴이 아닌 경우(예를 들어, 부모의 음성이 함께 획득되는 경우)를 파악하여, 노이즈를 제거한 아기울음소리 입력요청을 제공한다. 즉, 컴퓨터는 내부에 기준데이터로 포함된 패턴과 일치하는 구간이 확인되지 않는 경우에 아기울음소리가 제대로 획득되지 않았음을 사용자에게 안내하고 아기울음소리를 다시 획득할 것으로 요청할 수 있다.Further, in another embodiment, the computer grasps if it is not a pattern of baby crying (e.g., when the parent's voice is acquired together) and provides a baby crying request to remove the noise. That is, the computer can instruct the user that the baby crying has not been properly obtained, and request to reacquire the baby crying if the interval that matches the pattern included as the reference data is not confirmed.

이상에서 전술한 본 발명의 일 실시예에 따른 아기 울음소리 분석방법은, 하드웨어인 컴퓨터와 결합되어 실행되기 위해 프로그램(또는 어플리케이션)으로 구현되어 매체에 저장될 수 있다.As described above, the method for analyzing the baby crying sound according to an embodiment of the present invention may be implemented as a program (or an application) to be executed in combination with a computer as a hardware and stored in a medium.

상기 전술한 프로그램은, 상기 컴퓨터가 프로그램을 읽어 들여 프로그램으로 구현된 상기 방법들을 실행시키기 위하여, 상기 컴퓨터의 프로세서(CPU)가 상기 컴퓨터의 장치 인터페이스를 통해 읽힐 수 있는 C, C++, JAVA, 기계어 등의 컴퓨터 언어로 코드화된 코드(Code)를 포함할 수 있다. 이러한 코드는 상기 방법들을 실행하는 필요한 기능들을 정의한 함수 등과 관련된 기능적인 코드(Functional Code)를 포함할 수 있고, 상기 기능들을 상기 컴퓨터의 프로세서가 소정의 절차대로 실행시키는데 필요한 실행 절차 관련 제어 코드를 포함할 수 있다. 또한, 이러한 코드는 상기 기능들을 상기 컴퓨터의 프로세서가 실행시키는데 필요한 추가 정보나 미디어가 상기 컴퓨터의 내부 또는 외부 메모리의 어느 위치(주소 번지)에서 참조되어야 하는지에 대한 메모리 참조관련 코드를 더 포함할 수 있다. 또한, 상기 컴퓨터의 프로세서가 상기 기능들을 실행시키기 위하여 원격(Remote)에 있는 어떠한 다른 컴퓨터나 서버 등과 통신이 필요한 경우, 코드는 상기 컴퓨터의 통신 모듈을 이용하여 원격에 있는 어떠한 다른 컴퓨터나 서버 등과 어떻게 통신해야 하는지, 통신 시 어떠한 정보나 미디어를 송수신해야 하는지 등에 대한 통신 관련 코드를 더 포함할 수 있다. The above-described program may be stored in a computer-readable medium such as C, C ++, JAVA, machine language, or the like that can be read by the processor (CPU) of the computer through the device interface of the computer, And may include a code encoded in a computer language of the computer. Such code may include a functional code related to a function or the like that defines necessary functions for executing the above methods, and includes a control code related to an execution procedure necessary for the processor of the computer to execute the functions in a predetermined procedure can do. Further, such code may further include memory reference related code as to whether the additional information or media needed to cause the processor of the computer to execute the functions should be referred to at any location (address) of the internal or external memory of the computer have. Also, when the processor of the computer needs to communicate with any other computer or server that is remote to execute the functions, the code may be communicated to any other computer or server remotely using the communication module of the computer A communication-related code for determining whether to communicate, what information or media should be transmitted or received during communication, and the like.

상기 저장되는 매체는, 레지스터, 캐쉬, 메모리 등과 같이 짧은 순간 동안 데이터를 저장하는 매체가 아니라 반영구적으로 데이터를 저장하며, 기기에 의해 판독(reading)이 가능한 매체를 의미한다. 구체적으로는, 상기 저장되는 매체의 예로는 ROM, RAM, CD-ROM, 자기 테이프, 플로피디스크, 광 데이터 저장장치 등이 있지만, 이에 제한되지 않는다. 즉, 상기 프로그램은 상기 컴퓨터가 접속할 수 있는 다양한 서버 상의 다양한 기록매체 또는 사용자의 상기 컴퓨터상의 다양한 기록매체에 저장될 수 있다. 또한, 상기 매체는 네트워크로 연결된 컴퓨터 시스템에 분산되어, 분산방식으로 컴퓨터가 읽을 수 있는 코드가 저장될 수 있다.The medium to be stored is not a medium for storing data for a short time such as a register, a cache, a memory, etc., but means a medium that semi-permanently stores data and is capable of being read by a device. Specifically, examples of the medium to be stored include ROM, RAM, CD-ROM, magnetic tape, floppy disk, optical data storage, and the like, but are not limited thereto. That is, the program may be stored in various recording media on various servers to which the computer can access, or on various recording media on the user's computer. In addition, the medium may be distributed to a network-connected computer system so that computer-readable codes may be stored in a distributed manner.

본 실시예에 따른 방법은 하나 또는 그 이상의 ASICs(application specific integrated circuits), DSPs(digital signal processors), DSPDs(digital signal processing devices), PLDs(programmable logic devices), FPGAs(field programmable gate arrays), 프로세서, 컨트롤러, 마이크로 컨트롤러, 마이크로 프로세서 등에 의해 구현될 수 있다.The method according to this embodiment may be implemented in one or more application specific integrated circuits (ASICs), digital signal processors (DSPs), digital signal processing devices (DSPDs), programmable logic devices (PLDs), field programmable gate arrays , A controller, a microcontroller, a microprocessor, or the like.

이상 첨부된 도면을 참조하여 본 발명의 실시예들을 설명하였지만, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자는 본 발명이 그 기술적 사상이나 필수적인 특징을 변경하지 않고서 다른 구체적인 형태로 실시될 수 있다는 것을 이해할 수 있을 것이다. 그러므로 이상에서 기술한 실시예들은 모든 면에서 예시적인 것이며 한정적이 아닌 것으로 이해해야만 한다.While the present invention has been described in connection with what is presently considered to be practical exemplary embodiments, it is to be understood that the invention is not limited to the disclosed embodiments, but, on the contrary, You will understand. It is therefore to be understood that the above-described embodiments are illustrative in all aspects and not restrictive.

10: 서버
20: 클라이언트 장치
10: Server
20: Client device

Claims (9)

컴퓨터가 아기의 울음소리와 관련된 울음데이터를 수신하는 울음데이터수신단계;
상기 울음데이터에서 특정시간 길이만 획득하여 분할구간데이터를 생성하되, 상기 분할구간데이터는 상기 울음데이터를 특정한 시간간격으로 분할한 각 분할구간의 데이터이고, 상기 시간간격은 시간영역에서 감정상태별 울음데이터의 파형 패턴이 하나 이상 포함됨에 따라 파형 비교를 통해 감정상태를 분석할 수 있는 시간 단위 이상인, 분할구간데이터생성단계;
상기 컴퓨터가 복수의 샘플링데이터를 추출하되, 상기 샘플링데이터는 하나 이상의 샘플을 포함하는 것이며, 상기 샘플은 시간영역에서 소정 추출시간간격으로 샘플링함에 따라 획득되는 것인, 샘플링데이터추출단계;
시간영역에서의 파형 변화 또는 파형 반복을 기반으로 자음구간데이터와 모음구간데이터를 구별한 후, 상기 모음구간데이터를 추출모음에 상응하는 모음구간데이터를 추출하되, 모음구간데이터를 추출하는 것은 샘플링이 수행된 울음데이터 내의 하나의 음절 내에서 파형 변화가 생기면, 파형 변화 부분 중 후반부로서 동일한 파형이 반복적으로 등장하는 구간을 모음구간데이터로서 추출하는 것인, 모음구간데이터 추출단계;
상기 모음구간데이터에서 특징정보를 추출하되, 상기 특징정보는 음폭 변화 패턴 또는 반복구간의 형태를 포함하는 것인, 특징정보 추출 단계; 및
상기 특징정보를 기준데이터와 비교하여 상기 울음데이터와 대응되는 감정정보를 결정하는 감정정보 결정단계;를 포함하고,
상기 분할구간데이터생성단계, 상기 샘플링데이터추출단계 및 상기 모음구간데이터추출단계는 시간영역에서 수행되는 것으로서, 컴퓨터가 울음데이터를 획득함과 동시에 데이터를 분할구간 단위로 나누고 샘플링을 수행하고, 서버와의 통신없이 분석을 수행하고, 상기 울음데이터를 주파수영역으로 변환하지 않고 시간영역에서 분석을 수행 되는 것을 특징으로 하고,
상기 특징정보 추출단계는,
특정한 모음구간데이터의 출현빈도 또는 상기 하나 이상의 모음구간데이터 내에 포함된 패턴형태를 추출하고,
상기 특징정보 추출단계에서 모음구간데이터 내에 복수의 파형 패턴이 등장하는 경우에는,
상기 특징정보 추출단계에서 각 파형패턴의 출현빈도를 반영하여 특징정보를 추출한 후, 상기 감정정보 결정단계에서 복합된 감정상태를 결정하는 것을 특징으로 하고,
상기 각 파형패턴은 상기 복합된 감정상태를 이루는 각 개별 감정상태를 나타내는 것이고,
상기 감정정보 결정단계에서,
기준데이터는, 상기 추출된 특징정보에 따라 배고픔, 불편함, 졸림, 트림, 가스참의 감정상태별로 저장되고,
상기 특징정보를 상기 기준데이터와 비교하여, 배고픔, 불편함, 졸림, 트림, 가스참의 감정정보로서 결정하고,
하나의 주기에서 음 높이의 값이 미리 정해진 음의 높이 이상인 경우의 구간은 높은음 구간이고, 음 높이의 값이 상기 미리 정해진 음의 높이 미만의 구간은 낮은음 구간일 때,
상기 하나의 주기에서 상기 높은음 구간과 상기 낮은음 구간의 간격이 미리 정해진 간격 이하인 파형패턴은 배고픔 또는 불편함의 파형패턴에 해당되고,
상기 배고픔 또는 불편함의 파형패턴 중 상기 하나의 주기에서 상기 낮은음 구간의 길이가 상기 높은음 구간의 길이의 2배 이상 4배 이하인 경우의 파형패턴은 불편함의 감정상태로 결정되는 것을 특징으로 하는,
아기울음소리 분석방법.
A crying data receiving step in which the computer receives crying data related to a cry of a baby;
Wherein the divided interval data is obtained by obtaining only a specific length of time from the crying data, wherein the divided interval data is data of each divided interval in which the crying data is divided at specific time intervals, A division interval data generation step of generating a division interval data having at least one waveform pattern of data and analyzing an emotion state through waveform comparison;
Wherein the computer extracts a plurality of sampling data, the sampling data including one or more samples, the sampling being obtained by sampling at a predetermined extraction time interval in a time domain;
Extracting the vowel interval data corresponding to the vowel interval data from the vowel interval data and the vowel interval data based on the waveform change or the waveform repetition in the time domain, Extracting the vowel interval data as a vowel interval data when a waveform change occurs in one syllable in the crying data performed, the interval in which the same waveform appears repeatedly as a second half of the waveform change portion, is extracted as vowel interval data;
Extracting feature information from the vowel interval data, wherein the feature information includes a shape of a loudness variation pattern or a repetition interval; And
And an emotion information determining step of comparing the feature information with reference data to determine emotion information corresponding to the crying data,
The division section data generation step, the sampling data extraction step, and the vowel section data extraction step are performed in the time domain. The computer obtains crying data, divides the data into division sections and performs sampling, The analysis is performed in the time domain without converting the crying data into the frequency domain,
The feature information extracting step includes:
Extracting a frequency of occurrence of specific vowel interval data or a pattern type contained in the at least one vowel interval data,
When a plurality of waveform patterns appear in the vowel interval data in the characteristic information extracting step,
The feature information extracting step extracts the feature information by reflecting the occurrence frequency of each waveform pattern, and then determines the combined emotion state in the emotion information determining step.
Wherein each of the waveform patterns represents each individual emotional state constituting the combined emotional state,
In the emotion information determination step,
The reference data is stored for each emotion state of hunger, discomfort, sleepiness, trimming, and gas true according to the extracted feature information,
The feature information is compared with the reference data to determine the information as emotion information of hunger, inconvenience, sleepiness, trimming,
When the value of the sound height in one period is equal to or greater than the predetermined sound height, the interval is a high sound interval, and when the value of the sound height is less than the predetermined sound height,
Wherein the waveform pattern in which the interval between the high-frequency interval and the low-frequency interval is equal to or less than a predetermined interval in the one period corresponds to a waveform pattern of hunger or discomfort,
Wherein the waveform pattern when the length of the low-frequency section in the one period among the waveform patterns of the hunger or the inconvenience is not less than two times and not more than four times the length of the high-frequency section is determined as the feeling state of the inconvenience.
Baby crying analysis method.
삭제delete 제1항에 있어서,
상기 샘플링데이터추출단계는,
상기 울음데이터를 실시간으로 수신하는 과정에서 추출시간간격으로 바로 샘플링을 수행하고,
상기 분할구간데이터생성단계는,
울음데이터 획득요청시점으로부터 분할구간에 상응하는 시간간격의 울음데이터를 획득하는 것을 특징으로 하는, 아기울음소리 분석방법.
The method according to claim 1,
The sampling data extracting step may include:
In the process of receiving the crying data in real time, sampling is performed at an extraction time interval,
Wherein the division section data generation step comprises:
And obtaining crying data at a time interval corresponding to the divided section from the time of requesting the crying data acquisition.
제1항에 있어서,
상기 감정정보 결정단계는,
상기 컴퓨터 내에 저장된 하나 이상의 기준데이터 중에서 상기 울음데이터 내의 모음구간데이터에 포함된 패턴형태를 가지는 특정한 기준데이터를 추출하고, 상기 기준데이터에 대응하는 감정정보를 유아의 상태로 결정하되, 상기 기준데이터는 각 감정정보에 따른 특정한 패턴형태를 가지는 샘플링데이터로서, 서버 내에 저장되는 것인, 아기 울음소리 분석 방법.
The method according to claim 1,
Wherein the emotion information determination step comprises:
Extracting specific reference data having a pattern form included in vowel interval data in the crying data from one or more reference data stored in the computer and determining emotion information corresponding to the reference data as a state of a child, And is stored in a server as sampling data having a specific pattern form according to each emotion information.
제1항에 있어서,
상기 울음데이터 수신단계는,
기준데이터의 음높이를 기초로 상기 울음데이터의 음높이를 보정하는 단계; 및
상기 울음데이터에 포함된 잡음데이터를 제거하는 단계를 포함하는, 아기 울음소리 분석 방법.
The method according to claim 1,
The crying data receiving step includes:
Correcting the pitch of the crying data based on the pitch of the reference data; And
And removing noise data included in the crying data.
제1항에 있어서,
상기 모음구간데이터에서 추출된 특징정보를 바탕으로 상기 특징정보를 표현하는 제1특징벡터를 생성하는 단계;를 포함하고,
상기 감정정보 결정단계는,
상기 제1 특징벡터를 각 기준데이터의 제2 특징벡터와 비교하여 상기 울음데이터와 대응되는 감정정보를 산출하는 것을 특징으로 하는, 아기 울음소리 분석 방법.
The method according to claim 1,
And generating a first feature vector representing the feature information based on the feature information extracted from the vowel interval data,
Wherein the emotion information determination step comprises:
And comparing the first feature vector with a second feature vector of each reference data to calculate emotion information corresponding to the crying data.
제1항에 있어서,
상기 감정정보에 대한 피드백을 기반으로, 분석결과를 확인하는 단계; 및
상기 울음데이터와 상기 감정정보를 매칭하여, 빅데이터를 구축하는 단계;를 더 포함하는, 아기 울음소리 분석 방법.
The method according to claim 1,
Confirming an analysis result based on feedback on the emotion information; And
And constructing big data by matching the crying data with the emotion information.
제1항에 있어서,
상기 특징정보 추출단계는,
상기 샘플링데이터에서 특정한 기준값 이하의 샘플을 제외한 변환데이터를 생성하는 단계;를 포함하고,
상기 감정정보 결정단계는,
상기 변환데이터 내에 포함된 파형의 특징정보를 기반으로 아기의 감정정보를 산출하는 것을 특징으로 하는, 아기 울음소리 분석 방법.
The method according to claim 1,
The feature information extracting step includes:
And generating transformed data from the sampling data excluding samples below a certain reference value,
Wherein the emotion information determination step comprises:
And calculating the emotion information of the baby on the basis of the feature information of the waveform included in the conversion data.
하드웨어인 컴퓨터와 결합되어, 제1항, 제3항 내지 제8항 중 어느 한 항의 방법을 실행시키기 위하여 매체에 저장된, 아기 울음소리 분석 프로그램.8. A baby crying analysis program stored on a medium for performing the method of any one of claims 1 to 9 in combination with a computer which is hardware.
KR1020170054080A 2017-04-27 2017-04-27 System, method and program for analyzing the crying sound of baby KR101941225B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020170054080A KR101941225B1 (en) 2017-04-27 2017-04-27 System, method and program for analyzing the crying sound of baby

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020170054080A KR101941225B1 (en) 2017-04-27 2017-04-27 System, method and program for analyzing the crying sound of baby

Related Child Applications (1)

Application Number Title Priority Date Filing Date
KR1020190005832A Division KR20190008407A (en) 2019-01-16 2019-01-16 System, method and program for analyzing the crying sound of baby

Publications (2)

Publication Number Publication Date
KR20180120340A KR20180120340A (en) 2018-11-06
KR101941225B1 true KR101941225B1 (en) 2019-04-12

Family

ID=64329588

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020170054080A KR101941225B1 (en) 2017-04-27 2017-04-27 System, method and program for analyzing the crying sound of baby

Country Status (1)

Country Link
KR (1) KR101941225B1 (en)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102129825B1 (en) * 2019-09-17 2020-07-03 (주) 스터디티비 Machine learning based learning service system for improving metacognitive ability
CN110808071A (en) * 2019-10-29 2020-02-18 浙江萌宠日记信息科技股份有限公司 Mother and infant information transfer method and system based on information fusion
CN113450776A (en) * 2020-03-24 2021-09-28 合肥君正科技有限公司 Data enhancement method and system for improving crying detection model effect of baby

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002278582A (en) * 2001-03-22 2002-09-27 Meiji Univ Analysis system for baby's voice
JP5099711B2 (en) * 2006-03-06 2012-12-19 株式会社マザー&チャイルド Method for determining infant emotion, apparatus and program therefor

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0635494A (en) * 1992-07-16 1994-02-10 Nec Corp Speech recognizing device
KR100337235B1 (en) 2000-05-12 2002-05-22 황세연 The device for infants condition analysis by examming crying vioce
KR20030077489A (en) 2003-08-16 2003-10-01 유경민 Mobile sever system and service method for analyzing voice of baby crying and displaying status of baby with mobile device

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002278582A (en) * 2001-03-22 2002-09-27 Meiji Univ Analysis system for baby's voice
JP5099711B2 (en) * 2006-03-06 2012-12-19 株式会社マザー&チャイルド Method for determining infant emotion, apparatus and program therefor

Also Published As

Publication number Publication date
KR20180120340A (en) 2018-11-06

Similar Documents

Publication Publication Date Title
Jain et al. Cubic SVM classifier based feature extraction and emotion detection from speech signals
Sharma et al. Empirical mode decomposition for adaptive AM-FM analysis of speech: A review
US9099088B2 (en) Utterance state detection device and utterance state detection method
KR101941225B1 (en) System, method and program for analyzing the crying sound of baby
CN109389971A (en) Insurance recording quality detecting method, device, equipment and medium based on speech recognition
US20110320201A1 (en) Sound verification system using templates
JP2002520111A (en) Systems and methods for sensing thoughts and generating control instructions in response to sensing
CN110193127B (en) Music sleep assisting method and device, computer equipment and storage medium
US20160086622A1 (en) Speech processing device, speech processing method, and computer program product
CN111902862A (en) Ear voice processing method and device
CN109036395A (en) Personalized speaker control method, system, intelligent sound box and storage medium
EP3562401B1 (en) Method of characterizing sleep disordered breathing
CN104142831B (en) Application program searching method and device
WO2019119279A1 (en) Method and apparatus for emotion recognition from speech
Usman et al. Heart rate detection and classification from speech spectral features using machine learning
CN110827853A (en) Voice feature information extraction method, terminal and readable storage medium
CN113270115B (en) Infant monitoring device, infant monitoring method thereof, control device and storage medium
CN114078472A (en) Training method and device for keyword calculation model with low false awakening rate
JP2023535341A (en) Computer-implemented method for providing data for automatic baby cry determination
KR20190008407A (en) System, method and program for analyzing the crying sound of baby
JP7061126B6 (en) How to characterize sleep-disordered breathing
Noh et al. Smart home with biometric system recognition
CN108567420B (en) Blood pressure measuring terminal and computer-readable storage medium
CN111862991A (en) Method and system for identifying baby crying
Sengupta et al. Optimization of cepstral features for robust lung sound classification

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
A107 Divisional application of patent
GRNT Written decision to grant