KR102573186B1 - Apparatus, method, and recording medium for providing animal sound analysis information - Google Patents

Apparatus, method, and recording medium for providing animal sound analysis information Download PDF

Info

Publication number
KR102573186B1
KR102573186B1 KR1020160006934A KR20160006934A KR102573186B1 KR 102573186 B1 KR102573186 B1 KR 102573186B1 KR 1020160006934 A KR1020160006934 A KR 1020160006934A KR 20160006934 A KR20160006934 A KR 20160006934A KR 102573186 B1 KR102573186 B1 KR 102573186B1
Authority
KR
South Korea
Prior art keywords
voice
animal
information
processing unit
user input
Prior art date
Application number
KR1020160006934A
Other languages
Korean (ko)
Other versions
KR20170087225A (en
Inventor
박상하
노현종
양재철
정유신
현주호
Original Assignee
삼성전자주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 삼성전자주식회사 filed Critical 삼성전자주식회사
Priority to KR1020160006934A priority Critical patent/KR102573186B1/en
Publication of KR20170087225A publication Critical patent/KR20170087225A/en
Application granted granted Critical
Publication of KR102573186B1 publication Critical patent/KR102573186B1/en

Links

Images

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L17/00Speaker identification or verification
    • G10L17/26Recognition of special voice characteristics, e.g. for use in lie detectors; Recognition of animal voices
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/06Creation of reference templates; Training of speech recognition systems, e.g. adaptation to the characteristics of the speaker's voice
    • G10L15/063Training
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue
    • G10L2015/063

Abstract

본 발명은 동물의 음성 분석정보를 제공하는 전자장치, 방법 및 상기 정보를 제공하는 프로그램을 기록한 컴퓨터로 읽을 수 있는 기록매체에 관한 것에 관한 것으로서, 상기 전자장치는 동물의 음성 자료를 수신하는 수신부, 동물의 음성에 관한 정보를 저장하는 저장부, 동물의 음성에 관한 정보를 출력하는 출력부 및 상기 수신부에 수신된 동물의 음성 자료에 기초하여 상기 동물 음성의 이력정보를 상기 저장부에 저장하고, 상기 이력정보에 기초하여 각 상기 동물 음성의 특성에 관한 분석정보를 상기 출력부에 출력하는 처리부를 포함한 것을 특징으로 한다.
본 발명에서는 동물의 음성 분석을 통해 '감정'과 같은 주관적, 추상적, 관념적 개념을 그 분석 결과로 제공한 기존의 관점에서 벗어나, 동물의 음성으로부터 그 동물이 어떤 상황에 있는지를 판단하는 것은 사용자에게 맡기고, 본 발명은 그 판단의 기초자료를 제공하는 것을 목적으로 함으로써, 결과적으로 사용자는 그 동물의 상태를 보다 정확하게 판단할 수 있게 된다.
The present invention relates to an electronic device for providing animal voice analysis information, a method, and a computer-readable recording medium on which a program for providing the information is recorded, wherein the electronic device includes a receiver for receiving animal voice data; Storing history information of the animal's voice in the storage unit based on the animal's voice data received by a storage unit for storing information on the animal's voice, an output unit for outputting information on the animal's voice, and the animal's voice data received by the receiver; and a processing unit outputting analysis information on the characteristics of each animal's voice to the output unit based on the history information.
In the present invention, it is different from the conventional point of view of providing subjective, abstract, and ideological concepts such as 'emotion' as the result of analysis through animal voice analysis, and determining what situation the animal is in from the animal's voice is useful for the user. As a result, the user can more accurately determine the state of the animal.

Description

동물의 음성 분석정보를 제공하는 장치, 방법 및 기록매체 {Apparatus, method, and recording medium for providing animal sound analysis information}Apparatus, method, and recording medium for providing animal sound analysis information {Apparatus, method, and recording medium for providing animal sound analysis information}

본 발명은 동물의 음성 분석정보를 제공하는 전자장치, 방법 및 상기 정보를 제공하는 프로그램을 기록한 컴퓨터로 읽을 수 있는 기록매체에 관한 것이다.The present invention relates to an electronic device and method for providing animal voice analysis information, and a computer-readable recording medium recording a program for providing the information.

반려견을 키우는 인구가 폭발적으로 증가하고 있다. 우리나라의 경우 이미 반려견 인구 1,000만 명 시대에 들어섰고, 성장하는 나라인 중국도 1억 마리 이상의 반려견을 키우는 것으로 추정된다. 반려견 가정의 증가와 반려견 시장의 성장세는 더 가속화할 것으로 예상된다. The number of people raising dogs is growing exponentially. In the case of Korea, we have already entered the era of 10 million companion dogs, and it is estimated that China, a growing country, also raises more than 100 million companion dogs. The increase in pet households and the growth of the pet dog market are expected to accelerate further.

이처럼 가정에서 길러지는 반려견의 수가 증가하는 동시에 반려견 가정 중 일인 가구 또는 맞벌이 가구의 비율도 증가함에 따라, 많은 시간을 집에서 혼자 있게 되는 반려견의 수 역시 증가하고 있다. As the number of dogs raised at home increases and the proportion of single-person households or dual-income households increases, the number of dogs who spend a lot of time alone at home is also increasing.

반려견을 홀로 집에 남겨 놓고 출근해야 하는 견주들은 죄책감과 불안한 마음으로 생활하고 있으며, 장시간 혼자 남겨진 반려견들은 정신적 스트레스로 인하여 장신간 울부짖거나 집안의 물건을 훼손하는 등 견주들에게 또 다른 고민거리를 안겨주고 있다. 이에 따라 반려견의 삶의 안정을 도모하고 견주들의 불안감을 해소하기 위해 집에 홀로 남겨진 반려견을 원격에서 모니터링하거나 케어할 수 있는 제품들이 최근 활발하게 개발되고 있다. Dog owners who have to leave their dogs alone at home and go to work live with feelings of guilt and anxiety, and dogs left alone for a long time cause other concerns to their owners, such as howling or damaging household items due to mental stress. are giving Accordingly, products that can remotely monitor or care for dogs left alone at home are being actively developed in order to promote the stability of dogs' lives and relieve the anxiety of dog owners.

이와 함께 반려견의 음성('음성'의 사전적 의미는 '사람의 목소리나 말소리'이나, 본 명세서에서는 '동물이 성대를 이용하여 내는 소리'를 그 이외에 동물이 내는 소리와 구분하여 표현하기 위해 '음성'이라는 단어를 사용한다)을 감지하여 분석 결과를 알려주는 프로그램의 필요성도 함께 증가하고 있다. 여기에 반려견이 내는 음성으로부터 반려견의 상태나 감정을 알아내어 반려견과 보다 정확하게 소통하고 싶은 인간의 오랜 욕구가 더해져 이와 관련된 프로그램들이 다수 개발되었다.In addition, the dictionary meaning of the dog's voice ('voice' is 'human voice or speech sound', but in this specification, 'sounds made by animals using vocal cords' are distinguished from sounds made by other animals) The need for a program that detects voice and informs you of the analysis result is also increasing. In addition, a number of programs related to this have been developed due to the long-standing human desire to communicate more accurately with the dog by finding out the dog's condition or emotion from the dog's voice.

그러나 이들 프로그램이 제공하는 분석 결과의 객관성과 정확성을 담보하기는 어렵다. 그 이유는 크게 두 가지로 파악할 수 있는데, 음성 분석 알고리즘 자체의 엄밀성과 정확성 부족이 그 첫째 이유다. 다른 이유는, 위 첫째 이유보다 결정적인 이유라고 할 수 있는데, 각 반려견마다 특정 감정이나 상황에서 내는 음성이 다를 수 있다는 점이다. 그럼에도 기존의 프로그램들은 반려견이 특정 감정과 상황에서 늘 동일한 음성을 낼 것이라는 전제하에, 반려견의 소리를 분석하여 그에 대응하는 감정을 인간의 언어나 이모티콘 등으로 표시하는 방식을 택하고 있다. 그 결과 프로그램이 도출해내는 결과를 사용자들이 신뢰하지 못하고, 프로그램을 개발한 쪽에서도 결과의 객관성과 정확성 부족을 인정하지 않을 수 없게 되어, 위 프로그램들은 대부분 재미나 오락 용도로만 사용되는 데 불과한 것이 현실이다.However, it is difficult to guarantee the objectivity and accuracy of the analysis results provided by these programs. There are two main reasons for this, and the first reason is the lack of rigor and accuracy of the voice analysis algorithm itself. Another reason, which is more crucial than the first reason above, is that each dog may have a different voice in certain emotions or situations. Nonetheless, existing programs have chosen a method of analyzing the sound of a companion dog and displaying the corresponding emotion in human language or emoticons, under the premise that the companion dog will always emit the same voice in specific emotions and situations. As a result, users do not trust the results produced by the programs, and the developers of the programs have to admit the lack of objectivity and accuracy of the results, so the reality is that most of the above programs are only used for fun or entertainment.

도 1과 도 2를 통해 종래기술의 구체적인 예를 확인할 수 있다. 도 1과 도 2는 종래기술, 즉 동물의 음성을 분석하여 이에 대응하는 감정을 출력하는 기술을 나타내는 도면이다. 도 1에서 볼 수 있듯이 종래기술은 동물의 음성을 입력받아 이에 대응하는 감정을 자체적으로 판단하여 그 결과를 인간의 언어나 이모티콘 등을 통해 제공하였다. 그러나 도 2에서 볼 수 있듯이 종래 기술은 개발자 스스로 '장난'용이라고 그 용도를 한정할 수밖에 없을 정도로 그 판단 결과가 부정확했다.A specific example of the prior art can be confirmed through FIGS. 1 and 2 . 1 and 2 are diagrams illustrating a prior art, that is, a technique of analyzing an animal's voice and outputting a corresponding emotion. As can be seen in FIG. 1 , the prior art receives the animal's voice, determines the emotion corresponding thereto, and provides the result through human language or emoticons. However, as can be seen from FIG. 2 , the judgment result was inaccurate to the extent that the prior art developer had no choice but to limit its use as 'playful'.

본 발명은 기존의 반려견 음성 분석 프로그램의 정확성 결여의 핵심적 요인이 '반려견이 특정 감정과 상황에서 늘 동일한 음성을 낼 것'이라고 섣불리 전제하는 점에 있다는 판단에서 출발한다. 각 반려견마다 특정 감정이나 상황에서 내는 음성이 다를 수 있다. 그리고 그 음성으로부터 그 반려견이 어떤 상황에 처해있고 어떤 감정을 느끼고 있는지는 그 반려견의 주인이 가장 정확하게 판단할 수 있다. 반려견을 가장 가까이서 오랫동안 살펴봐 온 그 반려견의 주인은 자신의 반려견이 어떠한 상황에서 어떠한 소리를 내는지, 어떠한 패턴으로 짖는지를 알고 있다. 따라서 반려견의 짖는 소리 패턴 등 반려견 음성의 분석정보만 알려주더라도 반려견의 주인은 자신의 반려견의 상황을 충분히 예측할 수 있고, 그 예측의 정확도는 알고리즘을 통해 프로그램 자체적으로 분석을 실행한 경우보다 높을 것이다.The present invention starts from the judgment that a key factor in the lack of accuracy of existing dog voice analysis programs is the premise that 'a companion dog will always emit the same voice in a specific emotion and situation'. Each dog may have a different voice for certain emotions or situations. And from the voice, the dog's owner can most accurately determine what situation the dog is in and what emotions it is feeling. The dog's owner, who has been closely watching his dog for a long time, knows what kind of sound his dog makes in what situation and what pattern it barks. Therefore, even if only the analysis information of the dog's voice, such as the dog's barking pattern, is provided, the owner of the dog can sufficiently predict the situation of his/her dog, and the accuracy of the prediction will be higher than if the program itself analyzed it through an algorithm.

이처럼 본 발명은 반려견의 '감정'과 같은 주관적, 추상적, 관념적 개념을 분석 결과로 제공하고자 하는 기존의 관점에서 벗어나는 것으로서 종래의 과제를 해결하고자 한다. 즉, 반려견의 음성으로부터 그 반려견이 어떤 상황에 있는지를 판단하는 것은 견주인 사용자에게 맡기고, 본 발명은 그 판단의 기초자료를 제공하는 것을 목적으로 한다. As such, the present invention seeks to solve the conventional problems by breaking away from the conventional viewpoint of providing subjective, abstract, and conceptual concepts such as 'feelings' of companion dogs as analysis results. That is, it is left to the dog owner-user to determine what situation the companion dog is in from the voice of the companion dog, and an object of the present invention is to provide basic data for the determination.

그러나 반려견이 내는 모든 음성을 그대로 사용자에게 전송하는 것은 사용자가 검토할 데이터의 양이 방대해져서 실용성이 현저히 떨어지는 문제가 있다. 따라서 본 발명에서는 반려견이 낸 음성의 객관적 특성을 분석한 정보를 제공하여, 이를 통해 사용자가 자신의 반려견의 상태를 빠르고 정확하게 판단할 수 있도록 하고자 한다.However, transmitting all the voices of a companion dog to the user as it is has a problem in that practicality is significantly reduced because the amount of data to be reviewed by the user becomes enormous. Therefore, the present invention is intended to provide information obtained by analyzing the objective characteristics of the dog's voice so that the user can quickly and accurately determine the state of his/her dog.

한편, 이상의 설명은 '반려견'의 경우를 예를 들어 서술하였으나, 본 발명이 반려견의 경우에만 적용 가능한 것은 아니다. 본 발명은 반려견을 포함한 모든 동물에 적용 가능하다. 따라서 이하에서는 모든 동물을 대상으로 서술하도록 한다.On the other hand, the above description has been described in the case of 'companion dog' as an example, but the present invention is not applicable only to the case of companion dog. The present invention is applicable to all animals including companion dogs. Therefore, all animals will be described below.

본 발명의 전자장치의 하나는, 동물의 음성 자료를 수신하는 수신부, 동물의 음성에 관한 정보를 저장하는 저장부, 동물의 음성에 관한 정보를 출력하는 출력부 및 상기 수신부에 수신된 동물의 음성 자료에 기초하여 상기 동물 음성의 이력정보를 상기 저장부에 저장하고, 상기 이력정보에 기초하여 각 상기 동물 음성의 특성에 관한 분석정보를 상기 출력부에 출력하는 처리부를 구비한 것을 특징으로 한다.One of the electronic devices of the present invention includes a receiving unit for receiving animal voice data, a storage unit for storing information on animal voices, an output unit for outputting information on animal voices, and an animal voice received by the receiving unit. and a processing unit that stores history information of the animal voice based on data in the storage unit and outputs analysis information on characteristics of each animal voice to the output unit based on the history information.

상기 수신부는 동물의 위치에 관한 정보를 더 수신하고, 상기 분석정보는 동물의 위치에 관한 정보를 더 포함할 수 있다. 이 경우 상기 동물의 각 음성이 발생할 당시의 동물의 위치, 즉 상기 동물의 각 음성의 발생 장소에 관한 정보를 분석정보에 추가로 제공할 수 있게 되어, 사용자 입장에서는 보다 많은 정보를 통해 동물의 상태를 보다 정확하게 판단할 수 있게 되는 효과가 있다.The receiving unit may further receive information about the location of the animal, and the analysis information may further include information about the location of the animal. In this case, the location of the animal at the time each voice of the animal was generated, that is, the information on the place where each voice of the animal was generated can be additionally provided to the analysis information, so that the user can see the state of the animal through more information. It has the effect of being able to more accurately judge.

상기 저장부는 동물의 각 음성을 그 음성의 특성에 따라 분류할 분류군에 관한 정보를 더 포함하고, 상기 처리부는 동물의 각 음성을 상기 분류군에 따라 분류하는 기능을 더 포함하고, 상기 분석정보는 동물의 각 음성이 속하는 분류군에 관한 정보를 더 포함할 수 있다. 이 경우 동물의 각 음성에 해당하는 분류정보를 통해 사용자는 그 동물의 상태를 더욱 빠르고 정확하게 파악할 수 있고, 또한 본 발명은 그 분류정보를 바탕으로 한 더욱 다양한 통계정보 등을 사용자에게 제공할 수 있게 되어 사용자는 그 정보를 바탕으로 동물의 상태에 대한 보다 심도 있는 분석과 판단이 가능하게 되는 효과가 있다.The storage unit further includes information on taxa to classify each voice of the animal according to the characteristics of the voice, and the processing unit further includes a function to classify each voice of the animal according to the taxon, and the analysis information is It may further include information about the taxon to which each voice of . In this case, through the classification information corresponding to each voice of the animal, the user can grasp the state of the animal more quickly and accurately, and the present invention can provide users with more diverse statistical information based on the classification information. This has the effect of enabling the user to more in-depth analysis and judgment on the state of the animal based on the information.

또한, 상기 전자장치는, 사용자입력을 수신하는 사용자입력수신부를 더 포함하고, 상기 처리부는 상기 사용자입력수신부를 통해 수신되는 사용자입력에 따라 동물의 음성을 녹음하고 상기 녹음된 음성의 적어도 일부를 상기 분류군에 추가하는 기능을 더 포함할 수 있다.The electronic device further includes a user input receiving unit that receives a user input, and the processing unit records the animal's voice according to the user input received through the user input receiving unit and at least part of the recorded voice is recalled. It may further include functions to add to the taxon.

그리고 상기 전자장치는, 사용자입력을 수신하는 사용자입력수신부를 더 포함하고, 상기 처리부는 상기 사용자입력수신부를 통해 수신되는 사용자입력에 따라 상기 수신부에 수신된 동물의 음성 중 적어도 일부를 상기 분류군에 추가하는 기능을 더 포함할 수 있다. 이상의 경우 사용자가 분류군 정보를 직접 입력함에 따라 사용자가 본 발명을 통해 상태를 파악하길 원하는 동물에 딱 맞는 분류군 정보를 활용할 수 있게 되어 그 상태 판단의 정확도가 향상되는 효과가 가능하다.The electronic device further includes a user input receiving unit that receives a user input, and the processing unit adds at least a part of the animal's voice received by the receiving unit to the taxon according to a user input received through the user input receiving unit. may include more functions. In the above case, as the user directly inputs the taxon information, the user can utilize the taxon information that is perfect for the animal whose state is desired to be grasped through the present invention, thereby improving the accuracy of the state determination.

본 발명의 동물의 음성 분석정보 제공 방법의 하나는, 동물의 음성 자료를 수신하는 단계, 상기 수신된 동물의 음성 자료에 기초하여 상기 동물 음성의 이력정보를 저장하는 단계, 상기 이력정보에 기초하여 각 상기 동물 음성의 특성에 관한 분석정보를 출력하는 단계를 포함하는 것을 특징으로 한다.One of the animal voice analysis information providing methods of the present invention includes the steps of receiving animal voice data, storing history information of the animal voice based on the received animal voice data, and based on the history information and outputting analysis information on the characteristics of each animal's voice.

상기 수신하는 단계는 동물의 위치에 관한 정보를 더 수신하고, 상기 생성하는 단계의 분석정보는 동물의 위치에 관한 정보를 더 포함할 수 있다.The receiving step may further receive information on the location of the animal, and the analysis information in the generating step may further include information on the location of the animal.

또한, 상기 동물의 음성 분석정보 제공 방법은 동물의 각 음성을 그 음성의 특성에 따라 분류할 분류군에 관한 정보를 저장하는 단계, 동물의 각 음성을 상기 분류군에 따라 분류하는 단계를 더 포함할 수 있고, 상기 생성하는 단계는 상기 동물의 각 음성을 그 음성의 특성에 따라 분류한 분류군에 관한 정보를 더 포함할 수 있다.In addition, the method for providing animal voice analysis information may further include storing information about taxa to classify each voice of the animal according to characteristics of the voice, and classifying each voice of the animal according to the taxon. The generating step may further include information about a taxon in which each voice of the animal is classified according to characteristics of the voice.

사용자입력에 따라 동물의 음성을 녹음하고 상기 녹음된 음성의 적어도 일부를 상기 분류군에 추가하는 단계를 더 포함할 수 있고, 사용자입력에 따라 상기 수신된 동물의 음성 중 적어도 일부를 상기 분류군에 추가하는 단계를 더 포함할 수도 있다.The method may further include recording a voice of an animal according to a user input and adding at least a portion of the recorded voice to the taxon, and adding at least a portion of the received voice of the animal to the taxon according to the user input. It may include more steps.

본 발명의 동물의 음성 분석정보를 제공하는 프로그램을 기록한 컴퓨터로 읽을 수 있는 기록매체의 하나는, 위에서 예시한 동물의 음성 분석정보 제공 방법 중 적어도 하나를 실행시키는 것을 특징으로 한다.One of the computer-readable recording media on which the program for providing animal voice analysis information according to the present invention is recorded is characterized in that at least one of the animal voice analysis information providing methods exemplified above is executed.

상기한 바와 같이, 종래기술을 사용했을 때에 비하여, 본 발명에 의하면 본 발명에서 제공한 동물의 음성 분석정보를 토대로 본 발명의 사용자가 그 동물의 상태를 보다 정확하게 파악할 수 있다.As described above, compared to the prior art, according to the present invention, the user of the present invention can more accurately grasp the state of the animal based on the animal's voice analysis information provided by the present invention.

도 1, 도 2는 종래기술(동물의 음성을 분석하여 이에 대응하는 감정 출력)을 나타내는 도면.
도 3은 본 발명 중 전자장치의 구성을 나타내는 블록도.
도 4, 도 5는 본 발명의 일 실시예에 따른 음성 구간 탐지 결과를 나타내는 도면.
도 6은 본 발명의 일 실시예에 따른 분석정보를 나타내는 도면.
도 7, 도 8은 본 발명의 일 실시예에 따른 분석정보를 나타내는 도면.
도 9는 본 발명의 일 실시예에 따른 세부 절차를 나타내는 도면.
도 10 내지 도 13은 본 발명의 제3실시예에 따른 분석정보를 나타내는 도면.
도 14는 본 발명 중 동물 음성 분석정보 제공 방법을 나타내는 도면.
<도면의 주요부분에 대한 부호의 설명>
301: 수신부
302: 저장부
303: 처리부
1 and 2 are diagrams showing the prior art (emotional output corresponding to analysis of animal voice).
3 is a block diagram showing the configuration of an electronic device in the present invention.
4 and 5 are diagrams illustrating results of detecting a voice section according to an embodiment of the present invention.
6 is a diagram showing analysis information according to an embodiment of the present invention.
7 and 8 are diagrams illustrating analysis information according to an embodiment of the present invention.
9 is a diagram showing detailed procedures according to an embodiment of the present invention.
10 to 13 are diagrams showing analysis information according to a third embodiment of the present invention.
14 is a diagram showing a method of providing animal voice analysis information in the present invention.
<Description of symbols for main parts of drawings>
301: receiver
302: storage unit
303: processing unit

이하에서는 본 발명의 실시형태를 도면을 이용하여 설명한다. 아래에서 언급된 실시예들은 기본적으로 별개의 실시예를 나타내지만, 각 실시예들이 연결되어 하나의 실시예를 구성하는 것도 얼마든지 가능하다. 또한, 도면에 도시되고 또 이것에 의해서 설명되는 본 발명의 구성과 작용은 하나의 실시예로서 설명되는 것이며, 이것에 의해서 본 발명의 기술적 사상과 그 핵심 구성 및 작용이 한정되지는 않는다.EMBODIMENT OF THE INVENTION Hereinafter, embodiment of this invention is described using drawing. The embodiments mentioned below basically represent separate embodiments, but it is also possible that each embodiment is connected to form one embodiment. In addition, the configuration and operation of the present invention shown in the drawings and described by this are described as one embodiment, and thereby the technical idea of the present invention and its core configuration and operation are not limited.

본 발명에서 사용되는 용어는 본 발명에서의 기능을 고려하면서 가능한 현재 널리 사용되는 일반적인 용어를 선택하였으나, 이는 해당 분야에 종사하는 기술자의 의도 또는 관례 또는 새로운 기술의 출현 등에 따라 달라질 수 있다. 또한 특정한 경우는 출원인이 임의로 선정한 용어도 있으며, 이 경우 해당되는 발명의 설명 부분에서 상세히 그 의미를 기재할 것이다. 따라서 본 발명에서 사용되는 용어는 단순한 용어의 명칭이 아닌 그 용어가 가지는 의미와 본 발명의 전반에 걸친 내용을 토대로 정의되어야 함을 밝혀두고자 한다.The terminology used in the present invention has been selected as a general term that is currently widely used as much as possible while considering the function in the present invention, but it may vary depending on the intention or custom of a person skilled in the art or the emergence of new technology. In addition, in certain cases, there are also terms arbitrarily selected by the applicant, and in this case, their meanings will be described in detail in the description of the relevant invention. Therefore, it should be noted that the term used in the present invention should be defined based on the meaning of the term and the overall content of the present invention, not simply the name of the term.

도 3은 본 발명 중 전자장치(300)의 구성을 나타내는 블록도이다. 이 전자장치(300)는 수신부(301), 저장부(302), 처리부(303)를 포함한다. 상기 전자장치는 동물용 장치일 수도 있고 사용자용 장치일 수도 있으며 그 외의 외부장치일 수도 있다. 즉, 상기 전자장치는 동물용 웨어러블 장치, 사용자용 웨어러블 장치, 스마트폰, 스마트 TV, 데스크 탑 PC, 태블릿 PC, 노트북 PC, 내비게이션, 서버 등과 같은 다양한 전자 장치로 구현될 수 있다.3 is a block diagram showing the configuration of an electronic device 300 of the present invention. The electronic device 300 includes a receiving unit 301, a storage unit 302, and a processing unit 303. The electronic device may be a device for animals, a device for users, or other external devices. That is, the electronic device may be implemented in various electronic devices such as a wearable device for animals, a wearable device for users, a smart phone, a smart TV, a desktop PC, a tablet PC, a notebook PC, a navigation system, and a server.

수신부(301)는 동물의 음성 자료를 수신한다. 이 수신부에는 마이크로폰이 설치되어 있을 수 있고, 이와 함께 또는 마이크로폰 없이 통신부가 설치되어 있을 수 있다. 마이크로폰이 설치되어 있는 경우, 수신부에서는 마이크로폰을 통해 직접 동물의 음성을 수신할 수 있다. 통신부가 설치되어 있을 경우, 수신부에서는 외부 장치에 있는 마이크로폰을 통해 입력 받은 동물 음성에 관한 자료를 통신부를 통해 수신할 수 있다. 즉, 동물의 '음성 자료'는 마이크로폰을 통해 직접 수신한 음성 자료 뿐만 아니라 통신부를 통해 수신한 음성 자료도 포함하는 넓은 의미이다. '음성 자료'는 아날로그 신호일 수도 있고 디지털 신호일 수도 있다.The receiving unit 301 receives animal voice data. A microphone may be installed in the receiving unit, and a communication unit may be installed with or without the microphone. When a microphone is installed, the receiver may directly receive the animal's voice through the microphone. When the communication unit is installed, the reception unit may receive data related to animal voice input through the microphone of the external device through the communication unit. That is, the 'voice data' of an animal has a broad meaning that includes not only voice data directly received through a microphone but also voice data received through a communication unit. 'Audio data' may be an analog signal or a digital signal.

반려견과 떨어진 곳에 위치한 본 발명의 사용자가 집 안에 홀로 남겨진 반려견의 음성 분석정보를 원격으로 제공받아 이를 기초로 반려견의 상태를 파악할 필요가 있다는 점을 고려하면, 외부 장치에 있는 마이크로폰을 통해 입력 받은 반려견의 음성 자료를 상기 수신부(301) 내의 통신부를 통해 수신하는 것이 한 실시예가 될 것이다. 이 경우 외부 장치에 있는 마이크로폰은 집 안에 위치하는 반려견용 디바이스, 반려견용 웨어러블 디바이스 또는 집 안의 유휴 장비(TV, 컴퓨터, 노트북, 스마트폰 등)에 탑재된 마이크로폰 등 마이크 기능이 있는 것이라면 모두 가능하다.Considering that the user of the present invention located away from the companion dog needs to remotely receive voice analysis information of the companion dog left alone in the house and determine the status of the companion dog based on this, the companion dog input through the microphone in the external device Receiving the audio data of through the communication unit in the receiving unit 301 will be one embodiment. In this case, the microphone in the external device can be any device with a microphone function, such as a device for dogs located in the house, a wearable device for dogs, or a microphone mounted on idle equipment (TV, computer, laptop, smartphone, etc.) in the house.

저장부(302)는 동물의 음성에 관한 정보를 저장한다. 저장부에 저장될 정보의 예로는 '동물의 음성에 관한 정보'는 후술할 '이력정보'와 '분석정보'가 있으나 이에 한정되지는 않는다. 저장부(302)의 구체적인 형태는 HDD, SSD, Flash Disk 등 정보를 저장하는 기능을 수행할 수 있는 것이라면 무엇이든 가능하고 RAM과 같은 휘발성 메모리 또한 가능하다.The storage unit 302 stores information about the animal's voice. Examples of information to be stored in the storage unit include, but are not limited to, 'history information' and 'analysis information' which will be described later in the 'information on animal voice'. The specific form of the storage unit 302 can be any HDD, SSD, flash disk, etc., as long as it can perform a function of storing information, and volatile memory such as RAM is also possible.

처리부(303)는 상기 수신부(301)에 수신된 동물의 음성 자료에 기초하여 상기 동물의 복수의 음성에 관한 이력정보를 상기 저장부(302)에 저장하고, 상기 이력정보에 기초하여 상기 동물의 각 음성의 특성에 관한 분석정보를 생성한다. 본 발명의 전자장치가 데스크탑 컴퓨터라면 처리부의 구체적인 형태는 CPU(Central Processing Unit)가 한 예가 될 것이고, 웨어러블 디바이스나 스마트폰 등의 모바일 기기라면 AP(Application Processor)가 한 예가 될 것이다. 처리부의 작동은 하드웨어적으로도 구현할 수 있고 소프트웨어적으로도 구현할 수 있다. 소프트웨어적으로 구현할 경우 이는 음성 분석 프로그램의 형태가 될 것이다. 이 음성 분석 프로그램은 해당 장치에 내장되는 형태, 다운로드 가능한 프로그램 형태 혹은 어플리케이션의 형태 등 다양한 형태가 모두 가능하며, 음성 분석 알고리즘이 수행되는 곳은 해당 장치와 서버 모두 가능하다. The processing unit 303 stores history information on a plurality of animal voices in the storage unit 302 based on the animal's voice data received by the receiving unit 301, and based on the history information, the animal's voice data. Analysis information about the characteristics of each voice is generated. If the electronic device of the present invention is a desktop computer, a CPU (Central Processing Unit) will be an example of the specific form of the processing unit, and an AP (Application Processor) will be an example if the electronic device of the present invention is a mobile device such as a wearable device or a smart phone. The operation of the processing unit may be implemented in hardware or software. When implemented in terms of software, this will be in the form of a voice analysis program. This voice analysis program can be in various forms, such as a form embedded in a corresponding device, a downloadable program form, or an application form, and the place where the voice analysis algorithm is performed can be both the corresponding device and the server.

분석 결과는 통신을 통해 사용자가 사용하는 장치(스마트폰 등)에서 확인 가능하며(필요할 경우 실시간으로 확인), 음성 분석 프로그램이 내장된 장치에서도 확인 가능할 수 있다. 분석 결과가 출력되는 형태의 예로는 시각적 출력과 청각적 출력이 있으나 그 외에도 사용자에게 동물의 음성에 관한 정보를 알려줄 수 있는 것이라면 무엇이든 가능하다. 시각적으로 출력될 경우 디스플레이 장치를 통해 출력될 수 있고, 청각적으로 출력될 경우는 스피커 장치를 통해 출력될 수 있을 것이나, 시각적 출력과 청각적 출력 모두 이에 한정되지는 않는다.The analysis result can be checked on a device (smartphone, etc.) used by the user through communication (checked in real time if necessary), and can also be checked on a device with a built-in voice analysis program. Examples of the format in which the analysis result is output include visual output and auditory output, but in addition, anything that can inform the user of information about the animal's voice is possible. Visual output may be output through a display device, and auditory output may be output through a speaker device, but both visual and auditory outputs are not limited thereto.

본 발명 중 전자장치의 경우를 예로 들어 본 발명이 작동하는 모습을 살펴보면 다음과 같다. 우선 수신부(301)가 동물의 음성 자료를 수신한다. 이후 상기 수신부를 통해서 수신된 음성 자료 중 분석 대상이 될 구간을 탐지하는 단계를 거친다. 분석 대상 구간의 구분이 명료할 경우 등에는 이 단계를 생략할 수 하다. Taking the case of an electronic device among the present invention as an example, the operation of the present invention is as follows. First, the receiving unit 301 receives animal voice data. Thereafter, a step of detecting a section to be analyzed among the audio data received through the receiver is performed. This step can be omitted if the division of the analysis target section is clear.

도 4, 도 5가 본 발명의 일 실시예에 따른 음성 구간 탐지 결과를 나타내는 도면이다. 음성(이하 '소리'라고도 한다) 구간 탐지 단계에서는 실시간으로 입력되는 소리 중에서 작은 노이즈가 아닌 소리가 존재하는 구간을 찾아낸다. 물론 반려견(동물 중 '반려견'의 경우를 예로 들어 설명한다)이 짖은 소리뿐만 아니라, 반려견의 음성은 아니나 반려견과 관련된 큰 노이즈(예를 들면 문 닫는 소리나 벨 소리와 같은 큰 외부 노이즈, 반려견이 음식물을 씹거나 마시는 소리 등)도 검출될 수 있다. 소리 구간 탐지 단계는, 배경 소음과 같이 신호가 작은 노이즈 구간을 1차적으로 제거하고 실제 분석해야 하는 구간만 탐지하는 것으로, 분석해야 하는 구간을 선별하여 연산량을 줄이는 것을 목적으로 한다. 따라서 연산량이 큰 문제가 되지 않을 경우 이 단계는 생략 가능하다. 4 and 5 are views showing results of detecting a voice section according to an embodiment of the present invention. In the voice (hereinafter referred to as 'sound') section detection step, a section in which sound other than small noise is present is found among input sounds in real time. Of course, it is not only the barking sound of a companion dog (the case of 'companion dog' among animals will be explained as an example), but it is not the dog's voice, but it is a loud noise related to the companion dog (for example, a loud external noise such as a door closing or a bell ringing, The sound of chewing or drinking food, etc.) can also be detected. The sound section detection step primarily removes a noise section having a small signal such as background noise and detects only a section to be actually analyzed, and aims to reduce the amount of computation by selecting the section to be analyzed. Therefore, if the amount of computation is not a big problem, this step can be omitted.

소리 구간 탐지 방법으로는 에너지 레벨 탐지(short-time energy), short-time zero-crossing, spectrum flatness measure 뿐 아니라, 배경 소음 레벨을 측정하여 그에 따라 소리 감지 레벨을 결정하는 adaptive energy detector 등의 방식도 모두 사용 가능하다. Sound interval detection methods include energy level detection (short-time energy), short-time zero-crossing, spectrum flatness measure, as well as adaptive energy detectors that measure the background noise level and determine the sound detection level accordingly. all available

도 4는 반려견이 짖는 소리에 대한 파형이며 빨간색 그래프는 반려견이 짖은 구간만 검출한 결과이다. 도 5는 반려견이 물 마실 때의 소리에 대한 파형으로 이러한 노이즈의 경우 소리의 크기와 지속 시간에 따라 소리 구간 탐지 단계에서 소리가 검출되기도 하고 검출되지 않기도 한다.4 is a waveform for a dog barking sound, and the red graph is a result of detecting only a section where the dog barked. 5 is a waveform of a sound when a dog drinks water. In the case of this noise, the sound may or may not be detected in the sound section detection step depending on the sound volume and duration.

상기 수신된 동물의 음성 자료로부터 이력정보와 분석정보를 생성하는 과정은 다음과 같다. 수신부(301)에 동물의 음성 자료가 수신되면 처리부(303)는, 필요하면 상기 음성 구간 탐지 단계를 거친 후, 상기 수신된 음성 자료로부터 상기 동물의 복수의 음성에 관한 이력정보를 생성하고 그 이력정보를 저장부(302)에 저장한다. 위 '이력정보'는 상기 동물의 각 음성이 발생한 시각에 관한 정보를 포함한다. '복수의 음성에 관한 이력정보'라고 하여 반드시 하나의 파일에 '복수'의 음성에 관한 이력정보가 담겨있어야 하는 것은 아니고, 이력정보를 담고 있는 파일들의 집합체 또한 '복수의 음성에 관한 이력정보'에 해당한다. 각 음성의 발생 시각에 관한 정보는, 상기 수신부(301)가 수신부 내에 구비된 마이크로폰을 통해 직접 음성 자료를 입력 받을 경우에는 각 음성의 수신과 동시에 그 수신 시각에 관한 정보를 처리부(303)를 통해 획득할 수 있고, 외부 장치에 있는 마이크로폰을 통해 입력 받은 음성 자료를 수신부 내의 통신부를 통해 수신할 경우에는 그 음성 자료 자체에 포함된 각 음성의 발생 시각에 관한 정보를 처리부(303)를 통해 추출하여 획득할 수 있다. 도 6에서 그 시각에 관한 정보는 각 음성이 발생한 시, 분, 초에 대한 정보로 나타나있으나 음성의 발생 시각을 나타낼 수 있는 정보라면 이에 한정되지 않고 어떤 형태든 가능하다. The process of generating history information and analysis information from the received voice data of the animal is as follows. When animal voice data is received by the receiving unit 301, the processing unit 303, if necessary, after going through the voice section detection step, generates history information on a plurality of voices of the animal from the received voice data, and the history Information is stored in the storage unit 302 . The above 'history information' includes information about the time when each voice of the animal was generated. 'History information on multiple voices' does not necessarily have to contain history information on 'plural' voices in one file, and the collection of files containing the history information is also 'history information on multiple voices'. corresponds to When the receiver 301 directly receives audio data through a microphone provided in the receiver, the information on the time of occurrence of each sound is transmitted through the processor 303 simultaneously with the reception of each sound. can be obtained, and when voice data input through a microphone in an external device is received through a communication unit in the receiving unit, information on the occurrence time of each voice included in the voice data itself is extracted through the processing unit 303 can be obtained In FIG. 6, the information about the time is shown as information about the hour, minute, and second of each sound, but is not limited to this information and can be of any type as long as it can indicate the time of sound.

또한, 처리부(303)는 상기 수신된 동물의 각 음성의 특성을 분석한다. 분석 결과로 제공하게 될 음성의 특성에 관한 정보로는 음성의 크기(dB), 주파수(Hz), 지속시간(ms) 등이 있으나 이에 한정되지는 않는다. 처리부(303)는 위와 같이 분석된 음성의 특성에 관한 정보를 위 이력정보에 더하여 '분석정보'를 생성한다. 마찬가지로 '분석정보'는 이력정보에 음성의 크기, 주파수, 지속시간 등의 정보만이 더해진 것에 한정되지 않는다. '분석정보'는 수신부(301)에 수신된 동물의 음성 자료를 분석하여 생성된 모든 형태의 정보를 의미한다.Also, the processing unit 303 analyzes the characteristics of each voice of the received animal. Information on the characteristics of the voice to be provided as an analysis result includes, but is not limited to, the loudness (dB), frequency (Hz), and duration (ms) of the voice. The processing unit 303 adds information about the characteristics of the analyzed voice to the above history information to generate 'analysis information'. Likewise, 'analysis information' is not limited to history information plus only information such as volume, frequency, and duration of voice. 'Analysis information' refers to all types of information generated by analyzing animal voice data received by the receiver 301 .

한편, 상기 수신부(301)는 동물의 음성 자료 외에도 동물의 위치에 관한 정보를 더 수신할 수 있다. 이 경우 상기 동물의 각 음성이 발생할 당시의 동물의 위치, 즉 상기 동물의 각 음성의 발생 장소에 관한 정보를 분석정보에 추가로 제공할 수 있게 되어, 사용자 입장에서는 보다 많은 정보를 통해 동물의 상태를 보다 정확하게 판단할 수 있게 되는 효과가 있다.Meanwhile, the receiving unit 301 may further receive information about the location of an animal in addition to animal voice data. In this case, the location of the animal at the time each voice of the animal was generated, that is, the information on the place where each voice of the animal was generated can be additionally provided to the analysis information, so that the user can see the state of the animal through more information. It has the effect of being able to more accurately judge.

동물의 위치에 관한 정보를 더 수신하여 이를 분석정보에 추가로 제공하는 구체적인 구현 예 중 하나는 다음과 같다. 우선 동물에 웨어러블 장치를 부착한다. 그리고 상기 동물의 적어도 하나의 주요 활동 영역에 각각 비콘을 설치한다. 상기 웨어러블 장치는 근거리 무선 통신(특히 블루투스 4.0 프로토콜 기반의 근거리 무선 통신)을 이용하여 상기 각 비콘으로부터 데이터를 획득할 수 있다. 상기 웨어러블 장치는 상기 동물의 음성 자료도 수신할 수 있다. One of the specific implementation examples of further receiving information on the location of the animal and additionally providing it to analysis information is as follows. First, a wearable device is attached to the animal. In addition, beacons are installed in at least one main activity area of the animal. The wearable device may obtain data from each of the beacons using short-range wireless communication (in particular, short-range wireless communication based on a Bluetooth 4.0 protocol). The wearable device may also receive voice data of the animal.

상기 웨어러블 장치에 상기 동물의 음성 자료가 수신되면, 상기 웨어러블 장치는 상기 음성 자료와 함께 각 비콘으로부터 획득한 데이터(이하 '비콘 데이터'라고 함)도 수신한다. 이후 상기 웨어러블 장치 또는 상기 웨어러블 장치로부터 상기 동물의 음성 자료와 비콘 데이터를 수신한 사용자 장치는, 상기 자료와 데이터를 분석하여 상기 동물의 각 음성이 발생한 장소를 추출해낸다. 각 음성 발생시 획득한 각 비콘 데이터들을 비교하여 그 중에서 가장 거리가 가까운 장소를 판단하는 방법이 장소 추출 방법의 하나가 될 수 있다.When the wearable device receives the voice data of the animal, the wearable device also receives data acquired from each beacon (hereinafter referred to as 'beacon data') along with the voice data. Thereafter, the wearable device or the user device that has received the animal's voice data and the beacon data from the wearable device analyzes the data and data to extract the place where each voice of the animal occurred. A method of comparing each beacon data obtained when each voice is generated and determining a place with the closest distance among them may be one of the place extraction methods.

위 구현 예는 하나의 예시일 뿐, 동물의 음성 발생시 상기 동물의 위치를 알아낼 수 있는 방법의 구현 예는 이에 한정되지 않는다.The above implementation example is only an example, and an implementation example of a method for detecting the location of an animal when the animal's voice is generated is not limited thereto.

다음으로, 생성된 이력정보 및/또는 분석정보가 출력되는 과정은 아래와 같다. 본 발명 중 전자장치에 해당하는 장치가 반려견에 부착되어 있는 웨어러블 장치인 경우, 그리고 그 장치로부터 생성된 이력정보 및/또는 분석정보가 출력되는 장치는 사용자의 스마트폰인 경우를 예로 들어 설명한다. 앞서 살펴본 과정, 즉 반려견에 부착된 웨어러블 장치의 수신부가 반려견의 음성 자료를 수신하고, 이에 기초하여 그 반려견의 복수의 음성에 관한 이력정보를 생성하고 상기 이력정보에 기초하여 그 반려견의 각 음성의 특성에 관한 분석정보를 생성하는 과정은, 사용자로부터 별도의 입력을 기다릴 필요 없이 반려견에 부착된 웨어러블 장치에서 자체적으로 수행될 수 있다. 이후 사용자가 자신의 스마트폰에서 상기 이력정보 및/또는 분석정보를 출력할 것을 요구하는 명령을 그 명령에 대응하는 사용자 인터페이스를 통해 내리면, 사용자의 스마트폰은 반려견의 웨어러블 장치로부터 상기 이력정보 및/또는 분석정보를 읽어와 이를 사용자 스마트폰의 디스플레이상에 출력하게 된다. Next, the process of outputting the generated history information and/or analysis information is as follows. In the present invention, a case where a device corresponding to an electronic device is a wearable device attached to a companion dog and a case where history information and/or analysis information generated from the device is output is a user's smartphone will be described as an example. In the process described above, that is, the receiving unit of the wearable device attached to the companion dog receives the voice data of the companion dog, generates history information on a plurality of voices of the companion dog based on this, and records each voice of the companion dog based on the history information. The process of generating the analysis information on the characteristics may be performed by the wearable device attached to the dog without waiting for a separate input from the user. Then, when the user issues a command requesting output of the history information and/or analysis information on his or her smartphone through a user interface corresponding to the command, the user's smartphone displays the history information and/or analysis information from the dog's wearable device. Alternatively, the analysis information is read and outputted on the display of the user's smartphone.

사용자가 기르는 반려견이 여러 마리일 경우, 상기의 출력 과정에 앞서 사용자의 스마트폰의 인터페이스 상에서 그 여러 반려견 중 하나를 먼저 선택하게 하는 과정을 거칠 수 있고, 각 반려견에 부착된 웨어러블 장치는 그 장치에서 생성한 이력정보와 분석정보에 그 웨어러블 장치를 다른 반려견에 부착된 웨어러블 장치와 구별할 수 있는 식별정보를 부가할 수 있다.If the user has several companion dogs, a process of first selecting one of the several companion dogs on the interface of the user's smartphone may be performed prior to the output process, and the wearable device attached to each companion dog is Identification information for distinguishing the wearable device from wearable devices attached to other companion dogs may be added to the generated history information and analysis information.

위와 같은 출력 과정은 하나의 예시일 뿐이며 다른 형태의 출력 과정도 가능하다. 예를 들어 본 발명 중 전자장치에 해당하는 장치는 사용자의 스마트폰 일 수 있으며, 이 경우 사용자의 스마트폰은 외부 장치를 통해 입력된 반려견의 음성 자료를 수신한 후 자체적으로 그에 관한 이력정보와 분석정보를 생성할 수 있고, 이후 사용자의 명령에 따라 이력정보 및/또는 분석정보를 출력할 수도 있다.The above output process is just one example, and other types of output processes are possible. For example, in the present invention, a device corresponding to an electronic device may be a user's smartphone. In this case, the user's smartphone receives the voice data of a dog input through an external device, and then analyzes and analyzes its own history information. Information can be generated, and then history information and/or analysis information can be output according to a user's command.

도 6은 위와 같은 출력 과정을 통해 출력된, 본 발명의 일 실시예에 따른 분석정보를 나타내는 도면이다. 도 6에 표시되어 있는 '분석정보'는 각 음성이 발생한 시각과 발생한 각 음성의 크기, 주파수, 지속시간, 발생장소에 관한 정보이다. 각 음성 간의 특징을 한눈에 비교하기 용이하도록 하기 위해, 도 6에서 나타난 바와 같이 각 음성의 크기, 주파수, 지속시간은 각각 그 상대적 크기에 따라 배경색을 달리하여 출력될 수 있다. 빨간색이 상대적 크기가 큰 것을 나타내고 녹색은 상대적 크기가 작은 것을 나타낸다.6 is a diagram showing analysis information output according to an embodiment of the present invention through the output process as above. 'Analysis information' displayed in FIG. 6 is information about the time each voice occurred, the volume, frequency, duration, and location of each generated voice. In order to easily compare the characteristics of each voice at a glance, as shown in FIG. 6, the volume, frequency, and duration of each voice may be output with different background colors according to their relative sizes. Red indicates a large relative size and green indicates a small relative size.

그러나 '분석정보'는 도 6에 나타난 정보나 그 출력 형태에 한정되지 않는다. 일례로 도 6에서는 최근 1시간의 음성 분석정보를 나타내고 있으나 분석정보를 제공하는 단위 시간는 이에 한정되지는 않는다. 따라서 동물이 반려견일 경우, 도 7처럼 각 요일별로 짓은 횟수를 분석한 정보나, 도 8처럼 각 시간대별로 짓은 횟수를 분석한 정보도 역시 본 발명의 '분석정보'에 해당된다.However, 'analysis information' is not limited to the information shown in FIG. 6 or its output form. As an example, FIG. 6 shows voice analysis information for the last 1 hour, but the unit time for providing analysis information is not limited thereto. Therefore, if the animal is a companion dog, the information analyzing the number of times of each day of the week as shown in FIG. 7 or the number of times of each time period as shown in FIG. 8 also corresponds to the 'analysis information' of the present invention.

나아가, 본 발명은 동물의 복수의 음성에 관한 이력정보 및 동물의 각 음성의 특성에 관한 정보를 제공하는 것 외에, 동물의 각 음성을 그 음성의 특성에 따라 나눈 일정한 분류군에 따라 분류하고 그 분류정보를 제공하는 것도 가능하다. 이 경우 동물의 각 음성에 해당하는 분류정보를 통해 사용자는 그 동물의 상태를 더욱 빠르고 정확하게 파악할 수 있고, 또한 본 발명은 그 분류정보를 바탕으로 한 더욱 다양한 통계정보 등을 사용자에게 제공할 수 있게 되어 사용자는 그 정보를 바탕으로 동물의 상태에 대한 보다 심도 있는 분석과 판단이 가능하게 되는 효과가 있다.Furthermore, the present invention, in addition to providing history information on a plurality of voices of animals and information on the characteristics of each voice of animals, classifies each voice of animals according to a certain taxon divided according to the characteristics of the voice, and classifies the voices. It is also possible to provide information. In this case, through the classification information corresponding to each voice of the animal, the user can grasp the state of the animal more quickly and accurately, and the present invention can provide users with more diverse statistical information based on the classification information. This has the effect of enabling the user to more in-depth analysis and judgment on the state of the animal based on the information.

상기 분류군 정보는 본 발명에 의해 기본적으로 제공되거나 분류군 정보를 담고 있는 외부 데이터베이스로부터 획득할 수도 있으나, 사용자가 그 분류군 정보를 직접 입력하거나 추가할 수도 있다. 이 경우 사용자가 분류군 정보를 직접 입력함에 따라 사용자가 본 발명을 통해 상태를 파악하길 원하는 동물에 딱 맞는 분류군 정보를 활용할 수 있게 되어 그 상태 판단의 정확도가 향상되는 효과가 가능하다.The taxon information may be basically provided by the present invention or obtained from an external database containing taxon information, but the taxon information may be directly input or added by the user. In this case, as the user directly inputs the taxon information, the user can utilize the taxon information that is perfect for the animal whose state is desired to be grasped through the present invention, thereby improving the accuracy of the state determination.

사용자가 분류군 정보를 직접 추가하는 방법 중 하나는, 본 발명이 사용자가 분류군 정보를 추가할 수 있는 인터페이스를 사용자에게 제공하면 사용자가 이를 선택하여 들어간 후 사용자가 직접 분류군으로 설정하기를 원하는 동물의 특정 음성을 녹음하는 방식이다. 이 경우 전자장치(300)는 사용자입력을 수신하는 사용자입력수신부를 더 포함하고, 처리부(303)는 상기 사용자입력수신부를 통해 수신되는 사용자입력에 따라 동물의 음성을 녹음하고 상기 녹음된 음성의 적어도 일부를 분류군에 추가하는 기능을 더 포함한다.One of the methods for the user to directly add taxonomy information is that if the present invention provides the user with an interface through which the user can add taxonomy information, the user selects and enters the interface, and then the user directly specifies an animal to be set as a taxon. A way to record voice. In this case, the electronic device 300 further includes a user input receiving unit for receiving a user input, and the processing unit 303 records the animal's voice according to the user input received through the user input receiving unit and uses at least one of the recorded voices. Further includes the ability to add some to taxa.

사용자가 분류군 정보를 직접 추가하는 방법 중 또 다른 하나는, 수신부(301)를 통해 이미 수신한 동물의 음성 자료 중 특정 부분을 사용자가 선택하여 이를 분류군의 하나로 추가하는 방법이다. 이 경우 전자장치(300)는 사용자입력을 수신하는 사용자입력수신부를 더 포함하고, 처리부(303)는 상기 사용자입력수신부를 통해 수신되는 사용자입력에 따라 수신부에 수신된 동물의 음성 중 적어도 일부를 분류군에 추가하는 기능을 더 포함한다.Another method among methods in which the user directly adds taxon information is a method in which the user selects a specific part of animal voice data already received through the receiving unit 301 and adds it as one of the taxa. In this case, the electronic device 300 further includes a user input receiving unit for receiving a user input, and the processing unit 303 converts at least a part of the animal voice received into the receiving unit according to the user input received through the user input receiving unit into a taxon. Includes more features to add to .

사용자가 분류군 정보를 직접 추가하는 위 방법들은 예시적일 뿐 한정적인 것은 아니다.The above methods for the user to directly add taxonomy information are illustrative and not limiting.

도 9는 위와 같이 각 음성의 분류정보도 제공하는, 본 발명의 일 실시예에 따른 세부 절차를 나타내는 도면이다. 동물이 반려견일 경우에, 그 반려견이 짓는 소리를 멍멍짓음(Barking), 울부짓음(Howling), 으르렁거림(Growling), 낑낑댐(Whining), 기타 소음(Noise)의 5가지로 분류하고 그 정보를 제공하는 실시예를 나타낸다. 9 is a diagram showing a detailed procedure according to an embodiment of the present invention, in which classification information of each voice is also provided as described above. If the animal is a companion dog, the sound made by the companion dog is classified into 5 categories: barking, howling, growling, whining, and other noise, and the information It shows an embodiment that provides.

먼저, 전자장치에 연결된 마이크로폰을 통해 반려견이 짓는 소리를 입력받는다(901). 이후 위 도 4 및 도 5를 통해 설명한 소리 구간 탐지 단계를 통해, 입력된 소리 중에서 반려견의 소리, 즉 작은 노이즈가 아닌 실제 짓는 소리가 존재하는 구간을 찾아낸다(902). First, a sound made by a dog is input through a microphone connected to an electronic device (901). Thereafter, through the sound section detection step described above with reference to FIGS. 4 and 5 , a section in which the sound of a dog, that is, a real barking sound, not a small noise, exists among the input sounds is found (902).

소리 구간 탐지를 거친 후(탐지 단계를 거치지 않을 수도 있다) 특성 분석(903) 단계를 진행한다. 이 단계에서는 감지된 소리 구간의 데이터에 대해 음향학적으로 분석한다(feature extraction 단계). 이 때 사용되는 음향학적 feature 들은 일반적으로 음성/음향 분석에서 많이 사용되는 LPC(Linear Predictive coding) coefficient, MFCCs(Mel-frequency cepstral coefficients), MFCC Deltas, Delta-Delta MFCCs, 지속시간(duration), 크기(sound level), 음고(pitch), 스펙트럴 무게중심 (spectral centroid), 스펙트럼(spectrum) 등의 음향학적 feature들로 분석한다. 분석되는 feature 값은 단독으로도, 여러 개로도 사용 가능하다. After the detection of the sound section (the detection step may not be performed), the characteristic analysis step 903 is performed. In this step, the data of the detected sound section is acoustically analyzed (feature extraction step). Acoustic features used at this time include LPC (Linear Predictive coding) coefficients, MFCCs (Mel-frequency cepstral coefficients), MFCC Deltas, Delta-Delta MFCCs, duration, and size, which are commonly used in speech / acoustic analysis. It analyzes acoustic features such as sound level, pitch, spectral centroid, and spectrum. The feature value to be analyzed can be used alone or in multiple numbers.

다음은 짖는 소리 분류(904) 단계이다. 이 단계에서는 각각의 사운드 구간에서 분석된 음향학적 특징 값들로부터 분류 결과를 추출한다. 반려견 짖는 소리에 대한 분류의 일 실시예는 Barking/Howling/Growling/Whining/Noise의 5가지 분류로, 반려견 소리 특성에 따른 분류군은 필요에 따라 축소 및 추가 가능하다. Next is the barking classification 904 step. In this step, a classification result is extracted from the acoustic feature values analyzed in each sound section. An embodiment of the classification of dog barking is five classifications of Barking/Howling/Growling/Whining/Noise, and classification groups according to dog sound characteristics can be reduced and added as needed.

Barking은 ‘멍멍’ 또는 ‘왈왈’하고 짖는 소리로, 다른 소리 분류군들에 비해 빠른 attack과 decay 특성을 나타낸다. 일반적으로 반려견들이 신나거나 화났을 때 이런 소리를 많이 내지만, 급박하거나 경고의 상황에서도 Barking 하기도 한다. Barking is a barking sound with a ‘wow’ or ‘walwal’, and exhibits faster attack and decay characteristics than other sound taxa. In general, dogs make a lot of these sounds when they are excited or angry, but they may also bark in urgent or warning situations.

Howling은 울부짖는 듯한 소리로, ‘아우~’하면서 길게 내지르는 특성을 나타낸다. 일반적으로 외로운 상황이거나 분리 불안이 심한 반려견들이 howling을 많이 한다고 알려져 있다. Howling is a sound that sounds like howling, and shows the characteristic of making a long sound while saying 'Aw~'. In general, it is known that dogs who are lonely or have severe separation anxiety howling a lot.

Growling은 ‘으르렁’하는 소리로, 일반적으로 두려운 상황이거나 상대방을 위협하고자 할 때, 혹은 겁에 질려 있거나 지원 요청을 할 때 이런 소리를 낸다고 알려져 있다. Growling is a ‘growling’ sound, commonly known as making this sound when you are frightened or trying to intimidate someone, or when you are frightened or calling for support.

Whining은 작게 ‘낑낑’거리는 소리로, 반려견들이 불편한 상황이거나 요구 사항이 있을 때 주로 이런 소리를 많이 낸다. Whining 소리는 일반적으로 음고가 높고, 소리 크기는 작으며, 지속 시간은 짧은 특징을 나타낸다. Whining is a small ‘whining’ sound, and dogs usually make this sound a lot when they are in an uncomfortable situation or have a request. Whining sounds are generally characterized by high pitch, low volume, and short duration.

이 외에도 반려견의 비명 소리, 한숨 소리나, 코고는 소리 등이 발생할 수는 있으나 이 부분은 Noise의 분류군으로 분류되도록 하고, 필요에 따라 추가 분류군 설정도 가능하다. 또한, 반려견의 짖는 소리 이외의 모든 노이즈들은 Noise 군으로 분류되도록 한다. In addition to this, a dog's screaming, sighing, snoring, etc. may occur, but this part is classified as a noise taxon, and additional taxa can be set if necessary. In addition, all noises other than the dog's barking are classified into the Noise group.

반려견이 짖는 소리를 분석하는 과정이 소프트웨어적으로 구현될 경우, 그 소리 분석 프로그램은 각각의 분류군에 따른 음향학적 특징 분석값들을 보유하고 있어야 하며, 소리 분류 단계(904)에서는 이전 단계에서 분석된 사운드 구간의 음향학적 특징값들과 프로그램이 보유하고 있는 분류군에 따른 음향학적 특징값들을 비교한다. 각 분류군의 특징값들 중 분석된 특징값과 가장 비슷한 분류군(Barking/ Howling/ Growling/ Whining/ Noise 중 하나)을 찾아 분류 결과를 찾아 내는 것이 이번 단계에서 이루어지는 일이며, 특징값 비교는 clustering algorithm이나 machine learning algorithm 등을 통해 계산된다. If the process of analyzing the dog's barking is implemented in software, the sound analysis program must have acoustic feature analysis values for each taxon, and in the sound classification step 904, the sound analyzed in the previous step Compare the acoustic feature values of the section with the acoustic feature values according to the taxonomic group possessed by the program. Finding the classification result by finding the taxon (one of Barking/ Howling/ Growling/ Whining/ Noise) that is most similar to the analyzed feature value among the feature values of each taxon is performed in this step, and feature value comparison is performed using a clustering algorithm or It is calculated through machine learning algorithm, etc.

짖는 소리 분류 단계(904)가 끝난 이후에는 이력정보 저장 단계와 분석정보 생성 단계(905)를 거친다. 짓는 소리를 유형별로 분류한 본 실시예의 경우 분석정보 역시 유형별 정보를 제공할 수 있다.After the barking classification step 904 is over, a history information storage step and an analysis information generation step 905 are performed. In the case of the present embodiment in which making sounds are classified by type, analysis information may also provide information by type.

도 10이 본 실시예에 따라 생성 가능한 분석정보의 몇 가지 형태를 나타내는 도면이다. 먼저 각 시간대별로 짓은 유형과 횟수에 관한 통계정보를 분석정보로 제공할 수 있다. 그래프의 형태는 도 10처럼 막대형이 될 수도 있고 도 11처럼 꺽은선형이 될 수도 있다. 10 is a diagram showing several types of analysis information that can be generated according to the present embodiment. First, statistical information on the type and number of builds for each time period can be provided as analysis information. The shape of the graph may be a bar shape as shown in FIG. 10 or a polygonal line shape as shown in FIG. 11 .

또한, 특정 유형만을 선택하여 각 시간대별로 그 유형의 소리가 발생한 횟수에 관한 통계정보를 분석정보로 제공할 수도 있다. 이 때의 그래프 형태도 그 정보를 적절히 나타내는 모든 형태가 가능하다. 도 12처럼 막대형이 될 수도 있고 도 13처럼 꺽은선형이 될 수도 있다.In addition, only a specific type may be selected and statistical information about the number of occurrences of that type of sound for each time period may be provided as analysis information. In this case, any form of graph appropriately representing the information is possible. It may be a bar shape as shown in FIG. 12 or a polygonal shape as shown in FIG. 13 .

도 10 내지 도13에서는 1시간 단위로 분석한 분석정보를 나타내고 있으나, 여기서의 단위 시간은 그 외에 날짜별/주간/월간 등도 가능함은 물론이다.Although FIGS. 10 to 13 show analysis information analyzed in units of one hour, the unit time here may also be other than date/weekly/monthly.

이하에서는 도 14를 이용하여 본 발명의 동물 음성 분석정보 제공 방법을 설명한다. Hereinafter, a method for providing animal voice analysis information according to the present invention will be described using FIG. 14 .

수신부(301)는 동물의 음성 자료를 수신한다(S1401). 처리부(303)는 상기 수신된 동물의 음성 자료에 기초하여 상기 동물의 복수의 음성에 관한 이력정보를 저장한다(S1402). 또한 처리부(303)는 상기 이력정보에 기초하여 상기 동물의 각 음성의 특성에 관한 분석정보를 생성한다(S1403).The receiving unit 301 receives animal voice data (S1401). The processing unit 303 stores history information on a plurality of animal voices based on the received animal voice data (S1402). Also, the processing unit 303 generates analysis information about the characteristics of each voice of the animal based on the history information (S1403).

이상에서 본 발명은 비록 한정된 실시예와 도면에 의해 설명되었으나, 해당 기술분야에서 통상의 지식을 가진 자라면 상기의 기재로부터 다양한 수정 및 변형이 가능하다. 예를 들어, 설명된 기술들이 설명된 방법과 다른 순서로 수행되거나, 설명된 시스템, 구조, 장치, 회로 등의 구성요소들이 설명된 방법과 다른 형태로 결합 또는 조합되거나, 다른 구성요소 또는 균등물에 의하여 대치되거나 치환되더라도 적절한 결과가 달성될 수 있다. 그러므로, 다른 구현들, 다른 실시예들 및 특허청구범위와 균등한 것들도 특허청구범위의 범위에 속한다고 할 것이고, 본 개시 방법들은 한정적인 관점이 아니라 설명적인 관점에서 고려되어야 한다.Although the present invention has been described above with limited embodiments and drawings, those skilled in the art can make various modifications and variations from the above description. For example, the described techniques may be performed in an order different from the method described, or the components of the described system, structure, device, circuit, etc. may be combined or combined in a different form than the method described, or other components or equivalents may be used. Appropriate results can be achieved even if substituted or substituted by Therefore, other implementations, other embodiments and equivalents of the claims are intended to be within the scope of the claims, and the methods disclosed herein are to be considered in an illustrative rather than a limiting sense.

Claims (15)

전자장치에 있어서,
동물의 음성 자료를 수신하는 수신부;
동물의 음성에 관한 정보를 저장하는 저장부;
사용자입력을 수신하는 사용자입력수신부; 및
상기 수신부에 수신된 동물의 음성 자료에 기초하여 상기 동물의 복수의 음성에 관한 이력정보를 상기 저장부에 저장하고, 상기 이력정보에 기초하여 상기 동물의 각 음성의 특성에 관한 분석정보를 생성하는 처리부를 포함하며,
상기 분석정보는 상기 동물의 각 음성이 발생한 시각과 발생한 각 음성의 크기, 주파수, 지속시간, 및 발생장소에 관한 정보와, 상기 동물의 각 음성이 발생한 시간대별로 짓은 유형과 횟수에 관한 정보를 포함하고,
상기 처리부는,
상기 사용자입력에 기초하여, 상기 각 음성의 크기, 주파수, 및 지속시간을 상대적 크기에 따라 배경색을 달리하여 출력하고,
상기 사용자입력에 기초하여, 상기 분석정보의 시간대별로 짓는 유형 중 특정 유형의 소리가 발생한 소정 시간대별 횟수에 관한 정보를 출력하는 것을 특징으로 하는 전자장치.
In electronic devices,
a receiving unit for receiving animal voice data;
a storage unit for storing information about the animal's voice;
a user input receiver for receiving a user input; and
Storing history information on a plurality of voices of the animal in the storage unit based on the voice data of the animal received by the receiving unit, and generating analysis information about characteristics of each voice of the animal based on the history information Including a processing unit,
The analysis information includes information on the time at which each voice of the animal occurred, the size, frequency, duration, and place of occurrence of each voice, and information on the type and number of times each voice of the animal occurred for each time period. do,
The processing unit,
Based on the user input, outputting the volume, frequency, and duration of each voice in a different background color according to the relative size;
Based on the user input, the electronic device characterized in that outputs information about the number of times for each predetermined time period that a specific type of sound among the types of sounds for each time period of the analysis information is generated.
제1항에 있어서,
상기 수신부는 상기 동물의 위치에 관한 정보를 더 수신하고,
상기 분석정보는 상기 동물의 위치에 관한 정보를 더 포함하는 것을 특징으로 하는 전자장치.
According to claim 1,
The receiving unit further receives information about the location of the animal,
The electronic device, characterized in that the analysis information further includes information about the location of the animal.
제1항에 있어서,
상기 저장부는 상기 동물의 각 음성을 그 음성의 특성에 따라 분류할 분류군에 관한 정보를 더 포함하고,
상기 처리부는 상기 동물의 각 음성을 상기 분류군에 따라 분류하는 기능을 더 포함하고,
상기 분석정보는 상기 동물의 각 음성이 속하는 분류군에 관한 정보를 더 포함하는 것을 특징으로 하는 전자장치.
According to claim 1,
The storage unit further includes information about taxa to classify each voice of the animal according to characteristics of the voice;
The processing unit further includes a function of classifying each voice of the animal according to the taxon,
The electronic device characterized in that the analysis information further includes information about taxa to which each voice of the animal belongs.
제3항에 있어서,
상기 처리부는 상기 사용자입력에 따라 상기 동물의 음성을 녹음하고 상기 녹음된 음성의 적어도 일부를 상기 분류군에 추가하는 기능을 더 포함하는 것을 특징으로 하는 전자장치.
According to claim 3,
The electronic device of claim 1 , wherein the processing unit further comprises a function of recording the voice of the animal according to the user input and adding at least a part of the recorded voice to the taxon.
제3항에 있어서,
상기 처리부는 상기 사용자입력에 따라 상기 수신부에 수신된 동물의 음성 중 적어도 일부를 상기 분류군에 추가하는 기능을 더 포함하는 것을 특징으로 하는 전자장치.
According to claim 3,
The electronic device of claim 1 , wherein the processing unit further comprises a function of adding at least a part of the voices of animals received by the receiving unit to the taxon according to the user input.
수신부와, 저장부와, 사용자입력수신부와, 처리부를 포함하는 전자장치를 위한 동물의 음성 분석정보 제공 방법으로서,
상기 수신부에 의해 동물의 음성 자료를 수신하는 단계와,
상기 수신된 동물의 음성 자료에 기초하여 상기 동물의 복수의 음성에 관한 이력정보를 상기 저장부에 저장하는 단계와,
상기 이력정보에 기초하여 상기 처리부에 의해 상기 동물의 각 음성의 특성에 관한 분석정보를 생성하는 단계를 포함하며,
상기 분석정보는 상기 동물의 각 음성이 발생한 시각과 발생한 각 음성의 크기, 주파수, 지속시간, 및 발생장소에 관한 정보와, 상기 동물의 각 음성이 발생한 시간대별로 짓은 유형과 횟수에 관한 정보를 포함하고,
상기 음성 분석정보 제공 방법은,
상기 사용자입력수신부를 통한 사용자입력에 기초하여, 상기 처리부에 의해 상기 각 음성의 크기, 주파수, 및 지속시간을 상대적 크기에 따라 배경색을 달리하여 출력하는 단계와,
상기 사용자입력에 기초하여, 상기 처리부에 의해, 상기 분석정보의 시간대별로 짓는 유형 중 특정 유형의 소리가 발생한 소정 시간대별 횟수에 관한 정보를 출력하는 단계를 더 포함하는 것을 특징으로 하는 동물의 음성 정보 제공 방법.
A method of providing animal voice analysis information for an electronic device including a receiving unit, a storage unit, a user input receiving unit, and a processing unit,
Receiving animal voice data by the receiving unit;
storing history information on a plurality of voices of the animal in the storage unit based on the received voice data of the animal;
Generating analysis information about the characteristics of each voice of the animal by the processing unit based on the history information;
The analysis information includes information on the time at which each voice of the animal occurred, the size, frequency, duration, and place of occurrence of each voice, and information on the type and number of times each voice of the animal occurred for each time period. do,
The voice analysis information providing method,
Based on the user input through the user input receiver, outputting, by the processing unit, the volume, frequency, and duration of each voice with different background colors according to the relative size;
Based on the user input, the processing unit outputs information about the number of times for each predetermined time period that a specific type of sound among the types of vocalizations for each time period of the analysis information is generated, by the processing unit. How to provide.
삭제delete 제6항에 있어서,
상기 동물의 각 음성을 그 음성의 특성에 따라 분류할 분류군에 관한 정보를 상기 저장부에 저장하는 단계와,
상기 처리부에 의해 상기 동물의 각 음성을 상기 분류군에 따라 분류하는 단계를 더 포함하고,
상기 생성하는 단계는 상기 처리부에 의해, 상기 동물의 각 음성을 그 음성의 특성에 따라 분류한 분류군에 관한 정보를 더 포함하는 분석정보를 생성하는 것을 특징으로 하는 동물의 음성 정보 제공 방법.
According to claim 6,
storing, in the storage unit, information about a taxon to classify each voice of the animal according to a characteristic of the voice;
Further comprising the step of classifying each voice of the animal according to the taxon by the processing unit;
The method of providing animal voice information, characterized in that in the generating step, analysis information further including information on a taxon in which each voice of the animal is classified according to characteristics of the voice is generated by the processing unit.
제8항에 있어서,
상기 사용자입력에 따라 상기 처리부에 의해 상기 동물의 음성을 녹음하고 상기 녹음된 음성의 적어도 일부를 상기 분류군에 추가하는 단계를 더 포함하는 것을 특징으로 하는 동물의 음성 정보 제공 방법.
According to claim 8,
The animal voice information providing method further comprising recording the voice of the animal by the processing unit according to the user input and adding at least a part of the recorded voice to the taxon.
제8항에 있어서,
상기 사용자입력에 따라 상기 처리부에 의해 상기 수신된 동물의 음성 중 적어도 일부를 상기 분류군에 추가하는 단계를 더 포함하는 것을 특징으로 하는 동물의 음성 정보 제공 방법.
According to claim 8,
The animal voice information providing method further comprises adding at least a part of the received animal voices to the taxa by the processing unit according to the user input.
수신부와, 저장부와, 사용자입력수신부와, 처리부를 포함하는 전자장치를 위한 동물의 음성 분석정보 제공 방법을 컴퓨터에서 실행시키기 위한 인스트럭션이 기록된 컴퓨터 판독가능한 기록매체에 있어서,
상기 동물의 음성 분석정보 제공 방법은,
상기 수신부에 의해 동물의 음성 자료를 수신하는 단계와,
상기 수신된 동물의 음성 자료에 기초하여 상기 동물의 복수의 음성에 관한 이력정보를 상기 저장부에 저장하는 단계와,
상기 이력정보에 기초하여 상기 처리부에 의해 상기 동물의 각 음성의 특성에 관한 분석정보를 생성하는 단계를 포함하며,
상기 분석정보는 상기 동물의 각 음성이 발생한 시각과 발생한 각 음성의 크기, 주파수, 지속시간, 및 발생장소에 관한 정보와, 상기 동물의 각 음성이 발생한 시간대별로 짓은 유형과 횟수에 관한 정보를 포함하고,
상기 동물의 음성 분석정보 제공 방법은,
상기 사용자입력수신부를 통한 사용자입력에 기초하여, 상기 처리부에 의해 상기 각 음성의 크기, 주파수, 및 지속시간을 상대적 크기에 따라 배경색을 달리하여 출력하는 단계와,
상기 사용자입력에 기초하여, 상기 처리부에 의해, 상기 분석정보의 시간대별로 짓는 유형 중 특정 유형의 소리가 발생한 소정 시간대별 횟수에 관한 정보를 출력하는 단계를 더 포함하는 기록매체.
A computer-readable recording medium having instructions for executing a method of providing animal voice analysis information for an electronic device including a receiving unit, a storage unit, a user input receiving unit, and a processing unit in a computer,
The method of providing voice analysis information of the animal,
Receiving animal voice data by the receiving unit;
storing history information on a plurality of voices of the animal in the storage unit based on the received voice data of the animal;
Generating analysis information about the characteristics of each voice of the animal by the processing unit based on the history information;
The analysis information includes information on the time at which each voice of the animal occurred, the size, frequency, duration, and place of occurrence of each voice, and information on the type and number of times each voice of the animal occurred for each time period. do,
The method of providing voice analysis information of the animal,
Based on the user input through the user input receiver, outputting, by the processing unit, the volume, frequency, and duration of each voice with different background colors according to the relative size;
Based on the user input, outputting, by the processing unit, information about the number of times a specific type of sound is generated for each time period among the types of sounds for each time period of the analysis information.
삭제delete 삭제delete 삭제delete 삭제delete
KR1020160006934A 2016-01-20 2016-01-20 Apparatus, method, and recording medium for providing animal sound analysis information KR102573186B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020160006934A KR102573186B1 (en) 2016-01-20 2016-01-20 Apparatus, method, and recording medium for providing animal sound analysis information

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020160006934A KR102573186B1 (en) 2016-01-20 2016-01-20 Apparatus, method, and recording medium for providing animal sound analysis information

Publications (2)

Publication Number Publication Date
KR20170087225A KR20170087225A (en) 2017-07-28
KR102573186B1 true KR102573186B1 (en) 2023-08-31

Family

ID=59422451

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020160006934A KR102573186B1 (en) 2016-01-20 2016-01-20 Apparatus, method, and recording medium for providing animal sound analysis information

Country Status (1)

Country Link
KR (1) KR102573186B1 (en)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102043342B1 (en) * 2018-05-14 2019-11-12 고려대학교 세종산학협력단 System and Method for Classifying a Dog's Vocalization using a Sound Detection Sensor
KR102620948B1 (en) 2021-11-11 2024-01-05 충북대학교 산학협력단 Apparatus and method for identifying animal species

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20130282379A1 (en) 2012-04-24 2013-10-24 Tom Stephenson Method and apparatus for analyzing animal vocalizations, extracting identification characteristics, and using databases of these characteristics for identifying the species of vocalizing animals

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP1256875A1 (en) * 2001-05-10 2002-11-13 Nokia Corporation Method and device for context dependent user input prediction
US7551913B1 (en) * 2001-12-05 2009-06-23 At&T Mobility Ii Llc Methods and apparatus for anonymous user identification and content personalization in wireless communication
KR20040080167A (en) * 2003-03-11 2004-09-18 에스케이 텔레콤주식회사 Mobile Communication Terminal with a Dog Interpreter and Transmission System of Interpreting Message Using the Same
KR20030077490A (en) * 2003-08-19 2003-10-01 유경민 Mobile sever system and service method for translating and making sound of animal

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20130282379A1 (en) 2012-04-24 2013-10-24 Tom Stephenson Method and apparatus for analyzing animal vocalizations, extracting identification characteristics, and using databases of these characteristics for identifying the species of vocalizing animals

Also Published As

Publication number Publication date
KR20170087225A (en) 2017-07-28

Similar Documents

Publication Publication Date Title
Mac Aodha et al. Bat detective—Deep learning tools for bat acoustic signal detection
US10977299B2 (en) Systems and methods for consolidating recorded content
US10819811B2 (en) Accumulation of real-time crowd sourced data for inferring metadata about entities
KR102571011B1 (en) Responding to Remote Media Classification Queries Using Classifier Models and Context Parameters
US10074360B2 (en) Providing an indication of the suitability of speech recognition
US20200135158A1 (en) System and Method of Reading Environment Sound Enhancement Based on Image Processing and Semantic Analysis
Bragg et al. A personalizable mobile sound detector app design for deaf and hard-of-hearing users
Zilli et al. A hidden Markov model-based acoustic cicada detector for crowdsourced smartphone biodiversity monitoring
Anderson et al. Soft song in song sparrows: acoustic structure and implications for signal function
Gridley et al. Signature whistles in free‐ranging populations of Indo‐Pacific bottlenose dolphins, Tursiops aduncus
Krijnders et al. Sound event recognition through expectancy-based evaluation ofsignal-driven hypotheses
Stoeger et al. Age-group estimation in free-ranging African elephants based on acoustic cues of low-frequency rumbles
KR20160106075A (en) Method and device for identifying a piece of music in an audio stream
CN109036393A (en) Wake-up word training method, device and the household appliance of household appliance
CN110719553B (en) Smart speaker system with cognitive sound analysis and response
WO2019119279A1 (en) Method and apparatus for emotion recognition from speech
KR20210006419A (en) Generating and storing health-related information
Oldoni et al. The acoustic summary as a tool for representing urban sound environments
US11735202B2 (en) Systems and methods for pre-filtering audio content based on prominence of frequency content
CN110111815A (en) Animal anomaly sound monitoring method and device, storage medium, electronic equipment
KR102573186B1 (en) Apparatus, method, and recording medium for providing animal sound analysis information
WO2020052135A1 (en) Music recommendation method and apparatus, computing apparatus, and storage medium
Lehmann et al. Long-distance vocalizations of spotted hyenas contain individual, but not group, signatures
JP2022530201A (en) Automatic captioning of audible parts of content on computing devices
CN108170452A (en) The growing method of robot

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
AMND Amendment
E601 Decision to refuse application
X091 Application refused [patent]
AMND Amendment
X701 Decision to grant (after re-examination)
GRNT Written decision to grant