KR20170087225A - 동물의 음성 분석정보를 제공하는 장치, 방법 및 기록매체 - Google Patents

동물의 음성 분석정보를 제공하는 장치, 방법 및 기록매체 Download PDF

Info

Publication number
KR20170087225A
KR20170087225A KR1020160006934A KR20160006934A KR20170087225A KR 20170087225 A KR20170087225 A KR 20170087225A KR 1020160006934 A KR1020160006934 A KR 1020160006934A KR 20160006934 A KR20160006934 A KR 20160006934A KR 20170087225 A KR20170087225 A KR 20170087225A
Authority
KR
South Korea
Prior art keywords
animal
voice
information
taxon
receiving
Prior art date
Application number
KR1020160006934A
Other languages
English (en)
Other versions
KR102573186B1 (ko
Inventor
박상하
노현종
양재철
정유신
현주호
Original Assignee
삼성전자주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 삼성전자주식회사 filed Critical 삼성전자주식회사
Priority to KR1020160006934A priority Critical patent/KR102573186B1/ko
Publication of KR20170087225A publication Critical patent/KR20170087225A/ko
Application granted granted Critical
Publication of KR102573186B1 publication Critical patent/KR102573186B1/ko

Links

Images

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L17/00Speaker identification or verification
    • G10L17/26Recognition of special voice characteristics, e.g. for use in lie detectors; Recognition of animal voices
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/06Creation of reference templates; Training of speech recognition systems, e.g. adaptation to the characteristics of the speaker's voice
    • G10L15/063Training
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue
    • G10L2015/063

Abstract

본 발명은 동물의 음성 분석정보를 제공하는 전자장치, 방법 및 상기 정보를 제공하는 프로그램을 기록한 컴퓨터로 읽을 수 있는 기록매체에 관한 것에 관한 것으로서, 상기 전자장치는 동물의 음성 자료를 수신하는 수신부, 동물의 음성에 관한 정보를 저장하는 저장부, 동물의 음성에 관한 정보를 출력하는 출력부 및 상기 수신부에 수신된 동물의 음성 자료에 기초하여 상기 동물 음성의 이력정보를 상기 저장부에 저장하고, 상기 이력정보에 기초하여 각 상기 동물 음성의 특성에 관한 분석정보를 상기 출력부에 출력하는 처리부를 포함한 것을 특징으로 한다.
본 발명에서는 동물의 음성 분석을 통해 '감정'과 같은 주관적, 추상적, 관념적 개념을 그 분석 결과로 제공한 기존의 관점에서 벗어나, 동물의 음성으로부터 그 동물이 어떤 상황에 있는지를 판단하는 것은 사용자에게 맡기고, 본 발명은 그 판단의 기초자료를 제공하는 것을 목적으로 함으로써, 결과적으로 사용자는 그 동물의 상태를 보다 정확하게 판단할 수 있게 된다.

Description

동물의 음성 분석정보를 제공하는 장치, 방법 및 기록매체 {Apparatus, method, and recording medium for providing animal sound analysis information}
본 발명은 동물의 음성 분석정보를 제공하는 전자장치, 방법 및 상기 정보를 제공하는 프로그램을 기록한 컴퓨터로 읽을 수 있는 기록매체에 관한 것이다.
반려견을 키우는 인구가 폭발적으로 증가하고 있다. 우리나라의 경우 이미 반려견 인구 1,000만 명 시대에 들어섰고, 성장하는 나라인 중국도 1억 마리 이상의 반려견을 키우는 것으로 추정된다. 반려견 가정의 증가와 반려견 시장의 성장세는 더 가속화할 것으로 예상된다.
이처럼 가정에서 길러지는 반려견의 수가 증가하는 동시에 반려견 가정 중 일인 가구 또는 맞벌이 가구의 비율도 증가함에 따라, 많은 시간을 집에서 혼자 있게 되는 반려견의 수 역시 증가하고 있다.
반려견을 홀로 집에 남겨 놓고 출근해야 하는 견주들은 죄책감과 불안한 마음으로 생활하고 있으며, 장시간 혼자 남겨진 반려견들은 정신적 스트레스로 인하여 장신간 울부짖거나 집안의 물건을 훼손하는 등 견주들에게 또 다른 고민거리를 안겨주고 있다. 이에 따라 반려견의 삶의 안정을 도모하고 견주들의 불안감을 해소하기 위해 집에 홀로 남겨진 반려견을 원격에서 모니터링하거나 케어할 수 있는 제품들이 최근 활발하게 개발되고 있다.
이와 함께 반려견의 음성('음성'의 사전적 의미는 '사람의 목소리나 말소리'이나, 본 명세서에서는 '동물이 성대를 이용하여 내는 소리'를 그 이외에 동물이 내는 소리와 구분하여 표현하기 위해 '음성'이라는 단어를 사용한다)을 감지하여 분석 결과를 알려주는 프로그램의 필요성도 함께 증가하고 있다. 여기에 반려견이 내는 음성으로부터 반려견의 상태나 감정을 알아내어 반려견과 보다 정확하게 소통하고 싶은 인간의 오랜 욕구가 더해져 이와 관련된 프로그램들이 다수 개발되었다.
그러나 이들 프로그램이 제공하는 분석 결과의 객관성과 정확성을 담보하기는 어렵다. 그 이유는 크게 두 가지로 파악할 수 있는데, 음성 분석 알고리즘 자체의 엄밀성과 정확성 부족이 그 첫째 이유다. 다른 이유는, 위 첫째 이유보다 결정적인 이유라고 할 수 있는데, 각 반려견마다 특정 감정이나 상황에서 내는 음성이 다를 수 있다는 점이다. 그럼에도 기존의 프로그램들은 반려견이 특정 감정과 상황에서 늘 동일한 음성을 낼 것이라는 전제하에, 반려견의 소리를 분석하여 그에 대응하는 감정을 인간의 언어나 이모티콘 등으로 표시하는 방식을 택하고 있다. 그 결과 프로그램이 도출해내는 결과를 사용자들이 신뢰하지 못하고, 프로그램을 개발한 쪽에서도 결과의 객관성과 정확성 부족을 인정하지 않을 수 없게 되어, 위 프로그램들은 대부분 재미나 오락 용도로만 사용되는 데 불과한 것이 현실이다.
도 1과 도 2를 통해 종래기술의 구체적인 예를 확인할 수 있다. 도 1과 도 2는 종래기술, 즉 동물의 음성을 분석하여 이에 대응하는 감정을 출력하는 기술을 나타내는 도면이다. 도 1에서 볼 수 있듯이 종래기술은 동물의 음성을 입력받아 이에 대응하는 감정을 자체적으로 판단하여 그 결과를 인간의 언어나 이모티콘 등을 통해 제공하였다. 그러나 도 2에서 볼 수 있듯이 종래 기술은 개발자 스스로 '장난'용이라고 그 용도를 한정할 수밖에 없을 정도로 그 판단 결과가 부정확했다.
본 발명은 기존의 반려견 음성 분석 프로그램의 정확성 결여의 핵심적 요인이 '반려견이 특정 감정과 상황에서 늘 동일한 음성을 낼 것'이라고 섣불리 전제하는 점에 있다는 판단에서 출발한다. 각 반려견마다 특정 감정이나 상황에서 내는 음성이 다를 수 있다. 그리고 그 음성으로부터 그 반려견이 어떤 상황에 처해있고 어떤 감정을 느끼고 있는지는 그 반려견의 주인이 가장 정확하게 판단할 수 있다. 반려견을 가장 가까이서 오랫동안 살펴봐 온 그 반려견의 주인은 자신의 반려견이 어떠한 상황에서 어떠한 소리를 내는지, 어떠한 패턴으로 짖는지를 알고 있다. 따라서 반려견의 짖는 소리 패턴 등 반려견 음성의 분석정보만 알려주더라도 반려견의 주인은 자신의 반려견의 상황을 충분히 예측할 수 있고, 그 예측의 정확도는 알고리즘을 통해 프로그램 자체적으로 분석을 실행한 경우보다 높을 것이다.
이처럼 본 발명은 반려견의 '감정'과 같은 주관적, 추상적, 관념적 개념을 분석 결과로 제공하고자 하는 기존의 관점에서 벗어나는 것으로서 종래의 과제를 해결하고자 한다. 즉, 반려견의 음성으로부터 그 반려견이 어떤 상황에 있는지를 판단하는 것은 견주인 사용자에게 맡기고, 본 발명은 그 판단의 기초자료를 제공하는 것을 목적으로 한다.
그러나 반려견이 내는 모든 음성을 그대로 사용자에게 전송하는 것은 사용자가 검토할 데이터의 양이 방대해져서 실용성이 현저히 떨어지는 문제가 있다. 따라서 본 발명에서는 반려견이 낸 음성의 객관적 특성을 분석한 정보를 제공하여, 이를 통해 사용자가 자신의 반려견의 상태를 빠르고 정확하게 판단할 수 있도록 하고자 한다.
한편, 이상의 설명은 '반려견'의 경우를 예를 들어 서술하였으나, 본 발명이 반려견의 경우에만 적용 가능한 것은 아니다. 본 발명은 반려견을 포함한 모든 동물에 적용 가능하다. 따라서 이하에서는 모든 동물을 대상으로 서술하도록 한다.
본 발명의 전자장치의 하나는, 동물의 음성 자료를 수신하는 수신부, 동물의 음성에 관한 정보를 저장하는 저장부, 동물의 음성에 관한 정보를 출력하는 출력부 및 상기 수신부에 수신된 동물의 음성 자료에 기초하여 상기 동물 음성의 이력정보를 상기 저장부에 저장하고, 상기 이력정보에 기초하여 각 상기 동물 음성의 특성에 관한 분석정보를 상기 출력부에 출력하는 처리부를 구비한 것을 특징으로 한다.
상기 수신부는 동물의 위치에 관한 정보를 더 수신하고, 상기 분석정보는 동물의 위치에 관한 정보를 더 포함할 수 있다. 이 경우 상기 동물의 각 음성이 발생할 당시의 동물의 위치, 즉 상기 동물의 각 음성의 발생 장소에 관한 정보를 분석정보에 추가로 제공할 수 있게 되어, 사용자 입장에서는 보다 많은 정보를 통해 동물의 상태를 보다 정확하게 판단할 수 있게 되는 효과가 있다.
상기 저장부는 동물의 각 음성을 그 음성의 특성에 따라 분류할 분류군에 관한 정보를 더 포함하고, 상기 처리부는 동물의 각 음성을 상기 분류군에 따라 분류하는 기능을 더 포함하고, 상기 분석정보는 동물의 각 음성이 속하는 분류군에 관한 정보를 더 포함할 수 있다. 이 경우 동물의 각 음성에 해당하는 분류정보를 통해 사용자는 그 동물의 상태를 더욱 빠르고 정확하게 파악할 수 있고, 또한 본 발명은 그 분류정보를 바탕으로 한 더욱 다양한 통계정보 등을 사용자에게 제공할 수 있게 되어 사용자는 그 정보를 바탕으로 동물의 상태에 대한 보다 심도 있는 분석과 판단이 가능하게 되는 효과가 있다.
또한, 상기 전자장치는, 사용자입력을 수신하는 사용자입력수신부를 더 포함하고, 상기 처리부는 상기 사용자입력수신부를 통해 수신되는 사용자입력에 따라 동물의 음성을 녹음하고 상기 녹음된 음성의 적어도 일부를 상기 분류군에 추가하는 기능을 더 포함할 수 있다.
그리고 상기 전자장치는, 사용자입력을 수신하는 사용자입력수신부를 더 포함하고, 상기 처리부는 상기 사용자입력수신부를 통해 수신되는 사용자입력에 따라 상기 수신부에 수신된 동물의 음성 중 적어도 일부를 상기 분류군에 추가하는 기능을 더 포함할 수 있다. 이상의 경우 사용자가 분류군 정보를 직접 입력함에 따라 사용자가 본 발명을 통해 상태를 파악하길 원하는 동물에 딱 맞는 분류군 정보를 활용할 수 있게 되어 그 상태 판단의 정확도가 향상되는 효과가 가능하다.
본 발명의 동물의 음성 분석정보 제공 방법의 하나는, 동물의 음성 자료를 수신하는 단계, 상기 수신된 동물의 음성 자료에 기초하여 상기 동물 음성의 이력정보를 저장하는 단계, 상기 이력정보에 기초하여 각 상기 동물 음성의 특성에 관한 분석정보를 출력하는 단계를 포함하는 것을 특징으로 한다.
상기 수신하는 단계는 동물의 위치에 관한 정보를 더 수신하고, 상기 생성하는 단계의 분석정보는 동물의 위치에 관한 정보를 더 포함할 수 있다.
또한, 상기 동물의 음성 분석정보 제공 방법은 동물의 각 음성을 그 음성의 특성에 따라 분류할 분류군에 관한 정보를 저장하는 단계, 동물의 각 음성을 상기 분류군에 따라 분류하는 단계를 더 포함할 수 있고, 상기 생성하는 단계는 상기 동물의 각 음성을 그 음성의 특성에 따라 분류한 분류군에 관한 정보를 더 포함할 수 있다.
사용자입력에 따라 동물의 음성을 녹음하고 상기 녹음된 음성의 적어도 일부를 상기 분류군에 추가하는 단계를 더 포함할 수 있고, 사용자입력에 따라 상기 수신된 동물의 음성 중 적어도 일부를 상기 분류군에 추가하는 단계를 더 포함할 수도 있다.
본 발명의 동물의 음성 분석정보를 제공하는 프로그램을 기록한 컴퓨터로 읽을 수 있는 기록매체의 하나는, 위에서 예시한 동물의 음성 분석정보 제공 방법 중 적어도 하나를 실행시키는 것을 특징으로 한다.
상기한 바와 같이, 종래기술을 사용했을 때에 비하여, 본 발명에 의하면 본 발명에서 제공한 동물의 음성 분석정보를 토대로 본 발명의 사용자가 그 동물의 상태를 보다 정확하게 파악할 수 있다.
도 1, 도 2는 종래기술(동물의 음성을 분석하여 이에 대응하는 감정 출력)을 나타내는 도면.
도 3은 본 발명 중 전자장치의 구성을 나타내는 블록도.
도 4, 도 5는 본 발명의 일 실시예에 따른 음성 구간 탐지 결과를 나타내는 도면.
도 6은 본 발명의 일 실시예에 따른 분석정보를 나타내는 도면.
도 7, 도 8은 본 발명의 일 실시예에 따른 분석정보를 나타내는 도면.
도 9는 본 발명의 일 실시예에 따른 세부 절차를 나타내는 도면.
도 10 내지 도 13은 본 발명의 제3실시예에 따른 분석정보를 나타내는 도면.
도 14는 본 발명 중 동물 음성 분석정보 제공 방법을 나타내는 도면.
<도면의 주요부분에 대한 부호의 설명>
301: 수신부
302: 저장부
303: 처리부
이하에서는 본 발명의 실시형태를 도면을 이용하여 설명한다. 아래에서 언급된 실시예들은 기본적으로 별개의 실시예를 나타내지만, 각 실시예들이 연결되어 하나의 실시예를 구성하는 것도 얼마든지 가능하다. 또한, 도면에 도시되고 또 이것에 의해서 설명되는 본 발명의 구성과 작용은 하나의 실시예로서 설명되는 것이며, 이것에 의해서 본 발명의 기술적 사상과 그 핵심 구성 및 작용이 한정되지는 않는다.
본 발명에서 사용되는 용어는 본 발명에서의 기능을 고려하면서 가능한 현재 널리 사용되는 일반적인 용어를 선택하였으나, 이는 해당 분야에 종사하는 기술자의 의도 또는 관례 또는 새로운 기술의 출현 등에 따라 달라질 수 있다. 또한 특정한 경우는 출원인이 임의로 선정한 용어도 있으며, 이 경우 해당되는 발명의 설명 부분에서 상세히 그 의미를 기재할 것이다. 따라서 본 발명에서 사용되는 용어는 단순한 용어의 명칭이 아닌 그 용어가 가지는 의미와 본 발명의 전반에 걸친 내용을 토대로 정의되어야 함을 밝혀두고자 한다.
도 3은 본 발명 중 전자장치(300)의 구성을 나타내는 블록도이다. 이 전자장치(300)는 수신부(301), 저장부(302), 처리부(303)를 포함한다. 상기 전자장치는 동물용 장치일 수도 있고 사용자용 장치일 수도 있으며 그 외의 외부장치일 수도 있다. 즉, 상기 전자장치는 동물용 웨어러블 장치, 사용자용 웨어러블 장치, 스마트폰, 스마트 TV, 데스크 탑 PC, 태블릿 PC, 노트북 PC, 내비게이션, 서버 등과 같은 다양한 전자 장치로 구현될 수 있다.
수신부(301)는 동물의 음성 자료를 수신한다. 이 수신부에는 마이크로폰이 설치되어 있을 수 있고, 이와 함께 또는 마이크로폰 없이 통신부가 설치되어 있을 수 있다. 마이크로폰이 설치되어 있는 경우, 수신부에서는 마이크로폰을 통해 직접 동물의 음성을 수신할 수 있다. 통신부가 설치되어 있을 경우, 수신부에서는 외부 장치에 있는 마이크로폰을 통해 입력 받은 동물 음성에 관한 자료를 통신부를 통해 수신할 수 있다. 즉, 동물의 '음성 자료'는 마이크로폰을 통해 직접 수신한 음성 자료 뿐만 아니라 통신부를 통해 수신한 음성 자료도 포함하는 넓은 의미이다. '음성 자료'는 아날로그 신호일 수도 있고 디지털 신호일 수도 있다.
반려견과 떨어진 곳에 위치한 본 발명의 사용자가 집 안에 홀로 남겨진 반려견의 음성 분석정보를 원격으로 제공받아 이를 기초로 반려견의 상태를 파악할 필요가 있다는 점을 고려하면, 외부 장치에 있는 마이크로폰을 통해 입력 받은 반려견의 음성 자료를 상기 수신부(301) 내의 통신부를 통해 수신하는 것이 한 실시예가 될 것이다. 이 경우 외부 장치에 있는 마이크로폰은 집 안에 위치하는 반려견용 디바이스, 반려견용 웨어러블 디바이스 또는 집 안의 유휴 장비(TV, 컴퓨터, 노트북, 스마트폰 등)에 탑재된 마이크로폰 등 마이크 기능이 있는 것이라면 모두 가능하다.
저장부(302)는 동물의 음성에 관한 정보를 저장한다. 저장부에 저장될 정보의 예로는 '동물의 음성에 관한 정보'는 후술할 '이력정보'와 '분석정보'가 있으나 이에 한정되지는 않는다. 저장부(302)의 구체적인 형태는 HDD, SSD, Flash Disk 등 정보를 저장하는 기능을 수행할 수 있는 것이라면 무엇이든 가능하고 RAM과 같은 휘발성 메모리 또한 가능하다.
처리부(303)는 상기 수신부(301)에 수신된 동물의 음성 자료에 기초하여 상기 동물의 복수의 음성에 관한 이력정보를 상기 저장부(302)에 저장하고, 상기 이력정보에 기초하여 상기 동물의 각 음성의 특성에 관한 분석정보를 생성한다. 본 발명의 전자장치가 데스크탑 컴퓨터라면 처리부의 구체적인 형태는 CPU(Central Processing Unit)가 한 예가 될 것이고, 웨어러블 디바이스나 스마트폰 등의 모바일 기기라면 AP(Application Processor)가 한 예가 될 것이다. 처리부의 작동은 하드웨어적으로도 구현할 수 있고 소프트웨어적으로도 구현할 수 있다. 소프트웨어적으로 구현할 경우 이는 음성 분석 프로그램의 형태가 될 것이다. 이 음성 분석 프로그램은 해당 장치에 내장되는 형태, 다운로드 가능한 프로그램 형태 혹은 어플리케이션의 형태 등 다양한 형태가 모두 가능하며, 음성 분석 알고리즘이 수행되는 곳은 해당 장치와 서버 모두 가능하다.
분석 결과는 통신을 통해 사용자가 사용하는 장치(스마트폰 등)에서 확인 가능하며(필요할 경우 실시간으로 확인), 음성 분석 프로그램이 내장된 장치에서도 확인 가능할 수 있다. 분석 결과가 출력되는 형태의 예로는 시각적 출력과 청각적 출력이 있으나 그 외에도 사용자에게 동물의 음성에 관한 정보를 알려줄 수 있는 것이라면 무엇이든 가능하다. 시각적으로 출력될 경우 디스플레이 장치를 통해 출력될 수 있고, 청각적으로 출력될 경우는 스피커 장치를 통해 출력될 수 있을 것이나, 시각적 출력과 청각적 출력 모두 이에 한정되지는 않는다.
본 발명 중 전자장치의 경우를 예로 들어 본 발명이 작동하는 모습을 살펴보면 다음과 같다. 우선 수신부(301)가 동물의 음성 자료를 수신한다. 이후 상기 수신부를 통해서 수신된 음성 자료 중 분석 대상이 될 구간을 탐지하는 단계를 거친다. 분석 대상 구간의 구분이 명료할 경우 등에는 이 단계를 생략할 수 하다.
도 4, 도 5가 본 발명의 일 실시예에 따른 음성 구간 탐지 결과를 나타내는 도면이다. 음성(이하 '소리'라고도 한다) 구간 탐지 단계에서는 실시간으로 입력되는 소리 중에서 작은 노이즈가 아닌 소리가 존재하는 구간을 찾아낸다. 물론 반려견(동물 중 '반려견'의 경우를 예로 들어 설명한다)이 짖은 소리뿐만 아니라, 반려견의 음성은 아니나 반려견과 관련된 큰 노이즈(예를 들면 문 닫는 소리나 벨 소리와 같은 큰 외부 노이즈, 반려견이 음식물을 씹거나 마시는 소리 등)도 검출될 수 있다. 소리 구간 탐지 단계는, 배경 소음과 같이 신호가 작은 노이즈 구간을 1차적으로 제거하고 실제 분석해야 하는 구간만 탐지하는 것으로, 분석해야 하는 구간을 선별하여 연산량을 줄이는 것을 목적으로 한다. 따라서 연산량이 큰 문제가 되지 않을 경우 이 단계는 생략 가능하다.
소리 구간 탐지 방법으로는 에너지 레벨 탐지(short-time energy), short-time zero-crossing, spectrum flatness measure 뿐 아니라, 배경 소음 레벨을 측정하여 그에 따라 소리 감지 레벨을 결정하는 adaptive energy detector 등의 방식도 모두 사용 가능하다.
도 4는 반려견이 짖는 소리에 대한 파형이며 빨간색 그래프는 반려견이 짖은 구간만 검출한 결과이다. 도 5는 반려견이 물 마실 때의 소리에 대한 파형으로 이러한 노이즈의 경우 소리의 크기와 지속 시간에 따라 소리 구간 탐지 단계에서 소리가 검출되기도 하고 검출되지 않기도 한다.
상기 수신된 동물의 음성 자료로부터 이력정보와 분석정보를 생성하는 과정은 다음과 같다. 수신부(301)에 동물의 음성 자료가 수신되면 처리부(303)는, 필요하면 상기 음성 구간 탐지 단계를 거친 후, 상기 수신된 음성 자료로부터 상기 동물의 복수의 음성에 관한 이력정보를 생성하고 그 이력정보를 저장부(302)에 저장한다. 위 '이력정보'는 상기 동물의 각 음성이 발생한 시각에 관한 정보를 포함한다. '복수의 음성에 관한 이력정보'라고 하여 반드시 하나의 파일에 '복수'의 음성에 관한 이력정보가 담겨있어야 하는 것은 아니고, 이력정보를 담고 있는 파일들의 집합체 또한 '복수의 음성에 관한 이력정보'에 해당한다. 각 음성의 발생 시각에 관한 정보는, 상기 수신부(301)가 수신부 내에 구비된 마이크로폰을 통해 직접 음성 자료를 입력 받을 경우에는 각 음성의 수신과 동시에 그 수신 시각에 관한 정보를 처리부(303)를 통해 획득할 수 있고, 외부 장치에 있는 마이크로폰을 통해 입력 받은 음성 자료를 수신부 내의 통신부를 통해 수신할 경우에는 그 음성 자료 자체에 포함된 각 음성의 발생 시각에 관한 정보를 처리부(303)를 통해 추출하여 획득할 수 있다. 도 6에서 그 시각에 관한 정보는 각 음성이 발생한 시, 분, 초에 대한 정보로 나타나있으나 음성의 발생 시각을 나타낼 수 있는 정보라면 이에 한정되지 않고 어떤 형태든 가능하다.
또한, 처리부(303)는 상기 수신된 동물의 각 음성의 특성을 분석한다. 분석 결과로 제공하게 될 음성의 특성에 관한 정보로는 음성의 크기(dB), 주파수(Hz), 지속시간(ms) 등이 있으나 이에 한정되지는 않는다. 처리부(303)는 위와 같이 분석된 음성의 특성에 관한 정보를 위 이력정보에 더하여 '분석정보'를 생성한다. 마찬가지로 '분석정보'는 이력정보에 음성의 크기, 주파수, 지속시간 등의 정보만이 더해진 것에 한정되지 않는다. '분석정보'는 수신부(301)에 수신된 동물의 음성 자료를 분석하여 생성된 모든 형태의 정보를 의미한다.
한편, 상기 수신부(301)는 동물의 음성 자료 외에도 동물의 위치에 관한 정보를 더 수신할 수 있다. 이 경우 상기 동물의 각 음성이 발생할 당시의 동물의 위치, 즉 상기 동물의 각 음성의 발생 장소에 관한 정보를 분석정보에 추가로 제공할 수 있게 되어, 사용자 입장에서는 보다 많은 정보를 통해 동물의 상태를 보다 정확하게 판단할 수 있게 되는 효과가 있다.
동물의 위치에 관한 정보를 더 수신하여 이를 분석정보에 추가로 제공하는 구체적인 구현 예 중 하나는 다음과 같다. 우선 동물에 웨어러블 장치를 부착한다. 그리고 상기 동물의 적어도 하나의 주요 활동 영역에 각각 비콘을 설치한다. 상기 웨어러블 장치는 근거리 무선 통신(특히 블루투스 4.0 프로토콜 기반의 근거리 무선 통신)을 이용하여 상기 각 비콘으로부터 데이터를 획득할 수 있다. 상기 웨어러블 장치는 상기 동물의 음성 자료도 수신할 수 있다.
상기 웨어러블 장치에 상기 동물의 음성 자료가 수신되면, 상기 웨어러블 장치는 상기 음성 자료와 함께 각 비콘으로부터 획득한 데이터(이하 '비콘 데이터'라고 함)도 수신한다. 이후 상기 웨어러블 장치 또는 상기 웨어러블 장치로부터 상기 동물의 음성 자료와 비콘 데이터를 수신한 사용자 장치는, 상기 자료와 데이터를 분석하여 상기 동물의 각 음성이 발생한 장소를 추출해낸다. 각 음성 발생시 획득한 각 비콘 데이터들을 비교하여 그 중에서 가장 거리가 가까운 장소를 판단하는 방법이 장소 추출 방법의 하나가 될 수 있다.
위 구현 예는 하나의 예시일 뿐, 동물의 음성 발생시 상기 동물의 위치를 알아낼 수 있는 방법의 구현 예는 이에 한정되지 않는다.
다음으로, 생성된 이력정보 및/또는 분석정보가 출력되는 과정은 아래와 같다. 본 발명 중 전자장치에 해당하는 장치가 반려견에 부착되어 있는 웨어러블 장치인 경우, 그리고 그 장치로부터 생성된 이력정보 및/또는 분석정보가 출력되는 장치는 사용자의 스마트폰인 경우를 예로 들어 설명한다. 앞서 살펴본 과정, 즉 반려견에 부착된 웨어러블 장치의 수신부가 반려견의 음성 자료를 수신하고, 이에 기초하여 그 반려견의 복수의 음성에 관한 이력정보를 생성하고 상기 이력정보에 기초하여 그 반려견의 각 음성의 특성에 관한 분석정보를 생성하는 과정은, 사용자로부터 별도의 입력을 기다릴 필요 없이 반려견에 부착된 웨어러블 장치에서 자체적으로 수행될 수 있다. 이후 사용자가 자신의 스마트폰에서 상기 이력정보 및/또는 분석정보를 출력할 것을 요구하는 명령을 그 명령에 대응하는 사용자 인터페이스를 통해 내리면, 사용자의 스마트폰은 반려견의 웨어러블 장치로부터 상기 이력정보 및/또는 분석정보를 읽어와 이를 사용자 스마트폰의 디스플레이상에 출력하게 된다.
사용자가 기르는 반려견이 여러 마리일 경우, 상기의 출력 과정에 앞서 사용자의 스마트폰의 인터페이스 상에서 그 여러 반려견 중 하나를 먼저 선택하게 하는 과정을 거칠 수 있고, 각 반려견에 부착된 웨어러블 장치는 그 장치에서 생성한 이력정보와 분석정보에 그 웨어러블 장치를 다른 반려견에 부착된 웨어러블 장치와 구별할 수 있는 식별정보를 부가할 수 있다.
위와 같은 출력 과정은 하나의 예시일 뿐이며 다른 형태의 출력 과정도 가능하다. 예를 들어 본 발명 중 전자장치에 해당하는 장치는 사용자의 스마트폰 일 수 있으며, 이 경우 사용자의 스마트폰은 외부 장치를 통해 입력된 반려견의 음성 자료를 수신한 후 자체적으로 그에 관한 이력정보와 분석정보를 생성할 수 있고, 이후 사용자의 명령에 따라 이력정보 및/또는 분석정보를 출력할 수도 있다.
도 6은 위와 같은 출력 과정을 통해 출력된, 본 발명의 일 실시예에 따른 분석정보를 나타내는 도면이다. 도 6에 표시되어 있는 '분석정보'는 각 음성이 발생한 시각과 발생한 각 음성의 크기, 주파수, 지속시간, 발생장소에 관한 정보이다. 각 음성 간의 특징을 한눈에 비교하기 용이하도록 하기 위해, 도 6에서 나타난 바와 같이 각 음성의 크기, 주파수, 지속시간은 각각 그 상대적 크기에 따라 배경색을 달리하여 출력될 수 있다. 빨간색이 상대적 크기가 큰 것을 나타내고 녹색은 상대적 크기가 작은 것을 나타낸다.
그러나 '분석정보'는 도 6에 나타난 정보나 그 출력 형태에 한정되지 않는다. 일례로 도 6에서는 최근 1시간의 음성 분석정보를 나타내고 있으나 분석정보를 제공하는 단위 시간는 이에 한정되지는 않는다. 따라서 동물이 반려견일 경우, 도 7처럼 각 요일별로 짓은 횟수를 분석한 정보나, 도 8처럼 각 시간대별로 짓은 횟수를 분석한 정보도 역시 본 발명의 '분석정보'에 해당된다.
나아가, 본 발명은 동물의 복수의 음성에 관한 이력정보 및 동물의 각 음성의 특성에 관한 정보를 제공하는 것 외에, 동물의 각 음성을 그 음성의 특성에 따라 나눈 일정한 분류군에 따라 분류하고 그 분류정보를 제공하는 것도 가능하다. 이 경우 동물의 각 음성에 해당하는 분류정보를 통해 사용자는 그 동물의 상태를 더욱 빠르고 정확하게 파악할 수 있고, 또한 본 발명은 그 분류정보를 바탕으로 한 더욱 다양한 통계정보 등을 사용자에게 제공할 수 있게 되어 사용자는 그 정보를 바탕으로 동물의 상태에 대한 보다 심도 있는 분석과 판단이 가능하게 되는 효과가 있다.
상기 분류군 정보는 본 발명에 의해 기본적으로 제공되거나 분류군 정보를 담고 있는 외부 데이터베이스로부터 획득할 수도 있으나, 사용자가 그 분류군 정보를 직접 입력하거나 추가할 수도 있다. 이 경우 사용자가 분류군 정보를 직접 입력함에 따라 사용자가 본 발명을 통해 상태를 파악하길 원하는 동물에 딱 맞는 분류군 정보를 활용할 수 있게 되어 그 상태 판단의 정확도가 향상되는 효과가 가능하다.
사용자가 분류군 정보를 직접 추가하는 방법 중 하나는, 본 발명이 사용자가 분류군 정보를 추가할 수 있는 인터페이스를 사용자에게 제공하면 사용자가 이를 선택하여 들어간 후 사용자가 직접 분류군으로 설정하기를 원하는 동물의 특정 음성을 녹음하는 방식이다. 이 경우 전자장치(300)는 사용자입력을 수신하는 사용자입력수신부를 더 포함하고, 처리부(303)는 상기 사용자입력수신부를 통해 수신되는 사용자입력에 따라 동물의 음성을 녹음하고 상기 녹음된 음성의 적어도 일부를 분류군에 추가하는 기능을 더 포함한다.
사용자가 분류군 정보를 직접 추가하는 방법 중 또 다른 하나는, 수신부(301)를 통해 이미 수신한 동물의 음성 자료 중 특정 부분을 사용자가 선택하여 이를 분류군의 하나로 추가하는 방법이다. 이 경우 전자장치(300)는 사용자입력을 수신하는 사용자입력수신부를 더 포함하고, 처리부(303)는 상기 사용자입력수신부를 통해 수신되는 사용자입력에 따라 수신부에 수신된 동물의 음성 중 적어도 일부를 분류군에 추가하는 기능을 더 포함한다.
사용자가 분류군 정보를 직접 추가하는 위 방법들은 예시적일 뿐 한정적인 것은 아니다.
도 9는 위와 같이 각 음성의 분류정보도 제공하는, 본 발명의 일 실시예에 따른 세부 절차를 나타내는 도면이다. 동물이 반려견일 경우에, 그 반려견이 짓는 소리를 멍멍짓음(Barking), 울부짓음(Howling), 으르렁거림(Growling), 낑낑댐(Whining), 기타 소음(Noise)의 5가지로 분류하고 그 정보를 제공하는 실시예를 나타낸다.
먼저, 전자장치에 연결된 마이크로폰을 통해 반려견이 짓는 소리를 입력받는다(901). 이후 위 도 3을 통해 설명한 소리 구간 탐지 단계를 통해, 입력된 소리 중에서 반려견의 소리, 즉 작은 노이즈가 아닌 실제 짓는 소리가 존재하는 구간을 찾아낸다(902).
소리 구간 탐지를 거친 후(탐지 단계를 거치지 않을 수도 있다) 특성 분석(903) 단계를 진행한다. 이 단계에서는 감지된 소리 구간의 데이터에 대해 음향학적으로 분석한다(feature extraction 단계). 이 때 사용되는 음향학적 feature 들은 일반적으로 음성/음향 분석에서 많이 사용되는 LPC(Linear Predictive coding) coefficient, MFCCs(Mel-frequency cepstral coefficients), MFCC Deltas, Delta-Delta MFCCs, 지속시간(duration), 크기(sound level), 음고(pitch), 스펙트럴 무게중심 (spectral centroid), 스펙트럼(spectrum) 등의 음향학적 feature들로 분석한다. 분석되는 feature 값은 단독으로도, 여러 개로도 사용 가능하다.
다음은 짖는 소리 분류(904) 단계이다. 이 단계에서는 각각의 사운드 구간에서 분석된 음향학적 특징 값들로부터 분류 결과를 추출한다. 반려견 짖는 소리에 대한 분류의 일 실시예는 Barking/Howling/Growling/Whining/Noise의 5가지 분류로, 반려견 소리 특성에 따른 분류군은 필요에 따라 축소 및 추가 가능하다.
Barking은 ‘멍멍’ 또는 ‘왈왈’하고 짖는 소리로, 다른 소리 분류군들에 비해 빠른 attack과 decay 특성을 나타낸다. 일반적으로 반려견들이 신나거나 화났을 때 이런 소리를 많이 내지만, 급박하거나 경고의 상황에서도 Barking 하기도 한다.
Howling은 울부짖는 듯한 소리로, ‘아우~’하면서 길게 내지르는 특성을 나타낸다. 일반적으로 외로운 상황이거나 분리 불안이 심한 반려견들이 howling을 많이 한다고 알려져 있다.
Growling은 ‘으르렁’하는 소리로, 일반적으로 두려운 상황이거나 상대방을 위협하고자 할 때, 혹은 겁에 질려 있거나 지원 요청을 할 때 이런 소리를 낸다고 알려져 있다.
Whining은 작게 ‘낑낑’거리는 소리로, 반려견들이 불편한 상황이거나 요구 사항이 있을 때 주로 이런 소리를 많이 낸다. Whining 소리는 일반적으로 음고가 높고, 소리 크기는 작으며, 지속 시간은 짧은 특징을 나타낸다.
이 외에도 반려견의 비명 소리, 한숨 소리나, 코고는 소리 등이 발생할 수는 있으나 이 부분은 Noise의 분류군으로 분류되도록 하고, 필요에 따라 추가 분류군 설정도 가능하다. 또한, 반려견의 짖는 소리 이외의 모든 노이즈들은 Noise 군으로 분류되도록 한다.
반려견이 짖는 소리를 분석하는 과정이 소프트웨어적으로 구현될 경우, 그 소리 분석 프로그램은 각각의 분류군에 따른 음향학적 특징 분석값들을 보유하고 있어야 하며, 소리 분류 단계(904)에서는 이전 단계에서 분석된 사운드 구간의 음향학적 특징값들과 프로그램이 보유하고 있는 분류군에 따른 음향학적 특징값들을 비교한다. 각 분류군의 특징값들 중 분석된 특징값과 가장 비슷한 분류군(Barking/ Howling/ Growling/ Whining/ Noise 중 하나)을 찾아 분류 결과를 찾아 내는 것이 이번 단계에서 이루어지는 일이며, 특징값 비교는 clustering algorithm이나 machine learning algorithm 등을 통해 계산된다.
짖는 소리 분류 단계(904)가 끝난 이후에는 이력정보 저장 단계와 분석정보 생성 단계(905)를 거친다. 짓는 소리를 유형별로 분류한 본 실시예의 경우 분석정보 역시 유형별 정보를 제공할 수 있다.
도 10이 본 실시예에 따라 생성 가능한 분석정보의 몇 가지 형태를 나타내는 도면이다. 먼저 각 시간대별로 짓은 유형과 횟수에 관한 통계정보를 분석정보로 제공할 수 있다. 그래프의 형태는 도 10처럼 막대형이 될 수도 있고 도 11처럼 꺽은선형이 될 수도 있다.
또한, 특정 유형만을 선택하여 각 시간대별로 그 유형의 소리가 발생한 횟수에 관한 통계정보를 분석정보로 제공할 수도 있다. 이 때의 그래프 형태도 그 정보를 적절히 나타내는 모든 형태가 가능하다. 도 12처럼 막대형이 될 수도 있고 도 13처럼 꺽은선형이 될 수도 있다.
도 10 내지 도13에서는 1시간 단위로 분석한 분석정보를 나타내고 있으나, 여기서의 단위 시간은 그 외에 날짜별/주간/월간 등도 가능함은 물론이다.
이하에서는 도 14를 이용하여 본 발명의 동물 음성 분석정보 제공 방법을 설명한다.
수신부(301)는 동물의 음성 자료를 수신한다(S1401). 처리부(303)는 상기 수신된 동물의 음성 자료에 기초하여 상기 동물의 복수의 음성에 관한 이력정보를 저장한다(S1402). 또한 처리부(303)는 상기 이력정보에 기초하여 상기 동물의 각 음성의 특성에 관한 분석정보를 생성한다(S1403).
이상에서 본 발명은 비록 한정된 실시예와 도면에 의해 설명되었으나, 해당 기술분야에서 통상의 지식을 가진 자라면 상기의 기재로부터 다양한 수정 및 변형이 가능하다. 예를 들어, 설명된 기술들이 설명된 방법과 다른 순서로 수행되거나, 설명된 시스템, 구조, 장치, 회로 등의 구성요소들이 설명된 방법과 다른 형태로 결합 또는 조합되거나, 다른 구성요소 또는 균등물에 의하여 대치되거나 치환되더라도 적절한 결과가 달성될 수 있다. 그러므로, 다른 구현들, 다른 실시예들 및 특허청구범위와 균등한 것들도 특허청구범위의 범위에 속한다고 할 것이고, 본 개시 방법들은 한정적인 관점이 아니라 설명적인 관점에서 고려되어야 한다.

Claims (15)

  1. 전자장치에 있어서,
    동물의 음성 자료를 수신하는 수신부;
    동물의 음성에 관한 정보를 저장하는 저장부; 및
    상기 수신부에 수신된 동물의 음성 자료에 기초하여 상기 동물의 복수의 음성에 관한 이력정보를 상기 저장부에 저장하고, 상기 이력정보에 기초하여 상기 동물의 각 음성의 특성에 관한 분석정보를 생성하는 처리부를 포함하는 것을 특징으로 하는 전자장치.
  2. 제1항에 있어서,
    상기 수신부는 동물의 위치에 관한 정보를 더 수신하고,
    상기 분석정보는 동물의 위치에 관한 정보를 더 포함하는 것을 특징으로 하는 전자장치.
  3. 제1항에 있어서,
    상기 저장부는 동물의 각 음성을 그 음성의 특성에 따라 분류할 분류군에 관한 정보를 더 포함하고,
    상기 처리부는 동물의 각 음성을 상기 분류군에 따라 분류하는 기능을 더 포함하고,
    상기 분석정보는 동물의 각 음성이 속하는 분류군에 관한 정보를 더 포함하는 것을 특징으로 하는 전자장치.
  4. 제3항에 있어서,
    사용자입력을 수신하는 사용자입력수신부를 더 포함하고,
    상기 처리부는 상기 사용자입력수신부를 통해 수신되는 사용자입력에 따라 동물의 음성을 녹음하고 상기 녹음된 음성의 적어도 일부를 상기 분류군에 추가하는 기능을 더 포함하는 것을 특징으로 하는 전자장치.
  5. 제3항에 있어서,
    사용자입력을 수신하는 사용자입력수신부를 더 포함하고,
    상기 처리부는 상기 사용자입력수신부를 통해 수신되는 사용자입력에 따라 상기 수신부에 수신된 동물의 음성 중 적어도 일부를 상기 분류군에 추가하는 기능을 더 포함하는 것을 특징으로 하는 전자장치.
  6. 동물의 음성 분석정보 제공 방법으로서,
    동물의 음성 자료를 수신하는 단계,
    상기 수신된 동물의 음성 자료에 기초하여 상기 동물의 복수의 음성에 관한 이력정보를 저장하는 단계,
    상기 이력정보에 기초하여 상기 동물의 각 음성의 특성에 관한 분석정보를 생성하는 단계를 포함하는 것을 특징으로 하는 동물의 음성 정보 제공 방법.
  7. 제6항에 있어서,
    상기 수신하는 단계는 동물의 위치에 관한 정보를 더 수신하고, 상기 생성하는 단계의 분석정보는 동물의 위치에 관한 정보를 더 포함하는 것을 특징으로 하는 동물의 음성 정보 제공 방법.
  8. 제6항에 있어서,
    동물의 각 음성을 그 음성의 특성에 따라 분류할 분류군에 관한 정보를 저장하는 단계를 더 포함하고,
    동물의 각 음성을 상기 분류군에 따라 분류하는 단계를 더 포함하고,
    상기 생성하는 단계는 상기 동물의 각 음성을 그 음성의 특성에 따라 분류한 분류군에 관한 정보를 더 포함하는 분석정보를 생성하는 것을 특징으로 하는 동물의 음성 정보 제공 방법.
  9. 제8항에 있어서,
    사용자입력에 따라 동물의 음성을 녹음하고 상기 녹음된 음성의 적어도 일부를 상기 분류군에 추가하는 단계를 더 포함하는 것을 특징으로 하는 동물의 음성 정보 제공 방법.
  10. 제8항에 있어서,
    사용자입력에 따라 상기 수신된 동물의 음성 중 적어도 일부를 상기 분류군에 추가하는 단계를 더 포함하는 것을 특징으로 하는 동물의 음성 정보 제공 방법.
  11. 컴퓨터로 읽을 수 있는 기록매체에 있어서,
    동물의 음성 자료를 수신하는 단계,
    상기 수신된 동물의 음성 자료에 기초하여 상기 동물의 복수의 음성에 관한 이력정보를 저장하는 단계,
    상기 이력정보에 기초하여 상기 동물의 각 음성의 특성에 관한 분석정보를 생성하는 단계를 실행시키기 위한 동물의 음성 분석정보 제공 프로그램을 기록한 컴퓨터로 읽을 수 있는 기록매체.
  12. 제11항에 있어서,
    상기 수신하는 단계는 동물의 위치에 관한 정보를 더 수신하고, 상기 생성하는 단계의 분석정보는 동물의 위치에 관한 정보를 더 포함하는 것을 특징으로 하는 동물의 음성 분석정보 제공 프로그램을 기록한 컴퓨터로 읽을 수 있는 기록매체.
  13. 제11항에 있어서,
    동물의 각 음성을 그 음성의 특성에 따라 분류할 분류군에 관한 정보를 저장하는 단계를 더 포함하고,
    동물의 각 음성을 상기 분류군에 따라 분류하는 단계를 더 포함하고,
    상기 생성하는 단계는 상기 동물의 각 음성을 그 음성의 특성에 따라 분류한 분류군에 관한 정보를 더 포함하는 분석정보를 생성하는 것을 특징으로 하는 동물의 음성 분석정보 제공 프로그램을 기록한 컴퓨터로 읽을 수 있는 기록매체.
  14. 제13항에 있어서,
    사용자입력에 따라 동물의 음성을 녹음하고 상기 녹음된 음성의 적어도 일부를 상기 분류군에 추가하는 단계를 더 포함하는 것을 특징으로 하는 동물의 음성 분석정보 제공 프로그램을 기록한 컴퓨터로 읽을 수 있는 기록매체.
  15. 제13항에 있어서,
    사용자입력에 따라 상기 수신된 동물의 음성 중 적어도 일부를 상기 분류군에 추가하는 단계를 더 포함하는 것을 특징으로 하는 동물의 음성 분석정보 제공 프로그램을 기록한 컴퓨터로 읽을 수 있는 기록매체.
KR1020160006934A 2016-01-20 2016-01-20 동물의 음성 분석정보를 제공하는 장치, 방법 및 기록매체 KR102573186B1 (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020160006934A KR102573186B1 (ko) 2016-01-20 2016-01-20 동물의 음성 분석정보를 제공하는 장치, 방법 및 기록매체

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020160006934A KR102573186B1 (ko) 2016-01-20 2016-01-20 동물의 음성 분석정보를 제공하는 장치, 방법 및 기록매체

Publications (2)

Publication Number Publication Date
KR20170087225A true KR20170087225A (ko) 2017-07-28
KR102573186B1 KR102573186B1 (ko) 2023-08-31

Family

ID=59422451

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020160006934A KR102573186B1 (ko) 2016-01-20 2016-01-20 동물의 음성 분석정보를 제공하는 장치, 방법 및 기록매체

Country Status (1)

Country Link
KR (1) KR102573186B1 (ko)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102043342B1 (ko) * 2018-05-14 2019-11-12 고려대학교 세종산학협력단 소리감지 센서를 이용한 반려견 소리 분류 시스템 및 방법
KR20230068914A (ko) 2021-11-11 2023-05-18 충북대학교 산학협력단 동물 종 식별 장치 및 방법

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20030077490A (ko) * 2003-08-19 2003-10-01 유경민 동물의 소리를 분석하고 발생시키는 무선인터넷서버시스템과 서비스 방법
KR20040080167A (ko) * 2003-03-11 2004-09-18 에스케이 텔레콤주식회사 강아지 통역부가 구비된 이동 단말과 이를 이용한 통역메시지 전송 시스템
KR20080070736A (ko) * 2001-05-10 2008-07-30 노키아 코포레이션 콘텍스트 의존 사용자 입력 제안 생성을 위한 방법 및 장치
US7551913B1 (en) * 2001-12-05 2009-06-23 At&T Mobility Ii Llc Methods and apparatus for anonymous user identification and content personalization in wireless communication
US20130282379A1 (en) * 2012-04-24 2013-10-24 Tom Stephenson Method and apparatus for analyzing animal vocalizations, extracting identification characteristics, and using databases of these characteristics for identifying the species of vocalizing animals

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20080070736A (ko) * 2001-05-10 2008-07-30 노키아 코포레이션 콘텍스트 의존 사용자 입력 제안 생성을 위한 방법 및 장치
US7551913B1 (en) * 2001-12-05 2009-06-23 At&T Mobility Ii Llc Methods and apparatus for anonymous user identification and content personalization in wireless communication
KR20040080167A (ko) * 2003-03-11 2004-09-18 에스케이 텔레콤주식회사 강아지 통역부가 구비된 이동 단말과 이를 이용한 통역메시지 전송 시스템
KR20030077490A (ko) * 2003-08-19 2003-10-01 유경민 동물의 소리를 분석하고 발생시키는 무선인터넷서버시스템과 서비스 방법
US20130282379A1 (en) * 2012-04-24 2013-10-24 Tom Stephenson Method and apparatus for analyzing animal vocalizations, extracting identification characteristics, and using databases of these characteristics for identifying the species of vocalizing animals

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102043342B1 (ko) * 2018-05-14 2019-11-12 고려대학교 세종산학협력단 소리감지 센서를 이용한 반려견 소리 분류 시스템 및 방법
KR20230068914A (ko) 2021-11-11 2023-05-18 충북대학교 산학협력단 동물 종 식별 장치 및 방법

Also Published As

Publication number Publication date
KR102573186B1 (ko) 2023-08-31

Similar Documents

Publication Publication Date Title
Stowell et al. Bird detection in audio: a survey and a challenge
Pramono et al. A cough-based algorithm for automatic diagnosis of pertussis
Istrate et al. Information extraction from sound for medical telemonitoring
CN110557589B (zh) 用于整合记录的内容的系统和方法
US10478111B2 (en) Systems for speech-based assessment of a patient&#39;s state-of-mind
CN112750465B (zh) 一种云端语言能力评测系统及可穿戴录音终端
Vacher et al. Complete sound and speech recognition system for health smart homes: application to the recognition of activities of daily living
US20140161270A1 (en) Room identification using acoustic features in a recording
Peters et al. Name that room: Room identification using acoustic features in a recording
US10052056B2 (en) System for configuring collective emotional architecture of individual and methods thereof
Andrei et al. Detecting Overlapped Speech on Short Timeframes Using Deep Learning.
Pillos et al. A Real-Time Environmental Sound Recognition System for the Android OS.
Stoeger et al. Age-group estimation in free-ranging African elephants based on acoustic cues of low-frequency rumbles
Droghini et al. A combined one-class SVM and template-matching approach for user-aided human fall detection by means of floor acoustic features
US20210121125A1 (en) Apparatus for estimating mental/neurological disease
WO2019119279A1 (en) Method and apparatus for emotion recognition from speech
Gao et al. Wearable audio monitoring: Content-based processing methodology and implementation
KR20210006419A (ko) 건강 관련 정보 생성 및 저장
Ranjard et al. Integration over song classification replicates: Song variant analysis in the hihi
Pires et al. Android library for recognition of activities of daily living: Implementation considerations, challenges, and solutions
EP3417780B1 (en) Estimation method, estimation program, estimation device, and estimation system
WO2020052135A1 (zh) 音乐推荐的方法、装置、计算装置和存储介质
KR20170087225A (ko) 동물의 음성 분석정보를 제공하는 장치, 방법 및 기록매체
KR20170124854A (ko) 음성/비음성 구간 검출 장치 및 방법
Pérez-Espinosa et al. Automatic individual dog recognition based on the acoustic properties of its barks

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
AMND Amendment
E601 Decision to refuse application
X091 Application refused [patent]
AMND Amendment
X701 Decision to grant (after re-examination)
GRNT Written decision to grant