KR102540549B1 - 반려동물용 소음 제거 장치 및 이를 이용한 방법 - Google Patents

반려동물용 소음 제거 장치 및 이를 이용한 방법 Download PDF

Info

Publication number
KR102540549B1
KR102540549B1 KR1020200093351A KR20200093351A KR102540549B1 KR 102540549 B1 KR102540549 B1 KR 102540549B1 KR 1020200093351 A KR1020200093351 A KR 1020200093351A KR 20200093351 A KR20200093351 A KR 20200093351A KR 102540549 B1 KR102540549 B1 KR 102540549B1
Authority
KR
South Korea
Prior art keywords
sound
data
signal
model
companion animal
Prior art date
Application number
KR1020200093351A
Other languages
English (en)
Other versions
KR20210050436A (ko
Inventor
임희석
박제윤
김경민
Original Assignee
고려대학교 산학협력단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 고려대학교 산학협력단 filed Critical 고려대학교 산학협력단
Publication of KR20210050436A publication Critical patent/KR20210050436A/ko
Application granted granted Critical
Publication of KR102540549B1 publication Critical patent/KR102540549B1/ko

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A01AGRICULTURE; FORESTRY; ANIMAL HUSBANDRY; HUNTING; TRAPPING; FISHING
    • A01KANIMAL HUSBANDRY; AVICULTURE; APICULTURE; PISCICULTURE; FISHING; REARING OR BREEDING ANIMALS, NOT OTHERWISE PROVIDED FOR; NEW BREEDS OF ANIMALS
    • A01K15/00Devices for taming animals, e.g. nose-rings or hobbles; Devices for overturning animals in general; Training or exercising equipment; Covering boxes
    • A01K15/02Training or exercising equipment, e.g. mazes or labyrinths for animals ; Electric shock devices ; Toys specially adapted for animals
    • A01K15/021Electronic training devices specially adapted for dogs or cats
    • A01K15/022Anti-barking devices
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L21/00Speech or voice signal processing techniques to produce another audible or non-audible signal, e.g. visual or tactile, in order to modify its quality or its intelligibility
    • G10L21/02Speech enhancement, e.g. noise reduction or echo cancellation
    • G10L21/0208Noise filtering

Landscapes

  • Engineering & Computer Science (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Environmental Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Computational Linguistics (AREA)
  • Quality & Reliability (AREA)
  • Animal Husbandry (AREA)
  • Biodiversity & Conservation Biology (AREA)
  • Animal Behavior & Ethology (AREA)
  • Physical Education & Sports Medicine (AREA)
  • General Health & Medical Sciences (AREA)
  • Zoology (AREA)
  • Signal Processing (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • Acoustics & Sound (AREA)
  • Multimedia (AREA)
  • Catching Or Destruction (AREA)
  • Housing For Livestock And Birds (AREA)

Abstract

반려동물용 소음 제거 장치 및 이를 이용하는 방법이 개시된다. 반려동물용 소음 분류 모델 생성 방법은 반려동물용 소음 분류 모델 생성 장치에 의해 수행되고, 적어도 반려동물의 음성 데이터를 포함하는 학습 데이터를 가공하는 단계 및 가공된 학습 데이터를 이용하여 딥러닝 모델을 학습시키는 단계를 포함하고, 상기 가공하는 단계는 아날로그 음성 데이터를 디지털 신호로 변환하는 단계 및 상기 디지털 신호로부터 적어도 하나의 신호 자질(feature)을 추출하는 단계를 포함한다.

Description

반려동물용 소음 제거 장치 및 이를 이용한 방법{NOISE CANCELING DEVICE FOR COMPANION ANIMAL AND METHOD USING SAME}
본 발명은 반려동물용 소음 제거 장치 및 이를 이용한 방법에 관한 것으로, 보다 상세하게는 딥러닝(deep learning) 기술을 기반으로 하는 반려동물용 소음 제거 장치 및 이를 이용한 방법에 관한 것이다.
최근 들어 개나 고양이 등의 반려동물을 기르는 가정이 증가함에 따라 관련 산업의 성장과 함께 반려동물 관리가 사회문제로 대두되고 있다. 대표적으로, 반려동물을 기르는 집 또는 반려동물 카페에서 발생하는 소음 문제가 있다. 예를 들어, 애견 카페와 같은 경우, 개가 갑자기 크게 짖으면 카페를 이용하는 고객들과 같이 있는 반려견들이 놀라고 스트레스를 받는다. 또한, 반려견을 기르는 집에서 개가 밤에 크게 짖으면, 이웃 간 소음 문제가 발생하게 된다.
이러한 반려동물의 소음을 감소시키기 위한 기존의 제품들은 목줄을 지나치게 꽉 채우는 등 물리적인 제약이 심해 반려동물의 건강문제로 이어졌다. 게다가 기존 제품들은 반려동물의 음성을 정확하게 인식하지 않고 입력되는 모든 신호에 대해 소거가 이루어지기 때문에 배터리 효율 문제 등으로 상당히 비효율적이다.
대한민국 공개특허 제2016-0130282호
본원 발명이 해결하고자 하는 과제는 반려동물의 소음을 보다 효율적으로 인식하여 효과적으로 제거하는 반려동물용 소음 제거 장치 및 이를 이용하는 방법을 제공하는 것이다.
본 발명의 일 실시예에 따른 반려동물용 소음 분류 모델 생성 방법은 반려동물용 소음 분류 모델 생성 장치에 의해 수행되고, 적어도 반려동물의 음성 데이터를 포함하는 학습 데이터를 가공하는 단계 및 가공된 학습 데이터를 이용하여 딥러닝 모델을 학습시키는 단계를 포함하고, 상기 가공하는 단계는 아날로그 음성 데이터를 디지털 신호로 변환하는 단계 및 상기 디지털 신호로부터 적어도 하나의 신호 자질(feature)을 추출하는 단계를 포함한다.
본 발명의 일 실시예에 따른 반려동물용 소음 제거 장치는 타겟 음성 신호를 탐지하는 소리 검출 유닛, 검출된 소리를 인식하는 소리 인식 유닛, 및 상기 타겟 음성 신호를 상쇄시키는 상쇄파장을 발생시키는 상쇄파장 발생 유닛을 포함한다.
본 발명의 실시 예들에 따른 반려동물용 소음 제거 장치 및 이를 이용한 방법에 의할 경우, 반려동물의 소리가 포함된 다중 클래스 데이터를 딥러닝 기반 모델로 학습하여 반려동물의 소리를 인식할 수 있다. 따라서, 기존의 통계 방식의 소리 인식 기술보다 인식 성능이 향상될 수 있다.
또한, 반려동물 소리 분류를 위한 소리 데이터를 기반으로 수집한 각각의 자질을 뉴럴 네트워크 기반의 딥러닝 학습을 통해 인식하고, 그 반대 파장을 생성함으로써 소음을 완화시킬 수 있다.
본 발명의 상세한 설명에서 인용되는 도면을 보다 충분히 이해하기 위하여 각 도면의 상세한 설명이 제공된다.
도 1은 본 발명의 일 실시예에 따른 반려동물용 소음 제거 장치를 설명하기 위한 도면이다.
도 2는 본 발명의 일 실시예에 따른 반려동물용 소음 제거 방법을 설명하기 위한 도면이다.
도 3은 가공 전 반려동물 소리의 스펙트럼이다.
도 4 내지 도 8은 본 발명에서 사용되는 딥러닝 모델들의 형태들이다.
도 9는 도 4 내지 도 8의 신호 자질들을 적층하고 모델링 하는 과정을 설명하는 도면이다.
도 10은 본 발명의 다른 실시예에 따른 반려동물용 소음 제거 장치를 설명하기 위한 도면이다.
도 11은 본 발명의 다른 실시예에 따른 반려동물용 소음 제거 방법을 설명하기 위한 도면이다.
본 명세서에 개시되어 있는 본 발명의 개념에 따른 실시 예들에 대해서 특정한 구조적 또는 기능적 설명들은 단지 본 발명의 개념에 따른 실시 예들을 설명하기 위한 목적으로 예시된 것으로서, 본 발명의 개념에 따른 실시 예들은 다양한 형태들로 실시될 수 있으며 본 명세서에 설명된 실시 예들에 한정되지 않는다.
본 발명의 개념에 따른 실시 예들은 다양한 변경들을 가할 수 있고 여러 가지 형태들을 가질 수 있으므로 실시 예들을 도면에 예시하고 본 명세서에서 상세하게 설명하고자 한다. 그러나, 이는 본 발명의 개념에 따른 실시 예들을 특정한 개시 형태들에 대해 한정하려는 것이 아니며, 본 발명의 사상 및 기술 범위에 포함되는 모든 변경, 균등물, 또는 대체물을 포함한다.
제1 또는 제2 등의 용어는 다양한 구성 요소들을 설명하는데 사용될 수 있지만, 상기 구성 요소들은 상기 용어들에 의해 한정되어서는 안 된다. 상기 용어들은 하나의 구성 요소를 다른 구성 요소로부터 구별하는 목적으로만, 예컨대 본 발명의 개념에 따른 권리 범위로부터 벗어나지 않은 채, 제1 구성 요소는 제2 구성 요소로 명명될 수 있고 유사하게 제2 구성 요소는 제1 구성 요소로도 명명될 수 있다.
어떤 구성 요소가 다른 구성 요소에 "연결되어" 있다거나 "접속되어" 있다고 언급된 때에는, 그 다른 구성 요소에 직접적으로 연결되어 있거나 또는 접속되어 있을 수도 있지만, 중간에 다른 구성 요소가 존재할 수도 있다고 이해되어야 할 것이다. 반면에, 어떤 구성 요소가 다른 구성 요소에 "직접 연결되어" 있다거나 "직접 접속되어" 있다고 언급된 때에는 중간에 다른 구성 요소가 존재하지 않는 것으로 이해되어야 할 것이다. 구성 요소들 간의 관계를 설명하는 다른 표현들, 즉 "~사이에"와 "바로 ~사이에" 또는 "~에 이웃하는"과 "~에 직접 이웃하는" 등도 마찬가지로 해석되어야 한다.
본 명세서에서 사용한 용어는 단지 특정한 실시 예를 설명하기 위해 사용된 것으로서, 본 발명을 한정하려는 의도가 아니다. 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. 본 명세서에서, "포함하다" 또는 "가지다" 등의 용어는 본 명세서에 기재된 특징, 숫자, 단계, 동작, 구성 요소, 부분품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성 요소, 부분품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.
다르게 정의되지 않는 한, 기술적이거나 과학적인 용어를 포함해서 여기서 사용되는 모든 용어들은 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 것과 동일한 의미를 가진다. 일반적으로 사용되는 사전에 정의되어 있는 것과 같은 용어들은 관련 기술의 문맥상 가지는 의미와 일치하는 의미를 갖는 것으로 해석되어야 하며, 본 명세서에서 명백하게 정의하지 않는 한, 이상적이거나 과도하게 형식적인 의미로 해석되지 않는다.
이하, 본 명세서에 첨부된 도면들을 참조하여 본 발명의 실시 예들을 상세히 설명한다. 그러나, 특허출원의 범위가 이러한 실시 예들에 의해 제한되거나 한정되는 것은 아니다. 각 도면에 제시된 동일한 참조 부호는 동일한 부재를 나타낸다.
도 1은 본 발명의 일 실시예에 따른 반려동물용 소음 제거 장치를 설명하기 위한 도면이고, 도 2는 본 발명의 일 실시예에 따른 반려동물용 소음 제거 방법을 설명하기 위한 도면이다.
도 1을 참조하면, 본 발명의 일 실시예에 따른 장치는 본체(1000), 본체(1000) 내에 구비되며 훈련 데이터 및/또는 타겟 음성 데이터를 수집하는 수집 유닛(1100), 본체(1000) 내에서 수집 유닛(1100)과 연결되며 수집된 소리를 가공하는 가공 유닛(1200), 본체(1000) 내에서 가공 유닛(1200)과 연결되며 가공된 데이터를 딥러닝 모델에 학습시키는 처리 유닛(1300), 및 본체(1000) 내에서 처리 유닛(1300)과 연결되며 학습되어 생성된 데이터(학습된 노이즈 제거 모델 또는 소음 분류 모델)를 기반으로 상기 반려동물의 소리를 상쇄시키는 파장(또는 상기 변려동물의 소리를 상쇄시키는 파장을 갖는 음성 신호)을 생성하는 상쇄파장 발생 유닛(1400)을 포함할 수 있다.
본체(1000)는 반려동물의 목둘레에 착용 가능한 형태를 가질 수 있다. 다른 예에 따르면, 본체(1000)는 탈부착 가능한 스트립에 끼워질 수 있는 구조를 가질 수 있다. 본 발명에 의한 본체(1000)는 다양한 형태를 가질 수 있으며, 그 형태에 권리범위가 제한되는 것이 아님은 자명하다.
도 1 및 도 2를 참조하면, 수집 유닛(1100)은 소리 데이터를 수집할 수 있다(S100). 소리 데이터의 적어도 일부는 반려동물의 음성 데이터를 포함할 수 있다. 또한, 소리 데이터는 미리 정해진 길이(예컨대, 3초 내지 4초)의 음성 데이터를 의미할 수 있다. 이때, 각 음성 데이터의 길이는 모두 동일한 길이를 가질 수 있고, 실시예에 따라 각 음성 데이터의 길이는 서로 상이할 수도 있다. 음성 데이터는 모델의 학습 과정 및/또는 테스트 과정에 이용될 수 있다. 즉, 소리 데이터는 모델의 학습 및/테스트에 이용되는 훈련 데이터(training data) 및/또는 테스트 데이터(test data)가 될 수 있다.
일 실시예에 따르면, 소리 데이터는 사이렌(siren) 소리, 아이들이 노는(children playing) 소리, 착암기(jack hammer) 소리, 아이들링 상태의 엔지(engine idling) 소리, 길거리 음악(street music) 소리, 자동차 경적(car horn) 소리, 발포(gun shot) 소리, 에어컨(airconditioner) 소리, 개가 짖는(dog bark) 소리, 드릴링(drilling) 소리 중 적어도 하나를 포함할 수 있으나, 본 발명의 권리범위가 훈련 데이터 및/또는 테스트 데이터의 종류에 한정되는 것은 아니다.
수집 유닛(1100)은 유무선 통신망을 통해 소리 데이터를 수집(또는 크롤링)할 수 있으며, 실시예에 따라 수집 유닛(1100)은 소정의 인터페이스를 통하여 외부 저장 장치(예컨대, USB 장치 등)로부터 소리 데이터를 수집할 수도 있다. 수집 유닛(1100)에 의해 수집된 소리 데이터는 반려동물용 소음 제거 장치에 포함될 수 있는 저장 장치(또는 저장 유닛)에 저장될 수 있다. 실시예에 따라, 수집 유닛(1100)은 반려동물용 소음 제거 장치에 포함되지 않을 수도 있고, 이 경우 소리 데이터는 반려동물용 소음 제거 장치에 포함되는 저장 장치(또는 저장 유닛)에 미리 저장되어 있을 수도 있다.
실시예에 따라, 수집 유닛(1100)은 상쇄파장을 발생시키기 위한 소리 데이터, 즉 타겟 소리 데이터를 수집할 수도 있다. 이를 위해, 본체(1000)에는 실시간으로 발생하는 음성 데이터를 감지(또는 측정하기 위한) 음성 인식 장치(예컨대, 마이크로폰)가 추가적으로 구비될 수도 있다. 다른 예로 음성 인식 장치는 수집 유닛(1100)의 일부로 구현될 수도 있다. 타겟 소리 데이터는 본체(1000)에 구비될 수 있는 저장 유닛에 저장될 수 있다.
가공 유닛(1200)은 수집된 소리 데이터(또는 저장 유닛에 저장되어 있는 소리 데이터)를 가공할 수 있다(S200). 보다 상세하게는, 음성 데이터를, 모델 학습을 위해 기존 아날로그 형태에서 디지털 신호로 변환시키고, 디지털 데이터로부터 다양한 신호 자질(feature)을 추출할 수 있다. 일 실시예에 따르면, 신호 자질(신호 특질이나 신호 특징으로 명명될 수도 있음)은 MFCC(Mel-frequency Cepstral coefficients), mel spectrogram, chroma_stft, chroma_cqt, 및 chroma_cens 중 적어도 하나의 형태를 포함할 수 있다. 도 3은 가공 전 반려동물 소리의 스펙트럼이고, 도 4 내지 도 8은 본 발명에서 사용되는 딥러닝 모델들의 형태들이다. 도 4는 MFCC를 도시하고, 도 5는 mel spectrogram를 도시하고, 도 6은 chroma_stft를 도시하고, 도 7은 chroma_cqt을 도시하고, 도 8은 chroma_cens을 도시한다.
또한, 가공 유닛(1200)은 타겟 소리 데이터를 가공하고, 가공된 타겟 소리 데이터를 본체(1000)에 구비될 수 있는 저장 유닛에 저장할 수 있다.
처리 유닛(1300)은 딥러닝 학습부(310) 및/또는 추론부(320)를 포함할 수 있으며, 딥러닝 학습부(310)는 추출된 신호 자질들을 이용하여 딥러닝 모델을 학습시킬 수 있다(S300). 일 실시예에 따르면, 각각의 신호 자질을 적층하여(stacking) 딥러닝 모델을 학습할 수 있다. 상세하게, 도 9는 도 4 내지 도 8의 신호 자질들을 적층하고 모델링 하는 과정을 설명하기 위한 도면이다.
일 실시예에 따르면, 딥러닝 모델은 뉴럴 네트워크(neural network)를 기반으로 하며, 다중 계층 퍼셉트론(Multilayer Perceptron, MLP), 합성곱신경망(Convolutional neural Network, CNN), 순환신경망(Recurrent Neural Network, RNN), LSTM(Long Short Term Memory, LSTM), 및 GRU(Gated Recurrent Units, GRU) 중 적어도 하나를 포함할 수 있다. 한편, 일 실시예에 따르면, 딥러닝 학습부(310)는 상기 반려동물 소리 데이터로부터 소리가 속하는 분류를 예측할 수 있다.
딥러닝 학습부(310)에 의해 생성된 소음 제거 모델 및/또는 소음 제거 모델을 구성하는 각 파라미터들은 저장 유닛에 저장될 수 있다.
추론부(320)는 딥러닝 모델을 학습하여 생성된 모델(즉, 노이즈 제거 모델)을 이용하여 반려동물 소리 데이터를 인식 및/또는 추론할 수 있다(S400). 처리 유닛(1300)에서는, 수집되어 가공된 반려동물의 소리가 포함된 다중 클래스 데이터를 딥러닝 기반 모델로 학습하고 반려동물의 소리를 인식할 수 있다. 즉, 처리 유닛(1300)은 타겟 소리 데이터를 생성된 모델에 입력하여 타겟 소리 데이터가 반려동물의 음성 데이터인지 여부를 판단할 수 있다. 따라서, 기존의 통계 방식의 소리 인식 기술보다 인식 성능이 향상될 수 있다.
상쇄파장 발생 유닛(1400)은 처리 유닛(1300)에서 학습 및 인식된 데이터를 기반으로 반려동물의 소리를 상쇄시키는 파장을 생성할 수 있다(S500). 구체적으로, 추론부(320)에 의해 타겟 소리 데이터가 반려동물의 음성 데이터로 판단된 경우, 상쇄파장 발생 유닛(1400)은 타겟 소리 데이터를 상쇄시키는 파장을 생성할 수 있다. 이를 위해, 상쇄파장 발생 유닛(1400)은 소정의 음성 출력 장치(예컨대, 스피커)를 포함할 수도 있다.
본 발명의 일 실시예에 따른 반려동물용 소음 제거 장치는, 반려동물 소리 분류를 위한 소리 데이터를 기반으로 수집한 각각의 자질을 뉴럴네트워크 기반의 딥러닝 학습을 통해 인식하고, 그 반대 파장을 생성함으로써 소음을 완화시킬 수 있다.
상술한 바와는 상이하게, 도 1에 도시된 반려동물용 소음 제거 장치는 소음 분류 모델 생성 장치로 명명될 수도 있다. 이 경우, 소음 분류 모델 생성 장치는 본체(1000), 가공 유닛(1200), 및 딥러닝 학습부(310, 딥러닝 학습 유닛으로 명명될 수도 있음)를 포함할 수 있다. 또한, 소음 제거 장치는 수집 유닛 및/또는 저장 유닛을 더 포함할 수도 있다. 소음 분류 모델 생성 장치를 구성하는 각 유닛의 동작은 상술한 바와 동일하기 때문에 그 구체적인 설명은 생략하기로 한다.
도 10은 본 발명의 다른 실시예에 따른 반려동물용 소음 제거 장치를 설명하기 위한 도면이고, 도 11은 본 발명의 다른 실시예에 따른 반려동물용 소음 제거 방법을 설명하기 위한 도면이다.
도 10 및 도 11을 참조하면, 본 발명의 일 실시예에 따른 반려동물용 소음 제거 장치는, 본체(2000), 본체(2000) 내에 장착된 소리 검출 유닛(2100), 본체(2000) 내에서 소리 검출 유닛(2100)과 연결되어, 검출된 소리를 인식하는 소리 인식 유닛(2200), 및 본체(2000) 내에서 소리 인식 유닛(2200)과 연결되어 인식된 소리 파장을 상쇄시키는 파장을 발생시키는 상쇄파장 발생 유닛(2300)을 포함할 수 있다.
본체(2000)는 반려동물의 목둘레에 착용 가능한 형태를 가질 수 있다. 다른 예에 따르면, 본체(2000)는 탈부착 가능한 스트립에 끼워질 수 있는 구조를 가질 수 있다.
소리 검출 유닛(2100)은 소리를 탐지할 수 있다(S1000). 소리 검출 유닛(2100)은 기설정된 간격으로 연속적인 소리의 에너지를 측정하는 측정부(110) 및 측정된 순차적인 에너지 데이터를 정규화(normalize)하는 처리부(120)를 포함할 수 있다. 일 예로, 측정부(110)는 100ms 간격으로 연속적으로 외부 소리의 에너지를 측정한다. 처리부(120)에서는 측정된 순차적 에너지 데이터를 중앙값 필터(median filter) 후 결과를 초기 획득된 소리 에너지에서 빼줌으로써 관련 있는 에너지 펄스만 남겨 정규화된 연속적인 데이터를 획득할 수 있다. 이때, 적응 임계값(adaptive threshold)을 적용하여 충격 신호(impulsive signal)에 민감한 검출 모델을 생성할 수 있다.
소리 인식 유닛(2200)은 검출된 소리를 인식할 수 있다(S2000). 소리 인식 유닛(2200)은, 소리 검출 유닛(2100)으로부터 검출된 소리 에너지를 샘플링하는 샘플링부(210), 샘플들의 특징을 추출하는 추출부(220), 및 추출된 소리를 분류하는 분류부(230), 추출된 소리가 반려동물의 소음인지 외부 소음인지 판단하는 판단부(240)를 포함할 수 있다(S2002).
샘플링부(210)는 연속적인 타임 프레임(time frame)마다 n 개(n은 2 이상의 자연수로써, 예시적인 값은 512일 수 있음)의 신호들을 샘플링한다. 추출부(220)는, 샘플들의 스펙트럼에서 일정한 방식(예컨대, uniform manner)으로 0 내지 20kHz 사이의 스펙트럼 밴드를 획득한다. 이를 통해 특징 추출(feature extraction)이 수행될 수 있다. 분류부(230)는, 추출된 특징들에 기초하여 소정의 소음 분류 모델(예컨대, 학습된 은닉 마코프 모형(Hidden Markov Model, HMM))을 이용해 분류할 수 있다(S2001). 이때, 소정의 소음 분류 모델을 통해 판단부(240)에서 반려동물이 발생시킨 소음인지 아닌지를 판단할 수 있다. 또한, 계산량 복잡도(computation-complexity)를 최소화 하기 위해 비터비 근사치(Viterbi Approximation)를 사용할 수 있다. 상기 소음 분류 모델은 도 1을 통하여 설명한 소음 분류 모델 생성 장치 및/또는 도 2를 통하여 설명한 소음 분류 모델 생성 방법에 의해 생성된 소음 분류 모델을 의미할 수 있다.
한편, 기존 소음 제거 방식에서 알려지지 않은 배경 소음 레벨이 학습에 사용된 소음 레벨과 대응되지 않을 때 음성 인식의 성능이 급격하게 낮아진다. 따라서, 소리 인식 유닛(2200)은 소음 환경을 해결하기 위해 가우시안 배경 백색 소음 레벨(Gaussian background white noise level)의 단계들을 고려하고 그 중 하나의 모델을 구출할 수 있다. 모든 소리 클래스에 대해 -10 내지 70dB 사이의 SNR(sound-to-noise ratio) 값을 위한 하나의 독립적인 모델이 만들어 질 수 있다.
상쇄파장 발생 유닛(2300)은 소리 인식 유닛(2200)의 판단부(240)에서 소음이 반려동물이 발생시킨 소음이라고 판단되는 경우, 추출되고 분류된 소리에 대한 파장을 상쇄시키는 파장을 생성할 수 있다(S3000). 이로써, 반려동물이 발생시킨 소음이 상쇄될 수 있다.
이상, 첨부된 도면을 참조하여 본 발명의 실시 예를 설명하였지만, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자는 본 발명이 그 기술적 사상이나 필수적인 특징을 변경하지 않고서 다른 구체적인 형태로 실시될 수 있다는 것을 이해할 수 있을 것이다. 그러므로 이상에서 기술한 실시 예에는 모든 면에서 예시적인 것이며 한정적이 아닌 것으로 이해해야만 한다.
이상에서 설명된 장치는 하드웨어 구성 요소, 소프트웨어 구성 요소, 및/또는 하드웨어 구성 요소 및 소프트웨어 구성 요소의 집합으로 구현될 수 있다. 예를 들어, 실시 예들에서 설명된 장치 및 구성 요소는, 예를 들어, 프로세서, 콘트롤러, ALU(Arithmetic Logic Unit), 디지털 신호 프로세서(Digital Signal Processor), 마이크로컴퓨터, FPA(Field Programmable array), PLU(Programmable Logic Unit), 마이크로프로세서, 또는 명령(instruction)을 실행하고 응답할 수 있는 다른 어떠한 장치와 같이, 하나 이상의 범용 컴퓨터 또는 특수 목적 컴퓨터를 이용하여 구현될 수 있다. 처리 장치는 운영 체제(Operation System, OS) 및 상기 운영 체제 상에서 수행되는 하나 이상의 소프트웨어 애플리케이션을 수행할 수 있다. 또한, 처리 장치는 소프트웨어의 실행에 응답하여, 데이터를 접근, 저장, 조작, 처리 및 생성할 수도 있다. 이해의 편의를 위하여, 처리 장치는 하나가 사용되는 것으로 설명된 경우도 있지만, 해당 기술 분야에서 통상의 지식을 가진 자는, 처리 장치가 복수 개의 처리 요소(Processing Element) 및/또는 복수 유형의 처리 요소를 포함할 수 있음을 알 수 있다. 예를 들어, 처리 장치는 복수 개의 프로세서 또는 하나의 프로세서 및 하나의 컨트롤러를 포함할 수 있다. 또한, 병렬 프로세서(Parallel Processor)와 같은 다른 처리 구성(Processing Configuration)도 가능하다.
소프트웨어는 컴퓨터 프로그램(Computer Program), 코드(Code), 명령(Instruction), 또는 이들 중 하나 이상의 조합을 포함할 수 있으며, 원하는 대로 동작하도록 처리 장치를 구성하거나 독립적으로 또는 결합적으로(Collectively) 처리 장치를 명령할 수 있다. 소프트웨어 및/또는 데이터는, 처리 장치에 의하여 해석되거나 처리 장치에 명령 또는 데이터를 제공하기 위하여, 어떤 유형의 기계, 구성 요소(Component), 물리적 장치, 가상 장치(Virtual Equipment), 컴퓨터 저장 매체 또는 장치, 또는 전송되는 신호 파(Signal Wave)에 영구적으로, 또는 일시적으로 구체화(Embody)될 수 있다. 소프트웨어는 네트워크로 연결된 컴퓨터 시스템 상에 분산되어서, 분산된 방법으로 저장되거나 실행될 수도 있다. 소프트웨어 및 데이터는 하나 이상의 컴퓨터 판독 가능 기록 매체에 저장될 수 있다.
실시 예에 따른 방법은 다양한 컴퓨터 수단을 통하여 수행될 수 있는 프로그램 명령 형태로 구현되어 컴퓨터 판독 가능 매체에 기록될 수 있다. 상기 컴퓨터 판독 가능 매체는 프로그램 명령, 데이터 파일, 데이터 구조 등을 단독으로 또는 좋ㅂ하여 포함할 수 있다. 상기 매체에 기록되는 프로그램 명령은 실시 예를 위하여 특별히 설계되고 구성된 것들이거나 컴퓨터 소프트웨어 당업자에게 공지되어 사용 가능한 것일 수도 있다. 컴퓨터 판독 가능 기록 매체의 예에는 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체(Magnetic Media), CD-ROM, DVD와 같은 광기록 매체(Optical Media), 플롭티컬 디스크(Floptical Disk)와 같은 자기-광 매체(Magneto-optical Media), 롬(ROM), 램(RAM), 플래시 메모리 등과 같은 프로그램 명령을 저장하고 수행하도록 특별히 구성된 하드웨어 장치가 포함된다. 프로그램 명령의 예에는 컴파일러에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드를 포함한다. 상기된 하드웨어 장치는 실시 예의 동작을 수행하기 위해 하나 이상의 소프트웨어 모듈로서 작동하도록 구성될 수 있으며, 그 역도 마찬가지이다.
1000 : 본체
1100 : 수집 유닛
1200 : 가공 유닛
1300 : 처리 유닛
1400 : 상쇄파장 발생 유닛
2000 : 본체
2100 : 소리 검출 유닛
2200 : 소리 인식 유닛
2300 : 상쇄파장 발생 유닛

Claims (7)

  1. 반려동물용 소음 제거 장치에 의해 수행되는 반려동물용 소음 제거 방법에 있어서,
    반려동물의 음성 데이터를 포함하는 학습 데이터를 가공하는 단계;
    가공된 학습 데이터를 이용하여 딥러닝 모델을 학습시켜 입력 데이터가 반려동물의 음성 데이터인지 여부를 판단하는 모델을 생성하는 단계;
    상기 모델을 이용하여 타겟 음성 신호가 반려동물의 음성 신호인지 여부를 판단하는 단계; 및
    상기 타겟 음성 신호가 반려동물의 음성 신호로 판단되는 경우, 상기 타겟 음성 신호를 상쇄시키는 상쇄파장을 발생시키는 단계를 포함하고,
    상기 가공하는 단계는,
    아날로그 음성 데이터를 디지털 신호로 변환하는 단계; 및
    상기 디지털 신호로부터 적어도 하나의 신호 자질(feature)을 추출하는 단계를 포함하고,
    상기 신호 자질은 MFCC(Mel-frequency Cepstral coefficients), mel spectrogram, chroma_stft, chroma_cqt, 및 chroma_cens이고,
    상기 모델을 생성하는 단계는 상기 신호 자질을 적층하여(stacking) 상기 딥러닝 모델을 학습시키는,
    반려동물용 소음 제거 방법.
  2. 삭제
  3. 제1항에 있어서,
    상기 딥러닝 모델은 다중 계층 퍼셉트론(Multilayer Perceptron, MLP), 합성곱신경망(Convolutional neural Network, CNN), 순환신경망(Recurrent Neural Network, RNN), LSTM(Long Short Term Memory, LSTM), 및 GRU(Gated Recurrent Units, GRU) 중 적어도 하나를 포함하고,
    상기 학습 데이터는 사이렌(siren) 소리, 아이들이 노는(children playing) 소리, 착암기(jack hammer) 소리, 아이들링 상태의 엔진(engine idling) 소리, 길거리 음악(street music) 소리, 자동차 경적(car horn) 소리, 발포(gun shot) 소리, 에어컨(airconditioner) 소리, 개가 짖는(dog bark) 소리, 및 드릴링(drilling) 소리 중 적어도 하나를 포함하는 음성 데이터를 포함하는,
    반려동물용 소음 제거 방법.
  4. 반려동물의 음성 데이터를 포함하는 학습 데이터를 가공하는 가공 유닛;
    가공된 학습 데이터를 이용하여 딥러닝 모델을 학습시켜 입력 데이터가 반려동물의 음성 데이터인지 여부를 판단하는 모델을 생성하는 딥러닝 학습부;
    상기 모델을 이용하여 타겟 음성 신호가 반려동물의 음성 신호인지 여부를 판단하는 추론부; 및
    상기 타겟 음성 신호가 반려동물의 음성 신호로 판단되는 경우, 상기 타겟 음성 신호를 상쇄시키는 상쇄파장을 발생시키는 상쇄파장 발생 유닛을 포함하고,
    상기 가공 유닛은 아날로그 음성 데이터를 디지털 신호로 변환하고 상기 디지털 신호로부터 적어도 하나의 신호 자질(feature)을 추출하고,
    상기 신호 자질은 MFCC(Mel-frequency Cepstral coefficients), mel spectrogram, chroma_stft, chroma_cqt, 및 chroma_cens이고,
    상기 딥러닝 학습부는 상기 신호 자질을 적층하여(stacking) 상기 딥러닝 모델을 학습시키는,
    반려동물용 소음 제거 장치.
  5. 삭제
  6. 제4항에 있어서,
    상기 딥러닝 모델은 다중 계층 퍼셉트론(Multilayer Perceptron, MLP), 합성곱신경망(Convolutional neural Network, CNN), 순환신경망(Recurrent Neural Network, RNN), LSTM(Long Short Term Memory, LSTM), 및 GRU(Gated Recurrent Units, GRU) 중 적어도 하나를 포함하는,
    반려동물용 소음 제거 장치.
  7. 삭제
KR1020200093351A 2019-10-28 2020-07-27 반려동물용 소음 제거 장치 및 이를 이용한 방법 KR102540549B1 (ko)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR20190134895 2019-10-28
KR1020190134895 2019-10-28

Publications (2)

Publication Number Publication Date
KR20210050436A KR20210050436A (ko) 2021-05-07
KR102540549B1 true KR102540549B1 (ko) 2023-06-09

Family

ID=75916743

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020200093351A KR102540549B1 (ko) 2019-10-28 2020-07-27 반려동물용 소음 제거 장치 및 이를 이용한 방법

Country Status (1)

Country Link
KR (1) KR102540549B1 (ko)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102701141B1 (ko) * 2021-11-12 2024-08-29 지동철 반려동물 소음방지 스마트 마스크

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101785888B1 (ko) 2017-01-18 2017-10-17 이동환 이종동물 양방향 커뮤니케이션 서비스 제공 방법

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015212533A (ja) 2014-05-07 2015-11-26 愛三工業株式会社 蒸発燃料処理装置
KR101602703B1 (ko) * 2014-07-29 2016-03-11 엄윤주 애완동물소음 감소장치
KR20180059684A (ko) * 2016-11-26 2018-06-05 홍동현 노이즈 캔슬링을 이용한 반려견 짖음 소음을 제거하는 목걸이
KR102064365B1 (ko) * 2017-09-04 2020-01-10 주식회사 하이 생활 소음으로부터의 음향 종류 판별 방법 및 이를 이용한 일상 활동 정보 공유용 홈 소셜 로봇 관리 시스템
KR20190060097A (ko) * 2017-11-24 2019-06-03 홍동현 능동소음제어를 활용한 반려견 짖음 방지 목걸이
KR102688685B1 (ko) * 2019-07-30 2024-07-25 엘지전자 주식회사 음성 인식 방법 및 음성 인식 장치
KR20190101325A (ko) * 2019-08-12 2019-08-30 엘지전자 주식회사 지능적 음성 인식 방법, 음성 인식 장치 및 지능형 컴퓨팅 디바이스

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101785888B1 (ko) 2017-01-18 2017-10-17 이동환 이종동물 양방향 커뮤니케이션 서비스 제공 방법

Also Published As

Publication number Publication date
KR20210050436A (ko) 2021-05-07

Similar Documents

Publication Publication Date Title
Cai et al. Sensor network for the monitoring of ecosystem: Bird species recognition
De Oliveira et al. Bird acoustic activity detection based on morphological filtering of the spectrogram
CN106710599A (zh) 一种基于深度神经网络的特定声源检测方法与系统
KR102276964B1 (ko) 잡음 환경에 강인한 동물 종 식별 장치 및 방법
Xie et al. Bioacoustic signal classification in continuous recordings: Syllable-segmentation vs sliding-window
KR101894635B1 (ko) 산란계 소리에 기초하여 산란계의 상태를 추정하는 방법 및 장치
US20190325862A1 (en) Neural network for continuous speech segmentation and recognition
Cuan et al. Gender determination of domestic chicks based on vocalization signals
KR102540549B1 (ko) 반려동물용 소음 제거 장치 및 이를 이용한 방법
Zwerts et al. Introducing a central African primate vocalisation dataset for automated species classification
Chou et al. On the studies of syllable segmentation and improving MFCCs for automatic birdsong recognition
Fischer et al. Classification of breath and snore sounds using audio data recorded with smartphones in the home environment
KR102270954B1 (ko) 심층 신경망 및 순환 신경망의 복층 구조에 기반한 음성 검출 장치 및 방법.
Conde et al. Few-shot long-tailed bird audio recognition
Balemarthy et al. Our practice of using machine learning to recognize species by voice
Mporas et al. Integration of temporal contextual information for robust acoustic recognition of bird species from real-field data
Segarceanu et al. Neural networks for automatic environmental sound recognition
Stefanakis et al. An open-access system for long-range chainsaw sound detection
Diez Gaspon et al. Deep learning for natural sound classification
KR20140122881A (ko) 동물 속(종) 식별 장치 및 방법
Aquino et al. ANN-Based Classification of Rain Acoustic Sensor Data Using Modified Mel Frequency Cepstral Coefficients
Estrebou et al. Voice recognition based on probabilistic SOM
Pleva et al. Automated Covid-19 respiratory symptoms analysis from speech and cough
Ganchev et al. Acoustic bird activity detection on real-field data
Nimbarte et al. New Born Baby Cry Analysis and Classification

Legal Events

Date Code Title Description
E902 Notification of reason for refusal
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right