KR20210103820A - 머신러닝을 활용한 IoT 디바이스의 사용자 행동패턴 분류방법 - Google Patents

머신러닝을 활용한 IoT 디바이스의 사용자 행동패턴 분류방법 Download PDF

Info

Publication number
KR20210103820A
KR20210103820A KR1020200018468A KR20200018468A KR20210103820A KR 20210103820 A KR20210103820 A KR 20210103820A KR 1020200018468 A KR1020200018468 A KR 1020200018468A KR 20200018468 A KR20200018468 A KR 20200018468A KR 20210103820 A KR20210103820 A KR 20210103820A
Authority
KR
South Korea
Prior art keywords
data
iot device
user behavior
classification
classifying
Prior art date
Application number
KR1020200018468A
Other languages
English (en)
Other versions
KR102349580B1 (ko
Inventor
김민수
김성탁
Original Assignee
(주)클로마운트
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by (주)클로마운트 filed Critical (주)클로마운트
Priority to KR1020200018468A priority Critical patent/KR102349580B1/ko
Publication of KR20210103820A publication Critical patent/KR20210103820A/ko
Application granted granted Critical
Publication of KR102349580B1 publication Critical patent/KR102349580B1/ko

Links

Images

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/02Feature extraction for speech recognition; Selection of recognition unit
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • G06F18/2413Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on distances to training or reference patterns
    • G06K9/627
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B13/00Burglar, theft or intruder alarms
    • G08B13/16Actuation by interference with mechanical vibrations in air or other fluid
    • G08B13/1654Actuation by interference with mechanical vibrations in air or other fluid using passive vibration detection systems
    • G08B13/1672Actuation by interference with mechanical vibrations in air or other fluid using passive vibration detection systems using sonic detecting means, e.g. a microphone operating in the audio frequency range
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/06Creation of reference templates; Training of speech recognition systems, e.g. adaptation to the characteristics of the speaker's voice
    • G10L15/063Training

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Artificial Intelligence (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Health & Medical Sciences (AREA)
  • Software Systems (AREA)
  • Acoustics & Sound (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Data Mining & Analysis (AREA)
  • Computational Linguistics (AREA)
  • Human Computer Interaction (AREA)
  • General Engineering & Computer Science (AREA)
  • Evolutionary Computation (AREA)
  • Computing Systems (AREA)
  • Medical Informatics (AREA)
  • Mathematical Physics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Evolutionary Biology (AREA)
  • Telephonic Communication Services (AREA)

Abstract

본 발명은 머신러닝을 활용한 IoT 디바이스의 사용자 행동패턴 분류방법에 관한 것이다. 본 발명은 IoT디바이스내에 장착된 마이크부가 음성을 획득하는 단계와, IoT디바이스의 전처리부가 음성데이터를 전처리를 수행하고, 특징추출부가 전처리된 음성데이터에서 특징을 추출하고 배열에 저장하는 단계와, IoT디바이스의 분류부가 배열의 크기만큼 데이터가 들어오게 되면 학습된 모델을 통해 예측하여 분류하는 단계를 포함한다.

Description

머신러닝을 활용한 IoT 디바이스의 사용자 행동패턴 분류방법{Method for classification user behavior patterns of IoT devices using machine learning}
본 발명은 머신러닝을 활용한 IoT 디바이스의 사용자 행동패턴 분류방법에 관한 것으로, 특히, 머신러닝을 활용하여 IoT디바이스에서 감지된 음성을 학습된 모델에 의해 분류함로써 실내의 사용자의 행동패턴을 분류하는 머신러닝을 활용한 IoT 디바이스의 사용자 행동패턴 분류방법에 관한 것이다.
사물인터넷(IoT)은 인터넷을 기반으로 모든 사물을 연결하여 사람과 사물, 사물과 사물 간의 정보를 상호 소통하는 지능형 기술 및 서비스를 말한다. 이러한 사물인터넷은 인터넷에 연결된 기기가 사람의 개입없이 상호간에 정보를 주고 받아 처리한다. 최근, 편리하면서도 안전하며 즐거움이 있는 세련된 주거 생활에 대한 욕구가 강해지면서, 스마트홈 관련 제품과 서비스에 대한 수요가 증가하고 있다.
그러나, 현재 개발된 IoT 서비스들 다수가 외부 IoT 서버를 활용해 단순 무선제어되는 기능에 한정될 뿐이며, 머신러닝을 활용하여 사물인터넷 센서를 통해 감지된 데이터를 통해 실내의 사용자의 행동패턴을 분석하는 기술이 요청되고 있다.
선행특허로는 한국공개특허 제10-2019-0006465호(IOT기반의 음성인식 가스안전 차단시스템)가 있으나, 사용자의 음성을 획득하고 분석하여 사용자의 음성으로부터 선택되어진 가스밸브를 제어하는 기술을 개시하고 있을 뿐이다.
본 발명이 해결하고자 하는 과제는 IoT디바이스에서 감지된 음성을 학습된 모델에 의해 분류하여 실내의 사용자의 행동 패턴을 분류하여 수면모니터링 및 다양한 환경 변화를 감지할 수 있는 머신러닝을 활용한 IoT 디바이스의 사용자 행동패턴 분류방법을 제공하는 데 있다.
본 발명의 실시예에 따른 머신러닝을 활용한 IoT 디바이스의 사용자 행동패턴 분류방법은 IoT디바이스내에 장착된 마이크부가 음성을 획득하는 단계와, IoT디바이스의 전처리부가 음성데이터를 전처리를 수행하고, 특징추출부가 전처리된 음성데이터에서 특징을 추출하고 배열에 저장하는 단계와, IoT디바이스의 분류부가 배열의 크기만큼 데이터가 들어오게 되면 학습된 모델을 통해 예측하여 분류하는 단계를 포함한다.
본 발명에 의하면 머신러닝을 활용하여 사용자의 행동 패턴 분류가 가능해 수면모니터링이 가능하다. 또한, 외부 침입자 감지, 화재감지, 유해환경 발생에 대한 감지를 통해 실내 보안 및 안전성이 향상될 수 있다.
도 1은 본 발명의 실시예에 따른 머신러닝을 활용한 IoT 디바이스의 사용자 행동패턴 분류방법을 설명하는 흐름도이다.
도 2는 본 발명의 실시예에 따른 전처리방법과 특징추출방법을 설명하는 흐름도이다.
도 3은 본 발명의 실시예에 따른 사용자 행동패턴 분류시스템을 설명하는 블록도이다.
도 4 내지 도 7은 본 발명의 실시예에 따른 5가지 분류값에 대한 RLH, RMS, STD, VAR 특징을 도시한 그래프이다.
본 명세서에 개시되어 있는 본 발명의 개념에 따른 실시예들에 대해서 특정한 구조적 또는 기능적 설명은 단지 본 발명의 개념에 따른 실시예들을 설명하기 위한 목적으로 예시 된 것으로서, 본 발명의 개념에 따른 실시예들은 다양한 형태들로 실시될 수 있으며 본 명세서에 설명된 실시예들에 한정되지 않는다.
본 발명의 개념에 따른 실시예들은 다양한 변경들을 가할 수 있고 여러 가지 형태들을 가질 수 있으므로 실시예들을 도면에 예시하고 본 명세서에서 상세하게 설명하고자 한다. 그러나 이는 본 발명의 개념에 따른 실시예들을 특정한 개시 형태들에 대해 한정하려는 것이 아니며, 본 발명의 사상 및 기술 범위에 포함되는 모든 변경, 균등물 또는 대체물을 포함한다.
본 명세서에서 사용한 용어는 단지 특정한 실시예를 설명하기 위해 사용된 것으로서, 본 발명을 한정하려는 의도가 아니다. 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. 본 명세서에서, "포함하다" 또는 "가지다" 등의 용어는 본 명세서에 기재된 특징, 숫자, 단계, 동작, 구성 요소, 부분품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성 요소, 부분품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.
이하, 본 명세서에 첨부된 도면들을 참조하여 본 발명의 실시예들을 상세히 설명한다.
도 1은 본 발명의 실시예에 따른 머신러닝을 활용한 IoT 디바이스의 사용자 행동패턴 분류방법을 설명하는 흐름도이다.
도 1을 참조하면, 머신러닝을 활용한 IoT 디바이스의 사용자 행동패턴 분류방법은 IoT디바이스의 마이크부가 음성을 획득한다(S101). 상기 IoT디바이스는 센서를 통해 실내의 온습도, 소음, 가스를 감지하여 모니터링하고, 수집된 데이터에 기초하여 학습을 하여 침입자 감지, 수면모니터, 화재 감지가 가능할 수 있다. 상기 음성은 사람에 의해 발생되는 소리 뿐 아니라 발생하는 모든 소리를 의미한다. 마이크부는 I2S(Intergrated interchip sound)통신규격을 통해 음성을 획득하나 이에 대해 한정하는 것은 아니다.
IoT디바이스의 전처리부가 음성데이터를 전처리를 수행한다(S103). IoT디바이스는 획득한 음성에서 16Khz, 24bit, mono로 디지털 변환하며 10초 간격으로 데이터를 수신하고, 24bit 데이터를 비트 연산을 통해 16bit 데이터로 변환하여 저장할 수 있다. 10초 데이터 1개당 약 312Kb일 수 있으나 이에 대해 한정하는 것은 아니다. 이후에, 저장된 16bit 데이터를 -1에서 1사이의 범위로 정규화하여 64bit float데이터로 변환한다.
특징추출부가 전처리된 음성데이터에서 특징을 추출한다(S105). 전처리된 64bit float데이터에서 RLH(Ratio of low frequency to high frequency), RMS(Root mean square), VAR(Variance), STD(Standard deviation)의 4가지 특징을 40ms 마다 추출하여 저장한다. 즉, 10초 데이터 1개당 250 * 4개의 데이터로 변환될 수 있고 250*4인 배열에 저장한다. 이때, 상기 4가지 특징들도 -1 에서 1 사이의 범위로 정규화시킨다.
분류부가 학습된 모델에 기초하여 분류를 한다(S107). 분류부는 배열의 크기만큼 데이터가 들어오게 되면 학습된 모델을 통해 예측하여 제1분류값(silence), 제2분류값(snore), 제3분류값(unknown), 제4분류값(big-move), 제5분류값(small move)로 분류한다. 상기 배열은 새로운 데이터가 들어오면 가장 처음에 추출된 데이터를 삭제하여 항상 최신의 상태를 유지할 수 있다. 분류부의 분류프로세스와 저장부 배열의 최신 데이터를 유지하는 프로세스는 병렬적으로 처리하게 되어 분류과정이 즉각적으로 이루어지지 않아도 항상 가장 최신의 10초간의 데이터로 모델이 분류할 수 있다. 이때, 학습된 모델은 임베디드 환경에서 이미 학습 절차를 통해 생성된 모델일 수 있다. 또한, 실시예에 따라 IoT디바이스에서 수집된 데이터를 통해 IoT디바이스내에서 학습데이터를 구축할 수 있다. 즉, 본 발명은 머신러닝을 활용하여 감지된 음성에 기초하여 5가지의 사용자의 행동패턴 분류가 가능하다. 이러한 행동패턴을 분류하여 상기 행동패턴에 매칭되는 IoT 서비스를 제공할 수 있다.
도 2는 본 발명의 실시예에 따른 전처리방법과 특징추출방법을 설명하는 흐름도이다.
도 2를 참조하면, 아날로그 음원을 디지털화시켜 일정 간격으로 24bit 데이터를 수신한다(S201). 비트 연산을 통해 16bit 데이터로 변환한다(S203). 데이터 정규화하여 64bit 데이터로 변환한다(S205). 64bit 데이터에서 RLH(Ratio of low frequency to high frequency), RMS(Root mean square), VAR(Variance), STD(Standard deviation) 특징을 추출한다(S207). 추출된 특징을 250*4 크기의 배열에 저장한다(S209). 상기 RLH, RMS, VAR, STD는 아래의 식에 의해 계산될 수 있다.
RMS는
Figure pat00001
,
VAR은
Figure pat00002
,
STD는
Figure pat00003
,
RLH(RMSL/RMSH)는
Figure pat00004
,
Figure pat00005
,
Figure pat00006
,
Figure pat00007
,
Figure pat00008
,
Figure pat00009
,
Figure pat00010
도 3은 본 발명의 실시예에 따른 사용자 행동패턴 분류시스템을 설명하는 블록도이다.
도 3을 참조하면, 사용자 행동패턴 분류시스템(10)은 IoT디바이스(100), 서비스제공서버(200), 사용자단말(300)로 구성된다.
IoT디바이스(100)는 마이크부(110), 전처리부(120), 특징추출부(130), 분류부(140), 제어부(150), 저장부(160), 통신부(170), 학습부(180), 센서부(190)로 구성된다.
마이크부(110)는 I2S(intergrated interchip sound) 통신을 통해
전처리부(120)는 음성데이터를 전처리를 수행한다. 전처리부(120)는 획득한 음성에서 16Khz, 24bit, mono로 디지털 변환하며 10초 간격으로 데이터를 수신하고, 24bit 데이터를 비트 연산을 통해 16bit 데이터로 변환하여 저장할 수 있다.
특징추출부(130)는 전처리된 음성데이터에서 특징을 추출한다. 특징추출부(130)는 전처리된 64bit float데이터에서 RLH(Ratio of low frequency to high frequency), RMS(Root mean square), VAR(Variance), STD(Standard deviation)의 4가지 특징을 40ms 마다 추출할 수 있다.
분류부(140)는 학습된 모델에 기초하여 분류를 한다(S107). 분류부는 저장부에 저장된 배열의 크기만큼 데이터가 들어오게 되면 학습된 모델을 통해 예측하여 제1분류값(silence), 제2분류값(snore), 제3분류값(unknown), 제4분류값(big-move), 제5분류값(small move)로 분류한다.
제어부(150)는 IoT디바이스의 각 구성을 제어한다.
저장부(160)는 특징추출부에서 추출된 데이터를 250*4 크기의 배열에 저장할 수 있다. 저장부(160)는 서비스제공서버로부터 학습된 모델을 수신하여 저장할 수 있다.
통신부(170)는 서비스제공서버(200), 사용자단말(300)에 분류결과 및 센서부의 감지된 값을 제공할 수 있다. 통신부(170)는 서비스제공서버로부터 학습된 모델을 수신할 수 있다.
센서부(180)는 온습도센서, 가스센서, 연기센서를 구비하여 실내의 온습도, 가스, 화재를 감지할 수 있다.
서비스제공서버(200)는 IoT디바이스로부터 수신된 음성데이터를 이용하여 모델을 학습할 수 있다. 서비스제공서버(200)는 제1분류값(silence)과 제3분류값(unknown)을 non-snore로 labeling하고, snore 데이터를 snore로 labeling하여 학습 데이터를 구축한다. 그리고 Microsoft의 EdgeML 라이브러리와 FastGRNN(A Fast, Accurate, Stable and Tiny Kilobyte Sized Gated Recurrent Neural Network)모델을 사용하여 학습시킨다. 학습된 모델의 사이즈는 약 18KB이며 해당 모델을 IoT디바이스에서 사용하기 위해 16bit int형으로 양자화 하고, 양자화된 모델을 IoT디바이스의 저장부에 저장하도록 송신할 수 있다.
서비스제공서버(200)는 IoT디바이스로부터 수신된 분류값, 센서부의 감지된 값에 기초하여 서비스를 제공할 수 있다.
사용자단말(300)은 서비스제공서버(200)로부터 수신된 전용애플리케이션을 설치하고, 설치된 전용애플리케이션을 통해 실내에 설치된 각 IoT기기를 제어할 수 있고, 온습도, 가스, 화재감지데이터를 수신할 수 있으며, 수면데이터를 제공받을 수 있다.
도 4 내지 도 7은 본 발명의 실시예에 따른 5가지 분류값에 대한 RLH, RMS, STD, VAR 특징을 도시한 그래프이다.
도 4는 5가지 분류값인 제1분류값(silence), 제2분류값(snore), 제3분류값(unknown), 제4분류값(big-move), 제5분류값(small move)로 분류된다.
상기 제1분류값은 소리가 전혀 발생하지 않은 데이터이고, 상기 제2분류값은 코골이 소리가 포함된 데이터이고, 상기 제3분류값은 다른 4개에 속하지 않는 소리에 대한 데이터이고, 상기 제4분류값은 발걸음 등의 큰 움직임에 대한 소리가 포함된 데이터이고, 상기 제5분류값은 침대에서 뒤척이는 움직임과 같은 작은 소리가 포함된 데이터이다.
발명의 도면에 도시된 실시예를 참고로 설명되었으나 이는 예시적인 것에 불과하며, 본 기술 분야의 통상의 지식을 가진 자라면 이로부터 다양한 변형 및 균등한 타 실시 예가 가능하다는 점을 이해할 것이다. 따라서, 본 발명의 진정한 기술적 보호 범위는 첨부된 등록청구범위의 기술적 사상에 의해 정해져야 할 것이다.
10; 사용자 행동패턴 분류시스템 100; IoT디바이스
110; 마이크부 120; 전처리부
130; 특징추출부 140; 분류부
150; 제어부 160; 저장부
170; 통신부 180; 센서부
200; 서비스제공서버 300; 사용자단말

Claims (5)

  1. 머신러닝을 활용한 IoT 디바이스의 사용자 행동패턴 분류방법에 있어서,
    (a) IoT디바이스내에 장착된 마이크부가 음성을 획득하는 단계;
    (b) IoT디바이스의 전처리부가 음성데이터를 전처리를 수행하고, 특징추출부가 전처리된 음성데이터에서 특징을 추출하고 배열에 저장하는 단계; 및
    (c) IoT디바이스의 분류부가 배열의 크기만큼 데이터가 들어오게 되면 학습된 모델을 통해 예측하여 분류하는 단계를 포함하는 IoT 디바이스의 사용자 행동패턴 분류방법.
  2. 제1항에 있어서,
    상기 (c) 단계에서, 분류부는 제1분류값(silence), 제2분류값(snore), 제3분류값(unknown), 제4분류값(big-move), 제5분류값(small move)로 분류하는 IoT 디바이스의 사용자 행동패턴 분류방법.
  3. 제1항에 있어서,
    상기 (b) 단계에서, 전처리부는 획득한 음성에서 16Khz, 24bit, mono로 디지털 변환하며 10초 간격으로 데이터를 수신하고, 24bit 데이터를 비트 연산을 통해 16bit 데이터로 변환하여 저장하는 IoT 디바이스의 사용자 행동패턴 분류방법.
  4. 제1항에 있어서,
    상기 (b) 단계에서, 특징추출부는 전처리된 64bit float데이터에서 RLH(Ratio of low frequency to high frequency), RMS(Root mean square), VAR(Variance), STD(Standard deviation)을 추출하는 IoT 디바이스의 사용자 행동패턴 분류방법.
  5. 제1항에 있어서,
    상기 배열은 새로운 데이터가 들어오면 가장 처음에 추출된 데이터를 삭제하는 IoT 디바이스의 사용자 행동패턴 분류방법.


KR1020200018468A 2020-02-14 2020-02-14 머신러닝을 활용한 IoT 디바이스의 사용자 행동패턴 분류방법 KR102349580B1 (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020200018468A KR102349580B1 (ko) 2020-02-14 2020-02-14 머신러닝을 활용한 IoT 디바이스의 사용자 행동패턴 분류방법

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020200018468A KR102349580B1 (ko) 2020-02-14 2020-02-14 머신러닝을 활용한 IoT 디바이스의 사용자 행동패턴 분류방법

Publications (2)

Publication Number Publication Date
KR20210103820A true KR20210103820A (ko) 2021-08-24
KR102349580B1 KR102349580B1 (ko) 2022-01-11

Family

ID=77506904

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020200018468A KR102349580B1 (ko) 2020-02-14 2020-02-14 머신러닝을 활용한 IoT 디바이스의 사용자 행동패턴 분류방법

Country Status (1)

Country Link
KR (1) KR102349580B1 (ko)

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20130110565A (ko) * 2012-03-29 2013-10-10 삼성전자주식회사 사용자 행동 실시간 인식장치 및 방법
KR20190068847A (ko) * 2017-12-11 2019-06-19 한국전자통신연구원 사물 디바이스 간 사물지식 공유를 기반으로 한 사물인터넷 응용 서비스 제공 방법 및 시스템

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20130110565A (ko) * 2012-03-29 2013-10-10 삼성전자주식회사 사용자 행동 실시간 인식장치 및 방법
KR20190068847A (ko) * 2017-12-11 2019-06-19 한국전자통신연구원 사물 디바이스 간 사물지식 공유를 기반으로 한 사물인터넷 응용 서비스 제공 방법 및 시스템

Also Published As

Publication number Publication date
KR102349580B1 (ko) 2022-01-11

Similar Documents

Publication Publication Date Title
WO2018080124A2 (ko) 딥 러닝 신경망 기반의 보안 시스템 및 그 제어 방법
US20180231653A1 (en) Entity-tracking computing system
US11341825B1 (en) Implementing deterrent protocols in response to detected security events
US20080147411A1 (en) Adaptation of a speech processing system from external input that is not directly related to sounds in an operational acoustic environment
CN111192574A (zh) 智能语音交互方法、移动终端和计算机可读存储介质
CN109346075A (zh) 通过人体振动识别用户语音以控制电子设备的方法和系统
US20200125390A1 (en) Apparatus and method for hierarchical context awareness and device autonomous configuration by real-time user behavior analysis
JP2007507783A (ja) 生体測定閾値を適応的に設定するシステム及び方法
CN112913252A (zh) 电子设备及控制电子设备的方法
GB2578418A (en) Sound detection
US11164435B1 (en) Audio/video recording and communication doorbell devices with supercapacitors
US20230060936A1 (en) Method for identifying an audio signal
US20230104683A1 (en) Using a camera for hearing device algorithm training
CN107678381A (zh) 一种噪声信号处理方法及相关设备
Hollosi et al. Enhancing wireless sensor networks with acoustic sensing technology: use cases, applications & experiments
US20210098005A1 (en) Device, system and method for identifying a scene based on an ordered sequence of sounds captured in an environment
KR101736466B1 (ko) 음향 정보 기반 상황 인식 장치 및 방법
CN116547752A (zh) 虚假音频检测
KR101950721B1 (ko) 다중 인공지능 안전스피커
KR102349580B1 (ko) 머신러닝을 활용한 IoT 디바이스의 사용자 행동패턴 분류방법
JP2005129046A (ja) 環境内のユーザの移動をモデル化する方法およびシステム
WO2016206644A1 (zh) 机器人控制引擎及系统
KR20200101479A (ko) Iot 및 음성인식 기능을 활용한 홈 케어 관리 시스템
US20200143823A1 (en) Methods and devices for obtaining an event designation based on audio data
CN108403119A (zh) 一种咳嗽检测方法

Legal Events

Date Code Title Description
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant