KR102171441B1 - 손동작 분류 장치 - Google Patents

손동작 분류 장치 Download PDF

Info

Publication number
KR102171441B1
KR102171441B1 KR1020180169989A KR20180169989A KR102171441B1 KR 102171441 B1 KR102171441 B1 KR 102171441B1 KR 1020180169989 A KR1020180169989 A KR 1020180169989A KR 20180169989 A KR20180169989 A KR 20180169989A KR 102171441 B1 KR102171441 B1 KR 102171441B1
Authority
KR
South Korea
Prior art keywords
sound wave
hand motion
standard
hand
frequency band
Prior art date
Application number
KR1020180169989A
Other languages
English (en)
Other versions
KR20200084451A (ko
Inventor
최선웅
김진혁
Original Assignee
국민대학교산학협력단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 국민대학교산학협력단 filed Critical 국민대학교산학협력단
Priority to KR1020180169989A priority Critical patent/KR102171441B1/ko
Publication of KR20200084451A publication Critical patent/KR20200084451A/ko
Application granted granted Critical
Publication of KR102171441B1 publication Critical patent/KR102171441B1/ko

Links

Images

Classifications

    • G06K9/6201
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/22Matching criteria, e.g. proximity measures
    • G06K9/46
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • G06N20/10Machine learning using kernel methods, e.g. support vector machines [SVM]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/0464Convolutional networks [CNN, ConvNet]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/20Movements or behaviour, e.g. gesture recognition
    • G06V40/28Recognition of hand or arm movements, e.g. recognition of deaf sign language

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • General Engineering & Computer Science (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Computation (AREA)
  • Software Systems (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Mathematical Physics (AREA)
  • Computing Systems (AREA)
  • Health & Medical Sciences (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Multimedia (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Biomedical Technology (AREA)
  • Molecular Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Medical Informatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Evolutionary Biology (AREA)
  • Psychiatry (AREA)
  • Social Psychology (AREA)
  • Human Computer Interaction (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

본 발명은 손동작 분류 장치에 관한 것이다. 본 발명은 비가청 주파수 대역의 기준 음파에 관한 손동작을 기초로 생성된 반사 음파를 시간에 대한 주파수 대역별 세기로 분석하여 음파 이미지를 생성하는 음파 처리부, 음파 이미지 모집단을 기계학습하여 생성된 손동작 모델을 통해 표준 손동작 모집단에서 음파 이미지에 해당하는 표준 손동작을 결정하는 표준 손동작 결정부, 및 표준 손동작의 결정 과정에서 손동작과 표준 손동작 간의 정합도를 기초로 손동작 모델을 조절하는 손동작 모델 조절부를 포함한다.

Description

손동작 분류 장치{HAND GESTURE CLASSIFICATING APPARATUS}
본 발명은 손동작 분류 기술에 관한 것으로, 보다 상세하게는 비가청 주파수 대역의 음파를 이용하여 손동작의 특징을 추출하고, 추출된 손동작의 특징을 기반으로 손동작을 분류할 수 있는 손동작 분류 장치 및 방법에 관한 것이다.
컴퓨터의 성능이 향상됨에 따라 인간과 컴퓨터 간의 상호 작용(HCI: Human Computer Interaction) 기술이 중요해지고 있다. 최근에는 스마트 기기, 예를 들어 스마트폰, 스마트 워치 등과 IoT 기기 등이 개발됨에 따라 이러한 기기를 제어하는 다양한 방식의 사용자 인터랙션 방법이 제안되고 있다. 예를 들어, 스마트폰의 경우 사용자 인증을 하는 방법으로 암호, 패턴, 지문 인식, 홍채 인식 등을 제공하고 있다.
한국등록특허 제10-0446353(2004.08.20)호
본 발명의 일 실시예는 비가청 주파수 대역의 음파를 이용하여 손동작의 특징을 추출하고, 추출된 손동작의 특징을 기반으로 손동작을 분류할 수 있는 손동작 분류 장치를 제공하고자 한다.
본 발명의 일 실시예는 1차원의 음파 데이터를 단시간 푸리에 변환 알고리즘을 이용하여 시간에 대한 주파수 대역별 세기를 나타내는 2차원의 음파 이미지로 변환시키고, 합성곱 신경망을 이용하여 음파 이미지를 학습 및 인식함으로써 복잡한 설계 없이도 손동작을 분류할 수 있는 손동작 분류 장치를 제공하고자 한다.
본 발명의 일 실시예는 사용자 단말의 직접적인 터치 없이 손동작을 통해 사용자 인터랙션을 수행할 수 있는 손동작 분류 장치를 제공하고자 한다.
본 발명의 일 실시예는 합성곱 신경망을 이용하여 손동작을 추가하고 학습함으로써 사용자 별 맞춤 인식 모델을 구현할 수 있는 손동작 분류 장치를 제공하고자 한다.
실시예들 중에서, 손동작 분류 장치는 비가청 주파수 대역의 기준 음파에 관한 손동작을 기초로 생성된 반사 음파를 시간에 대한 주파수 대역별 세기로 분석하여 음파 이미지를 생성하는 음파 처리부; 음파 이미지 모집단을 기계학습하여 생성된 손동작 모델을 통해 표준 손동작 모집단에서 상기 음파 이미지에 해당하는 표준 손동작을 결정하는 표준 손동작 결정부; 및 상기 표준 손동작의 결정 과정에서 상기 손동작과 상기 표준 손동작 간의 정합도를 기초로 상기 손동작 모델을 조절하는 손동작 모델 조절부를 포함한다.
상기 음파 처리부는 단시간 푸리에 변환 알고리즘을 이용하여 상기 음파 이미지를 생성하는 것을 특징으로 한다. 상기 음파 처리부는 상기 반사 음파에 상기 단시간 푸리에 변환 알고리즘을 적용하여 시간에 대한 주파수 영역으로 변환하고, 상기 비가청 주파수 대역을 추출하여 상기 주파수 대역별 세기를 분석하고, 상기 분석된 주파수 대역별 세기를 이미지로 변환하여 상기 음파 이미지를 생성하는 것을 특징으로 한다.
그리고, 상기 음파 처리부는 상기 반사 음파의 초기 지연 구간을 제외시키는 전처리 동작을 수행한 후, 나머지 구간의 상기 반사 음파에 상기 단시간 푸리에 변환 알고리즘을 적용하는 것을 특징으로 한다. 또한, 상기 표준 손동작 결정부는 합성곱 신경망을 이용하여 상기 음파 이미지 모집단을 학습하는 것을 특징으로 한다. 여기에서, 상기 표준 손동작 결정부는 상기 음파 이미지의 입력을 기초로 특정 수의 합성곱 연산 및 맥스 풀링 연산을 반복 수행한 후 적어도 한번의 평균 풀링 연산을 수행하여 상기 음파 이미지의 특징을 추출하고, 추출된 상기 음파 이미지의 특징을 통해 상기 표준 손동작을 결정하는 것을 특징으로 한다.
상기 손동작 모델 조절부는 상기 손동작과 상기 표준 손동작 간의 정합도가 일정 비율 미만인 경우 상기 손동작을 추가로 학습하여 상기 손동작 모델을 조절하는 것을 특징으로 한다. 그리고, 상기 기준 음파는 약 19.8kHz~20.2kHz의 범위인 것을 특징으로 한다.
실시예들 중에서, 손동작 분류 장치는 사용자 단말의 외부로 출력된 비가청 주파수 대역의 기준 음파가 상기 사용자 단말 상의 손동작에 의해 반사되어 녹음된 반사 음파를 시간에 대한 주파수 대역별 세기로 분석하여 음파 이미지를 생성하는 음파 처리부; 음파 이미지 모집단을 기계학습하여 생성된 손동작 모델을 통해 상기 음파 이미지의 특징을 추출하여 상기 사용자 단말에서 발생한 적어도 하나의 이벤트를 제어하는 표준 손동작 모집단 중 상기 음파 이미지에 대응하는 표준 손동작을 결정하는 표준 손동작 결정부; 및 상기 표준 손동작의 결정 과정에서 상기 손동작과 상기 표준 손동작 간의 정합도를 기초로 상기 손동작 모델을 조절하는 손동작 모델 조절부를 포함한다.
상기 음파 처리부는 단시간 푸리에 변환 알고리즘을 이용하여 시간에 대한 상기 비가청 주파수 대역의 데이터를 추출하고, 상기 추출된 비가청 주파수 대역의 데이터를 이미지로 변환하여 상기 음파 이미지를 생성하는 것을 특징으로 한다.
개시된 기술은 다음의 효과를 가질 수 있다. 다만, 특정 실시예가 다음의 효과를 전부 포함하여야 한다거나 다음의 효과만을 포함하여야 한다는 의미는 아니므로, 개시된 기술의 권리범위는 이에 의하여 제한되는 것으로 이해되어서는 아니 될 것이다.
본 발명의 일 실시예에 따른 손동작 분류 장치는 비가청 주파수 대역의 음파를 이용하여 손동작의 특징을 추출하고, 추출된 손동작의 특징을 기반으로 손동작을 분류할 수 있다.
본 발명의 일 실시예에 따른 손동작 분류 장치는 1차원의 음파 데이터를 단시간 푸리에 변환 알고리즘을 이용하여 시간에 대한 주파수 대역별 세기를 나타내는 2차원의 음파 이미지로 변환시키고, 합성곱 신경망을 이용하여 음파 이미지를 학습 및 인식함으로써 복잡한 설계 없이도 손동작을 분류할 수 있다.
본 발명의 일 실시예에 따른 손동작 분류 장치는 사용자 단말의 직접적인 터치 없이 손동작을 통해 사용자 인터랙션을 수행할 수 있다.
본 발명의 일 실시예에 따른 손동작 분류 장치는 합성곱 신경망을 이용하여 손동작을 추가하고 학습함으로써 사용자 별 맞춤 인식 모델을 구현할 수 있다.
도 1은 본 발명의 일 실시예에 따른 손동작 분류 시스템을 도시한 도면이다.
도 2는 도 1에 있는 사용자 단말을 설명하는 블록도이다.
도 3은 도 1에 있는 손동작 분류 장치를 설명하는 블록도이다.
도 4는 반사 음파에 STFT를 적용한 결과를 설명하는 그래프이다.
도 5는 본 발명의 일 실시예에 따른 CNN 모델을 도시한 구성도이다.
도 6은 도 1에 있는 손동작 분류 장치의 성능을 평가한 오류 매트릭스(confusion matrix)를 나타내는 도면이다.
도 7은 도 1에 있는 손동작 분류 장치에서 수행하는 기계 학습 별 성능 평과 결과를 나타내는 도면이다.
도 8은 도 1에 있는 손동작 분류 장치에서 수행되는 손동작 분류 과정을 설명하는 순서도이다.
본 발명에 관한 설명은 구조적 내지 기능적 설명을 위한 실시예에 불과하므로, 본 발명의 권리범위는 본문에 설명된 실시예에 의하여 제한되는 것으로 해석되어서는 아니 된다. 즉, 실시예는 다양한 변경이 가능하고 여러 가지 형태를 가질 수 있으므로 본 발명의 권리범위는 기술적 사상을 실현할 수 있는 균등물들을 포함하는 것으로 이해되어야 한다. 또한, 본 발명에서 제시된 목적 또는 효과는 특정 실시예가 이를 전부 포함하여야 한다거나 그러한 효과만을 포함하여야 한다는 의미는 아니므로, 본 발명의 권리범위는 이에 의하여 제한되는 것으로 이해되어서는 아니 될 것이다.
한편, 본 출원에서 서술되는 용어의 의미는 다음과 같이 이해되어야 할 것이다.
"제1", "제2" 등의 용어는 하나의 구성요소를 다른 구성요소로부터 구별하기 위한 것으로, 이들 용어들에 의해 권리범위가 한정되어서는 아니 된다. 예를 들어, 제1 구성요소는 제2 구성요소로 명명될 수 있고, 유사하게 제2 구성요소도 제1 구성요소로 명명될 수 있다.
어떤 구성요소가 다른 구성요소에 "연결되어"있다고 언급된 때에는, 그 다른 구성요소에 직접적으로 연결될 수도 있지만, 중간에 다른 구성요소가 존재할 수도 있다고 이해되어야 할 것이다. 반면에, 어떤 구성요소가 다른 구성요소에 "직접 연결되어"있다고 언급된 때에는 중간에 다른 구성요소가 존재하지 않는 것으로 이해되어야 할 것이다. 한편, 구성요소들 간의 관계를 설명하는 다른 표현들, 즉 "~사이에"와 "바로 ~사이에" 또는 "~에 이웃하는"과 "~에 직접 이웃하는" 등도 마찬가지로 해석되어야 한다.
단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한 복수의 표현을 포함하는 것으로 이해되어야 하고, "포함하다"또는 "가지다" 등의 용어는 실시된 특징, 숫자, 단계, 동작, 구성요소, 부분품 또는 이들을 조합한 것이 존재함을 지정하려는 것이며, 하나 또는 그 이상의 다른 특징이나 숫자, 단계, 동작, 구성요소, 부분품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.
각 단계들에 있어 식별부호(예를 들어, a, b, c 등)는 설명의 편의를 위하여 사용되는 것으로 식별부호는 각 단계들의 순서를 설명하는 것이 아니며, 각 단계들은 문맥상 명백하게 특정 순서를 기재하지 않는 이상 명기된 순서와 다르게 일어날 수 있다. 즉, 각 단계들은 명기된 순서와 동일하게 일어날 수도 있고 실질적으로 동시에 수행될 수도 있으며 반대의 순서대로 수행될 수도 있다.
본 발명은 컴퓨터가 읽을 수 있는 기록매체에 컴퓨터가 읽을 수 있는 코드로서 구현될 수 있고, 컴퓨터가 읽을 수 있는 기록 매체는 컴퓨터 시스템에 의하여 읽혀질 수 있는 데이터가 저장되는 모든 종류의 기록 장치를 포함한다. 컴퓨터가 읽을 수 있는 기록 매체의 예로는 ROM, RAM, CD-ROM, 자기 테이프, 플로피 디스크, 광 데이터 저장 장치 등이 있다. 또한, 컴퓨터가 읽을 수 있는 기록 매체는 네트워크로 연결된 컴퓨터 시스템에 분산되어, 분산 방식으로 컴퓨터가 읽을 수 있는 코드가 저장되고 실행될 수 있다.
여기서 사용되는 모든 용어들은 다르게 정의되지 않는 한, 본 발명이 속하는 분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 것과 동일한 의미를 가진다. 일반적으로 사용되는 사전에 정의되어 있는 용어들은 관련 기술의 문맥상 가지는 의미와 일치하는 것으로 해석되어야 하며, 본 출원에서 명백하게 정의하지 않는 한 이상적이거나 과도하게 형식적인 의미를 지니는 것으로 해석될 수 없다.
도 1은 본 발명의 일 실시예에 따른 손동작 분류 시스템을 도시한 도면이다.
도 1을 참조하면, 손동작 분류 시스템(100)은 사용자 단말(110), 손동작 분류 장치(130) 및 데이터베이스(150)를 포함할 수 있다.
사용자 단말(110)은 특정 이벤트 발생 시 미리 설치된 어플리케이션을 통해 손동작 분류에 필요한 기준 음파를 외부로 출력할 수 있고, 기준 음파가 출력되는 동안 사용자 단말(110) 상에서 취해진 손동작에 의해 기준 음파가 반사된 반사 음파를 녹음 및 저장하여 손동작 분류 장치(130)에 제공할 수 있다.
여기에서, 이벤트는 손동작 인식에 의해 사용자 인터랙션이 가능한 이벤트, 예를 들어 사용자 단말(110)이 스마트폰인 경우 대기화면 잠금 해제, 전화 수신, 알림 확인, 게임 등을 포함할 수 있다. 반드시 이에 한정되지 않고, 사용자 인증이 필요한 이벤트, 예를 들어 개인 서명을 통한 인터넷 뱅킹, 결제, 개인 정보 확인 등을 포함할 수도 있다. 또한, 새로운 표준 손동작을 등록시키는 이벤트일 수도 있다.
그리고, 기준 음파는 약 19.8kHz~20.2kHz 범위의 비가청 주파수 대역의 소리일 수 있고, 표준 손동작은 사용자 단말(110)의 제어를 위해 미리 정의된 사용자 인터랙션 동작일 수 있다.
일 실시예에서, 사용자 단말(110)은 손동작 분류 장치(130)로부터 표준 손동작 결정 결과를 제공받아 이벤트를 제어할 수 있는 컴퓨팅 장치에 해당할 수 있다. 예를 들어, 사용자 단말(110)은 스마트폰으로 구현될 수 있으며, 반드시 이에 한정되지 않고, 사용자 단말(110)은 스마트 워치(watch), 사물인터넷(IoT) 기기 등 다양한 디바이스로 구현될 수 있다.
일 실시예에서, 사용자 단말(110)은 손동작 분류 장치(130)에 의해 생성된 손동작 모델을 제공받아 내부에 저장할 수도 있고, 메모리 부하가 발생할 경우 손동작 분류 장치(130)로부터 표준 손동작 결정 결과만 제공받을 수 있다.
손동작 분류 장치(130)는 기준 음파에 관한 사용자 단말(110) 상의 손동작을 기초로 생성된 반사 음파를 처리하여 음파 이미지를 생성하고, 미리 생성된 손동작 모델을 통해 표준 손동작의 집합으로 구성된 표준 손동작 모집단에서 음파 이미지에 해당하는 표준 손동작을 결정할 수 있다.
보다 구체적으로, 손동작 분류 장치(130)는 반사 음파를 시간에 대한 주파수 대역 별 세기로 분석하여 음파 이미지를 생성할 수 있다. 여기에서, 손동작 분류 장치(130)는 단시간 푸리에 변환(Short Time Fourier Transform: STFT) 알고리즘을 이용하여 반사 음파를 시간에 대한 주파수 영역의 데이터로 변환하고, 비가청 주파수 대역만 추출하여 분석된 시간에 대한 주파수 대역 별 세기를 이미지로 변환함으로써 음파 이미지를 생성할 수 있다.
일 실시예에서, 손동작 분류 장치(130)는 음파 이미지의 집합으로 구성된 음파 이미지 모집단을 기계 학습하여 손동작 모델을 생성할 수 있다. 여기에서, 손동작 분류 장치(130)는 딥러닝 알고리즘을 이용하여 음파 이미지 모집단을 학습할 수 있다. 예를 들어, 손동작 분류 장치(130)는 딥러닝 알고리즘 중 하나인 합성곱 신경망(Convolution Neural Network: CNN) 모델을 이용하여 음파 이미지 모집단을 학습할 수 있다.
여기에서, 합성곱 신경망(CNN)은 최소한의 전처리(preprocess)를 사용하도록 설계된 다계층 퍼셉트론(multilayer perceptrons)의 한 종류이다. 합성곱 신경망(CNN)은 하나 또는 여러 개의 합성곱 계층과 그 위에 올려진 일반적인 인공 신경망 계층들로 이루어져 있으며, 가중치와 풀링 계층(pooling layer)들을 추가로 활용할 수 있다.
합성곱 신경망(CNN)은 2차원 구조의 입력 데이터를 충분히 활용할 수 있고, 다른 딥 러닝 구조들과 비교해서 영상 및 음성 분야 모두에서 좋은 성능을 보여줄 수 있다. 합성곱 신경망(CNN)은 표준 역전달을 통해 훈련될 수 있고 다른 피드포워드 인공신경망 기법들보다 쉽게 훈련되며 적은 수의 매개변수를 사용한다는 장점을 가진다.
일 실시예에서, 손동작 분류 장치(130)는 표준 손동작의 결정 과정에서 사용자 단말(110) 상의 손동작과 표준 손동작 간의 정합도를 기초로 손동작 모델을 조절할 수 있다. 예를 들어, 손동작 분류 장치(130)는 사용자 단말(110) 상의 손동작과 표준 손동작 간의 정합도가 일정 비율 이하인 경우 해당 손동작을 새로운 표준 손동작으로 판단하고, 해당 손동작을 추가로 학습하여 손동작 모델을 조절할 수 있다.
일 실시예에서, 손동작 분류 장치(130)는 표준 손동작 결정 결과를 사용자 단말(110)에 제공할 수 있는 컴퓨터 또는 프로그램에 해당하는 서버로 구현될 수 있다. 손동작 분류 장치(130)는 사용자 단말(110)과 블루투스, WiFi 등을 통해 무선으로 연결될 수 있고, 네트워크를 통해 사용자 단말(110)과 데이터를 송수신할 수 있다.
데이터베이스(150)는 손동작 분류에 필요한 다양한 정보들을 저장할 수 있는 저장장치이다. 데이터베이스(150)는 손동작 분류 장치(130)에 의해 구현된 손동작 모델을 저장할 수 있고, 반드시 이에 한정되지 않고 손동작 모델을 생성하는 과정에서 수집 또는 가공된 정보들을 저장할 수 있다.
데이터베이스(150)는 특정 범위에 속하는 정보들을 저장하는 적어도 하나의 독립된 서브-데이터베이스들로 구성될 수 있고, 적어도 하나의 독립된 서브-데이터베이스들이 하나로 통합된 통합 데이터베이스로 구성될 수 있다.
적어도 하나의 독립된 서브-데이터베이스들로 구성되는 경우에는 각각의 서브-데이터베이스들은 블루투스, WiFi 등을 통해 무선으로 연결될 수 있고, 네트워크를 통해 서로 데이터를 송수신할 수 있다. 데이터베이스(150)는 통합 데이터베이스로 구성되는 경우 각각의 서브-데이터베이스들을 하나로 통합하고 상호 간의 데이터 교환 및 제어 흐름을 관리하는 제어부를 포함할 수 있다.
도 2는 도 1에 있는 사용자 단말을 설명하는 블록도이다.
도 2를 참조하면, 사용자 단말(110)은 스피커(210), 마이크(230), 데이터베이스(250) 및 제어부(270)를 포함할 수 있다.
스피커(210)는 사용자 단말(110)의 외부로 일정 시간동안 기준 음파를 외부로 출력할 수 있다. 스피커(210)는 사용 용도에 따라 일시적 또는 지속적으로 기준 음파를 출력할 수 있다. 마이크(230)는 일정 시간동안 반사 음파를 수신하여 녹음하고, 데이터베이스(250)에 저장시킬 수 있다. 마이크(230)는 사용 용도에 따라 녹음 시간이 설정될 수 있다. 마이크(230)는 설정된 녹음 시간이 경과되면 자동으로 비활성화될 수 있다.
데이터베이스(250)는 표준 손동작 인식 결과를 이용하여 사용자 인터랙션을 수행하기 위한 다양한 정보들을 저장할 수 있는 저장장치이다. 예를 들어, 데이터베이스(250)는 마이크(230)를 통해 수신된 반사 음파를 저장할 수 있고, 표준 손동작에 대응하는 제어 동작에 관한 정보들을 저장할 수 있다. 데이터베이스(250)는 손동작 분류 장치(130)로부터 제공받은 손동작 모델을 저장할 수 있다. 반드시 이에 한정되지 않고, 데이터베이스(250)는 스피커(210) 및 마이크(230)를 제어하는 어플리케이션 프로그램 및 다양한 통신 프로토콜 관련 정보를 저장할 수 있다.
제어부(270)는 사용자 단말(110)의 전체적인 동작을 제어하고, 스피커(210), 마이크(230) 및 데이터베이스(250) 간의 제어 흐름 또는 데이터 흐름을 관리할 수 있다. 일 실시예에서, 제어부(270)는 사용자 단말(110)에 이벤트 발생 시 스피커(210) 및 마이크(230)의 구동을 제어할 수 있는 어플리케이션 프로그램으로 구현될 수 있다.
제어부(270)는 마이크(230)를 통해 녹음된 반사 음파를 손동작 분류 장치(130)에 제공할 수 있고, 손동작 분류 장치(130)로부터 표준 손동작 결정 결과를 제공받아 해당 표준 손동작에 대응하는 제어 동작으로 사용자 단말(110)에서 발생한 이벤트를 실행 및 제어할 수 있다. 예를 들어, 사용자 단말(110)에서 게임 조작, 전화 수신, 알림 종료 등을 실행시킬 수 있다.
도 3은 도 1에 있는 손동작 분류 장치를 설명하는 블록도이고, 도 4는 반사 음파에 STFT를 적용한 결과를 설명하는 그래프이며, 도 5는 본 발명의 일 실시예에 따른 CNN 모델을 도시한 구성도이다.
도 3을 참조하면, 손동작 분류 장치(130)는 음파 처리부(310), 표준 손동작 결정부(330), 손동작 모델 조절부(350) 및 제어부(370)를 포함할 수 있다. 음파 처리부(310)는 기준 음파에 관한 손동작을 기초로 사용자 단말(110)로부터 녹음된 반사 음파를 수신 받고, 반사 음파를 처리하여 음파 이미지를 생성한다.
보다 구체적으로, 음파 처리부(310)는 녹음된 반사 음파에 단시간 푸리에 변환(Short Time Fourier Transform: STFT) 알고리즘을 적용하여 시간에 대한 주파수 영역의 데이터로 변환하고, 비가청 주파수 대역을 추출하여 시간에 대한 주파수 대역 별 세기를 분석하고, 분석 결과를 이미지로 변환함으로써 음파 이미지를 생성할 수 있다. 여기에서, 음파 처리부(310)는 녹음된 반사 음파의 초기 지연 구간을 제외시키는 전처리 동작을 수행한 후 나머지 구간의 반사 음파에 단시간 푸리에 알고리즘(STFT)을 적용할 수 있다.
예를 들어, 44.1kHz의 샘플링 주파수로 출력된 기준 음파에 대해 3초 동안 반사 음파가 녹음된 경우 음파 처리부(310)는 녹음 시작 시 발생하는 시스템 지연을 제거하기 위해 녹음된 반사 음파의 시작 0.2초를 잘라낸 2.8초짜리 데이터를 이용할 수 있다.
그리고, 음파 처리부(310)는 44.1kHz의 샘플링 주파수를 갖는 2.8초짜리 데이터에 특정 주파수 대역의 값을 구하기 위해 단시간 푸리에 변환(STFT)을 적용할 수 있다. 여기에서, 음파 처리부(310)는 단시간 푸리에 변환(STFT)을 적용시킬 때 주파수 분해능(Resolution)은 2048, 윈도 사이즈(Window Size)를 500으로 설정하고 95%씩 오버랩 시킬 수 있다.
샘플링 주파수가 44.1kHz인 데이터이기 때문에, 분해능(Resolution)을 2048로 설정하면 주파수 한 구간 당 약 21Hz를 나타낸다. 즉, 비가청 주파수 대역인 19.8kHz~20.2kHz 구간은 20개의 주파수 구간으로 나누어질 수 있다. 그리고, 44.1kHz의 샘플링 주파수를 갖는 2.8초짜리 데이터에 윈도 사이즈(Window Size)를 500으로 설정하여 95%씩 오버랩 시키면 4920개의 시간 구간으로 나누어진다. 이에, 단시간 푸리에 변환(STFT)을 적용시킨 후 얻어지는 데이터의 사이즈는 20*4920*1이다.
즉, 도 4에 도시된 바와 같이, 예를 들어, 마이크를 막고 녹음된 반사 음파(a)에 단시간 푸리에 변환(STFT)을 적용한 후, 비가청 주파수 대역을 잘라내면 시간에 대한 주파수 대역의 세기를 분석한 결과(b)를 얻을 수 있다. 여기에서, 특정 주파수에서 신호의 세기가 강할수록 암적색으로 나타나고, 신호의 세기가 약할수록 푸른색으로 나타나는 것을 볼 수 있다.
표준 손동작 결정부(330)는 음파 처리부(310)로부터 음파 이미지를 수신받고, 손동작 모델을 통해 표준 손동작 모집단에서 수신된 음파 이미지에 해당하는 표준 손동작을 결정할 수 있다. 이를 위해, 표준 손동작 결정부(330)는 음파 이미지의 집합으로 구성된 음파 이미지 모집단을 기계 학습하여 손동작 모델을 생성할 수 있다.
일 실시예에서, 표준 손동작 결정부(330)는 음파 이미지의 입력을 기초로 특정 수의 합성곱 연산 및 맥스 풀링 연산을 반복 수행한 후, 적어도 한번의 평균 풀링 연산을 수행하여 음파 이미지의 특징을 추출하고, 추출된 음파 이미지의 특징을 통해 표준 손동작을 결정할 수 있다.
예를 들어, 표준 손동작 결정부(330)는 도 5에 도시된 바와 같이, 9층으로 구성된 CNN 모델을 이용하여 음파 이미지 모집단을 기계 학습할 수 있다.
CNN 모델 구조는 입력 데이터의 사이즈(일 실시예에서는 20*4920*1)를 고려하여 필터 사이즈를 정하고, 합성곱(Convolution)(510)과 맥스 풀링(Max Pooling)(530) 연산을 반복하도록 구성할 수 있다. 그 다음, 적어도 한 번의 평균 풀링(Average Pooling)(550) 연산을 통해 해당 영역의 평균을 구하여 데이터의 크기를 감소시킨 후, 마지막으로 출력 노드에 완전 연결(Fully Connected)(570)하여 원하는 레이블(Label) 개수만큼 출력을 얻을 수 있다.
손동작 모델 조절부(350)는 표준 손동작의 결정 과정에서 손동작과 표준 손동작 간의 정합도를 기초로 손동작 모델을 조절할 수 있다. 예를 들어, 손동작 손동작 모델 조절부(350)는 손동작과 표준 손동작 간의 정합도가 일정 비율 미만인 경우 해당 손동작을 새로운 표준 손동작으로 판단하고, 해당 손동작을 추가로 학습하여 손동작 모델을 조절할 수 있다.
제어부(370)는 손동작 분류 장치(130)의 전체적인 동작을 제어하고, 음파 처리부(310), 표준 손동작 결정부(330) 및 손동작 모델 조절부(350) 간의 제어 흐름 또는 데이터 흐름을 관리할 수 있다.
도 6은 도 1에 있는 손동작 분류 장치의 성능을 평가한 오류 매트릭스(confusion matrix)를 나타내는 도면이다.
도 6에서, 사용자 단말(110) 상에서 취해진 5가지 손동작 각각에 대해 약 100개의 반사 음파를 녹음하고, 손동작 분류 장치(130)의 성능을 평가한 결과를 나타낸다. 반사 음파는 3초씩 녹음하였고, 한 종류의 손동작 당 100번씩 총 500개의 데이터를 수집하였다.
여기에서, 각 데이터의 샘플 레이트(sample rate)는 44.1kHz이고, 실제 사용한 데이터는 시스템 딜레이 0.2초를 잘라낸 2.8초짜리 데이터이다. 그리고, 총 500개의 데이터 중 400개를 손동작 모델 훈련에 이용하고, 나머지 100개의 데이터로 테스트를 진행한 결과이다.
그리고, 5가지 손동작은 동작을 취하지 않은 손동작(do-not), 손바닥을 편 상태에서 손을 왼쪽에서 오른쪽으로 움직이는 손동작(left-right), 손바닥을 편 상태에서 손을 위쪽에서 아래쪽으로 움직이는 손동작(top-bot), 손바닥을 편 상태에서 손을 위쪽에서 아래쪽으로 움직이는 손동작(top-bot) 및 손바닥으로 마이크를 막은 손동작(black)을 이용하였다.
성능 평가 결과, 동작을 취하지 않은 손동작(do-not)의 경우 분류 정확도가 약 100%로 평가되었다. 그리고, 손바닥을 편 상태에서 손을 왼쪽에서 오른쪽으로 움직이는 손동작(left-right)의 경우 분류 정확도가 약 95%로 평가되었고, 손바닥을 편 상태에서 손을 위쪽에서 아래쪽으로 움직이는 손동작(top-bot)의 경우 분류 정확도가 약 100%로 평가되었다.
손바닥을 편 상태에서 손을 위쪽에서 아래쪽으로 움직이는 손동작(top-bot)의 경우 분류 정확도가 약 100%로 평가되었고, 손바닥으로 마이크(230)를 막은(black) 경우 분류 정확도가 약 85%로 평가되었다. 즉, 각 손동작 별로는 분류 정확도가 약 85% 이상으로 평가되고, 전체 분류 정확도는 약 94%로 평가된 것을 알 수 있다.
도 7은 도 1에 있는 손동작 분류 장치에서 수행하는 기계 학습 별 성능 평과 결과를 나타내는 도면이다.
도 7에서, 손동작 분류 장치(130)에서 기계 학습 알고리즘으로 결정 트리(Decision Tree: DT) 알고리즘, 서포트 벡터 머신(Support Vector Machine: SVM) 알고리즘, 랜덤 포레스트(Random Forest: RF) 알고리즘 및 합성곱 신경망(CNN) 알고리즘을 이용하여 음파 이미지를 학습하고, 학습 결과를 통한 표준 손동작을 결정한 결과에 대한 정확도를 평가하였다. 평가 결과, 결정 트리(DT) 알고리즘은 약 57%, 서포트 벡터 머신(SVM) 알고리즘은 약 64%, 랜덤 포레스트(RF) 알고리즘은 약 78.7%, 합성곱 신경망(CNN) 알고리즘은 약 94%로 평가된 것을 볼 수 있다.
즉, 본 발명의 일 실시예에 따른 손동작 분류 장치(130)는 1차원 데이터로 녹음된 신호를 단시간 푸리에 변환(STFT)을 이용하여 2차원 데이터로 변환하고, 다른 알고리즘에 비해 이미지 분류에 높은 정확도를 보이는 합성곱 신경망(CNN) 알고리즘을 이용하여 1차원 데이터로부터 얻을 수 없는 특징을 구하고, 이를 통해 표준 손동작 분류 정확도를 향상시킬 수 있다.
도 8은 도 1에 있는 손동작 분류 장치에서 수행되는 손동작 분류 과정을 설명하는 순서도이다.
도 8에서, 사용자 단말(110)에 이벤트 발생 시 사용자 단말(110)의 외부로 일정 시간동안 비가청 주파수 대역의 기준 음파가 발생할 수 있다(단계 S810). 여기에서, 기준 음파는 약 19.8kHz~20.2kHz 범위일 수 있다. 예를 들어, 10초 동안 20kHz의 비가청 주파수가 외부로 출력될 수 있다.
기준 음파가 발생하는 동안 사용자에 의해 사용자 단말(110) 상에서 특정 손동작이 수행될 수 있다(단계 S820). 예를 들어, 손바닥을 편 상태에서 손을 왼쪽에서 오른쪽으로 움직이는 손동작, 손바닥을 편 상태에서 손을 위쪽에서 아래쪽으로 움직이는 손동작, 손바닥을 편 상태에서 손을 위쪽에서 아래쪽으로 움직이는 손동작 등 다양한 손동작이 수행될 수 있다.
사용자 단말(110)은 특정 손동작에 의해 기준 음파가 반사된 반사 음파를 녹음 및 저장할 수 있다(단계 S830). 예를 들어, 사용자 단말(110)은 3초 동안 반사 음파를 녹음할 수 있다.
그 다음, 손동작 분류 장치(130)는 사용자 단말(110)로부터 반사 음파를 제공받고, 반사 음파를 시간에 대한 주파수 대역 별 세기로 분석하여 음파 이미지를 생성할 수 있다.
예를 들어, 손동작 분류 장치(130)는 녹음된 반사 음파의 시작 0.2초를 잘라내고, 단시간 푸리에 변환(STFT)을 적용시킬 수 있다. 이때, 손동작 분류 장치(130)는 주파수 분해능(Resolution)은 2048, 윈도 사이즈(Window Size)를 500으로 설정하고 95%씩 오버랩 시킬 수 있다. 손동작 분류 장치(130)는 비가청 주파수 대역만 잘라내어 시간에 대한 주파수 대역 별 세기에 관한 데이터를 분석하고, 이미지로 변환하여 음파 이미지를 생성할 수 있다.
그 다음, 손동작 분류 장치(130)는 손동작 모델을 통해 표준 손동작 모집단에서 음파 이미지와 정합되는 표준 손동작이 존재하는지 여부를 판단한다(단계 S840). 여기에서, 손동작 모델은 합성곱 신경망(CNN) 알고리즘을 적용하여 음파 이미지 모집단을 학습한 모델일 수 있다.
판단 결과, 표준 손동작 모집단의 표준 손동작과 음파 이미지 간의 정합도가 일정 비율 이상인 경우 손동작 분류 장치(130)는 음파 이미지에 해당하는 표준 손동작으로 결정할 수 있다(단계 S850). 그 다음, 손동작 분류 장치(130)는 표준 손동작의 결정 결과를 사용자 단말(110)에 전송하고, 사용자 단말(110)은 해당 표준 손동작에 대응하는 사용자 인터랙션을 수행할 수 있다.
반면, 판단 결과, 표준 손동작 모집단의 표준 손동작과 음파 이미지 간의 정합도가 일정 비율 미만인 경우 손동작 분류 장치(130)는 해당 음파 이미지를 새로운 표준 손동작으로 인식하고, 해당 음파 이미지를 추가로 학습하여 손동작 모델을 조절한다(단계 S860). 학습이 완료된 후, 손동작 분류 장치(130)는 조절된 손동작 모델을 데이터베이스(150)에 저장하거나, 사용자 단말(110)에 전송할 수 있다.
그 다음, 손동작 분류 장치(130)는 조절된 손동작 모델을 이용하여 새로운 음파 이미지에 해당하는 표준 손동작을 결정할 수 있다(단계 S870). 손동작 분류 장치(130)는 표준 손동작의 결정 결과를 사용자 단말(110)에 전송하고, 사용자 단말(110)은 해당 표준 손동작에 대응하는 사용자 인터랙션을 수행할 수 있다.
상술한 바와 같이, 본 발명의 일 실시예에 따른 손동작 분류 장치(130)는 비가청 주파수 대역의 기준 음파에 관한 사용자 단말(110) 상의 손동작을 기초로 생성된 반사 음파를 시간에 대한 주파수 대역 별 세기로 분석하여 음파 이미지로 변환한 후, 표준 손동작이 학습된 합성곱 신경망(CNN) 모델을 통해 변환된 음파 이미지를 인식하여 표준 손동작을 결정할 수 있다.
따라서, 본 발명의 일 실시예는 사용자 단말(110)을 직접 터치하지 않고도 손동작에 의해 사용자 인터랙션이 가능하고, 별도의 센서를 추가하거나 복잡한 필터를 설계할 필요없이 손동작의 특징만 추출하여 손동작을 분류할 수 있다. 또한, 딥러닝 모델을 통해 손동작을 추가하고 학습하여 사용자 별 맞춤 인식 모델을 구현할 수 있다. 그리고, 어플리케이션을 통해 사용자 단말(110)과 연동하여 실시간으로 표준 손동작을 분류할 수 있다.
상기에서는 본 발명의 바람직한 실시예를 참조하여 설명하였지만, 해당 기술 분야의 숙련된 당업자는 하기의 특허 청구의 범위에 기재된 본 발명의 사상 및 영역으로부터 벗어나지 않는 범위 내에서 본 발명을 다양하게 수정 및 변경시킬 수 있음을 이해할 수 있을 것이다.
100: 손동작 분류 시스템
110: 사용자 단말 130: 손동작 분류 장치
150, 250: 데이터베이스 210: 카메라
230: 마이크 310: 음파 처리부
330: 손동작 결정부 350: 손동작 모델 조절부
370: 제어부

Claims (10)

  1. 비가청 주파수 대역의 기준 음파에 관한 손동작을 기초로 생성된 반사 음파를 시간에 대한 주파수 대역별 세기로 분석하여 음파 이미지를 생성하는 음파 처리부;
    음파 이미지 모집단을 기계학습하여 생성된 손동작 모델을 통해 표준 손동작 모집단에서 상기 음파 이미지에 해당하는 표준 손동작을 결정하는 표준 손동작 결정부; 및
    상기 표준 손동작의 결정 과정에서 상기 손동작과 상기 표준 손동작 간의 정합도가 일정 비율 미만인 경우 상기 손동작을 추가로 학습하여 상기 손동작 모델을 조절하는 손동작 모델 조절부를 포함하고,
    상기 음파 처리부는
    상기 반사 음파에 단시간 푸리에 변환 알고리즘을 적용하여 시간에 대한 주파수 영역으로 변환하고, 상기 비가청 주파수 대역을 추출하여 상기 주파수 대역별 세기를 기 설정된 분해능 및 윈도 사이즈를 가지는 단시간 푸리에 변환을 통해 분석하고, 상기 분석된 주파수 대역별 세기를 색깔로 구분된 이미지로 변환하여 상기 음파 이미지를 생성하는 것을 특징으로 하는 손동작 분류 장치.
  2. 삭제
  3. 삭제
  4. 제1항에 있어서, 상기 음파 처리부는
    상기 반사 음파의 초기 지연 구간을 제외시키는 전처리 동작을 수행한 후, 나머지 구간의 상기 반사 음파에 상기 단시간 푸리에 변환 알고리즘을 적용하는 것을 특징으로 하는 손동작 분류 장치.
  5. 제1항에 있어서, 상기 표준 손동작 결정부는
    합성곱 신경망을 이용하여 상기 음파 이미지 모집단을 학습하는 것을 특징으로 하는 손동작 분류 장치.
  6. 제5항에 있어서, 상기 표준 손동작 결정부는
    상기 음파 이미지의 입력을 기초로 특정 수의 합성곱 연산 및 맥스 풀링 연산을 반복 수행한 후 적어도 한번의 평균 풀링 연산을 수행하여 상기 음파 이미지의 특징을 추출하고, 추출된 상기 음파 이미지의 특징을 통해 상기 표준 손동작을 결정하는 것을 특징으로 하는 손동작 분류 장치.
  7. 삭제
  8. 제1항에 있어서, 상기 기준 음파는
    19.8kHz~20.2kHz의 범위인 것을 특징으로 하는 손동작 분류 장치.
  9. 사용자 단말의 외부로 출력된 비가청 주파수 대역의 기준 음파가 상기 사용자 단말 상의 손동작에 의해 반사되어 녹음된 반사 음파를 시간에 대한 주파수 대역별 세기를 분석하여 음파 이미지를 생성하는 음파 처리부;
    음파 이미지 모집단을 기계학습하여 생성된 손동작 모델을 통해 상기 음파 이미지의 특징을 추출하여 상기 사용자 단말에서 발생한 적어도 하나의 이벤트를 제어하는 표준 손동작 모집단 중 상기 음파 이미지에 대응하는 표준 손동작을 결정하는 표준 손동작 결정부; 및
    상기 표준 손동작의 결정 과정에서 상기 손동작과 상기 표준 손동작 간의 정합도가 일정 비율 미만인 경우 상기 손동작을 추가로 학습하여 상기 손동작 모델을 조절하는 손동작 모델 조절부를 포함하고,
    상기 음파 처리부는
    상기 반사 음파에 단시간 푸리에 변환 알고리즘을 적용하여 시간에 대한 주파수 영역으로 변환하고, 상기 비가청 주파수 대역을 추출하여 상기 주파수 대역별 세기를 기 설정된 분해능 및 윈도 사이즈를 가지는 단시간 푸리에 변환을 통해 분석하고, 상기 분석된 주파수 대역별 세기를 색깔로 구분된 이미지로 변환하여 상기 음파 이미지를 생성하는 것을 특징으로 하는 손동작 분류 장치.
  10. 삭제
KR1020180169989A 2018-12-27 2018-12-27 손동작 분류 장치 KR102171441B1 (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020180169989A KR102171441B1 (ko) 2018-12-27 2018-12-27 손동작 분류 장치

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020180169989A KR102171441B1 (ko) 2018-12-27 2018-12-27 손동작 분류 장치

Publications (2)

Publication Number Publication Date
KR20200084451A KR20200084451A (ko) 2020-07-13
KR102171441B1 true KR102171441B1 (ko) 2020-10-29

Family

ID=71570781

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020180169989A KR102171441B1 (ko) 2018-12-27 2018-12-27 손동작 분류 장치

Country Status (1)

Country Link
KR (1) KR102171441B1 (ko)

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011009842A (ja) * 2009-06-23 2011-01-13 Sony Corp 音声信号処理装置および音声信号処理方法
JP2015179524A (ja) * 2010-06-29 2015-10-08 クゥアルコム・インコーポレイテッドQualcomm Incorporated 持続波超音波信号を使用したタッチレス感知およびジェスチャー認識

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100446353B1 (ko) 2001-11-30 2004-09-01 한국전자통신연구원 지문 정보를 이용한 사용자 인증 시스템 및 그 방법
KR101299031B1 (ko) * 2011-12-02 2013-09-16 재단법인대구경북과학기술원 손 제스처 인식 장치 및 그 방법
KR102343963B1 (ko) * 2017-05-30 2021-12-24 주식회사 케이티 손 제스처를 검출하는 컨볼루션 신경망, 그리고 손 제스처에 의한 기기 제어시스템

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011009842A (ja) * 2009-06-23 2011-01-13 Sony Corp 音声信号処理装置および音声信号処理方法
JP2015179524A (ja) * 2010-06-29 2015-10-08 クゥアルコム・インコーポレイテッドQualcomm Incorporated 持続波超音波信号を使用したタッチレス感知およびジェスチャー認識

Also Published As

Publication number Publication date
KR20200084451A (ko) 2020-07-13

Similar Documents

Publication Publication Date Title
CN112074901B (zh) 语音识别登入
US11122078B1 (en) Systems and methods for private authentication with helper networks
US12015637B2 (en) Systems and methods for end-to-end architectures for voice spoofing detection
CN107799126B (zh) 基于有监督机器学习的语音端点检测方法及装置
US20210350346A1 (en) System and method for using passive multifactor authentication to provide access to secure services
US8416998B2 (en) Information processing device, information processing method, and program
WO2019210796A1 (zh) 语音识别方法、装置、存储介质及电子设备
US11610577B2 (en) Methods and systems for providing changes to a live voice stream
KR102290186B1 (ko) 사람의 감성 상태를 결정하기 위하여 영상을 처리하는 감성인식 방법
KR102009106B1 (ko) 사용자 인증 방법
TW202213326A (zh) 用於說話者驗證的廣義化負對數似然損失
US20200202844A1 (en) Mobile terminal and method of operating the same
Adepu et al. Interviewee performance analyzer using facial emotion recognition and speech fluency recognition
Kadyrov et al. Speaker recognition from spectrogram images
CN109961152B (zh) 虚拟偶像的个性化互动方法、系统、终端设备及存储介质
CN113643707A (zh) 一种身份验证方法、装置和电子设备
KR20190119521A (ko) 전자 장치 및 그 동작 방법
Neelima et al. Mimicry voice detection using convolutional neural networks
KR102171441B1 (ko) 손동작 분류 장치
CN117423341A (zh) 声纹识别方法、声纹模型训练方法、装置、设备及介质
US20230017927A1 (en) Electronic apparatus and method for controlling thereof
JP6916130B2 (ja) 話者推定方法および話者推定装置
KR101171047B1 (ko) 음성 및 영상 인식 기능을 갖는 로봇 시스템 및 그의 인식 방법
KR20230114196A (ko) 감정 분석 방법 및 감정 분석 장치
Tak End-to-End Modeling for Speech Spoofing and Deepfake Detection

Legal Events

Date Code Title Description
E701 Decision to grant or registration of patent right