KR102021531B1 - 연속파 레이더를 이용한 미세 손 동작 인식 장치 및 그 방법 - Google Patents

연속파 레이더를 이용한 미세 손 동작 인식 장치 및 그 방법 Download PDF

Info

Publication number
KR102021531B1
KR102021531B1 KR1020190035838A KR20190035838A KR102021531B1 KR 102021531 B1 KR102021531 B1 KR 102021531B1 KR 1020190035838 A KR1020190035838 A KR 1020190035838A KR 20190035838 A KR20190035838 A KR 20190035838A KR 102021531 B1 KR102021531 B1 KR 102021531B1
Authority
KR
South Korea
Prior art keywords
value
trigger
time point
data
calculated
Prior art date
Application number
KR1020190035838A
Other languages
English (en)
Inventor
이성주
유명석
Original Assignee
세종대학교 산학협력단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 세종대학교 산학협력단 filed Critical 세종대학교 산학협력단
Priority to KR1020190035838A priority Critical patent/KR102021531B1/ko
Application granted granted Critical
Publication of KR102021531B1 publication Critical patent/KR102021531B1/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/02Systems using reflection of radio waves, e.g. primary radar systems; Analogous systems
    • G01S13/04Systems determining presence of a target
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/02Systems using reflection of radio waves, e.g. primary radar systems; Analogous systems
    • G01S13/06Systems determining position data of a target
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/02Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S13/00
    • G01S7/41Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S13/00 using analysis of echo signal for target characterisation; Target signature; Target cross-section
    • G01S7/415Identification of targets based on measurements of movement associated with the target
    • G06K9/00355
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/20Movements or behaviour, e.g. gesture recognition
    • G06V40/28Recognition of hand or arm movements, e.g. recognition of deaf sign language

Landscapes

  • Engineering & Computer Science (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Health & Medical Sciences (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Health & Medical Sciences (AREA)
  • Psychiatry (AREA)
  • Social Psychology (AREA)
  • Multimedia (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

본 발명은 연속파 레이더를 이용한 미세 손 동작 인식 장치 및 그 방법에 관한 것이다.
본 발명에 따르면, 미세 손 동작 인식 장치를 이용한 미세 손 동작 인식 방법에 있어서, 연속파 레이더를 이용하여 실시간으로 사용자의 손을 검출하고 마이크로 도플러 데이터를 획득하는 단계, 상기 획득한 마이크로 도플러 데이터에 대하여 윈도윙 영역을 설정하고, 상기 설정된 윈도윙 영역에 해당되는 트리거 값을 연산하는 단계, 연산된 현재 시점의 트리거 값과 이후 시점의 트리거 값의 비율을 이용하여 트리거 비율을 연산하고, 연산된 트리거 비율 중에서 가장 큰 트리거 비율을 가지는 제1 시점을 획득하는 단계, 상기 제1 시점을 기준으로 전후에 기준시간에 해당되는 범위를 설정하고, 상기 선정된 범위 내에서 가장 큰 트리거 값을 가지는 제2 시점을 선택하는 단계, 그리고 상기 제2 시점에 해당되는 데이터를 STFT(SHORT TERM FOURIER TRANSFORM)에 적용하여 상기 스펙토그램 데이터를 생성하고, 상기 생성된 데이터를 딥러닝(Deep learning)에 적용하여 사용자의 미세 손 동작을 인식하는 단계를 포함한다.

Description

연속파 레이더를 이용한 미세 손 동작 인식 장치 및 그 방법 {APPARATUS FOR MICRO HAND MOTION RECOGNITION USING CONTINUOUS WAVE RADAR AND METHOD THEREOF}
본 발명은 연속파 레이더를 이용한 미세 손 동작 인식 장치 및 그 방법에 관한 것으로, 보다 상세하게는 미세한 손 동작을 인식하기 위한 연속파 레이더를 이용한 미세 손 동작 인식 장치 및 그 방법에 관한 것이다.
센서 기술은 사용자의 정보나 주변 정보를 습득하여 사용자로 하여금 원하는 동작을 할 수 있도록 사용되었으며, 최근 IoT 기술이 대두되면서 센서를 이용하여 스마트 디바이스를 제어할 수 있도록 하는 연구가 활발히 진행되고 있다.
또한, 딥런닝(Deep learning) 기술이 발달함에 따라 센서를 이용한 단순한 정보를 인식하는 것에서 더욱 복잡한 정보를 인식하고, 센서의 복잡한 정보의 인식률이 높아지고 복잡하고 다양한 정보를 통해 디바이스를 제어할 수 있게 되었다.
기존의 사용자의 손 동작을 획득하기 위한 방법은 사용자가 손 동작을 획득하는 기기를 이용하거나, 다수의 광센서 또는 카메라를 활용하여 손 동작을 획득 하였지만, 이 경우 환경의 영향, 명암 및 장애물 등에 의해 사용범위가 한정적인 단점을 가지고 있다.
또한, 동작이 큰 손 동작에 대해서 수월하게 측정이 가능하였지만 미세한 움직임의 경우 측정하는데 있어서 어려움이 있었다.
이러한 단점을 개선하기 위해 레이더를 이용한 손 동작 인식방법이 필요하게 되었다.
본 발명의 배경이 되는 기술은 대한민국 국내 공개특허 10-2017-0012422(2017.02.02 공고)에 개시되어 있다.
본 발명이 이루고자 하는 기술적 과제는 미세한 손 동작을 인식하기 위한 연속파 레이더를 이용한 미세 손 동작 인식 장치 및 그 방법에 관한 것이다.
이러한 기술적 과제를 이루기 위한 본 발명의 실시 예에 따르면, 미세 손 동작 인식 장치를 이용한 미세 손 동작 인식 방법에 있어서, 연속파 레이더를 이용하여 실시간으로 사용자의 손을 검출하고 마이크로 도플러 데이터를 획득하는 단계, 상기 획득한 마이크로 도플러 데이터에 대하여 윈도윙 영역을 설정하고, 상기 설정된 윈도윙 영역에 해당되는 트리거 값을 연산하는 단계, 연산된 현재 시점의 트리거 값과 이후 시점의 트리거 값의 비율을 이용하여 트리거 비율을 연산하고, 연산된 트리거 비율 중에서 가장 큰 트리거 비율을 가지는 제1 시점을 획득하는 단계, 상기 제1 시점을 기준으로 전후에 기준시간에 해당되는 범위를 설정하고, 상기 선정된 범위 내에서 가장 큰 트리거 값을 가지는 제2 시점을 선택하는 단계, 그리고 상기 제2 시점에 해당되는 데이터를 STFT(SHORT TERM FOURIER TRANSFORM)에 적용하여 상기 스펙토그램 데이터를 생성하고, 상기 생성된 데이터를 딥러닝(Deep learning)에 적용하여 사용자의 미세 손 동작을 인식하는 단계를 포함한다.
상기 트리거 값을 연산하는 단계는, 다음의 수학식과 같이, 현재 시점의 윈도윙 영역의 값과 다음 시점의 윈도윙 영역에서의 값의 차이를 절대값으로 변환하여 디퍼 값을 연산할 수 있다.
Figure 112019031924339-pat00001
여기서, k는 윈도윙의 크기에 대한 상수이고, window[k]는 k번째 윈도윙 영역에서의 마이크로 도플러 데이터 값이며, differ[k]는 k번째의 디퍼 값이고, a 는 연산된 실수 값이고, b는 연산된 허수 값이다.
상기 트리거 값을 연산하는 단계는, 다음의 수학식과 같이, 상기 트리거 값은 상기 디퍼 값의 합으로 연산될 수 있다.
Figure 112019031924339-pat00002
여기서, a는 상기 윈도윙 영역의 크기를 나타낸다.
상기 트리거 비율은, 다음의 수학식과 같이, 이후 시점에서의 트리거 값을 현재 시점의 트리거 값으로 나눈 값일 수 있다.
Figure 112019031924339-pat00003
여기서, trigger ratio는 트리거 비율이고, n은 현재 시점이고, n+delay는 이후 시점이며, delay는 지연된 시간을 나타낸다.
상기 기준시간은, 0.1초에 해당하는 시간일 수 있다.
본 발명의 다른 실시예에 따르면, 사용자의 손 동작을 미세하게 인식하기 위한 미세 손 동작 인식 장치에 있어서, 연속파 레이더를 이용하여 실시간으로 사용자의 손을 검출하고 마이크로 도플러 데이터를 획득하는 데이터 획득부, 상기 획득한 마이크로 도플러 데이터에 대하여 윈도윙 영역을 설정하고, 상기 설정된 윈도윙 영역에 해당되는 트리거 값을 연산하는 연산부, 연산된 현재 시점의 트리거 값과 이후 시점의 트리거 값의 비율을 이용하여 트리거 비율을 연산하고, 연산된 트리거 비율 중에서 가장 큰 트리거 비율을 가지는 제1 시점을 획득하고, 상기 제1 시점을 기준으로 전후에 기준시간에 해당되는 범위를 설정하고, 상기 선정된 범위 내에서 가장 큰 트리거 값을 가지는 제2 시점을 선택하는 제어부, 그리고 상기 제2 시점에 해당되는 데이터를 STFT(SHORT TERM FOURIER TRANSFORM)에 적용하여 상기 스펙토그램 데이터를 생성하고, 상기 생성된 데이터를 딥러닝(Deep learning)에 적용하여 사용자의 미세 손 동작을 인식하는 인식부를 포함한다.
이와 같이 본 발명에 따르면, 사용자의 미세한 손 동작을 환경의 영향, 명암 및 장애물의 구분 없이 실시간으로 획득할 수 있으며, 딥 러닝 기술을 이용하여 생성된 스펙토그램에 해당되는 미세 손 동작을 실시간으로 정확하게 추출할 수 있다.
도 1은 본 발명의 실시예에 따른 미세 손 동작 인식장치의 구성을 나타낸 구성도이다.
도 2는 본 발명의 실시예에 따른 미세 손 동작 인식 방법을 나타낸 순서도이다.
도 3은 도 2의 S230단계를 설명하기 위한 도면이다.
도 4는 도 2의 S240단계를 설명하기 위한 도면이다.
도 5는 본 발명의 실시예에 따른 제2 시점을 나타낸 도면이다.
도 6은 도 2의 S250단계를 설명하기 위한 도면이다.
아래에서는 첨부한 도면을 참조하여 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자가 용이하게 실시할 수 있도록 본 발명의 실시 예를 상세히 설명한다. 그러나 본 발명은 여러 가지 상이한 형태로 구현될 수 있으며 여기에서 설명하는 실시 예에 한정되지 않는다. 그리고 도면에서 본 발명을 명확하게 설명하기 위해서 설명과 관계없는 부분은 생략하였으며 명세서 전체를 통하여 유사한 부분에 대해서는 유사한 도면 부호를 붙였다.
명세서 전체에서, 어떤 부분이 어떤 구성요소를 "포함"한다고 할 때, 이는 특별히 반대되는 기재가 없는 한 다른 구성요소를 제외하는 것이 아니라 다른 구성요소를 더 포함할 수 있는 것을 의미한다.
그러면 첨부한 도면을 참고로 하여 본 발명의 실시 예에 대하여 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자가 용이하게 실시할 수 있도록 상세히 설명한다.
도 1은 본 발명의 실시예에 따른 미세 손 동작 인식장치의 구성을 나타낸 구성도이다.
도 1에서 나타낸 것처럼, 본 발명의 실시예에 따른 미세 손 동작 인식 장치(100)는 데이터 획득부(110), 연산부(120), 제어부(130) 및 인식부(140)를 포함한다.
먼저 데이터 획득부(110)는 연속파 레이더를 이용하여 실시간으로 사용자의 손을 검출하고 마이크로 도플러 데이터를 획득한다,
여기서, 마이크로 도플러(Micro Doppler) 데이터는 소리 또는 빛과 같은 파동이 300MHz~30GHz 대역에서 자체의 운동이나 관찰하는 사람의 운동 상태에 따라 변경되는 변경되는 데이터로서, 본 발명에서는 레이더를 이용하여 측정된다.
다음으로, 연산부(120)는 획득한 마이크로 도플러 데이터에 대하여 윈도윙 영역을 설정하고, 상기 설정된 윈도윙 영역에 해당되는 트리거 값을 연산한다.
이때, 트리거 값은 현재 시점의 윈도윙 영역의 값과 다음 시점의 윈도윙 영역에서의 값의 차이를 절대값으로 변환하여 디퍼 값을 연산하고, 연산된 디퍼값의 합이다.
그리고, 제어부(130)는 연산된 현재 시점의 트리거 값과 이후 시점의 트리거 값의 비율을 이용하여 트리거 비율을 연산하고, 연산된 트리거 비율 중에서 가장 큰 트리거 비율을 가지는 제1 시점을 획득한.
또한, 제어부(130)는 제1 시점을 기준으로 전후에 기준시간에 해당되는 범위를 설정하고, 선정된 범위 내에서 가장 큰 트리거 값을 가지는 제2 시점을 선택한다.
여기서, 트리거 비율은 이후 시점에서의 트리거 값을 현재 시점의 트리거 값으로 나눈 값이다.
다음으로, 인식부(140)는 제2 시점에 해당되는 데이터를 STFT(SHORT TERM FOURIER TRANSFORM)에 적용하여 상기 스펙토그램 데이터를 생성하고, 생성된 데이터를 딥러닝(Deep learning)에 적용하여 사용자의 미세 손 동작을 인식한다.
또한, 딥 러닝은 기계학습 알고리즘을 이용하여 사람의 사고방식을 컴퓨터 또는 기계에게 가르치는 분야이며, 본 발명에서는 스펙토그램 데이터를 해석하고 손 동작을 인식하는데 사용한다.
그리고, 스펙토그램은 소리나 파형을 시각화 하여 파악하기 위한 도구로 시간에 따른 진폭의 변화를 확인할 수 있으며, 표시 색상의 차이를 이용하여 진폭의 차이를 나타낸다.
이하에서는 도 2 내지 도 6을 이용하여 미세 손 동작 인식 방법을 설명한다.
도 2는 본 발명의 실시예에 따른 미세 손 동작 인식 방법을 나타낸 순서도이다.
먼저, 도 2에서 나타낸 것처럼, 데이터 획득부(110)는 연속파 레이더를 이용하여 실시간으로 사용자의 손을 검출하고 마이크로 도플러 데이터를 획득한다(S210).
그러면, 연산부(120)는 획득한 마이크로 도플러 데이터에 대하여 윈도윙 영역을 설정하고, 상기 설정된 윈도윙 영역에 해당되는 트리거 값을 연산한다(S220)
그러면, 연산부(120)는 트리거 값을 연산하기 위해 디퍼값을 먼저 연산한다.
여기서, 연산부(120)는 획득한 마이크로 도플러 데이터를 아래의 수학식 1에 적용하여 디퍼값을 연산한다.
Figure 112019031924339-pat00004
여기서, k는 윈도윙의 크기에 대한 상수이고, window[k]는 k번째 윈도윙 영역에서의 마이크로 도플러 데이터 값이며, differ[k]는 k번째의 디퍼 값이고, a 는 연산된 실수 값이고, b는 연산된 허수 값이다.
이때, 수학식 1에 나타낸 것처럼, 연산부(121)는 연산량을 줄이기 위해 실수부 값의 제곱과 허수부 값의 제곱의 합으로 연산한다.
그러면, 연산부(121)는 연산된 디퍼 값을 아래의 수학식 2에 적용하여 트리거 값(trigger)을 연산한다.
Figure 112019031924339-pat00005
여기서, a는 윈도윙 영역의 크기를 나타낸다.
즉, 수학식 2에 나타낸 것처럼, 각 윈도윙 영역의 트리거 값은 윈도윙 영역내에 존재하는 디퍼 값들의 합이다.
다음으로, 제어부(130)는 연산된 현재 시점의 트리거 값과 이후 시점의 트리거 값의 비율을 이용하여 트리거 비율을 연산하고, 연산된 트리거 비율 중에서 가장 큰 트리거 비율을 가지는 제1 시점을 획득한다(S230).
여기서, 제어부(130)는 연산된 트리거 값을 수학식 3에 적용하여 트리거 비율을 연산한다.
Figure 112019031924339-pat00006
여기서, trigger ratio는 트리거 비율이고, n은 현재 시점이고, n + delay는 이후 시점이며, delay는 지연된 시간을 나타낸다.
특히, delay는 미세 손 동작 인식 장치(100)에 등록된 시간이며, 사용자에 의해 변경이 가능한 시간이다.
예를들어, 현재 시점에서의 트리거 값이 1이고, 이후 시점에서의 트리거 값이 1.3이라고 하면, 제어부(130)는 트리거 비율을 1.3으로 연산한다.
도 3은 도 2의 S230단계를 설명하기 위한 도면이다.
제어부(130)는 각각의 시점에 해당되는 트리거 비율을 수학식 3과 같이 연산하여, 도 3과 같은 그래프로 표시할 수 있다.
여기서, 가로축은 시점을 나타내며, 세로축은 트리거 비율값을 나타낸다.
그리고, 제어부(130)는 도 3에서 표시한 것과 같이 가장 큰 트리거 비율을 가지는 시점을 제1 시점으로 선택한다.
따라서, 도 3에 나타낸 실시예에 따르면, 대략 2700ms에 해당되는 시점이 제1 시점이 된다.
그러면, 제어부(130)는 제1 시점을 기준으로 전후에 기준시간에 해당되는 범위를 설정하고, 선정된 범위 내에서 가장 큰 트리거 값을 가지는 제2 시점을 선택한다(S240).
도 4는 도 2의 S240단계를 설명하기 위한 도면이고, 도 5는 본 발명의 실시예에 따른 제2 시점을 나타낸 도면이다.
도 4에서 나타낸 것처럼, 제어부(130)는 제1 시점을 기준으로 전후에 기준시간에 해당되는 시간의 트리거 값을 검출하고, 검출된 트리거 값 중에서 가장 큰 값을 가지는 시점을 제2 시점으로 선택한다.
예를 들어, 도 5에서 원형으로 표시한 부분의 트리거 값이 가장 큰 것으로 판단하면, 제어부(130)는 해당되는 시점인 2750ms을 제2 시점으로 선택한다.
다음으로, 인식부(140)는 제2 시점에 해당되는 데이터를 STFT(SHORT TERM FOURIER TRANSFORM)에 적용하여 상기 스펙토그램 데이터를 생성하고, 생성된 데이터를 딥 러닝(Deep learning)에 적용하여 사용자의 미세 손 동작을 인식한다(S250).
도 6은 도 2의 S250단계를 설명하기 위한 도면이다.
즉, 도 6에서 나타낸 것처럼, 인식부(140)는 스펙토그램 데이터를 생성하고, 생성된 스펙토그램의 크기에 따라 색상을 변경하여 표시한다.
즉, 스펙토그램의 데이터의 값이 크면 붉은 색으로 나타내고 작으면 파란색으로 나타낸다.
또한, 인식부(140)는 실시간으로 획득되는 스펙토그램 데이터와 사용자의 손동작을 딥 러닝 기술을 이용하여 정확하게 사용자의 손 동작을 인식할 수 있다.
이와 같이 본 발명의 실시예에 따르면, 사용자의 미세한 손 동작을 환경의 영향, 명암 및 장애물의 구분 없이 실시간으로 획득할 수 있으며, 딥 러닝 기술을 이용하여 생성된 스펙토그램에 해당되는 미세 손 동작을 실시간으로 정확하게 인식할 수 있다.
본 발명은 도면에 도시된 실시 예를 참고로 설명 되었으나 이는 예시적인 것이 불과하며, 본 기술 분야의 통상의 지식을 가진 자라면 이로부터 다양한 변형 및 균등한 다른 실시 예가 가능하다는 점을 이해할 것이다 .따라서, 본 발명의 진정한 기술적 보호 범위는 첨부된 특허청구범위의 기술적 사상에 의하여 정해져야 할 것이다.
100: 미세 손 동작 인식 장치, 110: 데이터 획득부,
120: 연산부, 130: 제어부,
140: 인식부

Claims (10)

  1. 미세 손 동작 인식 장치를 이용한 미세 손 동작 인식 방법에 있어서,
    연속파 레이더를 이용하여 실시간으로 사용자의 손을 검출하고 마이크로 도플러 데이터를 획득하는 단계,
    상기 획득한 마이크로 도플러 데이터에 대하여 윈도윙 영역을 설정하고, 상기 설정된 윈도윙 영역에 해당되는 트리거 값을 연산하는 단계,
    연산된 현재 시점의 트리거 값과 이후 시점의 트리거 값의 비율을 이용하여 트리거 비율을 연산하고, 연산된 트리거 비율 중에서 가장 큰 트리거 비율을 가지는 제1 시점을 획득하는 단계,
    상기 제1 시점을 기준으로 전후에 기준시간에 해당되는 범위를 설정하고, 상기 설정된 범위 내에서 가장 큰 트리거 값을 가지는 제2 시점을 선택하는 단계, 그리고
    상기 제2 시점에 해당되는 데이터를 STFT(SHORT TERM FOURIER TRANSFORM)에 적용하여 스펙토그램 데이터를 생성하고, 상기 생성된 데이터를 딥러닝(Deep learning)에 적용하여 사용자의 미세 손 동작을 인식하는 단계를 포함하고,
    상기 트리거 비율은,
    다음의 수학식과 같이, 이후 시점에서의 트리거 값을 현재 시점의 트리거 값으로 나눈 값인 미세 손동작 인식방법:
    Figure 112019503125921-pat00019

    여기서, trigger ratio는 트리거 비율이고, n은 현재 시점이고, n+delay는 이후 시점이며, delay는 지연된 시간을 나타낸다.
  2. 제1항에 있어서,
    상기 트리거 값을 연산하는 단계는,
    다음의 수학식과 같이, 현재 시점의 윈도윙 영역의 값과 다음 시점의 윈도윙 영역에서의 값의 차이를 절대값으로 변환하여 디퍼 값을 연산하는 미세 손 동작 인식 방법:
    Figure 112019031924339-pat00007

    여기서, k는 윈도윙의 크기에 대한 상수이고, window[k]는 k번째 윈도윙 영역에서의 마이크로 도플러 데이터 값이며, differ[k]는 k번째의 디퍼 값이고, a 는 연산된 실수 값이고, b는 연산된 허수 값이다.
  3. 제2항에 있어서,
    상기 트리거 값을 연산하는 단계는,
    다음의 수학식과 같이, 상기 트리거 값은 상기 디퍼 값의 합으로 연산되는 미세 손 동작 인식 방법:
    Figure 112019031924339-pat00008

    여기서, a는 상기 윈도윙 영역의 크기를 나타낸다.
  4. 삭제
  5. 제1항에 있어서,
    상기 기준시간은,
    0.1초에 해당하는 시간인 미세 손 동작 인식 방법.
  6. 사용자의 손 동작을 인식하기 위한 미세 손 동작 인식 장치에 있어서,
    연속파 레이더를 이용하여 실시간으로 사용자의 손을 검출하고 마이크로 도플러 데이터를 획득하는 데이터 획득부,
    상기 획득한 마이크로 도플러 데이터에 대하여 윈도윙 영역을 설정하고, 상기 설정된 윈도윙 영역에 해당되는 트리거 값을 연산하는 연산부,
    연산된 현재 시점의 트리거 값과 이후 시점의 트리거 값의 비율을 이용하여 트리거 비율을 연산하고, 연산된 트리거 비율 중에서 가장 큰 트리거 비율을 가지는 제1 시점을 획득하고, 상기 제1 시점을 기준으로 전후에 기준시간에 해당되는 범위를 설정하고, 상기 설정된 범위 내에서 가장에 큰 트리거 값을 가지는 제2 시점을 선택하는 제어부, 그리고
    상기 제2 시점에 해당되는 데이터를 STFT(SHORT TERM FOURIER TRANSFORM)에 적용하여 스펙토그램 데이터를 생성하고, 상기 생성된 데이터를 딥러닝(Deep learning)에 적용하여 사용자의 미세 손 동작을 인식하는 인식부를 포함하고,
    상기 트리거 비율은,
    다음의 수학식과 같이, 다음 시점에서의 트리거 값을 현재의 트리거 값으로 나눈 값인 미세 손동작 인식 장치:
    Figure 112019503125921-pat00020

    여기서, trigger ratio는 트리거 비율이고, n은 시점이고, delay는 다음 시점의 값을 나타낸다.
  7. 제6항에 있어서,
    상기 연산부는,
    다음의 수학식과 같이, 현재 윈도윙 영역의 값과 다음 윈도윙 영역에서의 값의 차이를 절대값으로 변환하여 디퍼 값을 연산하는 미세 손 동작 인식 장치:
    Figure 112019031924339-pat00010

    여기서, k는 윈도윙의 크기에 대한 상수이고, window[k]는 k번째 윈도윙 영역에서의 마이크로 도플러 데이터 값이며, differ[k]는 k번째의 디퍼 값이고, a 는 연산된 실수 값이고, b는 연산된 허수 값이다.
  8. 제7항에 있어서,
    상기 연산부는,
    다음의 수학식과 같이, 상기 트리거 값은 상기 디퍼 값의 합으로 연산되는 미세 손 동작 인식 장치:
    Figure 112019031924339-pat00011

    여기서, a는 상기 윈도윙 영역의 크기를 나타낸다.
  9. 삭제
  10. 제6항에 있어서,
    상기 기준 시간은,
    0.1초에 해당하는 시간인 미세 손 동작 인식 장치.
KR1020190035838A 2019-03-28 2019-03-28 연속파 레이더를 이용한 미세 손 동작 인식 장치 및 그 방법 KR102021531B1 (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020190035838A KR102021531B1 (ko) 2019-03-28 2019-03-28 연속파 레이더를 이용한 미세 손 동작 인식 장치 및 그 방법

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020190035838A KR102021531B1 (ko) 2019-03-28 2019-03-28 연속파 레이더를 이용한 미세 손 동작 인식 장치 및 그 방법

Publications (1)

Publication Number Publication Date
KR102021531B1 true KR102021531B1 (ko) 2019-11-04

Family

ID=68578058

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020190035838A KR102021531B1 (ko) 2019-03-28 2019-03-28 연속파 레이더를 이용한 미세 손 동작 인식 장치 및 그 방법

Country Status (1)

Country Link
KR (1) KR102021531B1 (ko)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110850386A (zh) * 2019-11-20 2020-02-28 中北大学 一种基于分数阶域特征的旋翼类无人机深度学习识别方法
CN111813223A (zh) * 2020-07-09 2020-10-23 电子科技大学 一种基于高分辨雷达信号的手势自动分割识别方法
CN111929654A (zh) * 2020-08-14 2020-11-13 上海雷骥电子科技有限公司 一种基于微多普勒技术的杂波抑制方法
KR20220059806A (ko) 2020-11-03 2022-05-10 재단법인대구경북과학기술원 펄스 레이더에 기반한 동작 인식 장치 및 방법
CN114625333A (zh) * 2022-03-08 2022-06-14 深圳康荣电子有限公司 一种可记录手势指令进行控制的液晶拼接lcd系统及方法
KR20230029330A (ko) * 2021-08-24 2023-03-03 세종대학교산학협력단 마이크로 도플러 레이더에서 스펙트로그램 추출을 위한 전처리 신호처리 방법
KR20240076201A (ko) 2022-11-23 2024-05-30 세종대학교산학협력단 인식거리별 학습 및 추론이 가능한 손동작 인식방법 및 시스템

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20180030123A (ko) * 2015-10-06 2018-03-21 구글 엘엘씨 레이더-사용가능 센서 퓨전
KR20190005740A (ko) * 2017-07-07 2019-01-16 인피니언 테크놀로지스 아게 레이더 센서를 사용하여 타겟을 식별하는 시스템 및 방법

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20180030123A (ko) * 2015-10-06 2018-03-21 구글 엘엘씨 레이더-사용가능 센서 퓨전
KR20190005740A (ko) * 2017-07-07 2019-01-16 인피니언 테크놀로지스 아게 레이더 센서를 사용하여 타겟을 식별하는 시스템 및 방법

Cited By (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110850386A (zh) * 2019-11-20 2020-02-28 中北大学 一种基于分数阶域特征的旋翼类无人机深度学习识别方法
CN110850386B (zh) * 2019-11-20 2023-04-18 中北大学 一种基于分数阶域特征的旋翼类无人机深度学习识别方法
CN111813223A (zh) * 2020-07-09 2020-10-23 电子科技大学 一种基于高分辨雷达信号的手势自动分割识别方法
CN111813223B (zh) * 2020-07-09 2022-04-22 电子科技大学 一种基于高分辨雷达信号的手势自动分割识别方法
CN111929654A (zh) * 2020-08-14 2020-11-13 上海雷骥电子科技有限公司 一种基于微多普勒技术的杂波抑制方法
CN111929654B (zh) * 2020-08-14 2024-04-26 上海雷骥电子科技有限公司 一种基于微多普勒技术的杂波抑制方法
KR20220059806A (ko) 2020-11-03 2022-05-10 재단법인대구경북과학기술원 펄스 레이더에 기반한 동작 인식 장치 및 방법
WO2022097894A1 (ko) * 2020-11-03 2022-05-12 재단법인대구경북과학기술원 펄스 레이더에 기반한 동작 인식 장치 및 방법
KR102495377B1 (ko) * 2020-11-03 2023-02-06 재단법인대구경북과학기술원 펄스 레이더에 기반한 동작 인식 장치 및 방법
KR20230029330A (ko) * 2021-08-24 2023-03-03 세종대학교산학협력단 마이크로 도플러 레이더에서 스펙트로그램 추출을 위한 전처리 신호처리 방법
KR102625707B1 (ko) * 2021-08-24 2024-01-16 세종대학교산학협력단 마이크로 도플러 레이더에서 스펙트로그램 추출을 위한 전처리 신호처리 방법
CN114625333B (zh) * 2022-03-08 2022-10-18 深圳康荣电子有限公司 一种可记录手势指令控制液晶拼接lcd的方法及系统
CN114625333A (zh) * 2022-03-08 2022-06-14 深圳康荣电子有限公司 一种可记录手势指令进行控制的液晶拼接lcd系统及方法
KR20240076201A (ko) 2022-11-23 2024-05-30 세종대학교산학협력단 인식거리별 학습 및 추론이 가능한 손동작 인식방법 및 시스템

Similar Documents

Publication Publication Date Title
KR102021531B1 (ko) 연속파 레이더를 이용한 미세 손 동작 인식 장치 및 그 방법
KR101988182B1 (ko) 연속파 레이더를 이용한 손 동작 인식 장치 및 그 방법
Kim et al. A hand gesture recognition sensor using reflected impulses
US20200217930A1 (en) Method for gesture recognition, terminal, and storage medium
Liu et al. M-gesture: Person-independent real-time in-air gesture recognition using commodity millimeter wave radar
KR102002112B1 (ko) 제스처 추적 및 인식을 위한 rf―기반 마이크로―모션 추적
US9201545B2 (en) Motion feedback
US11686815B2 (en) Character recognition in air-writing based on network of radars
CN110741385B (zh) 手势识别的方法和设备、定位追踪的方法和设备
US10775483B1 (en) Apparatus for detecting and recognizing signals and method thereof
US9377859B2 (en) Enhanced detection of circular engagement gesture
US20170154471A1 (en) Apparatus and method for providing augmented reality interaction service
US8860660B2 (en) System and method of determining pupil center position
US9910490B2 (en) System and method of cursor position control based on the vestibulo-ocular reflex
US20130169532A1 (en) System and Method of Moving a Cursor Based on Changes in Pupil Position
CN107168526B (zh) 一种基于被动式rfid标签的非接触式虚拟屏操作识别方法
TW201510781A (zh) 手勢辨識方法及穿戴式裝置
KR20210004360A (ko) 공중 제스쳐 인식 장치 및 방법
KR102140045B1 (ko) 미러 패딩을 이용한 손 동작 인식 장치 및 그 방법
KR20020017576A (ko) 화상을 이용한 모션 캡처 시스템과 모션 캡처 방법
Kong et al. Gesture recognition system based on ultrasonic FMCW and ConvLSTM model
Rahman et al. Word-level ASL recognition and trigger sign detection with RF sensors
CN116593978A (zh) 一种基于点云的手势检测方法、系统、存储介质
Zhu et al. RFMonitor: Monitoring smoking behavior of minors using COTS RFID devices
Rippl et al. Analysis of pedestrian gait patterns using radar based Micro-Doppler Signatures for the protection of vulnerable road users

Legal Events

Date Code Title Description
E701 Decision to grant or registration of patent right
GRNT Written decision to grant