KR20230020310A - Electronic apparatus and Method for recognizing a user gesture thereof - Google Patents

Electronic apparatus and Method for recognizing a user gesture thereof Download PDF

Info

Publication number
KR20230020310A
KR20230020310A KR1020210102237A KR20210102237A KR20230020310A KR 20230020310 A KR20230020310 A KR 20230020310A KR 1020210102237 A KR1020210102237 A KR 1020210102237A KR 20210102237 A KR20210102237 A KR 20210102237A KR 20230020310 A KR20230020310 A KR 20230020310A
Authority
KR
South Korea
Prior art keywords
gesture
image
electronic device
eigenvalues
user
Prior art date
Application number
KR1020210102237A
Other languages
Korean (ko)
Other versions
KR102660365B1 (en
Inventor
이종훈
김봉석
김상동
송승언
Original Assignee
재단법인대구경북과학기술원
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 재단법인대구경북과학기술원 filed Critical 재단법인대구경북과학기술원
Priority to KR1020210102237A priority Critical patent/KR102660365B1/en
Publication of KR20230020310A publication Critical patent/KR20230020310A/en
Application granted granted Critical
Publication of KR102660365B1 publication Critical patent/KR102660365B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/20Movements or behaviour, e.g. gesture recognition
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/88Radar or analogous systems specially adapted for specific applications
    • G01S13/89Radar or analogous systems specially adapted for specific applications for mapping or imaging
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • G06T3/40Scaling of whole images or parts thereof, e.g. expanding or contracting
    • G06T3/4084Scaling of whole images or parts thereof, e.g. expanding or contracting in the transform domain, e.g. fast Fourier transform [FFT] domain scaling
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/28Quantising the image, e.g. histogram thresholding for discrimination between background and foreground patterns
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10024Color image

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Remote Sensing (AREA)
  • General Engineering & Computer Science (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Human Computer Interaction (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Multimedia (AREA)
  • Evolutionary Computation (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Data Mining & Analysis (AREA)
  • Biophysics (AREA)
  • Biomedical Technology (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Computational Linguistics (AREA)
  • Psychiatry (AREA)
  • Social Psychology (AREA)
  • Artificial Intelligence (AREA)
  • Electromagnetism (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

Provided are an electronic device and a method for recognizing a gesture thereof. The method for recognizing the gesture of the electronic device comprises: a step of outputting a radar signal; a step of acquiring a bit signal based on the radar signal reflected by a gesture of a user; a step of converting the bit signal into an image; a step of compressing the converted image using singularity decomposition; and a step of inputting the compressed image into a learned neural network model to identify a user gesture. Therefore, the present invention is capable of having an effect of minimizing a sensor cost.

Description

전자 장치 및 이의 제스처 인식 방법{Electronic apparatus and Method for recognizing a user gesture thereof}Electronic apparatus and method for recognizing a user's gesture

본 개시는 전자 장치 및 이의 제스처 인식 방법에 관한 것으로, 더욱 상세하게는 사용자 제스처에 의해 획득된 레이더 신호에 기초하여 사용자 제스처를 인식하는 전자 장치 및 이의 제스처 인식 방법에 관한 것이다.The present disclosure relates to an electronic device and a gesture recognition method thereof, and more particularly, to an electronic device that recognizes a user gesture based on a radar signal obtained by a user gesture and a gesture recognition method thereof.

레이더는 군수용뿐만 아니라 민간용으로 다양하고 폭넓게 응용되고 있다. 최근에는 자율주행차량용 능동안전 장치, 생체신호 감지 장치, 제스처 인식 등에 이용되고 있다.Radar is widely applied not only for military purposes but also for civilian purposes. Recently, active safety devices for self-driving vehicles, bio-signal sensing devices, and gesture recognition are being used.

특히, 도플러 레이더는 연속적인 레이더 신호를 이용하여 타겟의 움직임을 추적할 수 있으므로, 움직이는 타겟에 대한 민감도가 높아 사람의 제스처 인식용으로 크게 주목받고 있다.In particular, since the Doppler radar can track the movement of a target using continuous radar signals, it has a high sensitivity to a moving target and thus has attracted great attention for recognizing human gestures.

특히, 다양한 제스처 인식 기술 중 발동작 제스처 인식 기술은 손을 사용할 수 없는 환경에 놓인 상태에서 전자 장치를 제어할 수 있는 유용한 기술이다. 다만, 기존의 레이더 기반 발동작 제스처 인식 기술은 고해상도 레이더 신호를 이용하여 때문에 대용량의 메모리가 필요한 단점이 존재한다. In particular, among various gesture recognition technologies, a foot motion gesture recognition technology is a useful technology capable of controlling an electronic device in an environment in which hands cannot be used. However, since the existing radar-based foot motion gesture recognition technology uses a high-resolution radar signal, there is a disadvantage in that a large amount of memory is required.

본 개시는 상술한 문제점을 해결하기 위해 안출된 것으로, 본 개시의 목적은 사용자의 제스처에 의해 획득된 레이더 신호를 이미지로 변환하고, 특이점 분해(Singular Value Decompostion)을 이용하여 변환된 이미지를 압축하며, 압축된 이미지를 신경망 모델에 입력하여 제스처를 인식할 수 있는 전자 장치 및 이의 제스처 인식 방법을 제공함에 있다.The present disclosure has been made to solve the above problems, and an object of the present disclosure is to convert a radar signal obtained by a user's gesture into an image, compress the converted image using singular value decomposition, To provide an electronic device capable of recognizing a gesture by inputting a compressed image to a neural network model and a gesture recognition method thereof.

본 개시의 일 실시예에 따른, 전자 장치의 제스처 인식 방법은, 레이더 신호를 출력하는 단계; 사용자의 제스처에 의해 반사된 상기 레이더 신호를 바탕으로 비트 신호를 획득하는 단계; 상기 비트 신호를 이미지로 변환하는 단계; 특이점 분해(Singular Value Decomposition)을 이용하여 상기 변환된 이미지를 압축하는 단계; 및 상기 압축된 이미지를 학습된 신경망 모델에 입력하여 상기 사용자 제스쳐를 식별하는 단계;를 포함한다.According to an embodiment of the present disclosure, a gesture recognition method of an electronic device may include outputting a radar signal; acquiring a beat signal based on the radar signal reflected by a user's gesture; converting the bit signal into an image; compressing the transformed image using singular value decomposition; and identifying the user gesture by inputting the compressed image into a trained neural network model.

그리고, 상기 변환하는 단계는, ADC(analog-to-digital converter)를 이용하여 상기 비트 신호를 디지털 신호로 변환하는 단계; STFT(Short-Time Fourier Transform)를 이용하여 상기 디지털 신호로 변환된 비트 신호로부터 STFT 스펙트로그램(spectrogram)을 획득하는 단계; 상기 획득된 STFT 스펙트로그램을 상기 이미지로 변환하는 단계;를 포함한다.The converting may include converting the bit signal into a digital signal using an analog-to-digital converter (ADC); obtaining an STFT spectrogram from the bit signal converted to the digital signal using Short-Time Fourier Transform (STFT); and converting the obtained STFT spectrogram into the image.

또한, 상기 획득된 STFT 스펙트로그램을 상기 이미지로 변환하는 단계는, 컬러맵을 통해 상기 획득된 STFT 스펙트로그램을 RGB 이미지로 변환할 수 있다.Also, in the converting of the acquired STFT spectrogram into the image, the obtained STFT spectrogram may be converted into an RGB image through a color map.

그리고, 상기 압축하는 단계는, 상기 특이점 분해(Singular Value Decomposition)을 이용하여 상기 RGB 이미지로부터 복수의 고유값을 획득하는 단계; 상기 복수의 고유값 중 일부 차수의 고유값을 제거하는 단계; 및 상기 일부가 제거된 고유값들에 기초하여 RGB 이미지를 복원하여 압축된 RGB 이미지를 획득하는 단계;를 포함할 수 있다.The compressing may include obtaining a plurality of eigenvalues from the RGB image by using the singular value decomposition; removing eigenvalues of some order among the plurality of eigenvalues; and obtaining a compressed RGB image by restoring the RGB image based on the eigenvalues from which the part has been removed.

또한, 상기 제거되는 고유값의 차수에 따라 상기 RGB 이미지의 압축률이 결정될 수 있다.Also, a compression rate of the RGB image may be determined according to the order of the eigenvalues to be removed.

그리고, 상기 사용자 제스처는 사용자의 발동작 제스처이며, 상기 학습된 신경망 모델은, 킥 제스처, 스윙 제스처, 슬라이딩 제스처, 태핑 제스처 중 적어도 하나를 식별하도록 학습된 모델일 수 있다.The user gesture may be a user's foot motion gesture, and the learned neural network model may be a model learned to identify at least one of a kick gesture, a swing gesture, a sliding gesture, and a tapping gesture.

또한, 상기 이미지는 그레이 이미지일 수 있다.Also, the image may be a gray image.

한편, 본 개시의 일 실시예에 따른, 사용자 제스처를 인식하기 위한 전자 장치는, 레이더 신호를 출력하고 반사된 레이더 신호를 수신하는 레이더; 학습된 신경망 모델을 저장하는 메모리; 및 사용자의 제스처에 의해 반사된 레이더 신호를 바탕으로 비트 신호를 획득하고, 상기 비트 신호를 이미지로 변환하며, 특이점 분해(Singular Value Decomposition)을 이용하여 상기 변환된 이미지를 압축하고, 상기 압축된 이미지를 상기 학습된 신경망 모델에 입력하여 상기 사용자 제스쳐를 식별하는 프로세서;를 포함한다.Meanwhile, an electronic device for recognizing a user gesture according to an embodiment of the present disclosure includes a radar outputting a radar signal and receiving a reflected radar signal; a memory for storing the learned neural network model; and acquiring a beat signal based on a radar signal reflected by a user's gesture, converting the beat signal into an image, compressing the converted image using singular value decomposition, and compressing the compressed image. and a processor for identifying the user gesture by inputting ? to the learned neural network model.

그리고, 상기 프로세서는, ADC(analog-to-digital converter)를 이용하여 상기 비트 신호를 디지털 신호로 변환하고, STFT(Short-Time Fourier Transform)를 이용하여 상기 디지털 신호로 변환된 비트 신호로부터 STFT 스펙트로그램(spectrogram)을 획득하며, 상기 획득된 STFT 스펙트로그램을 상기 이미지로 변환할 수 있다.The processor converts the bit signal into a digital signal using an analog-to-digital converter (ADC), and converts the bit signal converted into a digital signal into an STFT spectrum using Short-Time Fourier Transform (STFT). A spectrogram is obtained, and the acquired STFT spectrogram may be converted into the image.

또한, 상기 프로세서는, 컬러맵을 통해 상기 획득된 STFT 스펙트로그램을 RGB 이미지로 변환할 수 있다.In addition, the processor may convert the acquired STFT spectrogram into an RGB image through a color map.

그리고, 상기 프로세서는, 상기 특이점 분해(Singular Value Decompostion)을 이용하여 상기 RGB 이미지로부터 복수의 고유값을 획득하고, 상기 복수의 고유값 중 일부 차수의 고유값을 제거하며, 상기 일부가 제거된 고유값들에 기초하여 RGB 이미지를 복원하여 압축된 RGB 이미지를 획득할 수 있다.Further, the processor obtains a plurality of eigenvalues from the RGB image by using the singular value decomposition, removes eigenvalues of some orders from among the plurality of eigenvalues, and eigenvalues from which some of the eigenvalues have been removed. A compressed RGB image may be obtained by restoring the RGB image based on the values.

또한, 상기 제거되는 고유값의 차수에 따라 상기 RGB 이미지의 압축률이 결정될 수 있다.Also, a compression rate of the RGB image may be determined according to the order of the eigenvalues to be removed.

그리고, 상기 사용자 제스처는 사용자의 발동작 제스처이며, 상기 학습된 신경망 모델은, 킥 제스처, 스윙 제스처, 슬라이딩 제스처, 태핑 제스처 중 적어도 하나를 식별하도록 학습된 모델일 수 있다.The user gesture may be a user's foot motion gesture, and the learned neural network model may be a model learned to identify at least one of a kick gesture, a swing gesture, a sliding gesture, and a tapping gesture.

또한, 상기 이미지는 그레이 이미지일 수 있다.Also, the image may be a gray image.

상술한 바와 같은 본 개시의 다양한 실시예에 의해, SVD를 이용하여 사용자 제스처에 대응되는 이미지를 압축함으로써, 메모리 효율성을 높일 수 있고, 센서 비용을 최소화할 수 있는 효과가 있다.According to various embodiments of the present disclosure as described above, by compressing an image corresponding to a user gesture using SVD, memory efficiency can be increased and sensor cost can be minimized.

도 1은 본 개시의 일 실시예에 따른, 전자 장치의 구성을 나타내는 블록도,
도 2는 본 개시의 일 실시예에 따른, 발동작 제스처의 유형을 식별하는 방법을 설명하기 위한 도면,
도 3은 본 발명의 일 실시예에 따른, 발동작 제스처의 유형을 설명하기 위한 도면,
도 4는 본 개시의 일 실시예에 따른, 발동작 제스처의 유형에 따른 레이더 신호를 도시한 도면들,
도 5는 본 개시의 일 실시예에 따른, 발동작 제스처의 유형에 따른 주파수 신호를 도시한 도면들,
도 6은 본 개시의 일 실시예에 따른, 발동작 제스처의 유형에 따른 이미지를 도시한 도면들
도 7은 본 개시의 일 실시예에 따른, SVD를 이용하여 압축된 이미지를 도시한 도면들,
도 8a는 본 개시의 일 실시예에 따른, 원본 이미지를 이용하여 발동작 제스처의 유형을 인식한 결과를 도시한 도면,
도 8b는 본 개시의 일 실시예에 따른, 압축된 이미지를 이용하여 발동작 제스처의 유형을 인식한 결과를 도시한 도면,
도 9는 본 개시의 일 실시예에 따른, 전자 장치의 제스처 인식 방법을 설명하기 위한 흐름도이다.
1 is a block diagram showing the configuration of an electronic device according to an embodiment of the present disclosure;
2 is a diagram for explaining a method of identifying a type of foot action gesture according to an embodiment of the present disclosure;
3 is a diagram for explaining a type of foot motion gesture according to an embodiment of the present invention;
4 is diagrams illustrating radar signals according to types of foot motion gestures according to an embodiment of the present disclosure;
5 is diagrams illustrating frequency signals according to types of foot motion gestures according to an embodiment of the present disclosure;
6 is diagrams illustrating images according to types of foot motion gestures according to an embodiment of the present disclosure;
7 is diagrams showing images compressed using SVD according to an embodiment of the present disclosure;
8A is a diagram illustrating a result of recognizing a type of foot motion gesture using an original image according to an embodiment of the present disclosure;
8B is a diagram illustrating a result of recognizing a type of foot motion gesture using a compressed image according to an embodiment of the present disclosure;
9 is a flowchart illustrating a gesture recognition method of an electronic device according to an embodiment of the present disclosure.

본 실시 예들은 다양한 변환을 가할 수 있고 여러 가지 실시 예를 가질 수 있는 바, 특정 실시 예들을 도면에 예시하고 상세한 설명에 상세하게 설명하고자 한다. 그러나 이는 특정한 실시 형태에 대해 범위를 한정하려는 것이 아니며, 본 개시의 실시 예의 다양한 변경(modifications), 균등물(equivalents), 및/또는 대체물(alternatives)을 포함하는 것으로 이해되어야 한다. 도면의 설명과 관련하여, 유사한 구성요소에 대해서는 유사한 참조 부호가 사용될 수 있다. Since the present embodiments can apply various transformations and have various embodiments, specific embodiments will be illustrated in the drawings and described in detail in the detailed description. However, this is not intended to limit the scope to the specific embodiments, and should be understood to include various modifications, equivalents, and/or alternatives of the embodiments of the present disclosure. In connection with the description of the drawings, like reference numerals may be used for like elements.

본 개시를 설명함에 있어서, 관련된 공지 기능 혹은 구성에 대한 구체적인 설명이 본 개시의 요지를 불필요하게 흐릴 수 있다고 판단되는 경우 그에 대한 상세한 설명은 생략한다. In describing the present disclosure, if it is determined that a detailed description of a related known function or configuration may unnecessarily obscure the gist of the present disclosure, a detailed description thereof will be omitted.

덧붙여, 하기 실시 예는 여러 가지 다른 형태로 변형될 수 있으며, 본 개시의 기술적 사상의 범위가 하기 실시 예에 한정되는 것은 아니다. 오히려, 이들 실시 예는 본 개시를 더욱 충실하고 완전하게 하고, 당업자에게 본 개시의 기술적 사상을 완전하게 전달하기 위하여 제공되는 것이다.In addition, the following embodiments may be modified in many different forms, and the scope of the technical idea of the present disclosure is not limited to the following embodiments. Rather, these embodiments are provided so that this disclosure will be thorough and complete, and will fully convey the spirit of the disclosure to those skilled in the art.

본 개시에서 사용한 용어는 단지 특정한 실시 예를 설명하기 위해 사용된 것으로, 권리범위를 한정하려는 의도가 아니다. 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다.Terms used in this disclosure are only used to describe specific embodiments, and are not intended to limit the scope of rights. Singular expressions include plural expressions unless the context clearly dictates otherwise.

본 개시에서, "가진다," "가질 수 있다," "포함한다," 또는 "포함할 수 있다" 등의 표현은 해당 특징(예: 수치, 기능, 동작, 또는 부품 등의 구성요소)의 존재를 가리키며, 추가적인 특징의 존재를 배제하지 않는다. In the present disclosure, expressions such as “has,” “can have,” “includes,” or “can include” indicate the presence of a corresponding feature (eg, numerical value, function, operation, or component such as a part). , which does not preclude the existence of additional features.

본 개시에서, "A 또는 B," "A 또는/및 B 중 적어도 하나," 또는 "A 또는/및 B 중 하나 또는 그 이상"등의 표현은 함께 나열된 항목들의 모든 가능한 조합을 포함할 수 있다. 예를 들면, "A 또는 B," "A 및 B 중 적어도 하나," 또는 "A 또는 B 중 적어도 하나"는, (1) 적어도 하나의 A를 포함, (2) 적어도 하나의 B를 포함, 또는 (3) 적어도 하나의 A 및 적어도 하나의 B 모두를 포함하는 경우를 모두 지칭할 수 있다.In this disclosure, expressions such as “A or B,” “at least one of A and/and B,” or “one or more of A or/and B” may include all possible combinations of the items listed together. . For example, “A or B,” “at least one of A and B,” or “at least one of A or B” (1) includes at least one A, (2) includes at least one B, Or (3) may refer to all cases including at least one A and at least one B.

본 개시에서 사용된 "제1," "제2," "첫째," 또는 "둘째,"등의 표현들은 다양한 구성요소들을, 순서 및/또는 중요도에 상관없이 수식할 수 있고, 한 구성요소를 다른 구성요소와 구분하기 위해 사용될 뿐 해당 구성요소들을 한정하지 않는다. Expressions such as "first," "second," "first," or "second," used in the present disclosure may modify various elements regardless of order and/or importance, and may refer to one element as It is used only to distinguish it from other components and does not limit the corresponding components.

어떤 구성요소(예: 제1 구성요소)가 다른 구성요소(예: 제2 구성요소)에 "(기능적으로 또는 통신적으로) 연결되어((operatively or communicatively) coupled with/to)" 있다거나 "접속되어(connected to)" 있다고 언급된 때에는, 어떤 구성요소가 다른 구성요소에 직접적으로 연결되거나, 다른 구성요소(예: 제3 구성요소)를 통하여 연결될 수 있다고 이해되어야 할 것이다. A component (e.g., a first component) is "(operatively or communicatively) coupled with/to" another component (e.g., a second component); When referred to as "connected to", it should be understood that an element may be directly connected to another element, or may be connected through another element (eg, a third element).

반면에, 어떤 구성요소(예: 제1 구성요소)가 다른 구성요소(예: 제2 구성요소)에 "직접 연결되어" 있다거나 "직접 접속되어" 있다고 언급된 때에는, 어떤 구성요소와 다른 구성요소 사이에 다른 구성요소(예: 제3 구성요소)가 존재하지 않는 것으로 이해될 수 있다.On the other hand, when an element (eg, a first element) is referred to as being "directly connected" or "directly connected" to another element (eg, a second element), it is referred to as a component different from a component. It may be understood that there are no other components (eg, third components) between the elements.

본 개시에서 사용된 표현 "~하도록 구성된(또는 설정된)(configured to)"은 상황에 따라, 예를 들면, "~에 적합한(suitable for)," "~하는 능력을 가지는(having the capacity to)," "~하도록 설계된(designed to)," "~하도록 변경된(adapted to)," "~하도록 만들어진(made to)," 또는 "~를 할 수 있는(capable of)"과 바꾸어 사용될 수 있다. 용어 "~하도록 구성된(또는 설정된)"은 하드웨어적으로 "특별히 설계된(specifically designed to)"것만을 반드시 의미하지 않을 수 있다. The expression “configured to (or configured to)” as used in this disclosure means, depending on the situation, for example, “suitable for,” “having the capacity to.” ," "designed to," "adapted to," "made to," or "capable of." The term "configured (or set) to" may not necessarily mean only "specifically designed to" hardware.

대신, 어떤 상황에서는, "~하도록 구성된 장치"라는 표현은, 그 장치가 다른 장치 또는 부품들과 함께 "~할 수 있는" 것을 의미할 수 있다. 예를 들면, 문구 "A, B, 및 C를 수행하도록 구성된(또는 설정된) 프로세서"는 해당 동작을 수행하기 위한 전용 프로세서(예: 임베디드 프로세서), 또는 메모리 장치에 저장된 하나 이상의 소프트웨어 프로그램들을 실행함으로써, 해당 동작들을 수행할 수 있는 범용 프로세서(generic-purpose processor)(예: CPU 또는 application processor)를 의미할 수 있다.Instead, in some contexts, the phrase "device configured to" may mean that the device is "capable of" in conjunction with other devices or components. For example, the phrase "a processor configured (or configured) to perform A, B, and C" may include a dedicated processor (eg, embedded processor) to perform the operation, or by executing one or more software programs stored in a memory device. , may mean a general-purpose processor (eg, CPU or application processor) capable of performing corresponding operations.

실시 예에 있어서 '모듈' 혹은 '부'는 적어도 하나의 기능이나 동작을 수행하며, 하드웨어 또는 소프트웨어로 구현되거나 하드웨어와 소프트웨어의 결합으로 구현될 수 있다. 또한, 복수의 '모듈' 혹은 복수의 '부'는 특정한 하드웨어로 구현될 필요가 있는 '모듈' 혹은 '부'를 제외하고는 적어도 하나의 모듈로 일체화되어 적어도 하나의 프로세서로 구현될 수 있다.In an embodiment, a 'module' or 'unit' performs at least one function or operation, and may be implemented with hardware or software, or a combination of hardware and software. In addition, a plurality of 'modules' or a plurality of 'units' may be integrated into at least one module and implemented by at least one processor, except for 'modules' or 'units' that need to be implemented with specific hardware.

한편, 도면에서의 다양한 요소와 영역은 개략적으로 그려진 것이다. 따라서, 본 발명의 기술적 사상은 첨부한 도면에 그려진 상대적인 크기나 간격에 의해 제한되지 않는다. Meanwhile, various elements and regions in the drawings are schematically drawn. Therefore, the technical spirit of the present invention is not limited by the relative size or spacing drawn in the accompanying drawings.

이하에서는 첨부한 도면을 참고하여 본 개시에 따른 실시 예에 대하여 본 개시가 속하는 기술 분야에서 통상의 지식을 가진 자가 용이하게 실시할 수 있도록 상세히 설명한다.Hereinafter, with reference to the accompanying drawings, an embodiment according to the present disclosure will be described in detail so that those skilled in the art can easily implement it.

이하에서는 도면을 참조하여 본 개시에 대해 상세히 설명하기로 한다. 도 1은 본 개시의 일 실시예에 따른, 전자 장치의 구성을 도시한 블록도이다. 도 1에 도시된 바와 같이, 전자 장치(100)는 레이더(110), 메모리(120) 및 프로세서(130)를 포함할 수 있다. 이때, 전자 장치(100)는 사용자의 제스처를 인식하기 위한 장치로서, 자동차, 스마트 글래스 등과 같은 다양한 전자 장치로 구현될 수 있다. 또한, 전자 장치(100)는 도 3에 도시된 구성 이외에 기능부(예를 들어, 자동차의 경우, 주행 기능 관련 구성 등), 통신 인터페이스 등과 같은 다른 구성을 포함할 수 있음은 물론이다.Hereinafter, the present disclosure will be described in detail with reference to the drawings. 1 is a block diagram illustrating the configuration of an electronic device according to an embodiment of the present disclosure. As shown in FIG. 1 , the electronic device 100 may include a radar 110 , a memory 120 and a processor 130 . In this case, the electronic device 100 is a device for recognizing a user's gesture, and may be implemented as various electronic devices such as automobiles and smart glasses. In addition, the electronic device 100 may include other components such as a functional unit (for example, components related to a driving function in the case of an automobile) and a communication interface in addition to the components shown in FIG. 3 .

레이더(110)는 레이더 신호를 송신하는 송신부 및 오브젝트에 의해 반사된 레이더 신호를 수신하는 수신부를 포함할 수 있다. 특히, 레이더(110)는 레이더 신호를 전송하여 사용자 제스처에 의해 반사된 레이더 신호를 수신할 수 있다. 이때, 사용자 제스처는 발동작 제스처일 수 있으나, 이는 일 실시예에 불과할 뿐, 다른 제스처(예를 들어, 손동작 제스처 등)일 수 있다. 특히, 전자 장치(100)가 자동차로 구현되는 경우, 레이더(110)는 차량 뒷쪽 하단 범퍼 근처에 위치하거나 차량의 문 하단 근처에 위치할 수 있다.The radar 110 may include a transmitter for transmitting a radar signal and a receiver for receiving a radar signal reflected by an object. In particular, the radar 110 may transmit a radar signal and receive a radar signal reflected by a user gesture. In this case, the user's gesture may be a foot motion gesture, but this is merely an example, and may be other gestures (eg, hand motion gestures, etc.). In particular, when the electronic device 100 is implemented as a vehicle, the radar 110 may be located near a lower rear bumper of the vehicle or near a lower portion of a door of the vehicle.

또한, 본 발명의 일 실시예에 따른, 레이더(110)는 도플러 효과를 이용하여 이동물체의 방향이나 속도를 측정할 수 있는 도플러 레이더일 수 있다.Also, according to an embodiment of the present invention, the radar 110 may be a Doppler radar capable of measuring the direction or speed of a moving object using the Doppler effect.

메모리(120)는 전자 장치(100)에 관한 적어도 하나의 명령어(instruction)를 저장할 수 있다. 특히, 메모리(140)에는 전자 장치(100)를 구동시키기 위한 O/S(Operating System)가 저장될 수 있다. 또한, 메모리(140)에는 본 개시의 다양한 실시 예들에 따라 전자 장치(100)가 동작하기 위한 각종 소프트웨어 프로그램이나 애플리케이션이 저장될 수도 있다. 그리고, 메모리(140)는 플래시 메모리(Flash Memory) 등과 같은 반도체 메모리나 하드디스크(Hard Disk) 등과 같은 자기 저장 매체 등을 포함할 수 있다. 한편, 본 개시에서 메모리(140)라는 용어는 메모리(140), 프로세서(180) 내 롬(미도시), 램(미도시) 또는 전자 장치(100)에 장착되는 메모리 카드(미도시)(예를 들어, micro SD 카드, 메모리 스틱)를 포함하는 의미로 사용될 수 있다.The memory 120 may store at least one instruction related to the electronic device 100 . In particular, an operating system (O/S) for driving the electronic device 100 may be stored in the memory 140 . Also, various software programs or applications for operating the electronic device 100 may be stored in the memory 140 according to various embodiments of the present disclosure. Also, the memory 140 may include a semiconductor memory such as a flash memory or a magnetic storage medium such as a hard disk. Meanwhile, in the present disclosure, the term memory 140 refers to the memory 140, a ROM (not shown) in the processor 180, a RAM (not shown), or a memory card (not shown) mounted in the electronic device 100 (eg For example, micro SD card, memory stick) may be used as a meaning including.

특히, 메모리(120)는 사용자 제스처에 의해 획득된 레이더 신호를 이미지로 변경하여 사용자 제스처를 인식하기 위한 기능을 수행할 수 있는 데이터를 저장할 수 있다. 또한, 메모리(120)는 사용자 제스처에 대응되는 이미지를 바탕으로 사용자 제스처를 인식하기 위한 신경망 모델을 저장할 수 있다. In particular, the memory 120 may store data capable of performing a function of recognizing a user gesture by converting a radar signal obtained by a user gesture into an image. Also, the memory 120 may store a neural network model for recognizing a user gesture based on an image corresponding to the user gesture.

한편, 메모리(120)는 전력 공급이 중단되더라도 저장된 정보를 유지할 수 있는 비휘발성 메모리 및 저장된 정보를 유지하기 위해서는 지속적인 전력 공급이 필요한 휘발성 메모리를 포함할 수 있다. 사용자 제스처에 의해 획득된 레이더 신호를 이미지로 변경하여 사용자 제스처를 인식하기 위한 다양한 모듈이 각종 동작을 수행하기 위한 데이터는 비휘발성 메모리에 저장될 수 있다. 그리고, 사용자 제스처에 대응되는 이미지를 바탕으로 사용자 제스처를 인식하기 위한 신경망 모델 역시 비휘발성 메모리에 저장될 수 있다. Meanwhile, the memory 120 may include a non-volatile memory capable of maintaining stored information even if power supply is interrupted, and a volatile memory requiring continuous power supply to maintain stored information. Data for performing various operations by various modules for recognizing a user gesture by converting a radar signal acquired by a user gesture into an image may be stored in a non-volatile memory. In addition, a neural network model for recognizing a user gesture based on an image corresponding to the user gesture may also be stored in the non-volatile memory.

또한, 메모리(120)는 레이더(110)에 의해 획득된 레이더 신호, 레이더 신호를 변환한 주파수 신호 및 주파수 신호가 변환된 이미지를 일시적으로 저장하는 적어도 하나의 버퍼를 포함할 수 있다.In addition, the memory 120 may include at least one buffer for temporarily storing a radar signal acquired by the radar 110, a frequency signal obtained by converting the radar signal, and an image obtained by converting the frequency signal.

프로세서(130)는 전자 장치(100)의 전반적인 동작 및 기능을 제어할 수 있다. 구체적으로, 프로세서(130)는 메모리(120)를 포함하는 전자 장치(100)의 구성과 연결되며, 상술한 바와 같은 메모리(120)에 저장된 적어도 하나의 명령어를 실행함으로써, 전자 장치(100)의 동작을 전반적으로 제어할 수 있다.The processor 130 may control overall operations and functions of the electronic device 100 . Specifically, the processor 130 is connected to the configuration of the electronic device 100 including the memory 120, and executes at least one command stored in the memory 120 as described above, so that the electronic device 100 You have full control over the action.

프로세서(130)는 다양한 방식으로 구현될 수 있다. 예를 들어, 프로세서(130)는 주문형 집적 회로(Application Specific Integrated Circuit, ASIC), 임베디드 프로세서, 마이크로 프로세서, 하드웨어 컨트롤 로직, 하드웨어 유한 상태 기계(hardware Finite State Machine, FSM), 디지털 신호 프로세서(Digital Signal Processor, DSP) 중 적어도 하나로 구현될 수 있다. 한편, 본 개시에서 프로세서(130)라는 용어는 CPU(Central Processing Unit), GPU(Graphic Processing Unit) 및 MPU(Main Processing Unit)등을 포함하는 의미로 사용될 수 있다.Processor 130 can be implemented in a variety of ways. For example, the processor 130 may include an application specific integrated circuit (ASIC), an embedded processor, a microprocessor, hardware control logic, a hardware finite state machine (FSM), a digital signal processor Processor, DSP) may be implemented as at least one. Meanwhile, in the present disclosure, the term processor 130 may be used to include a Central Processing Unit (CPU), a Graphic Processing Unit (GPU), and a Main Processing Unit (MPU).

특히, 프로세서(130)는 사용자의 제스처에 의해 반사된 레이더 신호에 기초하여 비트 신호를 획득하고, 비트 신호를 이미지로 변환하며, 특이점 분해(Singular Value Decomposition)을 이용하여 변환된 이미지를 압축하고, 압축된 이미지를 학습된 신경망 모델에 입력하여 사용자 제스쳐를 식별할 수 있다.In particular, the processor 130 acquires a beat signal based on a radar signal reflected by a user's gesture, converts the beat signal into an image, compresses the converted image using singular value decomposition, A user gesture can be identified by inputting the compressed image to the trained neural network model.

구체적으로, 프로세서(130)는 레이더 신호를 송신하도록 레이더 송신부를 제어할 수 있다. 그리고, 프로세서(130)는 레이더 수신부를 통해 사용자 제스처에 의해 반사된 레이더 신호를 수신할 수 있다. 이때, 사용자 제스처는 사용자의 발동작 제스처일 수 있다.Specifically, the processor 130 may control the radar transmitter to transmit a radar signal. Also, the processor 130 may receive a radar signal reflected by a user gesture through a radar receiving unit. In this case, the user's gesture may be a user's foot motion gesture.

프로세서(130)는 반사된 레이더 신호에 기초하여 비트 신호를 획득할 수 있다. 그리고, 프로세서(130)는 ADC(analog-to-digital converter)를 이용하여 비트 신호를 디지털 신호로 변환할 수 있다. 그리고, 프로세서(130)는 FFT(Fast Fourier transform)(예로, STFT(Short-Time Fourier Transform))를 이용하여 디지털 신호로 변환된 비트 신호로부터 주파수 신호(예로, STFT 스펙트로그램(spectrogram))을 획득하며, 획득된 STFT 스펙트로그램을 이미지로 변환할 수 있다. 이때, 이미지는 그 레이 이미지 또는 RGB 이미지일 수 있다. The processor 130 may obtain a beat signal based on the reflected radar signal. Also, the processor 130 may convert the bit signal into a digital signal using an analog-to-digital converter (ADC). Further, the processor 130 obtains a frequency signal (eg, STFT spectrogram) from the bit signal converted into a digital signal using a fast Fourier transform (FFT) (eg, short-time Fourier transform (STFT)). and convert the obtained STFT spectrogram into an image. In this case, the image may be a gray image or an RGB image.

특히, 프로세서(130)는 컬러맵을 통해 획득된 STFT 스펙트로그램을 RGB 이미지로 변환할 수 있다.In particular, the processor 130 may convert the STFT spectrogram obtained through the color map into an RGB image.

그리고, 프로세서(130)는 특이점 분해(Singular Value Decomposition)을 이용하여 RGB 이미지로부터 복수의 고유값을 획득하고, 복수의 고유값 중 일부 차수의 고유값을 제거하며, 일부가 제거된 고유값들에 기초하여 RGB 이미지를 복원하여 압축된 RGB 이미지를 획득할 수 있다. 이때, RGB 이미지의 압축률은 제거되는 고유값의 차수에 따라 결정될 수 있다.Then, the processor 130 obtains a plurality of eigenvalues from the RGB image by using singular value decomposition, removes eigenvalues of some order among the plurality of eigenvalues, and determines the eigenvalues from which some have been removed. A compressed RGB image may be obtained by restoring the RGB image based on the above. In this case, the compression rate of the RGB image may be determined according to the order of the eigenvalues to be removed.

프로세서(130)는 압축된 이미지를 학습된 신경망 모델에 입력하여 사용자 제스처의 유형을 식별할 수 있다. 이때, 학습된 신경망 모델은 킥 제스처, 스윙 제스처, 슬라이딩 제스처, 태핑 제스처 중 적어도 하나를 식별하도록 학습된 모델일 수 있다. 또한, 프로세서(130)는 사용자 제스처의 유형과 압축된 이미지를 이용하여 신경망 모델을 학습시킬 수 있다.The processor 130 may identify the type of user gesture by inputting the compressed image to the trained neural network model. In this case, the learned neural network model may be a model learned to identify at least one of a kick gesture, a swing gesture, a sliding gesture, and a tapping gesture. Also, the processor 130 may train a neural network model using the type of user gesture and the compressed image.

이하에서는 도 2 내지 도 8b를 참조하여 본 발명에 대해 더욱 상세히 설명하기로 한다.Hereinafter, the present invention will be described in more detail with reference to FIGS. 2 to 8B.

전자 장치(100)는 사용자 발동작 제스처에 대한 비트 신호를 획득할 수 있다(210). 구체적으로, 도플러 레이더에서, 송신부에 의해 송신된 레이더 신호(Tx)는 발동작 제스처로부터 반사된다. 반사된 레이더 신호(Rx)는 수신부에서 비트 신호로 변경될 수 있다. 이때, 연속파 레이더 신호에 대한 단일 프레임의 비트 신호는 송신된 레이더 신호 및 반사된 레이더 신호를 혼합하여 얻어진다. 단일 프레임의 비트 신호 x(t)는 하기 수학식 1에 의해서 얻어진다:The electronic device 100 may acquire a bit signal for the user's foot motion gesture (210). Specifically, in the Doppler radar, the radar signal Tx transmitted by the transmitter is reflected from the foot gesture. The reflected radar signal Rx may be changed into a beat signal at the receiving unit. At this time, a beat signal of a single frame for the CW radar signal is obtained by mixing the transmitted radar signal and the reflected radar signal. The bit signal x(t) of a single frame is obtained by Equation 1 below:

Figure pat00001
Figure pat00001

여기서,

Figure pat00002
Figure pat00003
는 발동작 제스처로 인한 사람의 신체 움직임 성분으로 구성된 비트 신호의 I 채널 및 Q 채널 성분이다. 또한,
Figure pat00004
Figure pat00005
은 각각 진폭 및 마이크로 도플러 주파수 구성 요소를 나타낸다. here,
Figure pat00002
and
Figure pat00003
is the I channel and Q channel components of a beat signal composed of human body motion components resulting from a footstep gesture. also,
Figure pat00004
class
Figure pat00005
denote the amplitude and micro-Doppler frequency components, respectively.

한편, 본 개시의 일 실시예에 따른 발동작 제스처는 복수의 유형으로 구분될 수 있다. 구체적으로, 도 3에 도시된 바와 같이, (a)발동작 제스처는 사용자가 발을 앞으로 차는 킥(kick) 제스처, (b)사용자가 발을 앞뒤로 흔드는 스윙(swing) 제스처, (c)사용자의 발을 좌우로 이동하는 슬라이딩(sliding) 제스처, (d)사용자의 발 앞부분을 좌우로 흔드는 탭핑(tapping) 제스처를 포함할 수 있다. 또한, 발동작 제스처 이외에 (e)공이 지나가는 상황(running ball)이 포함될 수 있다.Meanwhile, foot gestures according to an embodiment of the present disclosure may be classified into a plurality of types. Specifically, as shown in FIG. 3, (a) a foot motion gesture includes a kick gesture in which a user kicks a foot forward, (b) a swing gesture in which a user swings a foot back and forth, and (c) a user foot gesture. It may include a sliding gesture of moving left and right, and (d) a tapping gesture of shaking the front part of the user's foot from side to side. In addition, (e) a running ball may be included in addition to the foot motion gesture.

특히, 전자 장치(100)는 도 4에 도시된 바와 같은, 도 3에서 설명한 복수의 유형의 발동작 제스처에 대응되는 비트 신호를 획득할 수 있다. In particular, as shown in FIG. 4 , the electronic device 100 may obtain bit signals corresponding to the plurality of types of footing gestures described in FIG. 3 .

전자 장치(100)는 ADC(analog-to-digital converter)를 이용하여 비트 신호를 디지털 신호로 변환할 수 있다(215). 이때, 전자 장치(100)는 샘플링 속도

Figure pat00006
를 가진 ADC를 이용하여 비트 신호를 디지털 신호로 변환할 수 있다. The electronic device 100 may convert the bit signal into a digital signal using an analog-to-digital converter (ADC) (215). At this time, the electronic device 100 determines the sampling rate
Figure pat00006
A bit signal can be converted into a digital signal using an ADC with

전자 장치(100)는 디지털 신호로 변환된 비트 신호에 대해 타임 윈도우(time windowing)을 수행할 수 있다(220).The electronic device 100 may perform time windowing on the bit signal converted into a digital signal (220).

전자 장치(100)는 발동작 제스처에 대한 기설정된 임계값 이상의 신호를 획득할 수 있다(225)The electronic device 100 may obtain a signal equal to or greater than a predetermined threshold for the foot motion gesture (225).

전자 장치(100)는 STFT(Short-Time Fourier Transform)를 이용하여 주파수 신호인 STFT 스펙트로그램(spectrogram)을 획득할 수 있다(230). 이때, STFT 스펙트로그램은 아래의 수학식 2에 의해 얻어질 수 있다.The electronic device 100 may obtain an STFT spectrogram, which is a frequency signal, by using Short-Time Fourier Transform (STFT) (230). At this time, the STFT spectrogram can be obtained by Equation 2 below.

Figure pat00007
Figure pat00007

여기서,

Figure pat00008
는 윈도우 함수를 나타내고,
Figure pat00009
Figure pat00010
은 프레임 별 샘플 수와 FFT 포인트를 나타낸다.here,
Figure pat00008
denotes a window function,
Figure pat00009
class
Figure pat00010
represents the number of samples and FFT points per frame.

본 개시의 일 실시예로, 도 5에 도시된 바와 같은, 복수의 유형의 발동작 제스처에 대응되는 STFT 스펙트로그램을 획득할 수 있다. As an embodiment of the present disclosure, as shown in FIG. 5 , STFT spectrograms corresponding to a plurality of types of footing gestures may be obtained.

전자 장치(100)는 STFT 스펙트로그램을 RGB 이미지로 변환할 수 있다(235). 구체적으로, 가능한 한 쉽게 신경망 모델을 학습시키기 위한 레이더 데이터 세트를 구성하기 위해, 레이더 데이터의 시각화는 매우 유용하다. 즉, 다양한 발동작 제스처에 대한 유효 데이터를 선택하기 위해 비트 신호(로우 데이터)를 저장하는 대신에 STFT 스펙트로그램을 가시화한 RGB 이미지를 이용할 수 있다. 이에 의해, 짧은 발동작 움직임에 대응하는 유효 데이터를 확인할 수 있다. The electronic device 100 may convert the STFT spectrogram into an RGB image (235). Specifically, in order to construct a radar data set for training a neural network model as easily as possible, visualization of radar data is very useful. That is, in order to select valid data for various foot gestures, instead of storing bit signals (raw data), an RGB image obtained by visualizing the STFT spectrogram may be used. By this, it is possible to check the valid data corresponding to the short footing movement.

본 개시의 일 실시예로, 도 6에 도시된 바와 같은, 복수의 유형의 발동작 제스처에 대응되는 RGB 이미지를 획득할 수 있다. As an embodiment of the present disclosure, as shown in FIG. 6 , RGB images corresponding to a plurality of types of foot gestures may be acquired.

한편, 상술한 실시예에서는 STFT 스펙트로그램을 RGB 이미지로 변환하는 것으로 설명하였으나, 이는 일 실시예에 불과할 뿐, STFT 스펙트로그램을 그레이 이미지로 변환할 수 있다.Meanwhile, in the above-described embodiment, it has been described that the STFT spectrogram is converted into an RGB image, but this is only an embodiment, and the STFT spectrogram may be converted into a gray image.

전자 장치(100)는 변환된 RGB 이미지를 제트 컬러맵을 통해 매핑할 수 있다(240). 구체적으로, 정확한 발동작 제스처의 분류를 위하여, 시간 및 주파수 도메인들에서 일정한 시간 분해능 분석을 제공하기 위해 STFT 스펙트로그램이 전이 불변 특징(shift-invariance property)을 만족하므로. RGB 이미지 역시 시간 및 주파수 도메인에서 전이 불변 특징을 만족해야 한다. 이러한 전이불변 특징을 만족시키기 위해, 전자 장치(100)는 제트 컬러 맵을 통해 크기에 비례하는 단일 어레이를 갖는 RGB 이미지를 획득할 수 있다. 즉, 복수 개(예로, 3 개)의 어레이로서 표현되는 RGB 이미지의 값은 컬러 맵핑을 통해 단일 수의 어레이에 매핑될 수 있다. 즉, 제트 컬러맵에 의해 획득된 RGB 이미지는 3차원이 아닌 1차원의 값을 가질 수 있다.The electronic device 100 may map the converted RGB image through the jet color map (240). Specifically, since the STFT spectrogram satisfies the shift-invariance property to provide constant time-resolution analysis in time and frequency domains, for classification of accurate footwork gestures. An RGB image must also satisfy transition invariant characteristics in time and frequency domains. To satisfy this transition-invariant feature, the electronic device 100 may obtain an RGB image having a single array proportional to the size through the jet color map. That is, values of an RGB image expressed as a plurality of (eg, three) arrays may be mapped to a single array of numbers through color mapping. That is, the RGB image obtained by the jet color map may have a 1-dimensional value instead of a 3-dimensional value.

전자 장치(100)는 획득된 RGB 이미지에 대한 특이값 분해(Singular Value Decomposition, SVD)를 수행할 수 있다(245). 구체적으로, 특이값 분해는 PCA(principal component analysis)와 함께 중요한 정보를 유지하면서 고차원 데이터를 저차원 데이터로 감소시키는데 사용되는 방법이다. 특히. 특이값 분해는 단일 데이터 포인트를 기초로 하므로, 단일 레이더 신호에 대한 의미있는 특징을 효과적으로 추출할 수 있다.The electronic device 100 may perform singular value decomposition (SVD) on the acquired RGB image (245). Specifically, singular value decomposition is a method used in conjunction with PCA (principal component analysis) to reduce high-dimensional data to low-dimensional data while retaining important information. especially. Since singular value decomposition is based on a single data point, it is possible to effectively extract meaningful features for a single radar signal.

RGB 이미지에 대한 특이값 분해는 아래의 수학식 3과 같이 표현될 수 있다.Singular value decomposition for an RGB image can be expressed as Equation 3 below.

Figure pat00011
Figure pat00011

여기서, U 및 V 는 각각 좌측 및 우측 행렬을 나타낸다. 직교 행렬 U 및 V 의 열은 고유벡터이고

Figure pat00012
는 고유 행열이며, 대각 행렬 연산자이다. 즉, U,V,Σ는 아래의 수학식 4와 같은 행렬 형태로 나타내진다:Here, U and V denote left and right matrices, respectively. The columns of orthogonal matrices U and V are eigenvectors and
Figure pat00012
is an eigenmatrix and is a diagonal matrix operator. That is, U, V, and Σ are represented in the form of a matrix as in Equation 4 below:

Figure pat00013
Figure pat00013

고유값

Figure pat00014
과 이에 대응하는 고유벡터
Figure pat00015
Figure pat00016
에 의해, RGB 이미지(I)는 아래의 수학식 5와 같이, 재배열될 수 있다. eigenvalue
Figure pat00014
and the corresponding eigenvector
Figure pat00015
and
Figure pat00016
, the RGB image I may be rearranged as shown in Equation 5 below.

Figure pat00017
Figure pat00017

여기서

Figure pat00018
는 고유값이며
Figure pat00019
순으로 내림차순을 가지며,
Figure pat00020
Figure pat00021
는 고유값에 대응되는 유닛 직교 열 벡터를 의미할 수 있다.here
Figure pat00018
is the eigenvalue
Figure pat00019
in descending order,
Figure pat00020
and
Figure pat00021
may mean a unit orthogonal column vector corresponding to an eigenvalue.

즉, 수학식 5는 RGB 이미지가 상이한 특징들의 가중된 선형 조합으로 구성되는 것을 의미할 수 있다.That is, Equation 5 may mean that the RGB image is composed of a weighted linear combination of different features.

전자 장치(100)는 고유값의 차수를 선택하여 일부 고유값을 제거할 수 있다(250). 구체적으로, RGB 이미지(I)에서의 각각의 발동작 제스처에 대한 충분한 특징 정보를 포함하도록 고유값 및 그들의 대응하는 고유벡터를 결정하는 것이 중요하다. 신속하게 변화하는 발동작 제스처에 대한 무릎점을 관찰함으로써, 고유값의 차수의 임계치가 또한 선택될 수 있다. 그리고, 선택되지 않은 나머지 차수의 일부 고유값이 제거될 수 있다. 이때, 제거되는 고유값의 차수에 따라 RGB 이미지의 압축률이 결정될 수 있다.The electronic device 100 may remove some eigenvalues by selecting the order of the eigenvalues (250). Specifically, it is important to determine the eigenvalues and their corresponding eigenvectors to contain sufficient characteristic information for each footing gesture in the RGB image I. By looking at knee points for rapidly changing footwork gestures, a threshold of order of eigenvalues can also be selected. In addition, some eigenvalues of the remaining unselected orders may be removed. In this case, the compression rate of the RGB image may be determined according to the order of the eigenvalues to be removed.

고유값의 차수의 선택에 의해, 사용자의 발동작 제스처에 대한 고유하고 충분한 특징이 추출될 수 있고, 선택된 고유값들의 차수가 작을수록 이미지의 크기가 감소될 수 있게 한다. By selecting the order of the eigenvalues, unique and sufficient features for the user's footstep gesture can be extracted, and the smaller the order of the selected eigenvalues, the smaller the size of the image.

전자 장치(100)는 RGB 이미지를 복원할 수 있다(255). 즉, 전자 장치(100)는 주요 특징을 포함하며 일부 차수가 제거된 고유값을 바탕으로 RGB 이미지를 복원할 수 있다. 이때, 전자 장치(100)는 아래의 수학식 6에 의해 RGB 이미지를 복원할 수있다.The electronic device 100 may restore the RGB image (255). That is, the electronic device 100 may restore the RGB image based on the eigenvalues including the main features and having some orders removed. At this time, the electronic device 100 may restore the RGB image by Equation 6 below.

Figure pat00022
Figure pat00022

여기서

Figure pat00023
,
Figure pat00024
,
Figure pat00025
를 의미하며, r은 수학식 5의 q에 비해 상대적으로 작을 수 있다.here
Figure pat00023
,
Figure pat00024
,
Figure pat00025
Means, r may be relatively small compared to q in Equation 5.

상술한 바와 같이 일부 차수의 고유값을 제거함으로써, 전자 장치(100)는 고압축된 이미지를 획득할 수 있다. 본 개시의 일 실시예로, 상술한 바와 같이, 일부 차수의 고유값을 제거함으로써, 도 7에 도시된 바와 같은, 복수의 유형의 발동작 제스처에 대응되는 99% 압축된 RGB 이미지를 획득할 수 있다. As described above, by removing eigenvalues of some order, the electronic device 100 may obtain a highly compressed image. As an embodiment of the present disclosure, as described above, by removing eigenvalues of some orders, as shown in FIG. 7 , 99% compressed RGB images corresponding to a plurality of types of foot gestures can be obtained. .

전자 장치(100)는 복원된 RGB 이미지를 신경망 모델에 입력하여 발동작 제스처의 유형을 식별할 수 있다(260). 즉, 전자 장치(100)는 압축된 RGB 이미지를 입력 데이터로서 학습된 신경망 모델에 입력하여 발동작 제스처의 유형을 식별할 수 있다. 이때, 학습된 신경망 모델은 도 3에 도시된 킥 제스처, 스윙 제스처, 슬라이딩 제스처, 태핑 제스처 중 적어도 하나를 식별하도록 학습된 딥러닝 모델일 수 있으며, 상술한 바와 같은 방법으로 압축된 RGB 이미지 데이터 세트를 이용하여 학습될 수 있다.The electronic device 100 may input the restored RGB image to the neural network model to identify the type of footstep gesture (260). That is, the electronic device 100 may input the compressed RGB image as input data to the learned neural network model to identify the type of footstep gesture. At this time, the learned neural network model may be a deep learning model trained to identify at least one of the kick gesture, swing gesture, sliding gesture, and tapping gesture shown in FIG. 3, and the RGB image data set compressed by the method described above can be learned using

도 8a는 본 개시의 일 실시예에 따른, 원본 RGB 이미지를 이용하여 발동작 제스처의 유형을 인식한 결과를 도시한 도면이고, 도 8b는 본 개시의 일 실시예에 따른, 압축된 RGB 이미지를 이용하여 발동작 제스처의 유형을 인식한 결과를 도시한 도면이다. 도 8a 및 도 8b에 도시된 바와 같이, 원본 RGB 이미지를 이용하여 발동작 제스처의 유형을 인식할 결과와 압축된 RGB 이미지를 이용하여 발동작 제스처의 유형을 인식한 결과가 큰 차이가 나지 않는다. 즉, 전자 장치(100)는 발동작 제스처의 인식 결과에 큰 차이를 보이지 않으면서, 압축된 이미지를 이용함으로써, 메모리 효율성을 높일 수 있고, 센서 비용을 최소화할 수 있다.8A is a diagram illustrating a result of recognizing a type of foot motion gesture using an original RGB image according to an embodiment of the present disclosure, and FIG. It is a diagram showing the result of recognizing the type of foot motion gesture. As shown in FIGS. 8A and 8B , there is no significant difference between a result of recognizing the type of foot motion gesture using the original RGB image and a result of recognizing the type of foot motion gesture using the compressed RGB image. That is, the electronic device 100 can increase memory efficiency and minimize sensor cost by using a compressed image without showing a large difference in recognition results of foot motion gestures.

또한, 전자 장치(100)는 원본 RGB 이미지를 이용하여 발동작 제스처의 유형을 인식할 결과와 압축된 RGB 이미지를 이용하여 발동작 제스처의 유형을 인식한 결과를 비교하여 RGB 이미지의 압축률을 결정할 수 있다. 즉, 전자 장치(100)는 원본 RGB 이미지를 이용하여 발동작 제스처의 유형을 인식할 결과와 압축된 RGB 이미지를 이용하여 발동작 제스처의 유형을 인식한 결과의 차이가 임계값 이하이면서, 가장 적은 용량을 갖도록 RGB 이미지의 압축률을 결정할 수 있다.In addition, the electronic device 100 may determine a compression rate of the RGB image by comparing a result of recognizing the type of foot motion gesture using the original RGB image and a result of recognizing the type of foot motion gesture using the compressed RGB image. That is, in the electronic device 100, the difference between the result of recognizing the type of foot motion gesture using the original RGB image and the result of recognizing the type of foot motion gesture using the compressed RGB image is less than or equal to a threshold value, and the smallest capacity is obtained. It is possible to determine the compression rate of the RGB image to have

도 9는 본 개시의 일 실시예에 따른, 전자 장치의 제스처 인식 방법을 설명하기 위한 흐름도이다.9 is a flowchart illustrating a gesture recognition method of an electronic device according to an embodiment of the present disclosure.

전자 장치(100)는 레이더 신호를 출력할 수 있다(S910).The electronic device 100 may output a radar signal (S910).

전자 장치(100)는 사용자의 제스처에 의해 반사된 레이더 신호를 바탕으로 비트 신호를 획득할 수 있다(S920). 이때, 사용자 제스처는 사용자의 발동작 제스처일 수 있다.The electronic device 100 may obtain a beat signal based on the radar signal reflected by the user's gesture (S920). In this case, the user's gesture may be a user's foot motion gesture.

전자 장치(100)는 비트 신호를 이미지로 변환할 수 있다(S930). 구체적으로, 전자 장치(100)는 ADC(analog-to-digital converter)를 이용하여 비트 신호를 디지털 신호로 변환하고, STFT(Short-Time Fourier Transform)를 이용하여 디지털 신호로 변환된 비트 신호로부터 STFT 스펙트로그램(spectrogram)을 획득할 수 있으며, 획득된 STFT 스펙트로그램을 이미지로 변환할 수 있다. 이때, 전자 장치(100)는 컬러맵을 통해 획득된 STFT 스펙트로그램을 RGB 이미지로 변환할 수 있다. 한편, 상술한 실시예에서는 이미지가 RGB 이미지인 것으로 설명하였으나, 이는 일 실시예에 불과할 뿐, 그레이 이미지일 수 있다.The electronic device 100 may convert the bit signal into an image (S930). Specifically, the electronic device 100 converts a bit signal into a digital signal using an analog-to-digital converter (ADC), and converts the bit signal converted into a digital signal using a short-time Fourier transform (STFT) to the STFT. A spectrogram may be acquired, and the obtained STFT spectrogram may be converted into an image. In this case, the electronic device 100 may convert the STFT spectrogram obtained through the color map into an RGB image. Meanwhile, in the above-described embodiment, it has been described that the image is an RGB image, but this is merely an embodiment and may be a gray image.

전자 장치(100)는 특이점 분해(Singular Value Decomposition)를 이용하여 변환된 이미지를 압축할 수 있다(S940). 구체적으로, 전자 장치(100)는 특이점 분해(Singular Value Decomposition)을 이용하여 RGB 이미지로부터 복수의 고유값을 획득하고, 복수의 고유값 중 일부 차수의 고유값을 제거하며, 일부가 제거된 고유값들에 기초하여 RGB 이미지를 복원하여 압축된 RGB 이미지를 획득할 수 있다. 이때, 제거되는 고유값의 차수에 따라 RGB 이미지의 압축률이 결정될 수 있다. The electronic device 100 may compress the transformed image using singular value decomposition (S940). Specifically, the electronic device 100 obtains a plurality of eigenvalues from the RGB image by using singular value decomposition, removes eigenvalues of some orders from among the plurality of eigenvalues, and removes some of the eigenvalues. A compressed RGB image may be obtained by restoring the RGB image based on the . In this case, the compression rate of the RGB image may be determined according to the order of the eigenvalues to be removed.

전자 장치(100)는 압축된 이미지를 학습된 신경망 모델에 입력하여 사용자 제스처를 식별할 수 있다(S950). 이때, 학습된 신경망 모델은 킥 제스처, 스윙 제스처, 슬라이딩 제스처, 태핑 제스처 중 적어도 하나를 식별하도록 학습된 모델일 수 있으며, 압축된 이미지 데이터 세트를 이용하여 학습된 모델일 수 있다.The electronic device 100 may identify the user's gesture by inputting the compressed image to the learned neural network model (S950). In this case, the learned neural network model may be a model learned to identify at least one of a kick gesture, a swing gesture, a sliding gesture, and a tapping gesture, and may be a model learned using a compressed image data set.

한편, 이상에서 상술한 바와 같은 신경망 모델에 관련된 기능은 메모리 및 프로세서를 통해 수행될 수 있다. 프로세서는 하나 또는 복수의 프로세서로 구성될 수 있다. 이때, 하나 또는 복수의 프로세서는 CPU, AP 등과 같은 범용 프로세서, GPU. VPU 등과 같은 그래픽 전용 프로세서 또는 NPU와 같은 인공 지능 전용 프로세서일 수 있다. 하나 또는 복수의 프로세서는, 비휘발성 메모리 및 휘발성 메모리에 저장된 기 정의된 동작 규칙 또는 인공 지능 모델에 따라, 입력 데이터를 처리하도록 제어한다. 기 정의된 동작 규칙 또는 인공 지능 모델은 학습을 통해 만들어진 것을 특징으로 한다. Meanwhile, functions related to the neural network model as described above may be performed through a memory and a processor. A processor may consist of one or a plurality of processors. At this time, one or a plurality of processors are CPUs, general-purpose processors such as APs, GPUs. It may be a graphics-only processor, such as a VPU, or an artificial intelligence-only processor, such as an NPU. One or more processors control the input data to be processed according to predefined operating rules or artificial intelligence models stored in the non-volatile memory and the volatile memory. A predefined action rule or artificial intelligence model is characterized in that it is created through learning.

여기서, 학습을 통해 만들어진다는 것은, 다수의 학습 데이터들에 학습 알고리즘을 적용함으로써, 원하는 특성의 기 정의된 동작 규칙 또는 인공 지능 모델이 만들어짐을 의미한다. 이러한 학습은 본 개시에 따른 인공 지능이 수행되는 기기 자체에서 이루어질 수도 있고, 별도의 서버/시스템을 통해 이루어 질 수도 있다. Here, being created through learning means that a predefined operation rule or an artificial intelligence model having desired characteristics is created by applying a learning algorithm to a plurality of learning data. Such learning may be performed in the device itself in which artificial intelligence according to the present disclosure is performed, or may be performed through a separate server/system.

인공 지능 모델은, 복수의 신경망 레이어들로 구성될 수 있다. 각 레이어는 복수의 가중치(weight values)을 갖고 있으며, 이전(previous) 레이어의 연산 결과와 복수의 가중치의 연산을 통해 레이어의 연산을 수행한다. 신경망의 예로는, CNN (Convolutional Neural Network), DNN (Deep Neural Network), RNN (Recurrent Neural Network), RBM (Restricted Boltzmann Machine), DBN (Deep Belief Network), BRDNN(Bidirectional Recurrent Deep Neural Network), GAN(Generative Adversarial Networks) 및 심층 Q-네트워크 (Deep Q-Networks)이 있으며, 본 개시에서의 신경망은 명시한 경우를 제외하고 전술한 예에 한정되지 않는다.An artificial intelligence model may be composed of a plurality of neural network layers. Each layer has a plurality of weight values, and the layer operation is performed through the operation result of the previous layer and the plurality of weight values. Examples of neural networks include Convolutional Neural Network (CNN), Deep Neural Network (DNN), Recurrent Neural Network (RNN), Restricted Boltzmann Machine (RBM), Deep Belief Network (DBN), Bidirectional Recurrent Deep Neural Network (BRDNN), and GAN. (Generative Adversarial Networks) and deep Q-networks (Deep Q-Networks), and the neural network in the present disclosure is not limited to the above-described examples except for the cases specified.

학습 알고리즘은, 다수의 학습 데이터들을 이용하여 소정의 대상 기기(예컨대, 로봇)을 훈련시켜 소정의 대상 기기 스스로 결정을 내리거나 예측을 할 수 있도록 하는 방법이다. 학습 알고리즘의 예로는, 지도형 학습(supervised learning), 비지도형 학습(unsupervised learning), 준지도형 학습(semi-supervised learning) 또는 강화 학습(reinforcement learning)이 있으며, 본 개시에서의 학습 알고리즘은 명시한 경우를 제외하고 전술한 예에 한정되지 않는다.A learning algorithm is a method of training a predetermined target device (eg, a robot) using a plurality of learning data so that the predetermined target device can make a decision or make a prediction by itself. Examples of learning algorithms include supervised learning, unsupervised learning, semi-supervised learning, or reinforcement learning, and the learning algorithm in the present disclosure is specified Except for, it is not limited to the above example.

기기로 읽을 수 있는 저장매체는, 비일시적(non-transitory) 저장매체의 형태로 제공될 수 있다. 여기서, '비일시적 저장매체'는 실재(tangible)하는 장치이고, 신호(signal)(예: 전자기파)를 포함하지 않는다는 것을 의미할 뿐이며, 이 용어는 데이터가 저장매체에 반영구적으로 저장되는 경우와 임시적으로 저장되는 경우를 구분하지 않는다. 예로, '비일시적 저장매체'는 데이터가 임시적으로 저장되는 버퍼를 포함할 수 있다.The device-readable storage medium may be provided in the form of a non-transitory storage medium. Here, 'non-temporary storage medium' only means that it is a tangible device and does not contain signals (e.g., electromagnetic waves), and this term refers to the case where data is stored semi-permanently in the storage medium and temporary It does not discriminate if it is saved as . For example, a 'non-temporary storage medium' may include a buffer in which data is temporarily stored.

일 실시 예에 따르면, 본 문서에 개시된 다양한 실시 예들에 따른 방법은 컴퓨터 프로그램 제품(computer program product)에 포함되어 제공될 수 있다. 컴퓨터 프로그램 제품은 상품으로서 판매자 및 구매자 간에 거래될 수 있다. 컴퓨터 프로그램 제품은 기기로 읽을 수 있는 저장 매체(예: compact disc read only memory (CD-ROM))의 형태로 배포되거나, 또는 어플리케이션 스토어(예: 플레이 스토어TM)를 통해 또는 두개의 사용자 장치들(예: 스마트폰들) 간에 직접, 온라인으로 배포(예: 다운로드 또는 업로드)될 수 있다. 온라인 배포의 경우에, 컴퓨터 프로그램 제품(예: 다운로더블 앱(downloadable app))의 적어도 일부는 제조사의 서버, 어플리케이션 스토어의 서버, 또는 중계 서버의 메모리와 같은 기기로 읽을 수 있는 저장 매체에 적어도 일시 저장되거나, 임시적으로 생성될 수 있다.According to one embodiment, the method according to various embodiments disclosed in this document may be included and provided in a computer program product. Computer program products may be traded between sellers and buyers as commodities. A computer program product is distributed in the form of a device-readable storage medium (e.g. compact disc read only memory (CD-ROM)), or through an application store (e.g. Play Store™) or on two user devices (e.g. It can be distributed (eg downloaded or uploaded) online, directly between smartphones. In the case of online distribution, at least a part of a computer program product (eg, a downloadable app) is stored on a device-readable storage medium such as a memory of a manufacturer's server, an application store server, or a relay server. It can be temporarily stored or created temporarily.

이상에서 상술한 바와 같은 본 개시의 다양한 실시 예들에 따른 구성 요소(예: 모듈 또는 프로그램) 각각은 단수 또는 복수의 개체로 구성될 수 있으며, 전술한 해당 서브 구성 요소들 중 일부 서브 구성 요소가 생략되거나, 또는 다른 서브 구성 요소가 다양한 실시 예에 더 포함될 수 있다. 대체적으로 또는 추가적으로, 일부 구성 요소들(예: 모듈 또는 프로그램)은 하나의 개체로 통합되어, 통합되기 이전의 각각의 해당 구성 요소에 의해 수행되는 기능을 동일 또는 유사하게 수행할 수 있다. Each of the components (eg, modules or programs) according to various embodiments of the present disclosure as described above may be composed of a single object or a plurality of entities, and some of the sub-components described above are omitted. or other sub-elements may be further included in various embodiments. Alternatively or additionally, some components (eg, modules or programs) may be integrated into one entity and perform the same or similar functions performed by each corresponding component prior to integration.

다양한 실시 예들에 따른, 모듈, 프로그램 또는 다른 구성 요소에 의해 수행되는 동작들은 순차적, 병렬적, 반복적 또는 휴리스틱하게 실행되거나, 적어도 일부 동작이 다른 순서로 실행되거나, 생략되거나, 또는 다른 동작이 추가될 수 있다.According to various embodiments, operations performed by modules, programs, or other components may be executed sequentially, in parallel, repetitively, or heuristically, or at least some operations may be executed in a different order, may be omitted, or other operations may be added. can

한편, 본 개시에서 사용된 용어 "부" 또는 "모듈"은 하드웨어, 소프트웨어 또는 펌웨어로 구성된 유닛을 포함하며, 예를 들면, 로직, 논리 블록, 부품, 또는 회로 등의 용어와 상호 호환적으로 사용될 수 있다. "부" 또는 "모듈"은, 일체로 구성된 부품 또는 하나 또는 그 이상의 기능을 수행하는 최소 단위 또는 그 일부가 될 수 있다. 예를 들면, 모듈은 ASIC(application-specific integrated circuit)으로 구성될 수 있다.On the other hand, the term "unit" or "module" used in the present disclosure includes units composed of hardware, software, or firmware, and may be used interchangeably with terms such as logic, logic blocks, parts, or circuits, for example. can A “unit” or “module” may be an integrated component or a minimum unit or part thereof that performs one or more functions. For example, the module may be composed of an application-specific integrated circuit (ASIC).

본 개시의 다양한 실시 예들은 기기(machine)(예: 컴퓨터)로 읽을 수 있는 저장 매체(machine-readable storage media에 저장된 명령어를 포함하는 소프트웨어로 구현될 수 있다. 기기는 저장 매체로부터 저장된 명령어를 호출하고, 호출된 명령어에 따라 동작이 가능한 장치로서, 개시된 실시 예들에 따른 전자 장치(예: 전자 장치(100))를 포함할 수 있다. Various embodiments of the present disclosure may be implemented as software including commands stored in a storage medium readable by a machine (eg, a computer). The device calls the stored commands from the storage medium. And, as a device capable of operating according to the called command, it may include an electronic device (eg, the electronic device 100) according to the disclosed embodiments.

상기 명령이 프로세서에 의해 실행될 경우, 프로세서가 직접 또는 상기 프로세서의 제어 하에 다른 구성요소들을 이용하여 상기 명령에 해당하는 기능을 수행할 수 있다. 명령은 컴파일러 또는 인터프리터에 의해 생성 또는 실행되는 코드를 포함할 수 있다. When the command is executed by a processor, the processor may directly or use other elements under the control of the processor to perform a function corresponding to the command. An instruction may include code generated or executed by a compiler or interpreter.

이상에서는 본 개시의 바람직한 실시 예에 대하여 도시하고 설명하였지만, 본 개시는 상술한 특정의 실시 예에 한정되지 아니하며, 청구범위에서 청구하는 본 개시의 요지를 벗어남이 없이 당해 개시가 속하는 기술분야에서 통상의 지식을 가진 자에 의해 다양한 변형실시가 가능한 것은 물론이고, 이러한 변형실시들은 본 개시의 기술적 사상이나 전망으로부터 개별적으로 이해되어서는 안 될 것이다.Although the preferred embodiments of the present disclosure have been shown and described above, the present disclosure is not limited to the specific embodiments described above, and is common in the art to which the disclosure belongs without departing from the gist of the present disclosure claimed in the claims. Of course, various modifications are possible by those with knowledge of, and these modifications should not be individually understood from the technical spirit or perspective of the present disclosure.

110: 레이더 120: 메모리
130: 프로세서
110: radar 120: memory
130: processor

Claims (14)

전자 장치의 제스처 인식 방법에 있어서,
레이더 신호를 출력하는 단계;
사용자의 제스처에 의해 반사된 상기 레이더 신호를 바탕으로 비트 신호를 획득하는 단계;
상기 비트 신호를 이미지로 변환하는 단계;
특이점 분해(Singular Value Decomposition)을 이용하여 상기 변환된 이미지를 압축하는 단계; 및
상기 압축된 이미지를 학습된 신경망 모델에 입력하여 상기 사용자 제스쳐를 식별하는 단계;를 포함하는 제스처 인식 방법.
In the gesture recognition method of an electronic device,
outputting a radar signal;
acquiring a beat signal based on the radar signal reflected by a user's gesture;
converting the bit signal into an image;
compressing the transformed image using singular value decomposition; and
and identifying the user gesture by inputting the compressed image into a trained neural network model.
제1항에 있어서,
상기 변환하는 단계는,
ADC(analog-to-digital converter)를 이용하여 상기 비트 신호를 디지털 신호로 변환하는 단계;
STFT(Short-Time Fourier Transform)를 이용하여 상기 디지털 신호로 변환된 비트 신호로부터 STFT 스펙트로그램(spectrogram)을 획득하는 단계;
상기 획득된 STFT 스펙트로그램을 상기 이미지로 변환하는 단계;를 포함하는 제스처 인식 방법.
According to claim 1,
The conversion step is
converting the bit signal into a digital signal using an analog-to-digital converter (ADC);
obtaining an STFT spectrogram from the bit signal converted to the digital signal using Short-Time Fourier Transform (STFT);
Gesture recognition method comprising: converting the acquired STFT spectrogram into the image.
제2항에 있어서,
상기 획득된 STFT 스펙트로그램을 상기 이미지로 변환하는 단계는,
컬러맵을 통해 상기 획득된 STFT 스펙트로그램을 RGB 이미지로 변환하는 것을 특징으로 하는 제스처 인식 방법.
According to claim 2,
Converting the acquired STFT spectrogram into the image,
Gesture recognition method characterized by converting the obtained STFT spectrogram into an RGB image through a color map.
제3항에 있어서,
상기 압축하는 단계는,
상기 특이점 분해(Singular Value Decomposition)을 이용하여 상기 RGB 이미지로부터 복수의 고유값을 획득하는 단계;
상기 복수의 고유값 중 일부 차수의 고유값을 제거하는 단계; 및
상기 일부가 제거된 고유값들에 기초하여 RGB 이미지를 복원하여 압축된 RGB 이미지를 획득하는 단계;를 포함하는 제스처 인식 방법.
According to claim 3,
The compression step is
obtaining a plurality of eigenvalues from the RGB image using the singular value decomposition;
removing eigenvalues of some order among the plurality of eigenvalues; and
and obtaining a compressed RGB image by restoring an RGB image based on the eigenvalues from which the part has been removed.
제4항에 있어서,
상기 제거되는 고유값의 차수에 따라 상기 RGB 이미지의 압축률이 결정되는 제스처 인식 방법.
According to claim 4,
The gesture recognition method of determining a compression rate of the RGB image according to the order of the removed eigenvalue.
제1항에 있어서,
상기 사용자 제스처는 사용자의 발동작 제스처이며,
상기 학습된 신경망 모델은,
킥 제스처, 스윙 제스처, 슬라이딩 제스처, 태핑 제스처 중 적어도 하나를 식별하도록 학습된 모델인 제스처 인식 방법.
According to claim 1,
The user gesture is a user's foot motion gesture,
The trained neural network model,
A gesture recognition method that is a model trained to identify at least one of a kick gesture, a swing gesture, a sliding gesture, and a tapping gesture.
제1항에 있어서,
상기 이미지는 그레이 이미지인 것을 특징으로 하는 제스처 인식 방법.
According to claim 1,
The gesture recognition method, characterized in that the image is a gray image.
제스처를 인식하기 위한 전자 장치에 있어서,
레이더 신호를 출력하고 반사된 레이더 신호를 수신하는 레이더;
학습된 신경망 모델을 저장하는 메모리; 및
사용자의 제스처에 의해 반사된 레이더 신호를 바탕으로 비트 신호를 획득하고,
상기 비트 신호를 이미지로 변환하며,
특이점 분해(Singular Value Decomposition)을 이용하여 상기 변환된 이미지를 압축하고,
상기 압축된 이미지를 상기 학습된 신경망 모델에 입력하여 상기 사용자 제스쳐를 식별하는 프로세서;를 포함하는 전자 장치.
An electronic device for recognizing a gesture,
a radar outputting a radar signal and receiving a reflected radar signal;
a memory for storing the learned neural network model; and
Obtaining a beat signal based on a radar signal reflected by a user's gesture;
converting the bit signal into an image;
Compressing the transformed image using singular value decomposition;
and a processor inputting the compressed image to the learned neural network model to identify the user gesture.
제8항에 있어서,
상기 프로세서는,
ADC(analog-to-digital converter)를 이용하여 상기 비트 신호를 디지털 신호로 변환하고,
STFT(Short-Time Fourier Transform)를 이용하여 상기 디지털 신호로 변환된 비트 신호로부터 STFT 스펙트로그램(spectrogram)을 획득하며,
상기 획득된 STFT 스펙트로그램을 상기 이미지로 변환하는 전자 장치.
According to claim 8,
the processor,
Converting the bit signal into a digital signal using an analog-to-digital converter (ADC);
Obtaining an STFT spectrogram from the bit signal converted to the digital signal using Short-Time Fourier Transform (STFT);
An electronic device that converts the acquired STFT spectrogram into the image.
제9항에 있어서,
상기 프로세서는,
컬러맵을 통해 상기 획득된 STFT 스펙트로그램을 RGB 이미지로 변환하는 것을 특징으로 하는 전자 장치.
According to claim 9,
the processor,
An electronic device characterized in that for converting the acquired STFT spectrogram into an RGB image through a color map.
제10항에 있어서,
상기 프로세서는,
상기 특이점 분해(Singular Value Decomposition)을 이용하여 상기 RGB 이미지로부터 복수의 고유값을 획득하고,
상기 복수의 고유값 중 일부 차수의 고유값을 제거하며,
상기 일부가 제거된 고유값들에 기초하여 RGB 이미지를 복원하여 압축된 RGB 이미지를 획득하는 전자 장치.
According to claim 10,
the processor,
Obtaining a plurality of eigenvalues from the RGB image using the singular value decomposition,
Remove some order eigenvalues from among the plurality of eigenvalues;
An electronic device for obtaining a compressed RGB image by restoring an RGB image based on the eigenvalues from which the part has been removed.
제11항에 있어서,
상기 제거되는 고유값의 차수에 따라 상기 RGB 이미지의 압축률이 결정되는 전자 장치.
According to claim 11,
An electronic device in which a compression rate of the RGB image is determined according to the order of the eigenvalues to be removed.
제8항에 있어서,
상기 사용자 제스처는 사용자의 발동작 제스처이며,
상기 학습된 신경망 모델은,
킥 제스처, 스윙 제스처, 슬라이딩 제스처, 태핑 제스처 중 적어도 하나를 식별하도록 학습된 모델인 전자 장치.
According to claim 8,
The user gesture is a user's foot motion gesture,
The trained neural network model,
An electronic device that is a model trained to identify at least one of a kick gesture, a swing gesture, a sliding gesture, and a tapping gesture.
제8항에 있어서,
상기 이미지는 그레이 이미지인 것을 특징으로 하는 전자 장치.

According to claim 8,
The electronic device, characterized in that the image is a gray image.

KR1020210102237A 2021-08-03 2021-08-03 Electronic apparatus and Method for recognizing a user gesture thereof KR102660365B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020210102237A KR102660365B1 (en) 2021-08-03 2021-08-03 Electronic apparatus and Method for recognizing a user gesture thereof

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020210102237A KR102660365B1 (en) 2021-08-03 2021-08-03 Electronic apparatus and Method for recognizing a user gesture thereof

Publications (2)

Publication Number Publication Date
KR20230020310A true KR20230020310A (en) 2023-02-10
KR102660365B1 KR102660365B1 (en) 2024-04-26

Family

ID=85223489

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020210102237A KR102660365B1 (en) 2021-08-03 2021-08-03 Electronic apparatus and Method for recognizing a user gesture thereof

Country Status (1)

Country Link
KR (1) KR102660365B1 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN118277773A (en) * 2024-05-29 2024-07-02 珠海正和微芯科技有限公司 Gesture recognition method and device, storage medium and electronic equipment

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20140079025A (en) * 2012-12-18 2014-06-26 현대자동차주식회사 Method for providing a user interface using leg gesture recognition in a vehicle
KR20200078044A (en) * 2018-12-21 2020-07-01 전자부품연구원 Intelligent Signal Processing based Radar Sensor for High Accuracy Behavior Detection
KR20210001227A (en) * 2019-06-27 2021-01-06 한양대학교 산학협력단 Non-contact type gesture recognization apparatus and method
KR20210015695A (en) * 2019-07-31 2021-02-10 삼성전자주식회사 Pose estimation method, pose estimation apparatus, and training method for pose estimation

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20140079025A (en) * 2012-12-18 2014-06-26 현대자동차주식회사 Method for providing a user interface using leg gesture recognition in a vehicle
KR20200078044A (en) * 2018-12-21 2020-07-01 전자부품연구원 Intelligent Signal Processing based Radar Sensor for High Accuracy Behavior Detection
KR20210001227A (en) * 2019-06-27 2021-01-06 한양대학교 산학협력단 Non-contact type gesture recognization apparatus and method
KR20210015695A (en) * 2019-07-31 2021-02-10 삼성전자주식회사 Pose estimation method, pose estimation apparatus, and training method for pose estimation

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN118277773A (en) * 2024-05-29 2024-07-02 珠海正和微芯科技有限公司 Gesture recognition method and device, storage medium and electronic equipment

Also Published As

Publication number Publication date
KR102660365B1 (en) 2024-04-26

Similar Documents

Publication Publication Date Title
US11701093B2 (en) Ultrasound imaging device and clutter filtering method using same
JP6742554B1 (en) Information processing apparatus and electronic apparatus including the same
Ali et al. Improved YOLOv4 for aerial object detection
CN111695420A (en) Gesture recognition method and related device
US20150206026A1 (en) Method of generating feature vector, generating histogram, and learning classifier for recognition of behavior
Beh et al. Hidden Markov model on a unit hypersphere space for gesture trajectory recognition
US20110293173A1 (en) Object Detection Using Combinations of Relational Features in Images
KR20200062183A (en) Method and device for audio restoration using machine learning
JP2019057247A (en) Image processing device and program
US11328211B2 (en) Delimitation in unsupervised classification of gestures
CN106301575B (en) The sorting technique and device and optical fiber sensing system of a kind of fiber-optic vibration signal
KR102660365B1 (en) Electronic apparatus and Method for recognizing a user gesture thereof
KR20190130179A (en) 2d landmark feature synthesis and facial expression strength determination for micro-facial expression detection
JP2021012595A (en) Information processing apparatus, method for controlling information processing apparatus, and program
Henderson et al. Detection and classification of drones through acoustic features using a spike-based reservoir computer for low power applications
CN117058597B (en) Dimension emotion recognition method, system, equipment and medium based on audio and video
KR101514551B1 (en) Multimodal user recognition robust to environment variation
Ahmad et al. Fpga based deterministic latency image acquisition and processing system for automated driving systems
Fodli et al. Driving Behavior Recognition using Multiple Deep Learning Models
JP5360143B2 (en) Driving scene recognition model generation device, driving support device, and program
JP2009134466A (en) Recognition processing device, method, and computer program
US9893742B1 (en) Information processing device, information processing method, and information processing program for data compression
KR102533084B1 (en) Apparatus and method for processing imbalance data
Ionescu et al. Kernels for visual words histograms
KR102563000B1 (en) Apparatus and method for behavior recognition

Legal Events

Date Code Title Description
E902 Notification of reason for refusal
AMND Amendment
E601 Decision to refuse application
AMND Amendment
X701 Decision to grant (after re-examination)