KR101900754B1 - Method for establishing user definition motion and motion recognition apparatus using the same - Google Patents

Method for establishing user definition motion and motion recognition apparatus using the same Download PDF

Info

Publication number
KR101900754B1
KR101900754B1 KR1020180089378A KR20180089378A KR101900754B1 KR 101900754 B1 KR101900754 B1 KR 101900754B1 KR 1020180089378 A KR1020180089378 A KR 1020180089378A KR 20180089378 A KR20180089378 A KR 20180089378A KR 101900754 B1 KR101900754 B1 KR 101900754B1
Authority
KR
South Korea
Prior art keywords
user
sampling point
recognition
definition table
motion
Prior art date
Application number
KR1020180089378A
Other languages
Korean (ko)
Other versions
KR20180090968A (en
Inventor
김지훈
조승현
Original Assignee
에스케이텔레콤 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 에스케이텔레콤 주식회사 filed Critical 에스케이텔레콤 주식회사
Priority to KR1020180089378A priority Critical patent/KR101900754B1/en
Publication of KR20180090968A publication Critical patent/KR20180090968A/en
Application granted granted Critical
Publication of KR101900754B1 publication Critical patent/KR101900754B1/en

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M1/00Substation equipment, e.g. for use by subscribers
    • H04M1/72Mobile telephones; Cordless telephones, i.e. devices for establishing wireless links to base stations without route selection
    • H04M1/724User interfaces specially adapted for cordless or mobile telephones
    • H04M1/72448User interfaces specially adapted for cordless or mobile telephones with means for adapting the functionality of the device according to specific conditions
    • H04M1/72454User interfaces specially adapted for cordless or mobile telephones with means for adapting the functionality of the device according to specific conditions according to context-related or environment-related conditions
    • H04M1/72569
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M2201/00Electronic components, circuits, software, systems or apparatus used in telephone systems
    • H04M2201/34Microprocessors
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M2250/00Details of telephonic subscriber devices
    • H04M2250/12Details of telephonic subscriber devices including a sensor for measuring a physical value, e.g. temperature or motion

Abstract

본 발명은 사용자가 행한 움직임의 특징을 추출하여 하나 이상의 단위 동작으로 이루어지는 사용자 동작의 인식 조건을 자동으로 설정할 수 있는 사용자 동작 정의 방법 및 이를 적용한 동작 인식 장치에 관한 것으로서, 사용자의 동작에 따라서 변화되는 하나 이상의 센서의 센싱값을 수집하고, 상기 수집한 센싱값을 기반으로 움직임 정보를 산출한 후, 연속적으로 산출된 움직임 정보를 비교하여, 움직임 방향 및 속도 중 하나 이상에서 기준값 이상 변화가 발생한 하나 이상의 샘플링 포인트를 추출하고, 상기 추출한 샘플링 포인트의 동작 순서 및 인식 조건을 추출하여 상기 사용자의 동작에 대한 동작 정의 테이블을 생성하는 것이다.The present invention relates to a user operation defining method and a motion recognizing apparatus for extracting a characteristic of a motion performed by a user and automatically setting a recognition condition of a user operation performed by one or more unit operations, The motion information may be calculated based on the sensed values of the at least one sensor, and the motion information may be continuously calculated. The at least one motion information may include one or more Extracts a sampling point, extracts an operation order and a recognition condition of the extracted sampling point, and generates an operation definition table for the operation of the user.

Description

사용자 동작 정의 방법 및 이를 적용한 동작 인식 장치 {Method for establishing user definition motion and motion recognition apparatus using the same}TECHNICAL FIELD [0001] The present invention relates to a method for defining a user's motion and a motion recognition apparatus using the motion recognition apparatus.

본 발명은 하나 이상의 센서를 이용하여 사용자의 동작을 인식하는 방법 및 장치에 관한 것으로서, 더욱 상세하게는 사용자가 행한 움직임의 특징을 추출하여 하나 이상의 단위 동작으로 이루어지는 사용자 동작의 인식 조건을 자동으로 설정함으로써, 사용자 정의 동작의 인식을 가능하게 하는 사용자 동작 정의 방법 및 이를 적용한 동작 인식 장치에 관한 것이다.The present invention relates to a method and apparatus for recognizing an operation of a user by using one or more sensors, and more particularly, to a method and apparatus for extracting a feature of a motion performed by a user, To a user-defined operation method that enables recognition of a user-defined operation, and to an operation recognition apparatus using the same.

최근에는 개방형 OS를 탑재함으로써, 휴대전화에 PC의 고기능을 결합시킨 스마트폰(Smart Phone)이 대중화되면서, 고기능, 고성능의 스마트폰의 활용 방향에 대한 다양한 시도가 이루어지고 있다.In recent years, with the introduction of an open OS, a smart phone combining a high function of a PC with a mobile phone has become popular, and various attempts have been made to utilize a high-function and high-performance smart phone.

특히, 초소형 제작 기술의 발달과 함께 첨단 센서들이 더욱 소형화되고 저렴해지면서 스마트폰에 더 많은 센서들이 탑재될 수 있으며, 이에 증강현실이나 3D 게임 등과 같이 이러한 센서들을 활용한 지능형 애플리케이션들이 많이 개발되고 있다.In particular, with the development of micro-fabrication technology, advanced sensors become smaller and cheaper, and more sensors can be mounted on smart phones, and intelligent applications utilizing such sensors, such as augmented reality and 3D games, are being developed .

아울러, 스마트폰에 탑재되는 센서들이 단순히 주변환경을 감지하는 장치에서 사용자의 신체 변화, 감정상태까지 고려하는 지능형 센서로서 진화하여 인간과 감성을 교감할 수 있는 핵심 매개체 역할을 담당할 수 있을 것으로 전망됨에 따라서, 센서들을 활용한 지능형 애플리케이션들은 더 많이 증대될 것으로 예측된다.In addition, sensors mounted on smart phones will be able to play a key role in communicating emotions with human beings by evolving into an intelligent sensor that takes into consideration user's physical changes and emotional states in a device that senses the surrounding environment. As a result, intelligent applications utilizing sensors are expected to grow even more.

스마트폰에 탑재되는 센서로서, 카메라(이미지) 센서, 음향 센서, 근접 센서, 조도 센서, 중력 센서, GPS 센서, 가속도 센서, 자이로 센서, 지자기 센서 등이 있다.There are camera (image) sensor, acoustic sensor, proximity sensor, illuminance sensor, gravity sensor, GPS sensor, acceleration sensor, gyro sensor, and geomagnetic sensor.

이 중에서, 카메라(이미지) 센서는, 빛을 감지해 그 세기의 정도를 디지털 영상 데이터로 변환해 주는 센서로, 얼굴 인식 등에 이용될 수 있으며, 음향센서는, 물리적인 소리를 공기 압력의 변화에 의해 전기적인 신호로 변환하는 센서로서, 음성인식 기반의 서비스에 이용될 수 있으며, 근접센서는, 기계적인 접촉에 의한 검출방식이 아니라 검출체가 가까이 근접했을 때 검출 대상물체의 유무를 판별하는 무첩촉 방식의 검출 센서로서, 보통 통화를 위해 스마트폰을 얼굴에 가까이 가져가거나 주머니 등에 넣는 경우 화면이 자동으로 꺼지게끔 하는 기능 등에 활용된다.Among them, a camera (image) sensor is a sensor that detects light and converts the intensity of the light into digital image data, which can be used for face recognition and the like. The acoustic sensor detects a physical sound by changing the air pressure The proximity sensor is not a detection system based on mechanical contact but a proximity sensor that detects the presence or absence of an object to be detected when the detection object comes close to the proximity sensor Detection sensor that can be used to automatically turn off the screen when the smartphone is brought close to the face or placed in a pocket for a normal call.

그리고, 조도센서는, 주변 밝기를 감지하는 센서로서, 통상 모바일 단말의 전력소모량을 줄이고 눈의 피로감을 덜 수 있도록 밝은 곳에서는 화면 조도를 높이고 어두운 곳에서는 낮추도록 설정하는데 이용되고, 중력센서는, 중력이 어느 방향으로 작용하는 지를 탐지해 물체 움직임을 감지하는 센서로서, 스마트폰의 디스플레이 방향(가로, 세로)을 판단해 스크린의 방향을 자동으로 보정해 주는 역할 등에 사용된다.The illuminance sensor is a sensor for sensing the ambient brightness. Normally, the illuminance sensor is used to reduce the power consumption of the mobile terminal and to reduce the fatigue of the eyes. It is a sensor that detects the direction of gravity and detects movement of objects. It is used to automatically correct the direction of the screen by determining the display direction (horizontal and vertical) of the smartphone.

또한, GPS센서는 위성위치 확인 시스템을 통해 물체의 시간 및 위치 정보 수집이 가능한 센서로서, 다양한 위치 기반 서비스에 활용되고, 가속도 센서는, 단위시간당 물체 속도의 변화, 충격 등 동적 힘의 변화를 감지하는 센서로서, 최근에는 MEMS 기술을 적용한 3축 가속도 센서가 보편화되고 있으며 기울기 변화, 흔들림 등 물체 움직임까지도 감지가 가능해졌으며, 지자기 센서는, 지구 자기장의 흐름을 파악해 나침반처럼 방위각을 탐지하는 센서이고, 자이로 센서는, 물체의 관성력을 전기신호로 검출하며, 주로 회전각을 감지하는 센서로서, 높이와 회전, 기울기 등을 직접 감지할 수 있어 3축 가속도 센서와 연계할 경우, 보다 정교한 동작 인식이 가능하다.In addition, the GPS sensor is a sensor capable of collecting time and position information of an object through a satellite positioning system, and is utilized for various location-based services. The acceleration sensor detects changes in object speed per unit time, In recent years, three-axis acceleration sensors using MEMS technology have become popular, and even object movements such as tilt changes and shakes can be detected. A geomagnetic sensor is a sensor that detects the azimuth angle like a compass by grasping the flow of the earth's magnetic field, The gyro sensor detects the inertial force of an object as an electric signal and mainly detects the rotation angle. It can detect the height, the rotation, and the tilt directly, so that it can recognize more precise motion when connected with the 3-axis acceleration sensor. Do.

이러한 다양한 센서들을 활용하여 동작을 인식하기 위해서는, 인식하고자 하는 동작에 대하여 명확한 인식 조건을 지정해 주어야 한다. 여기서, 인식 조건은, 인식하는 값의 종류 및 범위로 정의될 수 있다.In order to recognize an operation using these various sensors, it is necessary to specify a clear recognition condition for the operation to be recognized. Here, the recognition condition may be defined by the kind and range of the recognized value.

그런데 기존의 동작 인식에서는, 사전에 정의되어 있는 정형된 형태의 동작에 대해서만 인식이 가능했으며, 사용자가 임의의 동작을 지정하여 인식하는 것은 불가능하였다.However, in the conventional motion recognition, only a predetermined type of motion defined in advance can be recognized, and it is impossible for the user to specify and recognize an arbitrary motion.

한국공개특허 제10-2010-0081552호, 2010년 7월 19일 공개 (명칭: 휴대용 단말기의 동작 감지 장치 및 방법)Korean Patent Laid-Open No. 10-2010-0081552, published on July 19, 2010 (name: device and method for detecting motion of portable terminal)

이에 본 발명은 사용자가 임의로 지정한 동작의 인식 조건을 자동으로 설정함으로써 사용자 정의 동작을 인식할 수 있도록 하기 위한 것으로서, 특히, 사용자가 행한 움직임의 특징을 추출하여 하나 이상의 단위 동작으로 이루어지는 사용자 동작의 인식 조건을 자동으로 설정할 수 있는 사용자 동작 정의 방법 및 이를 적용한 동작 인식 장치를 제공하고자 한다.Accordingly, the present invention provides a method and apparatus for recognizing a user-defined motion by automatically setting a recognition condition of a motion arbitrarily specified by a user, and more particularly, A method for defining a user action capable of automatically setting a condition, and a motion recognition device using the same.

본 발명은 상술한 과제의 해결 수단으로서, 사용자의 동작에 따라서 변화되는 하나 이상의 센서의 센싱값을 수집하는 단계; 상기 수집한 센싱값을 기반으로 움직임 정보를 산출하는 단계; 연속적으로 산출된 움직임 정보를 비교하여, 움직임 방향 및 속도 중 하나 이상에서 기준값 이상 변화가 발생한 하나 이상의 샘플링 포인트를 추출하는 단계; 상기 추출한 샘플링 포인트의 동작 순서 및 인식 조건을 추출하여 상기 사용자의 동작에 대한 동작 정의 테이블을 생성하는 단계를 포함하는 사용자 동작 정의 방법을 제공한다.The present invention, as a solution to the above-mentioned problems, includes the steps of collecting a sensing value of one or more sensors that changes according to a user's operation; Calculating motion information based on the collected sensing values; Comparing the continuously calculated motion information to extract at least one sampling point at which a change of at least one of the movement direction and the velocity has occurred beyond the reference value; And extracting an operation sequence and a recognition condition of the extracted sampling points and generating an operation definition table for the operation of the user.

여기서, 상기 인식 조건은, 각 샘플링 포인트에서 산출된 회전각도, 이전 샘플링 포인트에서 현재 샘플링 포인트까지의 회전각도 변화량, 이전 샘플링 포인트에서 현재 샘플링 포인트까지 움직인 시간 중 하나 이상을 포함할 수 있다.Here, the recognition condition may include at least one of a rotation angle calculated at each sampling point, a rotation angle change amount from a previous sampling point to a current sampling point, and a moving time from a previous sampling point to a current sampling point.

그리고, 상기 동작 정의 테이블을 생성하는 단계는, 2회 이상 반복하여 이루어진 사용자의 동작 별로 추출된 각 샘플링 포인트의 인식 조건들의 평균값을 구하고, 상기 평균값으로 상기 동작 정의 테이블을 생성할 수 있다.The generating of the operation definition table may include obtaining an average value of recognition conditions of each sampling point extracted for each operation of the user repeated two or more times and generating the operation definition table with the average value.

더하여, 본 발명에 따른 사용자 동작 정의 방법은, 상기 동작 정의 테이블에 정의된 각 샘플링 포인트의 인식 조건에 대한 최대최소 범위를 정의하는 마진 관리 테이블을 생성하는 단계를 더 포함할 수 있으며, 상기 마진 관리 테이블을 생성하는 단계는, 2회 이상 반복하여 이루어진 사용자의 동작 별로 추출된 하나 이상의 샘플링 포인트에서 산출된 인식 조건의 표준편차를 구하여, 각 샘플링 포인트별 마진값을 설정할 수 있다.In addition, the method of defining a user operation according to the present invention may further include generating a margin management table that defines a maximum minimum range for recognition conditions of each sampling point defined in the operation definition table, The step of generating a table may determine a standard deviation of recognition conditions calculated at one or more sampling points extracted for each operation of the user repeated two or more times and set a margin value for each sampling point.

또한, 본 발명에 따른 사용자 동작 정의 방법에 있어서, 상기 샘플링 포인트를 추출하는 단계는, 상기 추출한 하나 이상의 샘플링 포인트로 구분되는 구간 중, 움직임 시간이 기준값보다 길고, 변화 패턴을 포함하는 구간을 추출하고, 상기 추출한 구간 중 움직임 변화가 발생하는 하나 이상의 포인트를 샘플링 포인트로 추가 추출할 수 있다.According to another aspect of the present invention, there is provided a method of defining a user operation, wherein the extracting of the sampling point comprises extracting a section including a variation pattern, the variation time being longer than a reference value, , And one or more points where a motion change occurs in the extracted section may be additionally extracted as a sampling point.

더하여, 본 발명은 상술한 과제의 다른 해결 수단으로서, 사용자 동작에 따라서 변화되는 하나 이상의 센서의 센싱값을 수집하는 센싱값 수집 모듈; 상기 수집한 센싱값으로부터 상기 동작의 움직임 정보를 산출하는 연산 모듈; 및 연속적으로 산출된 움직임 정보를 비교하여, 움직임 방향 및 속도 중 하나 이상에서 기준값 이상 변화가 발생한 하나 이상의 샘플링 포인트를 추출하고, 상기 추출한 샘플링 포인트의 동작 순서 및 인식 조건을 추출하여 상기 사용자의 동작에 대한 동작 정의 테이블을 생성하는 학습 모듈을 포함하는 것을 특징으로 하는 동작 인식 장치를 제공할 수 있다.In addition, the present invention provides, as another solution to the above-mentioned problem, a sensing value collection module for collecting sensing values of one or more sensors that are changed according to a user operation; A calculation module for calculating motion information of the motion from the collected sensing values; And sequentially calculates motion information, extracts at least one sampling point at which at least one of the movement direction and the velocity has changed more than the reference value, extracts the operation order and the recognition condition of the extracted sampling point, And a learning module for generating an action definition table for the action recognition device.

여기서, 상기 학습 모듈은, 2회 이상 반복하여 상기 동작에 대한 샘플링 포인트를 추출하고, 각 샘플링 포인트에서 추출된 인식 조건들의 평균값을 구하여, 상기 동작 정의 테이블을 생성할 수 있으며, 더하여, 2회 이상 반복하여 추출된 각 샘플링 포인트의 인식 조건들의 표준편차를 구하고, 상기 표준편차를 기반으로 상기 동작 정의 테이블에 정의된 각 샘플링 포인트의 인식 조건에 대한 최대최소 범위를 정의하는 마진 관리 테이블에 더 생성할 수 있다.Here, the learning module may generate the operation definition table by extracting a sampling point for the operation by repeating the operation twice or more, calculating an average value of the recognition conditions extracted at each sampling point, A standard deviation of recognition conditions of each sampling point repeatedly extracted is further determined and a further margin management table is defined based on the standard deviation to define a maximum minimum range for recognition conditions of each sampling point defined in the operation definition table .

또한, 본 발명에 따른 동작 인식 장치는, 상기 동작 정의 테이블 및 마진 관리 테이블을 저장하는 저장 모듈; 및 상기 연산 모듈로부터 산출된 움직임 정보와, 상기 동작 정의 테이블 및 마진 관리 테이블에 의해 설정된 인식 조건을 비교하여, 사용자 정의 동작을 인식하는 인식 모듈을 더 포함할 수 있다.Further, the motion recognition apparatus according to the present invention may further include: a storage module for storing the operation definition table and the margin management table; And a recognition module that compares the motion information calculated by the calculation module with the recognition condition set by the operation definition table and the margin management table to recognize the user defined operation.

본 발명은, 연속적으로 이루어지는 사용자의 움직임에 대응하여 발생하는 하나 이상의 센서의 센싱값을 추출하고, 이를 통해 산출된 연속적인 움직임 정보들을 비교하여, 방향 및 속도 중 하나 이상이 기준값 이상 변화하는 하나 이상의 샘플링 포인트를 추출하고, 샘플링 포인트 간의 순서를 정의함으로써, 하나 이상의 단위 동작으로 이루어진 사용자 정의 동작의 인식 조건을 자동으로 설정할 수 있다.The present invention extracts a sensed value of one or more sensors generated in response to a user's motion continuously and compares the calculated sensed motion information with continuous motion information so that at least one of a direction and a velocity changes more than a reference value, By defining the order between the sampling points and extracting the sampling point, the recognition condition of the user-defined operation made up of one or more unit operations can be automatically set.

더하여, 본 발명은 사용자의 움직임에 대응하는 추출한 하나 이상의 샘플링 포인트의 움직임 정보에 대한 기준값 및 마진을 설정함으로써, 사용자 정의 동작에 대한 인식률을 향상시킬 수 있다.In addition, the present invention can improve the recognition rate for the user-defined motion by setting the reference value and the margin for the motion information of the extracted one or more sampling points corresponding to the motion of the user.

도 1은 사용자 단말의 동작을 정의하기 위한 기준 좌표계 및 움직임 정보를 나타낸 도면이다.
도 2는 본 발명에 따른 사용자 동작 정의 기능을 구비한 동작 인식 장치를 나타낸 블럭도이다.
도 3은 본 발명에 따른 사용자 동작 정의 방법을 나타낸 순서도이다.
도 4는 본 발명에 따른 사용자 동작 정의 방법에 있어서, 샘플링 포인트 추출 과정을 더 구체적으로 나타낸 순서도이다.
도 5는 본 발명에 따른 사용자 정의 동작을 일 예를 나타낸 도면이다.
도 6은 본 발명에 따른 사용자 동작 정의 방법에 따라서 설정된 동작 정의 테이블의 일 예를 도시한 도면이다.
도 7은 본 발명에 따른 사용자 동작 정의 방법에 따라서 설정된 마진 관리 테이블의 일 예를 도시한 도면이다.
1 is a diagram illustrating a reference coordinate system and motion information for defining an operation of a user terminal.
2 is a block diagram illustrating a motion recognition apparatus having a user motion definition function according to the present invention.
3 is a flowchart illustrating a method of defining a user operation according to the present invention.
4 is a flowchart illustrating a sampling point extracting process in a user operation defining method according to the present invention.
5 is a diagram illustrating an example of a user-defined operation according to the present invention.
6 is a view showing an example of an operation definition table set according to a method of defining a user operation according to the present invention.
7 is a diagram illustrating an example of a margin management table set according to a method of defining a user operation according to the present invention.

이하 본 발명의 바람직한 실시 예를 첨부한 도면을 참조하여 상세히 설명한다. 다만, 하기의 설명 및 첨부된 도면에서 본 발명의 요지를 흐릴 수 있는 공지 기능 또는 구성에 대한 상세한 설명은 생략한다. 또한, 도면 전체에 걸쳐 동일한 구성 요소들은 가능한 한 동일한 도면 부호로 나타내고 있음에 유의하여야 한다.Hereinafter, preferred embodiments of the present invention will be described in detail with reference to the accompanying drawings. In the following description and the accompanying drawings, detailed description of well-known functions or constructions that may obscure the subject matter of the present invention will be omitted. It should be noted that the same constituent elements are denoted by the same reference numerals as possible throughout the drawings.

이하에서 설명되는 본 명세서 및 청구범위에 사용된 용어나 단어는 통상적이거나 사전적인 의미로 한정해서 해석되어서는 아니 되며, 발명자는 그 자신의 발명을 가장 최선의 방법으로 설명하기 위한 용어의 개념으로 적절하게 정의할 수 있다는 원칙에 입각하여 본 발명의 기술적 사상에 부합하는 의미와 개념으로 해석되어야만 한다. 따라서 본 명세서에 기재된 실시 예와 도면에 도시된 구성은 본 발명의 가장 바람직한 일 실시 예에 불과할 뿐이고, 본 발명의 기술적 사상을 모두 대변하는 것은 아니므로, 본 출원시점에 있어서 이들을 대체할 수 있는 다양한 균등물과 변형 예들이 있을 수 있음을 이해하여야 한다.The terms and words used in the present specification and claims should not be construed to be limited to ordinary or dictionary meanings and the inventor is not limited to the concept of terminology for describing his or her invention in the best way. It should be interpreted as meaning and concept consistent with the technical idea of the present invention. Therefore, the embodiments described in the present specification and the configurations shown in the drawings are merely the most preferred embodiments of the present invention, and not all of the technical ideas of the present invention are described. Therefore, It is to be understood that equivalents and modifications are possible.

또한, 제1, 제2 등과 같이 서수를 포함하는 용어는 다양한 구성요소들을 설명하기 위해 사용하는 것으로, 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만 사용될 뿐, 상기 구성요소들을 한정하기 위해 사용되지 않는다. 예를 들어, 본 발명의 권리 범위를 벗어나지 않으면서 제2 구성요소는 제1 구성요소로 명명될 수 있고, 유사하게 제1 구성요소도 제2 구성요소로 명명될 수 있다.Also, terms including ordinal numbers such as first, second, etc. are used to describe various elements, and are used only for the purpose of distinguishing one element from another, Not used. For example, without departing from the scope of the present invention, the second component may be referred to as a first component, and similarly, the first component may also be referred to as a second component.

더하여, 어떤 구성요소가 다른 구성요소에 "연결되어" 있다거나 "접속되어" 있다고 언급할 경우, 이는 논리적 또는 물리적으로 연결되거나, 접속될 수 있음을 의미한다. 다시 말해, 구성요소가 다른 구성요소에 직접적으로 연결되거나 접속되어 있을 수 있지만, 중간에 다른 구성요소가 존재할 수도 있으며, 간접적으로 연결되거나 접속될 수도 있다고 이해되어야 할 것이다.In addition, when referring to an element as being "connected" or "connected" to another element, it means that it can be connected or connected logically or physically. In other words, it is to be understood that although an element may be directly connected or connected to another element, there may be other elements in between, or indirectly connected or connected.

또한, 본 명세서에서 사용한 용어는 단지 특정한 실시 예를 설명하기 위해 사용된 것으로, 본 발명을 한정하려는 의도가 아니다. 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. 또한, 본 명세서에서 기술되는 "포함 한다" 또는 "가지다" 등의 용어는 명세서상에 기재된 특징, 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.Also, the terminology used herein is for the purpose of describing particular embodiments only and is not intended to be limiting of the invention. The singular expressions include plural expressions unless the context clearly dictates otherwise. It is also to be understood that the terms such as " comprising "or" having ", as used herein, are intended to specify the presence of stated features, integers, It should be understood that the foregoing does not preclude the presence or addition of other features, numbers, steps, operations, elements, parts, or combinations thereof.

아울러, 본 발명에 따른 사용자 동작 정의 방법 및 동작 인식 장치는, 사용자 동작 인식, 로봇 제어 등 다양한 분야에 적용될 수 있으나, 이하에서는 사용자 단말에 적용된 경우를 예로 들어 설명하기로 한다.In addition, the method and apparatus for recognizing user actions according to the present invention can be applied to various fields such as user operation recognition, robot control, and the like. Hereinafter, the present invention is applied to a user terminal.

사용자 단말에서의 동작 인식은, 기 정의된 특정 움직임(뒤집기, 특정 방향으로 흔들기, 특정 패턴 그리기, 사용자 접근)을 감지하여 사용자 단말의 특정 기능을 제어하기 위한 용도로 이용되는 것으로서, 사용자 단말의 움직임은, 도 1과 같은 3차원 직각 좌표계를 통해, 방위각, 피치(Pitch), 롤(Roll)로 나타낼 수 있다.The motion recognition in the user terminal is used for controlling a specific function of the user terminal by sensing a predetermined specific motion (flipping, wiggling in a specific direction, drawing a specific pattern, user access) Can be represented by an azimuth angle, a pitch, and a roll through a three-dimensional rectangular coordinate system as shown in FIG.

즉, 도 1에 도시된 바와 같이, 사용자 단말의 가로 방향을 X축, 세로 방향을 Y축, 폭 방향을 Z축이라 할 때, 방위각은, 사용자 단말이 향하는 방향(동, 서, 남, 북)에 따라서 Z축을 기준으로 0~360°(또는 -180°~180°)로 나타내며, 피치는 가로축 기준 회전각으로서, 사용자 단말이 세워진 형태에 따라서 -90°~90°로 나타내며, 롤은 세로축 기준 회전각으로서, 사용자 단말이 뉘어진 형태에 따라서 -180°~180°로 나타낸다.1, when the horizontal direction of the user terminal is the X axis, the vertical direction is the Y axis, and the width direction is the Z axis, the azimuth angle is a direction in which the user terminal is oriented (east, west, (Or -180 ° to 180 °) with respect to the Z axis, and the pitch is the horizontal axis rotation angle, which is represented by -90 ° to 90 ° according to the form in which the user terminal is erected, The reference rotation angle is expressed as -180 ° to 180 ° according to the form in which the user terminal is divided.

물론, 동작 인식에 있어서, 기준 좌표계 및 움직임의 표현 방법은 달라질 수 있는 것으로서, 상술한 정의는 예시에 불과하다.Of course, in the motion recognition, the reference coordinate system and the method of expressing the motion can be changed, and the above definition is only an example.

본 발명은 이러한 사용자 단말의 움직임 중 사용자에 의해 지정된 임의의 움직임에 대한 특징값을 추출하여 인식 조건을 설정하고, 설정된 인식 조건에 따라서 사용자에 의해 지정된 임의 움직임을 인식하기 위한 것으로서, 이러한 기능을 수행하기 위해 본 발명에 따른 동작 인식 장치는 도 2에 도시된 바와 같이 구성될 수 있다.The present invention is for recognizing a random motion specified by a user in accordance with a set recognition condition by extracting a feature value of an arbitrary motion designated by the user during the motion of the user terminal and setting a recognition condition, The motion recognition apparatus according to the present invention may be configured as shown in FIG.

도 2는 본 발명에 따른 동작 인식 장치를 나타낸 블럭도로서, 이를 참조하면, 본 발명에 따른 동작 인식 장치는, 센싱값 수집 모듈(100)과, 연산 모듈(200)과, 인식 모듈(300), 학습 모듈(400) 및 저장 모듈(500)을 포함하여 이루어질 수 있다.2 is a block diagram showing an operation recognition apparatus according to the present invention. The operation recognition apparatus according to the present invention includes a sensing value collection module 100, a calculation module 200, a recognition module 300, , A learning module (400), and a storage module (500).

상기 센싱값 수집 모듈(100)은 복수의 센서(10)로부터 출력되는 센싱값을 수집하기 위한 구성이다. 이때, 상기 센싱값 수집 모듈(100)은 일정 주기로 복수의 센서(10) 중 하나 이상의 센서로부터 센싱값을 수집할 수 있으며, 수집한 센싱값은 센서에 따라서 상이한 단위를 가질 수 있다. 예를 들어, 조도 센서의 센싱값은, 조도의 양(Lux)를 나타내고, 근접 센서의 센싱값은, 근접한 사물과의 거리 및/또는 근접 여부를 나타내며, 3축 가속도 센서의 센싱값은, 3축(X, Y, Z) 방향으로의 가속도값을 나타내며, 3축 자이로 센서의 센싱값은, 3축(X, Y, Z)에 방향으로의 각속도를 나타내며, 지자기 센서의 센싱값은 지자기의 방향을 나타낸다.The sensing value collection module 100 is configured to collect sensing values output from the plurality of sensors 10. At this time, the sensing value collection module 100 may collect sensing values from one or more sensors of the plurality of sensors 10 at regular intervals, and the collected sensing values may have different units depending on the sensors. For example, the sensing value of the illuminance sensor indicates the amount of illumination (Lux), the sensing value of the proximity sensor indicates the distance to and / or proximity to a nearby object, and the sensing value of the 3-axis acceleration sensor is 3 Axis, the sensing value of the three-axis gyro sensor indicates the angular velocity in the direction of the three axes (X, Y, Z), and the sensing value of the geomagnetism sensor indicates the acceleration value in the direction of the axis Direction.

연산 모듈(200)은, 상기 센싱값 수집 모듈(100)에 의해 수집된 하나 이상의 센싱값을 인식 모듈(300)에서 인식할 수 있는 움직임 정보로 연산하는 구성이다. 예를 들어, 연산 모듈(200)은 회전 벡터와 회전 행렬 연산을 통해서, 수집한 센싱값으로부터 도 1에서 설명한 움직임 정보, 즉, 방위각, 피치 각도, 롤 각도 등에 대한 회전각 및/또는 각속도를 산출할 수 있다. 또한, 상기 연산 모듈(200)은, 조도 센서의 센싱값으로서, 조도 측정값 혹은 조도 변화량을 연산하고, 근접 센서의 센싱값으로부터, 근접 횟수, 근접 거리를 산출할 수 있다.The calculation module 200 calculates one or more sensing values collected by the sensing value collection module 100 as motion information that can be recognized by the recognition module 300. For example, the calculation module 200 calculates rotation angles and / or angular velocities of the motion information described in FIG. 1, i.e., the azimuth angle, the pitch angle, the roll angle, etc., from the sensed values obtained through the rotation vector and rotation matrix calculation can do. Also, the calculation module 200 can calculate the roughness measurement value or the roughness variation as the sensing value of the roughness sensor, and calculate the proximity frequency and proximity distance from the sensing value of the proximity sensor.

인식 모듈(300)은 상기 연산 모듈(200)로부터 산출된 움직임 정보를 이용하여 기 정의된 동작을 인식하기 위한 구성이다. 특히, 상기 인식 모듈(300)은, 저장 모듈(500)에 저장된 동작 정의 테이블(501) 및 마진 관리 테이블(502)를 통해서 정의된 각 동작의 인식 조건과 상기 산출된 움직임 정보를 비교하여, 기 정의된 동작이 발생하며 이를 인식한다. 여기서, 기 정의된 동작은, 사용자에 의해 정의된 사용자 정의 동작을 포함할 수 있다. The recognition module 300 is a configuration for recognizing a predefined motion using the motion information calculated from the calculation module 200. [ Particularly, the recognition module 300 compares the calculated motion information with the recognition condition of each operation defined through the operation definition table 501 and the margin management table 502 stored in the storage module 500, A defined action occurs and is recognized. Here, the predefined actions may include user defined actions defined by the user.

상기 인식 모듈(300)은, 방향, 속도 및 시간 중 어느 하나의 변화를 기준으로 구분한 하나 이상의 단위 동작을 인식하고, 인식된 단위 동작을 조합하여 상기 기 정의된 동작을 인식한다. 여기서, 단위 동작은 기 정의된 동작을 방향, 시간, 속도 중 하나 이상을 기준으로 세분화한 구분한 것으로서, 예를 들어, 별 모양의 패턴을 그리는 동작인 경우, 5개의 단위 동작으로 구분할 수 있다.The recognition module 300 recognizes one or more unit operations classified based on any one of direction, speed, and time, and recognizes the predefined operation by combining the recognized unit operations. Here, the unit operation is a division of the previously defined operation by one or more of direction, time, and speed. For example, if the operation is to draw a star pattern, it can be classified into five unit operations.

학습 모듈(400)은 상기 인식 모듈(300)에서 인식할 동작에 대한 인식 조건을 설정하기 위한 구성으로서, 특히, 사용자가 임의로 취한 사용자 정의 동작에 대한 인식 조건을 설정할 수 있다. 더 구체적으로, 학습 모듈(400)은, 일정 시간 동안 상기 센싱값 수집 모듈(100)에서 수집된 하나 이상의 센싱값을 기반으로 연산 모듈(200)에서 연속적으로 산출되는 움직임 정보들을 비교하여 상기 하나 이상의 단위 동작을 구분하기 위한 샘플링 포인트를 추출하고, 추출한 샘플링 포인트별 움직임 정보를 비교하여 인식 조건 및 마진을 산출하여, 사용자가 원하는 동작에 대한 상기 동작 정의 테이블(501) 및 마진 관리 테이블(502)를 생성한다.The learning module 400 may be configured to set a recognition condition for an operation to be recognized by the recognition module 300. In particular, the learning module 400 may set a recognition condition for a user-defined operation that the user takes. More specifically, the learning module 400 compares the motion information continuously calculated in the calculation module 200 based on the one or more sensed values collected in the sensing value acquisition module 100 for a predetermined time, The operation definition table 501 and the margin management table 502 for the operation desired by the user are obtained by comparing the motion information for each extracted sampling point with the sampling point for classifying the unit operation and calculating the recognition condition and the margin .

저장 모듈(500)은 상기 학습 모듈(400)에 의해 생성된 하나 이상의 사용자 정의 동작에 대한 동작 정의 테이블(501) 및 마진 관리 테이블(502)을 저장하고, 저장된 동작 정의 테이블(501) 및 마진 관리 테이블(502)을 상기 인식 모듈(300)에 제공한다. 상기 동작 정의 테이블(501) 및 마진 관리 테이블(502)은 특정 동작에 포함된 하나 이상의 단위 동작을 구분하기 위한 하나 이상의 샘플링 포인트 및 각 샘플링 포인트에서의 인식 조건으로 이루어진다.The storage module 500 stores an operation definition table 501 and a margin management table 502 for one or more user defined operations generated by the learning module 400 and stores the operation definition table 501 and the margin management table 502, And provides the table 502 to the recognition module 300. The operation definition table 501 and the margin management table 502 consist of one or more sampling points for distinguishing one or more unit operations included in a specific operation and recognition conditions at each sampling point.

여기서, 인식 조건은, 각 샘플링 포인트에서 산출된 회전각도, 이전 샘플링 포인트에서 현재 샘플링 포인트까지의 회전각도 변화량, 이전 샘플링 포인트에서 현재 샘플링 포인트까지 움직인 시간 중 하나 이상을 포함할 수 있다.Here, the recognition condition may include at least one of a rotation angle calculated at each sampling point, a rotation angle variation from the previous sampling point to the current sampling point, and a time from the previous sampling point to the current sampling point.

상기 인식 모듈(300)은 상기 저장 모듈(500)의 동작 정의 테이블(501) 및 마진 관리 테이블(502)을 참조하여, 사용자 정의 동작을 인식하게 된다.The recognition module 300 refers to the operation definition table 501 and the margin management table 502 of the storage module 500 to recognize the user defined operation.

상술한 동작 인식 장치에 의한 사용자 동작 정의 방법을 도 3 및 도 4의 순서도를 참조하여 구체적으로 설명하기로 한다.A method of defining a user operation by the above-described motion recognition apparatus will be described in detail with reference to the flowcharts of FIG. 3 and FIG.

본 발명에 따른 동작 인식 장치의 동작 모드는, 크게 학습 모드와 인식 모드로 구분될 수 있다. 여기서, 학습 모드는, 인식할 동작의 특징을 학습하여 정의하기 위한 모드로서, 센싱값 수집 모듈(100), 연산 모듈(200) 및 학습 모듈(400)이 활성화된다. 반면, 인식 모드는, 정의된 동작을 인식하기 위한 모드로서, 센싱값 수집 모듈(100), 연산 모듈(200) 및 인식 모듈(300)이 활성화된다.The operation mode of the motion recognition apparatus according to the present invention can be largely divided into a learning mode and a recognition mode. Here, the learning mode is a mode for learning and defining a characteristic of an operation to be recognized, and the sensing value collection module 100, the calculation module 200, and the learning module 400 are activated. On the other hand, the recognition mode is a mode for recognizing a defined operation, and the sensing value collection module 100, the calculation module 200 and the recognition module 300 are activated.

따라서, 도 3을 참조하면, 본 발명에 따른 동작 인식 장치는, 학습 모드인 경우(S110), 센싱값 수집 모듈(100)을 통해서 사용자가 취한 동작에 따라서 복수의 센서(10)로부터 발생한 하나 이상의 센싱값을 수집한다(S120). 예를 들어, 상기 센싱값 수집 모듈(100)은 가속도 센서, 지자기 센서 및 자이로 센서 중 하나 이상으로부터 출력된 센싱값을 수집할 수 있다. 여기서, 하나 이상의 센싱값의 수집은 일정 주기로 이루어질 수 있다. 즉, 일정 시간 동안 연속되어 이루어지는 사용자의 동작에 따라 변화하는 하나 이상의 센싱값을, 일정 주기(예를 들어, 샘플링 주기)로 수집한다. 3, in the case of the learning mode (S110), the motion recognition apparatus according to the present invention is configured to recognize the movement of the at least one sensor 10 based on the operation taken by the user through the sensing value collection module 100 The sensing values are collected (S120). For example, the sensing value acquisition module 100 may collect sensed values output from at least one of an acceleration sensor, a geomagnetic sensor, and a gyro sensor. Here, the collection of the one or more sensing values may be performed at regular intervals. That is, one or more sensed values varying according to the operation of the user consecutively for a predetermined time are collected at a predetermined period (for example, a sampling period).

또한, 본 발명에 따른 동작 인식 장치는, 연산 모듈(200)을 통해서, 상기 수집한 하나 이상의 센싱값을 이용하여 움직임 정보, 예를 들어, 피치, 롤, 방위각에 대응하는 회전 각도 및/또는 각속도를 산출한다. 여기서, 상기 센싱값 수집 모듈(100)이 일정 시간 동안에 이루어지는 동작에 따라서 변화되는 센싱값을 일정 주기로 수집하여 출력하므로, 상기 연산 모듈(200)도 일정 주기마다 사용자가 취한 동작에서 연속적으로 나타내는 움직임 정보를 산출하여 출력한다.In addition, the motion recognition apparatus according to the present invention may use motion information (e.g., pitch, roll, rotation angle and / or angular velocity) corresponding to the azimuth using the collected one or more sensed values . Since the sensing value collection module 100 collects and outputs sensing values that change according to an operation performed for a predetermined period of time at regular intervals, the calculation module 200 also detects movement information And outputs it.

이때, 본 발명에 따른 동작 인식 장치는, 학습 모듈(140)을 통해서, 연속적으로 산출되는 움직임 정보를 비교하여, 하나 이상의 단위 동작을 구분하기 위한 샘플링 포인트를 추출하여, 각 샘플링 포인트의 동작 순서를 구분하여 저장한다(S140). 각 샘플링 포인트에서의 인식 조건을 함께 저장할 수 있다.At this time, the motion recognition apparatus according to the present invention compares motion information continuously calculated through the learning module 140, extracts a sampling point for classifying one or more unit operations, and determines an operation sequence of each sampling point (S140). The recognition condition at each sampling point can be stored together.

상기 샘플링 포인트 추출 과정을 도 4를 참조하여 더 구체적으로 설명하면 다음과 같다.The sampling point extraction process will be described in more detail with reference to FIG.

먼저, 본 발명에 따른 학습 모듈(140)은, 연속적으로 산출된 두 움직임 정보를 비교한다(S210).First, the learning module 140 according to the present invention compares two consecutively calculated motion information (S210).

그리고, 방향 및 속도 중 하나 이상을 기준으로, 기 설정된 기준값 이상 변화된 경우, 상기 변화된 포인트를 샘플링 포인트로 추출한다(S220). 상기 방향은, x,y,z축의 움직임 방향(+/-)이 될 수 있으며, 속도는 선형 가속도 혹은 회전 각속도등이 될 수 있다.If one or more of the direction and the velocity is changed by more than a preset reference value, the changed point is extracted as a sampling point (S220). The direction may be the movement direction (+/-) of the x, y, and z axes, and the velocity may be a linear acceleration or a rotational angular velocity.

예를 들어, 사용자가 본 발명에 따른 동작 인식 장치가 탑재된 단말을 도 5에 도시된 바와 같이 움직인다고 할 때, 본 발명에 따른 동작 인식 장치의 학습 모듈(400)은, 움직임이 처음 발생하는 포인트 SP1, 움직임 방향이 변화된 포인트 SP2 및 SP3, 그리고, 움직임이 종료된 포인트 SP4를 샘플링 포인트로 추출할 수 있다.For example, when the user moves the terminal equipped with the motion recognition apparatus according to the present invention as shown in FIG. 5, the learning module 400 of the motion recognition apparatus according to the present invention, SP1, points SP2 and SP3 whose movement direction has been changed, and a point SP4 at which movement has ended can be extracted as sampling points.

이에 따르면, 상기 도 5에 도시된 동작은, SP1과 SP2 구간의 단위동작 1과, SP2-SP3 구간의 단위동작 2, SP3-SP4 구간의 단위동작 3이 순차적으로 이루어지는 동작으로 정의될 수 있으며, 상기 샘플링 포인트 SP1은 단위동작 1의 시작점이 되고, SP2는 단위동작 1 종료점이자 단위동작 2의 시작점이 되며, SP3는 단위동작 2의 시작점이자 단위동작 3의 종료점이 되고, SP4는 단위동작 3의 종료점이 된다.5 can be defined as an operation in which the unit operation 1 of the interval of SP1 and SP2, the unit operation 2 of the interval of SP2-SP3 and the unit operation 3 of the interval of SP3-SP4 are sequentially performed, The sampling point SP1 is the starting point of the unit operation 1, SP2 is the unit operation 1 end point and the starting point of the unit operation 2, SP3 is the starting point of the unit operation 2 and the end point of the unit operation 3, It becomes an end point.

더하여, 본 발명에 따른 동작 인식 장치의 학습 모듈(400)은, 상술한 바와 같이 하나 이상의 샘플링 포인트를 추출한 후, 샘플링 포인트 사이의 시간이 길고 변화가 존재하여 중간 확인이 필요한 경우, 추가적으로 샘플링 포인트를 추출할 수 있다.In addition, the learning module 400 of the motion recognition apparatus according to the present invention extracts one or more sampling points as described above, and if the time between the sampling points is long and there is a change, Can be extracted.

구체적으로, 학습 모듈(400)은, 하나 이상의 샘플링 포인트를 추출한 후, 각 샘플링 포인트 간의 시간차가 기준값 이상 크고, 변화 패턴이 존재하는 구간을 추출한다(S230).Specifically, the learning module 400 extracts at least one sampling point, and then extracts a section in which the time difference between each sampling point is larger than the reference value and the variation pattern exists (S230).

그리고, 추출한 구간 내에서, 움직임 변화가 발생하는 중간 포인트를 샘플링 포인트로 추가 추출할 수 있다(S240). 예를 들어, 도 5에 예시된 동작에서, 단위동작 2에 대한 움직임 시간이 기준값 이상으로 길면서, 선형 움직임이 아닌 지그재그 패턴으로 움직이는 경우, 학습 모듈(400)은, 상기 지그재그 패턴을 구분하기 위한 각 포인트를 샘플링 포인트로 추가 추출할 수 있다.Then, in the extracted section, the intermediate point at which the motion change occurs can be further extracted as a sampling point (S240). For example, in the operation illustrated in FIG. 5, when the motion time for the unit operation 2 is longer than the reference value and moves in a zigzag pattern rather than a linear motion, the learning module 400 may determine the zigzag pattern Each point can be further extracted as a sampling point.

상술한 샘플링 포인트 추출 과정을 포함하는 단계 S120~S140은 사용자가 지정한 동작이 완료될 때까지 이루어진다. 여기서, 움직임이 감지되지 않거나, 지정된 시간이 경과한 경우, 동작이 완료된 것으로 판단할 수 있다.Steps S120 to S140 including the above-described sampling point extraction process are performed until the operation specified by the user is completed. Here, if no motion is detected or a specified time has elapsed, it can be determined that the operation is completed.

그리고, 동작이 완료되는 시점에, 동작 학습 횟수를 카운팅하고, 본 발명에 따른 동작 인식 장치의 학습 모듈(400)은, 상기 카운팅한 동작 학습 횟수가 지정된 횟수, 예를 들어, n회에 도달하였는 지를 판단하여(S150), n회에 도달하지 못한 경우, 사용자에게 동일한 동작을 다시 취하도록 하면서 상기 단계 S120~S140를 다시 수행하여, 동일 동작에 대하여 n 회 반복하여, 샘플링 포인트 및 샘플링 포인트에서의 인식 조건을 추출한다.The learning module 400 of the motion recognition device according to the present invention counts the number of times of the operation learning at the time when the operation is completed, (S150). If it is not reached n times, the steps S120 through S140 are repeated again while taking the same action again by the user, and the same operation is repeated n times, and the sampling points and sampling points The recognition condition is extracted.

그리고, 지정된 횟수에 도달하면, 상기 동작 인식 장치의 학습 모듈(400)은, n회 반복된 동작별로 추출된 각 샘플링 포인트의 인식 조건의 평균값으로, 상기 샘플링 포인트의 인식 조건을 설정할 수 있다(S160). 상기에서 추출된 각 샘플링 포인트 및 그 인식 조건은, 동작 순서에 맞추어 순서대로 동작 정의 테이블(501)에 설정된다. 여기서, 동작 정의 테이블(501)에 설정된 인식 조건은, 각 샘플링 포인트에서 산출된 회전각도, 이전 샘플링 포인트에서 현재 샘플링 포인트까지의 회전각도 변화량, 이전 샘플링 포인트에서 현재 샘플링 포인트까지 움직인 시간 중 하나 이상을 포함할 수 있다.When the specified number of times is reached, the learning module 400 of the motion recognition apparatus can set the recognition condition of the sampling point to an average value of recognition conditions of each sampling point extracted for each n repeated operations (S160 ). The sampling points and the recognition conditions extracted from the above are set in the operation definition table 501 in order according to the operation order. Here, the recognition condition set in the operation definition table 501 may include at least one of a rotation angle calculated at each sampling point, a rotation angle variation from the previous sampling point to the current sampling point, and a time from the previous sampling point to the current sampling point . ≪ / RTI >

예를 들어, 도 5에 도시된 바와 같은 사용자 동작의 경우, 도 6에 도시된 바와 같이, 동작 정의 테이블이 구축될 수 있다. 도 6에서, xa, ya, za는 각 샘플링 포인트에서 산출된 x축, y축, z축의 회전각도값을 나타내고, xd, yd, zd는 이전 샘플링 포인트에서 해당 샘플링 포인트까지의 회전각도 변화량(

Figure 112018075819913-pat00001
,
Figure 112018075819913-pat00002
,
Figure 112018075819913-pat00003
)이고, t는 이전 샘플링 포인트로부터 해당 샘플링 포인트까지 움직인 시간을 나타낸다. 참고로, 각 파라미터의 아래첨자 1,2,3,4는 샘플링 포인트를 나타낸다. 여기서, 최초 추출된 샘플링 포인트 SP1은 동작의 최초 시작점이므로, 그 변화량 (
Figure 112018075819913-pat00004
)는 (0, 0, 0)이 되고, 그의 움직인 시간
Figure 112018075819913-pat00005
도 0이 된다.For example, in the case of a user operation as shown in Fig. 5, an operation definition table can be constructed, as shown in Fig. 6, xa, ya, and za represent rotation angle values of the x-axis, y-axis, and z-axis calculated at each sampling point, and xd, yd, and zd represent rotational angle variation amounts from the previous sampling point to the corresponding sampling point
Figure 112018075819913-pat00001
,
Figure 112018075819913-pat00002
,
Figure 112018075819913-pat00003
), And t represents the time from the previous sampling point to the corresponding sampling point. For reference, the subscripts 1,2,3,4 of each parameter represent sampling points. Here, since the sampling point SP1 extracted first is the initial starting point of the operation,
Figure 112018075819913-pat00004
) Becomes (0, 0, 0) and its moving time
Figure 112018075819913-pat00005
0 ".

이어서, 상기 동작 인식 장치의 학습 모듈(400)은, n회 반복된 동작별로 추출된 각 샘플링 포인트의 움직임 정보 간의 표준편차를 산출하여, 상기 기준값을 기준으로 동작 인식으로 허용할 최대-최소 범위, 즉, 마진을 설정한다(S170). 상기 각 샘플링 포인트의 인식조건에 대한 마진값은 마진 관리 테이블(502)에 등록된다.Then, the learning module 400 of the motion recognition apparatus calculates a standard deviation between pieces of motion information of each sampling point extracted for each n repeated operations, and determines a maximum-minimum range, That is, the margin is set (S170). The margin value for the recognition condition of each sampling point is registered in the margin management table 502. [

예를 들어, 도 5에 도시된 바와 같은 사용자 동작의 경우, 도 7에 도시된 바와 같이, 마진 관리 테이블이 구축될 수 있다. 마진 관리 테이블은 상기 동작 정의 테이블에 정의된 각 요소에 대한 최대 최소값을 정의하기 위한 테이블로서, n회 반복되어 산출된 회전각도, 변화량 및 움직임 시간 각각의 표준편차가 마진값으로 설정된다.For example, in the case of a user operation as shown in FIG. 5, a margin management table can be constructed as shown in FIG. The margin management table is a table for defining a maximum minimum value for each element defined in the operation definition table, and the standard deviation of the rotation angle, the variation amount, and the motion time calculated by repeating n times is set as the margin value.

본 발명에 따른 동작 인식 장치에서는, 상기 동작 정의 테이블(61)과 마진 관리 테이블(502)을 기반으로 동작 인식이 이루어지는데, 이때, "동작 정의 테이블(501)에 설정된 인식 조건 ± 마진 관리 테이블(502)에 설정된 마진값"로 인식 조건의 인식 허용 범위가 설정되며, 인식 허용 범위를 만족하는 움직임 정보가 감지될 때, 해당 샘플링 포인트가 인식된 것으로 판단할 수 있다.In the motion recognition apparatus according to the present invention, the motion recognition is performed based on the motion definition table 61 and the margin management table 502. At this time, 502, "the recognition range of the recognition condition is set, and when the motion information satisfying the recognition allowable range is detected, it can be determined that the corresponding sampling point is recognized.

상술한 바에 의하여, 사용자가 취한 동작, 즉, 사용자 정의 동작에 대한 인식 조건이 설정하여, 사용자 정의 동작을 효율적으로 인식할 수 있게 된다.As described above, the user's operation, that is, the recognition condition for the user-defined operation, is set so that the user-defined operation can be efficiently recognized.

이상과 같이 사용자 동작 정의가 완료되면, 동작 인식 장치는, 인식 모드로 전환하여, 상기와 같이 설정된 동작 정의 테이블(501) 및 마진 관리 테이블(502)를 참조하여, 사용자 정의 동작을 인식할 수 있다(S110).When the user operation definition is completed as described above, the operation recognition apparatus switches to the recognition mode and recognizes the user defined operation with reference to the operation definition table 501 and the margin management table 502 set as described above (S110).

예를 들어, 도 6 및 도 7과 같이, 동작 정의 테이블(501)과 마진 관리 테이블(502)이 설정된다고 할 때, 인식 모듈(300)은, 센싱값 수집 모듈(100) 및 연산 모듈(200)을 통해서 산출된 회전 각도 x,y,z 가 하기 수학식 1의 범위를 만족할 경우, 샘플링 포인트 SP1이 인식된 것으로 판단하고, 이어서 동일한 과정으로 샘플링 포인트 SP2, Sp3, SP4를 순차로 인식하면, 도 5에 도시된 바와 같이 동작이 발생한 것으로 판단한다.For example, as shown in FIGS. 6 and 7, when the operation definition table 501 and the margin management table 502 are set, the recognition module 300 includes the sensing value collection module 100 and the calculation module 200 , Y and z satisfy the following expression (1), it is determined that the sampling point SP1 is recognized, and if the sampling points SP2, Sp3, and SP4 are sequentially recognized in the same process, It is determined that an operation has occurred as shown in FIG.

Figure 112018075819913-pat00006
Figure 112018075819913-pat00006

Figure 112018075819913-pat00007
Figure 112018075819913-pat00007

Figure 112018075819913-pat00008
Figure 112018075819913-pat00008

본 발명에 따른 사용자 동작 정의 방법은 다양한 컴퓨터 수단을 통하여 판독 가능한 소프트웨어 형태로 구현되어 컴퓨터로 판독 가능한 기록매체에 기록될 수 있다. 여기서, 기록매체는 프로그램 명령, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다. 기록매체에 기록되는 프로그램 명령은 본 발명을 위하여 특별히 설계되고 구성된 것들이거나 컴퓨터 소프트웨어 당업자에게 공지되어 사용 가능한 것일 수도 있다. 예컨대 기록매체는 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체(Magnetic Media), CD-ROM(Compact Disk Read Only Memory), DVD(Digital Video Disk)와 같은 광 기록 매체(Optical Media), 플롭티컬 디스크(Floptical Disk)와 같은 자기-광 매체(Magneto-Optical Media), 및 롬(ROM), 램(RAM, Random Access Memory), 플래시 메모리 등과 같은 프로그램 명령을 저장하고 수행하도록 특별히 구성된 하드웨어 장치를 포함한다. 프로그램 명령의 예에는 컴파일러에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드를 포함할 수 있다. 이러한 하드웨어 장치는 본 발명의 동작을 수행하기 위해 하나 이상의 소프트웨어 모듈로서 작동하도록 구성될 수 있으며, 그 역도 마찬가지이다.The method of defining a user action according to the present invention may be implemented in the form of software readable by various computer means and recorded in a computer-readable recording medium. Here, the recording medium may include program commands, data files, data structures, and the like, alone or in combination. Program instructions to be recorded on a recording medium may be those specially designed and constructed for the present invention or may be available to those skilled in the art of computer software. For example, the recording medium may be an optical recording medium such as a magnetic medium such as a hard disk, a floppy disk and a magnetic tape, a compact disk read only memory (CD-ROM), a digital video disk (DVD) Includes a hardware device that is specially configured to store and execute program instructions such as a magneto-optical medium such as a floppy disk and a ROM, a random access memory (RAM), a flash memory, do. Examples of program instructions may include machine language code such as those generated by a compiler, as well as high-level language code that may be executed by a computer using an interpreter or the like. Such a hardware device may be configured to operate as one or more software modules to perform the operations of the present invention, and vice versa.

또한, 본 명세서에서 설명하는 기능적인 동작과 주제의 구현물들은 다른 유형의 디지털 전자 회로로 구현되거나, 본 명세서에서 개시하는 구조 및 그 구조적인 등가물들을 포함하는 컴퓨터 소프트웨어, 펌웨어 혹은 하드웨어로 구현되거나, 이들 중 하나 이상의 결합으로 구현 가능하다. 본 명세서에서 설명하는 주제의 구현물들은 하나 이상의 컴퓨터 프로그램 제품, 다시 말해 본 발명에 따른 장치의 동작을 제어하기 위하여 혹은 이것에 의한 실행을 위하여 유형의 프로그램 저장매체 상에 인코딩된 컴퓨터 프로그램 명령에 관한 하나 이상의 모듈로서 구현될 수 있다. 컴퓨터로 판독 가능한 매체는 기계로 판독 가능한 저장 장치, 기계로 판독 가능한 저장 기판, 메모리 장치, 기계로 판독 가능한 전파형 신호에 영향을 미치는 물질의 조성물 혹은 이들 중 하나 이상의 조합일 수 있다.Further, the functional operations and subject matter implementations described herein may be implemented in other types of digital electronic circuitry, or may be implemented in computer software, firmware, or hardware, including the structures disclosed herein and their structural equivalents, ≪ / RTI > Implementations of the subject matter described herein may be embodied in one or more computer program products, i. E. One for computer program instructions encoded on a program storage medium of the type for < RTI ID = 0.0 & And can be implemented as a module as described above. The computer-readable medium can be a machine-readable storage device, a machine-readable storage substrate, a memory device, a composition of matter that affects the machine readable propagation type signal, or a combination of one or more of the foregoing.

아울러, 본 명세서는 다수의 특정한 구현물의 세부사항들을 포함하지만, 이들은 어떠한 발명이나 청구 가능한 것의 범위에 대해서도 제한적인 것으로서 이해되어서는 안되며, 오히려 특정한 발명의 특정한 실시형태에 특유할 수 있는 특징들에 대한 설명으로서 이해되어야 한다. 개별적인 실시형태의 문맥에서 본 명세서에 기술된 특정한 특징들은 단일 실시형태에서 조합하여 구현될 수도 있다. 반대로, 단일 실시형태의 문맥에서 기술한 다양한 특징들 역시 개별적으로 혹은 어떠한 적절한 하위 조합으로도 복수의 실시형태에서 구현 가능하다. 나아가, 특징들이 특정한 조합으로 동작하고 초기에 그와 같이 청구된 바와 같이 묘사될 수 있지만, 청구된 조합으로부터의 하나 이상의 특징들은 일부 경우에 그 조합으로부터 배제될 수 있으며, 그 청구된 조합은 하위 조합이나 하위 조합의 변형물로 변경될 수 있다.In addition, while the specification contains a number of specific implementation details, it should be understood that they are not to be construed as limitations on the scope of any invention or claim, but rather on the features that may be specific to a particular embodiment of a particular invention Should be understood as an explanation. Certain features described herein in the context of separate embodiments may be implemented in combination in a single embodiment. Conversely, various features described in the context of a single embodiment may also be implemented in multiple embodiments, either individually or in any suitable subcombination. Further, although the features may operate in a particular combination and may be initially described as so claimed, one or more features from the claimed combination may in some cases be excluded from the combination, Or a variant of a subcombination.

마찬가지로, 특정한 순서로 도면에서 동작들을 묘사하고 있지만, 이는 바람직한 결과를 얻기 위하여 도시된 그 특정한 순서나 순차적인 순서대로 그러한 동작들을 수행하여야 한다거나 모든 도시된 동작들이 수행되어야 하는 것으로 이해되어서는 안 된다. 특정한 경우, 멀티태스킹과 병렬 프로세싱이 유리할 수 있다. 또한, 상술한 실시형태의 다양한 시스템 컴포넌트의 분리는 그러한 분리를 모든 실시형태에서 요구하는 것으로 이해되어서는 안되며, 설명한 프로그램 컴포넌트와 시스템들은 일반적으로 단일의 소프트웨어 제품으로 함께 통합되거나 다중 소프트웨어 제품에 패키징될 수 있다는 점을 이해하여야 한다.Likewise, although the operations are depicted in the drawings in a particular order, it should be understood that such operations must be performed in that particular order or sequential order shown to achieve the desired result, or that all illustrated operations should be performed. In certain cases, multitasking and parallel processing may be advantageous. Also, the separation of the various system components of the above-described embodiments should not be understood as requiring such separation in all embodiments, and the described program components and systems will generally be integrated together into a single software product or packaged into multiple software products It should be understood.

본 명세서에서 설명한 주제의 특정한 실시형태를 설명하였다. 기타의 실시형태들은 이하의 청구항의 범위 내에 속한다. 예컨대, 청구항에서 인용된 동작들은 상이한 순서로 수행되면서도 여전히 바람직한 결과를 성취할 수 있다. 일 예로서, 첨부도면에 도시한 프로세스는 바람직한 결과를 얻기 위하여 반드시 그 특정한 도시된 순서나 순차적인 순서를 요구하지 않는다. 특정한 구현예에서, 멀티태스킹과 병렬 프로세싱이 유리할 수 있다.Certain embodiments of the subject matter described herein have been described. Other embodiments are within the scope of the following claims. For example, the operations recited in the claims may be performed in a different order and still achieve desirable results. By way of example, the process illustrated in the accompanying drawings does not necessarily require that particular illustrated or sequential order to obtain the desired results. In certain implementations, multitasking and parallel processing may be advantageous.

본 기술한 설명은 본 발명의 최상의 모드를 제시하고 있으며, 본 발명을 설명하기 위하여, 그리고 당업자가 본 발명을 제작 및 이용할 수 있도록 하기 위한 예를 제공하고 있다. 이렇게 작성된 명세서는 그 제시된 구체적인 용어에 본 발명을 제한하는 것이 아니다. 따라서, 상술한 예를 참조하여 본 발명을 상세하게 설명하였지만, 당업자라면 본 발명의 범위를 벗어나지 않으면서도 본 예들에 대한 개조, 변경 및 변형을 가할 수 있다.The description sets forth the best mode of the invention, and is provided to illustrate the invention and to enable those skilled in the art to make and use the invention. The written description is not intended to limit the invention to the specific terminology presented. Thus, while the present invention has been described in detail with reference to the above examples, those skilled in the art will be able to make adaptations, modifications, and variations on these examples without departing from the scope of the present invention.

따라서 본 발명의 범위는 설명된 실시 예에 의하여 정할 것이 아니고 특허청구범위에 의해 정하여져야 한다.Therefore, the scope of the present invention should not be limited by the described embodiments but should be defined by the claims.

본 발명은, 연속적으로 이루어지는 사용자의 움직임에 대응하여 발생하는 하나 이상의 센서의 센싱값을 추출하고, 이를 통해 산출된 연속적인 움직임 정보들을 비교하여, 방향 및 속도 중 하나 이상이 기준값 이상 변화하는 하나 이상의 샘플링 포인트를 추출하고, 샘플링 포인트 간의 순서를 정의함으로써, 하나 이상의 단위 동작으로 이루어진 사용자 정의 동작의 인식 조건을 자동으로 설정할 수 있다.The present invention extracts a sensed value of one or more sensors generated in response to a user's motion continuously and compares the calculated sensed motion information with continuous motion information so that at least one of a direction and a velocity changes more than a reference value, By defining the order between the sampling points and extracting the sampling point, the recognition condition of the user-defined operation made up of one or more unit operations can be automatically set.

더하여, 본 발명은 사용자의 움직임에 대응하는 추출한 하나 이상의 샘플링 포인트의 움직임 정보에 대한 기준값 및 마진을 설정함으로써, 사용자 정의 동작에 대한 인식률을 향상시킬 수 있다. In addition, the present invention can improve the recognition rate for the user-defined motion by setting the reference value and the margin for the motion information of the extracted one or more sampling points corresponding to the motion of the user.

10: 센서
100: 센싱값 수집 모듈
200: 연산 모듈
300: 인식 모듈
400: 학습 모듈
500: 저장 모듈
10: Sensor
100: Sensing value acquisition module
200: Operation module
300: recognition module
400: Learning module
500: storage module

Claims (10)

사용자의 동작에 따라서 변화되는 하나 이상의 센서의 센싱값을 수집하는 단계;
기 저장된 동작 정의 테이블을 기반으로 상기 센싱값들에 대응되는 사용자 정의 동작을 인식하는 단계;
상기 사용자 정의 동작을 인식하는 동안 상기 수집한 센싱값을 기반으로 움직임 정보를 산출하고, 연속적으로 산출된 움직임 정보를 비교하여, 움직임 방향 및 속도 중 하나 이상에서 기준값 이상 변화가 발생한 하나 이상의 샘플링 포인트를 추출한 후, 상기 추출한 샘플링 포인트의 동작 순서 및 인식 조건을 추출하여 상기 사용자 정의 동작에 대한 상기 기 저장된 동작 정의 테이블을 갱신하는 단계;를 포함하는 사용자 동작 정의 방법.
Collecting a sensing value of one or more sensors that varies depending on a user's operation;
Recognizing a user defined operation corresponding to the sensed values based on a previously stored operation definition table;
Calculating motion information based on the collected sensing values while recognizing the user-defined motion, comparing the continuously calculated motion information, and calculating at least one sampling point at which at least one of the motion direction and the velocity has changed more than the reference value Extracting an operation sequence and a recognition condition of the extracted sampling point, and updating the pre-stored operation definition table for the user defined operation.
제1항에 있어서, 상기 인식 조건은,
각 샘플링 포인트에서 산출된 회전각도, 이전 샘플링 포인트에서 현재 샘플링 포인트까지의 회전각도 변화량, 이전 샘플링 포인트에서 현재 샘플링 포인트까지 움직인 시간 중 하나 이상을 포함하는 것을 특징으로 하는 사용자 동작 정의 방법.
2. The method according to claim 1,
A rotation angle calculated at each sampling point, a rotation angle variation from the previous sampling point to the current sampling point, and a time from the previous sampling point to the current sampling point.
제1항에 있어서, 상기 기 저장된 동작 정의 테이블을 갱신하는 단계는
상기 사용자 정의 동작에서 추출된 샘플링 포인트와 상기 기 저장된 동작 정의 테이블에 정의된 샘플링 포인트의 인식 조건들의 평균값을 구하고, 상기 평균값으로 상기 기 저장된 동작 정의 테이블을 갱신하는 것을 특징으로 하는 사용자 동작 정의 방법.
2. The method of claim 1, wherein updating the pre-stored operation definition table comprises:
Wherein the predefined operation definition table is obtained by obtaining a sampling point extracted in the user defined operation and an average value of recognition conditions of a sampling point defined in the predefined operation definition table, and updating the predefined operation definition table with the average value.
제1항에 있어서,
상기 사용자 정의 동작을 인식하는 단계는
상기 기 저장된 동작 정의 테이블에 정의된 각 샘플링 포인트의 인식 조건에 대한 최대최소 범위를 정의하는 마진 관리 테이블을 획득하는 단계;
상기 기 저장된 동작 정의 테이블 및 상기 기 저장된 마진 관리 테이블을 기반으로 상기 사용자 정의 동작을 인식하는 단계;를 포함하는 것을 특징으로 하는 사용자 동작 정의 방법.
The method according to claim 1,
The step of recognizing the user-
Acquiring a margin management table that defines a maximum minimum range for recognition conditions of each sampling point defined in the pre-stored operation definition table;
And recognizing the user-defined operation based on the pre-stored operation definition table and the pre-stored margin management table.
제4항에 있어서, 상기 사용자 정의 동작을 인식하는 동안 추출된 하나 이상의 샘플링 포인트에서 산출된 인식 조건과 상기 기 저장된 동작 테이블에서 정의된 샘플링 포인트에서 산출된 인식 조건의 표준편차를 구하여, 각 샘플링 포인트별 마진값을 설정하여 상기 마진 관리 테이블을 갱신하는 단계;를 포함하는 것을 특징으로 하는 사용자 동작 정의 방법.5. The method according to claim 4, further comprising: obtaining a standard deviation of a recognition condition calculated at one or more sampling points extracted while recognizing the user-defined motion and a recognition condition calculated at a sampling point defined in the previously stored operation table, And updating the margin management table by setting a margin margin value. 제1항에 있어서, 상기 샘플링 포인트를 추출하는 단계는,
상기 추출한 하나 이상의 샘플링 포인트로 구분되는 구간 중, 움직임 시간이 기준값보다 길고, 변화 패턴을 포함하는 구간을 추출하고, 상기 추출한 구간 중 움직임 변화가 발생하는 하나 이상의 포인트를 샘플링 포인트로 추가 추출하는 것을 특징으로 하는 사용자 동작 정의 방법.
The method of claim 1, wherein extracting the sampling point comprises:
Extracting one or more points that are longer than the reference value and include a variation pattern among the sections divided by the extracted one or more sampling points and extracting at least one point in which the motion variation occurs in the extracted section as a sampling point To define a user action.
사용자 동작에 따라서 변화되는 하나 이상의 센서의 센싱값을 수집하는 센싱값 수집 모듈;
상기 수집한 센싱값으로부터 상기 동작의 움직임 정보를 산출하는 연산 모듈;
현재 사용자의 동작에 따라서 변화되는 하나 이상의 센서의 센싱값을 수집하고, 기 저장된 동작 정의 테이블을 기반으로 상기 현재 사용자의 동작으로부터 센싱된 현재 센싱값들에 기반으로 사용자 정의 동작을 인식하는 인식 모듈;
연속적으로 산출된 움직임 정보를 비교하여, 움직임 방향 및 속도 중 하나 이상에서 기준값 이상 변화가 발생한 하나 이상의 샘플링 포인트를 추출하고, 상기 추출한 샘플링 포인트의 동작 순서 및 인식 조건을 추출하여 상기 사용자의 동작에 대한 동작 정의 테이블을 생성하여 저장하고, 상기 인식 모듈에 의해 상기 사용자 정의 동작을 인식하는 동안 획득된 상기 현재 센싱 값을 기반으로 상기 동작 정의 테이블을 갱신하는 학습 모듈;을 포함하는 것을 특징으로 하는 동작 인식 장치.
A sensing value collection module for collecting sensed values of one or more sensors that are changed according to a user operation;
A calculation module for calculating motion information of the motion from the collected sensing values;
A recognition module for collecting sensing values of one or more sensors that are changed according to an operation of a current user and recognizing a user-defined operation based on current sensing values sensed from an operation of the current user based on a previously stored operation definition table;
Extracting at least one sampling point at which at least one of the movement direction and the velocity has changed more than the reference value, extracting an operation order and a recognition condition of the extracted sampling point, And a learning module for generating and storing an operation definition table and updating the operation definition table based on the current sensing value obtained while recognizing the user defined operation by the recognition module, Device.
제7항에 있어서, 상기 학습 모듈은
상기 현재 사용자의 동작에 대한 샘플링 포인트를 추출하고, 각 샘플링 포인트에서 추출된 인식 조건과 상기 동작 정의 테이블에 의해 정의된 인식 조건들의 평균값을 구하여, 상기 동작 정의 테이블을 갱신하는 것을 특징으로 하는 동작 인식 장치.
8. The system of claim 7, wherein the learning module
Extracting a sampling point for the operation of the current user and updating the operation definition table by obtaining an average value of recognition conditions defined by the recognition condition extracted from each sampling point and the operation definition table, Device.
제7항에 있어서, 상기 학습 모듈은,
상기 현재 사용자의 동작과 관련하여 수집된 센싱값으로부터 추출된 각 샘플링 포인트의 인식 조건들과 상기 동작 정의 테이블에 의해 정의된 인식 조건들의 표준편차를 구하고, 상기 표준편차를 기반으로 상기 현재 사용자 동작에서 추출된 샘플링 포인트의 인식 조건 및 동작 정의 테이블에 정의된 각 샘플링 포인트의 인식 조건에 대한 최대최소 범위를 정의하는 마진 관리 테이블에 생성하는 것을 특징으로 하는 동작 인식 장치.
8. The learning module of claim 7,
Determining a standard deviation of recognition conditions defined by the operation definition table and recognition conditions of each sampling point extracted from the sensed values collected in association with the operation of the current user, And generates a margin management table defining a maximum minimum range for recognition conditions of the extracted sampling points and recognition conditions of each sampling point defined in the operation definition table.
제9항에 있어서,
상기 동작 정의 테이블 및 마진 관리 테이블을 저장하는 저장 모듈;을 더 포함하고,
상기 인식 모듈은
다음 사용자 동작 인식 시, 상기 갱신된 동작 정의 테이블 및 상기 마진 관리 테이블을 이용하여 인식하도록 설정된 것을 특징으로 하는 동작 인식 장치.
10. The method of claim 9,
And a storage module for storing the operation definition table and the margin management table,
The recognition module
Wherein the operation recognition unit recognizes the user operation using the updated operation definition table and the margin management table when recognizing the next user operation.
KR1020180089378A 2018-07-31 2018-07-31 Method for establishing user definition motion and motion recognition apparatus using the same KR101900754B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020180089378A KR101900754B1 (en) 2018-07-31 2018-07-31 Method for establishing user definition motion and motion recognition apparatus using the same

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020180089378A KR101900754B1 (en) 2018-07-31 2018-07-31 Method for establishing user definition motion and motion recognition apparatus using the same

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
KR1020140136446A Division KR101886033B1 (en) 2014-10-10 2014-10-10 Method for establishing user definition motion and motion recognition apparatus using the same

Publications (2)

Publication Number Publication Date
KR20180090968A KR20180090968A (en) 2018-08-14
KR101900754B1 true KR101900754B1 (en) 2018-09-20

Family

ID=63230375

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020180089378A KR101900754B1 (en) 2018-07-31 2018-07-31 Method for establishing user definition motion and motion recognition apparatus using the same

Country Status (1)

Country Link
KR (1) KR101900754B1 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102095392B1 (en) * 2019-01-18 2020-03-31 국방과학연구소 Communication device control system and thereof method for control

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101511160B1 (en) 2009-01-06 2015-04-13 삼성전자주식회사 Charge pump circuit and voltage converting apparatus using the same

Also Published As

Publication number Publication date
KR20180090968A (en) 2018-08-14

Similar Documents

Publication Publication Date Title
US11481923B2 (en) Relocalization method and apparatus in camera pose tracking process, device, and storage medium
US11189037B2 (en) Repositioning method and apparatus in camera pose tracking process, device, and storage medium
CN108596976B (en) Method, device and equipment for relocating camera attitude tracking process and storage medium
JP7305249B2 (en) Method for determining motion information of image feature points, task execution method and device
US9696859B1 (en) Detecting tap-based user input on a mobile device based on motion sensor data
US8896533B2 (en) Display directional sensing
US10514708B2 (en) Method, apparatus and system for controlling unmanned aerial vehicle
KR101685388B1 (en) Method and apparatus for recognizing motion using a plurality of sensors
KR101341727B1 (en) Apparatus and Method for Controlling 3D GUI
EP3168571A1 (en) Utilizing camera to assist with indoor pedestrian navigation
WO2018149324A1 (en) Detection method and terminal device
CN102346859A (en) Character recognition device
CN105487644B (en) Identification device, intelligent device and information providing method
CN104076920A (en) Information processing apparatus, information processing method, and storage medium
KR101886033B1 (en) Method for establishing user definition motion and motion recognition apparatus using the same
KR101900754B1 (en) Method for establishing user definition motion and motion recognition apparatus using the same
JP5708362B2 (en) Portable terminal and position / orientation estimation program
US20140194147A1 (en) Apparatus and method for reducing battery consumption of mobile terminal
CN112087728B (en) Method and device for acquiring Wi-Fi fingerprint spatial distribution and electronic equipment
KR101525224B1 (en) A portable terminal of having the auto photographing mode
KR20160050863A (en) Method for processing sensor value to motion recognition and apparatus using the same
KR20170038461A (en) Emotional robot system using a smart device and the method for controlling operation modes
US9109921B1 (en) Contextual based navigation element
KR102025595B1 (en) Method for recognizing user motion and motion recognition apparatus using the same
KR102081966B1 (en) Apparatus for motion recognition based on context awareness and storage medium therefor

Legal Events

Date Code Title Description
A107 Divisional application of patent
A201 Request for examination
E701 Decision to grant or registration of patent right