KR101685388B1 - Method and apparatus for recognizing motion using a plurality of sensors - Google Patents

Method and apparatus for recognizing motion using a plurality of sensors Download PDF

Info

Publication number
KR101685388B1
KR101685388B1 KR1020140109834A KR20140109834A KR101685388B1 KR 101685388 B1 KR101685388 B1 KR 101685388B1 KR 1020140109834 A KR1020140109834 A KR 1020140109834A KR 20140109834 A KR20140109834 A KR 20140109834A KR 101685388 B1 KR101685388 B1 KR 101685388B1
Authority
KR
South Korea
Prior art keywords
sensor
recognition
sensors
recognizing
unit operation
Prior art date
Application number
KR1020140109834A
Other languages
Korean (ko)
Other versions
KR20160023428A (en
Inventor
김지훈
조승현
전진수
한상무
Original Assignee
에스케이텔레콤 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 에스케이텔레콤 주식회사 filed Critical 에스케이텔레콤 주식회사
Priority to KR1020140109834A priority Critical patent/KR101685388B1/en
Publication of KR20160023428A publication Critical patent/KR20160023428A/en
Application granted granted Critical
Publication of KR101685388B1 publication Critical patent/KR101685388B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements

Abstract

본 발명은 복수의 센서를 이용한 동작 인식 방법 및 장치에 관한 것으로서, 기 정의된 동작을 하나 이상의 단위 동작으로 구분하여, 단위 동작별로 하나 이상의 센서에 대한 센서 정보 및 인식 조건을 설정하고, 상기 설정된 센서 정보 및 인식 조건에 따라서, 상기 하나 이상의 센서의 센싱값으로부터 각 단위 동작을 순차적으로 인식하고, 인식한 단위 동작을 조합하여 상기 동작을 인식하는 것이다.The present invention relates to a method and an apparatus for recognizing an operation using a plurality of sensors, wherein a predetermined operation is divided into one or more unit operations, sensor information and recognition conditions for one or more sensors are set for each unit operation, Recognizing each unit operation sequentially from the sensed values of the at least one sensor in accordance with information and recognition conditions, and recognizing the operation by combining the recognized unit operations.

Description

복수의 센서를 이용한 동작 인식 방법 및 장치{Method and apparatus for recognizing motion using a plurality of sensors}BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a method and apparatus for recognizing motion using a plurality of sensors,

본 발명은 복수의 센서를 이용한 동작 인식 방법 및 장치에 관한 것으로서, 더욱 상세하게는 하나 이상의 단위 동작으로 이루어진 동작을 인식하는데 있어서, 단위 동작 별로 동작 인식을 위해 다른 센서의 조합을 활용할 수 있도록 함으로써 동작 인식 결과의 신뢰도를 더 높일 수 있는 복수의 센서를 이용한 동작 인식 방법 및 장치에 관한 것이다.The present invention relates to a method and apparatus for recognizing an operation using a plurality of sensors, and more particularly, to a method and apparatus for recognizing an operation using one or more unit operations, And more particularly, to a method and apparatus for recognizing motion using a plurality of sensors capable of further increasing the reliability of recognition results.

최근에는 개방형 OS를 탑재함으로써, 휴대전화에 PC의 고기능을 결합시킨 스마트폰(Smart Phone)이 대중화되면서, 고기능, 고성능의 스마트폰의 활용 방향에 대한 다양한 시도가 이루어지고 있다.In recent years, with the introduction of an open OS, a smart phone combining a high function of a PC with a mobile phone has become popular, and various attempts have been made to utilize a high-function and high-performance smart phone.

특히, 초소형 제작 기술의 발달과 함께 첨단 센서들이 더욱 소형화되고 저렴해지면서 스마트폰에 더 많은 센서들이 탑재될 수 있으며, 이에 증강현실이나 3D 게임 등과 같이 이러한 센서들을 활용한 지능형 애플리케이션들이 많이 개발되고 있다.In particular, with the development of micro-fabrication technology, advanced sensors become smaller and cheaper, and more sensors can be mounted on smart phones, and intelligent applications utilizing such sensors, such as augmented reality and 3D games, are being developed .

아울러, 스마트폰에 탑재되는 센서들이 단순히 주변환경을 감지하는 장치에서 사용자의 신체 변화, 감정상태까지 고려하는 지능형 센서로서 진화하여 인간과 감성을 교감할 수 있는 핵심 매개체 역할을 담당할 수 있을 것으로 전망됨에 따라서, 센서들을 활용한 지능형 애플리케이션들은 더 많이 증대될 것으로 예측된다.In addition, sensors mounted on smart phones will be able to play a key role in communicating emotions with human beings by evolving into an intelligent sensor that takes into consideration user's physical changes and emotional states in a device that senses the surrounding environment. As a result, intelligent applications utilizing sensors are expected to grow even more.

스마트폰에 탑재되는 센서로서, 카메라(이미지) 센서, 음향 센서, 근접 센서, 조도 센서, 중력 센서, GPS 센서, 가속도 센서, 자이로 센서, 지자기 센서 등이 있다.There are camera (image) sensor, acoustic sensor, proximity sensor, illuminance sensor, gravity sensor, GPS sensor, acceleration sensor, gyro sensor, and geomagnetic sensor.

이 중에서, 카메라(이미지) 센서는, 빛을 감지해 그 세기의 정도를 디지털 영상 데이터로 변환해 주는 센서로, 얼굴 인식 등에 이용될 수 있으며, 음향센서는, 물리적인 소리를 공기 압력의 변화에 의해 전기적인 신호로 변환하는 센서로서, 음성인식 기반의 서비스에 이용될 수 있으며, 근접센서는, 기계적인 접촉에 의한 검출방식이 아니라 검출체가 가까이 근접했을 때 검출 대상물체의 유무를 판별하는 무첩촉 방식의 검출 센서로서, 보통 통화를 위해 스마트폰을 얼굴에 가까이 가져가거나 주머니 등에 넣는 경우 화면이 자동으로 꺼지게끔 하는 기능 등에 활용된다.Among them, a camera (image) sensor is a sensor that detects light and converts the intensity of the light into digital image data, which can be used for face recognition and the like. The proximity sensor is not a detection system based on mechanical contact but a proximity sensor that detects the presence or absence of an object to be detected when the detection object comes close to the proximity sensor Detection sensor that can be used to automatically turn off the screen when the smartphone is brought close to the face or placed in a pocket for a normal call.

그리고, 조도센서는, 주변 밝기를 감지하는 센서로서, 통상 모바일 단말의 전력소모량을 줄이고 눈의 피로감을 덜 수 있도록 밝은 곳에서는 화면 조도를 높이고 어두운 곳에서는 낮추도록 설정하는데 이용되고, 중력센서는, 중력이 어느 방향으로 작용하는 지를 탐지해 물체 움직임을 감지하는 센서로서, 스마트폰의 디스플레이 방향(가로, 세로)을 판단해 스크린의 방향을 자동으로 보정해 주는 역할 등에 사용된다.The illuminance sensor is a sensor for sensing the ambient brightness. Normally, the illuminance sensor is used to reduce the power consumption of the mobile terminal and to reduce the fatigue of the eyes. It is a sensor that detects the direction of gravity and detects movement of objects. It is used to automatically correct the direction of the screen by determining the display direction (horizontal and vertical) of the smartphone.

또한, GPS센서는 위성위치 확인 시스템을 통해 물체의 시간 및 위치 정보 수집이 가능한 센서로서, 다양한 위치 기반 서비스에 활용되고, 가속도 센서는, 단위시간당 물체 속도의 변화, 충격 등 동적 힘의 변화를 감지하는 센서로서, 최근에는 MEMS 기술을 적용한 3축 가속도 센서가 보편화되고 있으며 기울기 변화, 흔들림 등 물체 움직임까지도 감지가 가능해졌으며, 지자기 센서는, 지구 자기장의 흐름을 파악해 나침반처럼 방위각을 탐지하는 센서이고, 자이로 센서는, 물체의 관성력을 전기신호로 검출하며, 주로 회전각을 감지하는 센서로서, 높이와 회전, 기울기 등을 직접 감지할 수 있어 3축 가속도 센서와 연계할 경우, 보다 정교한 동작 인식이 가능하다.In addition, the GPS sensor is a sensor capable of collecting time and position information of an object through a satellite positioning system, and is utilized for various location-based services. The acceleration sensor detects changes in object speed per unit time, In recent years, three-axis acceleration sensors using MEMS technology have become popular, and even object movements such as tilt changes and shakes can be detected. A geomagnetic sensor is a sensor that detects the azimuth angle like a compass by grasping the flow of the earth's magnetic field, The gyro sensor detects the inertial force of an object as an electric signal and mainly detects the rotation angle. It can detect the height, the rotation, and the tilt directly, so that it can recognize more precise motion when connected with the 3-axis acceleration sensor. Do.

이러한 다양한 센서 중, 근접 센서나 조도 센서를 활용한 동작 인식은 인식법이 간단하여 동작 인식의 오차가 크지 않으나, 인식 가능한 동작의 종류가 제한되며, 가속도센서, 지자기 센서, 자이로 센서를 활용한 동작 인식은, 근접센서나 조도 센서보다는 보다 다양한 동작을 인식할 수 있으나, 명확하게 값의 범위를 지정하지 않으면 인식률이 낮아지며, 방향, 속도, 시간 등이 다른 단위 동작들이 연결되어 이루어지는 복잡한 동작을 인식하기 어렵다.Among these various sensors, motion recognition using a proximity sensor or an illuminance sensor has a small recognition error due to a simple recognition method, but the types of recognizable operations are limited, and an operation using an acceleration sensor, a geomagnetic sensor, a gyro sensor Recognition can recognize more diverse actions than proximity sensors or illuminance sensors, but recognizes complex actions in which the recognition rate is lowered without explicitly specifying a range of values, and unit movements of different directions, speeds, and times are connected it's difficult.

그런데 최근의 동작 인식 기술은, 그 응용 분야가 점차 확대됨에 따라서, 단순한 흔들림 감지로부터 특정 패턴 모양의 움직임까지 동작 인식 범위의 확장이 요구되고 있다.However, as the application fields of the recent motion recognition technology are gradually expanded, it is required to expand the motion recognition range from simple motion detection to motion of a specific pattern shape.

한국공개특허 제10-2010-0081552호, 2010년 7월 19일 공개 (명칭: 휴대용 단말기의 동작 감지 장치 및 방법)Korean Patent Laid-Open No. 10-2010-0081552, published on July 19, 2010 (name: device and method for detecting motion of portable terminal)

이에, 본 발명은 기 정의된 동작을 하나 이상의 단위 동작으로 세분화하고, 각 단위 동작 별로 동작 인식을 위해 다른 센서의 조합을 활용할 수 있도록 함으로써 동작 인식 결과의 신뢰도를 더 높일 수 있는 복수의 센서를 이용한 동작 인식 방법 및 장치를 제공하고자 한다.Accordingly, the present invention provides a method and apparatus for using a plurality of sensors capable of increasing the reliability of the motion recognition result by subdividing a predefined motion into one or more unit motions and utilizing a combination of different sensors for motion recognition for each motion A method and apparatus for recognizing motion are provided.

특히, 본 발명은 하나 이상의 단위 동작으로 이루어지는 동작을 단위 동작 별로 하나 이상의 센서에 대한 센서 정보 및 인식 조건을 설정하고, 설정된 센서 정보 및 인식 조건을 이용하여 각 단위 동작을 인식하고, 이를 조합하여 기 정의된 동작을 인식하도록 함으로써, 복잡한 동작을 좀더 신뢰성 있게 인식할 수 있는 복수의 센서를 이용한 동작 인식 방법 및 장치를 제공하고자 한다.In particular, the present invention is characterized in that the sensor information and the recognition condition for one or more sensors are set for one or more unit operations, the unit operation is performed, the unit operation is recognized using the set sensor information and the recognition condition, The present invention is to provide a motion recognition method and apparatus using a plurality of sensors capable of more reliably recognizing a complex motion by recognizing a defined motion.

본 발명은 상술한 과제의 해결 수단으로서, 기 정의된 동작을 하나 이상의 단위 동작으로 구분하고, 단위 동작 별로 동작 인식에 이용할 하나 이상의 센서에 대한 센서 정보 및 인식 조건을 설정하는 단계; 및 상기 설정된 센서 정보 및 인식 조건에 따라서, 상기 하나 이상의 센서의 센싱값으로부터 각 단위 동작을 순차적으로 인식하고, 인식한 단위 동작을 조합하여 상기 동작을 인식하는 단계를 포함하는 복수의 센서를 이용한 동작 인식 방법을 제공한다.According to the present invention, there is provided a method of solving the above-mentioned problems, comprising the steps of: dividing a predefined operation into one or more unit operations, setting sensor information and recognition conditions for one or more sensors to be used for motion recognition for each unit operation; And sequentially recognizing each unit operation from the sensing value of the one or more sensors in accordance with the set sensor information and recognition condition and recognizing the operation by combining the recognized unit operation It provides a recognition method.

본 발명에 따른 복수의 센서를 이용한 동작 인식 방법은, 상기 센서 정보 및 인식 조건을 설정하는 단계 이전에, 움직임의 방향, 크기, 시간 중 하나 이상을 기준으로 상기 하나 이상의 단위 동작을 세분화하는 단계를 더 포함할 수 있다.The method of recognizing an operation using a plurality of sensors according to the present invention may further include subdividing the at least one unit operation based on at least one of a direction, a size, and a time of the movement before the step of setting the sensor information and the recognition condition .

여기서, 상기 센서 정보는, 단위 동작의 인식에 이용할 하나 이상의 센서의 식별 정보, 상기 하나 이상의 센서별 우선순위, 각 센서의 센싱값에 부여될 가중치 중 하나 이상을 포함할 수 있다.Here, the sensor information may include at least one of identification information of at least one sensor to be used for recognition of a unit operation, priority of each sensor, and weight to be given to a sensing value of each sensor.

그리고, 본 발명의 일 실시 예에 따른 복수의 센서를 이용한 동작 인식 방법에 있어서, 상기 동작을 인식하는 단계는, 상기 하나 이상의 센서 중, 우선순위가 높은 제1 센서의 센싱값을 기반으로 단위 동작을 인식하는 단계; 및 상기 하나 이상의 센서 중, 우선순위가 낮은 제2 센서의 센싱값을 기반으로 인식 결과의 적용 여부를 결정하는 단계를 포함할 수 있다.In the operation recognition method using a plurality of sensors according to an embodiment of the present invention, the step of recognizing the operation may include: recognizing a unit operation based on a sensing value of the first sensor having a higher priority among the one or more sensors, ; And determining whether to apply the recognition result based on the sensing value of the second sensor having a lower priority among the one or more sensors.

본 발명의 다른 실시 예에 따른 복수의 센서를 이용한 동작 인식 방법에 있어서, 상기 동작을 인식하는 단계는, 상기 하나 이상의 센서 중, 우선순위가 높은 제1 센서의 센싱값을 기반으로 동작 인식 수행 여부를 판단하는 단계; 및 판단 결과에 따라서, 상기 하나 이상의 센서 중, 우선순위가 낮은 제2 센서의 센싱값을 기반으로 단위 동작을 인식하는 단계를 포함할 수 있다.In the method of recognizing an operation using a plurality of sensors according to another embodiment of the present invention, the step of recognizing the operation may include determining whether the operation recognition is performed based on the sensing value of the first sensor having a higher priority among the one or more sensors ; And recognizing the unit operation based on the sensed value of the second sensor having a lower priority among the one or more sensors according to the determination result.

본 발명의 또 다른 실시 예에 다른 복수의 센서를 이용한 동작 인식 방법에 있어서, 상기 동작을 인식하는 단계는, 상기 하나 이상의 센서 중, 우선순위가 높은 제1 센서의 센싱값을 기반으로 단위 동작을 인식하는 단계; 상기 제1 센서의 센싱값 기반으로 동작 인식이 불가능한 경우, 상기 하나 이상의 센서 중, 우선순위가 낮은 제2 센서의 센싱값을 기반으로 상기 단위 동작을 인식하는 단계를 포함할 수 있다.In the operation recognition method using a plurality of sensors according to another embodiment of the present invention, the step of recognizing the operation may include: recognizing a unit operation based on a sensing value of a first sensor having a higher priority among the one or more sensors Recognizing; And recognizing the unit operation based on the sensed value of the second sensor having a lower priority among the at least one sensor when operation recognition based on the sensing value of the first sensor is impossible.

또한, 본 발명은 상술한 과제의 해결 수단으로서, 하나 이상의 단위 동작으로 이루어진 동작에 대한 단위 동작 별로 설정된 하나 이상의 센서에 대한 센서 정보에 따라서, 상기 하나 이상의 센서의 센싱값으로부터 산출된 움직임 정보를 획득하고, 이를 단위 동작별로 설정된 인식 조건과 비교하여 상기 하나 이상의 단위 동작을 순차적으로 인식하고, 상기 단위 동작을 조합하여 상기 동작을 인식하는 인식 모듈; 상기 인식 모듈의 제어에 따라서, 복수의 센서 중 상기 하나 이상의 센서의 센싱값을 수집하는 센싱값 수집 모듈; 및 상기 인식 모듈의 제어에 따라서, 상기 수집한 센싱값으로부터 상기 움직임 정보를 산출하는 연산 모듈을 포함하는 복수의 센서를 이용한 동작 인식 장치를 제공한다.According to another aspect of the present invention, there is provided a method for acquiring motion information calculated from a sensed value of at least one sensor in accordance with sensor information for at least one sensor set for each motion of at least one unit operation A recognizing module for comparing the at least one unit operation with a recognition condition set for each unit operation, sequentially recognizing the at least one unit operation, and recognizing the operation by combining the unit operations; A sensing value collection module for collecting sensing values of the at least one sensor among the plurality of sensors in accordance with the control of the recognition module; And a calculation module for calculating the motion information from the collected sensing values under the control of the recognition module.

본 발명의 일 실시 예에 따른 복수의 센서를 이용한 동작 인식 장치에 있어서, 상기 인식 모듈은, 상기 센서 정보에 설정된 상기 하나 이상의 센서 중, 우선순위가 높은 제1 센서의 센싱값을 기반으로 단위 동작을 인식한 후, 상기 하나 이상의 센서 중 우선순위가 낮은 제2 센서의 센싱값을 기반으로 상기 인식 결과의 적용 여부를 결정할 수 있다.In the motion recognition device using a plurality of sensors according to an embodiment of the present invention, the recognition module may perform a unit operation based on a sensing value of a first sensor having a higher priority among the one or more sensors set in the sensor information And determine whether to apply the recognition result based on the sensing value of the second sensor having a lower priority among the one or more sensors.

본 발명의 다른 실시 예에 따른 복수의 센서를 이용한 동작 인식 장치에 있어서, 상기 인식 모듈은, 상기 센서 정보에 설정된 상기 하나 이상의 센서 중, 우선순위가 높은 제1 센서의 센싱값을 기반으로 동작 인식 수행 여부를 판단하고, 그 판단 결과에 따라서, 우선순위가 낮은 제2 센서의 센싱값을 기반으로 단위 동작을 인식할 수 있다.In the motion recognition apparatus using the plurality of sensors according to another embodiment of the present invention, the recognition module may recognize the motion recognition based on the sensing value of the first sensor having a higher priority among the one or more sensors set in the sensor information And the unit operation can be recognized based on the sensed value of the second sensor having a lower priority according to the determination result.

본 발명의 또 다른 실시 예에 따른 복수의 센서를 이용한 동작 인식 장치에 있어서, 상기 인식 모듈은, 상기 센서 정보에 설정된 상기 하나 이상의 센서 중, 우선순위가 높은 제1 센서의 센싱값을 기반으로 단위 동작을 인식하되, 동작 인식이 불가능한 경우, 우선순위가 낮은 제2 센서의 센싱값을 기반으로 상기 단위 동작을 인식할 수 있다.In the motion recognition device using a plurality of sensors according to another embodiment of the present invention, the recognition module may be configured to recognize, based on the sensing value of the first sensor having a higher priority among the one or more sensors set in the sensor information, The unit operation can be recognized based on the sensing value of the second sensor having a lower priority when the operation recognition is impossible.

본 발명에 따르면, 기 정의된 동작을 인식하는데 있어서, 상기 동작을 하나 이상의 단위 동작으로 세분화하여 단위 동작 별로 복수의 센서 중 하나 이상의 센서에 대한 우선순위, 가중치, 활용여부 등을 포함하는 센서 정보를 다르게 설정할 수 있으며, 그 결과, 동작을 인식할 때, 단위 동작 별로 다른 센서들의 조합을 이용할 수 있게 함으로써, 동작 인식 범위를 더 확장시킬 수 있다.According to the present invention, in recognizing a predefined operation, the operation is subdivided into one or more unit operations, and sensor information including priority, weight, utilization or the like of one or more of the plurality of sensors is displayed for each unit operation As a result, when recognizing the operation, the combination of different sensors can be used for each unit operation, so that the operation recognition range can be further extended.

더하여, 본 발명은 기 정의된 동작을 하나 이상의 단위 동작으로 세분화하여 단위 동작 별로 다른 센서들의 조합을 이용하여 동작 인식을 수행함으로써, 복잡한 패턴을 더 정확하게 인식할 수 있다. In addition, the present invention can more accurately recognize a complex pattern by subdividing a predefined operation into one or more unit operations and performing motion recognition using a combination of different sensors for each unit operation.

도 1은 사용자 단말의 동작을 정의하기 위한 기준 좌표계 및 움직임 정보를 나타낸 도면이다.
도 2는 본 발명에 따른 복수의 센서를 이용한 동작 인식 장치를 나타낸 블럭도이다.
도 3은 본 발명에 따른 복수의 센서를 이용한 동작 인식 방법을 나타낸 순서도이다.
도 4는 본 발명에 따른 복수의 센서를 이용한 동작 인식 방법에 있어서, 특정 동작에 대한 센서 정보 및 인식 조건이 설정된 동작 관리 테이블의 예시도 이다.
도 5는 본 발명에 따른 복수의 센서를 이용한 동작 인식 방법에 따라 인식될, 하나 이상의 단위 동작을 포함하는 동작을 예시한 도면이다.
도 6 내지 도 8은 본 발명에 따른 복수의 센서를 이용한 동작 인식 방법에 있어서, 동작 인식 과정의 다양한 실시 예를 나타낸 순서도이다.
1 is a diagram illustrating a reference coordinate system and motion information for defining an operation of a user terminal.
2 is a block diagram showing an operation recognition apparatus using a plurality of sensors according to the present invention.
3 is a flowchart illustrating an operation recognition method using a plurality of sensors according to the present invention.
4 is a diagram illustrating an example of an operation management table in which sensor information and recognition conditions for a specific operation are set, according to an operation recognition method using a plurality of sensors according to the present invention.
5 is a diagram illustrating an operation including one or more unit operations to be recognized according to an operation recognition method using a plurality of sensors according to the present invention.
FIGS. 6 to 8 are flowcharts illustrating various operations of the operation recognition method using a plurality of sensors according to the present invention.

이하 본 발명의 바람직한 실시 예를 첨부한 도면을 참조하여 상세히 설명한다. 다만, 하기의 설명 및 첨부된 도면에서 본 발명의 요지를 흐릴 수 있는 공지 기능 또는 구성에 대한 상세한 설명은 생략한다. 또한, 도면 전체에 걸쳐 동일한 구성 요소들은 가능한 한 동일한 도면 부호로 나타내고 있음에 유의하여야 한다.Hereinafter, preferred embodiments of the present invention will be described in detail with reference to the accompanying drawings. In the following description and the accompanying drawings, detailed description of well-known functions or constructions that may obscure the subject matter of the present invention will be omitted. It should be noted that the same constituent elements are denoted by the same reference numerals as possible throughout the drawings.

본 명세서 및 청구범위에 사용된 용어나 단어는 통상적이거나 사전적인 의미로 한정해서 해석되어서는 아니 되며, 발명자는 그 자신의 발명을 가장 최선의 방법으로 설명하기 위한 용어의 개념으로 적절하게 정의할 수 있다는 원칙에 입각하여 본 발명의 기술적 사상에 부합하는 의미와 개념으로 해석되어야만 한다. 따라서 본 명세서에 기재된 실시 예와 도면에 도시된 구성은 본 발명의 가장 바람직한 일 실시 예에 불과할 뿐이고, 본 발명의 기술적 사상을 모두 대변하는 것은 아니므로, 본 출원시점에 있어서 이들을 대체할 수 있는 다양한 균등물과 변형 예들이 있을 수 있음을 이해하여야 한다.The terms and words used in the present specification and claims should not be construed as limited to ordinary or dictionary meanings and the inventor may appropriately define his own invention as the concept of the term to describe it in the best possible way It should be construed as meaning and concept consistent with the technical idea of the present invention. Therefore, the embodiments described in the present specification and the configurations shown in the drawings are merely the most preferred embodiments of the present invention, and not all of the technical ideas of the present invention are described. Therefore, It is to be understood that equivalents and modifications are possible.

또한, 제1, 제2 등과 같이 서수를 포함하는 용어는 다양한 구성요소들을 설명하기 위해 사용하는 것으로, 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만 사용될 뿐, 상기 구성요소들을 한정하기 위해 사용되지 않는다. 예를 들어, 본 발명의 권리 범위를 벗어나지 않으면서 제2 구성요소는 제1 구성요소로 명명될 수 있고, 유사하게 제1 구성요소도 제2 구성요소로 명명될 수 있다.Also, terms including ordinal numbers such as first, second, etc. are used to describe various elements, and are used only for the purpose of distinguishing one element from another, Not used. For example, without departing from the scope of the present invention, the second component may be referred to as a first component, and similarly, the first component may also be referred to as a second component.

더하여, 어떤 구성요소가 다른 구성요소에 "연결되어" 있다거나 "접속되어" 있다고 언급할 경우, 이는 논리적 또는 물리적으로 연결되거나, 접속될 수 있음을 의미한다. 다시 말해, 구성요소가 다른 구성요소에 직접적으로 연결되거나 접속되어 있을 수 있지만, 중간에 다른 구성요소가 존재할 수도 있으며, 간접적으로 연결되거나 접속될 수도 있다고 이해되어야 할 것이다.In addition, when referring to an element as being "connected" or "connected" to another element, it means that it can be connected or connected logically or physically. In other words, it is to be understood that although an element may be directly connected or connected to another element, there may be other elements in between, or indirectly connected or connected.

또한, 본 명세서에서 사용한 용어는 단지 특정한 실시 예를 설명하기 위해 사용된 것으로, 본 발명을 한정하려는 의도가 아니다. 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. 또한, 본 명세서에서 기술되는 "포함 한다" 또는 "가지다" 등의 용어는 명세서상에 기재된 특징, 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.Also, the terminology used herein is for the purpose of describing particular embodiments only and is not intended to be limiting of the invention. The singular expressions include plural expressions unless the context clearly dictates otherwise. It is also to be understood that the terms such as " comprising "or" having ", as used herein, are intended to specify the presence of stated features, integers, It should be understood that the foregoing does not preclude the presence or addition of other features, numbers, steps, operations, elements, parts, or combinations thereof.

아울러, 본 발명에 따른 동작 인식 방법 및 장치는, 사용자 동작 인식, 로봇 제어 등 다양한 분야에 적용될 수 있으나, 이하에서는 사용자 단말에 적용된 경우를 예로 들어 설명하기로 한다.In addition, the method and apparatus for recognizing motion according to the present invention can be applied to various fields such as user motion recognition, robot control, and the like. Hereinafter, a case in which the present invention is applied to a user terminal will be described.

사용자 단말에서의 동작 인식은, 기 정의된 특정 움직임(뒤집기, 특정 방향으로 흔들기, 특정 패턴 그리기, 사용자 접근)을 감지하여 사용자 단말의 특정 기능을 제어하기 위한 용도로 이용되는 것으로서, 이러한 사용자 단말의 움직임은, 도 1과 같은 3차원 직각 좌표계를 통해, 방위각, 피치(Pitch), 롤(Roll)로 나타낼 수 있다.The operation recognition in the user terminal is used to control a specific function of the user terminal by detecting a predetermined specific movement (flipping, wiggling in a specific direction, drawing a specific pattern, user access) The movement can be represented by an azimuth angle, a pitch, and a roll through a three-dimensional rectangular coordinate system as shown in FIG.

즉, 도 1에 도시된 바와 같이, 사용자 단말의 가로 방향을 X축, 세로 방향을 Y축, 폭 방향을 Z축이라 할 때, 방위각은, 사용자 단말이 향하는 방향(동, 서, 남, 북)에 따라서 Z축을 기준으로 0~360°(또는 -180°~180°)로 나타내며, 피치는 가로축 기준 회전각으로서, 사용자 단말이 세워진 형태에 따라서 -90°~90°로 나타내며, 롤은 세로축 기준 회전각으로서, 사용자 단말이 뉘어진 형태에 따라서 -180°~180°로 나타낸다.1, when the horizontal direction of the user terminal is the X axis, the vertical direction is the Y axis, and the width direction is the Z axis, the azimuth angle is a direction in which the user terminal is oriented (east, west, (Or -180 ° to 180 °) with respect to the Z axis, and the pitch is the horizontal axis rotation angle, which is represented by -90 ° to 90 ° according to the form in which the user terminal is erected, The reference rotation angle is expressed as -180 ° to 180 ° according to the form in which the user terminal is divided.

물론, 본 발명에 따른 동작 인식 방법 및 장치에 있어서, 기준 좌표계 및 움직임의 표현 방법은 달라질 수 있는 것으로서, 상술한 정의는 예시에 불과하다.Of course, in the motion recognition method and apparatus according to the present invention, the reference coordinate system and the method of expressing the motion can be changed, and the above definition is only an example.

도 2는 본 발명에 따른 복수의 센서를 이용한 동작 인식 장치를 나타낸 블럭도이다.2 is a block diagram showing an operation recognition apparatus using a plurality of sensors according to the present invention.

도 2를 참조하면, 본 발명에 따른 복수의 센서를 이용한 동작 인식 장치는, 센싱값 수집 모듈(100)과, 연산 모듈(200)과, 인식 모듈(300)을 포함할 수 있다.Referring to FIG. 2, the motion recognition apparatus using a plurality of sensors according to the present invention may include a sensing value collection module 100, a calculation module 200, and a recognition module 300.

센싱값 수집 모듈(100)은 복수의 센서(100)로부터 출력되는 센싱값을 수집한다. 이때, 상기 센싱값 수집 모듈(100)은 인식 모듈(300)의 제어에 따라서 복수의 센서(100) 중 하나 이상의 센서로부터 센싱값을 수집할 수 있으며, 수집한 센서에 따라서 상이한 값을 갖게 된다. 예를 들어, 조도 센서의 센싱값은, 조도의 양(Lux)를 나타내고, 근접 센서의 센싱값은, 근접한 사물과의 거리 및/또는 근접 여부를 나타내며, 3축 가속도 센서의 센싱값은, 3축(X, Y, Z) 방향으로의 가속도값을 나타내며, 3축 자이로 센서의 센싱값은, 3축(X, Y, Z)에 방향으로의 각속도를 나타내며, 지자기 센서의 센싱값은 지자기의 방향을 나타낸다.The sensing value collecting module 100 collects sensed values output from the plurality of sensors 100. At this time, the sensing value collection module 100 can collect sensing values from at least one of the plurality of sensors 100 under the control of the recognition module 300, and have different values depending on the collected sensors. For example, the sensing value of the illuminance sensor indicates the amount of illumination (Lux), the sensing value of the proximity sensor indicates the distance to and / or proximity to a nearby object, and the sensing value of the 3-axis acceleration sensor is 3 Axis, the sensing value of the three-axis gyro sensor indicates the angular velocity in the direction of the three axes (X, Y, Z), and the sensing value of the geomagnetism sensor indicates the acceleration value in the direction of the axis Direction.

연산 모듈(200)은, 상기 수집한 센싱값을 인식 모듈(300)에서 인식할 수 있는 움직임 정보로 연산한다. 즉, 연산 모듈(200)의 회전 벡터와 회전 행렬 연산을 통해서, 수집한 센싱값을 도 1에서 설명한 움직임 정보, 즉, 방위각, 피치 각도, 롤 각도 등에 대한 회전각으로 변환한다. 또한, 상기 연산 모듈(200)은, 조도 센서의 센싱값으로서, 조도 측정값 혹은 조도 변화량을 연산하고, 근접 센서의 센싱값으로부터, 근접 횟수, 근접 거리를 산출할 수 있다. 마찬가지로, 상기 연산 모듈(200)도 인식 모듈(300)의 제어에 따라서 연산을 수행할 수 있다. The calculation module 200 calculates the collected sensing value as motion information that can be recognized by the recognition module 300. That is, the sensed values are converted into rotation angles for azimuth angle, pitch angle, roll angle, and the like using the rotation vector and the rotation matrix of the calculation module 200. Also, the calculation module 200 can calculate the roughness measurement value or the roughness variation as the sensing value of the roughness sensor, and calculate the proximity frequency and proximity distance from the sensing value of the proximity sensor. Similarly, the calculation module 200 may perform calculation according to the control of the recognition module 300. [

이어서, 인식 모듈(300)은 상기 연산 모듈(200)로부터 출력되는 움직임 정보를 이용하여 기 정의된 동작을 인식하기 위한 구성이다. 특히, 상기 인식 모듈(300)은, 기 정의된 동작을 이루는 하나 이상의 단위 동작 별로 설정된 하나 이상의 센서에 대한 센서 정보 및 인식 조건에 따라서, 단위 동작별로 상기 센싱값 수집 모듈(100) 및 연산 모듈(300)을 제어하고, 그에 따라서 입력되는 움직임 정보를 조합하여, 상기 하나 이상의 단위 동작을 인식하고, 상기 인식한 단위 동작을 조합하여 상기 기 정의된 동작을 인식한다.Next, the recognition module 300 is configured to recognize a predefined motion using the motion information output from the calculation module 200. [ In particular, the recognition module 300 may be configured to detect the sensed value of the sensed-value acquisition module 100 and the computed module (not shown) according to sensor information and recognition conditions for one or more sensors set for one or more unit- 300), and combines the inputted motion information to recognize the at least one unit operation, and recognizes the predefined operation by combining the recognized unit operation.

여기서, 단위 동작은 기 정의된 동작을 방향, 시간, 속도 중 하나 이상을 기준으로 세분화한 구분한 것으로서, 예를 들어, 별 모양의 패턴을 그리는 동작인 경우, 5개의 단위 동작으로 구분할 수 있다. 그리고, 이러한 단위 동작은 인식 조건으로 정의될 수 있으며, 인식 조건은, 인식 각도 및 상기 인식 각도를 유지하는 시간을 포함할 수 있다.Here, the unit operation is a division of the previously defined operation by one or more of direction, time, and speed. For example, if the operation is to draw a star pattern, it can be classified into five unit operations. The unit operation may be defined as a recognition condition, and the recognition condition may include a recognition angle and a time to maintain the recognition angle.

그리고, 센서 정보는, 각 단위 동작별 어떠한 센서를 어떠한 기준으로 이용하여 인식할 것인지를 설정한 정보로서, 하나 이상의 센서에 대한 식별 정보와 함께, 상기 하나 이상의 센서의 우선순위, 가중치 중 하나 이상을 포함할 수 있다. The sensor information is information on which sensor is to be recognized by using a certain sensor for each unit operation. The sensor information includes identification information for one or more sensors, at least one of the priorities and weights of the one or more sensors .

따라서, 상기 인식 모듈(300)은, 각 단위 동작 별로 움직임의 크기 범위 및 시간 중 하나 이상을 포함하는 인식 조건과, 센서 정보가 기록된 동작 관리 테이블을 참조하여, 상기 연산 모듈(200)로부터 입력된 움직임 정보를 비교함으로써, 각 단위 동작을 인식하고, 인식된 단위 동작들을 조합하여 복잡한 동작을 인식할 수 있다. Accordingly, the recognition module 300 refers to the operation management table in which sensor information is recorded, and a recognition condition including at least one of a size range and a time of motion for each unit operation, By comparing the motion information, it is possible to recognize each unit operation and to recognize a complicated operation by combining the recognized unit operations.

상술한 동작 인식 장치에 의한 동작 인식 과정을 도 3의 순서도를 참조하여 구체적으로 설명하기로 한다.The operation recognition process by the above-described motion recognition device will be described in detail with reference to the flowchart of FIG.

도 3은 본 발명에 따른 복수의 센서를 이용한 동작 인식 방법을 개략적으로 나타낸 순서도이다.3 is a flowchart schematically showing an operation recognition method using a plurality of sensors according to the present invention.

도 3을 참조하면, 본 발명에 따른 복수의 센서를 이용한 동작 인식 방법은, 우선, 인식 대상 동작으로서 기 정의된 동작을 하나 이상의 단위 동작으로 세분화한다(S110). 상기 단위 동작은, 움직임의 방향, 크기, 및 시간 중 하나 이상을 기준으로 구분 가능한 동작을 의미하며, 인식할 동작은 하나 이상을 단위 동작을 포함할 수 있으며, 복잡한 동작일 수 록 단위 동작의 수가 더 많아질 수 있다.Referring to FIG. 3, an operation recognition method using a plurality of sensors according to the present invention first divides an operation defined as a recognition object operation into one or more unit operations (S110). The unit operation refers to an operation that can be distinguished based on at least one of a direction, a size, and a time of a motion. The operation to be recognized may include one or more unit operations. The number of unit operations More can be.

도 5는 본 발명에 따라 정의된 동작을 나타낸 모식도로서, 여기서 기 정의된 동작은 단말을 흔드는 동작으로서, 좌측으로 움직이는 단위 동작 1과, 우측으로 움직이는 단위 동작 2와, 아래 방향으로 회전하는 단위 동작 3이 연속적으로 이루어지는 동작이다. 이와 같이, 동작을 하나 이상의 단위 동작으로 세분화하여 정의함으로써, 흔드는 동작도 더 다양한 형태로 정의할 수 있다.5 is a schematic diagram illustrating an operation defined in accordance with the present invention, wherein the previously defined operation is an operation of shaking the terminal, which includes a unit operation 1 for moving to the left, a unit operation 2 for moving to the right, 3 are consecutive operations. In this manner, by defining the operation in sub-division by one or more unit operations, the shaking motion can be defined in more various forms.

이어서, 본 발명에 따른 동작 인식 방법은, 상기 기 정의된 동작에 포함된 하나 이상의 단위 동작에 대하여, 단위 동작 별로 동작 인식에 이용할 하나 이상의 센서에 대한 활용 방법을 정의하는 센서 정보 및 인식 조건을 설정한다(S120). 여기서, 센서 정보는, 복수의 센서(10) 중에서 어떠한 센서들을 어떻게 활용하여 단위 동작을 인식할 것인지를 정의하는 기준 정보로서, 단위 동작을 인식하기 위해 이용할 하나 이상의 센서에 대한 식별 정보와 함께, 상기 하나 이상의 센서의 우선순위, 가중치 중 하나 이상을 포함할 수 있다. 상기 우선순위 및 가중치는 다양한 방법으로 동작 인식에 적용될 수 있으며, 그 방법은 이후의 인식 단계에서 설명하기로 한다. 다음으로, 인식 조건은, 해당 단위 동작을 정의하는 기준 정보로서, 움직임의 크기 및 해당 움직임을 유지하는 시간을 포함할 수 있다. 상기 움직임의 크기는 센서 정보에서 설정된 하나 이상의 센서로 산출할 수 있는 움직임 정보에 대응하여 정의될 수 있다. 즉, 상기 센서 정보에서, 가속도센서, 지자기 센서 및 자이로 센서가 설정된 경우, 상기 인식 조건은, 회전 각도로 정의될 수 있다. 반면, 센서 정보에서, 조도 센서인 경우, 인식 조건은, 최소 및 최대 조도값, 조도값 변화량 중 하나 이상으로 설정될 수 있으며, 근접 센서의 경우, 인식 조건은, 근접 거리 및 근접 횟수 중 하나 이상으로 설정될 수 있다.The method of recognizing motion according to the present invention further comprises the steps of setting sensor information and a recognition condition that define a utilization method for one or more sensors to be used for motion recognition per unit motion for one or more unit motions included in the predefined motion (S120). Here, the sensor information is reference information for defining how to recognize a unit operation by utilizing certain sensors among the plurality of sensors 10, together with identification information for one or more sensors to be used for recognizing a unit operation, A priority of one or more sensors, a weight, and the like. The priority and weight can be applied to motion recognition in various ways, and the method will be described in a later recognition step. Next, the recognition condition may be reference information for defining the unit operation, and may include the magnitude of the motion and the time for maintaining the motion. The size of the motion may be defined corresponding to motion information that can be calculated by one or more sensors set in the sensor information. That is, when the acceleration sensor, the geomagnetic sensor and the gyro sensor are set in the sensor information, the recognition condition may be defined as a rotation angle. On the other hand, in the case of the sensor information, in the case of the illuminance sensor, the recognition condition may be set to at least one of the minimum and maximum illuminance values and the illuminance value variation amount. In the case of the proximity sensor, Lt; / RTI >

이와 같이, 인식하고자 하는 동작에 포함된 하나 이상의 단위 동작 별로 설정되는 센서 정보 및 인식 조건은 도 4와 같은 동작 관리 테이블로 관리될 수 있다. 도 4에서 예시한 동작 1은, 세 개의 단위 동작(단위 동작 1~단위동작 3)의 조합으로 이루어지는 것으로서, 센서 정보는, 각 단위 동작 별로, 지자기 센서, 자이로 센서, 가속도 센서, 조도 센서 및 근접 센서 중 선택된 하나 이상의 센서 및 선택된 센서의 우선순위로 설정된다. 그리고, 인식 조건이 각 센서에 대응하여 설정될 수 있다.As described above, the sensor information and the recognition condition set for one or more unit operations included in the operation to be recognized can be managed by the operation management table as shown in FIG. The operation 1 illustrated in Fig. 4 is a combination of three unit operations (unit operation 1 to unit operation 3), and the sensor information includes, for each unit operation, a geomagnetism sensor, a gyro sensor, an acceleration sensor, Is set to the priority of one or more selected sensors and the selected one of the sensors. A recognition condition can be set corresponding to each sensor.

이후, 본 발명에 따른 동작 인식 장치는, 상기 설정된 센서 정보에 따라서, 복수의 센서 중, 기 설정된 하나 이상의 센서의 센싱값으로부터 움직임 정보를 산출하고 이를 인식 조건과 비교하여 단위 동작을 인식하고, 연속된 단위 동작을 조합하여 기 정의된 동작을 인식한다(S130). 도 4의 동작 관리 테이블 및 도 5의 동작 예시를 참조하면, 먼저 단위 동작 1을 지자기 센서, 가속도 센서, 자이로 센서의 센싱값으로부터 회전 각도를 산출하고, 이를 인식 조건(A°~B°)과 비교하여 인식하고, 단위 동작 2를 우선순위에 따라서 조도 센서의 센싱값을 인식 조건(E Lux 미만)과 비교하여, 인식조건을 만족할 경우 지자기 센서, 가속도 센서, 자이로 센서의 센싱값으로부터 회전각도를 산출하고, 이를 인식 조건(B°~C°)와 비교하여 인식한다. 이어서, 단위동작 3의 경우, 지자기센서/가속도센서/자이로센서, 근접 센서, 조도 센서 순으로 각각의 센싱값으로부터 산출된 움직임 정보(회전각, 조도 변화량, 근접횟수/근접거리)를 산출하고 이를 각각의 인식조건과 비교함에 의하여 인식한다. 아울러, 단위 동작 1, 2, 3이 순차로 인식되면, 최종적으로 동작 1이 인식된 것으로 판단한다.Thereafter, the motion recognition apparatus according to the present invention calculates motion information from the sensed values of at least one sensor among a plurality of sensors according to the set sensor information, recognizes the unit motion by comparing it with a recognition condition, (S130). ≪ tb > < TABLE > Referring to the operation management table of FIG. 4 and the operation example of FIG. 5, first, the unit operation 1 is calculated from the sensing values of the geomagnetism sensor, the acceleration sensor, and the gyro sensor, And comparing the sensing value of the illuminance sensor with the recognition condition (less than E Lux) according to the priority order of the unit operation 2, and when the recognition condition is satisfied, the rotation angle is calculated from the sensing value of the geomagnetism sensor, the acceleration sensor and the gyro sensor And recognizes it by comparing it with recognition condition (B ° ~ C °). Subsequently, in the case of the unit operation 3, motion information (rotation angle, roughness variation, proximity frequency / proximity distance) calculated from the sensing values in the order of geomagnetism sensor / acceleration sensor / gyro sensor, It is recognized by comparing with each recognition condition. In addition, when unit operations 1, 2, and 3 are sequentially recognized, it is determined that operation 1 is finally recognized.

이때, 본 발명의 일 실시 예에서, 본 발명에 따른 동작 인식 장치는, 센서 정보에 우선순위가 포함된 경우, 우선순위가 높은 센서들의 센싱값을 수집하여, 이를 기반으로 움직임 정보를 산출하고 산출한 움직임 정보를 인식 조건과 비교하여, 단위 동작을 인식한 후, 우선순위가 낮은 센서의 센싱값으로부터 산출된 변화값을 기반으로 상기 인식 결과의 적용 여부를 결정할 수 있다.In one embodiment of the present invention, when the sensor information includes a priority, the motion recognition apparatus according to the present invention collects sensed values of sensors having high priority, calculates motion information based on the sensed values, and calculates It is possible to determine whether the recognition result is applied based on the change value calculated from the sensing value of the low priority sensor after comparing the motion information with the recognition condition and recognizing the unit operation.

다른 실시 예에서, 상기 동작 인식 장치는, 우선순위가 높은 센서의 측정 결과를 기반으로 동작 인식 수행 여부를 판단하고, 그 판단 결과에 따라서, 우선순위가 낮은 센서들의 센싱값을 수집하여, 이를 기반으로 움직임 정보를 산출하고, 산출한 움직임 정보를 인식 조건과 비교하여 단위 동작을 인식할 수 있다.In another embodiment, the motion recognition apparatus determines whether or not the motion recognition is performed based on the measurement result of the sensor having a high priority, collects sensing values of the sensors having low priority according to the determination result, , And the unit operation can be recognized by comparing the calculated motion information with the recognition condition.

또 다른 실시 예에서, 본 발명에 따른 동작 인식 장치는, 우선순위가 높은 센서들을 기반으로 단위 동작을 인식하되, 우선순위가 높은 센서의 센싱값으로 동작 인식이 불가능한 경우, 우선순위가 낮은 센서들의 센싱값을 기반으로 단위 동작을 인식할 수 있다.In another embodiment, the motion recognition apparatus according to the present invention recognizes a unit operation based on sensors having higher priority, and when recognition of the motion is impossible with a sensing value of a sensor having a higher priority, The unit operation can be recognized based on the sensing value.

또한, 상기 센서 정보에 가중치가 포함된 경우, 본 발명에 따른 동작 인식 장치는, 센서 정보에 설정된 하나 이상의 센서의 센싱값으로부터 움직임 정보를 산출할 때, 각 센서에 설정된 가중치를 적용하여 움직임 정보를 산출할 수 있다. 이 경우, 단위 동작 인식 시에, 가중치가 높은 센서의 센싱값이 더 높은 비율로 고려될 수 있다.In the case where the weight information is included in the sensor information, when the motion information is calculated from the sensed values of at least one sensor set in the sensor information, the motion recognition apparatus applies the weight values set to the respective sensors to calculate motion information Can be calculated. In this case, at the time of recognizing the unit operation, the sensing value of the sensor having a high weight can be considered as a higher rate.

이하, 도 6 내지 도 8을 참조하여, 본 발명에 따른 복수의 센서를 이용한 동작 인식 방법에 있어서, 동작 인식 과정을 더 구체적으로 설명한다.Hereinafter, with reference to FIG. 6 to FIG. 8, the operation recognition process using the plurality of sensors according to the present invention will be described in more detail.

도 6은 본 발명에 따른 복수의 센서를 이용한 동작 인식 방법에 있어서, 동작 인식 과정의 일 실시 예를 나타낸 순서도이다. 본 발명의 일 실시 예에서, 특정 단위 동작의 센서 정보에, 지자기 센서, 가속도 센서, 자이로 센서가 높은 우선순위를 갖는 제1 센서로 설정되고, 근접 센서 및 조도 센서가 우선순위가 낮은 제2 센서로 설정되는 것으로 가정한다.6 is a flowchart illustrating an operation recognition method in an operation recognition method using a plurality of sensors according to an embodiment of the present invention. In one embodiment of the present invention, the geomagnetism sensor, the acceleration sensor, and the gyro sensor are set to the first sensor having a high priority and the proximity sensor and the illuminance sensor are set to the second sensor having a low priority . ≪ / RTI >

도 6을 참조하면, 본 발명의 일 실시 예에서, 동작 인식 장치는, 단말의 움직임이 감지되면, 즉, 복수의 센서(10) 중 어느 하나의 센싱값이 변화되면(S210), 센싱값 수집 모듈(100)을 통해서, 우선순위가 높은 제1 센서로 설정된 지자기 센서, 가속도 센서, 자이로 센서의 센싱값을 수집한다(S220).Referring to FIG. 6, in one embodiment of the present invention, when the motion of the terminal is detected, that is, when the sensing value of any one of the plurality of sensors 10 is changed (S210) The sensing values of the geomagnetism sensor, the acceleration sensor, and the gyro sensor set as the first sensor having a higher priority are collected through the module 100 (S220).

아울러, 우선순위가 낮은 제2 센서로 설정된 근접 센서 및 조도 센서의 센싱값을 수집한다(S230).In addition, the sensing values of the proximity sensor and the illuminance sensor set as the second sensor having a low priority are collected (S230).

이어, 상기 동작 인식 장치는, 연산 모듈(200)을 통해서, 상기 지자기 센서, 가속도 센서 및 자이로 센서의 센싱값에 대한 회전 벡터 및 회전 행렬 연산을 수행하여, 단말의 움직임 정보(예를 들어, 회전각)를 연산한다(S240).Then, the motion recognition device calculates a rotation vector and a rotation matrix for the sensed values of the geomagnetism sensor, the acceleration sensor, and the gyro sensor through the calculation module 200, and generates motion information (for example, (S240).

그리고, 상기 동작 인식 장치는, 인식 모듈(300)을 통해서 상기 움직임 정보를 기 설정된 단위 동작의 인식 조건을 만족하는 지를 비교한다(S250).Then, the motion recognition device compares the motion information with the recognition module 300 to determine whether the recognition condition of the predetermined unit operation is satisfied (S250).

비교 결과, 기 설정된 단위 동작의 인식 조건을 만족하면, 상기 인식 모듈(300)을 통해서 다시, 조도 센서 및 근접 센서의 측정값이 기 설정된 조건을 만족하는 지를 판단한다(S260).If the recognition condition of the predetermined unit operation is satisfied as a result of the comparison, it is determined whether the measured values of the illuminance sensor and the proximity sensor satisfy predetermined conditions through the recognition module 300 (S260).

상기 S260 단계의 판단 결과, 조도 센서 및 근접 센서의 측정값이 기 설정된 조건을 만족하면, 상기 인식 모듈(300)은, 상기 감지된 단말의 움직임을 상기 S250 단계에서 인식 조건이 만족되는 단위 동작으로 인식한다(S270).If it is determined in step S260 that the measured values of the illuminance sensor and the proximity sensor satisfy predetermined conditions, the recognition module 300 determines the movement of the detected terminal as a unit operation in which the recognition condition is satisfied in step S250 (S270).

상기 S250 단계 및 S260 단계에서 조건을 만족하지 못하는 경우, 상기 단말의 움직임은 인식 대상 동작이 아니므로 무시된다.If the conditions are not satisfied in step S250 and step S260, the motion of the terminal is ignored because it is not a recognition target operation.

상술한 과정에 따르면, 지자기 센서, 가속도 센서 및 자이로 센서 등을 통해서 단말의 동작을 인식하되, 지자기 센서, 가속도 센서 및 자이로 센서의 오작동 혹은 단말을 휴대한 사용자의 이동에 의해 발생하는 오인식을 최소화할 수 있다.According to the above-described process, it is possible to recognize the operation of the terminal through the geomagnetic sensor, the acceleration sensor, the gyro sensor, etc., and to minimize the misperception caused by the misoperation of the geomagnetism sensor, the acceleration sensor and the gyro sensor, .

도 7을 참조하면, 본 발명의 다른 실시 예에서, 동작 인식 장치는, 단말의 움직임이 감지되면, 즉, 복수의 센서(10) 중 어느 하나의 센싱값이 변화되면(S310), 센싱값 수집 모듈(100)을 통해서, 우선순위가 높은 제1 센서로 설정된 지자기 센서, 가속도 센서, 자이로 센서의 센싱값을 수집한다(S320). Referring to FIG. 7, in another embodiment of the present invention, when the motion of the terminal is detected, that is, when the sensing value of any one of the plurality of sensors 10 is changed (S310) The sensed values of the geomagnetism sensor, the acceleration sensor, and the gyro sensor set as the first sensor having a higher priority are collected through the module 100 (S320).

아울러, 우선순위가 낮은 제2 센서로 설정된 근접 센서 및 조도 센서의 센싱값을 수집한다(S330).In addition, the sensing values of the proximity sensor and the illuminance sensor set as the second sensor having a low priority are collected (S330).

이어, 상기 동작 인식 장치는, 연산 모듈(200)을 통해서, 상기 지자기 센서, 가속도 센서 및 자이로 센서의 센싱값에 대한 회전 벡터 및 회전 행렬 연산을 수행하여, 단말의 움직임 정보(예를 들어, 회전각)를 연산한다(S340).Then, the motion recognition device calculates a rotation vector and a rotation matrix for the sensed values of the geomagnetism sensor, the acceleration sensor, and the gyro sensor through the calculation module 200, and generates motion information (for example, Is calculated (S340).

그리고, 상기 동작 인식 장치는, 인식 모듈(300)을 통해서 상기 움직임 정보로 동작 인식이 가능한 지를 판단한다(S350). 이는 산출된 움직임 정보가 기 설정된 임계 범위 이내 인지를 비교함에 의해 이루어질 수 있다. 예를 들어, 움직임 정보가 너무 작거나, 튀는 값인 경우, 정확한 판단이 불가능할 수 있다.Then, the motion recognition apparatus determines whether motion recognition is possible using the motion information through the recognition module 300 (S350). This can be done by comparing whether the calculated motion information is within a predetermined threshold range. For example, if the motion information is too small or bouncing, accurate determination may not be possible.

판단 결과, 동작 인식이 가능한 경우, 인식 모듈(300)은, 지자기 센서, 자이로 센서, 및 가속도 센서로부터 산출된 움직임 정보를 기 설정된 인식 조건과 매칭하여, 단위 동작의 인식을 수행한다(S380).As a result of the determination, if the motion recognition is possible, the recognition module 300 performs recognition of the unit operation by matching the motion information calculated from the geomagnetism sensor, the gyro sensor, and the acceleration sensor with predetermined recognition conditions (S380).

반면에, 판단 결과, 동작 인식이 불가능한 경우, 인식 모듈(300)은 근접 센서 및 조도 센서의 센싱값의 변화량을 산출하고(S360), 이를 근접 센서 및 조도 센서에 대응하여 기 설정된 인식 조건과 비교하여, 인식 조건을 만족하는 지를 판단하고(S370), 판단 결과에 따라서 동작 인식을 수행한다(S380). 즉, 근접 센서 및 조도 센서의 변화량을 기반으로 동작 인식을 수행하는 것이다.On the other hand, if it is determined that the operation can not be recognized as a result of the determination, the recognition module 300 calculates a change amount of the sensing value of the proximity sensor and the illuminance sensor (S360) Then, it is determined whether the recognition condition is satisfied (S370), and the operation recognition is performed according to the determination result (S380). That is, motion recognition is performed based on the amount of change of the proximity sensor and the illuminance sensor.

상술한 과정에 따르면, 지자기 센서, 가속도 센서 및 자이로 센서 등을 통해서 단말의 동작을 인식하되, 지자기 센서, 가속도 센서 및 자이로 센서로 인식이 불가능한 경우, 근접 센서 및 조도 센서를 이용하여 동작 인식을 수행함으로써, 인식 가능 범위를 더 확장시킬 수 있게 된다.According to the above-described process, the operation of the terminal is recognized through the geomagnetism sensor, the acceleration sensor, and the gyro sensor, and when the geomagnetism sensor, the acceleration sensor and the gyro sensor can not recognize the motion, the motion recognition is performed using the proximity sensor and the illumination sensor Thus, the recognizable range can be further expanded.

마지막으로, 도 8은 본 발명의 또 다른 실시 예에 따른 동작 인식 과정을 나타낸 순서도로서, 여기서, 센서 정보는, 우선순위가 높은 제1 센서로, 근접 센서 및 조도 센서가 설정되고, 우선순위가 낮은 제2 센서로 지자기 센서, 가속도 센서 및 자이로 센서가 설정된 것으로 가정한다.8 is a flowchart showing an operation recognition process according to another embodiment of the present invention. Here, the sensor information is a first sensor having a high priority, a proximity sensor and an illuminance sensor are set, It is assumed that the geomagnetic sensor, the acceleration sensor, and the gyro sensor are set as the low second sensor.

도 8을 참조하면, 본 발명의 또 다른 실시 예에서, 동작 인식 장치는, 단말의 움직임이 감지되면, 즉, 복수의 센서(10) 중 어느 하나의 센싱값이 변화되면(S410), 센싱값 수집 모듈(100)을 통해서, 우선순위가 높은 제1 센서로 설정된 근접 센서 및 조도 센서의 센싱값을 수집하여, 변화량을 산출한다(S420).Referring to FIG. 8, in another embodiment of the present invention, when the motion of the terminal is detected, that is, when the sensing value of any one of the plurality of sensors 10 is changed (S410) The sensing value of the proximity sensor and the illuminance sensor set as the first sensor having a high priority is collected through the acquisition module 100 and the amount of change is calculated (S420).

그리고, 상기 근접 센서 및 조도 센서의 센싱값의 변화량을 기반으로 동작 인식 수행 여부를 판단한다(S430). 예를 들어, 근접 센서를 통해 사물이 근접한 것으로 감지되고, 조도 센서에서 측정된 조도의 양이 임계값 이하인 경우, 동작 인식이 불가능한 것으로 판단하고, 근접 센서에서 사물 근접이 감지되지 않고 조도 센서에서 측정된 조도의 양이 임계값 이상인 경우 동작 인식이 가능한 것으로 판단할 수 있다. 이를 통하여, 사용자의 단말이 가방이 포켓 내에 위치한 경우의 불필요한 오동작을 제거할 수 있게 된다.Then, it is determined whether the operation recognition is performed based on the variation amount of the sensing value of the proximity sensor and the illumination sensor (S430). For example, if an object is detected as proximity through a proximity sensor, and the amount of illumination measured by the illumination sensor is below a threshold value, it is determined that motion recognition is impossible. If the amount of illuminance is greater than the threshold value, it can be judged that motion recognition is possible. Thus, it is possible to eliminate an unnecessary malfunction when the user's terminal is located in the pocket of the bag.

그리고, 상기 S430 단계에서의 판단 결과, 동작 인식이 가능한 것으로 판단되면, 동작 인식 장치는, 우선순위가 낮은 제2 센서로 설정된 지자기 센서, 가속도 센서 및 자이로 센서의 센싱값을 수집하고, 이에 대한 회전 벡터 및 회전 행렬 연산을 수행하여, 단말의 움직임 정보(예를 들어, 회전각)를 연산한다(S440).If it is determined in step S430 that the motion recognition is possible, the motion recognition device collects the sensing values of the geomagnetism sensor, the acceleration sensor, and the gyro sensor set as the second sensor having a lower priority, (E.g., a rotation angle) of the terminal by performing a vector and a rotation matrix operation (S440).

그리고, 상기 동작 인식 장치는, 인식 모듈(300)을 통해서 상기 움직임 정보를 기 설정된 인식 조건과 비교하여 조건을 만족하는 지를 판단하여(S450), 단위 동작의 인식을 수행한다(S460).Then, the motion recognition device compares the motion information with a preset recognition condition through the recognition module 300 to determine whether the condition is satisfied (S450), and recognizes the unit motion (S460).

반면에, S430 단계의 판단 결과, 동작 인식이 불가능한 경우, 동작 인식 과정을 수행하지 않으므로, 보다 효율적인 동작 인식 처리가 가능해진다.On the other hand, as a result of the determination in step S430, if the motion recognition is impossible, the motion recognition process is not performed, so that more efficient motion recognition processing becomes possible.

본 발명에 따른 동작 인식 방법은 다양한 컴퓨터 수단을 통하여 판독 가능한 소프트웨어 형태로 구현되어 컴퓨터로 판독 가능한 기록매체에 기록될 수 있다. 여기서, 기록매체는 프로그램 명령, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다. 기록매체에 기록되는 프로그램 명령은 본 발명을 위하여 특별히 설계되고 구성된 것들이거나 컴퓨터 소프트웨어 당업자에게 공지되어 사용 가능한 것일 수도 있다. 예컨대 기록매체는 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체(Magnetic Media), CD-ROM(Compact Disk Read Only Memory), DVD(Digital Video Disk)와 같은 광 기록 매체(Optical Media), 플롭티컬 디스크(Floptical Disk)와 같은 자기-광 매체(Magneto-Optical Media), 및 롬(ROM), 램(RAM, Random Access Memory), 플래시 메모리 등과 같은 프로그램 명령을 저장하고 수행하도록 특별히 구성된 하드웨어 장치를 포함한다. 프로그램 명령의 예에는 컴파일러에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드를 포함할 수 있다. 이러한 하드웨어 장치는 본 발명의 동작을 수행하기 위해 하나 이상의 소프트웨어 모듈로서 작동하도록 구성될 수 있으며, 그 역도 마찬가지이다.The motion recognition method according to the present invention can be implemented in the form of software readable by various computer means and recorded on a computer-readable recording medium. Here, the recording medium may include program commands, data files, data structures, and the like, alone or in combination. Program instructions to be recorded on a recording medium may be those specially designed and constructed for the present invention or may be available to those skilled in the art of computer software. For example, the recording medium may be an optical recording medium such as a magnetic medium such as a hard disk, a floppy disk and a magnetic tape, a compact disk read only memory (CD-ROM), a digital video disk (DVD) Includes a hardware device that is specially configured to store and execute program instructions such as a magneto-optical medium such as a floppy disk and a ROM, a random access memory (RAM), a flash memory, do. Examples of program instructions may include machine language code such as those generated by a compiler, as well as high-level language code that may be executed by a computer using an interpreter or the like. Such a hardware device may be configured to operate as one or more software modules to perform the operations of the present invention, and vice versa.

또한, 본 명세서에서 설명하는 기능적인 동작과 주제의 구현물들은 다른 유형의 디지털 전자 회로로 구현되거나, 본 명세서에서 개시하는 구조 및 그 구조적인 등가물들을 포함하는 컴퓨터 소프트웨어, 펌웨어 혹은 하드웨어로 구현되거나, 이들 중 하나 이상의 결합으로 구현 가능하다. 본 명세서에서 설명하는 주제의 구현물들은 하나 이상의 컴퓨터 프로그램 제품, 다시 말해 본 발명에 따른 장치의 동작을 제어하기 위하여 혹은 이것에 의한 실행을 위하여 유형의 프로그램 저장매체 상에 인코딩된 컴퓨터 프로그램 명령에 관한 하나 이상의 모듈로서 구현될 수 있다. 컴퓨터로 판독 가능한 매체는 기계로 판독 가능한 저장 장치, 기계로 판독 가능한 저장 기판, 메모리 장치, 기계로 판독 가능한 전파형 신호에 영향을 미치는 물질의 조성물 혹은 이들 중 하나 이상의 조합일 수 있다.Further, the functional operations and subject matter implementations described herein may be implemented in other types of digital electronic circuitry, or may be implemented in computer software, firmware, or hardware, including the structures disclosed herein and their structural equivalents, ≪ / RTI > Implementations of the subject matter described herein may be embodied in one or more computer program products, i. E. One for computer program instructions encoded on a program storage medium of the type for < RTI ID = 0.0 & And can be implemented as a module as described above. The computer-readable medium can be a machine-readable storage device, a machine-readable storage substrate, a memory device, a composition of matter that affects the machine readable propagation type signal, or a combination of one or more of the foregoing.

아울러, 본 명세서는 다수의 특정한 구현물의 세부사항들을 포함하지만, 이들은 어떠한 발명이나 청구 가능한 것의 범위에 대해서도 제한적인 것으로서 이해되어서는 안되며, 오히려 특정한 발명의 특정한 실시형태에 특유할 수 있는 특징들에 대한 설명으로서 이해되어야 한다. 개별적인 실시형태의 문맥에서 본 명세서에 기술된 특정한 특징들은 단일 실시형태에서 조합하여 구현될 수도 있다. 반대로, 단일 실시형태의 문맥에서 기술한 다양한 특징들 역시 개별적으로 혹은 어떠한 적절한 하위 조합으로도 복수의 실시형태에서 구현 가능하다. 나아가, 특징들이 특정한 조합으로 동작하고 초기에 그와 같이 청구된 바와 같이 묘사될 수 있지만, 청구된 조합으로부터의 하나 이상의 특징들은 일부 경우에 그 조합으로부터 배제될 수 있으며, 그 청구된 조합은 하위 조합이나 하위 조합의 변형물로 변경될 수 있다.In addition, while the specification contains a number of specific implementation details, it should be understood that they are not to be construed as limitations on the scope of any invention or claim, but rather on the features that may be specific to a particular embodiment of a particular invention Should be understood as an explanation. Certain features described herein in the context of separate embodiments may be implemented in combination in a single embodiment. Conversely, various features described in the context of a single embodiment may also be implemented in multiple embodiments, either individually or in any suitable subcombination. Further, although the features may operate in a particular combination and may be initially described as so claimed, one or more features from the claimed combination may in some cases be excluded from the combination, Or a variant of a subcombination.

마찬가지로, 특정한 순서로 도면에서 동작들을 묘사하고 있지만, 이는 바람직한 결과를 얻기 위하여 도시된 그 특정한 순서나 순차적인 순서대로 그러한 동작들을 수행하여야 한다거나 모든 도시된 동작들이 수행되어야 하는 것으로 이해되어서는 안 된다. 특정한 경우, 멀티태스킹과 병렬 프로세싱이 유리할 수 있다. 또한, 상술한 실시형태의 다양한 시스템 컴포넌트의 분리는 그러한 분리를 모든 실시형태에서 요구하는 것으로 이해되어서는 안되며, 설명한 프로그램 컴포넌트와 시스템들은 일반적으로 단일의 소프트웨어 제품으로 함께 통합되거나 다중 소프트웨어 제품에 패키징될 수 있다는 점을 이해하여야 한다.Likewise, although the operations are depicted in the drawings in a particular order, it should be understood that such operations must be performed in that particular order or sequential order shown to achieve the desired result, or that all illustrated operations should be performed. In certain cases, multitasking and parallel processing may be advantageous. Also, the separation of the various system components of the above-described embodiments should not be understood as requiring such separation in all embodiments, and the described program components and systems will generally be integrated together into a single software product or packaged into multiple software products It should be understood.

본 명세서에서 설명한 주제의 특정한 실시형태를 설명하였다. 기타의 실시형태들은 이하의 청구항의 범위 내에 속한다. 예컨대, 청구항에서 인용된 동작들은 상이한 순서로 수행되면서도 여전히 바람직한 결과를 성취할 수 있다. 일 예로서, 첨부도면에 도시한 프로세스는 바람직한 결과를 얻기 위하여 반드시 그 특정한 도시된 순서나 순차적인 순서를 요구하지 않는다. 특정한 구현예에서, 멀티태스킹과 병렬 프로세싱이 유리할 수 있다.Certain embodiments of the subject matter described herein have been described. Other embodiments are within the scope of the following claims. For example, the operations recited in the claims may be performed in a different order and still achieve desirable results. By way of example, the process illustrated in the accompanying drawings does not necessarily require that particular illustrated or sequential order to obtain the desired results. In certain implementations, multitasking and parallel processing may be advantageous.

본 기술한 설명은 본 발명의 최상의 모드를 제시하고 있으며, 본 발명을 설명하기 위하여, 그리고 당업자가 본 발명을 제작 및 이용할 수 있도록 하기 위한 예를 제공하고 있다. 이렇게 작성된 명세서는 그 제시된 구체적인 용어에 본 발명을 제한하는 것이 아니다. 따라서, 상술한 예를 참조하여 본 발명을 상세하게 설명하였지만, 당업자라면 본 발명의 범위를 벗어나지 않으면서도 본 예들에 대한 개조, 변경 및 변형을 가할 수 있다.The description sets forth the best mode of the invention, and is provided to illustrate the invention and to enable those skilled in the art to make and use the invention. The written description is not intended to limit the invention to the specific terminology presented. Thus, while the present invention has been described in detail with reference to the above examples, those skilled in the art will be able to make adaptations, modifications, and variations on these examples without departing from the scope of the present invention.

따라서 본 발명의 범위는 설명된 실시 예에 의하여 정할 것이 아니고 특허청구범위에 의해 정하여져야 한다.Therefore, the scope of the present invention should not be limited by the described embodiments but should be defined by the claims.

본 발명에 따르면, 하나 이상의 단위 동작을 포함하는 동작을 인식하는데 있어서, 단위 동작 별로 복수의 센서 중 하나 이상의 센서에 대한 우선순위, 가중치, 활용여부 등을 포함하는 센서 정보를 다르게 설정할 수 있으며, 그 결과, 동작을 인식할 때, 단위 동작 별로 다른 센서들의 조합을 이용할 수 있게 함으로써, 동작 인식 범위를 더 확장시킬 수 있다.According to the present invention, in recognizing an operation including one or more unit operations, sensor information including priority, weight, utilization, etc. of one or more of the plurality of sensors may be set differently for each unit operation, As a result, when recognizing the operation, the combination of different sensors can be used for each unit operation, so that the operation recognition range can be further extended.

더하여, 본 발명은 하나 이상의 단위 동작을 포함하는 동작을 인식하는데 있어서, 단위 동작 별로 다른 센서들의 조합을 이용하여 동작 인식을 수행함으로써, 복잡한 패턴을 더 정확하게 인식할 수 있다. In addition, in recognizing an operation including one or more unit operations, the present invention can recognize a complex pattern more accurately by performing motion recognition using a combination of different sensors for each unit operation.

10: 센서
100: 센싱값 수집 모듈
200: 연산 모듈
300: 인식 모듈
10: Sensor
100: Sensing value acquisition module
200: Operation module
300: recognition module

Claims (10)

복수의 센서로부터 센서값을 수신하여 하나 이상의 연속된 단위 동작으로 분할된 하나의 특정 동작을 인식하는 동작 인식 방법에 있어서,
동작 인식 장치가 기 정의된 하나의 특정 동작을 연속된 하나 이상의 단위 동작으로 구분하여, 상기 연속된 단위 동작 별로, 단위 동작의 인식에 이용할 하나 이상의 센서에 대하여 센서 별 우선순위를 포함하는 센서 정보 및 인식 조건을 설정하는 단계; 및
상기 설정된 센서 정보에 포함된 정보 및 상기 센서 별 우선순위에 따라 상기 하나 이상의 센서의 센싱값을 기반으로 동작 인식 수행 여부를 판단하거나, 상기 하나의 특정 동작을 인식하기 위해 구분된 연속된 단위 동작 각각을 순차적으로 인식하고, 인식한 단위 동작을 조합하여 상기 동작을 인식하는 단계를 포함하고,
상기 센서 정보 및 인식 조건을 설정하는 단계에서,
상기 연속된 단위 동작 별로 설정된 적어도 하나의 센서에 대한 인식 조건의 최대값이 그 다음 단계의 단위 동작에 대해 설정된 상기 적어도 하나의 센서에 대한 인식 조건의 최소값과 일치하는 것을 특징으로 하는 복수의 센서를 이용한 동작 인식 방법.
1. An operation recognition method for receiving sensor values from a plurality of sensors and recognizing one specific operation divided into one or more consecutive unit operations,
The motion recognition device may divide one predefined specific operation into one or more sequential unit operations and generate sensor information including sensor priority for one or more sensors to be used for recognition of the unit operation for each successive unit operation, Setting a recognition condition; And
Determining whether to perform the motion recognition based on the sensing value of the one or more sensors according to the information included in the set sensor information and the priority per sensor, And recognizing the operation by combining the recognized unit operation,
In the step of setting the sensor information and the recognition condition,
Wherein the maximum value of the recognition condition for at least one sensor set for each successive unit operation coincides with the minimum value of the recognition condition for the at least one sensor set for the next unit operation. A method of recognizing a used motion.
제1항에 있어서,
상기 센서 정보 및 인식 조건을 설정하는 단계 이전에, 움직임의 방향, 크기, 시간 중 하나 이상을 기준으로 상기 하나 이상의 단위 동작을 설정하는 단계를 더 포함하는 것을 특징으로 하는 복수의 센서를 이용한 동작 인식 방법.
The method according to claim 1,
Further comprising setting the at least one unit operation based on at least one of a direction, a size, and a time of the movement before the step of setting the sensor information and the recognition condition. Way.
제1항에 있어서, 상기 센서 정보는
단위 동작의 인식에 이용할 하나 이상의 센서의 식별 정보, 각 센서의 센싱값에 부여될 가중치 중 하나 이상을 더 포함하는 것을 특징으로 하는 복수의 센서를 이용한 동작 인식 방법.
The method of claim 1,
The identification information of at least one sensor to be used for recognition of the unit operation, and the weight to be given to the sensing value of each sensor.
제3항에 있어서, 상기 동작을 인식하는 단계는
상기 하나 이상의 센서 중에서 우선순위가 가장 높은 제1 센서의 센싱값을 기반으로 단위 동작을 인식하는 단계; 및
상기 하나 이상의 센서 중, 상기 제 1센서보다 우선순위가 낮은 제2 센서의 센싱값을 기반으로 인식 결과의 적용 여부를 판단하는 단계를 포함하는 것을 특징으로 하는 복수의 센서를 이용한 동작 인식 방법.
4. The method of claim 3, wherein recognizing the action comprises:
Recognizing a unit operation based on a sensing value of a first sensor having a highest priority among the one or more sensors; And
And determining whether to apply the recognition result based on the sensing value of the second sensor having a lower priority than the first sensor among the one or more sensors.
제3항에 있어서, 상기 동작을 인식하는 단계는
상기 하나 이상의 센서 중에서 우선순위가 가장 높은 제1 센서의 센싱값을 기반으로 동작 인식 수행 여부를 판단하는 단계; 및
판단 결과에 따라서, 상기 하나 이상의 센서 중, 상기 제 1센서보다 우선순위가 낮은 제2 센서의 센싱값을 기반으로 단위 동작을 인식하는 단계를 포함하는 것을 특징으로 하는 복수의 센서를 이용한 동작 인식 방법.
4. The method of claim 3, wherein recognizing the action comprises:
Determining whether an operation recognition is performed based on a sensing value of a first sensor having a highest priority among the one or more sensors; And
Recognizing a unit operation based on a sensing value of a second sensor having a lower priority than the first sensor among the one or more sensors according to a determination result, .
제3항에 있어서, 상기 동작을 인식하는 단계는
상기 하나 이상의 센서 중에서 가장 우선순위가 높은 제1 센서의 센싱값을 기반으로 단위 동작을 인식하는 단계;
상기 제1 센서의 센싱값 기반으로 동작 인식이 불가능한 경우, 상기 하나 이상의 센서 중, 상기 제 1센서보다 우선순위가 낮은 제2 센서의 센싱값을 기반으로 상기 단위 동작을 인식하는 단계를 포함하는 것을 특징으로 하는 복수의 센서를 이용한 동작 인식 방법.
4. The method of claim 3, wherein recognizing the action comprises:
Recognizing a unit operation based on a sensing value of a first sensor having a highest priority among the one or more sensors;
Recognizing the unit operation based on a sensing value of a second sensor having a lower priority than the first sensor among the one or more sensors when operation recognition based on the sensing value of the first sensor is impossible Wherein the plurality of sensors are used to detect the movement of the object.
복수의 센서로부터 센서값을 수신하여 하나 이상의 연속된 단위 동작으로 분할된 하나의 특정 동작을 인식하는 동작 인식 장치에 있어서,
연속된 하나 이상의 단위 동작으로 구분되는 기 정의된 하나의 특정 동작에 대하여 상기 하나의 특정 동작을 인식하기 위해 연속되게 분할된 단위 동작 별로 하나 이상의 센서에 대한 센서 별 우선순위를 포함하는 센서 정보 및 인식 조건을 이용하여, 하나 이상의 센서의 센싱값으로부터 산출된 움직임 정보를 획득하고, 이를 단위 동작별로 설정된 인식 조건과 비교하여 상기 하나 이상의 센서 별 우선 순위에 따라 상기 하나 이상의 센서의 센싱 값을 기반으로 동작 인신 수행 여부를 판단하거나, 상기 연속된 하나 이상의 단위 동작을 순차적으로 인식하고, 상기 단위 동작을 조합하여 상기 동작을 인식하는 인식 모듈;
상기 인식 모듈의 제어에 따라서, 복수의 센서 중 상기 하나 이상의 센서의 센싱값을 수집하는 센싱값 수집 모듈; 및
상기 인식 모듈의 제어에 따라서, 상기 수집한 센싱값으로부터 상기 움직임 정보를 산출하는 연산 모듈;
을 포함하고,
상기 연속된 단위 동작 별로 설정된 적어도 하나의 센서에 대한 인식 조건의 최대값이 그 다음 단계의 단위 동작에 대해 설정된 상기 적어도 하나의 센서에 대한 인식 조건의 최소값과 일치하는 것을 특징으로 하는 복수의 센서를 이용한 동작 인식 장치.
1. An operation recognition apparatus for receiving sensor values from a plurality of sensors and recognizing one specific operation divided into one or more consecutive unit operations,
Sensor information including a sensor-specific priority for one or more sensors for each unit operation successively divided in order to recognize the one specific operation for a predetermined specific operation divided into one or more consecutive unit operations; The motion information calculated from the sensed values of the at least one sensor is compared with the recognition condition set for each unit operation and the motion information is calculated based on the sensing value of the at least one sensor A recognizing module for judging whether or not human being is performed, sequentially recognizing one or more consecutive unit motions, and recognizing the motions by combining the unit motions;
A sensing value collection module for collecting sensing values of the at least one sensor among the plurality of sensors in accordance with the control of the recognition module; And
A calculation module for calculating the motion information from the collected sensing values under the control of the recognition module;
/ RTI >
Wherein the maximum value of the recognition condition for at least one sensor set for each successive unit operation coincides with the minimum value of the recognition condition for the at least one sensor set for the next unit operation. A motion recognition device used.
제7항에 있어서, 상기 인식 모듈은
상기 센서 정보에 설정된 상기 하나 이상의 센서 중에서 우선순위가 가장 높은 제1 센서의 센싱값을 기반으로 단위 동작을 인식한 후, 상기 하나 이상의 센서 중 상기 제 1센서보다 우선순위가 낮은 제2 센서의 센싱값을 기반으로 상기 인식 결과의 적용 여부를 결정하는 것을 특징으로 하는 복수의 센서를 이용한 동작 인식 장치.
8. The apparatus of claim 7, wherein the recognition module
The method comprising: recognizing a unit operation based on a sensing value of a first sensor having a highest priority among the one or more sensors set in the sensor information, And determining whether or not the recognition result is applied based on the calculated value.
제8항에 있어서, 상기 인식 모듈은
상기 센서 정보에 설정된 상기 하나 이상의 센서 중에서 우선순위가 가장 높은 제1 센서의 센싱값을 기반으로 동작 인식 수행 여부를 판단하고, 그 판단 결과에 따라서, 상기 제 1센서보다 우선순위가 낮은 제2 센서의 센싱값을 기반으로 단위 동작을 인식하는 것을 특징으로 하는 복수의 센서를 이용한 동작 인식 장치.
9. The apparatus of claim 8, wherein the recognition module
Determining whether or not the operation recognition is performed based on the sensing value of the first sensor having the highest priority among the one or more sensors set in the sensor information, and determining, based on the determination result, Wherein the unit operation is recognized based on a sensing value of the sensor.
제8항에 있어서, 상기 인식 모듈은
상기 센서 정보에 설정된 상기 하나 이상의 센서 중에서 우선순위가 가장 높은 제1 센서의 센싱값을 기반으로 단위 동작을 인식하되, 동작 인식이 불가능한 경우, 상기 제 1센서보다 우선순위가 낮은 제2 센서의 센싱값을 기반으로 상기 단위 동작을 인식하는 것을 특징으로 하는 복수의 센서를 이용한 동작 인식 장치.
9. The apparatus of claim 8, wherein the recognition module
Wherein the sensing unit recognizes a unit operation based on a sensing value of a first sensor having a highest priority among the one or more sensors set in the sensor information, And the unit operation is recognized based on the value of the sensor.
KR1020140109834A 2014-08-22 2014-08-22 Method and apparatus for recognizing motion using a plurality of sensors KR101685388B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020140109834A KR101685388B1 (en) 2014-08-22 2014-08-22 Method and apparatus for recognizing motion using a plurality of sensors

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020140109834A KR101685388B1 (en) 2014-08-22 2014-08-22 Method and apparatus for recognizing motion using a plurality of sensors

Publications (2)

Publication Number Publication Date
KR20160023428A KR20160023428A (en) 2016-03-03
KR101685388B1 true KR101685388B1 (en) 2016-12-13

Family

ID=55535421

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020140109834A KR101685388B1 (en) 2014-08-22 2014-08-22 Method and apparatus for recognizing motion using a plurality of sensors

Country Status (1)

Country Link
KR (1) KR101685388B1 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11790698B2 (en) 2019-11-01 2023-10-17 Samsung Electronics Co., Ltd. Electronic device for recognizing gesture of user using a plurality of sensor signals

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2020060091A1 (en) * 2018-09-20 2020-03-26 삼성전자주식회사 Cleaning robot and task performing method therefor
US20200097012A1 (en) * 2018-09-20 2020-03-26 Samsung Electronics Co., Ltd. Cleaning robot and method for performing task thereof
KR20200036678A (en) * 2018-09-20 2020-04-07 삼성전자주식회사 Cleaning robot and Method of performing task thereof
KR20210048941A (en) * 2019-10-24 2021-05-04 삼성전자주식회사 Electronic device and method of controlling display operation of electronic device

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20000032308A (en) * 1998-11-13 2000-06-15 정선종 Method for generating commends of continuous gesture by using gloves and its system
KR100419777B1 (en) * 2001-10-09 2004-02-21 한국과학기술원 Method and System for recognizing continuous sign language based on computer vision
KR101511160B1 (en) 2009-01-06 2015-04-13 삼성전자주식회사 Charge pump circuit and voltage converting apparatus using the same
KR101251964B1 (en) * 2011-01-19 2013-04-08 전자부품연구원 Method for providing user interface according to rotation gesture and electronic device using the same

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11790698B2 (en) 2019-11-01 2023-10-17 Samsung Electronics Co., Ltd. Electronic device for recognizing gesture of user using a plurality of sensor signals

Also Published As

Publication number Publication date
KR20160023428A (en) 2016-03-03

Similar Documents

Publication Publication Date Title
EP3786892B1 (en) Method, device and apparatus for repositioning in camera orientation tracking process, and storage medium
CN108596976B (en) Method, device and equipment for relocating camera attitude tracking process and storage medium
KR101685388B1 (en) Method and apparatus for recognizing motion using a plurality of sensors
KR101509472B1 (en) Motion parameter determination method and device and motion auxiliary equipment
JP7305249B2 (en) Method for determining motion information of image feature points, task execution method and device
CN105487644B (en) Identification device, intelligent device and information providing method
CN112119627A (en) Target following method and device based on holder, holder and computer storage medium
US11670056B2 (en) 6-DoF tracking using visual cues
CN111595344A (en) Multi-posture downlink pedestrian dead reckoning method based on map information assistance
CN104112112A (en) Action identification method and device
KR101995799B1 (en) Place recognizing device and method for providing context awareness service
JP5708362B2 (en) Portable terminal and position / orientation estimation program
US20140194147A1 (en) Apparatus and method for reducing battery consumption of mobile terminal
KR101886033B1 (en) Method for establishing user definition motion and motion recognition apparatus using the same
CN112087728B (en) Method and device for acquiring Wi-Fi fingerprint spatial distribution and electronic equipment
US10551195B2 (en) Portable device with improved sensor position change detection
KR101900754B1 (en) Method for establishing user definition motion and motion recognition apparatus using the same
KR102025595B1 (en) Method for recognizing user motion and motion recognition apparatus using the same
KR102081966B1 (en) Apparatus for motion recognition based on context awareness and storage medium therefor
US10678337B2 (en) Context aware movement recognition system
KR101958334B1 (en) Method and apparatus for recognizing motion to be considered noise
KR101998662B1 (en) Apparatus and storage medium for mutually complementary motion recognition
KR101987308B1 (en) Method and apparatus for recognizing motion to be considered noise
KR101703645B1 (en) Method and apparatus for recognizing motion with adjustable sensitivity
KR101934930B1 (en) Apparatus and storage medium for mutually complementary motion recognition

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
AMND Amendment
E90F Notification of reason for final refusal
AMND Amendment
E601 Decision to refuse application
AMND Amendment
X701 Decision to grant (after re-examination)
GRNT Written decision to grant