KR102192051B1 - Device and method for recognizing motion using deep learning, recording medium for performing the method - Google Patents
Device and method for recognizing motion using deep learning, recording medium for performing the method Download PDFInfo
- Publication number
- KR102192051B1 KR102192051B1 KR1020190044148A KR20190044148A KR102192051B1 KR 102192051 B1 KR102192051 B1 KR 102192051B1 KR 1020190044148 A KR1020190044148 A KR 1020190044148A KR 20190044148 A KR20190044148 A KR 20190044148A KR 102192051 B1 KR102192051 B1 KR 102192051B1
- Authority
- KR
- South Korea
- Prior art keywords
- motion
- user
- external device
- recognition
- unit
- Prior art date
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/017—Gesture based interaction, e.g. based on a set of recognized hand gestures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/002—Specific input/output arrangements not covered by G06F3/01 - G06F3/16
- G06F3/005—Input arrangements through a video camera
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
-
- G06K9/00335—
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/20—Movements or behaviour, e.g. gesture recognition
Abstract
적외선 카메라를 사용하여 객체를 촬영하여, 학습 네트워크 모델을 이용하여 카메라가 촬영한 영상에서 사용자가 있는지 인식하고, 사용자가 위치한 영역을 검출한 영상을 생성하며, 시간의 변화에 따른 사용자의 움직임의 변화를 인식하여 움직임의 종류를 학습 네트워크 모델을 이용하여 판단하고, 동작 판단 결과를 생성하고, 외부 장치에 대해 특성 정보를 고려하여 외부 장치에 대해 조작 명령을 생성하여 조작하는 동작 인식 기반 조작 장치를 개시하고 있다.An object is photographed using an infrared camera, and a learning network model is used to recognize whether a user is present in the image captured by the camera, and an image that detects the area where the user is located is generated, and the user's movement changes according to time. Initiated a motion recognition-based manipulation device that recognizes and determines the type of motion using a learning network model, generates a motion determination result, and generates and manipulates a manipulation command for an external device in consideration of characteristic information for the external device. Are doing.
Description
본 발명은 동작 인식 기반 조작 장치 및 방법에 관한 것으로서, 더욱 상세하게는 실시간으로 촬영되는 영상에서 사용자, 사용자의 동작, 동작의 종류를 인식하여 장치를 조작하는 동작 인식 기반 조작 장치 및 방법에 관한 것이다.The present invention relates to a motion recognition-based manipulation device and method, and more particularly, to a motion recognition-based manipulation device and method for manipulating the device by recognizing a user, a user's motion, and a type of motion from an image captured in real time. .
이 부분에 기술된 내용은 단순히 본 실시예에 대한 배경 정보를 제공할 뿐 종래기술을 구성하는 것은 아니다The content described in this section merely provides background information on the present embodiment and does not constitute the prior art.
컴퓨터, 스마트폰 등이 널리 보급 및 디지털 신호처리 기술이 발전해왔고, 근래에는 인공 지능, 영상인식(Video/Motion Recognition), 딥-러닝(Deep learning), 기계학습(Machine Learning) 등의 기술이 발전함으로써, 음성, 이미지, 동영상 또는 텍스트와 같은 데이터를 자동(Automation)으로 인식하여 데이터와 연관된 정보를 제공하거나 데이터와 관련된 서비스를 제공하는 지능형 서비스(Intelligent Service)가 다양한 분야에서 사용되고 있다Computers and smartphones have been widely distributed and digital signal processing technologies have been developed, and in recent years, technologies such as artificial intelligence, video/motion recognition, deep learning, and machine learning have developed. By doing so, intelligent services that automatically recognize data such as voice, image, video, or text to provide data-related information or provide data-related services are being used in various fields.
특히, 사용자와 기기 간의 자연스러운 상호작용 인터페이스(Natural User Interface: NUI) 기술에 대한 연구가 활발하며, 특히, 손 모양 및 손 동작 인식 기술과 같은 손을 이용한 인터페이스는 자연스럽고 직관적이 상호작용이 가능하며 부가적인 장비를 요구하지 않는 장점으n HCI(Human-Computer Interaction), HRI(Human-Robot Interaction), 및 HMI(Human-Machine Interaction) 분야 등에서 활발히 이용되고 있다.In particular, research on the natural user interface (NUI) technology between users and devices is active. In particular, interfaces using hands such as hand shape and hand gesture recognition technology enable natural and intuitive interaction. The advantage of not requiring additional equipment is being actively used in HCI (Human-Computer Interaction), HRI (Human-Robot Interaction), and HMI (Human-Machine Interaction) fields.
인공 지능 시스템은 인간 수준의 지능을 구현하는 컴퓨터 시스템이며, 기존 룰(rule) 기반 스마트 시스템과 달리 기계가 스스로 학습하고 판단하며 똑똑해지는 시스템이다. 인공 지능 시스템은 사용할수록 인식률이 향상되고 사용자 취향을 보다 정확하게 이해할 수 있게 되어, 기존 규칙 기반 인식 방식은 점차 딥-러닝 기반 인공 지능 방식으로 대체되고 있다.The artificial intelligence system is a computer system that implements human-level intelligence, and unlike the existing rule-based smart system, the machine learns, judges, and becomes smarter. As the artificial intelligence system is used, the recognition rate improves and user preferences can be understood more accurately, and the existing rule-based recognition method is gradually being replaced by a deep-learning-based artificial intelligence method.
이와 관련하여, 학습기반 인식 기술은 인식 대상이 되는 손 모양에 대한 데이터 베이스(Database)를 취득하고 이를 학습하여 생성한 모델을 통해 손 모양을 인식하는데, 기존의 머신 러닝을 기반으로 한 인식기는 높은 수준의 특징을 학습하기 어려웠고, 학습 환경 외의 환경에서 안정적인 성능을 얻지 못하는 한계가 있었다. In this regard, learning-based recognition technology acquires a database of the hand shape to be recognized and recognizes the hand shape through a model created by learning it, but the existing machine learning-based recognizer It was difficult to learn the characteristics of the level, and there was a limitation in that stable performance could not be obtained in environments other than the learning environment.
이에 따라, 실제 사용되는 다양한 환경에서도 높은 성능을 얻을 수 있는 방안의 필요성이 제기되고 있다.Accordingly, there is a need for a method capable of obtaining high performance even in various environments that are actually used.
본 발명의 일 측면은 학습 네트워크 모델을 이용하며, 사용자, 사용자의 동작, 동작의 종류를 인식하는 과정을 분리하여 인식 성능을 향상시키는 동작 인식 기반 조작 장치 및 방법을 제공한다.An aspect of the present invention provides a motion recognition-based manipulation apparatus and method for improving recognition performance by separating a process of recognizing a user, a user's motion, and a type of motion using a learning network model.
본 발명의 기술적 과제는 이상에서 언급한 기술적 과제로 제한되지 않으며, 언급되지 않은 또 다른 기술적 과제들은 아래의 기재로부터 당업자에게 명확하게 이해될 수 있을 것이다.The technical problem of the present invention is not limited to the technical problem mentioned above, and other technical problems that are not mentioned will be clearly understood by those skilled in the art from the following description.
본 발명의 실시예에 따른, 객체를 촬영하는 영상 입력부; 학습 네트워크 모델을 이용하여 영상 입력부에 의해 촬영된 객체가 사용자인지 인식하고, 사용자가 위치한 영역을 검출하는 사용자 검출부; 사용자 검출부에서 검출된 사용자가 위치한 영역에서 특정 시점의 프레임과 특정 시점으로부터 임계 시간이 지난 후의 프레임을 비교하여 변화량을 산출하고, 변화량이 임계값보다 크면 사용자의 움직임으로 인식하는 움직임 인식부; 학습 네트워크 모델을 이용하여 사용자의 움직임이 어떤 종류의 동작인지 인식하고, 인식된 동작에 대응하는 동작 판단 결과를 생성하는 동작 판단부; 및 동작 판단부의 동작 판단 결과에 따라 적어도 하나의 외부 장치를 조작하는 조작부;를 포함할 수 있다.An image input unit for photographing an object according to an embodiment of the present invention; A user detection unit that recognizes whether an object photographed by the image input unit is a user using the learning network model and detects an area in which the user is located; A motion recognition unit that calculates a change amount by comparing a frame at a specific time point in a region in which the user is located detected by the user detection unit and a frame after a threshold time has elapsed from the specific time point, and recognizes a user's motion when the change amount is greater than a threshold value; A motion determination unit for recognizing what kind of motion is the user's motion using the learning network model and generating a motion determination result corresponding to the recognized motion; And a manipulation unit that manipulates at least one external device according to an operation determination result of the operation determination unit.
일 실시예에서, 사용자 검출부는, 복수의 사용자가 인식되면, 사용자가 위치한 영역을 모두 검출할 수 있다.In an embodiment, when a plurality of users are recognized, the user detection unit may detect all regions in which the user is located.
일 실시예에서, 움직임 인식부는, 검출된 사용자가 위치한 영역이 복수 개이면, 각각의 영역에서 사용자의 움직임이 있는지 여부를 인식할 수 있다.In an embodiment, if there are a plurality of areas in which the detected user is located, the motion recognition unit may recognize whether there is a user's movement in each area.
일 실시예에서, 동작 판단부는, 움직임 인식부에서 복수의 사용자의 움직임이 인식되면, 각각에 대해 사용자의 움직임이 어떤 종류의 동작인지 인식하고, 각각의 인식된 동작에 대응하여 복수 개의 동작 판단 결과를 생성할 수 있다.In one embodiment, the motion determination unit, when the motion recognition unit recognizes the motions of a plurality of users, recognizes what kind of motion is the user's motion for each, and determines the plurality of motions corresponding to each recognized motion. Can be created.
일 실시예에서, 조작부는, 동작 판단 결과가 복수 개이면, 각각의 동작 판단 결과에 따라 외부 장치를 조작할 수 있다.In an embodiment, if the operation determination result is plural, the manipulation unit may manipulate the external device according to the operation determination result.
일 실시예에서, 조작부는, 복수 개의 동작 판단 결과가 각각 별개의 외부 장치를 조작하려는 것이면, 각각의 동작 판단 결과에 따라 외부 장치를 조작할 수 있다.In an embodiment, if the plurality of operation determination results are to operate separate external devices, respectively, the operation unit may operate the external device according to the operation determination result.
일 실시예에서, 조작부는, 복수 개의 동작 판단 결과가 동일한 외부 장치를 조작하려는 것이고, 복수 개의 동작 판단 결과가 동일한 조작을 수행하려는 것이면, 외부 장치와 가까운 사용자의 순서대로 동작 판단 결과에 따라 외부 장치를 조작할 수 있다.In one embodiment, if the plurality of operation determination results are intended to operate the same external device, and the plurality of operation determination results are to perform the same operation, the external device according to the operation determination result in the order of the user close to the external device. Can be manipulated.
일 실시예에서, 조작부는, 복수 개의 동작 판단 결과가 동일한 외부 장치를 조작하려는 것이고, 복수 개의 동작 판단 결과가 상반된 조작을 수행하려는 것이면, 외부 장치와 가장 가까운 곳에 위치하는 사용자의 동작 판단 결과에 따라 외부 장치를 조작할 수 있다.In one embodiment, if the plurality of operation determination results are intended to manipulate the same external device, and the plurality of operation determination results are to perform contradictory operations, the operation unit is based on the operation determination result of the user located closest to the external device. External devices can be operated.
일 실시예에서, 조작부는, 동작 판단 결과가 복수의 외부 장치를 조작할 수 있으면, 설정된 모드에 따라 하나의 외부 장치를 조작할 수 있다.In an embodiment, if the operation determination result is capable of operating a plurality of external devices, the manipulation unit may operate one external device according to a set mode.
일 실시예에서, 조작부는, 설정된 모드가 거리 우선 모드인 경우, 사용자와 가까운 곳에 위치하는 외부 장치를 조작할 수 있다.In an embodiment, when the set mode is a distance priority mode, the manipulation unit may manipulate an external device located close to the user.
일 실시예에서, 조작부는, 설정된 모드가 시선 우선 모드인 경우, 사용자의 시선 방향에 위치하는 외부 장치를 조작할 수 있다.In an embodiment, when the set mode is a gaze priority mode, the manipulation unit may manipulate an external device located in the gaze direction of the user.
일 실시예에서, 조작부는, 설정된 모드가 손 방향 우선 모드인 경우, 사용자의 손이 가리키는 방향에 위치하는 외부 장치를 조작할 수 있다.In an embodiment, when the set mode is a hand direction priority mode, the manipulation unit may manipulate an external device positioned in the direction indicated by the user's hand.
본 발명의 실시예에 따른, 동작 인식 기반 조작 장치에 의해 수행되는 동작 인식 기반 조작 방법에 있어서, 동작 인식 기반 조작 장치가 객체를 촬영하는 단계; 동작 인식 기반 조작 장치가 학습 네트워크 모델을 이용하여 촬영된 객체가 사용자인지 인식하고, 사용자가 위치한 영역을 검출하는 단계; 동작 인식 기반 조작 장치가 사용자가 위치한 영역에서 특정 시점의 프레임과 임계 시간 후의 프레임을 비교하여 변화량을 산출하고, 변화량이 임계값보다 크면 사용자의 움직임으로 인식하는 단계; 동작 인식 기반 조작 장치가 학습 네트워크 모델을 이용하여 사용자의 움직임이 어떤 종류의 동작인지 인식하고, 인식된 동작에 대응하는 동작 판단 결과를 생성하는 단계; 동작 인식 기반 조작 장치는 동시에 생성된 동작 판단 결과가 두 개 이상인 경우 동작 판단 결과를 하나 이상 선별하는 단계; 동작 인식 기반 조작 장치는 동작 판단 결과에 의해 조작 대상이 되는 외부 장치가 두 대 이상인 경우 하나의 외부 장치를 선택하는 단계; 및 상기 동작 인식 기반 조작 장치가 상기 동작 판단 결과에 따라 선택된 하나의 외부 장치를 조작하는 단계;를 포함할 수 있다.In accordance with an embodiment of the present invention, there is provided a motion recognition-based manipulation method performed by a motion recognition-based manipulation device, comprising: photographing an object by the gesture recognition-based manipulation device; Recognizing, by the motion recognition-based manipulation device, whether the captured object is a user using the learning network model, and detecting a region where the user is located; Calculating a change amount by comparing, by a motion recognition-based manipulation device, a frame at a specific point in time in a region where a user is located and a frame after a threshold time, and recognizing that the change amount is greater than a threshold value as a user's movement; Recognizing, by the motion recognition-based manipulation device, what kind of motion is the user's motion using the learning network model, and generating a motion determination result corresponding to the recognized motion; The motion recognition-based manipulation device includes: selecting one or more motion determination results when two or more motion determination results generated simultaneously; The motion recognition-based manipulation device includes: selecting one external device when there are two or more external devices to be manipulated based on a result of the motion determination; And manipulating, by the motion recognition-based manipulation device, a selected external device according to a result of the motion determination.
일 실시예에서, 외부 장치를 조작하는 단계는, 동시에 생성된 동작 판단 결과가 두 개 이상인 경우 동작 판단 결과를 하나 이상 선별하는 단계;를 더 포함할 수 있다.In an embodiment, the operation of the external device may further include selecting one or more results of the operation determination when two or more results of the operation determination simultaneously generated are selected.
일 실시예에서, 외부 장치를 조작하는 단계는 상기 동작 판단 결과에 의해 조작 대상이 되는 외부 장치가 두 대 이상인 경우 하나의 외부 장치를 선택하는 단계;를 더 포함할 수 있다.In an embodiment, the operating of the external device may further include selecting one external device when there are two or more external devices to be operated based on the operation determination result.
상술한 본 발명의 일 측면에 따르면, 본 발명의 동작 인식 기반 조작 장치 및 방법에 의해 제공되는 효과는, 딥-러닝을 통해 화소, 명도 및 채도의 변화가 다양한 사용자 환경에서도 높은 인식 성능을 얻을 수 있어 제스처 인식 기반 입력 시스템 전반에 적용될 수 있는 범용성과 확장성을 제공할 수 있다.According to an aspect of the present invention described above, the effect provided by the motion recognition-based manipulation device and method of the present invention is, through deep-learning, high recognition performance can be obtained even in a user environment in which changes in pixels, brightness, and saturation vary. Therefore, it can provide versatility and expandability that can be applied to the entire gesture recognition-based input system.
본 발명의 기술적 과제는 이상에서 언급한 기술적 과제로 제한되지 않으며, 언급되지 않은 또 다른 기술적 과제들은 아래의 기재로부터 당업자에게 명확하게 이해될 수 있을 것이다.The technical problem of the present invention is not limited to the technical problem mentioned above, and other technical problems that are not mentioned will be clearly understood by those skilled in the art from the following description.
도 1은 본 발명의 일 실시예에 따른 동작 인식 기반 조작 장치의 구성을 나타내는 구성도이다.
도 2는 본 발명에 따른 사용자 검출부가 사용자를 인식하는 모습을 나타내는 도면이다.
도 3은 본 발명에 따른 움직임 인식부가 사용자의 손을 인식하는 모습을 나타내는 도면이다.
도 4는 본 발명에 따른 동작 판단부가 사용자의 손의 변화를 인식하는 모습을 나타내는 도면이다.
도 5는 사용자가 복수인 경우에 외부 장치를 조작하는 모습을 나타내는 도면이다.
도 6은 본 발명에 따른 동작 판단 결과가 복수의 외부 장치를 조작할 수 있는 경우 대상이 하나의 외부 장치를 조작하는 모습을 나타내는 도면이다.
도 7은 본 발명의 일 실시예에 따른 동작 인식 기반 조작 방법을 나타내는 순서도이다.
도 8은 본 발명에 따른 사용자가 복수인 경우에 동시에 생성된 동작 판단 결과가 두 개 이상인 경우 동작 판단 결과를 하나 이상 선별하는 단계를 세분화한 순서도이다.
도 9는 본 발명에 따른 동작 판단 결과가 복수의 외부 장치를 조작할 수 있는 경우 대상이 하나의 외부 장치를 조작하는 방법을 세분화한 순서도이다.1 is a block diagram showing a configuration of a motion recognition-based manipulation device according to an embodiment of the present invention.
2 is a diagram illustrating a state in which a user detection unit according to the present invention recognizes a user.
3 is a diagram illustrating a state in which a motion recognition unit according to the present invention recognizes a user's hand.
4 is a diagram illustrating a state in which a motion determination unit according to the present invention recognizes a change in a user's hand.
5 is a diagram illustrating a state in which an external device is operated when there are a plurality of users.
6 is a diagram illustrating a state in which a target manipulates one external device when a result of determining an operation according to the present invention can manipulate a plurality of external devices.
7 is a flowchart illustrating a gesture recognition-based manipulation method according to an embodiment of the present invention.
FIG. 8 is a flow chart subdividing the step of selecting one or more motion determination results when there are two or more simultaneous motion determination results when there are multiple users according to the present invention.
9 is a flowchart illustrating a method of subdividing a method in which a target manipulates one external device when the operation determination result according to the present invention is capable of operating a plurality of external devices.
후술하는 본 발명에 대한 상세한 설명은, 본 발명이 실시될 수 있는 특정 실시예를 예시로서 도시하는 첨부 도면을 참조한다. 이들 실시예는 당업자가 본 발명을 실시할 수 있기에 충분하도록 상세히 설명된다. 본 발명의 다양한 실시예는 서로 다르지만 상호 배타적일 필요는 없음이 이해되어야 한다. 예를 들어, 여기에 기재되어 있는 특정 형상, 구조 및 특성은 일 실시예와 관련하여 본 발명의 정신 및 범위를 벗어나지 않으면서 다른 실시예로 구현될 수 있다. 또한, 각각의 개시된 실시예 내의 개별 구성요소의 위치 또는 배치는 본 발명의 정신 및 범위를 벗어나지 않으면서 변경될 수 있음이 이해되어야 한다. 따라서, 후술하는 상세한 설명은 한정적인 의미로서 취하려는 것이 아니며, 본 발명의 범위는, 적절하게 설명된다면, 그 청구항들이 주장하는 것과 균등한 모든 범위와 더불어 첨부된 청구항에 의해서만 한정된다. 도면에서 유사한 참조부호는 여러 측면에 걸쳐서 동일하거나 유사한 기능을 지칭한다.DETAILED DESCRIPTION OF THE INVENTION The detailed description of the present invention to be described later refers to the accompanying drawings, which illustrate specific embodiments in which the present invention may be practiced. These embodiments are described in detail sufficient to enable a person skilled in the art to practice the present invention. It is to be understood that the various embodiments of the present invention are different from each other, but need not be mutually exclusive. For example, certain shapes, structures, and characteristics described herein may be implemented in other embodiments without departing from the spirit and scope of the present invention in relation to one embodiment. In addition, it is to be understood that the location or arrangement of individual components within each disclosed embodiment may be changed without departing from the spirit and scope of the present invention. Accordingly, the detailed description to be described below is not intended to be taken in a limiting sense, and the scope of the present invention, if properly described, is limited only by the appended claims, along with all scopes equivalent to those claimed by the claims. Like reference numerals in the drawings refer to the same or similar functions over several aspects.
이하, 도면들을 참조하여 본 발명의 바람직한 실시예들을 보다 상세하게 설명하기로 한다.Hereinafter, preferred embodiments of the present invention will be described in more detail with reference to the drawings.
도 1은 본 발명의 일 실시예에 따른 동작인식 장치의 구성을 나타내는 구성도이다.1 is a block diagram showing the configuration of a motion recognition apparatus according to an embodiment of the present invention.
도 1을 참조하면, 동작 인식 기반 조작 장치(10)는 영상 입력부(100), 사용자 검출부(300), 동작 판단부(700) 및 조작부(900)를 포함할 수 있다.Referring to FIG. 1, a motion recognition-based
영상 입력부(100)는 적외선 카메라를 사용하여 객체를 촬영하며, 객체는 인식의 대상이 되는 사용자와 가구와 같은 물체를 포함하고, 피사체와의 거리는 집안 환경에 따라 다르게 설정할 수 있다. The
사용자 검출부(300)는 학습 네트워크 모델을 이용하여 영상 입력부에 의해 촬영된 객체가 사용자인지 인식하고, 사용자가 위치한 영역을 검출할 수 있다.The
사용자 검출부(300)와 관련하여 이하에서 도 2와 함께 설명한다.The
도 2는 본 발명에 따른 사용자 검출부가 사용자를 인식하는 모습을 나타내는 도면이다.2 is a diagram illustrating a state in which a user detection unit according to the present invention recognizes a user.
도 2를 참조하면, 동작 인식 기반 조작 장치(10)의 영상 입력부(100)가 촬영한 영상에서 사용자(a3, a4)를 한 명인 경우(도 2a 참조)와 한 명 이상인 경우(도 2b 참조)의 모습을 알 수 있다.Referring to FIG. 2, when there is one user (a3, a4) in an image captured by the
사용자 검출부(300)는 영상 입력부(100)에 의해 촬영된 영상에서 2차원 합성곱 신경망(CNN, Convolutional Neural Network)과 같은 학습 네트워크 모델을 이용하여 사용자를 인식할 수 있다.The
사용자 검출부(300)는 사용자(a3)를 인식하기 위해 다운 샘플링(down sampling) 과정과 업 샘플링(up sampling) 과정을 수행한다.The
예를 들어, 영상 입력부(100)에 의해 촬영된 영상의 크기(L)가 416Х416 이라고 할 때, 사용자 검출부(300)는 다운 샘플링(down sampling)은 영상의 크기가 13Х13(=L/32)이 될 때까지 수행하여, 1차 특성 맵(feature map)을 구한다.For example, when the size (L) of an image captured by the
사용자 검출부(300)는 1차 특성 맵(feature map)에서 물체의 영역인지를 판단하고, 다시 물체인지 여부를 판별하여 객체 스코어(objectness score)를 구하고, 어떤 물체인지를 판별하여 분류 스코어(class score)를 구하여 사용자(a3), 소파(a1), 식탁(a2)과 같은 큰 객체(object)를 찾는다.The
큰 객체(object)를 찾은 후, 사용자 검출부(300)는 업 샘플링(up sampling)을 수행하며, 영상의 크기가 26Х26(=L/16)인 2차 특성 맵(feature map)과 상의 크기가 52Х52(=L/8)인 3차 특성 맵(feature map)을 다시 구한다.After finding a large object, the
이 때, 업 샘플링(up sampling)을 수행할 때에는 다운 샘플링(down sampling) 과정에서 추출한 특성(feature)을 더하여 이전 정보를 포함시킨다.In this case, when up-sampling is performed, previous information is included by adding features extracted in the down-sampling process.
3차 특성 맵(feature map)은 사용자(a3)의 손과 같은 작은 객체(object)를 찾는데 사용된다.The third feature map is used to find a small object such as the hand of the user a3.
상술하는 과정에 따라, 사용자 검출부(300)의 학습 네트워크 모델은 촬영된 객체가 소파(a1), 식탁(a2)과 같은 사물인지 여부, 사물의 위치, 사물의 종류를 판별하여 사용자(a3, a5)를 인식하고, 사용자가 위치한 영역(a4, a6)을 검출할 수 있다.According to the above-described process, the learning network model of the
움직임 인식부(500)는 사용자 검출부에서 검출된 사용자가 위치한 영역에서 특정 시점의 프레임과 특정 시점으로부터 임계 시간이 지난 후의 프레임을 비교하여 변화량을 산출하고, 변화량이 임계값보다 크면 사용자의 움직임으로 인식할 수 있다.The
움직임 인식부(500)와 관련하여 이하에서 도 3 및 도 4와 함께 설명한다.The
움직임 인식부(500)는 특정 시점(T)의 프레임(frame)과 특정 시점(T)으로부터 임계 시간(t)이 지난 후의 프레임(frame) 간의 차이를 비교하여 프레임 변화량(Frame difference)을 산출할 수 있다.The
프레임 변화량(frame difference)은 사용자가 위치한 영역에 존재하는 모든 프레임의 차이를 합한 값이며, 움직임 인식부(500)는 변화량(Frame difference)이 임계값보다 크면 움직임이 있는 것으로 인식할 수 있다. The frame difference is a sum of differences between all frames existing in an area in which the user is located, and the
이 때, 임계값과 임계 시간(t)은 미리 지정한 값이다. In this case, the threshold value and the threshold time t are preset values.
변화량(Frame difference)은 아래 수학식 1에 따라 계산될 수 있다.The frame difference can be calculated according to Equation 1 below.
[수학식 1] [Equation 1]
Frame difference = |frame(T+t) - frame(T)|Frame difference = |frame(T+t)-frame(T)|
여기서 T는 현재 시간을 의미하고, t는 임계 시간을 의미하며, frame(T)는 특정 시간 T에서 나타나는 프레임(frame)을 의미한다.Here, T denotes the current time, t denotes a critical time, and frame (T) denotes a frame appearing at a specific time T.
도 3은 본 발명에 따른 움직임 인식부가 사용자의 손을 인식하는 모습을 나타내는 도면이다.3 is a diagram illustrating a state in which a motion recognition unit according to the present invention recognizes a user's hand.
도 3a 내지 도 3c를 참조하면, 움직임 인식부(500)는 사용자가 인식된 영역 내에서 작은 객체인 손을 인식하는 모습을 알 수 있다.Referring to FIGS. 3A to 3C, the
사용자 검출부(300)는 52×52(=L/8) 크기의 영상인 3차 특성 맵(feature map)에서 사용자의 손을 인식할 수 있으며, 사용자의 손의 모양에 따라 인식되는 영역(b1, b2, b3)의 크기가 달라진다.The
사용자의 손이 주먹을 쥔 상태(도 3a 참조), 두 손가락만 편 상태(도 3b 참조) 및 손가락을 다 편상태(도 3c 참조)에서 각각 인식되는 영상의 크기가 다른 것을 알 수 있다.It can be seen that the size of the image recognized in a state in which the user's hand is clenched (see FIG. 3A), a state with only two fingers open (see FIG. 3B), and a state with all fingers (see FIG. 3C) are different.
도 4는 본 발명에 따른 동작 판단부가 사용자의 손의 변화를 인식하는 모습을 나타내는 도면이다.4 is a diagram illustrating a state in which a motion determination unit according to the present invention recognizes a change in a user's hand.
도 4a 내지 도 4e를 참조하면, 움직임 인식부(500)는 사용자 검출부(300)에서 사용자가 위치한 영역을 검출한 영상에서 시간의 변화에 따른 사용자의 움직임의 변화를 인식할 수 있다.Referring to FIGS. 4A to 4E, the
움직임 인식부(500)는 다양한 동작을 인식할 수 있지만, 대표적인 동작인 좌우 이동(도 4a 참조)을 예로 설명한다.Although the
움직임 인식부(500)는 업 샘플링(up sampling)된 영상에서 프레임의 변화를 계산하여 사용자의 손의 움직임을 인식할 수 있다.The
움직임 인식부(500)는 도 3a 내지 도 3c의 영상에서는 프레임 변화량(Frame difference)도 없으므로 움직임이 없는 것으로 판단할 수 있고, 이 경우 동작 판단부(700)로 영상을 전달하지 않고, 인식 과정을 종료한다.The
움직임 인식부(500)는 도 4a 및 도 4b의 경우처럼 프레임 변화량(Frame difference)이 있는 경우에는 사용자의 움직임이 있는 것으로 판단하게 되고, 이 경우 동작 판단부(700)로 영상을 전달할 수 있다.As in the case of FIGS. 4A and 4B, the
동작 판단부(700)는 학습 네트워크 모델을 이용하여 사용자의 움직임이 어떤 종류의 동작인지 인식하고, 인식된 동작에 대응하는 동작 판단 결과를 생성할 수 있다.The
동작 판단부(700)와 관련하여 이하에서 도 4와 함께 설명한다.The
동작 판단부(700)는 움직임 인식부(500)에 의해 움직임의 변화가 인식된 영상에 대해서 사용자의 움직임의 종류를 3차원 합성곱 신경망(CNN, Convolutional Neural Network)과 같은 학습 네트워크 모델을 이용하여 사용자의 움직임이 어떤 종류의 동작인지 판단할 수 있다.The
동작 판단부(700)는 3차원 컨볼루션 레이어(3d convolution layer), 3차원 맥스 풀링 레이어(3d max pooling layer)와 이 두 개의 레이어(layer)를 포함하는 인셉션 레이어(inception layer)로 구성된다. The
동작 판단부(700)는 3차원 합성곱 신경망(CNN, Convolutional Neural Network)을 특성 맵(feature map)을 구하고, 특성 맵(feature map)으로부터 사용자의 움직임의 종류를 인식할 수 있다.The
동작 판단부(700)는 특성 맵(feature map)으로부터 차원 인식을 위해 3차원 합성곱 신경망(CNN, Convolutional Neural Network)의 활성화 함수(activation)로 소프트 맥스 함수(softmax)를 사용하여 동작을 판단할 수 있다.The
도 4a를 참조하면, 사용자의 손은 사용자를 기준으로 우측(c2)에서 좌측(c3)으로 이동한 것을 알 수 있다.Referring to FIG. 4A, it can be seen that the user's hand has moved from the right (c2) to the left (c3) based on the user.
동작 판단부(700)는 최초 우측(c2)에 위치하는 손을 인식할 수 있고, 우측(c2)에서 좌측으로 이동하는 하는 과정을 인식하며, 최종적으로 좌측(c3)에 위치하는 손을 인식할 수 있다.The
동작 판단부(700)는 두 손가락만을 편 상태로 우측(c2)에서 좌측(c3)으로 움직이는 동작, 위(c4)에서 아래(c5)로 움직이는 동작, 앞/뒤로 움직이는 동작 등의 3차원 움직임을 인식할 수 있다. The
동작 판단부(700)는 사용자의 움직임의 동작의 종류에 따라 동작 판단 결과를 생성할 수 있다.The
예를 들면, 두 손가락만을 편 상태로 왼쪽/오른쪽으로 움직이는 동작은 채널을 변경하는 것으로 동작 판단 결과를 생성할 수 있고, 위/아래로 움직이는 동작은 볼륨을 조절하는 것으로 동작 판단 결과를 생성할 수 있으며, 앞/뒤로 움직이는 동작은 영상을 정지 또는 다시 시작하는 것으로 동작 판단 결과를 생성할 수 있다.For example, moving left/right with only two fingers open can generate a motion judgment result by changing the channel, and moving up/down can generate a motion judgment result by adjusting the volume. In addition, the motion of moving forward/backward may generate a motion determination result by stopping or restarting the image.
위의 동작 판단 결과를 이해를 위해 예를 든 것일 뿐이며, 손가락을 펼친 상태나 좌우, 상하 움직임에 따라서 동작 판단 결과는 달라질 수 있다.The above motion determination result is merely an example for understanding, and the motion determination result may vary according to a finger spreading state, left/right, vertical movement.
도 5는 사용자가 복수인 경우에 외부 장치를 조작하는 모습을 나타내는 도면이다.5 is a diagram illustrating a state in which an external device is operated when there are a plurality of users.
도 5를 참조하면, 동작 인식 기반 조작 장치(10)의 사용자가 복수인 경우사용자 검출부(300), 움직임 인식부(500), 동작 판단부(700) 및 조작부(900)는 별개의 동작을 수행하게 된다.Referring to FIG. 5, when there are multiple users of the motion recognition-based
사용자 검출부(300)는 복수의 사용자가 인식되면, 사용자가 위치한 영역을 모두 검출할 수 있다.When a plurality of users are recognized, the
움직임 인식부(500)는 검출된 사용자가 위치한 영역이 복수 개이면, 각각의 영역에서 사용자의 움직임이 있는지 여부를 인식할 수 있다.If there are a plurality of regions in which the detected user is located, the
동작 판단부(700)는 움직임 인식부에서 복수의 사용자의 움직임이 인식되면, 각각에 대해 사용자의 움직임이 어떤 종류의 동작인지 인식하고, 각각의 인식된 동작에 대응하여 복수 개의 동작 판단 결과를 생성할 수 있다.When the motion recognition unit recognizes the motions of a plurality of users, the
조작부(900)는 동작 판단 결과가 두 개 이상이면, 정해진 알고리즘에 따라 동작 판단 결과를 선별하고, 선별된 동작 판단 결과에 따라 조작할 외부 장치를 선택한 후, 해당 외부 장치를 조작할 수 있다.If the operation determination result is two or more, the operation determination result may be selected according to a predetermined algorithm, the
조작부(900)는 병렬 처리를 통해 동시에 생성된 동작 판단 결과가 두 개 이상인 경우 동일한 장치에 대해서 동일한 조작 또는 상반되는 조작을 수행할 수 있으므로 동작 판단 결과가 하나인 경우와 두 개 이상인 경우인지를 판단할 수 있다.The
조작부(900)는 동작 판단 결과가 하나인 경우에는 해당 동작 판단 결과에 따라 조작을 수행하면 되기 때문에 해당 동작 판단 결과를 조작을 수행할 동작 판단 결과로 선별할 수 있다.When the operation determination result is one, the
조작부(900)는 동작 판달 결과가 두 개 이상인 경우에는 각각의 동작 판단 결과가 별개의 외부 장치를 조작하는 것인지, 동일한 외부 장치를 조작하는 것인지를 판단할 수 있다.When the operation determination result is two or more, the
조작부(900)는 복수의 동작 판단 결과가 별개의 외부 장치를 조작하는 것이면, 각각의 동작 판달 결과에 따라 외부 장치를 조작하면 된다. 따라서 각각의 동작 판단 결과를 조작을 수행할 동작 판단 결과로 선별할 수 있다.If the result of determining the plurality of operations is to manipulate separate external devices, the
조작부(900)는 복수의 동작 판단 결과가 동일한 외부 장치를 조작하는 것이면, 동일한 조작을 수행하는지 여부를 판단할 수 있다. 이는 동일한 조작을 수행하는 경우 동시에 생성된 동작 판단 결과에 따른 조작을 연속적으로 수행해야 하기 때문이다.If the result of determining the plurality of operations is that the same external device is operated, the
조작부(900)는 복수의 동작 판단 결과가 동일한 장치에 대해 동일한 조작을 수행하는 경우에는 복수의 동작 판단 결과에 따라 조작하려는 외부 장치와 거리가 가까운 순서대로 사용자의 동작 판단 결과를 선별하여 조작을 수행하게 할 수 있다.In the case of performing the same operation on a device having a plurality of operation determination results, the
조작부(900)는 복수의 동작 판단 결과가 동일한 외부 장치를 조작하는 것이면, 상반된 조작을 수행하는지 여부를 판단할 수 있다 상반된 조작을 수행하는 경우 둘 다 수행할 경우 결과적으로 하나도 수행하지 않는 것과 동일한 결과가 되므로 어느 하나의 동작 판단 결과만을 선별해서 조작을 수행하기 위한 것이다.If the result of determining a plurality of operations is to manipulate the same external device, the
조작부(900)는 복수의 동작 판단 결과가 동일한 장치에 대해 상반된 조작을 수행하는 경우에는 조작하려는 외부 장치와 거리가 가장 가까운 곳에 위치하는 사용자의 동작 판단 결과를 선별할 수 있다.When a plurality of operation determination results are different from each other on the same device, the
그렇지 않은 경우는 동일한 장치에 대해 동일한 조작도 아니고, 상반된 조작도 아니므로 각각 수행하면 된다. 따라서 각각의 동작 판단 결과를 선별하여 조작을 수행하게 된다.Otherwise, it is not the same operation for the same device, and it is not an opposite operation, so you can perform each operation. Therefore, the operation is performed by selecting each operation determination result.
첫 번째 예로, 복수개의 동작 판단 결과가 별개의 외부 장치를 조작하려는 경우이다.A first example is a case where a plurality of operation determination results attempt to manipulate separate external devices.
사용자 1(d1)은 셋톱 박스(d3)의 채널을 변경하기를 원하고, 사용자 2(d2)는 라디오(d4)의 볼륨을 변경하기를 원하는 경우이다.User 1 (d1) wants to change the channel of the set-top box (d3), and user 2 (d2) wants to change the volume of the radio (d4).
이 경우 사용자 1(d1)에 대한 동작 판단 결과에 따라 셋톱 박스(d3)의 채널을 변경하게 되고, 사용자 2(d2)에 대한 동작 판단 결과에 따라 라디오(d4)의 볼륨을 변경하게 된다.In this case, the channel of the set-top box d3 is changed according to the operation determination result of user 1 (d1), and the volume of the radio d4 is changed according to the operation determination result of user 2 (d2).
두 번째 예로, 복수 개의 동작 판단 결과가 동일한 외부 장치를 조작하려는 것이고, 복수 개의 동작 판단 결과가 동일한 조작을 수행하려는 것이면, 외부 장치와 가까운 사용자의 순서대로 동작 판단 결과를 선별하여 조작을 수행할 수 있다.As a second example, if a plurality of operation determination results are intended to operate the same external device, and a plurality of operation determination results are intended to perform the same operation, the operation may be performed by selecting the operation determination result in the order of the user close to the external device. have.
예를 들면, 사용자 1(d1)과 사용자 2(d2) 모두가 셋톱 박스(d3)의 볼륨을 올리기를 원하는 경우이다.For example, when both user 1 (d1) and user 2 (d2) want to increase the volume of the set-top box d3.
조작하려는 외부 장치는 셋톱 박스(d3)이므로, 우선적으로 셋톱 박스(d3)와 사용자 1(d1)과의 거리(dist_d1)와 셋톱 박스(d3)와 사용자 2(d2)와의 거리(dist_d2)를 구한다. Since the external device to be operated is the set-top box (d3), first, the distance between the set-top box (d3) and user 1 (d1) (dist_d1) and the set-top box (d3) and user 2 (d2) (dist_d2) is obtained. .
각각의 거리(dist_d1, dist_d2)를 비교하여 셋톱 박스(d3)와 가까운 곳에 위치한 사용자 2(d2)에 대한 동작 판단 결과에 따라 셋톱 박스(d3)의 볼륨을 올리게 되고, 그 다음으로 사용자 1(d1)에 대한 동작 판단 결과에 따라 셋톱 박스(d3)의 볼륨을 다시 한번 올리게 된다.By comparing each distance (dist_d1, dist_d2), the volume of the set-top box (d3) is increased according to the operation determination result of the user 2 (d2) located close to the set-top box (d3), and then the volume of the set-top box (d3) is increased. ), the volume of the set-top box (d3) is raised again.
세 번째 예로, 복수개의 동작 판단 결과가 동일한 외부 장치를 조작하려는 경우로, 상반된 조작을 수행하려는 경우이다.A third example is a case where a plurality of operation determination results are attempted to operate an external device with the same, and a case where the opposite operation is to be performed.
조작부(900)는 복수 개의 동작 판단 결과가 동일한 외부 장치를 조작하려는 것이고, 복수 개의 동작 판단 결과가 상반된 조작을 수행하려는 것이면, 외부 장치와 가장 가까운 곳에 위치하는 사용자의 동작 판단 결과를 수행할 수 있다.If the plurality of operation determination results are intended to manipulate the same external device, and the plurality of operation determination results are intended to perform contradictory operations, the
예를 들면, 사용자 1(d1)은 셋톱 박스(d3)의 볼륨을 올리기를 원하고, 사용자 2(d2)는 셋톱 박스(d3)의 볼륨을 내리기를 원하는 경우이다.For example, user 1 (d1) wants to increase the volume of the set-top box (d3), and user 2 (d2) wants to decrease the volume of the set-top box (d3).
조작하려는 외부 장치는 셋톱 박스(d3)이므로, 우선적으로 셋톱 박스(d3)와 사용자 1(d1)과의 거리(dist_d1)와 셋톱 박스(d3)와 사용자 2(d2)와의 거리(dist_d2)를 구한다. Since the external device to be operated is the set-top box (d3), first, the distance between the set-top box (d3) and user 1 (d1) (dist_d1) and the set-top box (d3) and user 2 (d2) (dist_d2) is obtained. .
각각의 거리(dist_d1, dist_d2)를 비교하여 셋톱 박스(d3)와 가까운 곳에 위치한 사용자는 사용자 2(d2)이므로 사용자 2(d2)에 대한 동작 판단 결과에 따라 셋톱 박스(d3)의 볼륨을 내리게 된다.The user 2 (d2) located near the set-top box (d3) by comparing each distance (dist_d1, dist_d2) is the user 2 (d2), so the volume of the set-top box (d3) is lowered according to the operation determination result of the user 2 (d2). .
네 번째 예로, 복수개의 동작 판단 결과가 동일한 외부 장치를 조작하려는 경우로, 전혀 다른 조작을 수행하려는 경우이다.A fourth example is a case in which a plurality of operation determination results are attempted to operate an external device having the same, and a completely different operation is performed.
예를 들면, 사용자 1(d1)은 셋톱 박스(d3)의 볼륨을 올리기를 원하고, 사용자 2(d2)는 셋톱 박스(d3)의 채널을 변경하기를 원하는 경우를 가정한다.For example, it is assumed that user 1 (d1) wants to increase the volume of the set-top box d3, and user 2 (d2) wants to change the channel of the set-top box d3.
이 경우 사용자 1(d1)에 대한 동작 판단 결과에 따라 셋톱 박스(d3)의 볼륨을 올리게 되고, 사용자 2(d2)에 대한 동작 판단 결과에 따라 셋톱 박스(d3)의 채널을 변경하게 된다.In this case, the volume of the set-top box d3 is increased according to the result of determining the operation of the user 1 (d1), and the channel of the set-top box d3 is changed according to the result of the determination of the operation of the user 2 (d2).
조작부(900)는 동작 판단 결과에 따라 적어도 하나의 외부 장치를 조작할 수 있다.The
외부 장치를 조작하는 것은 일반적인 가전 기기의 경우 적외선 리모컨에 의해 조작이 가능하므로 조작부(900)는 적외선으로 신호를 발신하는 것으로 외부 장치를 조작할 수 있다.In the case of a general home appliance, the external device can be manipulated by an infrared remote control, so the
조작부(900)는 동작 판단부(700)의 동작 판단 결과가 하나의 장치를 조작하는 것인지 두 대 이상의 장치를 조작하는 것인지 판단할 수 있다.The
조작부(900)는 조작할 수 있는 외부 장치가 한 대인 경우에는 해당 외부 장치를 조작 대상이 되는 외부 장치로 선택할 수 있다.When there is one external device that can be manipulated, the
조작부(900)는 조작할 수 있는 외부 장치가 두 대 이상이면, 해당되는 외부 장치 중에서 전원 인가된 장치가 두 대 이상인지 판단할 수 있다. If there are two or more external devices that can be manipulated, the
일반적으로 사용자가 손을 움직이는 경우 하나의 외부 장치를 조작하려는 것으로 판단할 수 있기 때문에 외부 장치가 한 대인지 두 대 이상인지를 구분하여 조작을 수행하게 된다.In general, when a user moves his or her hand, it can be determined that he intends to manipulate one external device. Therefore, the operation is performed by distinguishing whether there is one external device or two or more external devices.
이 때, 조작부(900)는 하나의 외부 장치에만 전원이 인가된 경우에는 전원이 인가된 외부 장치를 조작 대상 장치로 선택할 수 있다.In this case, when power is applied to only one external device, the
전원이 인가된 외부 장치가 두 대 이상인 경우에는 미리 설정된 모드를 확인하여 조작 대상 장치로 하나의 외부 장치를 선택할 수 있다. 모드는 미리 설정할 수 있고, 사용자의 손의 움직임에 따라 차후에 변경할 수 있다.When there are two or more external devices to which power is applied, one external device may be selected as a target device by checking a preset mode. The mode can be set in advance and can be changed later according to the movement of the user's hand.
설정된 모드에 따라 하나의 외부 장치를 조작하는 방법과 관련하여 이하에서 도 6과 함께 설명한다. A method of operating one external device according to the set mode will be described below with reference to FIG. 6.
도 6은 본 발명에 따른 동작 판단 결과가 복수의 외부 장치를 조작할 수 있는 경우 대상이 하나의 외부 장치를 조작하는 모습을 나타내는 도면이다.6 is a diagram illustrating a state in which a target manipulates one external device when a result of determining an operation according to the present invention can manipulate a plurality of external devices.
채널 변경은 프로젝터(e2), 텔레비전(e3), 셋톱 박스(e4) 및 라디오(e5)에 모두 적용될 수 있으므로 조작부(900)는 이 중에서 하나의 외부 장치를 선택해야 하므로, 이하에서는 동작 판단부(700)의 동작 판단 결과가 채널 변경인 경우를 예를 들어 설명한다.Since the channel change can be applied to all of the projector (e2), television (e3), set-top box (e4), and radio (e5), the
도 6a를 참조하면, 조작부(900)는 영상에서 사용자와 사물과 같은 객체의 위치와 심도를 객체의 위치 정보 및 거리를 산출할 수 있다.Referring to FIG. 6A, the
조작부(900)는 사용자의 명령을 받기 전에 프로젝터(e2), 텔레비전(e3), 셋톱 박스(e4) 및 라디오(e5)와 같은 외부 장치와의 위치 관계를 파악할 수 있고, 파악된 위치관계에 따라 외부 장치의 위치를 평면상에 X좌표와 Y좌표로 지정할 수 있다.Before receiving a user's command, the
일 실시예에서, 조작부(900)는 설정된 모드가 거리 우선 모드인 경우, 사용자와 가까운 곳에 위치하는 외부 장치를 조작할 수 있다(도 6c 참조).In an embodiment, when the set mode is a distance priority mode, the
조작부(900)는 상술하는 위치 정보 및 거리를 이용하여 사용자와 외부 장치와의 거리를 구하고, 가장 가까운 곳에 위치하는 외부 장치를 선택하여 조작할 수 있다.The
이 경우 미리 파악한 좌표로부터 거리를 계산할 수 있고, 이 결과에 따라 가장 작은 값을 가지는 장치인 라디오(e5)를 선택하여 조작할 수 있다.In this case, the distance can be calculated from the coordinates determined in advance, and according to the result, the radio e5, which is the device having the smallest value, can be selected and operated.
일 실시예에서, 조작부(900)는 설정된 모드가 시선 우선 모드인 경우, 사용자의 시선 방향에 위치하는 외부 장치를 조작할 수 있다(도 6d 참조).In an embodiment, when the set mode is the gaze priority mode, the
조작부(900)는 상술하는 위치 정보에 따라 사용자의 위치를 구하고, 사용자의 얼굴이 위치한 영역의 영상으로부터 사용자의 시선 방향을 구하여 사용자의 시선 방향에 위치하는 외부 장치를 선택하여 조작할 수 있다.The
도 6d를 참조하면, 사용자(e1)는 왼쪽에 위치한 프로젝터(e2)를 바라보고 있으므로 조작부(900)는 프로젝터를 선택하여 조작할 수 있다.Referring to FIG. 6D, since the user e1 is looking at the projector e2 located on the left, the
일 실시예에서, 조작부(900)는 설정된 모드가 손 방향 우선 모드인 경우, 사용자의 손이 가리키는 방향에 위치하는 외부 장치를 조작할 수 있다(도 6e 참조).In an embodiment, when the set mode is a hand direction priority mode, the
조작부(900)는 상술하는 위치 정보에 따라 사용자의 위치를 구하고, 사용자의 손이 가리키는 방향을 구하여 사용자의 손의 방향에 위치하는 외부 장치를 선택하여 조작할 수 있다.The
도 6e에서 사용자(e1)는 정면에 위치한 텔레비전(e3)을 가리키고 있으므로 조작부(900)는 텔레비전(e3)을 선택하여 조작할 수 있다.In FIG. 6E, since the user e1 points to the television e3 located in front, the
도 7은 본 발명의 일 실시예에 따른 동작 인식 기반 조작 방법을 나타내는 순서도이다.7 is a flowchart illustrating a gesture recognition-based manipulation method according to an embodiment of the present invention.
본 발명에 따른 동작 인식 기반 조작 방법은 상술한 본 발명에 따른 동작 인식 기반 조작 장치(10)에 의해 수행될 수 있다. 이를 위해, 본 발명에 따른 동작 인식 기반 조작 장치(10)는 후술하는 동작 인식 기반 조작 방법을 구성하는 각 단계를 수행하기 위한 애플리케이션(소프트웨어)이 미리 설치될 수 있다. 예를 들어, 사용자의 컴퓨터에는 본 발명에 따른 동작 인식 기반 조작 방법에 대한 플랫폼이 소프트웨어의 형태로 미리 설치될 수 있으며, 사용자는 컴퓨터에 설치된 소프트웨어를 실행하여 본 발명에 따른 동작 인식 기반 조작 방법이 제공하는 다양한 서비스를 제공받을 수 있다.The gesture recognition-based manipulation method according to the present invention may be performed by the gesture recognition-based
도 7을 참조하면, 동작 인식 기반 조작 장치(10)는 촬영 단계(S1100), 사용자를 인식하고, 검출하는 단계(S1200), 사용자의 움직임을 인식하는 단계(S1300), 사용자의 움직임의 종류를 인식하고, 동작 판단 결과를 생성하는 단계(S1400), 동작 판단 결과를 선별하는 단계(S1500), 외부 장치를 선택하는 단계(S1600) 및 동작 판단 결과에 따라 외부 장치를 조작하는 단계(S1700)를 포함할 수 있다.Referring to FIG. 7, the motion recognition-based
동작 인식 기반 조작 장치(10)는 객체를 촬영할 수 있고(S1100), 학습 네트워크 모델을 이용하여 촬영된 객체가 사용자인지 인식하고, 사용자가 위치한 영역을 검출할 수 있다(S1200).The motion recognition-based
동작 인식 기반 조작 장치(10)는 사용자가 위치한 영역에서 특정 시점의 프레임과 임계 시간 후의 프레임을 비교하여 변화량을 산출하고, 변화량이 임계값보다 크면 사용자의 움직임으로 인식할 수 있다(S1300).The motion recognition-based
동작 인식 기반 조작 장치(10)는 학습 네트워크 모델을 이용하여 사용자의 움직임이 어떤 종류의 동작인지 인식하고, 인식된 동작에 대응하는 동작 판단 결과를 생성할 수 있다(S1400).The motion recognition-based
동작 인식 기반 조작 장치(10)는 동시에 생성된 동작 판단 결과가 두 개 이상인 경우 동작 판단 결과를 하나 이상 선별할 수 있다(S1500).The motion recognition-based
동작 인식 기반 조작 장치(10)는 동작 판단 결과에 의해 조작 대상이 되는 외부 장치가 두 대 이상인 경우 하나의 외부 장치를 선택할 수 있다(S1600).The motion recognition-based
동작 인식 기반 조작 장치(10)는 동작 판단 결과에 따라 적어도 하나의 외부 장치를 조작할 수 있다(S1700).The motion recognition-based
상술한 각 단계들(S1100 내지 S1700)에 대한 구체적인 설명은 도 1 내지 도 6을 참조하여 상술하였으므로, 반복되는 설명은 생략하기로 한다.A detailed description of the above-described steps S1100 to S1700 has been described above with reference to FIGS. 1 to 6, and thus repeated descriptions will be omitted.
도 8은 본 발명에 따른 사용자가 복수인 경우에 동시에 생성된 동작 판단 결과가 두 개 이상인 경우 동작 판단 결과를 하나 이상 선별하는 단계를 세분화한 순서도이다.FIG. 8 is a flow chart subdividing the step of selecting one or more motion determination results when there are two or more simultaneous motion determination results when there are multiple users according to the present invention.
도 8을 참조하면, 동작 인식 기반 조작 방법은 사용자가 복수인 경우 사용자를 인식하고, 복수개의 영역을 검출하는 단계(S1200), 복수 개의 사용자의 움직임을 인식하는 단계(S1300), 사용자의 움직임의 종류를 인식하고, 복수 개의 동작 판단 결과를 생성하는 단계(S1400), 복수 개의 동작 판단 결과 중에서 하나 이상의 동작 판단 결과를 선별하는 단계(S1500), 선별된 동작 판단 결과에 따라 조작이 대상이 되는 하나의 외부 장치를 선택하는 단계(S1600) 및 선별된 동작 판단 결과에 따라 선택된 외부 장치를 조작하는 단계(S1700)를 수행하게 된다.Referring to FIG. 8, in the operation recognition-based manipulation method, when there are multiple users, recognizing a user and detecting a plurality of regions (S1200), recognizing movements of a plurality of users (S1300), and Recognizing the type and generating a plurality of motion determination results (S1400), selecting one or more motion determination results from among a plurality of motion determination results (S1500), one subject to manipulation according to the selected motion determination result Selecting the external device of (S1600) and manipulating the selected external device according to the selected operation determination result (S1700) are performed.
사용자가 두 명 이상인 경우에는 사용자를 인식하고, 검출하는 단계(S1200), 사용자의 움직임을 인식하는 단계(S1300) 및 사용자의 움직임의 종류를 인식하고, 동작 판단 결과를 생성하는 단계(S1400)는 각각의 사용자에 대해 사용자가 한 명인 경우와 동일한 동작을 수행하되, 병렬 처리를 통해 동시에 수행할 수 있다.When there are two or more users, the step of recognizing and detecting the user (S1200), the step of recognizing the user's movement (S1300), and the step of recognizing the type of the user's movement and generating a motion determination result (S1400) are For each user, the same operation as in the case of one user is performed, but can be performed simultaneously through parallel processing.
두 명 이상의 사용자가 동시에 손을 움직여 조작을 시도하는 경우 별도의 절차가 필요하다(S1500).When two or more users simultaneously move their hands to attempt manipulation, a separate procedure is required (S1500).
병렬 처리를 통해 동시에 생성된 동작 판단 결과가 두 개 이상인 경우 동일한 장치에 대해서 동일한 조작 또는 상반되는 조작을 수행할 수 있으므로 동작 판단 결과가 하나인 경우와 두 개 이상인 경우인지를 판단한다(S1510).If there are two or more results of determining an operation simultaneously generated through parallel processing, the same operation or a contrary operation may be performed on the same device, so it is determined whether there is one or more than one operation determination result (S1510).
동작 판단 결과가 하나인 경우에는 해당 동작 판단 결과에 따라 조작을 수행하면 되기 때문에 하나의 동작 판단 결과를 조작을 수행할 동작 판단 결과로 선별할 수 있다(S1590).If there is only one operation determination result, the operation may be performed according to the corresponding operation determination result, so that one operation determination result may be selected as the operation determination result to perform the operation (S1590).
동작 판달 결과가 두 개 이상인 경우에는 각각의 동작 판단 결과가 별개의 외부 장치를 조작하는 것인지, 동일한 외부 장치를 조작하는 것인지를 판단한다(S1530).When the result of determining the operation is more than two, it is determined whether the operation determination result is to operate a separate external device or the same external device (S1530).
복수의 동작 판단 결과가 별개의 외부 장치를 조작하는 것이면, 각각의 동작 판달 결과에 따라 외부 장치를 조작하면 된다. 따라서 각각의 동작 판단 결과를 조작을 수행할 동작 판단 결과로 선별할 수 있다(S1590).If the result of determining a plurality of motions is to manipulate separate external devices, the external devices may be operated according to the results of each operation determination. Accordingly, each operation determination result may be selected as an operation determination result to perform the manipulation (S1590).
복수의 동작 판단 결과가 동일한 외부 장치를 조작하는 것이면, 동일한 조작을 수행하는지 여부를 판단할 수 있다(S1550). 이러한 판단은 동일한 조작을 수행하는 경우 동시에 생성된 동작 판단 결과에 따른 조작을 연속적으로 수행해야 하기 때문이다(S1550).If the result of determining the plurality of operations is to manipulate the same external device, it may be determined whether the same operation is performed (S1550). This determination is because when the same operation is performed, the operation according to the result of determining the simultaneously generated operation must be continuously performed (S1550).
복수의 동작 판단 결과가 동일한 장치에 대해 동일한 조작을 수행하는 경우에는 복수의 동작 판단 결과에 따라 조작하려는 외부 장치와 거리가 가까운 순서대로 사용자의 동작 판단 결과를 선별하여 조작을 수행하게 할 수 있다(S1560).When the same operation is performed on a device with a plurality of operation determination results, the operation may be performed by selecting the user's operation determination result in an order of close distance to the external device to be operated according to the plurality of operation determination results ( S1560).
복수의 동작 판단 결과가 동일한 외부 장치를 조작하는 것이면, 상반된 조작을 수행하는지 여부를 판단할 수 있다(S1570) 상반된 조작을 수행하는 경우 둘 다 수행할 경우 결과적으로 하나도 수행하지 않는 것과 동일한 결과가 되므로 어느 하나의 동작 판단 결과만을 선별해서 조작을 수행하기 위한 것이다(S1570).If the result of determining a plurality of operations is to manipulate the same external device, it may be determined whether or not contradictory operations are performed (S1570) In case of performing contradictory operations, if both are performed, the result is the same as not performing one of them. The operation is performed by selecting only the result of determining any one operation (S1570).
복수의 동작 판단 결과가 동일한 장치에 대해 상반된 조작을 수행하는 경우에는 조작하려는 외부 장치와 거리가 가장 가까운 곳에 위치하는 사용자의 동작 판단 결과를 선별할 수 있다(S1580).When a plurality of operation determination results are performed on the same device in contradictory operation, the operation determination result of the user located at the closest distance to the external device to be operated may be selected (S1580).
그렇지 않은 경우는 동일한 장치에 대해 동일한 조작도 아니고, 상반된 조작도 아니므로 각각 수행하면 된다. 따라서 각각의 동작 판단 결과를 조작을 수행할 동작 판단 결과로 선별하게 된다(S1590).Otherwise, it is not the same operation for the same device, and it is not an opposite operation, so you can perform each operation. Therefore, each operation determination result is selected as an operation determination result to perform the manipulation (S1590).
상술한 각 단계들(S1500 내지 S1590)에 대한 구체적인 설명은 도 5를 참조하여 상술하였으므로, 반복되는 설명은 생략하기로 한다.A detailed description of each of the above-described steps S1500 to S1590 has been described with reference to FIG. 5, and thus a repeated description will be omitted.
도 9는 본 발명에 따른 동작 판단 결과에 의해 조작 대상이 되는 외부 장치가 두 대 이상인 경우 하나의 외부 장치를 선택하는 방법을 세분화한 순서도이다.9 is a detailed flowchart illustrating a method of selecting one external device when there are two or more external devices to be manipulated based on a result of operation determination according to the present invention.
도 9를 참조하면, 동작 판단 결과가 복수의 외부 장치를 조작할 수 있는 경우에 설정된 모드에 따라 하나의 외부 장치를 조작할 수 있다.Referring to FIG. 9, when the operation determination result is that a plurality of external devices can be manipulated, one external device may be manipulated according to a set mode.
상기 동작 판단 결과에 따라 조작할 수 있는 외부 장치 중에서 전원이 인가된 장치가 두 대 이상인지 판단할 수 있다(S1610). According to the operation determination result, it may be determined whether there are two or more devices to which power is applied among the external devices that can be manipulated (S1610).
일반적으로 사용자가 손을 움직이는 경우 하나의 외부 장치를 조작하려는 것으로 판단할 수 있기 때문에 외부 장치가 한 대인지 두 대 이상인지를 구분하여 조작을 수행하게 된다.In general, when a user moves his or her hand, it can be determined that he intends to manipulate one external device. Therefore, the operation is performed by distinguishing whether there is one external device or two or more external devices.
이 때, 조작할 수 있는 외부 장치가 한 대인 경우에는 해당 외부 장치를 조작 대상이 되는 외부 장치로 선택할 수 있다(S1620).In this case, when there is only one external device that can be operated, the external device may be selected as an external device to be operated (S1620).
조작할 수 있는 외부 장치가 두 대 이상인 경우에는 해당 외부 장치에 전원 인가되었는지를 판단하고(S1630), 그 중에서 하나의 장치를 선택해야 한다.When there are two or more external devices that can be manipulated, it is determined whether power is applied to the external device (S1630), and one of them must be selected.
전원이 인가되지 않은 장치는 조작을 수행할 수 없고, 사용자의 의도는 현재 전원이 인가된 장치를 조작하려는 것으로 판단할 수 있기 때문이다.This is because the device to which the power is not applied cannot perform the operation, and the intention of the user may be determined to attempt to operate the device to which the power is currently applied.
이 때, 하나의 외부 장치에만 전원이 인가된 경우에는 전원이 인가된 외부 장치를 조작 대상 장치로 선택할 수 있다(S1640).In this case, when power is applied to only one external device, the external device to which the power is applied may be selected as the manipulation target device (S1640).
전원이 인가된 외부 장치가 두 대 이상인 경우에는 미리 설정된 모드를 확인하여 조작 대상 장치로 하나의 외부 장치를 선택할 수 있다(S1650). 모드는 미리 설정할 수 있고, 사용자의 손의 움직임에 따라 차후에 변경할 수 있다.When there are two or more external devices to which power is applied, one external device may be selected as the manipulation target device by checking a preset mode (S1650). The mode can be set in advance and can be changed later according to the movement of the user's hand.
외부 장치 선택을 위해서 설정 가능한 모드는 거리 우선 모드, 손 방향 우선 모드 및 시선 우선 모드가 있다.Modes that can be set for selecting an external device include a distance priority mode, a hand direction priority mode, and a gaze priority mode.
설정된 모드가 거리 우선 모드인 경우, 사용자와 가까운 곳에 위치하는 외부 장치를 조작 대상 장치로 선택할 수 있다(S1661).When the set mode is the distance priority mode, an external device located close to the user may be selected as the manipulation target device (S1661).
설정된 모드가 손 방향 우선 모드인 경우, 사용자의 손이 가리키는 방향에 위치하는 외부 장치를 조작 대상 장치로 선택할 수 있다(S1663).When the set mode is the hand direction priority mode, an external device located in the direction indicated by the user's hand may be selected as the manipulation target device (S1663).
설정된 모드가 시선 우선 모드인 경우, 사용자의 시선 방향에 위치하는 외부 장치를 조작 대상 장치로 선택할 수 있다(S1663).When the set mode is the gaze priority mode, an external device located in the user's gaze direction may be selected as the manipulation target device (S1663).
이상에서는 실시예들을 참조하여 설명하였지만, 해당 기술 분야의 숙련된 당업자는 하기의 특허 청구범위에 기재된 본 발명의 사상 및 영역으로부터 벗어나지 않는 범위 내에서 본 발명을 다양하게 수정 및 변경시킬 수 있음을 이해할 수 있을 것이다.Although the above has been described with reference to embodiments, those skilled in the art will understand that various modifications and changes can be made to the present invention without departing from the spirit and scope of the present invention described in the following claims. I will be able to.
상술한 각 단계들(S1610 내지 S1665)에 대한 구체적인 설명은 도 6을 참조하여 상술하였으므로, 반복되는 설명은 생략하기로 한다.A detailed description of each of the above-described steps S1610 to S1665 has been described with reference to FIG. 6, and thus a repeated description will be omitted.
10: 동작 인식 기반 조작 장치
100: 영상 입력부
200: 사용자 검출부
300: 움직임 인식부
400: 동작 판단부
500: 조작부10: motion recognition based manipulation device
100: video input unit
200: user detection unit
300: motion recognition unit
400: operation determination unit
500: control panel
Claims (15)
학습 네트워크 모델을 이용하여 상기 영상 입력부에 의해 촬영된 객체가 사용자인지 인식하고, 사용자가 위치한 영역을 검출하는 사용자 검출부;
상기 사용자 검출부에서 검출된 사용자가 위치한 영역에서 특정 시점의 프레임과 특정 시점으로부터 임계 시간 지난 후의 프레임을 비교하여 변화량을 산출하고, 상기 변화량이 임계값보다 크면 사용자의 움직임으로 인식하는 움직임 인식부;
학습 네트워크 모델을 이용하여 상기 사용자의 움직임이 어떤 종류의 동작인지 인식하고, 인식된 동작에 대응하는 동작 판단 결과를 생성하는 동작 판단부; 및
상기 동작 판단부의 동작 판단 결과에 따라 적어도 하나의 외부 장치를 조작하는 조작부;를 포함하되,
상기 사용자 검출부는, 복수의 사용자가 인식되면, 사용자가 위치한 영역을 모두 검출하고,
상기 움직임 인식부는 상기 검출된 사용자가 위치한 영역이 복수 개이면, 각각의 영역에서 복수의 사용자의 움직임을 인식하며,
상기 동작 판단부는 상기 복수의 사용자의 움직임이 인식되면, 각각에 대해 사용자의 움직임이 어떤 종류의 동작인지 인식하고, 각각의 인식된 동작에 대응하여 복수 개의 동작 판단 결과를 생성하며,
상기 조작부는, 상기 동작 판단 결과가 복수 개이면, 각각의 동작 판단 결과에 따라 외부 장치를 조작하되, 상기 복수 개의 동작 판단결과가 동일한 외부 장치를 조작하는 것이면, 상기 각각의 동작 판단 결과를 비교하여 동일한 조작 또는 상반된 조작인지 확인하고, 동일한 조작을 수행하는 것이면 상기 외부장치와 복수의 사용자와의 거리에 따라 순서대로 복수의 사용자 모두의 동작 판단 결과에 따라 외부 장치를 조작하고, 상반된 조작을 수행하는 것이면 상기 외부장치와 복수의 사용자와의 거리에 따라 가장 가까운 곳에 위치하는 사용자의 동작 판단 결과에 따라 외부 장치를 조작하는 동작 인식 기반 조작 장치.
An image input unit for photographing an object;
A user detection unit that recognizes whether an object photographed by the image input unit is a user using a learning network model and detects an area in which the user is located;
A motion recognition unit that calculates a change amount by comparing a frame at a specific time point in a region where the user is located detected by the user detection unit and a frame after a threshold time has passed from the specific time point, and recognizes the change amount as a user's motion when the change amount is greater than a threshold value;
A motion determination unit that recognizes what kind of motion is the user's motion using a learning network model and generates a motion determination result corresponding to the recognized motion; And
Including; an operation unit for operating at least one external device according to the operation determination result of the operation determination unit,
When a plurality of users are recognized, the user detection unit detects all areas in which the user is located,
If there are a plurality of areas in which the detected user is located, the motion recognition unit recognizes the movements of the plurality of users in each area,
When the motion of the plurality of users is recognized, the motion determination unit recognizes what kind of motion is the user's motion for each, and generates a plurality of motion determination results in response to each recognized motion,
If the operation determination result is a plurality, the operation of the external device according to each operation determination result, but if the plurality of operation determination results are operating the same external device, compares the respective operation determination results Check whether the operation is the same or contradictory operation, and if the operation is performed the same, operate the external device according to the result of determining the operation of all of the plurality of users in order according to the distance between the external device and the plurality of users, and perform the opposite operation. If it is, a motion recognition-based manipulation device that manipulates an external device according to a result of determining a motion of a user located at the nearest location according to a distance between the external device and a plurality of users.
상기 복수 개의 동작 판단 결과가 각각 별개의 외부 장치를 조작하려는 것이면, 각각의 동작 판단 결과에 따라 외부 장치를 조작하는, 동작 인식 기반 조작 장치.
The method of claim 1, wherein the operation unit,
If the plurality of operation determination results are to operate separate external devices, respectively, the operation recognition-based manipulation device is configured to operate the external device according to each operation determination result.
상기 복수 개의 동작 판단 결과가 동일한 외부 장치를 조작하려는 것이고, 상기 복수 개의 동작 판단 결과가 동일한 조작을 수행하려는 것이면,
상기 외부 장치와 가까운 곳에 위치하는 사용자의 순서대로 복수의 사용자 모두의 동작 판단 결과에 따라 외부 장치를 조작하는, 동작 인식 기반 조작 장치.
The method of claim 1, wherein the operation unit,
If the plurality of operation determination results are intended to operate the same external device, and the plurality of operation determination results are to perform the same operation,
A motion recognition-based manipulation device for manipulating an external device according to a result of motion determination of all of a plurality of users in an order of a user located near the external device.
상기 동작 판단 결과가 복수의 외부 장치를 조작할 수 있는 것이고, 상기 복수의 외부 장치에 전원이 인가되어 있으면, 설정된 모드에 따라 하나의 외부 장치를 조작하는, 동작 인식 기반 조작 장치.
The method of claim 1, wherein the operation unit,
If the result of the operation determination is that a plurality of external devices can be manipulated, and when power is applied to the plurality of external devices, one external device is operated according to a set mode.
상기 설정된 모드가 거리 우선 모드인 경우, 사용자와 가까운 곳에 위치하는 외부 장치를 조작하는, 동작 인식 기반 조작 장치.
The method of claim 9, wherein the operation unit,
When the set mode is a distance priority mode, the operation recognition-based manipulation device operates an external device located close to a user.
상기 설정된 모드가 시선 우선 모드인 경우, 사용자의 시선 방향에 위치하는 외부 장치를 조작하는, 동작 인식 기반 조작 장치.
The method of claim 9, wherein the operation unit,
When the set mode is a gaze priority mode, a gesture recognition-based manipulation device for manipulating an external device located in a user's gaze direction.
상기 설정된 모드가 손 방향 우선 모드인 경우, 사용자의 손이 가리키는 방향에 위치하는 외부 장치를 조작하는, 동작 인식 기반 조작 장치.
The method of claim 9, wherein the operation unit,
When the set mode is a hand direction priority mode, a gesture recognition-based manipulation device for manipulating an external device positioned in a direction indicated by a user's hand.
상기 동작 인식 기반 조작 장치가 객체를 촬영하는 단계;
상기 동작 인식 기반 조작 장치가 학습 네트워크 모델을 이용하여 상기 촬영된 객체가 사용자인지 인식하고, 사용자가 위치한 영역을 검출하는 단계;
상기 동작 인식 기반 조작 장치가 상기 사용자가 위치한 영역에서 특정 시점의 프레임과 임계 시간 후의 프레임을 비교하여 변화량을 산출하고, 상기 변화량이 임계값보다 크면 사용자의 움직임으로 인식하는 단계;
상기 동작 인식 기반 조작 장치가 학습 네트워크 모델을 이용하여 상기 사용자의 움직임이 어떤 종류의 동작인지 인식하고, 인식된 동작에 대응하는 동작 판단 결과를 생성하는 단계;
상기 동작 인식 기반 조작 장치가 상기 동작 판단 결과에 따라 외부 장치를 조작하는 단계;를 포함하되,
상기 사용자가 위치한 영역을 검출하는 단계는,
상기 동작 인식 기반 조작 장치가 복수의 사용자를 인식하면 사용자가 위치한 영역을 모두 검출하고,
상기 사용자의 움직임으로 인식하는 단계는,
상기 검출된 사용자가 위치한 영역이 복수 개이면, 각각의 영역에서 복수의 사용자의 움직임을 인식하며,
상기 인식된 동작에 대응하는 동작 판단 결과를 생성하는 단계는,
상기 동작 인식 기반 조작 장치가 상기 복수의 사용자의 움직임을 인식하면, 각각에 대해 사용자의 움직임이 어떤 종류의 동작인지 인식하고, 각각의 인식된 동작에 대응하여 복수 개의 동작 판단 결과를 생성하며,
상기 외부 장치를 조작하는 단계는,
상기 동작 인식 기반 조작 장치가 상기 동작 판단 결과가 복수 개이면, 각각의 동작 판단 결과에 따라 외부 장치를 조작하되, 상기 복수 개의 동작 판단결과가 동일한 외부 장치를 조작하는 것이면, 상기 각각의 동작 판단 결과를 비교하여 동일한 조작 또는 상반된 조작인지 확인하고, 동일한 조작을 수행하는 것이면 상기 외부장치와 복수의 사용자와의 거리에 따라 순서대로 복수의 사용자 모두의 동작 판단 결과에 따라 외부 장치를 조작하고, 상반된 조작을 수행하는 것이면 상기 외부장치와 복수의 사용자와의 거리에 따라 가장 가까운 곳에 위치하는 사용자의 동작 판단 결과에 따라 외부 장치를 조작하는 동작 인식 기반 조작 방법.
In the motion recognition-based manipulation method performed by the motion recognition-based manipulation device,
Photographing an object by the motion recognition-based manipulation device;
Recognizing, by the motion recognition-based manipulation device, whether the captured object is a user using a learning network model, and detecting an area in which the user is located;
Calculating a change amount by comparing, by the motion recognition-based manipulation device, a frame at a specific point in time in a region in which the user is located and a frame after a threshold time, and recognizing that the change amount is greater than a threshold value as a user's movement;
Recognizing, by the motion recognition-based manipulation device, what kind of motion is the user's motion using a learning network model, and generating a motion determination result corresponding to the recognized motion;
Including, the operation recognition-based operation device manipulating an external device according to the operation determination result;
The step of detecting the area in which the user is located,
When the motion recognition-based manipulation device recognizes a plurality of users, it detects all areas where the user is located
Recognizing as the user's movement,
If there are a plurality of areas in which the detected user is located, movements of the plurality of users are recognized in each area,
Generating an operation determination result corresponding to the recognized operation,
When the motion recognition-based manipulation device recognizes the motions of the plurality of users, it recognizes what kind of motion the user's motion is for each, and generates a plurality of motion determination results in response to each recognized motion,
The step of operating the external device,
If the motion recognition-based manipulation device has a plurality of motion determination results, the external device is operated according to each motion determination result, but if the plurality of motion determination results are the same external device, the respective motion determination results If the operation is the same or contrary to each other, and if the same operation is performed, the external device is operated according to the result of the operation determination of all of the plurality of users in order according to the distance between the external device and the plurality of users, If the operation is performed, the operation recognition-based operation method for manipulating the external device according to the result of the operation determination of the user located at the nearest location according to the distance between the external device and a plurality of users.
동시에 생성된 동작 판단 결과가 두 개 이상인 경우 동작 판단 결과를 하나 이상 선별하는 단계;를 더 포함하는 동작 인식 기반 조작 방법.
The method of claim 13, wherein the step of operating the external device,
When the result of determining the motion generated at the same time is two or more, selecting one or more results of the motion determination;
상기 동작 인식 기반 조작 장치는 상기 동작 판단 결과에 의해 조작 대상이 되는 외부 장치가 두 대 이상인 경우 하나의 외부 장치를 선택하는 단계;를 더 포함하는 동작 인식 기반 조작 방법.The method of claim 13, wherein the step of operating the external device,
The motion recognition-based manipulation device further comprises: selecting one external device when there are two or more external devices to be manipulated based on the result of the motion determination.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020190044148A KR102192051B1 (en) | 2019-04-16 | 2019-04-16 | Device and method for recognizing motion using deep learning, recording medium for performing the method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020190044148A KR102192051B1 (en) | 2019-04-16 | 2019-04-16 | Device and method for recognizing motion using deep learning, recording medium for performing the method |
Publications (2)
Publication Number | Publication Date |
---|---|
KR20200121513A KR20200121513A (en) | 2020-10-26 |
KR102192051B1 true KR102192051B1 (en) | 2020-12-16 |
Family
ID=73006314
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020190044148A KR102192051B1 (en) | 2019-04-16 | 2019-04-16 | Device and method for recognizing motion using deep learning, recording medium for performing the method |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR102192051B1 (en) |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101647722B1 (en) * | 2009-11-13 | 2016-08-23 | 엘지전자 주식회사 | Image Display Device and Operating Method for the Same |
WO2017010593A1 (en) * | 2015-07-16 | 2017-01-19 | 재단법인 다차원 스마트 아이티 융합시스템 연구단 | Gesture recognition device |
KR101883228B1 (en) * | 2017-02-16 | 2018-07-30 | (주)더블유알티랩 | Method and Apparatus for Gesture Recognition |
Family Cites Families (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20080036423A (en) | 2006-10-23 | 2008-04-28 | (주)싸이버텍홀딩스 | System and method for providing a travel information using a personal portable terminal |
KR20120076477A (en) | 2010-11-25 | 2012-07-09 | 주식회사 케이티 | Method and systmem for store recommendation |
CN103329066B (en) * | 2011-01-19 | 2017-03-29 | 惠普发展公司,有限责任合伙企业 | For the method and system of multi-mode gesture control |
KR101386592B1 (en) | 2012-07-25 | 2014-04-22 | 스핀노트 주식회사 | Method and terminal for researching preference and information providing apparatus having the researching terminal |
-
2019
- 2019-04-16 KR KR1020190044148A patent/KR102192051B1/en active IP Right Grant
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101647722B1 (en) * | 2009-11-13 | 2016-08-23 | 엘지전자 주식회사 | Image Display Device and Operating Method for the Same |
WO2017010593A1 (en) * | 2015-07-16 | 2017-01-19 | 재단법인 다차원 스마트 아이티 융합시스템 연구단 | Gesture recognition device |
KR101883228B1 (en) * | 2017-02-16 | 2018-07-30 | (주)더블유알티랩 | Method and Apparatus for Gesture Recognition |
Also Published As
Publication number | Publication date |
---|---|
KR20200121513A (en) | 2020-10-26 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11868543B1 (en) | Gesture keyboard method and apparatus | |
WO2021185016A1 (en) | Methods and systems for controlling device using hand gestures in multi-user environment | |
CN104956292B (en) | The interaction of multiple perception sensing inputs | |
CN103353935B (en) | A kind of 3D dynamic gesture identification method for intelligent domestic system | |
US11809637B2 (en) | Method and device for adjusting the control-display gain of a gesture controlled electronic device | |
US9965039B2 (en) | Device and method for displaying user interface of virtual input device based on motion recognition | |
KR101815020B1 (en) | Apparatus and Method for Controlling Interface | |
US9703371B1 (en) | Obtaining input from a virtual user interface | |
JP7447302B2 (en) | Method and system for hand gesture-based control of devices | |
US11573627B2 (en) | Method of controlling device and electronic device | |
TW201427388A (en) | Image interaction system, detecting method for detecting finger position, stereo display system and control method of stereo display | |
JP2023511332A (en) | Augmented reality map curation | |
KR20210057358A (en) | Gesture recognition method and gesture recognition device performing the same | |
KR102192051B1 (en) | Device and method for recognizing motion using deep learning, recording medium for performing the method | |
KR20220144889A (en) | Method and system for hand gesture-based control of a device | |
US11755119B2 (en) | Scene controlling method, device and electronic equipment | |
EP3088991B1 (en) | Wearable device and method for enabling user interaction | |
US9761009B2 (en) | Motion tracking device control systems and methods | |
US10845888B2 (en) | Techniques for integrating different forms of input with different forms of output when interacting with an application | |
WO2023004600A1 (en) | Application window control method and apparatus, and interactive flat panel and storage medium | |
US20230095282A1 (en) | Method And Device For Faciliating Interactions With A Peripheral Device | |
Shanmugapriya et al. | Gesture Recognition using a Touch less Feeler Machine | |
Purkayastha | Integrating gesture recognition and speech recognition in a touch-less human computer interaction system | |
LEE et al. | Image Manipulation Interface using Depth-based Hand Gesture |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
E701 | Decision to grant or registration of patent right | ||
GRNT | Written decision to grant |