KR102192051B1 - Device and method for recognizing motion using deep learning, recording medium for performing the method - Google Patents

Device and method for recognizing motion using deep learning, recording medium for performing the method Download PDF

Info

Publication number
KR102192051B1
KR102192051B1 KR1020190044148A KR20190044148A KR102192051B1 KR 102192051 B1 KR102192051 B1 KR 102192051B1 KR 1020190044148 A KR1020190044148 A KR 1020190044148A KR 20190044148 A KR20190044148 A KR 20190044148A KR 102192051 B1 KR102192051 B1 KR 102192051B1
Authority
KR
South Korea
Prior art keywords
motion
user
external device
recognition
unit
Prior art date
Application number
KR1020190044148A
Other languages
Korean (ko)
Other versions
KR20200121513A (en
Inventor
이민호
이원희
Original Assignee
경북대학교 산학협력단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 경북대학교 산학협력단 filed Critical 경북대학교 산학협력단
Priority to KR1020190044148A priority Critical patent/KR102192051B1/en
Publication of KR20200121513A publication Critical patent/KR20200121513A/en
Application granted granted Critical
Publication of KR102192051B1 publication Critical patent/KR102192051B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/002Specific input/output arrangements not covered by G06F3/01 - G06F3/16
    • G06F3/005Input arrangements through a video camera
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06K9/00335
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/20Movements or behaviour, e.g. gesture recognition

Abstract

적외선 카메라를 사용하여 객체를 촬영하여, 학습 네트워크 모델을 이용하여 카메라가 촬영한 영상에서 사용자가 있는지 인식하고, 사용자가 위치한 영역을 검출한 영상을 생성하며, 시간의 변화에 따른 사용자의 움직임의 변화를 인식하여 움직임의 종류를 학습 네트워크 모델을 이용하여 판단하고, 동작 판단 결과를 생성하고, 외부 장치에 대해 특성 정보를 고려하여 외부 장치에 대해 조작 명령을 생성하여 조작하는 동작 인식 기반 조작 장치를 개시하고 있다.An object is photographed using an infrared camera, and a learning network model is used to recognize whether a user is present in the image captured by the camera, and an image that detects the area where the user is located is generated, and the user's movement changes according to time. Initiated a motion recognition-based manipulation device that recognizes and determines the type of motion using a learning network model, generates a motion determination result, and generates and manipulates a manipulation command for an external device in consideration of characteristic information for the external device. Are doing.

Description

동작 인식 기반 조작 장치 및 방법{DEVICE AND METHOD FOR RECOGNIZING MOTION USING DEEP LEARNING, RECORDING MEDIUM FOR PERFORMING THE METHOD}Motion recognition-based operation device and method {DEVICE AND METHOD FOR RECOGNIZING MOTION USING DEEP LEARNING, RECORDING MEDIUM FOR PERFORMING THE METHOD}

본 발명은 동작 인식 기반 조작 장치 및 방법에 관한 것으로서, 더욱 상세하게는 실시간으로 촬영되는 영상에서 사용자, 사용자의 동작, 동작의 종류를 인식하여 장치를 조작하는 동작 인식 기반 조작 장치 및 방법에 관한 것이다.The present invention relates to a motion recognition-based manipulation device and method, and more particularly, to a motion recognition-based manipulation device and method for manipulating the device by recognizing a user, a user's motion, and a type of motion from an image captured in real time. .

이 부분에 기술된 내용은 단순히 본 실시예에 대한 배경 정보를 제공할 뿐 종래기술을 구성하는 것은 아니다The content described in this section merely provides background information on the present embodiment and does not constitute the prior art.

컴퓨터, 스마트폰 등이 널리 보급 및 디지털 신호처리 기술이 발전해왔고, 근래에는 인공 지능, 영상인식(Video/Motion Recognition), 딥-러닝(Deep learning), 기계학습(Machine Learning) 등의 기술이 발전함으로써, 음성, 이미지, 동영상 또는 텍스트와 같은 데이터를 자동(Automation)으로 인식하여 데이터와 연관된 정보를 제공하거나 데이터와 관련된 서비스를 제공하는 지능형 서비스(Intelligent Service)가 다양한 분야에서 사용되고 있다Computers and smartphones have been widely distributed and digital signal processing technologies have been developed, and in recent years, technologies such as artificial intelligence, video/motion recognition, deep learning, and machine learning have developed. By doing so, intelligent services that automatically recognize data such as voice, image, video, or text to provide data-related information or provide data-related services are being used in various fields.

특히, 사용자와 기기 간의 자연스러운 상호작용 인터페이스(Natural User Interface: NUI) 기술에 대한 연구가 활발하며, 특히, 손 모양 및 손 동작 인식 기술과 같은 손을 이용한 인터페이스는 자연스럽고 직관적이 상호작용이 가능하며 부가적인 장비를 요구하지 않는 장점으n HCI(Human-Computer Interaction), HRI(Human-Robot Interaction), 및 HMI(Human-Machine Interaction) 분야 등에서 활발히 이용되고 있다.In particular, research on the natural user interface (NUI) technology between users and devices is active. In particular, interfaces using hands such as hand shape and hand gesture recognition technology enable natural and intuitive interaction. The advantage of not requiring additional equipment is being actively used in HCI (Human-Computer Interaction), HRI (Human-Robot Interaction), and HMI (Human-Machine Interaction) fields.

인공 지능 시스템은 인간 수준의 지능을 구현하는 컴퓨터 시스템이며, 기존 룰(rule) 기반 스마트 시스템과 달리 기계가 스스로 학습하고 판단하며 똑똑해지는 시스템이다. 인공 지능 시스템은 사용할수록 인식률이 향상되고 사용자 취향을 보다 정확하게 이해할 수 있게 되어, 기존 규칙 기반 인식 방식은 점차 딥-러닝 기반 인공 지능 방식으로 대체되고 있다.The artificial intelligence system is a computer system that implements human-level intelligence, and unlike the existing rule-based smart system, the machine learns, judges, and becomes smarter. As the artificial intelligence system is used, the recognition rate improves and user preferences can be understood more accurately, and the existing rule-based recognition method is gradually being replaced by a deep-learning-based artificial intelligence method.

이와 관련하여, 학습기반 인식 기술은 인식 대상이 되는 손 모양에 대한 데이터 베이스(Database)를 취득하고 이를 학습하여 생성한 모델을 통해 손 모양을 인식하는데, 기존의 머신 러닝을 기반으로 한 인식기는 높은 수준의 특징을 학습하기 어려웠고, 학습 환경 외의 환경에서 안정적인 성능을 얻지 못하는 한계가 있었다. In this regard, learning-based recognition technology acquires a database of the hand shape to be recognized and recognizes the hand shape through a model created by learning it, but the existing machine learning-based recognizer It was difficult to learn the characteristics of the level, and there was a limitation in that stable performance could not be obtained in environments other than the learning environment.

이에 따라, 실제 사용되는 다양한 환경에서도 높은 성능을 얻을 수 있는 방안의 필요성이 제기되고 있다.Accordingly, there is a need for a method capable of obtaining high performance even in various environments that are actually used.

한국등록특허 제10-1386592호 (2014.04.11.)Korean Patent Registration No. 10-1386592 (2014.04.11.) 한국공개특허 제10-2012-0076477호 (2012.07.09.)Korean Patent Publication No. 10-2012-0076477 (2012.07.09.) 한국공개특허 제10-2008-0036423 호 (2008.04.28.)Korean Patent Publication No. 10-2008-0036423 (2008.04.28.)

본 발명의 일 측면은 학습 네트워크 모델을 이용하며, 사용자, 사용자의 동작, 동작의 종류를 인식하는 과정을 분리하여 인식 성능을 향상시키는 동작 인식 기반 조작 장치 및 방법을 제공한다.An aspect of the present invention provides a motion recognition-based manipulation apparatus and method for improving recognition performance by separating a process of recognizing a user, a user's motion, and a type of motion using a learning network model.

본 발명의 기술적 과제는 이상에서 언급한 기술적 과제로 제한되지 않으며, 언급되지 않은 또 다른 기술적 과제들은 아래의 기재로부터 당업자에게 명확하게 이해될 수 있을 것이다.The technical problem of the present invention is not limited to the technical problem mentioned above, and other technical problems that are not mentioned will be clearly understood by those skilled in the art from the following description.

본 발명의 실시예에 따른, 객체를 촬영하는 영상 입력부; 학습 네트워크 모델을 이용하여 영상 입력부에 의해 촬영된 객체가 사용자인지 인식하고, 사용자가 위치한 영역을 검출하는 사용자 검출부; 사용자 검출부에서 검출된 사용자가 위치한 영역에서 특정 시점의 프레임과 특정 시점으로부터 임계 시간이 지난 후의 프레임을 비교하여 변화량을 산출하고, 변화량이 임계값보다 크면 사용자의 움직임으로 인식하는 움직임 인식부; 학습 네트워크 모델을 이용하여 사용자의 움직임이 어떤 종류의 동작인지 인식하고, 인식된 동작에 대응하는 동작 판단 결과를 생성하는 동작 판단부; 및 동작 판단부의 동작 판단 결과에 따라 적어도 하나의 외부 장치를 조작하는 조작부;를 포함할 수 있다.An image input unit for photographing an object according to an embodiment of the present invention; A user detection unit that recognizes whether an object photographed by the image input unit is a user using the learning network model and detects an area in which the user is located; A motion recognition unit that calculates a change amount by comparing a frame at a specific time point in a region in which the user is located detected by the user detection unit and a frame after a threshold time has elapsed from the specific time point, and recognizes a user's motion when the change amount is greater than a threshold value; A motion determination unit for recognizing what kind of motion is the user's motion using the learning network model and generating a motion determination result corresponding to the recognized motion; And a manipulation unit that manipulates at least one external device according to an operation determination result of the operation determination unit.

일 실시예에서, 사용자 검출부는, 복수의 사용자가 인식되면, 사용자가 위치한 영역을 모두 검출할 수 있다.In an embodiment, when a plurality of users are recognized, the user detection unit may detect all regions in which the user is located.

일 실시예에서, 움직임 인식부는, 검출된 사용자가 위치한 영역이 복수 개이면, 각각의 영역에서 사용자의 움직임이 있는지 여부를 인식할 수 있다.In an embodiment, if there are a plurality of areas in which the detected user is located, the motion recognition unit may recognize whether there is a user's movement in each area.

일 실시예에서, 동작 판단부는, 움직임 인식부에서 복수의 사용자의 움직임이 인식되면, 각각에 대해 사용자의 움직임이 어떤 종류의 동작인지 인식하고, 각각의 인식된 동작에 대응하여 복수 개의 동작 판단 결과를 생성할 수 있다.In one embodiment, the motion determination unit, when the motion recognition unit recognizes the motions of a plurality of users, recognizes what kind of motion is the user's motion for each, and determines the plurality of motions corresponding to each recognized motion. Can be created.

일 실시예에서, 조작부는, 동작 판단 결과가 복수 개이면, 각각의 동작 판단 결과에 따라 외부 장치를 조작할 수 있다.In an embodiment, if the operation determination result is plural, the manipulation unit may manipulate the external device according to the operation determination result.

일 실시예에서, 조작부는, 복수 개의 동작 판단 결과가 각각 별개의 외부 장치를 조작하려는 것이면, 각각의 동작 판단 결과에 따라 외부 장치를 조작할 수 있다.In an embodiment, if the plurality of operation determination results are to operate separate external devices, respectively, the operation unit may operate the external device according to the operation determination result.

일 실시예에서, 조작부는, 복수 개의 동작 판단 결과가 동일한 외부 장치를 조작하려는 것이고, 복수 개의 동작 판단 결과가 동일한 조작을 수행하려는 것이면, 외부 장치와 가까운 사용자의 순서대로 동작 판단 결과에 따라 외부 장치를 조작할 수 있다.In one embodiment, if the plurality of operation determination results are intended to operate the same external device, and the plurality of operation determination results are to perform the same operation, the external device according to the operation determination result in the order of the user close to the external device. Can be manipulated.

일 실시예에서, 조작부는, 복수 개의 동작 판단 결과가 동일한 외부 장치를 조작하려는 것이고, 복수 개의 동작 판단 결과가 상반된 조작을 수행하려는 것이면, 외부 장치와 가장 가까운 곳에 위치하는 사용자의 동작 판단 결과에 따라 외부 장치를 조작할 수 있다.In one embodiment, if the plurality of operation determination results are intended to manipulate the same external device, and the plurality of operation determination results are to perform contradictory operations, the operation unit is based on the operation determination result of the user located closest to the external device. External devices can be operated.

일 실시예에서, 조작부는, 동작 판단 결과가 복수의 외부 장치를 조작할 수 있으면, 설정된 모드에 따라 하나의 외부 장치를 조작할 수 있다.In an embodiment, if the operation determination result is capable of operating a plurality of external devices, the manipulation unit may operate one external device according to a set mode.

일 실시예에서, 조작부는, 설정된 모드가 거리 우선 모드인 경우, 사용자와 가까운 곳에 위치하는 외부 장치를 조작할 수 있다.In an embodiment, when the set mode is a distance priority mode, the manipulation unit may manipulate an external device located close to the user.

일 실시예에서, 조작부는, 설정된 모드가 시선 우선 모드인 경우, 사용자의 시선 방향에 위치하는 외부 장치를 조작할 수 있다.In an embodiment, when the set mode is a gaze priority mode, the manipulation unit may manipulate an external device located in the gaze direction of the user.

일 실시예에서, 조작부는, 설정된 모드가 손 방향 우선 모드인 경우, 사용자의 손이 가리키는 방향에 위치하는 외부 장치를 조작할 수 있다.In an embodiment, when the set mode is a hand direction priority mode, the manipulation unit may manipulate an external device positioned in the direction indicated by the user's hand.

본 발명의 실시예에 따른, 동작 인식 기반 조작 장치에 의해 수행되는 동작 인식 기반 조작 방법에 있어서, 동작 인식 기반 조작 장치가 객체를 촬영하는 단계; 동작 인식 기반 조작 장치가 학습 네트워크 모델을 이용하여 촬영된 객체가 사용자인지 인식하고, 사용자가 위치한 영역을 검출하는 단계; 동작 인식 기반 조작 장치가 사용자가 위치한 영역에서 특정 시점의 프레임과 임계 시간 후의 프레임을 비교하여 변화량을 산출하고, 변화량이 임계값보다 크면 사용자의 움직임으로 인식하는 단계; 동작 인식 기반 조작 장치가 학습 네트워크 모델을 이용하여 사용자의 움직임이 어떤 종류의 동작인지 인식하고, 인식된 동작에 대응하는 동작 판단 결과를 생성하는 단계; 동작 인식 기반 조작 장치는 동시에 생성된 동작 판단 결과가 두 개 이상인 경우 동작 판단 결과를 하나 이상 선별하는 단계; 동작 인식 기반 조작 장치는 동작 판단 결과에 의해 조작 대상이 되는 외부 장치가 두 대 이상인 경우 하나의 외부 장치를 선택하는 단계; 및 상기 동작 인식 기반 조작 장치가 상기 동작 판단 결과에 따라 선택된 하나의 외부 장치를 조작하는 단계;를 포함할 수 있다.In accordance with an embodiment of the present invention, there is provided a motion recognition-based manipulation method performed by a motion recognition-based manipulation device, comprising: photographing an object by the gesture recognition-based manipulation device; Recognizing, by the motion recognition-based manipulation device, whether the captured object is a user using the learning network model, and detecting a region where the user is located; Calculating a change amount by comparing, by a motion recognition-based manipulation device, a frame at a specific point in time in a region where a user is located and a frame after a threshold time, and recognizing that the change amount is greater than a threshold value as a user's movement; Recognizing, by the motion recognition-based manipulation device, what kind of motion is the user's motion using the learning network model, and generating a motion determination result corresponding to the recognized motion; The motion recognition-based manipulation device includes: selecting one or more motion determination results when two or more motion determination results generated simultaneously; The motion recognition-based manipulation device includes: selecting one external device when there are two or more external devices to be manipulated based on a result of the motion determination; And manipulating, by the motion recognition-based manipulation device, a selected external device according to a result of the motion determination.

일 실시예에서, 외부 장치를 조작하는 단계는, 동시에 생성된 동작 판단 결과가 두 개 이상인 경우 동작 판단 결과를 하나 이상 선별하는 단계;를 더 포함할 수 있다.In an embodiment, the operation of the external device may further include selecting one or more results of the operation determination when two or more results of the operation determination simultaneously generated are selected.

일 실시예에서, 외부 장치를 조작하는 단계는 상기 동작 판단 결과에 의해 조작 대상이 되는 외부 장치가 두 대 이상인 경우 하나의 외부 장치를 선택하는 단계;를 더 포함할 수 있다.In an embodiment, the operating of the external device may further include selecting one external device when there are two or more external devices to be operated based on the operation determination result.

상술한 본 발명의 일 측면에 따르면, 본 발명의 동작 인식 기반 조작 장치 및 방법에 의해 제공되는 효과는, 딥-러닝을 통해 화소, 명도 및 채도의 변화가 다양한 사용자 환경에서도 높은 인식 성능을 얻을 수 있어 제스처 인식 기반 입력 시스템 전반에 적용될 수 있는 범용성과 확장성을 제공할 수 있다.According to an aspect of the present invention described above, the effect provided by the motion recognition-based manipulation device and method of the present invention is, through deep-learning, high recognition performance can be obtained even in a user environment in which changes in pixels, brightness, and saturation vary. Therefore, it can provide versatility and expandability that can be applied to the entire gesture recognition-based input system.

본 발명의 기술적 과제는 이상에서 언급한 기술적 과제로 제한되지 않으며, 언급되지 않은 또 다른 기술적 과제들은 아래의 기재로부터 당업자에게 명확하게 이해될 수 있을 것이다.The technical problem of the present invention is not limited to the technical problem mentioned above, and other technical problems that are not mentioned will be clearly understood by those skilled in the art from the following description.

도 1은 본 발명의 일 실시예에 따른 동작 인식 기반 조작 장치의 구성을 나타내는 구성도이다.
도 2는 본 발명에 따른 사용자 검출부가 사용자를 인식하는 모습을 나타내는 도면이다.
도 3은 본 발명에 따른 움직임 인식부가 사용자의 손을 인식하는 모습을 나타내는 도면이다.
도 4는 본 발명에 따른 동작 판단부가 사용자의 손의 변화를 인식하는 모습을 나타내는 도면이다.
도 5는 사용자가 복수인 경우에 외부 장치를 조작하는 모습을 나타내는 도면이다.
도 6은 본 발명에 따른 동작 판단 결과가 복수의 외부 장치를 조작할 수 있는 경우 대상이 하나의 외부 장치를 조작하는 모습을 나타내는 도면이다.
도 7은 본 발명의 일 실시예에 따른 동작 인식 기반 조작 방법을 나타내는 순서도이다.
도 8은 본 발명에 따른 사용자가 복수인 경우에 동시에 생성된 동작 판단 결과가 두 개 이상인 경우 동작 판단 결과를 하나 이상 선별하는 단계를 세분화한 순서도이다.
도 9는 본 발명에 따른 동작 판단 결과가 복수의 외부 장치를 조작할 수 있는 경우 대상이 하나의 외부 장치를 조작하는 방법을 세분화한 순서도이다.
1 is a block diagram showing a configuration of a motion recognition-based manipulation device according to an embodiment of the present invention.
2 is a diagram illustrating a state in which a user detection unit according to the present invention recognizes a user.
3 is a diagram illustrating a state in which a motion recognition unit according to the present invention recognizes a user's hand.
4 is a diagram illustrating a state in which a motion determination unit according to the present invention recognizes a change in a user's hand.
5 is a diagram illustrating a state in which an external device is operated when there are a plurality of users.
6 is a diagram illustrating a state in which a target manipulates one external device when a result of determining an operation according to the present invention can manipulate a plurality of external devices.
7 is a flowchart illustrating a gesture recognition-based manipulation method according to an embodiment of the present invention.
FIG. 8 is a flow chart subdividing the step of selecting one or more motion determination results when there are two or more simultaneous motion determination results when there are multiple users according to the present invention.
9 is a flowchart illustrating a method of subdividing a method in which a target manipulates one external device when the operation determination result according to the present invention is capable of operating a plurality of external devices.

후술하는 본 발명에 대한 상세한 설명은, 본 발명이 실시될 수 있는 특정 실시예를 예시로서 도시하는 첨부 도면을 참조한다. 이들 실시예는 당업자가 본 발명을 실시할 수 있기에 충분하도록 상세히 설명된다. 본 발명의 다양한 실시예는 서로 다르지만 상호 배타적일 필요는 없음이 이해되어야 한다. 예를 들어, 여기에 기재되어 있는 특정 형상, 구조 및 특성은 일 실시예와 관련하여 본 발명의 정신 및 범위를 벗어나지 않으면서 다른 실시예로 구현될 수 있다. 또한, 각각의 개시된 실시예 내의 개별 구성요소의 위치 또는 배치는 본 발명의 정신 및 범위를 벗어나지 않으면서 변경될 수 있음이 이해되어야 한다. 따라서, 후술하는 상세한 설명은 한정적인 의미로서 취하려는 것이 아니며, 본 발명의 범위는, 적절하게 설명된다면, 그 청구항들이 주장하는 것과 균등한 모든 범위와 더불어 첨부된 청구항에 의해서만 한정된다. 도면에서 유사한 참조부호는 여러 측면에 걸쳐서 동일하거나 유사한 기능을 지칭한다.DETAILED DESCRIPTION OF THE INVENTION The detailed description of the present invention to be described later refers to the accompanying drawings, which illustrate specific embodiments in which the present invention may be practiced. These embodiments are described in detail sufficient to enable a person skilled in the art to practice the present invention. It is to be understood that the various embodiments of the present invention are different from each other, but need not be mutually exclusive. For example, certain shapes, structures, and characteristics described herein may be implemented in other embodiments without departing from the spirit and scope of the present invention in relation to one embodiment. In addition, it is to be understood that the location or arrangement of individual components within each disclosed embodiment may be changed without departing from the spirit and scope of the present invention. Accordingly, the detailed description to be described below is not intended to be taken in a limiting sense, and the scope of the present invention, if properly described, is limited only by the appended claims, along with all scopes equivalent to those claimed by the claims. Like reference numerals in the drawings refer to the same or similar functions over several aspects.

이하, 도면들을 참조하여 본 발명의 바람직한 실시예들을 보다 상세하게 설명하기로 한다.Hereinafter, preferred embodiments of the present invention will be described in more detail with reference to the drawings.

도 1은 본 발명의 일 실시예에 따른 동작인식 장치의 구성을 나타내는 구성도이다.1 is a block diagram showing the configuration of a motion recognition apparatus according to an embodiment of the present invention.

도 1을 참조하면, 동작 인식 기반 조작 장치(10)는 영상 입력부(100), 사용자 검출부(300), 동작 판단부(700) 및 조작부(900)를 포함할 수 있다.Referring to FIG. 1, a motion recognition-based manipulation device 10 may include an image input unit 100, a user detection unit 300, a motion determination unit 700, and a manipulation unit 900.

영상 입력부(100)는 적외선 카메라를 사용하여 객체를 촬영하며, 객체는 인식의 대상이 되는 사용자와 가구와 같은 물체를 포함하고, 피사체와의 거리는 집안 환경에 따라 다르게 설정할 수 있다. The image input unit 100 photographs an object using an infrared camera, and the object includes a user to be recognized and an object such as furniture, and the distance to the subject may be set differently according to the environment of the house.

사용자 검출부(300)는 학습 네트워크 모델을 이용하여 영상 입력부에 의해 촬영된 객체가 사용자인지 인식하고, 사용자가 위치한 영역을 검출할 수 있다.The user detection unit 300 may recognize whether an object photographed by the image input unit is a user using the learning network model, and detect an area in which the user is located.

사용자 검출부(300)와 관련하여 이하에서 도 2와 함께 설명한다.The user detection unit 300 will be described below with reference to FIG. 2.

도 2는 본 발명에 따른 사용자 검출부가 사용자를 인식하는 모습을 나타내는 도면이다.2 is a diagram illustrating a state in which a user detection unit according to the present invention recognizes a user.

도 2를 참조하면, 동작 인식 기반 조작 장치(10)의 영상 입력부(100)가 촬영한 영상에서 사용자(a3, a4)를 한 명인 경우(도 2a 참조)와 한 명 이상인 경우(도 2b 참조)의 모습을 알 수 있다.Referring to FIG. 2, when there is one user (a3, a4) in an image captured by the image input unit 100 of the motion recognition-based manipulation device 10 (see FIG. 2A) and when there are more than one user (see FIG. 2B). You can see the state of

사용자 검출부(300)는 영상 입력부(100)에 의해 촬영된 영상에서 2차원 합성곱 신경망(CNN, Convolutional Neural Network)과 같은 학습 네트워크 모델을 이용하여 사용자를 인식할 수 있다.The user detection unit 300 may recognize a user from an image captured by the image input unit 100 by using a learning network model such as a 2D convolutional neural network (CNN).

사용자 검출부(300)는 사용자(a3)를 인식하기 위해 다운 샘플링(down sampling) 과정과 업 샘플링(up sampling) 과정을 수행한다.The user detection unit 300 performs a down sampling process and an up sampling process to recognize the user a3.

예를 들어, 영상 입력부(100)에 의해 촬영된 영상의 크기(L)가 416Х416 이라고 할 때, 사용자 검출부(300)는 다운 샘플링(down sampling)은 영상의 크기가 13Х13(=L/32)이 될 때까지 수행하여, 1차 특성 맵(feature map)을 구한다.For example, when the size (L) of an image captured by the image input unit 100 is 416Х416, the user detection unit 300 uses down sampling to have an image size of 13Х13 (=L/32). Is performed until a first order feature map is obtained.

사용자 검출부(300)는 1차 특성 맵(feature map)에서 물체의 영역인지를 판단하고, 다시 물체인지 여부를 판별하여 객체 스코어(objectness score)를 구하고, 어떤 물체인지를 판별하여 분류 스코어(class score)를 구하여 사용자(a3), 소파(a1), 식탁(a2)과 같은 큰 객체(object)를 찾는다.The user detection unit 300 determines whether the object is an area in the primary feature map, determines whether it is an object, obtains an objectness score, and determines which object is a class score. ) To find a large object such as a user (a3), a sofa (a1), and a dining table (a2).

큰 객체(object)를 찾은 후, 사용자 검출부(300)는 업 샘플링(up sampling)을 수행하며, 영상의 크기가 26Х26(=L/16)인 2차 특성 맵(feature map)과 상의 크기가 52Х52(=L/8)인 3차 특성 맵(feature map)을 다시 구한다.After finding a large object, the user detection unit 300 performs up-sampling, and a second feature map having an image size of 26Х26 (=L/16) and an image size of 52Х52 A third-order feature map of (=L/8) is obtained again.

이 때, 업 샘플링(up sampling)을 수행할 때에는 다운 샘플링(down sampling) 과정에서 추출한 특성(feature)을 더하여 이전 정보를 포함시킨다.In this case, when up-sampling is performed, previous information is included by adding features extracted in the down-sampling process.

3차 특성 맵(feature map)은 사용자(a3)의 손과 같은 작은 객체(object)를 찾는데 사용된다.The third feature map is used to find a small object such as the hand of the user a3.

상술하는 과정에 따라, 사용자 검출부(300)의 학습 네트워크 모델은 촬영된 객체가 소파(a1), 식탁(a2)과 같은 사물인지 여부, 사물의 위치, 사물의 종류를 판별하여 사용자(a3, a5)를 인식하고, 사용자가 위치한 영역(a4, a6)을 검출할 수 있다.According to the above-described process, the learning network model of the user detection unit 300 determines whether the photographed object is an object such as a sofa (a1) or a dining table (a2), the location of the object, and the type of the object to determine the user (a3, a5). ), and the areas a4 and a6 in which the user is located can be detected.

움직임 인식부(500)는 사용자 검출부에서 검출된 사용자가 위치한 영역에서 특정 시점의 프레임과 특정 시점으로부터 임계 시간이 지난 후의 프레임을 비교하여 변화량을 산출하고, 변화량이 임계값보다 크면 사용자의 움직임으로 인식할 수 있다.The motion recognition unit 500 calculates the amount of change by comparing the frame at a specific point in time in the region where the user is located detected by the user detection unit and the frame after a threshold time has elapsed from the specific point in time, and if the amount of change is greater than the threshold value, it is recognized as the user's movement can do.

움직임 인식부(500)와 관련하여 이하에서 도 3 및 도 4와 함께 설명한다.The motion recognition unit 500 will be described below with reference to FIGS. 3 and 4.

움직임 인식부(500)는 특정 시점(T)의 프레임(frame)과 특정 시점(T)으로부터 임계 시간(t)이 지난 후의 프레임(frame) 간의 차이를 비교하여 프레임 변화량(Frame difference)을 산출할 수 있다.The motion recognition unit 500 compares the difference between a frame at a specific point in time T and a frame after a critical time t has elapsed from the specific point in time T to calculate a frame difference. I can.

프레임 변화량(frame difference)은 사용자가 위치한 영역에 존재하는 모든 프레임의 차이를 합한 값이며, 움직임 인식부(500)는 변화량(Frame difference)이 임계값보다 크면 움직임이 있는 것으로 인식할 수 있다. The frame difference is a sum of differences between all frames existing in an area in which the user is located, and the motion recognition unit 500 may recognize that there is a motion when the frame difference is greater than a threshold value.

이 때, 임계값과 임계 시간(t)은 미리 지정한 값이다. In this case, the threshold value and the threshold time t are preset values.

변화량(Frame difference)은 아래 수학식 1에 따라 계산될 수 있다.The frame difference can be calculated according to Equation 1 below.

[수학식 1] [Equation 1]

Frame difference = |frame(T+t) - frame(T)|Frame difference = |frame(T+t)-frame(T)|

여기서 T는 현재 시간을 의미하고, t는 임계 시간을 의미하며, frame(T)는 특정 시간 T에서 나타나는 프레임(frame)을 의미한다.Here, T denotes the current time, t denotes a critical time, and frame (T) denotes a frame appearing at a specific time T.

도 3은 본 발명에 따른 움직임 인식부가 사용자의 손을 인식하는 모습을 나타내는 도면이다.3 is a diagram illustrating a state in which a motion recognition unit according to the present invention recognizes a user's hand.

도 3a 내지 도 3c를 참조하면, 움직임 인식부(500)는 사용자가 인식된 영역 내에서 작은 객체인 손을 인식하는 모습을 알 수 있다.Referring to FIGS. 3A to 3C, the motion recognition unit 500 may recognize a hand that is a small object within the recognized area.

사용자 검출부(300)는 52×52(=L/8) 크기의 영상인 3차 특성 맵(feature map)에서 사용자의 손을 인식할 수 있으며, 사용자의 손의 모양에 따라 인식되는 영역(b1, b2, b3)의 크기가 달라진다.The user detection unit 300 may recognize the user's hand in a third feature map, which is a 52×52 (=L/8) sized image, and the area b1, recognized according to the shape of the user's hand. The sizes of b2 and b3) are different.

사용자의 손이 주먹을 쥔 상태(도 3a 참조), 두 손가락만 편 상태(도 3b 참조) 및 손가락을 다 편상태(도 3c 참조)에서 각각 인식되는 영상의 크기가 다른 것을 알 수 있다.It can be seen that the size of the image recognized in a state in which the user's hand is clenched (see FIG. 3A), a state with only two fingers open (see FIG. 3B), and a state with all fingers (see FIG. 3C) are different.

도 4는 본 발명에 따른 동작 판단부가 사용자의 손의 변화를 인식하는 모습을 나타내는 도면이다.4 is a diagram illustrating a state in which a motion determination unit according to the present invention recognizes a change in a user's hand.

도 4a 내지 도 4e를 참조하면, 움직임 인식부(500)는 사용자 검출부(300)에서 사용자가 위치한 영역을 검출한 영상에서 시간의 변화에 따른 사용자의 움직임의 변화를 인식할 수 있다.Referring to FIGS. 4A to 4E, the motion recognition unit 500 may recognize a change in the user's movement over time in an image in which the user detection unit 300 detects an area where the user is located.

움직임 인식부(500)는 다양한 동작을 인식할 수 있지만, 대표적인 동작인 좌우 이동(도 4a 참조)을 예로 설명한다.Although the motion recognition unit 500 can recognize various motions, a representative motion, left and right movement (refer to FIG. 4A), will be described as an example.

움직임 인식부(500)는 업 샘플링(up sampling)된 영상에서 프레임의 변화를 계산하여 사용자의 손의 움직임을 인식할 수 있다.The motion recognition unit 500 may recognize a movement of a user's hand by calculating a change in a frame from an up-sampled image.

움직임 인식부(500)는 도 3a 내지 도 3c의 영상에서는 프레임 변화량(Frame difference)도 없으므로 움직임이 없는 것으로 판단할 수 있고, 이 경우 동작 판단부(700)로 영상을 전달하지 않고, 인식 과정을 종료한다.The motion recognition unit 500 may determine that there is no motion because there is no frame difference in the images of FIGS. 3A to 3C, and in this case, the recognition process is performed without transmitting the image to the motion determination unit 700. It ends.

움직임 인식부(500)는 도 4a 및 도 4b의 경우처럼 프레임 변화량(Frame difference)이 있는 경우에는 사용자의 움직임이 있는 것으로 판단하게 되고, 이 경우 동작 판단부(700)로 영상을 전달할 수 있다.As in the case of FIGS. 4A and 4B, the motion recognition unit 500 determines that there is a user's movement when there is a frame difference, and in this case, the motion determination unit 700 may transmit an image.

동작 판단부(700)는 학습 네트워크 모델을 이용하여 사용자의 움직임이 어떤 종류의 동작인지 인식하고, 인식된 동작에 대응하는 동작 판단 결과를 생성할 수 있다.The motion determination unit 700 may recognize what kind of motion the user's motion is by using the learning network model, and may generate a motion determination result corresponding to the recognized motion.

동작 판단부(700)와 관련하여 이하에서 도 4와 함께 설명한다.The operation determination unit 700 will be described below with reference to FIG. 4.

동작 판단부(700)는 움직임 인식부(500)에 의해 움직임의 변화가 인식된 영상에 대해서 사용자의 움직임의 종류를 3차원 합성곱 신경망(CNN, Convolutional Neural Network)과 같은 학습 네트워크 모델을 이용하여 사용자의 움직임이 어떤 종류의 동작인지 판단할 수 있다.The motion determination unit 700 uses a learning network model such as a 3D convolutional neural network (CNN) to determine the type of the user's motion with respect to an image in which a change in motion is recognized by the motion recognition unit 500. It is possible to determine what kind of motion the user's motion is.

동작 판단부(700)는 3차원 컨볼루션 레이어(3d convolution layer), 3차원 맥스 풀링 레이어(3d max pooling layer)와 이 두 개의 레이어(layer)를 포함하는 인셉션 레이어(inception layer)로 구성된다. The motion determination unit 700 is composed of a 3D convolution layer, a 3D max pooling layer, and an inception layer including these two layers. .

동작 판단부(700)는 3차원 합성곱 신경망(CNN, Convolutional Neural Network)을 특성 맵(feature map)을 구하고, 특성 맵(feature map)으로부터 사용자의 움직임의 종류를 인식할 수 있다.The motion determination unit 700 may obtain a feature map from a 3D convolutional neural network (CNN) and recognize the type of a user's motion from the feature map.

동작 판단부(700)는 특성 맵(feature map)으로부터 차원 인식을 위해 3차원 합성곱 신경망(CNN, Convolutional Neural Network)의 활성화 함수(activation)로 소프트 맥스 함수(softmax)를 사용하여 동작을 판단할 수 있다.The motion determination unit 700 determines the motion using a softmax function as an activation function of a 3D convolutional neural network (CNN) for dimensional recognition from a feature map. I can.

도 4a를 참조하면, 사용자의 손은 사용자를 기준으로 우측(c2)에서 좌측(c3)으로 이동한 것을 알 수 있다.Referring to FIG. 4A, it can be seen that the user's hand has moved from the right (c2) to the left (c3) based on the user.

동작 판단부(700)는 최초 우측(c2)에 위치하는 손을 인식할 수 있고, 우측(c2)에서 좌측으로 이동하는 하는 과정을 인식하며, 최종적으로 좌측(c3)에 위치하는 손을 인식할 수 있다.The motion determination unit 700 may first recognize the hand located on the right (c2), recognize the process of moving from the right (c2) to the left, and finally recognize the hand located on the left (c3). I can.

동작 판단부(700)는 두 손가락만을 편 상태로 우측(c2)에서 좌측(c3)으로 움직이는 동작, 위(c4)에서 아래(c5)로 움직이는 동작, 앞/뒤로 움직이는 동작 등의 3차원 움직임을 인식할 수 있다. The motion determination unit 700 performs three-dimensional movements such as moving from right (c2) to left (c3), moving from top (c4) to bottom (c5), and moving forward/backward with only two fingers open. I can recognize it.

동작 판단부(700)는 사용자의 움직임의 동작의 종류에 따라 동작 판단 결과를 생성할 수 있다.The motion determination unit 700 may generate a motion determination result according to the type of motion of the user's motion.

예를 들면, 두 손가락만을 편 상태로 왼쪽/오른쪽으로 움직이는 동작은 채널을 변경하는 것으로 동작 판단 결과를 생성할 수 있고, 위/아래로 움직이는 동작은 볼륨을 조절하는 것으로 동작 판단 결과를 생성할 수 있으며, 앞/뒤로 움직이는 동작은 영상을 정지 또는 다시 시작하는 것으로 동작 판단 결과를 생성할 수 있다.For example, moving left/right with only two fingers open can generate a motion judgment result by changing the channel, and moving up/down can generate a motion judgment result by adjusting the volume. In addition, the motion of moving forward/backward may generate a motion determination result by stopping or restarting the image.

위의 동작 판단 결과를 이해를 위해 예를 든 것일 뿐이며, 손가락을 펼친 상태나 좌우, 상하 움직임에 따라서 동작 판단 결과는 달라질 수 있다.The above motion determination result is merely an example for understanding, and the motion determination result may vary according to a finger spreading state, left/right, vertical movement.

도 5는 사용자가 복수인 경우에 외부 장치를 조작하는 모습을 나타내는 도면이다.5 is a diagram illustrating a state in which an external device is operated when there are a plurality of users.

도 5를 참조하면, 동작 인식 기반 조작 장치(10)의 사용자가 복수인 경우사용자 검출부(300), 움직임 인식부(500), 동작 판단부(700) 및 조작부(900)는 별개의 동작을 수행하게 된다.Referring to FIG. 5, when there are multiple users of the motion recognition-based manipulation device 10, the user detection unit 300, the motion recognition unit 500, the motion determination unit 700, and the operation unit 900 perform separate operations. Is done.

사용자 검출부(300)는 복수의 사용자가 인식되면, 사용자가 위치한 영역을 모두 검출할 수 있다.When a plurality of users are recognized, the user detection unit 300 may detect all regions in which the user is located.

움직임 인식부(500)는 검출된 사용자가 위치한 영역이 복수 개이면, 각각의 영역에서 사용자의 움직임이 있는지 여부를 인식할 수 있다.If there are a plurality of regions in which the detected user is located, the motion recognition unit 500 may recognize whether or not there is a user's movement in each region.

동작 판단부(700)는 움직임 인식부에서 복수의 사용자의 움직임이 인식되면, 각각에 대해 사용자의 움직임이 어떤 종류의 동작인지 인식하고, 각각의 인식된 동작에 대응하여 복수 개의 동작 판단 결과를 생성할 수 있다.When the motion recognition unit recognizes the motions of a plurality of users, the motion determination unit 700 recognizes what kind of motion is the user's motion for each, and generates a plurality of motion determination results in response to each recognized motion. can do.

조작부(900)는 동작 판단 결과가 두 개 이상이면, 정해진 알고리즘에 따라 동작 판단 결과를 선별하고, 선별된 동작 판단 결과에 따라 조작할 외부 장치를 선택한 후, 해당 외부 장치를 조작할 수 있다.If the operation determination result is two or more, the operation determination result may be selected according to a predetermined algorithm, the operation unit 900 may select an external device to be operated according to the selected operation determination result, and then operate the corresponding external device.

조작부(900)는 병렬 처리를 통해 동시에 생성된 동작 판단 결과가 두 개 이상인 경우 동일한 장치에 대해서 동일한 조작 또는 상반되는 조작을 수행할 수 있으므로 동작 판단 결과가 하나인 경우와 두 개 이상인 경우인지를 판단할 수 있다.The operation unit 900 can perform the same operation or contradictory operation on the same device when there are two or more results of operation determination simultaneously generated through parallel processing, so it determines whether the operation determination result is one or two or more. can do.

조작부(900)는 동작 판단 결과가 하나인 경우에는 해당 동작 판단 결과에 따라 조작을 수행하면 되기 때문에 해당 동작 판단 결과를 조작을 수행할 동작 판단 결과로 선별할 수 있다.When the operation determination result is one, the manipulation unit 900 may select the operation determination result as a result of determining the operation to be performed because the operation may be performed according to the operation determination result.

조작부(900)는 동작 판달 결과가 두 개 이상인 경우에는 각각의 동작 판단 결과가 별개의 외부 장치를 조작하는 것인지, 동일한 외부 장치를 조작하는 것인지를 판단할 수 있다.When the operation determination result is two or more, the operation unit 900 may determine whether each operation determination result is to operate a separate external device or the same external device.

조작부(900)는 복수의 동작 판단 결과가 별개의 외부 장치를 조작하는 것이면, 각각의 동작 판달 결과에 따라 외부 장치를 조작하면 된다. 따라서 각각의 동작 판단 결과를 조작을 수행할 동작 판단 결과로 선별할 수 있다.If the result of determining the plurality of operations is to manipulate separate external devices, the manipulation unit 900 may manipulate the external devices according to the results of each operation determination. Therefore, each operation determination result can be selected as an operation determination result to perform the manipulation.

조작부(900)는 복수의 동작 판단 결과가 동일한 외부 장치를 조작하는 것이면, 동일한 조작을 수행하는지 여부를 판단할 수 있다. 이는 동일한 조작을 수행하는 경우 동시에 생성된 동작 판단 결과에 따른 조작을 연속적으로 수행해야 하기 때문이다.If the result of determining the plurality of operations is that the same external device is operated, the manipulation unit 900 may determine whether to perform the same operation. This is because when the same operation is performed, the operation according to the result of determining the simultaneously generated operation must be continuously performed.

조작부(900)는 복수의 동작 판단 결과가 동일한 장치에 대해 동일한 조작을 수행하는 경우에는 복수의 동작 판단 결과에 따라 조작하려는 외부 장치와 거리가 가까운 순서대로 사용자의 동작 판단 결과를 선별하여 조작을 수행하게 할 수 있다.In the case of performing the same operation on a device having a plurality of operation determination results, the operation unit 900 selects the user's operation determination result in the order of close distance to the external device to be operated according to the plurality of operation determination results and performs the operation. I can do it.

조작부(900)는 복수의 동작 판단 결과가 동일한 외부 장치를 조작하는 것이면, 상반된 조작을 수행하는지 여부를 판단할 수 있다 상반된 조작을 수행하는 경우 둘 다 수행할 경우 결과적으로 하나도 수행하지 않는 것과 동일한 결과가 되므로 어느 하나의 동작 판단 결과만을 선별해서 조작을 수행하기 위한 것이다.If the result of determining a plurality of operations is to manipulate the same external device, the operation unit 900 may determine whether to perform contradictory operations. When performing contradictory operations, if both are performed, as a result, the same result as not performing one Therefore, it is to select only one operation determination result and perform the operation.

조작부(900)는 복수의 동작 판단 결과가 동일한 장치에 대해 상반된 조작을 수행하는 경우에는 조작하려는 외부 장치와 거리가 가장 가까운 곳에 위치하는 사용자의 동작 판단 결과를 선별할 수 있다.When a plurality of operation determination results are different from each other on the same device, the operation unit 900 may select a user's operation determination result located at the closest distance to the external device to be operated.

그렇지 않은 경우는 동일한 장치에 대해 동일한 조작도 아니고, 상반된 조작도 아니므로 각각 수행하면 된다. 따라서 각각의 동작 판단 결과를 선별하여 조작을 수행하게 된다.Otherwise, it is not the same operation for the same device, and it is not an opposite operation, so you can perform each operation. Therefore, the operation is performed by selecting each operation determination result.

첫 번째 예로, 복수개의 동작 판단 결과가 별개의 외부 장치를 조작하려는 경우이다.A first example is a case where a plurality of operation determination results attempt to manipulate separate external devices.

사용자 1(d1)은 셋톱 박스(d3)의 채널을 변경하기를 원하고, 사용자 2(d2)는 라디오(d4)의 볼륨을 변경하기를 원하는 경우이다.User 1 (d1) wants to change the channel of the set-top box (d3), and user 2 (d2) wants to change the volume of the radio (d4).

이 경우 사용자 1(d1)에 대한 동작 판단 결과에 따라 셋톱 박스(d3)의 채널을 변경하게 되고, 사용자 2(d2)에 대한 동작 판단 결과에 따라 라디오(d4)의 볼륨을 변경하게 된다.In this case, the channel of the set-top box d3 is changed according to the operation determination result of user 1 (d1), and the volume of the radio d4 is changed according to the operation determination result of user 2 (d2).

두 번째 예로, 복수 개의 동작 판단 결과가 동일한 외부 장치를 조작하려는 것이고, 복수 개의 동작 판단 결과가 동일한 조작을 수행하려는 것이면, 외부 장치와 가까운 사용자의 순서대로 동작 판단 결과를 선별하여 조작을 수행할 수 있다.As a second example, if a plurality of operation determination results are intended to operate the same external device, and a plurality of operation determination results are intended to perform the same operation, the operation may be performed by selecting the operation determination result in the order of the user close to the external device. have.

예를 들면, 사용자 1(d1)과 사용자 2(d2) 모두가 셋톱 박스(d3)의 볼륨을 올리기를 원하는 경우이다.For example, when both user 1 (d1) and user 2 (d2) want to increase the volume of the set-top box d3.

조작하려는 외부 장치는 셋톱 박스(d3)이므로, 우선적으로 셋톱 박스(d3)와 사용자 1(d1)과의 거리(dist_d1)와 셋톱 박스(d3)와 사용자 2(d2)와의 거리(dist_d2)를 구한다. Since the external device to be operated is the set-top box (d3), first, the distance between the set-top box (d3) and user 1 (d1) (dist_d1) and the set-top box (d3) and user 2 (d2) (dist_d2) is obtained. .

각각의 거리(dist_d1, dist_d2)를 비교하여 셋톱 박스(d3)와 가까운 곳에 위치한 사용자 2(d2)에 대한 동작 판단 결과에 따라 셋톱 박스(d3)의 볼륨을 올리게 되고, 그 다음으로 사용자 1(d1)에 대한 동작 판단 결과에 따라 셋톱 박스(d3)의 볼륨을 다시 한번 올리게 된다.By comparing each distance (dist_d1, dist_d2), the volume of the set-top box (d3) is increased according to the operation determination result of the user 2 (d2) located close to the set-top box (d3), and then the volume of the set-top box (d3) is increased. ), the volume of the set-top box (d3) is raised again.

세 번째 예로, 복수개의 동작 판단 결과가 동일한 외부 장치를 조작하려는 경우로, 상반된 조작을 수행하려는 경우이다.A third example is a case where a plurality of operation determination results are attempted to operate an external device with the same, and a case where the opposite operation is to be performed.

조작부(900)는 복수 개의 동작 판단 결과가 동일한 외부 장치를 조작하려는 것이고, 복수 개의 동작 판단 결과가 상반된 조작을 수행하려는 것이면, 외부 장치와 가장 가까운 곳에 위치하는 사용자의 동작 판단 결과를 수행할 수 있다.If the plurality of operation determination results are intended to manipulate the same external device, and the plurality of operation determination results are intended to perform contradictory operations, the operation unit 900 may perform the operation determination result of a user located closest to the external device. .

예를 들면, 사용자 1(d1)은 셋톱 박스(d3)의 볼륨을 올리기를 원하고, 사용자 2(d2)는 셋톱 박스(d3)의 볼륨을 내리기를 원하는 경우이다.For example, user 1 (d1) wants to increase the volume of the set-top box (d3), and user 2 (d2) wants to decrease the volume of the set-top box (d3).

조작하려는 외부 장치는 셋톱 박스(d3)이므로, 우선적으로 셋톱 박스(d3)와 사용자 1(d1)과의 거리(dist_d1)와 셋톱 박스(d3)와 사용자 2(d2)와의 거리(dist_d2)를 구한다. Since the external device to be operated is the set-top box (d3), first, the distance between the set-top box (d3) and user 1 (d1) (dist_d1) and the set-top box (d3) and user 2 (d2) (dist_d2) is obtained. .

각각의 거리(dist_d1, dist_d2)를 비교하여 셋톱 박스(d3)와 가까운 곳에 위치한 사용자는 사용자 2(d2)이므로 사용자 2(d2)에 대한 동작 판단 결과에 따라 셋톱 박스(d3)의 볼륨을 내리게 된다.The user 2 (d2) located near the set-top box (d3) by comparing each distance (dist_d1, dist_d2) is the user 2 (d2), so the volume of the set-top box (d3) is lowered according to the operation determination result of the user 2 (d2). .

네 번째 예로, 복수개의 동작 판단 결과가 동일한 외부 장치를 조작하려는 경우로, 전혀 다른 조작을 수행하려는 경우이다.A fourth example is a case in which a plurality of operation determination results are attempted to operate an external device having the same, and a completely different operation is performed.

예를 들면, 사용자 1(d1)은 셋톱 박스(d3)의 볼륨을 올리기를 원하고, 사용자 2(d2)는 셋톱 박스(d3)의 채널을 변경하기를 원하는 경우를 가정한다.For example, it is assumed that user 1 (d1) wants to increase the volume of the set-top box d3, and user 2 (d2) wants to change the channel of the set-top box d3.

이 경우 사용자 1(d1)에 대한 동작 판단 결과에 따라 셋톱 박스(d3)의 볼륨을 올리게 되고, 사용자 2(d2)에 대한 동작 판단 결과에 따라 셋톱 박스(d3)의 채널을 변경하게 된다.In this case, the volume of the set-top box d3 is increased according to the result of determining the operation of the user 1 (d1), and the channel of the set-top box d3 is changed according to the result of the determination of the operation of the user 2 (d2).

조작부(900)는 동작 판단 결과에 따라 적어도 하나의 외부 장치를 조작할 수 있다.The manipulation unit 900 may manipulate at least one external device according to an operation determination result.

외부 장치를 조작하는 것은 일반적인 가전 기기의 경우 적외선 리모컨에 의해 조작이 가능하므로 조작부(900)는 적외선으로 신호를 발신하는 것으로 외부 장치를 조작할 수 있다.In the case of a general home appliance, the external device can be manipulated by an infrared remote control, so the operation unit 900 can operate the external device by transmitting a signal in infrared.

조작부(900)는 동작 판단부(700)의 동작 판단 결과가 하나의 장치를 조작하는 것인지 두 대 이상의 장치를 조작하는 것인지 판단할 수 있다.The operation unit 900 may determine whether the operation determination result of the operation determination unit 700 is to operate one device or two or more devices.

조작부(900)는 조작할 수 있는 외부 장치가 한 대인 경우에는 해당 외부 장치를 조작 대상이 되는 외부 장치로 선택할 수 있다.When there is one external device that can be manipulated, the manipulation unit 900 may select the corresponding external device as an external device to be operated.

조작부(900)는 조작할 수 있는 외부 장치가 두 대 이상이면, 해당되는 외부 장치 중에서 전원 인가된 장치가 두 대 이상인지 판단할 수 있다. If there are two or more external devices that can be manipulated, the manipulation unit 900 may determine whether there are two or more powered devices among the corresponding external devices.

일반적으로 사용자가 손을 움직이는 경우 하나의 외부 장치를 조작하려는 것으로 판단할 수 있기 때문에 외부 장치가 한 대인지 두 대 이상인지를 구분하여 조작을 수행하게 된다.In general, when a user moves his or her hand, it can be determined that he intends to manipulate one external device. Therefore, the operation is performed by distinguishing whether there is one external device or two or more external devices.

이 때, 조작부(900)는 하나의 외부 장치에만 전원이 인가된 경우에는 전원이 인가된 외부 장치를 조작 대상 장치로 선택할 수 있다.In this case, when power is applied to only one external device, the manipulation unit 900 may select the external device to which the power is applied as the manipulation target device.

전원이 인가된 외부 장치가 두 대 이상인 경우에는 미리 설정된 모드를 확인하여 조작 대상 장치로 하나의 외부 장치를 선택할 수 있다. 모드는 미리 설정할 수 있고, 사용자의 손의 움직임에 따라 차후에 변경할 수 있다.When there are two or more external devices to which power is applied, one external device may be selected as a target device by checking a preset mode. The mode can be set in advance and can be changed later according to the movement of the user's hand.

설정된 모드에 따라 하나의 외부 장치를 조작하는 방법과 관련하여 이하에서 도 6과 함께 설명한다. A method of operating one external device according to the set mode will be described below with reference to FIG. 6.

도 6은 본 발명에 따른 동작 판단 결과가 복수의 외부 장치를 조작할 수 있는 경우 대상이 하나의 외부 장치를 조작하는 모습을 나타내는 도면이다.6 is a diagram illustrating a state in which a target manipulates one external device when a result of determining an operation according to the present invention can manipulate a plurality of external devices.

채널 변경은 프로젝터(e2), 텔레비전(e3), 셋톱 박스(e4) 및 라디오(e5)에 모두 적용될 수 있으므로 조작부(900)는 이 중에서 하나의 외부 장치를 선택해야 하므로, 이하에서는 동작 판단부(700)의 동작 판단 결과가 채널 변경인 경우를 예를 들어 설명한다.Since the channel change can be applied to all of the projector (e2), television (e3), set-top box (e4), and radio (e5), the operation unit 900 must select one external device from among them, and thus the operation determination unit ( A case where the result of determining the operation of 700) is a channel change will be described as an example.

도 6a를 참조하면, 조작부(900)는 영상에서 사용자와 사물과 같은 객체의 위치와 심도를 객체의 위치 정보 및 거리를 산출할 수 있다.Referring to FIG. 6A, the manipulation unit 900 may calculate location information and distance of the object by calculating the location and depth of the object such as a user and an object in the image.

조작부(900)는 사용자의 명령을 받기 전에 프로젝터(e2), 텔레비전(e3), 셋톱 박스(e4) 및 라디오(e5)와 같은 외부 장치와의 위치 관계를 파악할 수 있고, 파악된 위치관계에 따라 외부 장치의 위치를 평면상에 X좌표와 Y좌표로 지정할 수 있다.Before receiving a user's command, the control unit 900 can determine the positional relationship with external devices such as the projector (e2), television (e3), set-top box (e4), and radio (e5), and according to the identified positional relationship. The location of the external device can be specified in the X coordinate and Y coordinate on the plane.

일 실시예에서, 조작부(900)는 설정된 모드가 거리 우선 모드인 경우, 사용자와 가까운 곳에 위치하는 외부 장치를 조작할 수 있다(도 6c 참조).In an embodiment, when the set mode is a distance priority mode, the manipulation unit 900 may operate an external device located close to the user (see FIG. 6C ).

조작부(900)는 상술하는 위치 정보 및 거리를 이용하여 사용자와 외부 장치와의 거리를 구하고, 가장 가까운 곳에 위치하는 외부 장치를 선택하여 조작할 수 있다.The manipulation unit 900 may obtain a distance between a user and an external device using the above-described location information and distance, and select and operate an external device located at the nearest location.

이 경우 미리 파악한 좌표로부터 거리를 계산할 수 있고, 이 결과에 따라 가장 작은 값을 가지는 장치인 라디오(e5)를 선택하여 조작할 수 있다.In this case, the distance can be calculated from the coordinates determined in advance, and according to the result, the radio e5, which is the device having the smallest value, can be selected and operated.

일 실시예에서, 조작부(900)는 설정된 모드가 시선 우선 모드인 경우, 사용자의 시선 방향에 위치하는 외부 장치를 조작할 수 있다(도 6d 참조).In an embodiment, when the set mode is the gaze priority mode, the manipulation unit 900 may manipulate an external device located in the user's gaze direction (see FIG. 6D ).

조작부(900)는 상술하는 위치 정보에 따라 사용자의 위치를 구하고, 사용자의 얼굴이 위치한 영역의 영상으로부터 사용자의 시선 방향을 구하여 사용자의 시선 방향에 위치하는 외부 장치를 선택하여 조작할 수 있다.The manipulation unit 900 may obtain a user's location according to the above-described location information, obtain a user's gaze direction from an image of an area where the user's face is located, and select and manipulate an external device located in the user's gaze direction.

도 6d를 참조하면, 사용자(e1)는 왼쪽에 위치한 프로젝터(e2)를 바라보고 있으므로 조작부(900)는 프로젝터를 선택하여 조작할 수 있다.Referring to FIG. 6D, since the user e1 is looking at the projector e2 located on the left, the operation unit 900 can select and operate the projector.

일 실시예에서, 조작부(900)는 설정된 모드가 손 방향 우선 모드인 경우, 사용자의 손이 가리키는 방향에 위치하는 외부 장치를 조작할 수 있다(도 6e 참조).In an embodiment, when the set mode is a hand direction priority mode, the manipulation unit 900 may manipulate an external device positioned in the direction indicated by the user's hand (see FIG. 6E).

조작부(900)는 상술하는 위치 정보에 따라 사용자의 위치를 구하고, 사용자의 손이 가리키는 방향을 구하여 사용자의 손의 방향에 위치하는 외부 장치를 선택하여 조작할 수 있다.The manipulation unit 900 may obtain a user's location according to the above-described location information, obtain a direction indicated by the user's hand, and select and manipulate an external device located in the direction of the user's hand.

도 6e에서 사용자(e1)는 정면에 위치한 텔레비전(e3)을 가리키고 있으므로 조작부(900)는 텔레비전(e3)을 선택하여 조작할 수 있다.In FIG. 6E, since the user e1 points to the television e3 located in front, the operation unit 900 can select and operate the television e3.

도 7은 본 발명의 일 실시예에 따른 동작 인식 기반 조작 방법을 나타내는 순서도이다.7 is a flowchart illustrating a gesture recognition-based manipulation method according to an embodiment of the present invention.

본 발명에 따른 동작 인식 기반 조작 방법은 상술한 본 발명에 따른 동작 인식 기반 조작 장치(10)에 의해 수행될 수 있다. 이를 위해, 본 발명에 따른 동작 인식 기반 조작 장치(10)는 후술하는 동작 인식 기반 조작 방법을 구성하는 각 단계를 수행하기 위한 애플리케이션(소프트웨어)이 미리 설치될 수 있다. 예를 들어, 사용자의 컴퓨터에는 본 발명에 따른 동작 인식 기반 조작 방법에 대한 플랫폼이 소프트웨어의 형태로 미리 설치될 수 있으며, 사용자는 컴퓨터에 설치된 소프트웨어를 실행하여 본 발명에 따른 동작 인식 기반 조작 방법이 제공하는 다양한 서비스를 제공받을 수 있다.The gesture recognition-based manipulation method according to the present invention may be performed by the gesture recognition-based manipulation device 10 according to the present invention. To this end, in the motion recognition-based manipulation device 10 according to the present invention, an application (software) for performing each step of configuring a motion recognition-based manipulation method to be described later may be installed in advance. For example, a platform for a motion recognition-based manipulation method according to the present invention may be pre-installed in the user's computer in the form of software, and the user executes the software installed on the computer to provide a motion recognition-based manipulation method according to the present invention. You can receive various services provided.

도 7을 참조하면, 동작 인식 기반 조작 장치(10)는 촬영 단계(S1100), 사용자를 인식하고, 검출하는 단계(S1200), 사용자의 움직임을 인식하는 단계(S1300), 사용자의 움직임의 종류를 인식하고, 동작 판단 결과를 생성하는 단계(S1400), 동작 판단 결과를 선별하는 단계(S1500), 외부 장치를 선택하는 단계(S1600) 및 동작 판단 결과에 따라 외부 장치를 조작하는 단계(S1700)를 포함할 수 있다.Referring to FIG. 7, the motion recognition-based manipulation device 10 includes a photographing step (S1100), a step of recognizing and detecting a user (S1200), a step of recognizing a user's motion (S1300), and the type of the user's motion. Recognizing and generating an operation determination result (S1400), selecting an operation determination result (S1500), selecting an external device (S1600), and operating an external device according to the operation determination result (S1700) Can include.

동작 인식 기반 조작 장치(10)는 객체를 촬영할 수 있고(S1100), 학습 네트워크 모델을 이용하여 촬영된 객체가 사용자인지 인식하고, 사용자가 위치한 영역을 검출할 수 있다(S1200).The motion recognition-based manipulation device 10 may capture an object (S1100), recognize whether the captured object is a user using a learning network model, and detect an area in which the user is located (S1200).

동작 인식 기반 조작 장치(10)는 사용자가 위치한 영역에서 특정 시점의 프레임과 임계 시간 후의 프레임을 비교하여 변화량을 산출하고, 변화량이 임계값보다 크면 사용자의 움직임으로 인식할 수 있다(S1300).The motion recognition-based manipulation device 10 calculates a change amount by comparing a frame at a specific point in time and a frame after a threshold time in the region where the user is located, and recognizes that the change amount is greater than the threshold value as the user's movement (S1300).

동작 인식 기반 조작 장치(10)는 학습 네트워크 모델을 이용하여 사용자의 움직임이 어떤 종류의 동작인지 인식하고, 인식된 동작에 대응하는 동작 판단 결과를 생성할 수 있다(S1400).The motion recognition-based manipulation device 10 may recognize what kind of motion is the user's motion using the learning network model, and may generate a motion determination result corresponding to the recognized motion (S1400).

동작 인식 기반 조작 장치(10)는 동시에 생성된 동작 판단 결과가 두 개 이상인 경우 동작 판단 결과를 하나 이상 선별할 수 있다(S1500).The motion recognition-based manipulation device 10 may select one or more motion determination results when there are two or more simultaneous motion determination results (S1500).

동작 인식 기반 조작 장치(10)는 동작 판단 결과에 의해 조작 대상이 되는 외부 장치가 두 대 이상인 경우 하나의 외부 장치를 선택할 수 있다(S1600).The motion recognition-based manipulation device 10 may select one external device when there are two or more external devices to be manipulated based on a result of the motion determination (S1600).

동작 인식 기반 조작 장치(10)는 동작 판단 결과에 따라 적어도 하나의 외부 장치를 조작할 수 있다(S1700).The motion recognition-based manipulation device 10 may manipulate at least one external device according to a result of the motion determination (S1700).

상술한 각 단계들(S1100 내지 S1700)에 대한 구체적인 설명은 도 1 내지 도 6을 참조하여 상술하였으므로, 반복되는 설명은 생략하기로 한다.A detailed description of the above-described steps S1100 to S1700 has been described above with reference to FIGS. 1 to 6, and thus repeated descriptions will be omitted.

도 8은 본 발명에 따른 사용자가 복수인 경우에 동시에 생성된 동작 판단 결과가 두 개 이상인 경우 동작 판단 결과를 하나 이상 선별하는 단계를 세분화한 순서도이다.FIG. 8 is a flow chart subdividing the step of selecting one or more motion determination results when there are two or more simultaneous motion determination results when there are multiple users according to the present invention.

도 8을 참조하면, 동작 인식 기반 조작 방법은 사용자가 복수인 경우 사용자를 인식하고, 복수개의 영역을 검출하는 단계(S1200), 복수 개의 사용자의 움직임을 인식하는 단계(S1300), 사용자의 움직임의 종류를 인식하고, 복수 개의 동작 판단 결과를 생성하는 단계(S1400), 복수 개의 동작 판단 결과 중에서 하나 이상의 동작 판단 결과를 선별하는 단계(S1500), 선별된 동작 판단 결과에 따라 조작이 대상이 되는 하나의 외부 장치를 선택하는 단계(S1600) 및 선별된 동작 판단 결과에 따라 선택된 외부 장치를 조작하는 단계(S1700)를 수행하게 된다.Referring to FIG. 8, in the operation recognition-based manipulation method, when there are multiple users, recognizing a user and detecting a plurality of regions (S1200), recognizing movements of a plurality of users (S1300), and Recognizing the type and generating a plurality of motion determination results (S1400), selecting one or more motion determination results from among a plurality of motion determination results (S1500), one subject to manipulation according to the selected motion determination result Selecting the external device of (S1600) and manipulating the selected external device according to the selected operation determination result (S1700) are performed.

사용자가 두 명 이상인 경우에는 사용자를 인식하고, 검출하는 단계(S1200), 사용자의 움직임을 인식하는 단계(S1300) 및 사용자의 움직임의 종류를 인식하고, 동작 판단 결과를 생성하는 단계(S1400)는 각각의 사용자에 대해 사용자가 한 명인 경우와 동일한 동작을 수행하되, 병렬 처리를 통해 동시에 수행할 수 있다.When there are two or more users, the step of recognizing and detecting the user (S1200), the step of recognizing the user's movement (S1300), and the step of recognizing the type of the user's movement and generating a motion determination result (S1400) are For each user, the same operation as in the case of one user is performed, but can be performed simultaneously through parallel processing.

두 명 이상의 사용자가 동시에 손을 움직여 조작을 시도하는 경우 별도의 절차가 필요하다(S1500).When two or more users simultaneously move their hands to attempt manipulation, a separate procedure is required (S1500).

병렬 처리를 통해 동시에 생성된 동작 판단 결과가 두 개 이상인 경우 동일한 장치에 대해서 동일한 조작 또는 상반되는 조작을 수행할 수 있으므로 동작 판단 결과가 하나인 경우와 두 개 이상인 경우인지를 판단한다(S1510).If there are two or more results of determining an operation simultaneously generated through parallel processing, the same operation or a contrary operation may be performed on the same device, so it is determined whether there is one or more than one operation determination result (S1510).

동작 판단 결과가 하나인 경우에는 해당 동작 판단 결과에 따라 조작을 수행하면 되기 때문에 하나의 동작 판단 결과를 조작을 수행할 동작 판단 결과로 선별할 수 있다(S1590).If there is only one operation determination result, the operation may be performed according to the corresponding operation determination result, so that one operation determination result may be selected as the operation determination result to perform the operation (S1590).

동작 판달 결과가 두 개 이상인 경우에는 각각의 동작 판단 결과가 별개의 외부 장치를 조작하는 것인지, 동일한 외부 장치를 조작하는 것인지를 판단한다(S1530).When the result of determining the operation is more than two, it is determined whether the operation determination result is to operate a separate external device or the same external device (S1530).

복수의 동작 판단 결과가 별개의 외부 장치를 조작하는 것이면, 각각의 동작 판달 결과에 따라 외부 장치를 조작하면 된다. 따라서 각각의 동작 판단 결과를 조작을 수행할 동작 판단 결과로 선별할 수 있다(S1590).If the result of determining a plurality of motions is to manipulate separate external devices, the external devices may be operated according to the results of each operation determination. Accordingly, each operation determination result may be selected as an operation determination result to perform the manipulation (S1590).

복수의 동작 판단 결과가 동일한 외부 장치를 조작하는 것이면, 동일한 조작을 수행하는지 여부를 판단할 수 있다(S1550). 이러한 판단은 동일한 조작을 수행하는 경우 동시에 생성된 동작 판단 결과에 따른 조작을 연속적으로 수행해야 하기 때문이다(S1550).If the result of determining the plurality of operations is to manipulate the same external device, it may be determined whether the same operation is performed (S1550). This determination is because when the same operation is performed, the operation according to the result of determining the simultaneously generated operation must be continuously performed (S1550).

복수의 동작 판단 결과가 동일한 장치에 대해 동일한 조작을 수행하는 경우에는 복수의 동작 판단 결과에 따라 조작하려는 외부 장치와 거리가 가까운 순서대로 사용자의 동작 판단 결과를 선별하여 조작을 수행하게 할 수 있다(S1560).When the same operation is performed on a device with a plurality of operation determination results, the operation may be performed by selecting the user's operation determination result in an order of close distance to the external device to be operated according to the plurality of operation determination results ( S1560).

복수의 동작 판단 결과가 동일한 외부 장치를 조작하는 것이면, 상반된 조작을 수행하는지 여부를 판단할 수 있다(S1570) 상반된 조작을 수행하는 경우 둘 다 수행할 경우 결과적으로 하나도 수행하지 않는 것과 동일한 결과가 되므로 어느 하나의 동작 판단 결과만을 선별해서 조작을 수행하기 위한 것이다(S1570).If the result of determining a plurality of operations is to manipulate the same external device, it may be determined whether or not contradictory operations are performed (S1570) In case of performing contradictory operations, if both are performed, the result is the same as not performing one of them. The operation is performed by selecting only the result of determining any one operation (S1570).

복수의 동작 판단 결과가 동일한 장치에 대해 상반된 조작을 수행하는 경우에는 조작하려는 외부 장치와 거리가 가장 가까운 곳에 위치하는 사용자의 동작 판단 결과를 선별할 수 있다(S1580).When a plurality of operation determination results are performed on the same device in contradictory operation, the operation determination result of the user located at the closest distance to the external device to be operated may be selected (S1580).

그렇지 않은 경우는 동일한 장치에 대해 동일한 조작도 아니고, 상반된 조작도 아니므로 각각 수행하면 된다. 따라서 각각의 동작 판단 결과를 조작을 수행할 동작 판단 결과로 선별하게 된다(S1590).Otherwise, it is not the same operation for the same device, and it is not an opposite operation, so you can perform each operation. Therefore, each operation determination result is selected as an operation determination result to perform the manipulation (S1590).

상술한 각 단계들(S1500 내지 S1590)에 대한 구체적인 설명은 도 5를 참조하여 상술하였으므로, 반복되는 설명은 생략하기로 한다.A detailed description of each of the above-described steps S1500 to S1590 has been described with reference to FIG. 5, and thus a repeated description will be omitted.

도 9는 본 발명에 따른 동작 판단 결과에 의해 조작 대상이 되는 외부 장치가 두 대 이상인 경우 하나의 외부 장치를 선택하는 방법을 세분화한 순서도이다.9 is a detailed flowchart illustrating a method of selecting one external device when there are two or more external devices to be manipulated based on a result of operation determination according to the present invention.

도 9를 참조하면, 동작 판단 결과가 복수의 외부 장치를 조작할 수 있는 경우에 설정된 모드에 따라 하나의 외부 장치를 조작할 수 있다.Referring to FIG. 9, when the operation determination result is that a plurality of external devices can be manipulated, one external device may be manipulated according to a set mode.

상기 동작 판단 결과에 따라 조작할 수 있는 외부 장치 중에서 전원이 인가된 장치가 두 대 이상인지 판단할 수 있다(S1610). According to the operation determination result, it may be determined whether there are two or more devices to which power is applied among the external devices that can be manipulated (S1610).

일반적으로 사용자가 손을 움직이는 경우 하나의 외부 장치를 조작하려는 것으로 판단할 수 있기 때문에 외부 장치가 한 대인지 두 대 이상인지를 구분하여 조작을 수행하게 된다.In general, when a user moves his or her hand, it can be determined that he intends to manipulate one external device. Therefore, the operation is performed by distinguishing whether there is one external device or two or more external devices.

이 때, 조작할 수 있는 외부 장치가 한 대인 경우에는 해당 외부 장치를 조작 대상이 되는 외부 장치로 선택할 수 있다(S1620).In this case, when there is only one external device that can be operated, the external device may be selected as an external device to be operated (S1620).

조작할 수 있는 외부 장치가 두 대 이상인 경우에는 해당 외부 장치에 전원 인가되었는지를 판단하고(S1630), 그 중에서 하나의 장치를 선택해야 한다.When there are two or more external devices that can be manipulated, it is determined whether power is applied to the external device (S1630), and one of them must be selected.

전원이 인가되지 않은 장치는 조작을 수행할 수 없고, 사용자의 의도는 현재 전원이 인가된 장치를 조작하려는 것으로 판단할 수 있기 때문이다.This is because the device to which the power is not applied cannot perform the operation, and the intention of the user may be determined to attempt to operate the device to which the power is currently applied.

이 때, 하나의 외부 장치에만 전원이 인가된 경우에는 전원이 인가된 외부 장치를 조작 대상 장치로 선택할 수 있다(S1640).In this case, when power is applied to only one external device, the external device to which the power is applied may be selected as the manipulation target device (S1640).

전원이 인가된 외부 장치가 두 대 이상인 경우에는 미리 설정된 모드를 확인하여 조작 대상 장치로 하나의 외부 장치를 선택할 수 있다(S1650). 모드는 미리 설정할 수 있고, 사용자의 손의 움직임에 따라 차후에 변경할 수 있다.When there are two or more external devices to which power is applied, one external device may be selected as the manipulation target device by checking a preset mode (S1650). The mode can be set in advance and can be changed later according to the movement of the user's hand.

외부 장치 선택을 위해서 설정 가능한 모드는 거리 우선 모드, 손 방향 우선 모드 및 시선 우선 모드가 있다.Modes that can be set for selecting an external device include a distance priority mode, a hand direction priority mode, and a gaze priority mode.

설정된 모드가 거리 우선 모드인 경우, 사용자와 가까운 곳에 위치하는 외부 장치를 조작 대상 장치로 선택할 수 있다(S1661).When the set mode is the distance priority mode, an external device located close to the user may be selected as the manipulation target device (S1661).

설정된 모드가 손 방향 우선 모드인 경우, 사용자의 손이 가리키는 방향에 위치하는 외부 장치를 조작 대상 장치로 선택할 수 있다(S1663).When the set mode is the hand direction priority mode, an external device located in the direction indicated by the user's hand may be selected as the manipulation target device (S1663).

설정된 모드가 시선 우선 모드인 경우, 사용자의 시선 방향에 위치하는 외부 장치를 조작 대상 장치로 선택할 수 있다(S1663).When the set mode is the gaze priority mode, an external device located in the user's gaze direction may be selected as the manipulation target device (S1663).

이상에서는 실시예들을 참조하여 설명하였지만, 해당 기술 분야의 숙련된 당업자는 하기의 특허 청구범위에 기재된 본 발명의 사상 및 영역으로부터 벗어나지 않는 범위 내에서 본 발명을 다양하게 수정 및 변경시킬 수 있음을 이해할 수 있을 것이다.Although the above has been described with reference to embodiments, those skilled in the art will understand that various modifications and changes can be made to the present invention without departing from the spirit and scope of the present invention described in the following claims. I will be able to.

상술한 각 단계들(S1610 내지 S1665)에 대한 구체적인 설명은 도 6을 참조하여 상술하였으므로, 반복되는 설명은 생략하기로 한다.A detailed description of each of the above-described steps S1610 to S1665 has been described with reference to FIG. 6, and thus a repeated description will be omitted.

10: 동작 인식 기반 조작 장치
100: 영상 입력부
200: 사용자 검출부
300: 움직임 인식부
400: 동작 판단부
500: 조작부
10: motion recognition based manipulation device
100: video input unit
200: user detection unit
300: motion recognition unit
400: operation determination unit
500: control panel

Claims (15)

객체를 촬영하는 영상 입력부;
학습 네트워크 모델을 이용하여 상기 영상 입력부에 의해 촬영된 객체가 사용자인지 인식하고, 사용자가 위치한 영역을 검출하는 사용자 검출부;
상기 사용자 검출부에서 검출된 사용자가 위치한 영역에서 특정 시점의 프레임과 특정 시점으로부터 임계 시간 지난 후의 프레임을 비교하여 변화량을 산출하고, 상기 변화량이 임계값보다 크면 사용자의 움직임으로 인식하는 움직임 인식부;
학습 네트워크 모델을 이용하여 상기 사용자의 움직임이 어떤 종류의 동작인지 인식하고, 인식된 동작에 대응하는 동작 판단 결과를 생성하는 동작 판단부; 및
상기 동작 판단부의 동작 판단 결과에 따라 적어도 하나의 외부 장치를 조작하는 조작부;를 포함하되,
상기 사용자 검출부는, 복수의 사용자가 인식되면, 사용자가 위치한 영역을 모두 검출하고,
상기 움직임 인식부는 상기 검출된 사용자가 위치한 영역이 복수 개이면, 각각의 영역에서 복수의 사용자의 움직임을 인식하며,
상기 동작 판단부는 상기 복수의 사용자의 움직임이 인식되면, 각각에 대해 사용자의 움직임이 어떤 종류의 동작인지 인식하고, 각각의 인식된 동작에 대응하여 복수 개의 동작 판단 결과를 생성하며,
상기 조작부는, 상기 동작 판단 결과가 복수 개이면, 각각의 동작 판단 결과에 따라 외부 장치를 조작하되, 상기 복수 개의 동작 판단결과가 동일한 외부 장치를 조작하는 것이면, 상기 각각의 동작 판단 결과를 비교하여 동일한 조작 또는 상반된 조작인지 확인하고, 동일한 조작을 수행하는 것이면 상기 외부장치와 복수의 사용자와의 거리에 따라 순서대로 복수의 사용자 모두의 동작 판단 결과에 따라 외부 장치를 조작하고, 상반된 조작을 수행하는 것이면 상기 외부장치와 복수의 사용자와의 거리에 따라 가장 가까운 곳에 위치하는 사용자의 동작 판단 결과에 따라 외부 장치를 조작하는 동작 인식 기반 조작 장치.
An image input unit for photographing an object;
A user detection unit that recognizes whether an object photographed by the image input unit is a user using a learning network model and detects an area in which the user is located;
A motion recognition unit that calculates a change amount by comparing a frame at a specific time point in a region where the user is located detected by the user detection unit and a frame after a threshold time has passed from the specific time point, and recognizes the change amount as a user's motion when the change amount is greater than a threshold value;
A motion determination unit that recognizes what kind of motion is the user's motion using a learning network model and generates a motion determination result corresponding to the recognized motion; And
Including; an operation unit for operating at least one external device according to the operation determination result of the operation determination unit,
When a plurality of users are recognized, the user detection unit detects all areas in which the user is located,
If there are a plurality of areas in which the detected user is located, the motion recognition unit recognizes the movements of the plurality of users in each area,
When the motion of the plurality of users is recognized, the motion determination unit recognizes what kind of motion is the user's motion for each, and generates a plurality of motion determination results in response to each recognized motion,
If the operation determination result is a plurality, the operation of the external device according to each operation determination result, but if the plurality of operation determination results are operating the same external device, compares the respective operation determination results Check whether the operation is the same or contradictory operation, and if the operation is performed the same, operate the external device according to the result of determining the operation of all of the plurality of users in order according to the distance between the external device and the plurality of users, and perform the opposite operation. If it is, a motion recognition-based manipulation device that manipulates an external device according to a result of determining a motion of a user located at the nearest location according to a distance between the external device and a plurality of users.
삭제delete 삭제delete 삭제delete 삭제delete 제 1 항에 있어서, 상기 조작부는,
상기 복수 개의 동작 판단 결과가 각각 별개의 외부 장치를 조작하려는 것이면, 각각의 동작 판단 결과에 따라 외부 장치를 조작하는, 동작 인식 기반 조작 장치.
The method of claim 1, wherein the operation unit,
If the plurality of operation determination results are to operate separate external devices, respectively, the operation recognition-based manipulation device is configured to operate the external device according to each operation determination result.
제 1 항에 있어서, 상기 조작부는,
상기 복수 개의 동작 판단 결과가 동일한 외부 장치를 조작하려는 것이고, 상기 복수 개의 동작 판단 결과가 동일한 조작을 수행하려는 것이면,
상기 외부 장치와 가까운 곳에 위치하는 사용자의 순서대로 복수의 사용자 모두의 동작 판단 결과에 따라 외부 장치를 조작하는, 동작 인식 기반 조작 장치.
The method of claim 1, wherein the operation unit,
If the plurality of operation determination results are intended to operate the same external device, and the plurality of operation determination results are to perform the same operation,
A motion recognition-based manipulation device for manipulating an external device according to a result of motion determination of all of a plurality of users in an order of a user located near the external device.
삭제delete 제 1 항에 있어서, 상기 조작부는,
상기 동작 판단 결과가 복수의 외부 장치를 조작할 수 있는 것이고, 상기 복수의 외부 장치에 전원이 인가되어 있으면, 설정된 모드에 따라 하나의 외부 장치를 조작하는, 동작 인식 기반 조작 장치.
The method of claim 1, wherein the operation unit,
If the result of the operation determination is that a plurality of external devices can be manipulated, and when power is applied to the plurality of external devices, one external device is operated according to a set mode.
제 9 항에 있어서, 상기 조작부는,
상기 설정된 모드가 거리 우선 모드인 경우, 사용자와 가까운 곳에 위치하는 외부 장치를 조작하는, 동작 인식 기반 조작 장치.
The method of claim 9, wherein the operation unit,
When the set mode is a distance priority mode, the operation recognition-based manipulation device operates an external device located close to a user.
제 9 항에 있어서, 상기 조작부는,
상기 설정된 모드가 시선 우선 모드인 경우, 사용자의 시선 방향에 위치하는 외부 장치를 조작하는, 동작 인식 기반 조작 장치.
The method of claim 9, wherein the operation unit,
When the set mode is a gaze priority mode, a gesture recognition-based manipulation device for manipulating an external device located in a user's gaze direction.
제 9 항에 있어서, 상기 조작부는,
상기 설정된 모드가 손 방향 우선 모드인 경우, 사용자의 손이 가리키는 방향에 위치하는 외부 장치를 조작하는, 동작 인식 기반 조작 장치.
The method of claim 9, wherein the operation unit,
When the set mode is a hand direction priority mode, a gesture recognition-based manipulation device for manipulating an external device positioned in a direction indicated by a user's hand.
동작 인식 기반 조작 장치에 의해 수행되는 동작 인식 기반 조작 방법에 있어서,
상기 동작 인식 기반 조작 장치가 객체를 촬영하는 단계;
상기 동작 인식 기반 조작 장치가 학습 네트워크 모델을 이용하여 상기 촬영된 객체가 사용자인지 인식하고, 사용자가 위치한 영역을 검출하는 단계;
상기 동작 인식 기반 조작 장치가 상기 사용자가 위치한 영역에서 특정 시점의 프레임과 임계 시간 후의 프레임을 비교하여 변화량을 산출하고, 상기 변화량이 임계값보다 크면 사용자의 움직임으로 인식하는 단계;
상기 동작 인식 기반 조작 장치가 학습 네트워크 모델을 이용하여 상기 사용자의 움직임이 어떤 종류의 동작인지 인식하고, 인식된 동작에 대응하는 동작 판단 결과를 생성하는 단계;
상기 동작 인식 기반 조작 장치가 상기 동작 판단 결과에 따라 외부 장치를 조작하는 단계;를 포함하되,
상기 사용자가 위치한 영역을 검출하는 단계는,
상기 동작 인식 기반 조작 장치가 복수의 사용자를 인식하면 사용자가 위치한 영역을 모두 검출하고,
상기 사용자의 움직임으로 인식하는 단계는,
상기 검출된 사용자가 위치한 영역이 복수 개이면, 각각의 영역에서 복수의 사용자의 움직임을 인식하며,
상기 인식된 동작에 대응하는 동작 판단 결과를 생성하는 단계는,
상기 동작 인식 기반 조작 장치가 상기 복수의 사용자의 움직임을 인식하면, 각각에 대해 사용자의 움직임이 어떤 종류의 동작인지 인식하고, 각각의 인식된 동작에 대응하여 복수 개의 동작 판단 결과를 생성하며,
상기 외부 장치를 조작하는 단계는,
상기 동작 인식 기반 조작 장치가 상기 동작 판단 결과가 복수 개이면, 각각의 동작 판단 결과에 따라 외부 장치를 조작하되, 상기 복수 개의 동작 판단결과가 동일한 외부 장치를 조작하는 것이면, 상기 각각의 동작 판단 결과를 비교하여 동일한 조작 또는 상반된 조작인지 확인하고, 동일한 조작을 수행하는 것이면 상기 외부장치와 복수의 사용자와의 거리에 따라 순서대로 복수의 사용자 모두의 동작 판단 결과에 따라 외부 장치를 조작하고, 상반된 조작을 수행하는 것이면 상기 외부장치와 복수의 사용자와의 거리에 따라 가장 가까운 곳에 위치하는 사용자의 동작 판단 결과에 따라 외부 장치를 조작하는 동작 인식 기반 조작 방법.
In the motion recognition-based manipulation method performed by the motion recognition-based manipulation device,
Photographing an object by the motion recognition-based manipulation device;
Recognizing, by the motion recognition-based manipulation device, whether the captured object is a user using a learning network model, and detecting an area in which the user is located;
Calculating a change amount by comparing, by the motion recognition-based manipulation device, a frame at a specific point in time in a region in which the user is located and a frame after a threshold time, and recognizing that the change amount is greater than a threshold value as a user's movement;
Recognizing, by the motion recognition-based manipulation device, what kind of motion is the user's motion using a learning network model, and generating a motion determination result corresponding to the recognized motion;
Including, the operation recognition-based operation device manipulating an external device according to the operation determination result;
The step of detecting the area in which the user is located,
When the motion recognition-based manipulation device recognizes a plurality of users, it detects all areas where the user is located
Recognizing as the user's movement,
If there are a plurality of areas in which the detected user is located, movements of the plurality of users are recognized in each area,
Generating an operation determination result corresponding to the recognized operation,
When the motion recognition-based manipulation device recognizes the motions of the plurality of users, it recognizes what kind of motion the user's motion is for each, and generates a plurality of motion determination results in response to each recognized motion,
The step of operating the external device,
If the motion recognition-based manipulation device has a plurality of motion determination results, the external device is operated according to each motion determination result, but if the plurality of motion determination results are the same external device, the respective motion determination results If the operation is the same or contrary to each other, and if the same operation is performed, the external device is operated according to the result of the operation determination of all of the plurality of users in order according to the distance between the external device and the plurality of users, If the operation is performed, the operation recognition-based operation method for manipulating the external device according to the result of the operation determination of the user located at the nearest location according to the distance between the external device and a plurality of users.
제 13 항에 있어서, 상기 외부 장치를 조작하는 단계는,
동시에 생성된 동작 판단 결과가 두 개 이상인 경우 동작 판단 결과를 하나 이상 선별하는 단계;를 더 포함하는 동작 인식 기반 조작 방법.
The method of claim 13, wherein the step of operating the external device,
When the result of determining the motion generated at the same time is two or more, selecting one or more results of the motion determination;
제 13 항에 있어서, 상기 외부 장치를 조작하는 단계는,
상기 동작 인식 기반 조작 장치는 상기 동작 판단 결과에 의해 조작 대상이 되는 외부 장치가 두 대 이상인 경우 하나의 외부 장치를 선택하는 단계;를 더 포함하는 동작 인식 기반 조작 방법.
The method of claim 13, wherein the step of operating the external device,
The motion recognition-based manipulation device further comprises: selecting one external device when there are two or more external devices to be manipulated based on the result of the motion determination.
KR1020190044148A 2019-04-16 2019-04-16 Device and method for recognizing motion using deep learning, recording medium for performing the method KR102192051B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020190044148A KR102192051B1 (en) 2019-04-16 2019-04-16 Device and method for recognizing motion using deep learning, recording medium for performing the method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020190044148A KR102192051B1 (en) 2019-04-16 2019-04-16 Device and method for recognizing motion using deep learning, recording medium for performing the method

Publications (2)

Publication Number Publication Date
KR20200121513A KR20200121513A (en) 2020-10-26
KR102192051B1 true KR102192051B1 (en) 2020-12-16

Family

ID=73006314

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020190044148A KR102192051B1 (en) 2019-04-16 2019-04-16 Device and method for recognizing motion using deep learning, recording medium for performing the method

Country Status (1)

Country Link
KR (1) KR102192051B1 (en)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101647722B1 (en) * 2009-11-13 2016-08-23 엘지전자 주식회사 Image Display Device and Operating Method for the Same
WO2017010593A1 (en) * 2015-07-16 2017-01-19 재단법인 다차원 스마트 아이티 융합시스템 연구단 Gesture recognition device
KR101883228B1 (en) * 2017-02-16 2018-07-30 (주)더블유알티랩 Method and Apparatus for Gesture Recognition

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20080036423A (en) 2006-10-23 2008-04-28 (주)싸이버텍홀딩스 System and method for providing a travel information using a personal portable terminal
KR20120076477A (en) 2010-11-25 2012-07-09 주식회사 케이티 Method and systmem for store recommendation
CN103329066B (en) * 2011-01-19 2017-03-29 惠普发展公司,有限责任合伙企业 For the method and system of multi-mode gesture control
KR101386592B1 (en) 2012-07-25 2014-04-22 스핀노트 주식회사 Method and terminal for researching preference and information providing apparatus having the researching terminal

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101647722B1 (en) * 2009-11-13 2016-08-23 엘지전자 주식회사 Image Display Device and Operating Method for the Same
WO2017010593A1 (en) * 2015-07-16 2017-01-19 재단법인 다차원 스마트 아이티 융합시스템 연구단 Gesture recognition device
KR101883228B1 (en) * 2017-02-16 2018-07-30 (주)더블유알티랩 Method and Apparatus for Gesture Recognition

Also Published As

Publication number Publication date
KR20200121513A (en) 2020-10-26

Similar Documents

Publication Publication Date Title
US11868543B1 (en) Gesture keyboard method and apparatus
WO2021185016A1 (en) Methods and systems for controlling device using hand gestures in multi-user environment
CN104956292B (en) The interaction of multiple perception sensing inputs
CN103353935B (en) A kind of 3D dynamic gesture identification method for intelligent domestic system
US11809637B2 (en) Method and device for adjusting the control-display gain of a gesture controlled electronic device
US9965039B2 (en) Device and method for displaying user interface of virtual input device based on motion recognition
KR101815020B1 (en) Apparatus and Method for Controlling Interface
US9703371B1 (en) Obtaining input from a virtual user interface
JP7447302B2 (en) Method and system for hand gesture-based control of devices
US11573627B2 (en) Method of controlling device and electronic device
TW201427388A (en) Image interaction system, detecting method for detecting finger position, stereo display system and control method of stereo display
JP2023511332A (en) Augmented reality map curation
KR20210057358A (en) Gesture recognition method and gesture recognition device performing the same
KR102192051B1 (en) Device and method for recognizing motion using deep learning, recording medium for performing the method
KR20220144889A (en) Method and system for hand gesture-based control of a device
US11755119B2 (en) Scene controlling method, device and electronic equipment
EP3088991B1 (en) Wearable device and method for enabling user interaction
US9761009B2 (en) Motion tracking device control systems and methods
US10845888B2 (en) Techniques for integrating different forms of input with different forms of output when interacting with an application
WO2023004600A1 (en) Application window control method and apparatus, and interactive flat panel and storage medium
US20230095282A1 (en) Method And Device For Faciliating Interactions With A Peripheral Device
Shanmugapriya et al. Gesture Recognition using a Touch less Feeler Machine
Purkayastha Integrating gesture recognition and speech recognition in a touch-less human computer interaction system
LEE et al. Image Manipulation Interface using Depth-based Hand Gesture

Legal Events

Date Code Title Description
E701 Decision to grant or registration of patent right
GRNT Written decision to grant