KR102490430B1 - Control method of electronic device to acquire command for either positive or negative word based on joint tracking - Google Patents

Control method of electronic device to acquire command for either positive or negative word based on joint tracking Download PDF

Info

Publication number
KR102490430B1
KR102490430B1 KR1020220091981A KR20220091981A KR102490430B1 KR 102490430 B1 KR102490430 B1 KR 102490430B1 KR 1020220091981 A KR1020220091981 A KR 1020220091981A KR 20220091981 A KR20220091981 A KR 20220091981A KR 102490430 B1 KR102490430 B1 KR 102490430B1
Authority
KR
South Korea
Prior art keywords
point
electronic device
motion
line
identifying
Prior art date
Application number
KR1020220091981A
Other languages
Korean (ko)
Inventor
박치영
Original Assignee
주식회사 컴플렉시온
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 컴플렉시온 filed Critical 주식회사 컴플렉시온
Priority to KR1020220091981A priority Critical patent/KR102490430B1/en
Application granted granted Critical
Publication of KR102490430B1 publication Critical patent/KR102490430B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/46Descriptors for shape, contour or point-related descriptors, e.g. scale invariant feature transform [SIFT] or bags of words [BoW]; Salient regional features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/20Movements or behaviour, e.g. gesture recognition
    • G06V40/28Recognition of hand or arm movements, e.g. recognition of deaf sign language

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Psychiatry (AREA)
  • Social Psychology (AREA)
  • Image Analysis (AREA)

Abstract

The present invention relates to a control method of an electronic device for acquiring a command for any one among a positive word and a negative word based on joint tracking comprising: a step of identifying, by an electronic device, a person object from one image; a step of matching, by the electronic device, a plurality of points for the person object; a step of tracking, by the electronic device, a motion for the person object within the image based on the plurality of points; and a step of identifying, by the electronic device, any one among a positive motion or a negative motion based on a result for tracking. Therefore, the present invention is capable of enabling a user command to be obtained quickly.

Description

관절 트래킹을 바탕으로, 긍정어 및 부정어 중 어느 하나에 대한 명령을 획득하는 전자 장치의 제어 방법{CONTROL METHOD OF ELECTRONIC DEVICE TO ACQUIRE COMMAND FOR EITHER POSITIVE OR NEGATIVE WORD BASED ON JOINT TRACKING}Control method of an electronic device obtaining a command for any one of positive and negative words based on joint tracking

본 발명은 관절 트래킹을 바탕으로, 긍정어 및 부정어 중 어느 하나에 대한 명령을 획득하는 전자 장치의 제어 방법에 관한 것으로, 상세하게는, 영상에 포함된 인물을 대상으로 각 관절을 식별함으로써 관절의 위치에 기반하여 동작을 인식하는 기술이다.The present invention relates to a control method of an electronic device for acquiring a command for any one of positive and negative words based on joint tracking, and more particularly, by identifying each joint of a person included in an image to determine the size of the joint. It is a technology that recognizes motion based on location.

종래의 전자 장치에 대한 사용자 명령 획득 방식으로는, 키버튼을 통한 입력 및 디스플레이를 통해 제공되는 UI(User Interface)에 대한 터치 입력 등의 방식이 존재해왔다.As a method of acquiring a user command for a conventional electronic device, there have been methods such as input through a key button and touch input to a user interface (UI) provided through a display.

키버튼 방식의 경우, 제한된 크기의 버튼을 인식하고 입력하는 일련의 과정에서 사용자의 피로감을 조성할 수 있으며, UI를 통한 터치 입력 방식의 경우, 특정 연령(ex. 노인)에 대해서 최초 접근이 어렵다는 문제점이 존재해왔다.In the case of the key button method, the user's fatigue can be created in a series of processes of recognizing and inputting buttons of a limited size, and in the case of the touch input method through the UI, it is difficult to access for the first time for a specific age (ex. the elderly). problems have existed.

따라서, 단순한 긍정어 및 부정어와 같이 필수적인 사용자 명령을 전자 장치에 입력함에 있어서, 간단한 동작만으로 전자 장치에 사용자 명령을 입력하는 방법이 제시될 필요성이 존재한다.Therefore, when essential user commands such as simple positive and negative words are input to an electronic device, there is a need to provide a method of inputting a user command to an electronic device with a simple operation.

한편, 상기의 배경기술로서 설명된 사항들은 본 발명의 배경에 대한 이해 증진을 위한 것일 뿐, 이 기술분야에서 통상의 지식을 가진 자에게 이미 알려진 종래기술에 해당함을 인정하는 것으로 받아들여져서는 안 될 것이다.On the other hand, the matters described as the background art above are only for improving understanding of the background of the present invention, and should not be taken as an admission that they correspond to prior art already known to those skilled in the art. will be.

등록특허공보 제10-1304321호, 2013.08.30.Registered Patent Publication No. 10-1304321, 2013.08.30.

본 발명이 해결하고자 하는 과제는 간단한 동작(ex. 양 팔로 원형 형상을 구현하거나, 교차 형상을 구현하는 등)을 카메라를 통해 획득하여, 특정 관절의 위치에 따라 긍정어 및 부정어 중 어느 하나에 대한 사용자 명령을 획득하는 관절 트래킹을 바탕으로, 긍정어 및 부정어 중 어느 하나에 대한 명령을 획득하는 전자 장치의 제어 방법을 제공하는 것이다.The problem to be solved by the present invention is to obtain a simple motion (ex. implementing a circular shape with both arms, implementing a cross shape, etc.) through a camera, and for any one of positive and negative words according to the location of a specific joint. An object of the present invention is to provide a control method of an electronic device that obtains a command for any one of a positive word and a negative word based on joint tracking for obtaining a user command.

본 발명이 해결하고자 하는 과제들은 이상에서 언급된 과제로 제한되지 않으며, 언급되지 않은 또 다른 과제들은 아래의 기재로부터 통상의 기술자에게 명확하게 이해될 수 있을 것이다.The problems to be solved by the present invention are not limited to the problems mentioned above, and other problems not mentioned will be clearly understood by those skilled in the art from the description below.

상술한 과제를 해결하기 위한 본 발명의 일 면에 따른 관절 트래킹을 바탕으로, 긍정어 및 부정어 중 어느 하나에 대한 명령을 획득하는 전자 장치의 제어 방법에 있어서, 전자 장치가, 일 영상으로부터 인물 객체를 식별하는 단계, 전자 장치가, 인물 객체에 대한 복수의 포인트를 매칭하는 단계, 전자 장치가, 복수의 포인트를 바탕으로, 인물 객체에 대한 영상 내에서의 모션을 트래킹하는 단계, 및 전자 장치가, 트래킹에 대한 결과를 바탕으로 긍정 모션 및 부정 모션 중 어느 하나를 식별하는 단계를 포함한다.In the control method of an electronic device for obtaining a command for any one of a positive word and a negative word based on joint tracking according to an aspect of the present invention for solving the above problems, the electronic device, a person object from an image Identifying, by an electronic device, matching a plurality of points of a person object, by an electronic device, based on a plurality of points, tracking motion in an image of a person object, and by the electronic device , and identifying one of positive motion and negative motion based on the tracking result.

이때, 복수의 포인트를 매칭하는 단계는, 인물 객체의 얼굴을 식별하는 단계, 얼굴을 기준으로 목, 좌측 어깨, 좌측 팔꿈치, 좌측 손목, 우측 어깨, 우측 팔꿈치, 및 우측 손목을 식별하는 단계, 목에 제1 포인트, 좌측 어깨에 제2 포인트, 좌측 팔꿈치에 제3 포인트, 좌측 손목에 제4 포인트, 우측 어깨에 제5 포인트, 우측 팔꿈치에 제6 포인트, 우측 손목에 제7 포인트를 각각 매칭하는 단계, 제1 포인트, 제2 포인트 및 제5 포인트에 대한 제1 라인을 생성하는 단계, 제2 포인트 내지 제4 포인트에 의한 제2 라인을 생성하는 단계, 및 제5 포인트 내지 제7 포인트에 의한 제3 라인을 생성하는 단계를 포함할 수 있다.At this time, the step of matching a plurality of points includes identifying the face of the person object, identifying the neck, left shoulder, left elbow, left wrist, right shoulder, right elbow, and right wrist based on the face; To match the first point, the second point on the left shoulder, the third point on the left elbow, the fourth point on the left wrist, the fifth point on the right shoulder, the sixth point on the right elbow, and the seventh point on the right wrist. Step, generating a first line for the first point, second point, and fifth point, generating a second line by the second to fourth points, and by the fifth to seventh points It may include generating a third line.

추가로, 인물 객체에 대한 영상 내에서의 모션을 트래킹하는 단계는, 제1 포인트 내지 제7 포인트 각각에 대한 좌표를 트래킹하는 단계, 제1 라인 내지 제3 라인이 형성하는 형상을 식별하는 단계, 형상이 기 설정된 제1 형상인 경우, 좌표를 바탕으로, 제3 포인트 및 제6 포인트 간의 거리인 제1 거리를 산출하는 단계, 및 좌표를 바탕으로, 제4 포인트 및 제7 포인트 간의 거리인 제2 거리를 산출하는 단계를 포함하고, 트래킹에 대한 결과를 바탕으로 긍정 모션 및 부정 모션 중 어느 하나를 식별하는 단계는, 제2 거리가 제1 거리 미만이되, 제2 거리가 일정 거리 미만이면, 긍정 모션을 식별하는 것이 가능하다.In addition, the tracking of the motion in the image of the person object may include tracking the coordinates of each of the first to seventh points, identifying a shape formed by the first to third lines, If the shape is a preset first shape, calculating a first distance that is the distance between the third point and the sixth point based on the coordinates, and the distance between the fourth point and the seventh point based on the coordinates Including calculating two distances, and identifying one of positive motion and negative motion based on the tracking result, if the second distance is less than the first distance and the second distance is less than a certain distance, , it is possible to identify positive motion.

한편, 제1 라인 내지 제3 라인이 형성하는 형상을 식별하는 단계는, 형상이 기 설정된 제2 형상인 경우, 제1 라인 내지 제3 라인 중, 다른 라인에 대해 교선이 존재하는지 여부를 판단하는 단계, 교선이 미존재하는 경우, 제2 라인 및 제3 라인에 의한 하나의 교점이 존재하는지 여부를 판단하는 단계, 및 제2 라인 및 제3 라인에 의한 하나의 교점이 존재하는 경우, 교점이 제4 포인트 및 제7 포인트 중 적어도 하나와 일치하는지 여부를 판단하는 단계를 포함하고, 트래킹에 대한 결과를 바탕으로 긍정 모션 및 부정 모션 중 어느 하나를 식별하는 단계는, 교점이 제4 포인트 및 제7 포인트 각각에 대해 불일치하는 경우, 부정 모션을 식별하는 것이 가능하다.Meanwhile, the step of identifying a shape formed by the first to third lines may include, when the shape is a preset second shape, determining whether there is an intersection with another line among the first to third lines. Step, if there is no intersection, determining whether there is one intersection by the second line and the third line, and if there is one intersection by the second and third lines, the intersection is The step of determining whether the fourth point and the seventh point coincide with at least one of the points, and the step of identifying one of the positive motion and the negative motion based on the result of the tracking comprises: In case of discrepancies for each of the 7 points, it is possible to identify false motion.

이때, 트래킹에 대한 결과를 바탕으로 긍정 모션 및 부정 모션 중 어느 하나를 식별하는 단계는, 긍정 모션 및 부정 모션 중 어느 하나를 식별한 경우, 최초 식별된 시점으로부터 일정 시간 동안 모션이 유지되면, 식별된 모션에 대한 사용자 명령을 획득하는 것이 가능하다.At this time, the step of identifying any one of the positive motion and the negative motion based on the tracking result is, when either the positive motion or the negative motion is identified, if the motion is maintained for a certain period of time from the first identified time point, the identification It is possible to obtain user commands for the selected motion.

추가로, 본 발명의 일 면에 따른 전자 장치의 제어 방법은, 긍정 모션에 대한 사용자 명령을 획득한 경우, 전자 장치가, 제4 포인트에 대한 세로축 좌표값 및 제7 포인트에 대한 세로축 좌표값 간의 차값인 제1 차값을 산출하는 단계, 제1 차값이 일정 값을 초과하면, 전자 장치가, 제2 포인트의 세로축 좌표값 및 제5 포인트의 세로축 좌표값의 차값인 제2 차값을 산출하는 단계, 제2 차값이 일정 값을 초과하면, 전자 장치가, 제2 포인트의 세로축 좌표값 및 제5 포인트의 세로축 좌표값 중, 작은 값을 갖는 포인트를 식별하는 단계, 및 전자 장치가, 인물 객체의 좌측 어깨 및 우측 어깨 중, 식별된 작은 값을 갖는 포인트에 해당하는 어깨에 대해, 문제 관절로 획득하는 단계를 포함하고, 제2 차값을 산출하는 단계는, 제2 차값이 일정 값 이하이면, 제2 포인트의 세로축 좌표값 및 제5 포인트의 세로축 좌표값 중, 큰 값을 갖는 포인트를 식별하는 단계, 및 인물 객체의 좌측 팔꿈치 및 우측 팔꿈치 중, 식별된 큰 값을 갖는 포인트에 해당하는 방향의 팔꿈치에 대해, 문제 관절로 획득하는 단계를 포함할 수 있다.In addition, in the control method of an electronic device according to an aspect of the present invention, when obtaining a user command for a positive motion, the electronic device determines between a vertical axis coordinate value for a fourth point and a vertical axis coordinate value for a seventh point. Calculating a first difference value, which is a difference value; If the first difference value exceeds a predetermined value, the electronic device calculates a second difference value, which is a difference between the vertical axis coordinate value of the second point and the vertical axis coordinate value of the fifth point; If the second difference value exceeds a predetermined value, identifying, by the electronic device, a point having a smaller value among the ordinate coordinate values of the second point and the ordinate coordinate value of the fifth point, and then, by the electronic device, identifying the left side of the person object. For a shoulder corresponding to a point having a small value identified among the shoulder and the right shoulder, the step of calculating the second difference value includes obtaining a problem joint, and the step of calculating the second difference value comprises: Identifying a point having a larger value among the ordinate coordinate value of the point and the ordinate coordinate value of the fifth point, and the elbow in the direction corresponding to the identified point having the larger value among the left elbow and right elbow of the person object. For this, it may include acquiring a problem joint.

이에 따라, 본 발명의 일 면에 따른 전자 장치의 제어 방법은, 전자 장치가, 인물 객체에 대응하는 사용자로부터 진단 요청을 획득하는 단계, 전자 장치가, 사용자에 대해 기 등록된 적어도 하나의 문제 관절을 식별하는 단계, 전자 장치가, 문제 관절 각각에 대해 문제 관절로 획득된 횟수를 산출하는 단계, 문제 관절 중 임계 횟수를 초과하는 횟수로 획득된 적어도 하나의 진단 관절이 식별되면, 전자 장치가, 진단 관절이 문제 관절로 획득된 영상을 진단 영상으로 획득하는 단계, 전자 장치가, 진단 관절 및 진단 관절과 이웃한 적어도 하나의 관절 각각에 대한 포인트를 진단 영상에 대해 매칭하는 단계, 및 전자 장치가, 포인트가 매칭된 진단 영상을 사용자에게 제공하는 단계를 포함할 수 있다.Accordingly, a control method of an electronic device according to an aspect of the present invention includes obtaining, by the electronic device, a diagnosis request from a user corresponding to a person object; identifying, by the electronic device, calculating the number of times acquired as a problem joint for each problem joint; if at least one diagnostic joint acquired with a number exceeding a threshold number among the problem joints is identified, the electronic device, Acquiring, by an electronic device, a point for each of the diagnosed joint and at least one joint adjacent to the diagnosed joint to the diagnostic image; and , providing a diagnostic image matched with points to the user.

본 발명의 기타 구체적인 사항들은 상세한 설명 및 도면들에 포함되어 있다.Other specific details of the invention are included in the detailed description and drawings.

본 발명의 관절 트래킹을 바탕으로, 긍정어 및 부정어 중 어느 하나에 대한 명령을 획득하는 전자 장치의 제어 방법에 의하면, 사용자의 동작을 카메라를 통해 획득해, 실시간으로 인식함으로써 사용자 명령을 빠르게 획득할 수 있다.According to the control method of an electronic device for acquiring a command for any one of a positive word and a negative word based on joint tracking of the present invention, a user's motion can be obtained through a camera and recognized in real time to rapidly obtain a user command. can

본 발명의 효과들은 이상에서 언급된 효과로 제한되지 않으며, 언급되지 않은 또 다른 효과들은 아래의 기재로부터 통상의 기술자에게 명확하게 이해될 수 있을 것이다.The effects of the present invention are not limited to the effects mentioned above, and other effects not mentioned will be clearly understood by those skilled in the art from the description below.

도 1은 본 개시의 일 실시예에 따른 전자 장치의 구성도이다.
도 2는 본 개시의 일 실시예에 따른 기본 흐름도이다.
도 3은 본 개시의 일 실시예에 따른 관절에 대한 포인트 매칭 예시도이다.
도 4 및 도 5는 본 개시의 일 실시예에 따른 제1 형상에 대한 예시도이다.
도 6 및 도 7은 본 개시의 일 실시예에 따른 제2 형상에 대한 예시도이다.
1 is a configuration diagram of an electronic device according to an embodiment of the present disclosure.
2 is a basic flow diagram according to an embodiment of the present disclosure.
3 is an exemplary view of point matching for a joint according to an embodiment of the present disclosure.
4 and 5 are exemplary views of a first shape according to an embodiment of the present disclosure.
6 and 7 are exemplary views of a second shape according to an embodiment of the present disclosure.

본 발명의 이점 및 특징, 그리고 그것들을 달성하는 방법은 첨부되는 도면과 함께 상세하게 후술되어 있는 실시예들을 참조하면 명확해질 것이다. 그러나, 본 발명은 이하에서 개시되는 실시예들에 제한되는 것이 아니라 서로 다른 다양한 형태로 구현될 수 있으며, 단지 본 실시예들은 본 발명의 개시가 완전하도록 하고, 본 발명이 속하는 기술 분야의 통상의 기술자에게 본 발명의 범주를 완전하게 알려주기 위해 제공되는 것이며, 본 발명은 청구항의 범주에 의해 정의될 뿐이다.Advantages and features of the present invention, and methods of achieving them, will become clear with reference to the detailed description of the following embodiments taken in conjunction with the accompanying drawings. However, the present invention is not limited to the embodiments disclosed below, but may be implemented in various different forms, only these embodiments are intended to complete the disclosure of the present invention, and are common in the art to which the present invention belongs. It is provided to fully inform the person skilled in the art of the scope of the invention, and the invention is only defined by the scope of the claims.

본 명세서에서 사용된 용어는 실시예들을 설명하기 위한 것이며 본 발명을 제한하고자 하는 것은 아니다. 본 명세서에서, 단수형은 문구에서 특별히 언급하지 않는 한 복수형도 포함한다. 명세서에서 사용되는 "포함한다(comprises)" 및/또는 "포함하는(comprising)"은 언급된 구성요소 외에 하나 이상의 다른 구성요소의 존재 또는 추가를 배제하지 않는다. 명세서 전체에 걸쳐 동일한 도면 부호는 동일한 구성 요소를 지칭하며, "및/또는"은 언급된 구성요소들의 각각 및 하나 이상의 모든 조합을 포함한다. 비록 "제1", "제2" 등이 다양한 구성요소들을 서술하기 위해서 사용되나, 이들 구성요소들은 이들 용어에 의해 제한되지 않음은 물론이다. 이들 용어들은 단지 하나의 구성요소를 다른 구성요소와 구별하기 위하여 사용하는 것이다. 따라서, 이하에서 언급되는 제1 구성요소는 본 발명의 기술적 사상 내에서 제2 구성요소일 수도 있음은 물론이다.Terminology used herein is for describing the embodiments and is not intended to limit the present invention. In this specification, singular forms also include plural forms unless specifically stated otherwise in a phrase. As used herein, "comprises" and/or "comprising" does not exclude the presence or addition of one or more other elements other than the recited elements. Like reference numerals throughout the specification refer to like elements, and “and/or” includes each and every combination of one or more of the recited elements. Although "first", "second", etc. are used to describe various components, these components are not limited by these terms, of course. These terms are only used to distinguish one component from another. Accordingly, it goes without saying that the first element mentioned below may also be the second element within the technical spirit of the present invention.

다른 정의가 없다면, 본 명세서에서 사용되는 모든 용어(기술 및 과학적 용어를 포함)는 본 발명이 속하는 기술분야의 통상의 기술자에게 공통적으로 이해될 수 있는 의미로 사용될 수 있을 것이다. 또한, 일반적으로 사용되는 사전에 정의되어 있는 용어들은 명백하게 특별히 정의되어 있지 않는 한 이상적으로 또는 과도하게 해석되지 않는다.Unless otherwise defined, all terms (including technical and scientific terms) used in this specification may be used with meanings commonly understood by those skilled in the art to which the present invention belongs. In addition, terms defined in commonly used dictionaries are not interpreted ideally or excessively unless explicitly specifically defined.

명세서에서 사용되는 "부" 또는 “모듈”이라는 용어는 소프트웨어, FPGA 또는 ASIC과 같은 하드웨어 구성요소를 의미하며, "부" 또는 “모듈”은 어떤 역할들을 수행한다. 그렇지만 "부" 또는 “모듈”은 소프트웨어 또는 하드웨어에 한정되는 의미는 아니다. "부" 또는 “모듈”은 어드레싱할 수 있는 저장 매체에 있도록 구성될 수도 있고 하나 또는 그 이상의 프로세서들을 재생시키도록 구성될 수도 있다. 따라서, 일 예로서 "부" 또는 “모듈”은 소프트웨어 구성요소들, 객체지향 소프트웨어 구성요소들, 클래스 구성요소들 및 태스크 구성요소들과 같은 구성요소들과, 프로세스들, 함수들, 속성들, 프로시저들, 서브루틴들, 프로그램 코드의 세그먼트들, 드라이버들, 펌웨어, 마이크로 코드, 회로, 데이터, 데이터베이스, 데이터 구조들, 테이블들, 어레이들 및 변수들을 포함한다. 구성요소들과 "부" 또는 “모듈”들 안에서 제공되는 기능은 더 작은 수의 구성요소들 및 "부" 또는 “모듈”들로 결합되거나 추가적인 구성요소들과 "부" 또는 “모듈”들로 더 분리될 수 있다.The term "unit" or "module" used in the specification means a hardware component such as software, FPGA or ASIC, and "unit" or "module" performs certain roles. However, "unit" or "module" is not meant to be limited to software or hardware. A “unit” or “module” may be configured to reside in an addressable storage medium and may be configured to reproduce one or more processors. Thus, as an example, a “unit” or “module” may refer to components such as software components, object-oriented software components, class components, and task components, processes, functions, properties, procedures, subroutines, segments of program code, drivers, firmware, microcode, circuitry, data, databases, data structures, tables, arrays and variables. Functions provided within components and "units" or "modules" may be combined into smaller numbers of components and "units" or "modules" or may be combined into additional components and "units" or "modules". can be further separated.

공간적으로 상대적인 용어인 "아래(below)", "아래(beneath)", "하부(lower)", "위(above)", "상부(upper)" 등은 도면에 도시되어 있는 바와 같이 하나의 구성요소와 다른 구성요소들과의 상관관계를 용이하게 기술하기 위해 사용될 수 있다. 공간적으로 상대적인 용어는 도면에 도시되어 있는 방향에 더하여 사용시 또는 동작시 구성요소들의 서로 다른 방향을 포함하는 용어로 이해되어야 한다. 예를 들어, 도면에 도시되어 있는 구성요소를 뒤집을 경우, 다른 구성요소의 "아래(below)"또는 "아래(beneath)"로 기술된 구성요소는 다른 구성요소의 "위(above)"에 놓일 수 있다. 따라서, 예시적인 용어인 "아래"는 아래와 위의 방향을 모두 포함할 수 있다. 구성요소는 다른 방향으로도 배향될 수 있으며, 이에 따라 공간적으로 상대적인 용어들은 배향에 따라 해석될 수 있다.The spatially relative terms "below", "beneath", "lower", "above", "upper", etc. It can be used to easily describe a component's correlation with other components. Spatially relative terms should be understood as including different orientations of elements in use or operation in addition to the orientations shown in the drawings. For example, if you flip a component that is shown in a drawing, a component described as "below" or "beneath" another component will be placed "above" the other component. can Thus, the exemplary term “below” may include directions of both below and above. Components may also be oriented in other orientations, and thus spatially relative terms may be interpreted according to orientation.

본 명세서에서, 컴퓨터는 적어도 하나의 프로세서를 포함하는 모든 종류의 하드웨어 장치를 의미하는 것이고, 실시 예에 따라 해당 하드웨어 장치에서 동작하는 소프트웨어적 구성도 포괄하는 의미로서 이해될 수 있다. 예를 들어, 컴퓨터는 스마트폰, 태블릿 PC, 데스크톱, 노트북 및 각 장치에서 구동되는 사용자 클라이언트 및 애플리케이션을 모두 포함하는 의미로서 이해될 수 있으며, 또한 이에 제한되는 것은 아니다.In this specification, a computer means any kind of hardware device including at least one processor, and may be understood as encompassing a software configuration operating in a corresponding hardware device according to an embodiment. For example, a computer may be understood as including a smartphone, a tablet PC, a desktop computer, a laptop computer, and user clients and applications running on each device, but is not limited thereto.

이하, 첨부된 도면을 참조하여 본 발명의 실시예를 상세하게 설명한다.Hereinafter, embodiments of the present invention will be described in detail with reference to the accompanying drawings.

도 1은 본 개시의 일 실시예에 따른 전자 장치의 구성도이다.1 is a configuration diagram of an electronic device according to an embodiment of the present disclosure.

도시된 바와 같이, 본 발명의 일 면에 따른 관절 트래킹을 바탕으로, 긍정어 및 부정어 중 어느 하나에 대한 명령을 획득하는 전자 장치(100)는, 메모리(110), 사용자의 동작을 포함하는 이미지를 획득하는 카메라(120), 이미지를 출력하는 디스플레이(130), 및 메모리(110), 카메라(120), 및 디스플레이(130)와 연결된 프로세서(140)를 포함한다.As shown, the electronic device 100 for acquiring a command for any one of positive and negative words based on joint tracking according to an aspect of the present invention includes a memory 110 and an image including a user's motion. It includes a camera 120 for acquiring, a display 130 for outputting an image, and a processor 140 connected to the memory 110, the camera 120, and the display 130.

실시예로, 전자 장치(100)는, 서버, 스마트폰(smartphone), 태블릿 PC(tablet personal computer), 이동 전화기(mobile phone), 영상 전화기, 랩탑 PC(laptop PC), 넷북 컴퓨터(netbook computer), 노트북 컴퓨터(notebook computer), PDA(personal digital assistant), PMP(portable multimedia player), 웨어러블 장치(wearable device), 휴대용 의료기기 중 적어도 하나를 포함할 수 있다.In an embodiment, the electronic device 100 includes a server, a smartphone, a tablet personal computer (PC), a mobile phone, a video phone, a laptop PC, and a netbook computer. , a notebook computer, a personal digital assistant (PDA), a portable multimedia player (PMP), a wearable device, and a portable medical device.

한편, 메모리(110)는 전자 장치(100)의 동작에 필요한 각종 프로그램 및 데이터를 저장할 수 있다. 메모리(110)는 비휘발성 메모리(110), 휘발성 메모리(110), 플래시메모리(110)(flash-memory), 하드디스크 드라이브(HDD) 또는 솔리드 스테이트 드라이브(SSD) 등으로 구현될 수 있다.Meanwhile, the memory 110 may store various programs and data necessary for the operation of the electronic device 100 . The memory 110 may be implemented as a non-volatile memory 110, a volatile memory 110, a flash-memory, a hard disk drive (HDD), or a solid state drive (SSD).

프로세서(140)는 메모리(110)에 저장된 각종 프로그램을 이용하여 전자 장치(100)의 전반적인 동작을 제어할 수 있다. 프로세서(140)는 RAM, ROM, 그래픽 처리부, 메인 CPU, 제1 내지 n 인터페이스 및 버스로 구성될 수 있다. 이때, RAM, ROM, 그래픽 처리부, 메인 CPU, 제1 내지 n 인터페이스 등은 버스를 통해 서로 연결될 수 있다.The processor 140 may control overall operations of the electronic device 100 using various programs stored in the memory 110 . The processor 140 may include a RAM, a ROM, a graphic processing unit, a main CPU, first through n interfaces, and a bus. At this time, the RAM, ROM, graphic processing unit, main CPU, first to n interfaces, etc. may be connected to each other through a bus.

RAM은 O/S 및 어플리케이션 프로그램을 저장한다. 구체적으로, 전자 장치(100)가 부팅되면 O/S가 RAM에 저장되고, 사용자가 선택한 각종 어플리케이션 데이터가 RAM에 저장될 수 있다.RAM stores O/S and application programs. Specifically, when the electronic device 100 is booted, O/S is stored in RAM, and various application data selected by the user may be stored in RAM.

ROM에는 시스템 부팅을 위한 명령어 세트 등이 저장된다. 턴 온 명령이 입력되어 전원이 공급되면, 메인 CPU는 ROM에 저장된 명령어에 따라 메모리(110)에 저장된 O/S를 RAM에 복사하고, O/S를 실행시켜 시스템을 부팅시킨다. 부팅이 완료되면, 메인 CPU는 메모리(110)에 저장된 각종 어플리케이션 프로그램을 RAM에 복사하고, RAM에 복사된 어플리케이션 프로그램을 실행시켜 각종 동작을 수행한다.The ROM stores instruction sets for system booting. When a turn-on command is input and power is supplied, the main CPU copies the O/S stored in the memory 110 to the RAM according to the command stored in the ROM, and executes the O/S to boot the system. When booting is completed, the main CPU copies various application programs stored in the memory 110 to RAM, and executes the application programs copied to RAM to perform various operations.

그래픽 처리부는 연산부(미도시) 및 렌더링부(미도시)를 이용하여 아이템, 이미지, 텍스트 등과 같은 다양한 객체를 포함하는 화면을 생성한다. 여기서, 연산부는 입력부로부터 수신된 제어 명령을 이용하여 화면의 레이아웃에 따라 각 객체들이 표시될 좌표값, 형태, 크기, 컬러 등과 같은 속성값을 연산하는 구성일 수 있다. 그리고, 렌더링부는 연산부에서 연산한 속성값에 기초하여 객체를 포함하는 다양한 레이아웃의 화면을 생성하는 구성이 일 수 있다. 이러한 렌더링부에서 생성된 화면은 디스플레이(130)의 디스플레이 영역 내에 표시될 수 있다.The graphic processing unit uses a calculation unit (not shown) and a rendering unit (not shown) to create a screen including various objects such as items, images, and text. Here, the calculation unit may be configured to calculate attribute values such as coordinate values, shape, size, color, etc. of each object to be displayed according to the layout of the screen by using a control command received from the input unit. And, the rendering unit may be configured to generate screens of various layouts including objects based on the attribute values calculated by the calculation unit. The screen created by the rendering unit may be displayed within the display area of the display 130 .

메인 CPU는 메모리(110)에 액세스하여, 메모리(110)에 저장된 OS를 이용하여 부팅을 수행한다. 그리고, 메인 CPU는 메모리(110)에 저장된 각종 프로그램, 컨텐츠, 데이터 등을 이용하여 다양한 동작을 수행한다.The main CPU accesses the memory 110 and performs booting using the OS stored in the memory 110 . And, the main CPU performs various operations using various programs, contents, data, etc. stored in the memory 110 .

제1 내지 n 인터페이스는 상술한 각종 구성요소들과 연결된다. 제1 내지 n 인터페이스 중 하나는 네트워크를 통해 외부 장치와 연결되는 네트워크 인터페이스가 될 수도 있다.The first through n interfaces are connected to the various components described above. One of the first through n interfaces may be a network interface connected to an external device through a network.

한편, 프로세서(140)는 하나 이상의 코어(core, 미도시) 및 그래픽 처리부(미도시) 및/또는 다른 구성 요소와 신호를 송수신하는 연결 통로(예를 들어, 버스(bus) 등)를 포함할 수 있다.Meanwhile, the processor 140 may include one or more cores (not shown) and a graphic processor (not shown) and/or a connection path (eg, a bus) for transmitting and receiving signals to and from other components. can

일 실시예에 따른 프로세서(140)는 메모리(110)에 저장된 하나 이상의 인스트럭션을 실행함으로써, 본 발명과 관련하여 설명된 방법을 수행한다.Processor 140 according to one embodiment performs a method described in connection with the present invention by executing one or more instructions stored in memory 110 .

예를 들어, 프로세서(140)는 메모리(110)에 저장된 하나 이상의 인스트럭션을 실행함으로써 신규 학습용 데이터를 획득하고, 학습된 모델을 이용하여, 상기 획득된 신규 학습용 데이터에 대한 테스트를 수행하고, 상기 테스트 결과, 라벨링된 정보가 소정의 제1 기준값 이상의 정확도로 획득되는 제1 학습용 데이터를 추출하고, 상기 추출된 제1 학습용 데이터를 상기 신규 학습용 데이터로부터 삭제하고, 상기 추출된 학습용 데이터가 삭제된 상기 신규 학습용 데이터를 이용하여 상기 학습된 모델을 다시 학습시킬 수 있다.For example, the processor 140 acquires new training data by executing one or more instructions stored in the memory 110, performs a test on the acquired new training data using a learned model, and performs the test As a result, first training data for which the labeled information is obtained with an accuracy equal to or higher than a predetermined first reference value is extracted, the extracted first training data is deleted from the new training data, and the new training data from which the extracted training data is deleted The learned model may be retrained using the training data.

한편, 프로세서(140)는 프로세서(140) 내부에서 처리되는 신호(또는, 데이터)를 일시적 및/또는 영구적으로 저장하는 램(RAM: Random Access Memory, 미도시) 및 롬(ROM: Read-Only Memory, 미도시)을 더 포함할 수 있다. 또한, 프로세서(140)는 그래픽 처리부, 램 및 롬 중 적어도 하나를 포함하는 시스템온칩(SoC: system on chip) 형태로 구현될 수 있다.Meanwhile, the processor 140 includes RAM (Random Access Memory, not shown) and ROM (Read-Only Memory) for temporarily and/or permanently storing signals (or data) processed in the processor 140. , not shown) may be further included. In addition, the processor 140 may be implemented in the form of a system on chip (SoC) including at least one of a graphics processing unit, RAM, and ROM.

메모리(110)에는 프로세서(140)의 처리 및 제어를 위한 프로그램들(하나 이상의 인스트럭션들)을 저장할 수 있다. 메모리(110)에 저장된 프로그램들은 기능에 따라 복수 개의 모듈들로 구분될 수 있다.The memory 110 may store programs (one or more instructions) for processing and control of the processor 140 . Programs stored in the memory 110 may be divided into a plurality of modules according to functions.

카메라(120)는 적어도 하나의 피사체를 촬영하기 위한 구성으로, 프로세서(140)는 카메라(120)를 통해 적어도 하나의 객체를 인식하거나 객체와의 거리를 식별할 수 있다.The camera 120 is configured to photograph at least one subject, and the processor 140 may recognize at least one object or identify a distance to the object through the camera 120 .

일 실시예로, 카메라(120)는 입체 이미지를 획득하는 뎁스 카메라(Depth camera), RGB 카메라 등으로 구현될 수 있다. 뎁스 카메라는, 동시에 2장의 화상을 획득하여 피사체를 입체적으로 획득하는 스테레오 카메라(stereoscopic camera, stereo camera, 쌍안 촬영기, 양 시점 카메라) 및 피사체에 반사된 빛이 돌아오는 시간 및 속도를 바탕으로 배경내 피사체의 3차원 영상 정보를 얻는 ToF 카메라(Time of Flight camera) 등일 수 있다.As an embodiment, the camera 120 may be implemented as a depth camera or RGB camera that acquires a 3D image. The depth camera is a stereo camera (stereoscopic camera, stereo camera, binocular camera, two-view camera) that acquires two images at the same time and acquires the subject in three dimensions, and based on the return time and speed of the reflected light on the subject, the background It may be a ToF camera (Time of Flight camera) that obtains 3D image information of the subject.

디스플레이(130)는 다양한 정보를 시각적으로 출력하기 위한 구성으로, LCD(Liquid Crystal Display), PDP(Plasma Display Panel), OLED(Organic Light Emitting Diodes), TOLED(Transparent OLED), Micro LED 등으로 구현될 수 있으나, 이에 한정되는 것은 아니고 이밖에 종래 알려진 다양한 형태의 디스플레이를 포함할 수 있다.The display 130 is a configuration for visually outputting various information, and may be implemented as a Liquid Crystal Display (LCD), Plasma Display Panel (PDP), Organic Light Emitting Diodes (OLED), Transparent OLED (TOLED), Micro LED, etc. However, it is not limited thereto, and other types of conventionally known displays may be included.

실시예로, 디스플레이(130)는, 사용자의 터치 조작을 감지할 수 있는 터치스크린 형태로 구현될 수 있으며, 접히거나 구부러질 수 있는 플렉서블 디스플레이로 구현될 수도 있다.As an example, the display 130 may be implemented in the form of a touch screen capable of detecting a user's touch manipulation, or may be implemented as a flexible display capable of being folded or bent.

실시예로, 전자 장치(100)는 통신부를 더 포함하여, 통신부를 통해 외부 장치(ex. 서버, 사용자가 보유한 별도의 전자 장치, 다른 사용자의 전자 장치 등)와 통신을 수행할 수 있다.As an example, the electronic device 100 may further include a communication unit and perform communication with an external device (eg, a server, a separate electronic device possessed by a user, another user's electronic device, etc.) through the communication unit.

특히, 통신부는 와이파이 칩, 블루투스 칩, 무선 통신 칩, NFC칩, 저전력 블루투스 칩(BLE 칩) 등과 같은 다양한 통신 칩을 포함할 수 있다.In particular, the communication unit may include various communication chips such as a Wi-Fi chip, a Bluetooth chip, a wireless communication chip, an NFC chip, and a low energy Bluetooth chip (BLE chip).

이때, 와이파이 칩, 블루투스 칩, NFC 칩은 각각 LAN 방식, WiFi 방식, 블루투스 방식, NFC 방식으로 통신을 수행한다. 와이파이 칩이나 블루투스칩을 이용하는 경우에는 SSID 및 세션 키 등과 같은 각종 연결 정보를 먼저 송수신 하여, 이를 이용하여 통신 연결한 후 각종 정보들을 송수신할 수 있다.At this time, the Wi-Fi chip, the Bluetooth chip, and the NFC chip perform communication in a LAN method, a WiFi method, a Bluetooth method, and an NFC method, respectively. In the case of using a Wi-Fi chip or a Bluetooth chip, various connection information such as an SSID and a session key is first transmitted and received, and various information can be transmitted and received after communication is connected using this.

무선 통신칩은 IEEE, 지그비, 3G(3rd Generation), 3GPP(3rd Generation Partnership Project), LTE(Long Term Evolution), 5G(5th Generation) 등과 같은 다양한 통신 규격에 따라 통신을 수행하는 칩을 의미한다.The wireless communication chip refers to a chip that performs communication according to various communication standards such as IEEE, ZigBee, 3rd Generation (3G), 3rd Generation Partnership Project (3GPP), Long Term Evolution (LTE), and 5th Generation (5G).

도 2는 본 개시의 일 실시예에 따른 기본 흐름도이다.2 is a basic flow diagram according to an embodiment of the present disclosure.

도시된 바와 같이, 본 발명의 일 면에 따른 관절 트래킹을 바탕으로, 긍정어 및 부정어 중 어느 하나에 대한 명령을 획득하는 전자 장치(100)의 제어 방법에 있어서, 전자 장치(100)는, 일 영상으로부터 인물 객체(1)를 식별(S210)하고, 인물 객체(1)에 대한 복수의 포인트(11 내지 17)를 매칭(S220)함으로써, 복수의 포인트(11 내지 17)를 바탕으로, 인물 객체에 대한 영상 내에서의 모션을 트래킹(S230)하여, 트래킹에 대한 결과를 바탕으로 긍정 모션 및 부정 모션 중 어느 하나를 식별(S240)한다.As shown, in the control method of the electronic device 100 for obtaining a command for any one of a positive word and a negative word based on joint tracking according to an aspect of the present invention, the electronic device 100 includes: The person object 1 is identified from the image (S210), and the plurality of points 11 to 17 are matched with the person object 1 (S220), based on the plurality of points 11 to 17, the person object The motion in the video for is tracked (S230), and based on the tracking result, either positive motion or negative motion is identified (S240).

구체적으로, 단계 S210을 수행함에 있어서, 영상에 포함된 적어도 하나의 객체를 식별하고, 식별된 객체 중, 사람에 대한 객체인 인물 객체(1)를 식별할 수 있다.Specifically, in performing step S210, at least one object included in the image may be identified, and a person object 1 that is an object for a person may be identified among the identified objects.

이때, 메모리(110)에 사용자 안면 이미지가 기 등록되어 있는 경우, 전자 장치(100)는 사용자 안면 이미지를 바탕으로 인물 객체(1)를 식별할 수 있다.In this case, when a user's face image is pre-registered in the memory 110, the electronic device 100 may identify the person object 1 based on the user's face image.

실시예로, 영상 내 사람이 복수인 경우, 전자 장치(100)는 각각의 사람에 대한 인물 객체(1)를 식별하되, 각 인물 객체(1)에 대한 안면 이미지를 획득하여, 안면 이미지를 기준으로 인물 객체(1) 각각에 대해 단계 S220 내지 S240을 수행할 수 있다. 예컨대, 전자 장치(100)를 통해 일 의제에 대한 의견을 수집하는 어플리케이션이 실행된 경우, 복수의 인물 객체(1) 각각에 대해 식별된 긍정 모션 및 부정 모션 중 어느 하나의 모션을 식별하고, 이를 바탕으로, 긍정 모션을 취한 사람의 수, 및 부정 모션을 취한 사람의 수를 산출함으로써, 해당 의제에 대한 의견을 수집할 수 있다.As an embodiment, when there are a plurality of people in the image, the electronic device 100 identifies a person object 1 for each person, obtains a face image for each person object 1, and uses the face image as a standard. As a result, steps S220 to S240 may be performed for each of the person objects 1 . For example, when an application for collecting opinions on an agenda is executed through the electronic device 100, any one of positive and negative motions identified for each of the plurality of person objects 1 is identified, and Based on this, it is possible to collect opinions on the corresponding agenda by calculating the number of people who have taken a positive motion and the number of people who have taken a negative motion.

또한, 단계 S240을 수행함에 있어서, 전자 장치(100)는 긍정 모션 및 부정 모션 중 어느 하나를 식별한 경우, 최초 식별된 시점으로부터 일정 시간 동안 모션이 유지되면, 식별된 모션에 대한 사용자 명령(긍정어 및 부정어 중 어느 하나)을 획득한다.In addition, in performing step S240, when the electronic device 100 identifies any one of the positive motion and the negative motion, if the motion is maintained for a predetermined time from the initially identified time point, the user command (positive motion) for the identified motion any one of a word and a negative word) is obtained.

사용자 명령은 긍정(yes) 또는 부정(no)로 전자 장치(100)에 입력된다.The user command is input to the electronic device 100 as yes or no.

도 3은 본 개시의 일 실시예에 따른 관절에 대한 포인트 매칭 예시도이다.3 is an exemplary view of point matching for a joint according to an embodiment of the present disclosure.

단계 S220을 수행함에 있어, 전자 장치(100)는 인물 객체(1)의 얼굴, 즉, 안면 이미지를 식별함으로써, 얼굴을 기준으로, 인물 객체 해당하는 사람의 목, 좌측 어깨, 좌측 팔꿈치, 좌측 손목, 우측 어깨, 우측 팔꿈치, 및 우측 손목을 식별할 수 있다.In performing step S220, the electronic device 100 identifies the face of the person object 1, that is, the face image, and based on the face, the neck, left shoulder, left elbow, and left wrist of the person corresponding to the person object. , right shoulder, right elbow, and right wrist.

이에 따라, 도 3에 도시된 바와 같이, 전자 장치(100)는 목에 제1 포인트(11), 좌측 어깨에 제2 포인트(12), 좌측 팔꿈치에 제3 포인트(13), 좌측 손목에 제4 포인트(14), 우측 어깨에 제5 포인트(15), 우측 팔꿈치에 제6 포인트(16), 우측 손목에 제7 포인트(17)를 각각 매칭한다.Accordingly, as shown in FIG. 3 , the electronic device 100 has a first point 11 on the neck, a second point 12 on the left shoulder, a third point 13 on the left elbow, and a second point 13 on the left wrist. Match the 4 points (14), the 5th point (15) on the right shoulder, the 6th point (16) on the right elbow, and the 7th point (17) on the right wrist.

이때, 각 관절(목, 어깨, 팔꿈치, 손목)을 식별함에 있어, 전자 장치(100)는 인물 객체(1)의 얼굴뿐만 아니라, 목, 상체, 손가락, 귀 등 다양한 신체부위를 기준으로 식별하는 것이 가능하며, 이에 한정되지는 않는다.At this time, in identifying each joint (neck, shoulder, elbow, wrist), the electronic device 100 identifies not only the face of the person object 1 but also various body parts such as the neck, upper body, fingers, and ears. It is possible, but not limited thereto.

이후, 전자 장치(100)는 제1 포인트(11), 제2 포인트(12) 및 제5 포인트(15)에 대한 제1 라인을 생성하고, 제2 포인트(12) 내지 제4 포인트(14)에 의한 제2 라인을 생성하고, 제5 포인트(15) 내지 제7 포인트(17)에 의한 제3 라인을 생성할 수 있다.Then, the electronic device 100 generates a first line for the first point 11, the second point 12, and the fifth point 15, and the second point 12 to the fourth point 14 A second line may be generated by , and a third line may be generated by the fifth point 15 to the seventh point 17 .

이때, 제1 라인은 제1 포인트 및 제2 포인트를 양 꼭지점으로 하는 제1-1 선, 제1 포인트 및 제5 포인트를 양 꼭지점으로 하는 제1-2 선을 포함하고, 제2 라인은 제2 포인트 및 제3 포인트를 양 꼭지점으로 하는 제2-1 선, 제3 포인트 및 제4 포인트를 양 꼭지점으로 하는 제2-2 선을 포함하고, 제3 라인은 제5 포인트 및 제6 포인트를 양 꼭지점으로 하는 제3-1 선, 제6 포인트 및 제7 포인트를 양 꼭지점으로 하는 제3-2 선을 포함하도록 구성된다.At this time, the first line includes a 1-1 line having the first point and the second point as both vertices and a 1-2 line having the first point and the fifth point as both vertices, and the second line is Line 2-1 having both points 2 and 3 as both vertices, and line 2-2 having both points 3 and 4 as both vertices, and the 3rd line has the 5th and 6th points It is configured to include a 3-1 line having both vertexes, a 3-2 line having the 6th point and the 7th point as both vertexes.

실시예로, 영상 내 일 시점에 대해, 인물 객체 해당하는 사람의 목, 좌측 어깨, 좌측 팔꿈치, 좌측 손목, 우측 어깨, 우측 팔꿈치, 및 우측 손목을 식별함에 있어서, 그 중 적어도 하나의 관절이 미획득된 경우, 전자 장치(100)는 미획득된 관절이 각각 획득되는 다른 시점을 식별하여, 해당 관절을 식별할 수 있다.As an example, in identifying the neck, left shoulder, left elbow, left wrist, right shoulder, right elbow, and right wrist of a person corresponding to a person object for a viewpoint in an image, at least one joint among them is When acquired, the electronic device 100 may identify the corresponding joint by identifying different viewpoints at which unacquired joints are respectively obtained.

한편, 단계 S230을 수행함에 있어서, 전자 장치(100)는 제1 포인트(11) 내지 제7 포인트(17) 각각에 대한 좌표를 트래킹하고, 제1 라인 내지 제3 라인이 형성하는 형상을 식별할 수 있다.Meanwhile, in performing step S230, the electronic device 100 tracks the coordinates of each of the first point 11 to the seventh point 17 and identifies a shape formed by the first line to the third line. can

형상은 제1-1 선 내지 제3-2 선에 의해 형성되되, 제4 포인트 및 제7 포인트를 임의로 이어 획득되는 적어도 하나의 평면 도형이며, 제1 라인 내지 제3 라인이 서로 다른 라인 또는 다른 라인의 포인트에 대해 교점이 없는 경우, 전자 장치(100)에 의해 원형의 제1 형상으로 식별되며, 반대로, 제1 라인 내지 제3 라인이 서로 다른 라인 또는 다른 라인의 포인트에 대해 교점이 있는 경우, 전자 장치(100)에 의해 X형의 제2 형상으로 식별된다.The shape is formed by lines 1-1 to 3-2, and is at least one planar figure obtained by arbitrarily connecting the fourth point and the seventh point, and the first to third lines are different from each other or different from each other. If there is no intersection point for the point of the line, it is identified as a circular first shape by the electronic device 100, and conversely, if the first line to the third line have an intersection point with another line or point of another line , identified by the electronic device 100 as the second X-shaped shape.

도 4 및 도 5는 본 개시의 일 실시예에 따른 제1 형상에 대한 예시도이다.4 and 5 are exemplary views of a first shape according to an embodiment of the present disclosure.

도 4 및 도 5에 도시된 바와 같이, 형상이 제1 형상인 경우, 전자 장치(100)는 좌표를 바탕으로, 제3 포인트(13) 및 제6 포인트(16) 간의 거리인 제1 거리 및 제4 포인트(14) 및 제7 포인트(17) 간의 거리인 제2 거리를 산출하며, 이때, 제2 거리는 제1 라인 내지 제3 라인이 서로 다른 라인 또는 다른 라인의 포인트에 대해 교점이 없는 제1 형상에서 획득된 것으로 0이 아닌 값이다.As shown in FIGS. 4 and 5 , when the shape is the first shape, the electronic device 100 determines the first distance and the distance between the third point 13 and the sixth point 16 based on the coordinates. A second distance, which is the distance between the fourth point 14 and the seventh point 17, is calculated. At this time, the second distance is the first to third lines that do not have intersections with other lines or points of other lines. 1 Obtained from the shape, which is a non-zero value.

제1 거리는 양 팔의 팔꿈치 간의 간격이며, 제2 거리는 양 손의 손목간 간격으로, 제2 거리가 제1 거리보다 짧으면, 제2 라인과 제3 라인이 인물 객체의 몸 바깥 방향으로 구부려지며, 제1 라인 내지 제3 라인이 원형인 제1 형상을 형성하게 된다.The first distance is the distance between the elbows of the arms, the second distance is the distance between the wrists of the hands, and if the second distance is shorter than the first distance, the second line and the third line are bent toward the outside of the body of the person object, The first to third lines form a circular first shape.

이에 따라, 단계 S240을 수행함에 있어서, 전자 장치(100)는 제2 거리가 제1 거리 미만이되, 제2 거리가 일정 거리 미만이면, 긍정 모션을 식별하는 것이 가능하다.Accordingly, in performing step S240, the electronic device 100 may identify positive motion when the second distance is less than the first distance and the second distance is less than a certain distance.

실시예로, 전자 장치(100)가 제1 형상을 식별함에 있어서, 제2 거리가 제1 거리 미만이되, 제2 거리가 일정 거리 미만이면, 전자 장치(100)는 영상 상에서 좌측 손 및 우측 손을 각각 식별하고, 식별된 각각의 손이 향하는 방향(손목으로부터 손끝으로 나아가는 방향 또는 손목으로부터 주먹의 가장 끝부분으로 나아가는 방향)에 따라, 좌측 손이 향하는 방향에 대한 제1 벡터 및 우측 손이 향하는 방향에 대한 제2 벡터를 식별할 수 있다.As an example, when the electronic device 100 identifies the first shape, but the second distance is less than the first distance, but the second distance is less than a certain distance, the electronic device 100 displays the left hand and the right hand on the image. Each hand is identified, and according to the direction in which each identified hand is directed (the direction from the wrist to the fingertip or the direction from the wrist to the end of the fist), the first vector for the direction in which the left hand is directed and the right hand are A second vector for the heading direction can be identified.

이때, 벡터는 손목에 대한 포인트를 시작점으로 하여 손끝을 끝점으로 하는 벡터이며, 이에 따라, 전자 장치(100)는 제1 벡터 및 제2 벡터 중 어느 하나라도 미획득된 경우, 해당 모션을 사용자의 의도가 존재하지 않는 무효 모션으로 판단하여 무시한다.In this case, the vector is a vector having a point on the wrist as a starting point and a fingertip as an ending point. Accordingly, when either of the first vector and the second vector is not obtained, the electronic device 100 converts the corresponding motion to the user's motion. It is judged as an invalid motion with no intention and ignored.

추가로, 전자 장치(100)는 제1 벡터 및 제2 벡터가 제1 형상의 바깥 방향인 경우, 제1 벡터 및 제2 벡터가 서로 교차되거나, 각각의 벡터가 끝점으로부터 연장되었을 때 교점이 존재하면, 긍정 모션을 식별한다.Additionally, in the electronic device 100, when the first vector and the second vector are in an outward direction of the first shape, the first vector and the second vector intersect each other, or when each vector extends from an end point, an intersection exists. , identify positive motion.

반면, 전자 장치(100)는 제1 벡터 및 제2 벡터가 제1 형상의 안쪽 방향인 경우, 해당 모션을 사용자의 의도가 존재하지 않는 무효 모션으로 판단하여 무시한다.On the other hand, when the first vector and the second vector are in the inward direction of the first shape, the electronic device 100 determines the corresponding motion as an invalid motion in which the user's intention does not exist and ignores it.

또한, 전자 장치(100)는 제1 벡터 및 제2 벡터가 서로 반대되는 경우, 제1 벡터 및 제2 벡터가 제1 형상의 각각의 벡터가 끝점으로부터 연장되었을 때 상쇄되는 경우, 긍정 모션을 식별한다.In addition, the electronic device 100 identifies positive motion when the first vector and the second vector are opposite to each other, and when the first vector and the second vector are offset when each vector of the first shape extends from the end point. do.

추가로, 전자 장치(100)는 제1 벡터 및 제2 벡터 중 어느 하나가 제1 형상의 안쪽 방향인 경우, 제1 벡터 및 제2 벡터가 서로 반대이되, 제1 벡터 및 제2 벡터가 일정 거리 미만의 수평 상태를 유지하는 경우, 제4 포인트(14)의 세로축 좌표값 및 제7 포인트(17)의 세로축 좌표값의 차값이 일정 값 미만이면, 긍정 모션을 식별한다.Additionally, in the electronic device 100, when either one of the first vector and the second vector is in the inner direction of the first shape, the first vector and the second vector are opposite to each other, but the first vector and the second vector are constant. When maintaining a horizontal state less than the distance, if the difference between the vertical axis coordinate value of the fourth point 14 and the vertical axis coordinate value of the seventh point 17 is less than a predetermined value, positive motion is identified.

도 6 및 도 7은 본 개시의 일 실시예에 따른 제2 형상에 대한 예시도이다.6 and 7 are exemplary views of a second shape according to an embodiment of the present disclosure.

한편, 전자 장치(100)가 제1 라인 내지 제3 라인이 형성하는 형상을 식별함에 있어서, 도 6 및 도 7에 도시된 바와 같이, 형상이 기 설정된 제2 형상인 경우, 제1 라인 내지 제3 라인 중, 다른 라인에 대해 교선이 존재하는지 여부를 판단한다.Meanwhile, when the electronic device 100 identifies a shape formed by the first to third lines, as shown in FIGS. 6 and 7 , when the shape is a preset second shape, the first to third lines Among the three lines, it is determined whether there is an intersection with another line.

교선이 미존재하는 경우, 전자 장치(100)는 제2 라인 및 제3 라인에 의한 하나의 교점이 존재하는지 여부를 판단하고, 제2 라인 및 제3 라인에 의한 하나의 교점이 존재하는 경우, 교점이 제4 포인트(14) 및 제7 포인트(17) 중 적어도 하나와 일치하는지 여부를 판단할 수 있다.If there is no intersection, the electronic device 100 determines whether there is one intersection by the second line and the third line, and if there is one intersection by the second and third lines, It may be determined whether the intersection point coincides with at least one of the fourth point 14 and the seventh point 17 .

이에 따라, 단계 S240을 수행함에 있어서, 전자 장치(100)는 제2 형상에 대해, 교점이 제4 포인트(14) 및 제7 포인트(17) 각각에 대해 불일치하거나, 교점이 제4 포인트(14) 및 제7 포인트(17) 모두와 일치하는 경우, 부정 모션을 식별한다.Accordingly, in performing step S240, the electronic device 100 determines whether the intersection point is inconsistent with respect to the second shape, the fourth point 14 and the seventh point 17, or the intersection point is the fourth point 14. ) and the seventh point 17, a negative motion is identified.

실시예로, 제1 라인 내지 제3 라인이 형성하는 형상을 식별함에 있어서, 전자 장치(100)는 제2 포인트(12) 및 제5 포인트(15)를 꼭지점으로 갖는 제4 라인을 생성할 수 있다.As an example, in identifying a shape formed by the first to third lines, the electronic device 100 may generate a fourth line having the second point 12 and the fifth point 15 as vertexes. there is.

이에 따라, 단계 S240을 수행함에 있어서, 전자 장치(100)는 제2 형상에 대해, 교점이 제4 포인트(14) 및 제7 포인트(17) 각각에 대해 불일치하거나, 교점이 제4 포인트(14) 및 제7 포인트(17) 모두와 일치하는 경우, 제4 라인을 기준으로, 제2 라인 및 제3 라인 중 적어도 하나가 갖는 각도를 산출할 수 있다.Accordingly, in performing step S240, the electronic device 100 determines whether the intersection point is inconsistent with respect to the second shape, the fourth point 14 and the seventh point 17, or the intersection point is the fourth point 14. ) and the seventh point 17, it is possible to calculate an angle of at least one of the second line and the third line based on the fourth line.

전자 장치(100)는 산출된 적어도 하나의 각도가 모두 임계각도 범위에 포함되는 경우, 부정 모션을 식별하되, 산출된 적어도 하나의 각도 중 어느 하나라도 임계각도 범위에 미포함되는 경우, 식별된 제2 형태가 X형이 아닌 제3 형태에 의한 +형인 것으로 재식별하여, 가산(+, 추가를 지시하는 명령)어를 식별할 수 있다.The electronic device 100 identifies an illegal motion when all of the at least one calculated angle is included in the critical angle range, but when any one of the at least one calculated angle is not included in the critical angle range, the identified second motion It is possible to identify an addition (+, a command indicating addition) word by re-identifying the form as being +-type according to the third form rather than X-type.

한편, 본 발명의 일 면에 따른 전자 장치(100)의 제어 방법에 있어서, 전자 장치(100)는 긍정 모션에 대한 사용자 명령(긍정어)을 획득한 경우, 제4 포인트(14)에 대한 세로축 좌표값 및 제7 포인트(17)에 대한 세로축 좌표값 간의 차값인 제1 차값을 산출할 수 있다.Meanwhile, in the control method of the electronic device 100 according to an aspect of the present invention, when the electronic device 100 obtains a user command (positive word) for a positive motion, the vertical axis with respect to the fourth point 14 A first difference value that is a difference value between the coordinate value and the vertical axis coordinate value for the seventh point 17 may be calculated.

이에 따라, 전자 장치(100)는 제1 차값이 일정 값을 초과하면, 팔꿈치의 접히는 각도 및 팔을 이용한 동작시 어깨의 높이에 대한 문제가 발생한 것으로 판단하여, 제2 포인트(12)의 세로축 좌표값 및 제5 포인트(15)의 세로축 좌표값의 차값인 제2 차값을 산출한다.Accordingly, when the first difference value exceeds a certain value, the electronic device 100 determines that a problem has occurred regarding the bending angle of the elbow and the height of the shoulder during an operation using the arm, and the ordinate coordinate of the second point 12 A second difference value, which is a difference between the value and the ordinate value of the fifth point 15, is calculated.

이때, 양쪽 어깨에 대한 높이 차인 제2 차값이 일정 값을 초과하면, 일측 어깨에 대해 관절 문제가 존재하는 것이므로, 전자 장치(100)는 제2 포인트(12)의 세로축 좌표값 및 제5 포인트(15)의 세로축 좌표값 중, 문제가 발생하여 위축된 것으로 추정되는 관절의 세로축 좌표값인, 작은 값을 갖는 포인트를 식별함으로써, 인물 객체(1)의 좌측 어깨 및 우측 어깨 중, 식별된 작은 값을 갖는 포인트에 해당하는 어깨에 대해, 문제 관절로 획득할 수 있다.At this time, if the second value, which is the height difference between both shoulders, exceeds a certain value, since there is a joint problem with one shoulder, the electronic device 100 determines the ordinate value of the second point 12 and the fifth point ( Among the ordinate coordinate values of 15), by identifying a point having a small value, which is a ordinate coordinate value of a joint estimated to be atrophied due to a problem, the identified small value among the left shoulder and right shoulder of the person object 1 For a shoulder corresponding to a point having , it can be obtained as a problem joint.

반면, 제2 차값이 일정 값 이하이면, 일측 팔꿈치에 대해 관절 문제가 존재하는 것이므로, 전자 장치(100)는 제2 포인트(12)의 세로축 좌표값 및 제5 포인트(15)의 세로축 좌표값 중, 잘 접히지 않는 것으로 추정되는 관절의 세로축 좌표값인, 큰 값을 갖는 포인트를 식별함으로써, 인물 객체(1)의 좌측 팔꿈치 및 우측 팔꿈치 중, 식별된 큰 값을 갖는 포인트에 해당하는 방향의 팔꿈치에 대해, 문제 관절로 획득할 수 있다.On the other hand, if the second value is less than or equal to a certain value, there is a joint problem with one elbow, and therefore, the electronic device 100 selects among the ordinate coordinate values of the second point 12 and the ordinate coordinate value of the fifth point 15. , By identifying a point with a large value, which is the ordinate value of a joint estimated to be not easily folded, to the elbow in the direction corresponding to the point with the identified large value among the left elbow and right elbow of the person object 1. For that, it can be obtained as a problem joint.

추가로, 본 발명의 전자 장치(100)의 제어 방법에 있어서, 전자 장치(100)는 인물 객체(1)에 대응하는 사용자로부터 진단 요청을 획득하면, 사용자에 대해 기 등록된 적어도 하나의 문제 관절을 식별한다.In addition, in the control method of the electronic device 100 of the present invention, when the electronic device 100 obtains a diagnosis request from the user corresponding to the person object 1, at least one problem joint pre-registered for the user identify

이에 따라, 전자 장치(100)는 문제 관절 각각에 대해 문제 관절로 획득된 횟수를 산출함으로써, 문제 관절 중 임계 횟수를 초과하는 횟수로 획득된 적어도 하나의 진단 관절이 식별되면, 진단 관절이 문제 관절로 획득된 영상을 진단 영상으로 획득할 수 있다.Accordingly, the electronic device 100 calculates the number of times each problem joint has been acquired as a problem joint, and if at least one diagnosis joint acquired with a number exceeding a threshold number among the problem joints is identified, the diagnosis joint is determined as the problem joint. The acquired image may be acquired as a diagnostic image.

이후, 전자 장치(100)는 진단 관절 및 진단 관절과 이웃한 적어도 하나의 관절 각각에 대한 포인트를 시각화하여 진단 영상에 대해 매칭함으로써 포인트가 매칭된 진단 영상을 사용자에게 제공하여, 문제가 반복적으로 발생된 관절의 움직임을 사용자가 직접 확인할 수 있도록 한다.Thereafter, the electronic device 100 visualizes the points for each of the diagnosed joint and at least one joint adjacent to the diagnosed joint and matches them to the diagnostic image, thereby providing the user with a diagnostic image in which the points are matched, so that the problem repeatedly occurs. Allows the user to directly check the movement of the joint.

실시예로, 진단 관절이 팔꿈치에 해당하는 경우, 전자 장치(100)는 진단 관절에 대한 포인트를 꼭지점으로 공유하는 두 개의 선을 식별하고, 식별된 두 개의 선이 팔 안쪽 방향에 대해 형성하는 각도를, 복수의 진단 영상을 바탕으로, 최솟값 및 최댓값을 획득할 수 있다.As an embodiment, when the diagnosed joint corresponds to the elbow, the electronic device 100 identifies two lines that share the point for the diagnosed joint as a vertex, and the identified two lines form an angle with respect to the inner direction of the arm. , based on a plurality of diagnostic images, it is possible to obtain a minimum value and a maximum value.

이에 따라, 진단 영상을 사용자에게 제공함에 있어서, 전자 장치(100)는 각도 변화량을 그래프로 출력하여 사용자에게 제공하고, 최솟값 및 최댓값을 바탕으로 접힘 범위를 획득하여, 접힘 범위에 기 등록된 가중치를 적용한 안전 범위를 산출하여, 각도 변화량과 함께 제공할 수 있다.Accordingly, in providing the diagnostic image to the user, the electronic device 100 outputs the amount of angular change as a graph and provides it to the user, obtains a folding range based on the minimum and maximum values, and sets a pre-registered weight to the folding range. The applied safety range can be calculated and provided together with the amount of angular change.

예컨대, 가중치는, 진단 관절에 대해 접힘이 가능한 팔의 각도 범위 내에서 팔에 무리가 가지 않도록 그 범위를 축소하는 수치로, 전자 장치(100)가 영상 내의 관절 움직임에 대해 안전 범위를 시각화하여 제공함으로써, 사용자가 가시화된 수치를 바탕으로 신체의 움직임을 유의하도록 한다.For example, the weight is a value that reduces the range so as not to strain the arm within the angular range of the arm that can be folded with respect to the diagnostic joint, and the electronic device 100 visualizes and provides a safe range for joint motion in the image. By doing so, the user is instructed to pay attention to the movement of the body based on the visualized numerical value.

이때, 전자 장치(100)는 안전 범위를 바탕으로, 안전 범위를 초과하는 운동의 종류를 획득하여, 사용자에게 제공함으로써 사용자가 해당 종류의 운동을 수행함으로 인해 발생하는 부상이 발생하는 것을 방지하는 것이 가능하다.At this time, the electronic device 100 obtains a type of exercise that exceeds the safe range based on the safe range and provides it to the user to prevent injury caused by the user performing the corresponding type of exercise. It is possible.

본 발명의 실시예와 관련하여 설명된 방법 또는 알고리즘의 단계들은 하드웨어로 직접 구현되거나, 하드웨어에 의해 실행되는 소프트웨어 모듈로 구현되거나, 또는 이들의 결합에 의해 구현될 수 있다. 소프트웨어 모듈은 RAM(Random Access Memory), ROM(Read Only Memory), EPROM(Erasable Programmable ROM), EEPROM(Electrically Erasable Programmable ROM), 플래시 메모리(Flash Memory), 하드 디스크, 착탈형 디스크, CD-ROM, 또는 본 발명이 속하는 기술 분야에서 잘 알려진 임의의 형태의 컴퓨터 판독가능 기록매체에 상주할 수도 있다.Steps of a method or algorithm described in connection with an embodiment of the present invention may be implemented directly in hardware, implemented in a software module executed by hardware, or implemented by a combination thereof. A software module may include random access memory (RAM), read only memory (ROM), erasable programmable ROM (EPROM), electrically erasable programmable ROM (EEPROM), flash memory, hard disk, removable disk, CD-ROM, or It may reside in any form of computer readable recording medium well known in the art to which the present invention pertains.

또한, 본 발명의 서로 다른 실시예들은 상호 보완되거나 결합될 수 있다.Also, different embodiments of the present invention may complement each other or be combined.

본 발명의 구성 요소들은 하드웨어인 컴퓨터와 결합되어 실행되기 위해 프로그램(또는 애플리케이션)으로 구현되어 매체에 저장될 수 있다. 본 발명의 구성 요소들은 소프트웨어 프로그래밍 또는 소프트웨어 요소들로 실행될 수 있으며, 이와 유사하게, 실시 예는 데이터 구조, 프로세스들, 루틴들 또는 다른 프로그래밍 구성들의 조합으로 구현되는 다양한 알고리즘을 포함하여, C, C++, 자바(Java), 어셈블러(assembler), 파이썬(Python) 등과 같은 프로그래밍 또는 스크립팅 언어로 구현될 수 있다. 기능적인 측면들은 하나 이상의 프로세서들에서 실행되는 알고리즘으로 구현될 수 있다.Components of the present invention may be implemented as a program (or application) to be executed in combination with a computer, which is hardware, and stored in a medium. Components of the present invention may be implemented as software programming or software elements, and similarly, embodiments may include various algorithms implemented as data structures, processes, routines, or combinations of other programming constructs, such as C, C++ , Java (Java), assembler (assembler), may be implemented in a programming or scripting language such as Python (Python). Functional aspects may be implemented in an algorithm running on one or more processors.

이상, 첨부된 도면을 참조로 하여 본 발명의 실시예를 설명하였지만, 본 발명이 속하는 기술분야의 통상의 기술자는 본 발명이 그 기술적 사상이나 필수적인 특징을 변경하지 않고서 다른 구체적인 형태로 실시될 수 있다는 것을 이해할 수 있을 것이다. 그러므로, 이상에서 기술한 실시예들은 모든 면에서 예시적인 것이며, 제한적이 아닌 것으로 이해해야만 한다.Although the embodiments of the present invention have been described with reference to the accompanying drawings, those skilled in the art to which the present invention pertains can be implemented in other specific forms without changing the technical spirit or essential features of the present invention. you will be able to understand Therefore, it should be understood that the embodiments described above are illustrative in all respects and not restrictive.

100 : 전자 장치
110 : 메모리
120 : 카메라
120 : 디스플레이
130 : 프로세서
100: electronic device
110: memory
120: camera
120: display
130: processor

Claims (7)

전자 장치의 제어 방법에 있어서,
상기 전자 장치가, 일 영상으로부터 인물 객체를 식별하는 단계;
상기 전자 장치가, 상기 인물 객체에 대한 복수의 포인트를 매칭하는 단계;
상기 전자 장치가, 상기 복수의 포인트를 바탕으로, 상기 인물 객체에 대한 상기 영상 내에서의 모션을 트래킹하는 단계; 및
상기 전자 장치가, 상기 트래킹에 대한 결과를 바탕으로 긍정 모션 및 부정 모션 중 어느 하나를 식별하는 단계;를 포함하고,
상기 복수의 포인트를 매칭하는 단계는,
상기 인물 객체의 얼굴을 식별하는 단계;
상기 얼굴을 기준으로 목, 좌측 어깨, 좌측 팔꿈치, 좌측 손목, 우측 어깨, 우측 팔꿈치, 및 우측 손목을 식별하는 단계;
상기 목에 제1 포인트, 상기 좌측 어깨에 제2 포인트, 상기 좌측 팔꿈치에 제3 포인트, 상기 좌측 손목에 제4 포인트, 상기 우측 어깨에 제5 포인트, 상기 우측 팔꿈치에 제6 포인트, 상기 우측 손목에 제7 포인트를 각각 매칭하는 단계;
상기 제1 포인트, 상기 제2 포인트 및 상기 제5 포인트에 대한 제1 라인을 생성하는 단계;
상기 제2 포인트 내지 상기 제4 포인트에 의한 제2 라인을 생성하는 단계; 및
상기 제5 포인트 내지 상기 제7 포인트에 의한 제3 라인을 생성하는 단계;를 포함하고,
상기 인물 객체에 대한 상기 영상 내에서의 모션을 트래킹하는 단계는,
상기 제1 포인트 내지 상기 제7 포인트 각각에 대한 좌표를 트래킹하는 단계;
상기 제1 라인 내지 상기 제3 라인이 형성하는 형상을 식별하는 단계;
상기 형상이 기 설정된 제1 형상인 경우, 좌표를 바탕으로, 상기 제3 포인트 및 상기 제6 포인트 간의 거리인 제1 거리를 산출하는 단계; 및
좌표를 바탕으로, 상기 제4 포인트 및 상기 제7 포인트 간의 거리인 제2 거리를 산출하는 단계;를 포함하고,
상기 트래킹에 대한 결과를 바탕으로 긍정 모션 및 부정 모션 중 어느 하나를 식별하는 단계는,
상기 제2 거리가 상기 제1 거리 미만이되, 상기 제2 거리가 일정 거리 미만이면, 긍정 모션을 식별하고,
상기 제1 라인 내지 상기 제3 라인이 형성하는 형상을 식별하는 단계는,
상기 형상이 기 설정된 제2 형상인 경우, 상기 제1 라인 내지 상기 제3 라인 중, 다른 라인에 대해 교선이 존재하는지 여부를 판단하는 단계;
교선이 미존재하는 경우, 상기 제2 라인 및 상기 제3 라인에 의한 하나의 교점이 존재하는지 여부를 판단하는 단계; 및
상기 제2 라인 및 상기 제3 라인에 의한 하나의 교점이 존재하는 경우, 상기 교점이 상기 제4 포인트 및 상기 제7 포인트 중 적어도 하나와 일치하는지 여부를 판단하는 단계;를 포함하고,
상기 트래킹에 대한 결과를 바탕으로 긍정 모션 및 부정 모션 중 어느 하나를 식별하는 단계는,
상기 교점이 상기 제4 포인트 및 상기 제7 포인트 각각에 대해 불일치하는 경우, 부정 모션을 식별하는 것을 특징으로 하는, 전자 장치의 제어 방법.
In the control method of an electronic device,
identifying, by the electronic device, a person object from one image;
matching, by the electronic device, a plurality of points with respect to the person object;
tracking, by the electronic device, a motion of the person object within the image based on the plurality of points; and
Identifying, by the electronic device, one of positive motion and negative motion based on a result of the tracking;
The step of matching the plurality of points,
identifying a face of the person object;
identifying a neck, a left shoulder, a left elbow, a left wrist, a right shoulder, a right elbow, and a right wrist based on the face;
1st point on the neck, 2nd point on the left shoulder, 3rd point on the left elbow, 4th point on the left wrist, 5th point on the right shoulder, 6th point on the right elbow, 6th point on the right wrist Matching the seventh points to each;
generating a first line for the first point, the second point, and the fifth point;
generating a second line by the second to fourth points; and
Generating a third line by the fifth to seventh points;
Tracking the motion of the person object within the image includes:
Tracking coordinates for each of the first to seventh points;
identifying a shape formed by the first line to the third line;
calculating a first distance that is a distance between the third point and the sixth point based on coordinates when the shape is a preset first shape; and
Calculating a second distance, which is a distance between the fourth point and the seventh point, based on the coordinates;
The step of identifying any one of positive motion and negative motion based on the result of the tracking,
If the second distance is less than the first distance and the second distance is less than a constant distance, identify positive motion;
The step of identifying the shape formed by the first line to the third line,
determining whether there is an intersection with another line among the first line to the third line when the shape is a preset second shape;
if no intersection exists, determining whether there is one intersection between the second line and the third line; and
When there is one intersection point by the second line and the third line, determining whether the intersection point coincides with at least one of the fourth point and the seventh point; including,
The step of identifying any one of positive motion and negative motion based on the result of the tracking,
When the intersection point is inconsistent with each of the fourth point and the seventh point, illegal motion is identified.
삭제delete 삭제delete 삭제delete 제1 항에 있어서,
상기 트래킹에 대한 결과를 바탕으로 긍정 모션 및 부정 모션 중 어느 하나를 식별하는 단계는,
긍정 모션 및 부정 모션 중 어느 하나를 식별한 경우, 최초 식별된 시점으로부터 일정 시간 동안 모션이 유지되면, 식별된 모션에 대한 사용자 명령을 획득하는 것을 특징으로 하는, 전자 장치의 제어 방법.
According to claim 1,
The step of identifying any one of positive motion and negative motion based on the result of the tracking,
A control method of an electronic device, comprising: obtaining a user command for the identified motion if any one of the positive motion and the negative motion is identified and the motion is maintained for a predetermined time from an initially identified time point.
제1 항에 있어서,
상기 전자 장치의 제어 방법은,
긍정 모션에 대한 사용자 명령을 획득한 경우, 상기 전자 장치가, 상기 제4 포인트에 대한 세로축 좌표값 및 상기 제7 포인트에 대한 세로축 좌표값 간의 차값인 제1 차값을 산출하는 단계;
상기 제1 차값이 일정 값을 초과하면, 상기 전자 장치가, 상기 제2 포인트의 세로축 좌표값 및 상기 제5 포인트의 세로축 좌표값의 차값인 제2 차값을 산출하는 단계;
상기 제2 차값이 일정 값을 초과하면, 상기 전자 장치가, 상기 제2 포인트의 세로축 좌표값 및 상기 제5 포인트의 세로축 좌표값 중, 작은 값을 갖는 포인트를 식별하는 단계; 및
상기 전자 장치가, 상기 인물 객체의 좌측 어깨 및 우측 어깨 중, 상기 식별된 작은 값을 갖는 포인트에 해당하는 어깨에 대해, 문제 관절로 획득하는 단계;를 포함하고,
상기 제2 차값을 산출하는 단계는,
상기 제2 차값이 일정 값 이하이면, 상기 제2 포인트의 세로축 좌표값 및 상기 제5 포인트의 세로축 좌표값 중, 큰 값을 갖는 포인트를 식별하는 단계; 및
상기 인물 객체의 좌측 팔꿈치 및 우측 팔꿈치 중, 상기 식별된 큰 값을 갖는 포인트에 해당하는 방향의 팔꿈치에 대해, 문제 관절로 획득하는 단계;를 포함하는, 전자 장치의 제어 방법.
According to claim 1,
The control method of the electronic device,
calculating, by the electronic device, a first difference value that is a difference between a ordinate coordinate value for the fourth point and a ordinate coordinate value for the seventh point when a user command for positive motion is acquired;
calculating, by the electronic device, a second difference value, which is a difference between the vertical axis coordinate value of the second point and the vertical axis coordinate value of the fifth point, when the first difference value exceeds a predetermined value;
identifying, by the electronic device, a point having a smaller value among the vertical axis coordinate value of the second point and the vertical axis coordinate value of the fifth point, when the second difference value exceeds a predetermined value; and
Acquiring, by the electronic device, a shoulder corresponding to a point having the identified small value among the left shoulder and the right shoulder of the person object as a problem joint;
In the step of calculating the second difference value,
identifying a point having a larger value among the ordinate coordinate value of the second point and the ordinate coordinate value of the fifth point when the second difference value is less than or equal to a predetermined value; and
Acquiring, among the left elbow and right elbow of the person object, an elbow in a direction corresponding to the point having the identified large value as a problem joint.
제6 항에 있어서,
상기 전자 장치의 제어 방법은,
상기 전자 장치가, 상기 인물 객체에 대응하는 사용자로부터 진단 요청을 획득하는 단계;
상기 전자 장치가, 상기 사용자에 대해 기 등록된 적어도 하나의 문제 관절을 식별하는 단계;
상기 전자 장치가, 상기 문제 관절 각각에 대해 문제 관절로 획득된 횟수를 산출하는 단계;
상기 문제 관절 중 임계 횟수를 초과하는 횟수로 획득된 적어도 하나의 진단 관절이 식별되면, 상기 전자 장치가, 상기 진단 관절이 문제 관절로 획득된 영상을 진단 영상으로 획득하는 단계;
상기 전자 장치가, 상기 진단 관절 및 상기 진단 관절과 이웃한 적어도 하나의 관절 각각에 대한 포인트를 상기 진단 영상에 대해 매칭하는 단계; 및
상기 전자 장치가, 상기 포인트가 매칭된 진단 영상을 상기 사용자에게 제공하는 단계;를 포함하는, 전자 장치의 제어 방법.
According to claim 6,
The control method of the electronic device,
obtaining, by the electronic device, a diagnosis request from a user corresponding to the person object;
identifying, by the electronic device, at least one problem joint pre-registered for the user;
calculating, by the electronic device, the number of times acquired as a problem joint for each of the problem joints;
acquiring, by the electronic device, an image obtained as a problem joint as a diagnosis image, when at least one diagnosis joint acquired at a number exceeding a threshold number is identified among the problem joints;
matching, by the electronic device, points for the diagnosis joint and at least one joint adjacent to the diagnosis joint with respect to the diagnosis image; and
The control method of the electronic device, comprising: providing, by the electronic device, a diagnostic image matched with the points to the user.
KR1020220091981A 2022-07-25 2022-07-25 Control method of electronic device to acquire command for either positive or negative word based on joint tracking KR102490430B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020220091981A KR102490430B1 (en) 2022-07-25 2022-07-25 Control method of electronic device to acquire command for either positive or negative word based on joint tracking

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020220091981A KR102490430B1 (en) 2022-07-25 2022-07-25 Control method of electronic device to acquire command for either positive or negative word based on joint tracking

Publications (1)

Publication Number Publication Date
KR102490430B1 true KR102490430B1 (en) 2023-01-27

Family

ID=85101782

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020220091981A KR102490430B1 (en) 2022-07-25 2022-07-25 Control method of electronic device to acquire command for either positive or negative word based on joint tracking

Country Status (1)

Country Link
KR (1) KR102490430B1 (en)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101304321B1 (en) 2010-01-22 2013-09-11 전자부품연구원 Method for providing UI according to single touch pressure and electronic device using the same
KR20190044952A (en) * 2017-10-23 2019-05-02 남정우 Method for analyzing and displaying a realtime exercise motion using a smart mirror and smart mirror for the same
KR20210079542A (en) * 2019-12-20 2021-06-30 한국전자기술연구원 User Motion Recognition Method and System using 3D Skeleton Information

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101304321B1 (en) 2010-01-22 2013-09-11 전자부품연구원 Method for providing UI according to single touch pressure and electronic device using the same
KR20190044952A (en) * 2017-10-23 2019-05-02 남정우 Method for analyzing and displaying a realtime exercise motion using a smart mirror and smart mirror for the same
KR20210079542A (en) * 2019-12-20 2021-06-30 한국전자기술연구원 User Motion Recognition Method and System using 3D Skeleton Information

Similar Documents

Publication Publication Date Title
US11816847B2 (en) Method and apparatus for prompting motion, electronic device and storage medium
US10853649B2 (en) Context-aware hazard detection using world-facing cameras in virtual, augmented, and mixed reality (xR) applications
Moon et al. Multiple kinect sensor fusion for human skeleton tracking using Kalman filtering
US10482677B1 (en) Distributed simultaneous localization and mapping (SLAM) in virtual, augmented, and mixed reality (xR) applications
US9996982B2 (en) Information processing device, authoring method, and program
US11917288B2 (en) Image processing method and apparatus
JP2021522564A (en) Systems and methods for detecting human gaze and gestures in an unconstrained environment
WO2021120834A1 (en) Biometrics-based gesture recognition method and apparatus, computer device, and medium
US11158123B2 (en) Method for controlling virtual objects, storage medium and electronic device
US11240525B2 (en) Systems and methods for video encoding acceleration in virtual, augmented, and mixed reality (xR) applications
CN106030610A (en) Real-time 3D gesture recognition and tracking system for mobile devices
US10928899B2 (en) Handling multiple eye-gaze tracking (EGT) sources in virtual, augmented, or mixed reality (XR) applications
KR102487926B1 (en) Electronic device and method for measuring heart rate
EP4281901A1 (en) Action recognition using pose data and machine learning
CN114049683A (en) Post-healing rehabilitation auxiliary detection system, method and medium based on three-dimensional human skeleton model
EP4290459A1 (en) Augmented reality method and related device thereof
KR102532230B1 (en) Electronic device and control method thereof
Wang et al. Multi-Kinects fusion for full-body tracking in virtual reality-aided assembly simulation
CN115515487A (en) Vision-based rehabilitation training system based on 3D body posture estimation using multi-view images
KR102490430B1 (en) Control method of electronic device to acquire command for either positive or negative word based on joint tracking
KR102510047B1 (en) Control method of electronic device to filter noise of pose recognition using range of motion
KR102490431B1 (en) Control method of electronic device for determining environment to acquire movement of user
US11654573B2 (en) Methods and systems for enabling human robot interaction by sharing cognition
Ogiela et al. Natural user interfaces for exploring and modeling medical images and defining gesture description technology
KR102510050B1 (en) Control method of electronic device to acquire command for either going straight or back based on joint tracking

Legal Events

Date Code Title Description
E701 Decision to grant or registration of patent right
GRNT Written decision to grant