KR20200098970A - Smart -learning device and method based on motion recognition - Google Patents

Smart -learning device and method based on motion recognition Download PDF

Info

Publication number
KR20200098970A
KR20200098970A KR1020190016769A KR20190016769A KR20200098970A KR 20200098970 A KR20200098970 A KR 20200098970A KR 1020190016769 A KR1020190016769 A KR 1020190016769A KR 20190016769 A KR20190016769 A KR 20190016769A KR 20200098970 A KR20200098970 A KR 20200098970A
Authority
KR
South Korea
Prior art keywords
motion
learner
image
data
learning
Prior art date
Application number
KR1020190016769A
Other languages
Korean (ko)
Other versions
KR102199078B1 (en
Inventor
임혜민
Original Assignee
임혜민
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 임혜민 filed Critical 임혜민
Priority to KR1020190016769A priority Critical patent/KR102199078B1/en
Publication of KR20200098970A publication Critical patent/KR20200098970A/en
Application granted granted Critical
Publication of KR102199078B1 publication Critical patent/KR102199078B1/en

Links

Images

Classifications

    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09BEDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
    • G09B19/00Teaching not covered by other main groups of this subclass
    • G06K9/00335
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/20Movements or behaviour, e.g. gesture recognition
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09BEDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
    • G09B5/00Electrically-operated educational appliances
    • G09B5/06Electrically-operated educational appliances with both visual and audible presentation of the material to be studied

Landscapes

  • Engineering & Computer Science (AREA)
  • Business, Economics & Management (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Educational Technology (AREA)
  • Educational Administration (AREA)
  • Entrepreneurship & Innovation (AREA)
  • Human Computer Interaction (AREA)
  • Multimedia (AREA)
  • Social Psychology (AREA)
  • Psychiatry (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Image Analysis (AREA)

Abstract

The present invention relates to smart beauty technique learning device and method based on motion recognition, and in particular, to a smart beauty technique learning device based on motion recognition, comprising: an image acquisition unit acquiring an image of a learner, photographed through a motion recognition sensor; an image processing unit extracting an object from the photographed image of the learner and/or an input image, and calculating one or more posture information data of the object; a motion script generation unit including continuous motion data of the object based on the calculated posture information data; a motion determination unit for determining the degree of error between motion data of the object in the input image and motion data of the object in the image of the learner; and a learning support unit for outputting instruction for posture correction of the object in the photographed image of the learner when the degree of error of the motion determination unit exceeds a set numerical range. According to the present invention, when the motion data of the object in the input image and the motion data of the learner do not match, it is determined so that the learner can determine a motion state by oneself and correct a wrong posture according to the output instruction.

Description

동작인식 기반의 스마트 미용기술 러닝 장치 및 방법 { Smart -learning device and method based on motion recognition}Smart beauty technology learning device and method based on motion recognition {Smart -learning device and method based on motion recognition}

본 발명은 동영상을 통한 학습을 통해 미용기술을 습득할 수 있도록 지원하는 동작인식 기반의 스마트 미용기술 러닝 장치 및 방법에 관한 것으로, 보다 상세하게는 학습자가 영상 속 헤어 디자이너 또는 메이크업 아티스트의 강의를 시청과 동시에 영상 속 전문가들의 동작을 동일하게 따라 함으로써, 염색방법 또는 메이크업 방법 등 전문기술에 대한 자가학습이 가능 하도록 하는 동작인식 기반의 스마트 미용기술 러닝 장치 및 방법에 관한 것이다.The present invention relates to a motion recognition-based smart beauty technology learning device and method that supports the acquisition of beauty technology through learning through video, and more particularly, a learner watches a lecture of a hair designer or makeup artist in the video. At the same time, it relates to a motion recognition-based smart beauty technology learning device and method that enables self-learning about professional skills such as dyeing method or makeup method by identically following the movements of experts in images.

각종 스포츠를 위한 올바른 자세 또는 헤어 디자이너, 메이크업 아티스트 등의 각종 전문직 종사자들의 노하우인 전문기술을 배우기 위해 올바른 자세 및 정확한 전문도구 사용법 등을 숙지하고자 하는 수요는 항상 존재해 왔으며, 특정 기술을 학습할 수 있는 가장 좋은 방법 중의 하나는 전문가와의 일대일 수업을 통해 전문가의 동작을 반복적으로 따라하고, 즉각적인 피드백을 받아 잘못된 사용법 등을 지속적으로 교정하는 것이다.There has always been a need to familiarize yourself with the correct posture and the correct use of professional tools to learn the correct posture for various sports or the expertise of various professional workers such as hair designers and makeup artists. One of the best ways to do this is to repeat the expert's actions repeatedly through a one-on-one class with an expert, receive immediate feedback, and continuously correct incorrect usage.

하지만 장소와 시간, 경제적 비용 등의 제약으로 인해 전문 강사에게 개별적으로 교습을 받는 것은 쉽지 않은 일이다. 따라서, 인터넷 등의 영상학습을 통한 특정 동작, 기술 등을 배울 수 있는 자가 학습 방법에 대한 요구사항이 점점 증가하고 있으며 이와 관련된 기반 산업도 발전하고 있는 추세이다.However, it is not easy to receive individual lessons from professional instructors due to restrictions such as location, time, and economic costs. Therefore, requirements for self-learning methods that can learn specific movements, techniques, etc. through image learning such as the Internet are increasing, and the related infrastructure industry is also developing.

다만, 현재의 영상물을 통한 자가 학습방법은 화면의 강사가 취하는 동작을 보고 그대로 따라 하는 방식으로, 학습자 본인이 취하고 있는 동작의 정확도, 오류 수정 및 개선 및 학습 성취도 등에 대한 정확한 피드백이 전혀 없기 때문에 효과적인 자가 학습 방법이라고 보기 어렵다. However, the current self-learning method through video is a method of seeing and following the actions taken by the instructor on the screen, and is effective because there is no accurate feedback on the accuracy, error correction, improvement, and learning achievement of the learner. It is difficult to say that it is a self-learning method.

최근 몇 년간 IT 기술의 급속한 발전과 함께 동작 인식용 센서와 동작 인식 기술을 기반으로 하는 스포츠 자세 분석 시스템 등은 플레이어의 자세에 대한 상세한 분석 및 이를 기반으로 하는 진단 서비스를 제공하지만, 이들 진단 서비스는 전문적으로 스포츠 시뮬레이터를 판매하는 몇몇 특정 사업자에 의해서 해당 스포츠에 특화되어 개발된 점에서 다양한 분야에 적용되기 어려운 문제점이 있다. With the rapid development of IT technology in recent years, motion recognition sensors and sports posture analysis systems based on motion recognition technology provide detailed analysis of the player's posture and diagnosis services based on this, but these diagnosis services There is a problem that it is difficult to be applied to various fields in that it has been developed specially for the sport by several specific companies that professionally sell sport simulators.

이러한 문제점을 감안하여 비스포츠 분야에도 적용이 가능하며, 자택에서 손쉽게 사용이 가능하면서도, 학습자 본인이 취하고 있는 동작의 정확도, 오류 수정 및 개선 및 학습 성취도 등에 대한 정확한 피드백이 가능한 동작인식 기반의 스마트 미용기술 러닝 장치가 요구되고 있다. In consideration of these problems, it can be applied to the non-sports field, and while it can be easily used at home, the motion recognition-based smart beauty that provides accurate feedback on the accuracy, error correction and improvement of the learner's actions, and learning achievement. Technology learning devices are in demand.

대한민국 공개 특허 제10-2016-0139932호Republic of Korea Patent Publication No. 10-2016-0139932 대한민국 등록 특허 제10-1414744호Korean Patent Registration No. 10-1414744

본 발명은 전술한 문제를 해결하기 위하여 안출 된 것으로, 메이커업 아티스트 등 화장, 미용 분야 전문가의 정확한 동작을 학습하기 위해, 자택 등 원격에서도 보다 손쉽게 사용이 가능하면서도, 학습자 본인이 취하고 있는 동작의 정확도, 오류 수정 및 개선 및 학습 성취도 등에 대한 정확한 피드백이 가능한 동작인식 기반의 스마트 미용기술 러닝 장치 제공에 그 목적이 있다. The present invention was conceived to solve the above-described problem, in order to learn the precise movements of experts in the field of makeup and beauty, such as a maker-up artist, it is possible to use more easily at a remote location, such as at home, and the accuracy of the movements that the learner is taking, Its purpose is to provide a motion recognition-based smart beauty technology learning device that enables accurate feedback on error correction and improvement and learning achievement.

다만, 본 발명이 이루고자 하는 기술적 과제는 이상에서 언급한 기술적 과제로 제한되지 않으며, 언급되지 않은 또 다른 기술적 과제들은 아래의 기재로부터 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자에게 명확하게 이해될 수 있을 것이다.However, the technical problem to be achieved by the present invention is not limited to the technical problems mentioned above, and other technical problems not mentioned are clearly understood by those of ordinary skill in the technical field to which the present invention belongs from the following description. Can be.

전술한 본 발명의 목적 달성을 위해, 미리 입력된 영상 속 전문가의 동작을 동일하게 따라함으로써 스마트 러닝이 가능한 동작인식 기반의 스마트 미용기술 러닝 장치는, 동작인식 센서를 통해 촬상된 학습자의 영상을 취득하는 영상취득부; 상기 촬상된 학습자의 영상 및/또는 상기 입력된 영상으로부터 객체를 추출하여 적어도 하나 이상의 상기 객체의 자세정보 데이터를 산출하는 영상처리부; 산출된 상기 자세정보 데이터를 기반으로 상기 객체의 연속된 동작 데이터를 포함(생성)하는 모션 스크립트 생성부; 상기 입력된 영상 속 객체의 동작 데이터와 상기 학습자의 영상 속 객체의 동작 데이터의 오차정도를 판단하는 동작판단부; 및 상기 동작판단부의 오차정도가 설정된 수치범위를 초과하는 경우 상기 촬상된 학습자의 영상 속 객체의 자세 교정을 위한 지시사항이 출력되는 학습지원부를 포함하여, 상기 입력된 영상 속 객체의 동작 데이터와 상기 학습자의 동작 데이터가 불일치 할 경우 이를 판단하여 상기 학습자가 스스로 동작의 상태를 파악하고 출력된 지시상항에 따라 잘못된 자세를 교정할 수 있도록 하는 것을 특징으로 한다.In order to achieve the above-described object of the present invention, a motion recognition-based smart beauty technology learning device capable of smart learning by following the motion of an expert in a pre-input image is obtained, and acquires an image of a learner captured through a motion recognition sensor. An image acquisition unit; An image processing unit that extracts an object from the captured image of the learner and/or the input image to calculate attitude information data of at least one object; A motion script generator that includes (generates) continuous motion data of the object based on the calculated posture information data; A motion determination unit determining an error degree between motion data of the object in the input image and motion data of the object in the learner's image; And a learning support unit that outputs an instruction for correcting the posture of the object in the image of the imaged learner when the error degree of the motion determination unit exceeds a set numerical range, wherein the motion data of the object in the input image and the When the learner's motion data is inconsistent, it is determined so that the learner can determine the state of the motion and correct the wrong posture according to the output instruction.

본 발명의 일 실시예에 있어서, 상기 동작인식 기반의 스마트 미용기술 러닝 장치는 상기 학습자 및/또는 상기 학습자가 사용하는 학습도구에 부착된 센서로부터 상기 학습자 및/또는 상기 학습자가 사용하는 학습도구의 위치좌표 데이터를 획득할 수 있는 센서부를 더 포함하여, 상기 학습자 및/또는 상기 학습자가 사용하는 학습도구의 움직임을 보다 정밀하게 센싱할 수 있는 것을 특징으로 한다. In one embodiment of the present invention, the motion recognition-based smart beauty technology learning device includes the learner and/or the learning tool used by the learner from a sensor attached to the learner and/or the learning tool used by the learner. It is characterized in that it further includes a sensor unit capable of acquiring position coordinate data, and more precisely senses the movement of the learner and/or the learning tool used by the learner.

본 발명의 일 실시예에 있어서, 상기 모션 스크립트 생성부는 상기 생성된 모션 스크립트를 영상 시퀀스 단위로 생성하되, 상기 동작 데이터는 자세정보 데이터의 위치, 이동좌표, 회전 수 및/또는 병진운동 좌표를 포함할 수 있으며, 상기 입력된 영상 속 전문가의 행동을 영상 시퀀스 단위로 학습할 수 있도록 모션 스크립트를 생성하여 상기 학습자의 학습효율을 증대 시킬 수 있는 것을 특징으로 한다. In one embodiment of the present invention, the motion script generation unit generates the generated motion script in units of an image sequence, wherein the motion data includes a position of the posture information data, a movement coordinate, a number of rotations, and/or a translational motion coordinate. It is characterized in that it is possible to increase the learning efficiency of the learner by generating a motion script so that the expert's actions in the input video can be learned in units of video sequences.

본 발명의 일 실시예에 있어서, 상기 동작판단부는, 상기 오차정도를 판단함에 있어, 상기 입력된 영상 속 객체의 동작데이터 좌표를 기준으로 복수개의 상기 객체의 동작데이터 속 좌표를 비교 분석하여 방향 및/또는 회전 횟수의 오차를 측정하여, 상기 학습자가 입력된 영상 속 전문가의 기술을 따라하는데 있어 상기 전문가의 동작과 학습자의 동작의 차이를 보다 정확하게 인지하여 효율적으로 학습할 수 있도록 하는 것을 특징으로 한다. In one embodiment of the present invention, in determining the degree of error, the motion determination unit compares and analyzes coordinates in motion data of a plurality of objects based on motion data coordinates of the object in the input image, / Or by measuring the error of the number of rotations, the learner can more accurately recognize the difference between the expert's motion and the learner's motion in following the expert's technique in the inputted image so that the learner can learn efficiently. .

또한 본 발명의 일 실시예에 있어서, 상기 지시사항은, 상기 학습자가 자세 교정을 위해 이동해야 하는 방향, 위치, 속도, 이동 각도 및/또는 회전횟수를 포함할 수 있으며, 음성 및/또는 자막의 방식으로 출력될 수 있는 것을 특징으로 하여, 상기 학습자가 입력된 영상 속 전문자의 기술을 따라하는데 있어 보다 정확한 방법을 학습할 수 있도록 하는 것을 특징으로 한다. In addition, in an embodiment of the present invention, the instruction may include a direction, a position, a speed, an angle of movement and/or a number of rotations in which the learner should move for posture correction. It is characterized in that it can be output in a manner, characterized in that the learner can learn a more accurate method in imitating the skill of the expert in the input image.

또한 본 발명의 일 실시예에 있어서, 상기 학습지원부는, 상기 오차정도가 설정된 수치범위를 초과하는 경우, 상기 입력된 영상의 플레이 속도 자동 조절 및/또는 상기 입력된 영상을 시퀀스 단위로 반복 재생하여, 상기 학습자가 상기 입력된 영상 속 전문가의 동작을 일정 수준이상 따라 가지 못하는 경우 상기 입력된 영상의 재생 속도를 조절하여 상기 학습자가 보다 용이하게 학습할 수 있도록 하는 것을 특징으로 한다. In addition, in an embodiment of the present invention, the learning support unit, when the error degree exceeds a set numerical range, automatically adjusts the play speed of the input video and/or replays the input video in sequence units. And when the learner does not follow the operation of the expert in the input video by more than a certain level, the play speed of the input video is adjusted so that the learner can learn more easily.

또한 본 발명의 목적은 입력된 영상 속 전문가의 동작을 동일하게 따라함으로써 스마트 러닝이 가능한 동작인식 기반 스마트 러닝 방법에 있어서, 동작인식 센서를 통해 촬상된 학습자의 영상을 취득하는 단계; 상기 학습자의 영상 및/또는 상기 입력된 영상으로부터 객체를 추출하는 단계; 적어도 하나 이상의 상기 객체의 자세정보 데이터를 생성하는 단계; 생성된 상기 자세정보 데이터를 기반으로 상기 객체의 연속된 동작데이터를 생성하는 단계; 상기 입력된 영상 속 객체의 동작데이터와 상기 학습자의 영상 속 객체의 동작데이터의 오차정도를 판단하는 단계; 및 상기 오차정도가 설정된 수치범위를 초과하는 경우 상기 영상 속 객체의 동작 교정을 위한 지시사항이 출력되는 단계를 포함하되, 상기 동작데이터 일치여부를 판단하는 단계는, 상기 오차정도가 설정된 수치범위를 초과하는 경우 상기 입력된 영상의 플레이 속도를 자동으로 조절하거나 또는 상기 입력된 영상을 시퀀스 단위로 반복 재생하는 단계를 더 포함하여, 상기 입력된 영상 속 객체의 동작과 상기 학습자의 동작이 불일치 할 경우 이를 판단하여 상기 학습자가 스스로 동작의 상태를 파악하고 출력된 지시상항에 따라 잘못된 자세를 교정할 수 있도록 하는 것을 특징으로 하는 동작인식 기반의 스마트 미용기술 러닝 방법을 통해서도 본 발명의 목적 달성은 가능하게 된다.In addition, an object of the present invention is a motion recognition-based smart learning method capable of smart learning by identically following an expert's motion in an input image, the method comprising: acquiring an image of a learner captured through a motion recognition sensor; Extracting an object from the learner's image and/or the input image; Generating at least one posture information data of the object; Generating continuous motion data of the object based on the generated posture information data; Determining an error degree between motion data of the object in the input image and motion data of the object in the learner's image; And outputting an instruction for correcting the motion of the object in the image when the error degree exceeds a set numerical range, wherein determining whether the motion data matches, comprises determining the numerical range in which the error degree is set. If it exceeds, further comprising the step of automatically adjusting the play speed of the input video or repeatedly playing the input video in sequence units, when the motion of the object in the input video and the learner's motion are inconsistent It is possible to achieve the object of the present invention through a motion recognition-based smart beauty technology learning method, characterized in that the learner can determine the state of the motion by determining this and correct the wrong posture according to the output instruction. do.

이상에서 설명한 바와 같은 본 발명의 동작인식 기반의 스마트 미용기술 러닝 장치에 따르면, 다음과 같은 효과가 있다.According to the motion recognition-based smart beauty technology learning device of the present invention as described above, the following effects are provided.

본 발명의 일 실시 예에 따른 출력되는 영상속의 객체 행동을 분석한 데이터 및 센서 등을 통해 인식된 학습자의 동작 데이터를 비교 분석 할 수 있다. According to an exemplary embodiment of the present invention, data obtained by analyzing object behavior in an output image and behavior data of a learner recognized through a sensor may be compared and analyzed.

또한, 본 발명에 의하면 일방적인 콘텐츠 소비가 아닌 특정한 행동을 취해야 다음 동영상이 플레이 되는 등 유저와 영상 간의 상호 교류를 가능하게 하여 상호간 인터랙션이 필요한 교육 프로그램 및 장기적인 관리가 필요한 프로그램 등에 활용될 수 있다 In addition, according to the present invention, it is possible to mutually exchange between users and videos, such as playing the next video when a specific action is taken rather than unilateral content consumption, so that it can be used for educational programs requiring mutual interaction and programs requiring long-term management.

한편, 본 발명의 효과는 이상에서 언급한 효과로 제한되지 않으며, 언급되지 않은 다른 효과들은 청구범위의 기재로부터 당업자에게 명확하게 이해될 수 있을 것이다.On the other hand, the effects of the present invention are not limited to the above-mentioned effects, and other effects not mentioned will be clearly understood by those skilled in the art from the description of the claims.

도 1은 본 발명의 일 실시예에 따른 동작인식 기반의 스마트 미용기술 러닝 장치의 구성도이다.
도 2는 본 발명의 일 실시예에 따른 학습자의 자세정보 데이터를 산출한 영상의 예시도면이다.
도 3은 본 발명의 일 실시예에 따른 학습자의 동작을 촬영한 영상의 어느 일 프레임에 상기 동작하는 학습자의 동작 데이터를 레이어 한 모션 스크립트의 한 예시도면이다.
도 4는 본 발명의 일 실시예에 따른 동작인식 기반의 스마트 미용기술 러닝 방법에 대한 흐름도이다
1 is a block diagram of a motion recognition-based smart beauty technology learning device according to an embodiment of the present invention.
2 is an exemplary view of an image obtained by calculating the learner's posture information data according to an embodiment of the present invention.
3 is an exemplary diagram of a motion script in which motion data of a learner is layered on a frame of an image photographing a learner's motion according to an embodiment of the present invention.
Figure 4 is a flow chart of a motion recognition-based smart beauty technology learning method according to an embodiment of the present invention

이하에서는 첨부한 도면을 참조하여 본 발명을 설명하기로 한다. 그러나 본 발명은 여러 가지 상이한 형태로 구현될 수 있으며, 따라서 여기에서 설명하는 실시예로 한정되는 것은 아니다. 그리고 도면에서 본 발명을 명확하게 설명하기 위해서 설명과 관계없는 부분은 생략하였으며, 명세서 전체를 통하여 유사한 부분에 대해서는 유사한 도면 부호를 붙였다.Hereinafter, the present invention will be described with reference to the accompanying drawings. However, the present invention may be implemented in various different forms, and therefore is not limited to the embodiments described herein. In the drawings, parts irrelevant to the description are omitted in order to clearly describe the present invention, and similar reference numerals are assigned to similar parts throughout the specification.

명세서 전체에서, 어떤 부분이 다른 부분과 "연결(접속, 접촉, 결합)"되어 있다고 할 때, 이는 "직접적으로 연결"되어 있는 경우뿐 아니라, 그 중간에 다른 부재를 사이에 두고 "간접적으로 연결"되어 있는 경우도 포함한다. 또한, 어떤 부분이 어떤 구성요소를 "포함"한다고 할 때, 이는 특별히 반대되는 기재가 없는 한 다른 구성요소를 제외하는 것이 아니라 다른 구성요소를 더 구비할 수 있다는 것을 의미한다.Throughout the specification, when a part is said to be "connected (connected, contacted, bonded)" with another part, it is not only "directly connected", but also "indirectly connected" with another member in the middle. "Including the case. In addition, when a part "includes" a certain component, this means that other components may be further provided, not excluding other components, unless specifically stated to the contrary.

본 명세서에서 사용한 용어는 단지 특정한 실시예를 설명하기 위해 사용된 것으로, 본 발명을 한정하려는 의도가 아니다. 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. 본 명세서에서, "포함하다" 또는 "가지다" 등의 용어는 명세서 상에 기재된 특징, 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.The terms used in the present specification are only used to describe specific embodiments, and are not intended to limit the present invention. Singular expressions include plural expressions unless the context clearly indicates otherwise. In the present specification, terms such as "comprise" or "have" are intended to designate the presence of features, numbers, steps, actions, components, parts, or combinations thereof described in the specification, but one or more other features. It is to be understood that the presence or addition of elements or numbers, steps, actions, components, parts, or combinations thereof, does not preclude in advance.

참고로, 이하에서 설명될 본 발명의 구성들 중 종래기술과 동일한 구성에 대해서는 전술한 종래기술을 참조하기로 하고 별도의 상세한 설명은 생략한다.For reference, among the configurations of the present invention to be described below, the above-described conventional technology will be referred to for the same configuration as the prior art, and a separate detailed description will be omitted.

도 1은 본 발명의 일 실시예에 따른 동작인식 기반의 스마트 미용기술 러닝 장치(100)를 설명하기 위한 블럭도이다.1 is a block diagram for explaining a motion recognition-based smart beauty technology learning device 100 according to an embodiment of the present invention.

도 1에 도시된 바와 같이, 동작인식 기반의 스마트 미용기술 러닝 장치(100)는 영상취득부(110), 영상처리부(120), 센서부(130), 모션 스크립트 생성부(140), 동작판단부(150), 학습지원부(160) 및 디스플레이부(170)를 포함하여, 입력된 영상 속 전문가의 동작을 동일하게 따라함으로써 자가학습이 가능하게 할 수 있다. As shown in Fig. 1, the motion recognition-based smart beauty technology learning device 100 includes an image acquisition unit 110, an image processing unit 120, a sensor unit 130, a motion script generation unit 140, and an operation judgment. Including the unit 150, the learning support unit 160, and the display unit 170, it is possible to enable self-learning by following the same operation of the expert in the input image.

도 1에 도시된 구성요소들은 동작인식 기반의 스마트 미용기술 러닝 장치(100)를 구현하는데 있어서 필수적인 것은 아니어서, 본 명세서 상에서 설명되는 동작인식 기반의 스마트 미용기술 러닝 장치(100)는 위에서 열거된 구성요소들 보다 많거나, 또는 적은 구성요소들을 가질 수 있다.The components shown in FIG. 1 are not essential in implementing the motion recognition-based smart beauty technology learning device 100, so the motion recognition-based smart beauty technology learning device 100 described in this specification is listed above. It may have more or fewer components than components.

본 발명의 일 실시예에 따르면, 상기 동작인식 기반의 스마트 미용기술 러닝 장치(100)는 학습자(200)에 의해서 전문가의 기술이나 노하우가 촬영된 영상이 입력되어 플레이 될 수 있다. 예를 들어, 헤어 디자이너의 헤어 염색에 대한 강의 또는 메이크업 아티스트의 메이크업 강의에 대한 영상을 입력하여 플레이 할 수 있으며, 상기 학습자(200)는 상기 영상 속 전문가(ex. 헤어 디자이너나 메이크업 아티스트)의 강의를 들으면서 상기 전문가들의 동작을 동일하게 따라 함으로써, 염색방법 또는 메이크업 방법을 배울 수 있다. According to an embodiment of the present invention, the motion recognition-based smart beauty technology learning device 100 may be played by inputting an image in which expert skills or know-how are captured by the learner 200. For example, a hair designer's lecture on hair dyeing or a makeup artist's makeup lecture video can be input and played, and the learner 200 is a lecturer of an expert (ex. hair designer or makeup artist) in the video. While listening to, by following the same movement of the experts, you can learn how to dye or make makeup.

본 발명의 일 실시예에 따른 상기 영상취득부(110)는, 동작인식 센서를 통해 촬상된 학습자의 영상(111)을 취득할 수 있다. 보다 상세하게 설명하면, 동작인식 센서는 동작인식 기반의 스마트 미용기술 러닝 장치(100)에서 플레이 되는 동영상 속 전문가의 동작을 따라하는 학습자(200)를 촬영할 수 있으면, 이렇게 촬영된 상기 학습자(200)의 학습 영상은 상기 영상취득부(110)를 통해 취득될 수 있다. 예를 들어 메이크업 강좌를 영상으로 시청하며 학습자(200)가 상기 입력된 영상 속 전무가와 동일하게 메이크업을 실습하는 경우, 그 과정 및 결과물을 동작인식 센서를 통해 이를 촬영할 수 있다. The image acquisition unit 110 according to an embodiment of the present invention may acquire the learner's image 111 captured through a motion recognition sensor. In more detail, if the motion recognition sensor can capture the learner 200 following the motion of the expert in the video played on the motion recognition-based smart beauty technology learning device 100, the learner 200 photographed in this way The learning image of may be acquired through the image acquisition unit 110. For example, if the learner 200 practices makeup in the same manner as the manager in the input video while watching a makeup course as a video, the process and the result may be photographed through a motion recognition sensor.

상기 동작인식 센서는 상기 학습자(200)에 대한 깊이 영상을 촬영할 수 있도록 학습자(200)의 정면에 대해 전방으로 소정 거리가 이격된 위치에 설치되어 있을 수 있다. 또한, 상기 동작인식 센서는 일반 영상, 컬러영상 및 깊이 영상을 획득할 수 있도록 깊이 센서, RGB센서가 및 촬영용 카메라가 포함된 기기인 것이 바람직하며, 키넥트 센서를 포함하여 플레이어의 위치와 움직임을 감지하여 3차원 데이터를 전송할 수도 있다. 또한, 적외선 방출 및 적외선 센서를 포함하여 상기 학습자(200)를 촬영할 수도 있다. 예를 들어, 학습자(200)가 헤어 디자인어의 강좌를 보며 이를 실습하는 경우 상기 학습자(200)의 실습 동작 즉, 가위, 및/또는 드라이를 사용하는 동작을 촬영한 영상을 획득할 수 있다. 다만, 이는 일 실시예에 불과할 뿐 상기 동작인식 기반의 스마트 미용기술 러닝 장치(100)에 다양한 형태로 포함될 수도 있다. The motion recognition sensor may be installed at a position spaced a predetermined distance forward with respect to the front of the learner 200 so as to capture a depth image of the learner 200. In addition, the motion recognition sensor is preferably a device including a depth sensor, an RGB sensor, and a photographing camera to obtain a general image, a color image, and a depth image, and includes a Kinect sensor to determine the position and movement of the player. It can also detect and transmit 3D data. In addition, the learner 200 may be photographed by including an infrared emission and an infrared sensor. For example, when the learner 200 observes a course of a hair designer and practices it, an image of the learner 200's practice motion, that is, a motion using scissors and/or a dryer, may be acquired. However, this is only an exemplary embodiment and may be included in the motion recognition-based smart beauty technology learning device 100 in various forms.

본 발명의 일 실시 예에 따른 동작인식 기반의 스마트 미용기술 러닝 장치는 센서부(130)를 더 포함할 수 있다. 보다 구체적으로 상기 학습자는 상기 학습자의 위치좌표로 구성된 데이터를 획득하기 위한 센서를 신체에 부착할 수 있으며, 이렇게 획득된 위치좌표 데이터를 통해 상기 학습자의 움직임을 보다 정밀하게 획득할 수 있다. 위치좌표로 구성된 데이터란, x,y,z좌표로 산출할 수 있는 정보로 예를 들어 방향, 속도 등의 정보를 포함할 수 있다. 또한, 상기 센서는 학습자가 사용하는 학습도구의 일부에 부착될 수도 있으며, 상기 센서부(130)는 이렇게 부착된 센서를 통해 상기 학습자가 사용하는 학습도구의 위치좌표로 구성된 데이터를 획득할 수도 있다. 즉, 상기 학습자의 경우와 마찬가지로 상기 학습자가 사용하는 학습도구의 방향, 움직이는 속도 등의 정보를 획득할 수 있다. The motion recognition-based smart beauty technology learning device according to an embodiment of the present invention may further include a sensor unit 130. More specifically, the learner may attach a sensor for acquiring data composed of the learner's location coordinates to the body, and more precisely obtain the learner's movement through the obtained location coordinates data. Data composed of position coordinates is information that can be calculated using x, y, and z coordinates, and may include information such as direction and speed. In addition, the sensor may be attached to a part of the learning tool used by the learner, and the sensor unit 130 may acquire data composed of the positional coordinates of the learning tool used by the learner through the sensor attached in this way. . That is, as in the case of the learner, information such as the direction and moving speed of the learning tool used by the learner can be obtained.

본 발명의 일 실시 예에 따른 상기 영상처리부(120)는 상기 촬상된 학습자의 영상(111) 및/또는 상기 입력된 영상으로부터 객체를 추출할 수 있다. 상기 객체는 상기 동작인식 센서를 통해 촬상된 영상속에 포함된 학습자(200) 또는 학습자(200)가 사용하는 도구(ex. 헤어스타일링을 위한 도구, 또는 메이크업을 위한 붓)일 수 있다. 또한, 상기 영상처리부(120)는 동작인식 기반의 자가 학습 장치에 입력된 영상 속 전문가 및 상기 전문가가 사용하는 도구(ex. 헤어스타일링을 위한 도구, 또는 메이크업을 위한 붓)를 객체로 인식하여 추출할 수도 있다. The image processing unit 120 according to an embodiment of the present invention may extract an object from the captured learner's image 111 and/or the input image. The object may be a learner 200 included in an image captured through the motion recognition sensor or a tool used by the learner 200 (eg, a tool for styling hair or a brush for makeup). In addition, the image processing unit 120 recognizes and extracts an expert in an image input to a motion recognition-based self-learning device and a tool used by the expert (ex. a tool for hair styling or a brush for makeup) as an object. You may.

도 2는 본 발명의 일 실시예에 따른 학습자(200)의 자세정보 데이터(121)를 산출한 영상의 예시도면이다. 2 is an exemplary diagram of an image obtained by calculating the posture information data 121 of the learner 200 according to an embodiment of the present invention.

본 발명의 일 실시예에 따르면, 상기 영상처리부(120)는 동작인식 센서로부터 획득한 영상에서 적어도 하나 이상의 객체를 추출하고, 그 추출된 객체에 대한 자세정보 데이터(121)를 생성할 수 있다. 여기서, 상기 자세정보 데이터(121)는 학습자(200) 및 전문가의 신체정보 특히, 학습자(200) 및 전문가의 손가락, 손목, 팔꿈치의 위치 정보 및 상기 학습자(200) 및 전문가의 스탠딩 정보가 포함될 수 있다. 예를 들어, 상기 신체정보는 깊이 영상의 픽셀을 분석하여 학습자(200)의 키, 어깨 폭, 팔 등에 대한 정보일 수 있으며, 또한, 상기 스탠딩 정보는 학습시작 단계의 학습자(200)의 자세 정보로서, 학습자(200)의 오른발과 왼발의 좌우 폭, 학습자(200)의 오른팔과 오른손 및 왼팔과 왼손 사이의 전후방향 이격거리가 포함될 수 있다. 또한, 영상처리부(120)가 스탠딩 정보를 산출하는 과정은, 예를 들어, 상기 촬상된 영상에서 학습자(200)의 신체가 차지하는 세로 픽셀과 가로 픽셀 수를 통해 길이를 알아낼 수 있으며, 해상도와 화각을 이용하여 신체가 차지하는 각도를 알 수 있다. According to an embodiment of the present invention, the image processing unit 120 may extract at least one object from an image acquired from a motion recognition sensor, and generate attitude information data 121 for the extracted object. Here, the posture information data 121 may include body information of learners 200 and experts, in particular, location information of fingers, wrists, and elbows of learners 200 and experts, and standing information of learners 200 and experts. have. For example, the body information may be information on the height, shoulder width, arm, etc. of the learner 200 by analyzing pixels of the depth image, and the standing information is the posture information of the learner 200 in the learning start stage. For example, the widths of the right and left feet of the learner 200, the right arm and the right hand of the learner 200, and the front-rear distance between the left arm and the left hand of the learner 200 may be included. In addition, in the process of calculating the standing information by the image processing unit 120, for example, the length can be determined from the number of vertical and horizontal pixels occupied by the body of the learner 200 in the captured image, and the resolution and angle of view You can know the angle the body occupies.

본 발명의 일 실시예에 따른 상기 영상처리부(120)는, 상기 학습자(200)가 학습을 위한 도구(ex. 가위, 메이크업 도구, 헤어 롤 등)를 사용하는 경우, 상기 도구를 잡는 손가락의 위치를 상기 세로 픽셀과 가로 픽셀 수를 통해 측정할 수 있다. 또한, 본 발명의 다른 일 실시예에 따르면, 상기 영상처리부(120)는 상기 학습자(200)의 자세정보를 관절 포인트를 기반으로 한 스켈레톤 데이터로 생성할 수도 있다. The image processing unit 120 according to an embodiment of the present invention, when the learner 200 uses tools for learning (ex. scissors, makeup tools, hair rolls, etc.), the position of the finger holding the tool May be measured through the number of vertical and horizontal pixels. In addition, according to another embodiment of the present invention, the image processing unit 120 may generate the posture information of the learner 200 as skeleton data based on joint points.

도3은 본 발명의 일 실시예에 따른 학습자(200)의 동작을 촬영한 영상의 어느 일 프레임에 상기 동작하는 학습자(200)의 동작 데이터를 레이어 한 모션 스크립트의 한 예시도면이다. 3 is an exemplary diagram of a motion script in which motion data of the operating learner 200 is layered on a frame of an image in which the motion of the learner 200 is captured according to an embodiment of the present invention.

본 발명의 일 실시예에 따른 모션 스크립트 생성부(140)는 상기 산출된 상기 자세정보 데이터(121)를 기반으로 상기 객체의 연속된 동작 데이터를 포함하는 모션 스크립트를 생성할 수 있다. 보다 상세하게 설명하면, 동작데이터(141)란, 자세정보 데이터(121)를 기반으로 영상 속 객체의 일련의 연속 동작에 대한 데이터를 통합하여 것일 수 있다. 예를들어, 상기 자세정보 데이터(121)가 관절 포인트를 연결한 스켈레톤 데이터로 출력되는 경우 동작데이터(141)는 일련의 연속된 동작에 대한 스켈레톤 데이터를 연속적으로 출력한 것일 수 있다. 따라서 상기 영상처리부(120)는 학습자(200), 전문가, 학습자가 사용하는 학습도구 및 전문가가 사용하는 교구의 자세정보 데이터(121)를 추출하여 저장하되, 이러한 각각의 자세정보 데이터(121)를 기반으로 각각의 객체에 대한 개별적인 동작데이터(141)를 생성할 수 있다. 이러한 동작데이터(141)를 포함한 객체의 연속된 동작을 초당 프레임 단위로 추출하여 모션 스크립트를 생성할 수 있다. 상기 동작데이터(141)는 상기 자세정보 데이터(121)를 기반으로 상기 영상 속 객체의 위치, 이동좌표, 회전 및/또는 병진운동 좌표를 포함할 수 있으며, 이로써 상기 학습자(200)가 보다 자신의 동작을 객관적으로 판단할 수 있도록 할 수 있다. The motion script generation unit 140 according to an embodiment of the present invention may generate a motion script including continuous motion data of the object based on the calculated posture information data 121. In more detail, the motion data 141 may be obtained by integrating data on a series of continuous motions of an object in an image based on the posture information data 121. For example, when the posture information data 121 is output as skeleton data connecting joint points, the motion data 141 may be a continuous output of skeleton data for a series of consecutive motions. Therefore, the image processing unit 120 extracts and stores the learner 200, the expert, the learning tools used by the learner, and the posture information data 121 of the teaching tool used by the expert, and stores each of these posture information data 121 Based on the individual motion data 141 for each object can be generated. A motion script may be generated by extracting the continuous motion of the object including the motion data 141 in units of frames per second. The motion data 141 may include the position, movement coordinates, rotation and/or translational coordinates of the object in the image based on the posture information data 121, whereby the learner 200 You can make it possible to judge the motion objectively.

또한, 모션 스크립트 생성부(140)는 상기 학습자의 동작데이터를 생성함에 있어서 상기 센서부(130)가 획득한 학습자의 위치좌표로 구성된 정보 데이터를 포함할 수 있다. 즉 상기 학습자의 자세정보 데이터 및 획득한 학습자의 위치좌표 데이터를 결합하여 상기 학습자의 동작데이터를 생성할 수 있다. 즉, 상기 자세정보 데이터 및 상기 센서를 통해 획득한 상기 학습자의 위치좌표 데이터를 통합하여 보다 정밀한 상기 학습자의 동작데이터를 획득할 수 있다. 또한, 상기 학습자가 사용하는 학습도구의 동작데이터를 생성함에 있어서도 마찬가지로 상기 학습자가 사용하는 학습도구의 자세정보 데이터 및 위치좌표 데이터를 통합하여 상기 학습자가 사용하는 학습도구의 동작데이터를 생성 할 수 있다. In addition, the motion script generation unit 140 may include information data composed of the learner's position coordinates obtained by the sensor unit 130 when generating the learner's motion data. That is, the learner's motion data may be generated by combining the learner's posture information data and the acquired learner's position coordinate data. That is, more precise motion data of the learner may be obtained by integrating the posture information data and the learner's position coordinate data acquired through the sensor. In addition, when generating motion data of the learning tool used by the learner, it is also possible to generate motion data of the learning tool used by the learner by integrating the posture information data and position coordinate data of the learning tool used by the learner. .

또한, 모션 스크립트 생성부(140)는 영상 속 객체의 동작데이터를 각각의 영상에 레이어 하여 모션 스크립트를 생성할 수 있다. 상기 모션 스크립트란, 예를 들어 촬상된 학습자의 영상에 상기 학습장 및 학습자가 사용하는 학습도구의 동작데이터를 레이어 한 영상을 의미하며, 상기 입력된 전문가의 영상에 상기 전문가 및 전문가가 사용하는 교구의 동작데이터를 레이어 하여 전문자에 대한 모션 스크립트를 생성할 수 있다. 또다른 일 실시예로, 상기 전문가의 모션 스크립트에 학습자의 동작 데이터만을 레이어 하여 또다른 모션 스크립트를 생성할 수도 있다.In addition, the motion script generation unit 140 may generate a motion script by layering motion data of an object in the image on each image. The motion script means, for example, an image in which motion data of the learning field and learning tools used by the learner are layered on a captured learner's image, and the inputted expert's image is of the teaching aid used by the expert and the expert. By layering motion data, motion scripts for experts can be created. In another embodiment, another motion script may be generated by layering only the learner's motion data on the expert's motion script.

도2 및 도3을 참조하여 설명하면, 학습자의 영상(111)에서 산출된 자세정보 데이터(121)는 도2에서와 같이 관절에 해당되는 포인트와 상기 관절 포인트를 연결한 선으로 구성된 스켈레톤 데이터일 수 있으며, 상기 모션 스크립트 생성부(140)는 도3과 같이 학습자(200)가 동작을 하는 일련의 과정에 자세정보 데이터(121)를 기반으로 한 동작데이터(141)를 생성하여 학습자(200)의 동작을 촬영한 영상에 상기 동작하는 학습자(200)의 동작 데이터를 레이어 한 모션 스크립트를 생성할 수 있다. 2 and 3, the posture information data 121 calculated from the learner's image 111 is skeleton data composed of a point corresponding to a joint and a line connecting the joint point as shown in FIG. The motion script generation unit 140 generates motion data 141 based on the posture information data 121 in a series of processes in which the learner 200 operates as shown in FIG. It is possible to create a motion script in which motion data of the operating learner 200 is layered on an image photographing the motion of.

본 발명의 일 실시예에 따른 모션 스크립트 생성부(140)는 상기 모션 스크립트를 영상 시퀀스 단위로 생성할 수 있다. 여기서 시퀀스란, 특정 상황의 시작부터 끝까지를 묘사하는 영상 단락 구분을 의미한다. 따라서, 상기 모션 스크립트 생성부(140)는 초당 프레임 단위로 촬영된 동영상에 포함된 일련의 연속된 동작의 처음과 끝을 감지하여 시퀀스 단위로 분할 및 저장함으로써 상기 입력된 영상 속 전문가의 행동을 영상 시퀀스 단위로 학습할 수 있도록 모션 스크립트를 생성할 수 있다. 예를들어, 상기 영상 속 헤어 디자이너가 강의 중 멈춤없이 일련의 연속된 동작으로 머리의 일부분에 컬을 생성하는 강의를 하는 경우, 그 동작의 시작과 끝을 기준으로 한 모션 스크립트를 생성할 수 있다. The motion script generation unit 140 according to an embodiment of the present invention may generate the motion script in units of image sequences. Here, the sequence refers to the division of video paragraphs describing the beginning to the end of a specific situation. Accordingly, the motion script generation unit 140 detects the beginning and the end of a series of consecutive motions included in the video recorded in frames per second, divides and stores the sequence in units of a sequence, so that the action of the expert in the input video is imaged. Motion scripts can be created to learn in units of sequences. For example, if the hair designer in the video gives a lecture that creates curls on a part of the hair in a series of continuous motions without stopping during the lecture, a motion script based on the start and end of the motion can be generated. .

본 발명의 일 실시예에 따른 동작판단부(150)는 상기 입력된 영상 속 객체의 동작 데이터와 상기 학습자의 영상(111) 속 객체의 동작 데이터의 오차정도를 판단할 수 있다. 보다 상세하게 설명하면, 상기 학습자 영상 속 객체의 동작데이터가 입력된 영상 속 객체(ex. 전문가)의 동작데이터와 불일치 하는 정도를 산출하여 수치로 표시할 수 있다. 예를 들면, 상기 학습자(200)의 동작 데이터와 상기 전문가의 동작데이터의 비교 분석을 통해 일치하지 않는 정도를 산출 할 수 있다. 이때, 상기 학습자 영상 속 객체(ex. 학습자)의 동작데이터와 상기 입력된 영상 속 객체(ex. 전문가)의 동작데이터 간의 불일치 정도를 오차정도라 할 수 있다. 이 오차정도는 상기 학습자 영상 속 객체의 동작데이터(ex. 관절 포인트)의 이동한 정도 방향, 회전 횟수 및/또는 병진운동을 포함하여 고려할 수 있다. 또한, 상기 객체는 학습자(200)나 전문가가 사용하는 도구를 포함할 수 있으므로, 상기 도구의 위치좌표, 회전 수 및 병진운동 좌표를 포함하여 오차정도를 산출 할 수 있다.The motion determination unit 150 according to an embodiment of the present invention may determine an error degree between motion data of the object in the input image and motion data of the object in the learner's image 111. In more detail, the degree of inconsistency between the motion data of the object in the learner's image and the motion data of the object in the input image (ex. expert) may be calculated and displayed as a numerical value. For example, the degree of inconsistency may be calculated by comparing and analyzing the motion data of the learner 200 and the motion data of the expert. In this case, the degree of inconsistency between the motion data of the object in the learner image (eg, learner) and the motion data of the object in the input image (eg, expert) may be referred to as the degree of error. This degree of error can be considered including the direction of movement of the motion data (ex. joint point) of the object in the learner image, the number of rotations, and/or translation. In addition, since the object may include a tool used by the learner 200 or an expert, the degree of error may be calculated by including the position coordinate, rotation number, and translation coordinate of the tool.

본 발명의 일 실시예에 따른 동작판단부(150)는 상기 학습내용에서 컬러가 중요한 경우(예를들어 상기 입력된 영상이 메이크업 전문가의 메이크업 강좌인 경우), RGB센서를 포함하는 동작인식 센서를 통하여, 상기 학습자(200)의 동작뿐만 아니라 사용하는 메이크업 컬러 및 메이크업 결과물의 컬러 일치여부도 판단하여 오차정도를 산출할 수 있다. The operation determination unit 150 according to an embodiment of the present invention uses a motion recognition sensor including an RGB sensor when color is important in the learning content (for example, when the input image is a makeup lecture by a makeup expert). Through this, it is possible to calculate the error degree by determining not only the operation of the learner 200 but also whether the makeup color used and the color of the makeup result match.

본 발명의 일 실시예에 따른 학습지원부(160)는 상기 동작판단부(150)의 판단 결과 즉, 오차정도가 설정된 수치를 초과하는 경우, 촬상된 학습자의 영상(111) 속 객체의 자세 교정을 위한 지시사항을 출력할 수 있다. 보다 상세하게 설명하면, 본 발명인 동작인식 기반의 스마트 미용기술 러닝 장치(100)를 사용하는 학습자(200)는 전문가 동작과 자신의 동작의 불일치 정도 또는 일치 여부에 대한 판단 결과를 출력하기 위한 수치를 설정할 수 있다. 즉, 오차정도가 상기 설정된 수치를 초과하는 경우 상기 오차정도는 상기 입력된 영상 속 객체에 레이어 되어 출력될 수 있다. The learning support unit 160 according to an embodiment of the present invention corrects the posture of the object in the captured learner's image 111 when the determination result of the operation determination unit 150, that is, the error degree exceeds a set value. Instructions can be printed out. In more detail, the learner 200 using the smart beauty technology learning device 100 based on motion recognition according to the present invention provides a numerical value for outputting the determination result of the degree of inconsistency or the match between the expert's motion and his/her motion. Can be set. That is, when the error degree exceeds the set value, the error degree may be layered on the object in the input image and output.

또한, 상기 지시사항은, 상기 학습자(200)가 자세 교정을 위해 이동해야 하는 방향, 위치, 속도, 이동 각도 및/또는 회전횟수를 포함할 수 있다. 보다 상세하게 설명하면, 상기 지시사항은 상기 입력된 영상 속 객체(ex. 전문가)의 동작 데이터를 기준으로 상기 촬상된 영상 속 객체(ex.학습자)가 이동해야 하는 좌표, 각도, 회전 횟수 등을 의미할 수 있다. 상기 지시사항은 재생되는 영상에 레이어 되어 자막, 화살표로 출력될 수 있으며, 또는 음성으로 지원될 수도 있어 상기 학습자(200)가 입력된 영상 속 전문가의 기술을 따라하는데 있어 보다 정확한 방법을 학습할 수 있다. 다만, 상기 지시사항을 출력하는 방법은 일 실시예에 불과하며, 이에 한정되지 않는다. In addition, the instruction may include a direction, a position, a speed, a moving angle, and/or a number of rotations in which the learner 200 should move for posture correction. In more detail, the instructions include coordinates, angles, rotation times, etc. to which the object (ex. learner) in the captured image should move based on the input motion data of the object (ex. expert) in the image. It can mean. The instructions may be layered on the reproduced image and output as a caption or an arrow, or may be supported as a voice, so that the learner 200 can learn a more accurate method for following the skill of an expert in the input image. have. However, the method of outputting the instructions is only an exemplary embodiment and is not limited thereto.

본 발명의 다른 일 실시예에 따른 학습지원부(160)는, 상기 오차정도가 설정된 수치범위를 초과하는 경우 상기 입력된 영상의 플레이 속도를 자동으로 조절 및/또는 상기 입력된 영상을 시퀀스 단위로 반복 재생할 수 있다. 즉, 상기 입력된 영상 속 객체의 동작데이터(141)와 상기 학습자(200)의 동작데이터(141)의 불일치 정도가 일정 수치를 초과하여 상기 학습자(200)가 상기 입력된 영상 속 전문가의 동작을 일정 수준이상 따라 가지 못하는 것으로 판단되는 경우, 상기 입력된 영상의 재생 속도를 조절하여 상기 학습자(200)가 보다 천천히 상기 전문가의 모션을 따라할 수 있도록 할 수 있다. 또는 오차정도가 설정된 수치 범위가 될 때까지 상기 입력된 영상을 시퀀스 단위로 반복 재생되도록 할 수 있다. 또한, 상기 전문가의 강의 동영상이 반복 재생됨에 따라 상기 학습자와 전문가의 동작데이터간의 일치여부가 설정된 수치범위 내로 판단될 경우 상기 반복 재생이 중단될 수 있다. 예를들어, 상기 학습자(200)는 학습진도 계획을 위해 상기 전문가의 동작과의 일치 정도를 수치화 하여 임으로 설정할 수 있다. 즉 오차범위를 10%로 설정한 경우 상기 전문가의 동작데이터(141)와 학습자(200)의 동작데이터(141)의 오차정도가 영상 시퀀스 단위로 10%를 초과하는 경우 해당 영상을 시퀀스 단위로 반복 재생할 수 있다. The learning support unit 160 according to another embodiment of the present invention automatically adjusts the play speed of the input image and/or repeats the input image in sequence units when the error degree exceeds a set numerical range. Can play. That is, the degree of inconsistency between the motion data 141 of the object in the input image and the motion data 141 of the learner 200 exceeds a certain value, so that the learner 200 performs the operation of the expert in the input image. If it is determined that it cannot be followed by a certain level or more, the learner 200 may more slowly follow the expert's motion by adjusting the playback speed of the input image. Alternatively, the input image may be repeatedly reproduced in sequence units until the error degree is within a set numerical range. In addition, as the lecture video of the expert is repeatedly played, the repeated playback may be stopped when it is determined whether the match between the learner and the expert's motion data is within a set numerical range. For example, the learner 200 may randomize and set the degree of agreement with the expert's motion to plan the learning progress. That is, when the error range is set to 10%, if the degree of error between the expert's motion data 141 and the learner's 200's motion data 141 exceeds 10% in an image sequence unit, the image is repeated in sequence units. Can play.

또한, 본 발명의 다른 일 실시예에 따른 학습지원부(160)는 학습결과인 학습자와 전문가의 동작데이터의 오차정도를 저장하여 학습 진도를 계획할 수 있도록 할 수 있다. 즉, 처음 학습 당시의 동작데이터 오차 정도와 개선된 상태의 동작데이터 오차정도의 수치를 저장할 수 있으며, 상기 오차정도가 큰 영상 시퀀스를 순위대로 기록하여, 복습이 필요한 영상을 추천하여 학습이 용이하도록 할 수 있으며, 다음 재생시 상기 기록된 영상 시퀀스를 복습하도록 추천할 수도 있다.In addition, the learning support unit 160 according to another embodiment of the present invention may store an error degree of motion data of learners and experts, which is a learning result, so that a learning progress can be planned. In other words, it is possible to store values of the degree of error of the motion data at the time of initial learning and the degree of error of the motion data in an improved state, and record the sequence of images with a large degree of error in order to recommend videos that need to be reviewed to facilitate learning. Alternatively, it may be recommended to review the recorded video sequence at the next playback.

본 발명의 다른 일 실시예에 따른 학습지원부(160)는, 자체 DB(도 1 참조)에 저장된 또는 외부(날씨정보 등을 제공하는 서비스업체 등)로부터 실시간 또는 설정된 주기로 외부 환경 정보(일 예로 기온, 강우량, 풍속, 풍향, 습도, 조도 등의 정보가 될 수 있다)를 수신받고, 외부 환경 정보에 최적화된 메이커업, 화장법 등과 관련된 전문가의 미용법을 디스플레이부(170)를 통해 구현되도록 할 수 있으며, 이와 동시에 또는 사용자 등의 선택에 따라 상기 외부 환경 조건에 부합(일 예로 날씨가 흐리고 바람이 많이 부는 경우, 기존 보다 짙은 화장법에 대한 콘텐츠가 디스플레이부(170)를 통해 구현(Display)되거나, SPF(Sun Protection Factor), Water-proof 등의 기능이 강화된 메이커업 제품 추천 및 이러한 제품을 기반으로 하는 화장법 등이 디스플레이부(170)를 통해 구현되고, 사용자 또는 학습자가 따라 배울 수 있도록 할 수도 있다. 이를 위해 학습지원부(160)는, 유선 또는 무선 네트워크를 통해 미리(또는 실시간으로) 전문가 등으로부터 외부 환경 정보에 따른 최적화된 화장법 등에 대한 콘텐츠나 정보, 메이크업 기술, 추천 화장품 등에 대한 정보를 전달받아 스마트 미용기술 러닝 장치(100)에 저장(DB가 될 수 있다)할 수 있다.Learning support unit 160 according to another embodiment of the present invention, stored in its own DB (see Fig. 1) or from outside (a service company that provides weather information, etc.) in real time or at a set cycle external environment information (for example, temperature , Rainfall, wind speed, wind direction, humidity, illuminance, etc.) are received, and expert cosmetic methods related to maker-up and cosmetic methods optimized for external environment information can be implemented through the display unit 170, At the same time or according to the user's selection, conforming to the external environmental conditions (for example, when the weather is cloudy and windy, content for a darker makeup method is displayed through the display unit 170) or SPF ( Recommendations for maker-up products with enhanced functions such as Sun Protection Factor), water-proof, etc., and make-up methods based on these products are implemented through the display unit 170, and the user or learner can follow along and learn. Hazard learning support unit 160, through a wired or wireless network in advance (or in real time) from experts, etc. to receive content or information on the optimized cosmetic method according to external environmental information, makeup technology, information on recommended cosmetics, etc. It can be stored in the technology learning device 100 (it can be a DB).

본 발명의 다른 일 실시예에 따른 학습지원부(160)는, 영상취득부(110)를 통해 수집된 학습자의 화장 패턴(브러쉬 등 각종 미용기구를 이용하는 방법, 눈화장, 립스틱 사용 컬러, 사용 방법 등 메이크업 패턴을 포함할 수 있다)을 동작인식 기반의 스마트 미용기술 러닝 장치(100)에 저장(일 예로 도 1에 도시된 DB가 될 수 있다)할 수 있으며, 이렇게 저장(또는 실시간으로 진행되는)된 학습자의 화장 패턴을 미리 상기 DB에 입력(저장)된 메이크업 아티스트 등 전문가의 화장법(또는 화장 패턴)과 비교하여, 학습자가 선호하는 시간에 별도로 디스플레이부(170)를 통해 상호 비교 영상을 재생하거나, 비교 분석 결과 등을 제공할 수 있으며, 추가적으로 학습자가 지정한 다른 단말기(PC나 태블릿 PC 등 유선 또는 무선 네트워크를 통해 연결되는 디바이스)에 데이터를 전송하여 비교하도록 할 수 있다.Learning support unit 160 according to another embodiment of the present invention, the learner's makeup pattern collected through the image acquisition unit 110 (method of using various beauty devices such as brushes, eye makeup, lipstick use color, use method, etc. (May include a pattern) can be stored in the motion recognition-based smart beauty technology learning device 100 (for example, it may be a DB shown in FIG. 1), and thus stored (or proceeding in real time) Compare the make-up pattern of the learner with the make-up method (or make-up pattern) of a make-up artist such as a make-up artist previously input (stored) in the DB, and reproduce a mutual comparison image through the display unit 170 separately at a time preferred by the learner, or The comparison analysis result, etc. may be provided, and additionally, data may be transmitted to and compared to other terminals (devices connected through a wired or wireless network such as a PC or tablet PC) designated by the learner.

또한 본 발명의 다른 일 실시예에 따른 동작인식 기반의 스마트 미용기술 러닝 장치(100)는, 실시간으로 메이크업 아티스트 등 전문가의 실시간 메이크업 등 화장 진행 정보를 통신 네트워크를 통해 전달받는 동시에, 영상취득부(110) 및 영상처리부(120)를 통해 입력, 처리된 학습자의 실시간 메이크업 등 화장 진행 정보를 실시간으로 비교 분석하여 디스플레이부(170)를 통해 상기 전문가와 상기 학습자가 상호 비교하면서 화장 등을 진행할 수 있도록 지원할 수도 있으며, 이와 함께 상기 전문가 및/또는 상기 학습자의 화장 패턴 및 화장 진행 상황을 DB에 저장하여 상기 전문가 및/또는 상기 학습자가 필요에 따라 분석하도록 할 수 있다.In addition, the motion recognition-based smart beauty technology learning device 100 according to another embodiment of the present invention receives makeup progress information such as real-time makeup of professionals such as makeup artists in real time through a communication network, and at the same time, an image acquisition unit ( 110) and the image processing unit 120 to compare and analyze the make-up progress information of the learner input and processed in real time, such as real-time make-up, so that the expert and the learner can perform make-up while comparing each other through the display unit 170 In addition, the expert and/or the learner's makeup pattern and makeup progress can be stored in a DB so that the expert and/or the learner can analyze it as necessary.

또한 본 발명의 다른 일 실시예에 따른 동작인식 기반의 스마트 미용기술 러닝 장치(100)는, 학습을 진행하는 개별 학습자별로 장치(100) 이용을 통한 미용 기술 습득에 대한 평가를 진행하도록 지원할 수 있다. 이를 위해 장치(100)는 DB에 개별 학습자의 "메이크업 완성도"(일 예로 완성도에 대한 평가는 1점에서 10점 척도로 제시될 수 있으며, 비교 영상 분석이 진행된 전문가와의 동작 일치/불일치 여부 등이 점수 배점의 척도가 될 수 있다), 개별 학습자의 "완성도 성취(학습을 통한 미용 기술의 습득 등)" 여부 및/또는 복수의 다른 학습자와의 상대 비교 등을 통해 개별 또는 그룹 학습자 등의 미용 기술 성취 여부에 대한 평가 역시 학습지원부(160)를 통해 진행할 수 있게 된다.In addition, the motion recognition-based smart beauty technology learning device 100 according to another embodiment of the present invention may support an evaluation of acquisition of beauty technology through use of the device 100 for each individual learner who conducts learning. . To this end, the device 100 may present the individual learner's "make-up completeness" in the DB (for example, the evaluation of the completeness may be presented on a scale of 1 to 10, and whether or not the motion match/disagreement with the expert for which the comparative image analysis was performed, etc. This can be a measure of scoring), whether individual learners "achieve completeness (acquisition of beauty skills through learning, etc.)" and/or beauty of individual or group learners through relative comparisons with multiple other learners. Evaluation of whether or not the technology has been achieved can also be conducted through the learning support unit 160.

또한, 본 발명의 다른 일 실시예에 따른 디스플레이부(170)는 예를 들면, LCD, 터치스크린 등과 같은 디스플레이 디바이스일 수 있으며, 디스플레이부(170)는 외부 사용자의 입력 등에 따라 반응하거나 추가적인 데이터를 입력할 수 있는 터치스크린으로 구성될 수 있다.In addition, the display unit 170 according to another embodiment of the present invention may be a display device such as, for example, an LCD or a touch screen, and the display unit 170 responds to an external user's input or receives additional data. It can be composed of a touch screen that can be input.

통신부(미도시)는 동작인식 기반의 스마트 미용기술 러닝 장치(100)와 학습자(200) 및 학습도구에 부착된 센서 간의 송수신 신호를 전송하는데 필요한 통신 인터페이스를 제공한다. 또한, 통신부는 다른 네트워크 장치와 유무선 연결을 통해 데이터 신호와 같은 신호를 송수신하기 위해 필요한 하드웨어 및 소프트웨어를 포함하는 장치일 수 있다. The communication unit (not shown) provides a communication interface required to transmit a transmission/reception signal between the motion recognition-based smart beauty technology learning device 100 and the learner 200 and a sensor attached to the learning tool. In addition, the communication unit may be a device including hardware and software necessary to transmit and receive signals such as data signals through wired or wireless connection with other network devices.

메모리(DB)는 동작인식 기반의 스마트 미용기술 러닝 장치(100)가 처리하는 데이터를 일시적 또는 영구적으로 저장하는 기능을 수행한다. 여기서, 메모리(DB)는 자기 저장 매체(magnetic storage media) 또는 플래시 저장 매체(flash storage media)를 포함할 수 있으나, 본 발명의 범위가 이에 한정되는 것은 아니다.The memory DB performs a function of temporarily or permanently storing data processed by the motion recognition-based smart beauty technology learning device 100. Here, the memory DB may include a magnetic storage medium or a flash storage medium, but the scope of the present invention is not limited thereto.

도 4는 본 발명의 일 실시예에 따른 동작인식 기반의 스마트 미용기술 러닝 방법에 대한 흐름도이다Figure 4 is a flow chart of a motion recognition-based smart beauty technology learning method according to an embodiment of the present invention

본 발명의 일 실시예에 따른 동작인식 기반의 스마트 미용기술 러닝 방법은, 상기 동작인식 기반의 스마트 미용기술 러닝 장치(100)에 입력된 영상 속 전문가의 동작을 동일하게 따라함으로써 스마트 러닝이 가능한 동작인식 기반 스마트 러닝 방법으로, 구체적으로 동작인식 센서를 통해 촬상된 학습자의 영상(111)을 취득하는 단계(S410)를 포함한다.The motion recognition-based smart beauty technology learning method according to an embodiment of the present invention is an operation capable of smart learning by identically following the motion of an expert in an image input to the motion recognition-based smart beauty technology learning device 100 A recognition-based smart learning method, specifically including a step (S410) of acquiring the learner's image 111 captured through a motion recognition sensor.

또한, 상기 학습자의 영상(111) 및/또는 상기 입력된 영상 속 객체를 추출하는 단계(S420)를 포함한다. 보다 구체적으로 상기 동작인식 센서를 통해 촬상된 학습자(200) 및 학습자(200)가 사용하는 학습 도구를 객체로 인식하여 추출할 수 있다. 또한, 상기 입력된 영상 속 전문가 및 전문가가 사용하는 교구를 객체로 인식하여 추출할 수 있다. Also, it includes the step of extracting the learner's image 111 and/or an object in the input image (S420). More specifically, the learner 200 captured through the motion recognition sensor and the learning tool used by the learner 200 may be recognized as objects and extracted. In addition, in the input image, experts and teaching tools used by experts may be recognized and extracted as objects.

본 발명의 일 실시예에 따른 동작인식 기반의 스마트 미용기술 러닝 방법은, 적어도 하나 이상의 상기 객체의 자세정보 데이터(121)를 생성하는 단계(S430)를 포함할 수 있다. A method of learning smart beauty technology based on motion recognition according to an embodiment of the present invention may include generating (S430) posture information data 121 of at least one or more objects.

상기 자세정보 데이터(121)는 상기 영상 속 객체 즉, 학습자(200) 및 전문가의 학습 초기 상태의 정지 상태의 자세에 대한 데이터로, 보다 구체척으로 학습자(200) 및 전문가의 관절 또는 뼈대로 구성된 스켈레톤 데이터를 의미할 수 있다. The posture information data 121 is data about an object in the image, that is, a posture in a stationary state in an initial state of learning of the learner 200 and the expert, and is composed of joints or skeletons of the learner 200 and the expert in a more specific scale. It can mean skeleton data.

다음으로 본 발명의 일 실시예에 따른 동작인식 기반의 스마트 미용기술 러닝 방법은, 생성된 상기 자세정보 데이터(121)를 기반으로 상기 객체의 연속된 동작데이터(141)를 생성하는 단계(S440)를 포함할 수 있다. Next, in the motion recognition-based smart beauty technology learning method according to an embodiment of the present invention, the step of generating continuous motion data 141 of the object based on the generated posture information data 121 (S440) It may include.

상기 동작데이터(141)는 상기 영상처리부(120)가 상기 학습자의 영상(111) 및 입력된 영상 속 객체의 자세정보 데이터(121)를 추출하여 저장하되, 이러한 자세정보 데이터(121)를 기반으로 영상 속 객체의 연속 동작을 데이터화 한 것으로, 예를들어 상기 자세 정보가 관절 포인트를 연결한 스켈레톤 데이터로 출력된 경우 동작데이터(141)는 상기 스켈레톤 데이터를 연속적으로 출력한 것일 수 있다. 상기 스켈레톤 데이터는 디스플레이 상에 관절에 해당하는 포인트 및/또는 뼈대를 나타내는 선으로 구성될 수 있다. The motion data 141 is stored by extracting and storing the image processing unit 120 of the learner's image 111 and the posture information data 121 of the object in the input image, based on the posture information data 121 A continuous motion of an object in an image is converted into data. For example, when the posture information is output as skeleton data connecting joint points, the motion data 141 may be a continuous output of the skeleton data. The skeleton data may be composed of a point corresponding to a joint and/or a line indicating a skeleton on the display.

본 발명의 일 실시예에 따른 동작인식 기반의 스마트 미용기술 러닝 방법은, 상기 입력된 영상 속 객체의 동작데이터(141)와 상기 학습자의 영상(111) 속 객체의 동작데이터(141)의 일치여부를 판단하는 단계(S450)를 포함할 수 있다. The motion recognition-based smart beauty technology learning method according to an embodiment of the present invention is whether the motion data 141 of the object in the input image and the motion data 141 of the object in the learner's image 111 match. It may include determining (S450).

상기 동작데이터(141) 일치여부는 상기 입력된 영상 속 객체를 기준으로 상기 촬상된 영상 속 객체의 동작데이터(141)의 오차 여부로 판단하며, 상기 오차는 구체적으로 상기 학습자(200)의 이동 동선, 손의 회전 횟수, 팔의 높이, 도구의 사용여부 등을 수치로 나타낼 수 있다. Whether the motion data 141 is matched is determined based on the object in the input image as an error in the motion data 141 of the object in the captured image, and the error is specifically the movement movement of the learner 200 , The number of rotations of the hand, the height of the arm, and the use of tools can be expressed numerically.

본 발명의 일 실시예에 따른 상기 동작데이터(141) 일치여부를 판단하는 단계(S450)는, 상기 판단결과 상기 오차가 설정된 수치범위를 초과하는 경우 상기 입력된 영상의 플레이 속도를 자동으로 조절하거나 또는 상기 입력된 영상을 시퀀스 단위로 반복 재생하는 단계를 더 포함할 수 있다. 예를들어, 상기 입력된 영상 속 객체의 동작데이터(141)와 상기 학습자(200)의 동작데이터(141)의 일치 정도에 대한 오차가 일정 수치를 초과하여 상기 학습자(200)가 상기 입력된 영상 속 전문가의 동작을 일정 수준이상 따라 가지 못하는 것으로 판단되는 경우, 학습효과 증대를 위해 상기 입력된 영상의 재생 속도를 조절하여 상기 학습자(200)가 보다 천천히 상기 전문가의 모션을 따라할 수 있도록 할 수 있다. 또는 상기 오차가 설정된 수치 범위가 될 때까지 상기 입력된 영상을 시퀀스 단위로 반복 재생할 수 있다. 즉, 반복 재생으로 일치여부가 설정된 수치범위 내로 판단될 경우 반복이 중단될 수 있다. In the step of determining whether the motion data 141 is matched according to an embodiment of the present invention (S450), when the error exceeds a set numerical range as a result of the determination, the play speed of the input video is automatically adjusted or Alternatively, it may further include reproducing the input image in sequence units. For example, an error in the degree of correspondence between the motion data 141 of the object in the input image and the motion data 141 of the learner 200 exceeds a certain value, and the learner 200 When it is determined that the movement of the expert is not followed by a certain level or more, the learner 200 can more slowly follow the movement of the expert by adjusting the playback speed of the input image to increase the learning effect. have. Alternatively, the input image may be repeatedly reproduced in sequence units until the error is within a set numerical range. That is, when it is determined that the match is within the set numerical range by repeated reproduction, the repetition may be stopped.

본 발명의 일 실시예에 따른 동작인식 기반의 스마트 미용기술 러닝 방법은, 상기 판단 결과 설정된 수치범위를 초과하는 경우 상기 영상 속 객체의 동작을 교정하기 위한 지시사항이 출력되는 단계(S460)를 포함하여 상기 입력된 영상 속 객체의 동작과 상기 학습자(200)의 동작이 불일치 할 경우 이를 판단하여 상기 학습자(200)가 스스로 동작의 상태를 파악하고 출력된 지시상항에 따라 잘못된 자세를 교정할 수 있다. A motion recognition-based smart beauty technology learning method according to an embodiment of the present invention includes a step (S460) of outputting an instruction for correcting the motion of the object in the image when the determination result exceeds a set numerical range. Thus, when the motion of the object in the input image and the motion of the learner 200 are inconsistent, it is determined that the learner 200 can grasp the state of the motion and correct the wrong posture according to the output instruction. .

보다 구체적으로 상기 동작데이터(141) 일치여부에 대한 판단 결과를 수치화 하여 영상속에 출력함으로써 상기 학습자(200)의 동작 교정을 촉진할 수도 있다. 또한, 보다 적극적인 동작 교정을 위해 재생되고 있는 상기 영상 속 전문가의 동작데이터(141)에 상기 학습자(200)의 동작데이터(141)를 레이어 하여 출력할 수 있으며, 이때 구체적인 이동방향을 화살표 및/또는 텍스트로 디스플레이 할 수도 있다. 이 때, 이러한 지시사항은 음성으로 출력될 수도 있다. More specifically, the result of determining whether the motion data 141 matches or not is converted into a numerical value and output in an image, thereby promoting motion correction of the learner 200. In addition, for more active motion correction, the motion data 141 of the learner 200 may be layered on the motion data 141 of the expert in the video being reproduced and output, and at this time, a specific direction of movement is indicated by arrows and/or It can also be displayed as text. At this time, these instructions may be output by voice.

상기와 같은 방법들은 도 1에 도시된 바와 같은 동작인식 기반의 스마트 미용기술 러닝 장치(100)에 의해 구현될 수 있고, 특히, 이러한 단계들을 수행하는 소프트웨어 프로그램으로 구현될 수 있으며, 이 경우, 이러한 프로그램들은 컴퓨터 판독가능한 기록 매체에 저장되거나 전송 매체 또는 통신망에서 반송파와 결합된 컴퓨터 데이터 신호에 의하여 전송될 수 있다. 이 때, 컴퓨터 판독 가능한 기록 매체는 컴퓨터 시스템에 의해 판독가능한 데이터가 저장되는 모든 종류의 기록 장치를 포함하며, 예를 들면, ROM, RAM, CD-ROM, DVD-ROM, DVD-RAM, 자기 테이프, 플로피 디스크, 하드디스크, 광 데이터 저장장치 등일 수 있다. The above methods may be implemented by the motion recognition-based smart beauty technology learning device 100 as shown in FIG. 1, and in particular, may be implemented as a software program that performs these steps, and in this case, The programs may be stored on a computer readable recording medium or transmitted by a computer data signal combined with a carrier wave in a transmission medium or a communication network. In this case, the computer-readable recording medium includes all types of recording devices in which data readable by the computer system is stored, for example, ROM, RAM, CD-ROM, DVD-ROM, DVD-RAM, magnetic tape. , A floppy disk, a hard disk, an optical data storage device, and the like.

이상에서 본 발명의 일 실시예에 대하여 설명하였으나, 본 발명의 사상은 본 명세서에 제시되는 실시 예에 제한되지 아니하며, 본 발명의 사상을 이해하는 당업자는 동일한 사상의 범위 내에서, 구성요소의 부가, 변경, 삭제, 추가 등에 의해서 다른 실시 예를 용이하게 제안할 수 있을 것이나, 이 또한 본 발명의 사상범위 내에 든다고 할 것이다.Although an embodiment of the present invention has been described above, the spirit of the present invention is not limited to the embodiment presented in the present specification, and those skilled in the art who understand the spirit of the present invention can add components within the scope of the same idea. It will be possible to easily propose other embodiments by changing, deleting, adding, etc., but it will be said that this is also within the scope of the present invention.

상술한 바와 같이, 본 발명의 바람직한 실시 예를 참조하여 설명하였지만, 해당기술분야의 당업자는 하기의 특허청구범위에 기재된 본 발명의 사상 및 영역으로부터 벗어나지 않는 범위 내에서 본 발명을 다양하게 수정 또는 변형하여 실시할 수 있다.As described above, although it has been described with reference to a preferred embodiment of the present invention, those skilled in the art will variously modify or modify the present invention within the scope not departing from the spirit and scope of the present invention described in the following claims. It can be done.

100: 동작인식 기반의 스마트 미용기술 러닝 장치
110: 영상취득부
120: 영상처리부
121: 자세정보 데이터
130: 센서부
140: 모션 스크립트 생성부
141: 동작데이터
150: 동작판단부
160: 학습지원부
170: 디스플레이부
200: 학습자
100: Motion recognition-based smart beauty technology learning device
110: image acquisition unit
120: image processing unit
121: posture information data
130: sensor unit
140: motion script generation unit
141: motion data
150: operation judgment unit
160: Learning Support Department
170: display unit
200: learner

Claims (5)

미리 입력된 영상 속 전문가의 동작을 동일하게 따라함으로써 스마트 러닝이 가능한 동작인식 기반의 스마트 미용기술 러닝 장치에 있어서,
동작인식 센서를 통해 촬상된 학습자의 영상을 취득하는 영상취득부;
상기 촬상된 학습자의 영상 및/또는 상기 입력된 영상으로부터 객체를 추출하여 적어도 하나 이상의 상기 객체의 자세정보 데이터를 산출하는 영상처리부;
산출된 상기 자세정보 데이터를 기반으로 상기 객체의 연속된 동작 데이터를 생성하는 모션 스크립트 생성부;
상기 입력된 영상 속 객체의 동작 데이터와 상기 학습자의 영상 속 객체의 동작 데이터의 오차정도를 판단하는 동작판단부; 및
상기 동작판단부의 오차정도가 설정된 수치범위를 초과하는 경우 상기 촬상된 학습자의 영상 속 객체의 자세 교정을 위한 지시사항이 출력되는 학습지원부를 포함하여,
상기 입력된 영상 속 객체의 동작 데이터와 상기 학습자의 동작 데이터가 불일치할 경우 이를 판단하여 상기 학습자가 스스로 동작의 상태를 파악하고 출력된 지시상항에 따라 잘못된 자세를 교정할 수 있도록 하는 것을 특징으로 하는 동작인식 기반의 스마트 미용기술 러닝 장치.
In the motion recognition-based smart beauty technology learning device capable of smart learning by identically following the motion of the expert in the pre-input video,
An image acquisition unit for acquiring an image of a learner captured through a motion recognition sensor;
An image processing unit that extracts an object from the captured image of the learner and/or the input image to calculate attitude information data of at least one object;
A motion script generator that generates continuous motion data of the object based on the calculated posture information data;
A motion determination unit determining an error degree between motion data of the object in the input image and motion data of the object in the learner's image; And
Including a learning support unit that outputs instructions for correcting the posture of the object in the captured learner's image when the error degree of the operation determination unit exceeds a set numerical range,
If the motion data of the object in the input image and the motion data of the learner are inconsistent, it is determined that the learner can determine the state of the motion and correct the wrong posture according to the output instruction. Smart beauty technology learning device based on motion recognition.
제1항에 있어서,
상기 스마트 미용기술 러닝 장치는,
상기 학습자 및/또는 상기 학습자가 사용하는 학습도구에 부착된 센서로부터 상기 학습자 및/또는 상기 학습자가 사용하는 학습도구의 위치좌표 데이터를 획득할 수 있는 센서부를 더 포함하여,
상기 학습자 및/또는 상기 학습자가 사용하는 학습도구의 움직임을 보다 정밀하게 센싱할 수 있는 것을 특징으로 하는 동작인식 기반의 스마트 미용기술 러닝 장치.
The method of claim 1,
The smart beauty technology learning device,
Further comprising a sensor unit capable of obtaining positional coordinate data of the learner and/or the learning tool used by the learner from a sensor attached to the learner and/or the learning tool used by the learner,
Motion recognition-based smart beauty technology learning device, characterized in that it can more precisely sense the movement of the learner and / or the learning tool used by the learner.
제1항에 있어서,
상기 모션 스크립트 생성부는,
상기 생성된 모션 스크립트를 영상 시퀀스 단위로 생성하되,
상기 동작 데이터는 자세정보 데이터의 위치, 이동좌표, 회전 수 및/또는 병진운동 좌표를 포함할 수 있으며,
상기 입력된 영상 속 전문가의 행동을 영상 시퀀스 단위로 학습할 수 있도록 모션 스크립트를 생성하여 상기 학습자의 학습효율을 증대시킬 수 있는 것을 특징으로 하는 동작인식 기반의 스마트 미용기술 러닝 장치.
The method of claim 1,
The motion script generation unit,
Generate the generated motion script in units of video sequences,
The motion data may include a position, a movement coordinate, a number of rotations, and/or a translational motion coordinate of the posture information data,
Motion recognition-based smart beauty technology learning device, characterized in that it is possible to increase the learning efficiency of the learner by generating a motion script to learn the behavior of the expert in the input image in units of image sequences.
제1항에 있어서,
상기 동작판단부는,
상기 오차정도를 판단함에 있어,
상기 입력된 영상 속 객체의 동작데이터 좌표를 기준으로 복수개의 상기 객체의 동작데이터 속 좌표를 비교 분석하여 방향 및/또는 회전 횟수의 오차를 측정하여,
상기 학습자가 입력된 영상 속 전문가의 기술을 따라하는데 있어 상기 전문가의 동작과 학습자의 동작의 차이를 보다 정확하게 인지하여 효율적으로 학습할 수 있도록 하며,
상기 지시사항은,
상기 학습자가 자세 교정을 위해 이동해야 하는 방향, 위치, 속도, 이동 각도 및/또는 회전횟수를 포함하도록 하여, 음성 및/또는 자막의 방식으로 출력될 수 있도록 하여,
상기 학습자가 입력된 영상 속 전문자의 기술을 따라하는데 있어 보다 정확한 방법을 학습할 수 있도록 하며,
상기 학습지원부는,
상기 오차정도가 설정된 수치범위를 초과하는 경우,
상기 입력된 영상의 플레이 속도 자동 조절 및/또는 상기 입력된 영상을 시퀀스 단위로 반복 재생하되,
상기 학습자가 상기 입력된 영상 속 전문가의 동작을 일정 수준이상 따라 가지 못하는 경우에는, 상기 입력된 영상의 재생 속도를 조절하여 상기 학습자가 보다 용이하게 학습할 수 있도록 하는 것을 특징으로 하는 학습 동작인식 기반의 스마트 미용기술 러닝 장치.
The method of claim 1,
The operation determination unit,
In determining the degree of error,
By comparing and analyzing the coordinates in the motion data of the plurality of objects based on the motion data coordinates of the object in the input image, measuring an error in the direction and/or the number of rotations,
When the learner follows the skill of the expert in the input image, the difference between the expert's movement and the learner's movement is more accurately recognized so that the learner can learn efficiently,
The above instructions are:
By including the direction, position, speed, movement angle and/or number of rotations that the learner should move for posture correction, so that it can be output in the manner of audio and/or subtitles,
It allows the learner to learn a more accurate method in imitating the skill of the expert in the input video,
The learning support unit,
If the error degree exceeds the set numerical range,
Automatically adjusting the play speed of the input video and/or repeatedly playing the input video in sequence units,
When the learner does not follow the expert's motion in the input video by a certain level or more, the learner can learn more easily by adjusting the playback speed of the input video. Smart Beauty Technology Learning Device.
입력된 영상 속 전문가의 동작을 동일하게 따라함으로써 스마트 러닝이 가능한 동작인식 기반 스마트 러닝 방법에 있어서,
동작인식 센서를 통해 촬상된 학습자의 영상을 취득하는 단계;
상기 학습자의 영상 및/또는 상기 입력된 영상으로부터 객체를 추출하는 단계;
적어도 하나 이상의 상기 객체의 자세정보 데이터를 생성하는 단계;
생성된 상기 자세정보 데이터를 기반으로 상기 객체의 연속된 동작데이터를 생성하는 단계;
상기 입력된 영상 속 객체의 동작데이터와 상기 학습자의 영상 속 객체의 동작데이터의 오차정도를 판단하는 단계; 및
상기 오차정도가 설정된 수치범위를 초과하는 경우 상기 영상 속 객체의 동작 교정을 위한 지시사항이 출력되는 단계를 포함하되,
상기 동작데이터의 오차정도를 판단하는 단계는,
상기 오차정도가 설정된 수치범위를 초과하는 경우 상기 입력된 영상의 플레이 속도를 자동으로 조절하거나 또는 상기 입력된 영상을 시퀀스 단위로 반복 재생하는 단계를 더 포함하여,
상기 입력된 영상 속 객체의 동작과 상기 학습자의 동작이 불일치 할 경우 이를 판단하여 상기 학습자가 스스로 동작의 상태를 파악하고 출력된 지시상항에 따라 잘못된 자세를 교정할 수 있도록 하는 것을 특징으로 하는 동작인식 기반의 스마트 미용기술 러닝 방법.
In the motion recognition-based smart learning method that enables smart learning by identically following the motion of the expert in the input video,
Acquiring an image of a learner captured through a motion recognition sensor;
Extracting an object from the learner's image and/or the input image;
Generating at least one posture information data of the object;
Generating continuous motion data of the object based on the generated posture information data;
Determining an error degree between motion data of the object in the input image and motion data of the object in the learner's image; And
Including the step of outputting an instruction for correcting the motion of the object in the image when the error degree exceeds a set numerical range,
The step of determining the error degree of the motion data,
When the error degree exceeds a set numerical range, automatically adjusting the play speed of the input video or repeatedly playing the input video in sequence units,
Motion recognition, characterized in that when the motion of the object in the input image and the motion of the learner are inconsistent, it is determined that the learner can grasp the state of the motion and correct the wrong posture according to the output instruction. Based on smart beauty technology learning method.
KR1020190016769A 2019-02-13 2019-02-13 Smart -learning device and method based on motion recognition KR102199078B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020190016769A KR102199078B1 (en) 2019-02-13 2019-02-13 Smart -learning device and method based on motion recognition

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020190016769A KR102199078B1 (en) 2019-02-13 2019-02-13 Smart -learning device and method based on motion recognition

Publications (2)

Publication Number Publication Date
KR20200098970A true KR20200098970A (en) 2020-08-21
KR102199078B1 KR102199078B1 (en) 2021-01-06

Family

ID=72235777

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020190016769A KR102199078B1 (en) 2019-02-13 2019-02-13 Smart -learning device and method based on motion recognition

Country Status (1)

Country Link
KR (1) KR102199078B1 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2022154483A1 (en) * 2021-01-12 2022-07-21 삼성전자 주식회사 Electronic device and operation method of electronic device
KR20220126664A (en) * 2021-03-09 2022-09-16 한양대학교 산학협력단 Method and system for nursing practice education using virtual reality

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002072861A (en) * 2000-09-01 2002-03-12 Ibic Service:Kk Hairdressing art lecture system
KR20090105785A (en) * 2008-04-03 2009-10-07 한국전자통신연구원 Teaching apparatus and method based on motion content
KR20130042844A (en) * 2011-10-19 2013-04-29 인하대학교 산학협력단 Indoor exercise compensating position system
KR101414744B1 (en) 2013-06-12 2014-07-04 (주)에이엠이엔지 The portable water purifier
KR20160139932A (en) 2015-05-29 2016-12-07 삼성전기주식회사 Multilayer Ceramic Electric Component And Manufacturing Method of The Same
KR20170140756A (en) * 2016-06-13 2017-12-21 한국전자통신연구원 Appratus for writing motion-script, appratus for self-learning montion and method for using the same

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002072861A (en) * 2000-09-01 2002-03-12 Ibic Service:Kk Hairdressing art lecture system
KR20090105785A (en) * 2008-04-03 2009-10-07 한국전자통신연구원 Teaching apparatus and method based on motion content
KR20130042844A (en) * 2011-10-19 2013-04-29 인하대학교 산학협력단 Indoor exercise compensating position system
KR101414744B1 (en) 2013-06-12 2014-07-04 (주)에이엠이엔지 The portable water purifier
KR20160139932A (en) 2015-05-29 2016-12-07 삼성전기주식회사 Multilayer Ceramic Electric Component And Manufacturing Method of The Same
KR20170140756A (en) * 2016-06-13 2017-12-21 한국전자통신연구원 Appratus for writing motion-script, appratus for self-learning montion and method for using the same

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2022154483A1 (en) * 2021-01-12 2022-07-21 삼성전자 주식회사 Electronic device and operation method of electronic device
KR20220126664A (en) * 2021-03-09 2022-09-16 한양대학교 산학협력단 Method and system for nursing practice education using virtual reality

Also Published As

Publication number Publication date
KR102199078B1 (en) 2021-01-06

Similar Documents

Publication Publication Date Title
US20180315329A1 (en) Augmented reality learning system and method using motion captured virtual hands
KR101989447B1 (en) Dance motion feedback system providing video feedback to user using augmented reality
CN109815776B (en) Action prompting method and device, storage medium and electronic device
CN110490173B (en) Intelligent action scoring system based on 3D somatosensory model
CN111242962A (en) Method, device and equipment for generating remote training video and storage medium
Hajdin et al. Digitization and visualization of movements of slovak folk dances
CN114327060B (en) Working method of virtual teaching system based on AI assistant
Essid et al. A multi-modal dance corpus for research into interaction between humans in virtual environments
Zou et al. Intelligent fitness trainer system based on human pose estimation
CN111833669B (en) Chinese calligraphy pen teaching system and teaching method
KR102199078B1 (en) Smart -learning device and method based on motion recognition
Muneesawang et al. A machine intelligence approach to virtual ballet training
CN111814587A (en) Human behavior detection method, teacher behavior detection method, and related system and device
Zaletelj Estimation of students' attention in the classroom from kinect features
CN112331001A (en) Teaching system based on virtual reality technology
CN110841266A (en) Auxiliary training system and method
CN111353439A (en) Method, device, system and equipment for analyzing teaching behaviors
Aich et al. NrityaGuru: a dance tutoring system for Bharatanatyam using kinect
CN113784059A (en) Video generation and splicing method, equipment and storage medium for clothing production
CN112675527A (en) Family education game system and method based on VR technology
KR20170140756A (en) Appratus for writing motion-script, appratus for self-learning montion and method for using the same
Sun Research on Dance Motion Capture Technology for Visualization Requirements
Kwon A study on taekwondo training system using hybrid sensing technique
Murnane et al. Learning from human-robot interactions in modeled scenes
Liu et al. PianoSyncAR: Enhancing Piano Learning through Visualizing Synchronized Hand Pose Discrepancies in Augmented Reality

Legal Events

Date Code Title Description
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant