KR20200098970A - Smart -learning device and method based on motion recognition - Google Patents
Smart -learning device and method based on motion recognition Download PDFInfo
- Publication number
- KR20200098970A KR20200098970A KR1020190016769A KR20190016769A KR20200098970A KR 20200098970 A KR20200098970 A KR 20200098970A KR 1020190016769 A KR1020190016769 A KR 1020190016769A KR 20190016769 A KR20190016769 A KR 20190016769A KR 20200098970 A KR20200098970 A KR 20200098970A
- Authority
- KR
- South Korea
- Prior art keywords
- motion
- learner
- image
- data
- learning
- Prior art date
Links
Images
Classifications
-
- G—PHYSICS
- G09—EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
- G09B—EDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
- G09B19/00—Teaching not covered by other main groups of this subclass
-
- G06K9/00335—
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/20—Movements or behaviour, e.g. gesture recognition
-
- G—PHYSICS
- G09—EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
- G09B—EDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
- G09B5/00—Electrically-operated educational appliances
- G09B5/06—Electrically-operated educational appliances with both visual and audible presentation of the material to be studied
Landscapes
- Engineering & Computer Science (AREA)
- Business, Economics & Management (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Educational Technology (AREA)
- Educational Administration (AREA)
- Entrepreneurship & Innovation (AREA)
- Human Computer Interaction (AREA)
- Multimedia (AREA)
- Social Psychology (AREA)
- Psychiatry (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Image Analysis (AREA)
Abstract
Description
본 발명은 동영상을 통한 학습을 통해 미용기술을 습득할 수 있도록 지원하는 동작인식 기반의 스마트 미용기술 러닝 장치 및 방법에 관한 것으로, 보다 상세하게는 학습자가 영상 속 헤어 디자이너 또는 메이크업 아티스트의 강의를 시청과 동시에 영상 속 전문가들의 동작을 동일하게 따라 함으로써, 염색방법 또는 메이크업 방법 등 전문기술에 대한 자가학습이 가능 하도록 하는 동작인식 기반의 스마트 미용기술 러닝 장치 및 방법에 관한 것이다.The present invention relates to a motion recognition-based smart beauty technology learning device and method that supports the acquisition of beauty technology through learning through video, and more particularly, a learner watches a lecture of a hair designer or makeup artist in the video. At the same time, it relates to a motion recognition-based smart beauty technology learning device and method that enables self-learning about professional skills such as dyeing method or makeup method by identically following the movements of experts in images.
각종 스포츠를 위한 올바른 자세 또는 헤어 디자이너, 메이크업 아티스트 등의 각종 전문직 종사자들의 노하우인 전문기술을 배우기 위해 올바른 자세 및 정확한 전문도구 사용법 등을 숙지하고자 하는 수요는 항상 존재해 왔으며, 특정 기술을 학습할 수 있는 가장 좋은 방법 중의 하나는 전문가와의 일대일 수업을 통해 전문가의 동작을 반복적으로 따라하고, 즉각적인 피드백을 받아 잘못된 사용법 등을 지속적으로 교정하는 것이다.There has always been a need to familiarize yourself with the correct posture and the correct use of professional tools to learn the correct posture for various sports or the expertise of various professional workers such as hair designers and makeup artists. One of the best ways to do this is to repeat the expert's actions repeatedly through a one-on-one class with an expert, receive immediate feedback, and continuously correct incorrect usage.
하지만 장소와 시간, 경제적 비용 등의 제약으로 인해 전문 강사에게 개별적으로 교습을 받는 것은 쉽지 않은 일이다. 따라서, 인터넷 등의 영상학습을 통한 특정 동작, 기술 등을 배울 수 있는 자가 학습 방법에 대한 요구사항이 점점 증가하고 있으며 이와 관련된 기반 산업도 발전하고 있는 추세이다.However, it is not easy to receive individual lessons from professional instructors due to restrictions such as location, time, and economic costs. Therefore, requirements for self-learning methods that can learn specific movements, techniques, etc. through image learning such as the Internet are increasing, and the related infrastructure industry is also developing.
다만, 현재의 영상물을 통한 자가 학습방법은 화면의 강사가 취하는 동작을 보고 그대로 따라 하는 방식으로, 학습자 본인이 취하고 있는 동작의 정확도, 오류 수정 및 개선 및 학습 성취도 등에 대한 정확한 피드백이 전혀 없기 때문에 효과적인 자가 학습 방법이라고 보기 어렵다. However, the current self-learning method through video is a method of seeing and following the actions taken by the instructor on the screen, and is effective because there is no accurate feedback on the accuracy, error correction, improvement, and learning achievement of the learner. It is difficult to say that it is a self-learning method.
최근 몇 년간 IT 기술의 급속한 발전과 함께 동작 인식용 센서와 동작 인식 기술을 기반으로 하는 스포츠 자세 분석 시스템 등은 플레이어의 자세에 대한 상세한 분석 및 이를 기반으로 하는 진단 서비스를 제공하지만, 이들 진단 서비스는 전문적으로 스포츠 시뮬레이터를 판매하는 몇몇 특정 사업자에 의해서 해당 스포츠에 특화되어 개발된 점에서 다양한 분야에 적용되기 어려운 문제점이 있다. With the rapid development of IT technology in recent years, motion recognition sensors and sports posture analysis systems based on motion recognition technology provide detailed analysis of the player's posture and diagnosis services based on this, but these diagnosis services There is a problem that it is difficult to be applied to various fields in that it has been developed specially for the sport by several specific companies that professionally sell sport simulators.
이러한 문제점을 감안하여 비스포츠 분야에도 적용이 가능하며, 자택에서 손쉽게 사용이 가능하면서도, 학습자 본인이 취하고 있는 동작의 정확도, 오류 수정 및 개선 및 학습 성취도 등에 대한 정확한 피드백이 가능한 동작인식 기반의 스마트 미용기술 러닝 장치가 요구되고 있다. In consideration of these problems, it can be applied to the non-sports field, and while it can be easily used at home, the motion recognition-based smart beauty that provides accurate feedback on the accuracy, error correction and improvement of the learner's actions, and learning achievement. Technology learning devices are in demand.
본 발명은 전술한 문제를 해결하기 위하여 안출 된 것으로, 메이커업 아티스트 등 화장, 미용 분야 전문가의 정확한 동작을 학습하기 위해, 자택 등 원격에서도 보다 손쉽게 사용이 가능하면서도, 학습자 본인이 취하고 있는 동작의 정확도, 오류 수정 및 개선 및 학습 성취도 등에 대한 정확한 피드백이 가능한 동작인식 기반의 스마트 미용기술 러닝 장치 제공에 그 목적이 있다. The present invention was conceived to solve the above-described problem, in order to learn the precise movements of experts in the field of makeup and beauty, such as a maker-up artist, it is possible to use more easily at a remote location, such as at home, and the accuracy of the movements that the learner is taking, Its purpose is to provide a motion recognition-based smart beauty technology learning device that enables accurate feedback on error correction and improvement and learning achievement.
다만, 본 발명이 이루고자 하는 기술적 과제는 이상에서 언급한 기술적 과제로 제한되지 않으며, 언급되지 않은 또 다른 기술적 과제들은 아래의 기재로부터 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자에게 명확하게 이해될 수 있을 것이다.However, the technical problem to be achieved by the present invention is not limited to the technical problems mentioned above, and other technical problems not mentioned are clearly understood by those of ordinary skill in the technical field to which the present invention belongs from the following description. Can be.
전술한 본 발명의 목적 달성을 위해, 미리 입력된 영상 속 전문가의 동작을 동일하게 따라함으로써 스마트 러닝이 가능한 동작인식 기반의 스마트 미용기술 러닝 장치는, 동작인식 센서를 통해 촬상된 학습자의 영상을 취득하는 영상취득부; 상기 촬상된 학습자의 영상 및/또는 상기 입력된 영상으로부터 객체를 추출하여 적어도 하나 이상의 상기 객체의 자세정보 데이터를 산출하는 영상처리부; 산출된 상기 자세정보 데이터를 기반으로 상기 객체의 연속된 동작 데이터를 포함(생성)하는 모션 스크립트 생성부; 상기 입력된 영상 속 객체의 동작 데이터와 상기 학습자의 영상 속 객체의 동작 데이터의 오차정도를 판단하는 동작판단부; 및 상기 동작판단부의 오차정도가 설정된 수치범위를 초과하는 경우 상기 촬상된 학습자의 영상 속 객체의 자세 교정을 위한 지시사항이 출력되는 학습지원부를 포함하여, 상기 입력된 영상 속 객체의 동작 데이터와 상기 학습자의 동작 데이터가 불일치 할 경우 이를 판단하여 상기 학습자가 스스로 동작의 상태를 파악하고 출력된 지시상항에 따라 잘못된 자세를 교정할 수 있도록 하는 것을 특징으로 한다.In order to achieve the above-described object of the present invention, a motion recognition-based smart beauty technology learning device capable of smart learning by following the motion of an expert in a pre-input image is obtained, and acquires an image of a learner captured through a motion recognition sensor. An image acquisition unit; An image processing unit that extracts an object from the captured image of the learner and/or the input image to calculate attitude information data of at least one object; A motion script generator that includes (generates) continuous motion data of the object based on the calculated posture information data; A motion determination unit determining an error degree between motion data of the object in the input image and motion data of the object in the learner's image; And a learning support unit that outputs an instruction for correcting the posture of the object in the image of the imaged learner when the error degree of the motion determination unit exceeds a set numerical range, wherein the motion data of the object in the input image and the When the learner's motion data is inconsistent, it is determined so that the learner can determine the state of the motion and correct the wrong posture according to the output instruction.
본 발명의 일 실시예에 있어서, 상기 동작인식 기반의 스마트 미용기술 러닝 장치는 상기 학습자 및/또는 상기 학습자가 사용하는 학습도구에 부착된 센서로부터 상기 학습자 및/또는 상기 학습자가 사용하는 학습도구의 위치좌표 데이터를 획득할 수 있는 센서부를 더 포함하여, 상기 학습자 및/또는 상기 학습자가 사용하는 학습도구의 움직임을 보다 정밀하게 센싱할 수 있는 것을 특징으로 한다. In one embodiment of the present invention, the motion recognition-based smart beauty technology learning device includes the learner and/or the learning tool used by the learner from a sensor attached to the learner and/or the learning tool used by the learner. It is characterized in that it further includes a sensor unit capable of acquiring position coordinate data, and more precisely senses the movement of the learner and/or the learning tool used by the learner.
본 발명의 일 실시예에 있어서, 상기 모션 스크립트 생성부는 상기 생성된 모션 스크립트를 영상 시퀀스 단위로 생성하되, 상기 동작 데이터는 자세정보 데이터의 위치, 이동좌표, 회전 수 및/또는 병진운동 좌표를 포함할 수 있으며, 상기 입력된 영상 속 전문가의 행동을 영상 시퀀스 단위로 학습할 수 있도록 모션 스크립트를 생성하여 상기 학습자의 학습효율을 증대 시킬 수 있는 것을 특징으로 한다. In one embodiment of the present invention, the motion script generation unit generates the generated motion script in units of an image sequence, wherein the motion data includes a position of the posture information data, a movement coordinate, a number of rotations, and/or a translational motion coordinate. It is characterized in that it is possible to increase the learning efficiency of the learner by generating a motion script so that the expert's actions in the input video can be learned in units of video sequences.
본 발명의 일 실시예에 있어서, 상기 동작판단부는, 상기 오차정도를 판단함에 있어, 상기 입력된 영상 속 객체의 동작데이터 좌표를 기준으로 복수개의 상기 객체의 동작데이터 속 좌표를 비교 분석하여 방향 및/또는 회전 횟수의 오차를 측정하여, 상기 학습자가 입력된 영상 속 전문가의 기술을 따라하는데 있어 상기 전문가의 동작과 학습자의 동작의 차이를 보다 정확하게 인지하여 효율적으로 학습할 수 있도록 하는 것을 특징으로 한다. In one embodiment of the present invention, in determining the degree of error, the motion determination unit compares and analyzes coordinates in motion data of a plurality of objects based on motion data coordinates of the object in the input image, / Or by measuring the error of the number of rotations, the learner can more accurately recognize the difference between the expert's motion and the learner's motion in following the expert's technique in the inputted image so that the learner can learn efficiently. .
또한 본 발명의 일 실시예에 있어서, 상기 지시사항은, 상기 학습자가 자세 교정을 위해 이동해야 하는 방향, 위치, 속도, 이동 각도 및/또는 회전횟수를 포함할 수 있으며, 음성 및/또는 자막의 방식으로 출력될 수 있는 것을 특징으로 하여, 상기 학습자가 입력된 영상 속 전문자의 기술을 따라하는데 있어 보다 정확한 방법을 학습할 수 있도록 하는 것을 특징으로 한다. In addition, in an embodiment of the present invention, the instruction may include a direction, a position, a speed, an angle of movement and/or a number of rotations in which the learner should move for posture correction. It is characterized in that it can be output in a manner, characterized in that the learner can learn a more accurate method in imitating the skill of the expert in the input image.
또한 본 발명의 일 실시예에 있어서, 상기 학습지원부는, 상기 오차정도가 설정된 수치범위를 초과하는 경우, 상기 입력된 영상의 플레이 속도 자동 조절 및/또는 상기 입력된 영상을 시퀀스 단위로 반복 재생하여, 상기 학습자가 상기 입력된 영상 속 전문가의 동작을 일정 수준이상 따라 가지 못하는 경우 상기 입력된 영상의 재생 속도를 조절하여 상기 학습자가 보다 용이하게 학습할 수 있도록 하는 것을 특징으로 한다. In addition, in an embodiment of the present invention, the learning support unit, when the error degree exceeds a set numerical range, automatically adjusts the play speed of the input video and/or replays the input video in sequence units. And when the learner does not follow the operation of the expert in the input video by more than a certain level, the play speed of the input video is adjusted so that the learner can learn more easily.
또한 본 발명의 목적은 입력된 영상 속 전문가의 동작을 동일하게 따라함으로써 스마트 러닝이 가능한 동작인식 기반 스마트 러닝 방법에 있어서, 동작인식 센서를 통해 촬상된 학습자의 영상을 취득하는 단계; 상기 학습자의 영상 및/또는 상기 입력된 영상으로부터 객체를 추출하는 단계; 적어도 하나 이상의 상기 객체의 자세정보 데이터를 생성하는 단계; 생성된 상기 자세정보 데이터를 기반으로 상기 객체의 연속된 동작데이터를 생성하는 단계; 상기 입력된 영상 속 객체의 동작데이터와 상기 학습자의 영상 속 객체의 동작데이터의 오차정도를 판단하는 단계; 및 상기 오차정도가 설정된 수치범위를 초과하는 경우 상기 영상 속 객체의 동작 교정을 위한 지시사항이 출력되는 단계를 포함하되, 상기 동작데이터 일치여부를 판단하는 단계는, 상기 오차정도가 설정된 수치범위를 초과하는 경우 상기 입력된 영상의 플레이 속도를 자동으로 조절하거나 또는 상기 입력된 영상을 시퀀스 단위로 반복 재생하는 단계를 더 포함하여, 상기 입력된 영상 속 객체의 동작과 상기 학습자의 동작이 불일치 할 경우 이를 판단하여 상기 학습자가 스스로 동작의 상태를 파악하고 출력된 지시상항에 따라 잘못된 자세를 교정할 수 있도록 하는 것을 특징으로 하는 동작인식 기반의 스마트 미용기술 러닝 방법을 통해서도 본 발명의 목적 달성은 가능하게 된다.In addition, an object of the present invention is a motion recognition-based smart learning method capable of smart learning by identically following an expert's motion in an input image, the method comprising: acquiring an image of a learner captured through a motion recognition sensor; Extracting an object from the learner's image and/or the input image; Generating at least one posture information data of the object; Generating continuous motion data of the object based on the generated posture information data; Determining an error degree between motion data of the object in the input image and motion data of the object in the learner's image; And outputting an instruction for correcting the motion of the object in the image when the error degree exceeds a set numerical range, wherein determining whether the motion data matches, comprises determining the numerical range in which the error degree is set. If it exceeds, further comprising the step of automatically adjusting the play speed of the input video or repeatedly playing the input video in sequence units, when the motion of the object in the input video and the learner's motion are inconsistent It is possible to achieve the object of the present invention through a motion recognition-based smart beauty technology learning method, characterized in that the learner can determine the state of the motion by determining this and correct the wrong posture according to the output instruction. do.
이상에서 설명한 바와 같은 본 발명의 동작인식 기반의 스마트 미용기술 러닝 장치에 따르면, 다음과 같은 효과가 있다.According to the motion recognition-based smart beauty technology learning device of the present invention as described above, the following effects are provided.
본 발명의 일 실시 예에 따른 출력되는 영상속의 객체 행동을 분석한 데이터 및 센서 등을 통해 인식된 학습자의 동작 데이터를 비교 분석 할 수 있다. According to an exemplary embodiment of the present invention, data obtained by analyzing object behavior in an output image and behavior data of a learner recognized through a sensor may be compared and analyzed.
또한, 본 발명에 의하면 일방적인 콘텐츠 소비가 아닌 특정한 행동을 취해야 다음 동영상이 플레이 되는 등 유저와 영상 간의 상호 교류를 가능하게 하여 상호간 인터랙션이 필요한 교육 프로그램 및 장기적인 관리가 필요한 프로그램 등에 활용될 수 있다 In addition, according to the present invention, it is possible to mutually exchange between users and videos, such as playing the next video when a specific action is taken rather than unilateral content consumption, so that it can be used for educational programs requiring mutual interaction and programs requiring long-term management.
한편, 본 발명의 효과는 이상에서 언급한 효과로 제한되지 않으며, 언급되지 않은 다른 효과들은 청구범위의 기재로부터 당업자에게 명확하게 이해될 수 있을 것이다.On the other hand, the effects of the present invention are not limited to the above-mentioned effects, and other effects not mentioned will be clearly understood by those skilled in the art from the description of the claims.
도 1은 본 발명의 일 실시예에 따른 동작인식 기반의 스마트 미용기술 러닝 장치의 구성도이다.
도 2는 본 발명의 일 실시예에 따른 학습자의 자세정보 데이터를 산출한 영상의 예시도면이다.
도 3은 본 발명의 일 실시예에 따른 학습자의 동작을 촬영한 영상의 어느 일 프레임에 상기 동작하는 학습자의 동작 데이터를 레이어 한 모션 스크립트의 한 예시도면이다.
도 4는 본 발명의 일 실시예에 따른 동작인식 기반의 스마트 미용기술 러닝 방법에 대한 흐름도이다1 is a block diagram of a motion recognition-based smart beauty technology learning device according to an embodiment of the present invention.
2 is an exemplary view of an image obtained by calculating the learner's posture information data according to an embodiment of the present invention.
3 is an exemplary diagram of a motion script in which motion data of a learner is layered on a frame of an image photographing a learner's motion according to an embodiment of the present invention.
Figure 4 is a flow chart of a motion recognition-based smart beauty technology learning method according to an embodiment of the present invention
이하에서는 첨부한 도면을 참조하여 본 발명을 설명하기로 한다. 그러나 본 발명은 여러 가지 상이한 형태로 구현될 수 있으며, 따라서 여기에서 설명하는 실시예로 한정되는 것은 아니다. 그리고 도면에서 본 발명을 명확하게 설명하기 위해서 설명과 관계없는 부분은 생략하였으며, 명세서 전체를 통하여 유사한 부분에 대해서는 유사한 도면 부호를 붙였다.Hereinafter, the present invention will be described with reference to the accompanying drawings. However, the present invention may be implemented in various different forms, and therefore is not limited to the embodiments described herein. In the drawings, parts irrelevant to the description are omitted in order to clearly describe the present invention, and similar reference numerals are assigned to similar parts throughout the specification.
명세서 전체에서, 어떤 부분이 다른 부분과 "연결(접속, 접촉, 결합)"되어 있다고 할 때, 이는 "직접적으로 연결"되어 있는 경우뿐 아니라, 그 중간에 다른 부재를 사이에 두고 "간접적으로 연결"되어 있는 경우도 포함한다. 또한, 어떤 부분이 어떤 구성요소를 "포함"한다고 할 때, 이는 특별히 반대되는 기재가 없는 한 다른 구성요소를 제외하는 것이 아니라 다른 구성요소를 더 구비할 수 있다는 것을 의미한다.Throughout the specification, when a part is said to be "connected (connected, contacted, bonded)" with another part, it is not only "directly connected", but also "indirectly connected" with another member in the middle. "Including the case. In addition, when a part "includes" a certain component, this means that other components may be further provided, not excluding other components, unless specifically stated to the contrary.
본 명세서에서 사용한 용어는 단지 특정한 실시예를 설명하기 위해 사용된 것으로, 본 발명을 한정하려는 의도가 아니다. 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. 본 명세서에서, "포함하다" 또는 "가지다" 등의 용어는 명세서 상에 기재된 특징, 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.The terms used in the present specification are only used to describe specific embodiments, and are not intended to limit the present invention. Singular expressions include plural expressions unless the context clearly indicates otherwise. In the present specification, terms such as "comprise" or "have" are intended to designate the presence of features, numbers, steps, actions, components, parts, or combinations thereof described in the specification, but one or more other features. It is to be understood that the presence or addition of elements or numbers, steps, actions, components, parts, or combinations thereof, does not preclude in advance.
참고로, 이하에서 설명될 본 발명의 구성들 중 종래기술과 동일한 구성에 대해서는 전술한 종래기술을 참조하기로 하고 별도의 상세한 설명은 생략한다.For reference, among the configurations of the present invention to be described below, the above-described conventional technology will be referred to for the same configuration as the prior art, and a separate detailed description will be omitted.
도 1은 본 발명의 일 실시예에 따른 동작인식 기반의 스마트 미용기술 러닝 장치(100)를 설명하기 위한 블럭도이다.1 is a block diagram for explaining a motion recognition-based smart beauty
도 1에 도시된 바와 같이, 동작인식 기반의 스마트 미용기술 러닝 장치(100)는 영상취득부(110), 영상처리부(120), 센서부(130), 모션 스크립트 생성부(140), 동작판단부(150), 학습지원부(160) 및 디스플레이부(170)를 포함하여, 입력된 영상 속 전문가의 동작을 동일하게 따라함으로써 자가학습이 가능하게 할 수 있다. As shown in Fig. 1, the motion recognition-based smart beauty
도 1에 도시된 구성요소들은 동작인식 기반의 스마트 미용기술 러닝 장치(100)를 구현하는데 있어서 필수적인 것은 아니어서, 본 명세서 상에서 설명되는 동작인식 기반의 스마트 미용기술 러닝 장치(100)는 위에서 열거된 구성요소들 보다 많거나, 또는 적은 구성요소들을 가질 수 있다.The components shown in FIG. 1 are not essential in implementing the motion recognition-based smart beauty
본 발명의 일 실시예에 따르면, 상기 동작인식 기반의 스마트 미용기술 러닝 장치(100)는 학습자(200)에 의해서 전문가의 기술이나 노하우가 촬영된 영상이 입력되어 플레이 될 수 있다. 예를 들어, 헤어 디자이너의 헤어 염색에 대한 강의 또는 메이크업 아티스트의 메이크업 강의에 대한 영상을 입력하여 플레이 할 수 있으며, 상기 학습자(200)는 상기 영상 속 전문가(ex. 헤어 디자이너나 메이크업 아티스트)의 강의를 들으면서 상기 전문가들의 동작을 동일하게 따라 함으로써, 염색방법 또는 메이크업 방법을 배울 수 있다. According to an embodiment of the present invention, the motion recognition-based smart beauty
본 발명의 일 실시예에 따른 상기 영상취득부(110)는, 동작인식 센서를 통해 촬상된 학습자의 영상(111)을 취득할 수 있다. 보다 상세하게 설명하면, 동작인식 센서는 동작인식 기반의 스마트 미용기술 러닝 장치(100)에서 플레이 되는 동영상 속 전문가의 동작을 따라하는 학습자(200)를 촬영할 수 있으면, 이렇게 촬영된 상기 학습자(200)의 학습 영상은 상기 영상취득부(110)를 통해 취득될 수 있다. 예를 들어 메이크업 강좌를 영상으로 시청하며 학습자(200)가 상기 입력된 영상 속 전무가와 동일하게 메이크업을 실습하는 경우, 그 과정 및 결과물을 동작인식 센서를 통해 이를 촬영할 수 있다. The
상기 동작인식 센서는 상기 학습자(200)에 대한 깊이 영상을 촬영할 수 있도록 학습자(200)의 정면에 대해 전방으로 소정 거리가 이격된 위치에 설치되어 있을 수 있다. 또한, 상기 동작인식 센서는 일반 영상, 컬러영상 및 깊이 영상을 획득할 수 있도록 깊이 센서, RGB센서가 및 촬영용 카메라가 포함된 기기인 것이 바람직하며, 키넥트 센서를 포함하여 플레이어의 위치와 움직임을 감지하여 3차원 데이터를 전송할 수도 있다. 또한, 적외선 방출 및 적외선 센서를 포함하여 상기 학습자(200)를 촬영할 수도 있다. 예를 들어, 학습자(200)가 헤어 디자인어의 강좌를 보며 이를 실습하는 경우 상기 학습자(200)의 실습 동작 즉, 가위, 및/또는 드라이를 사용하는 동작을 촬영한 영상을 획득할 수 있다. 다만, 이는 일 실시예에 불과할 뿐 상기 동작인식 기반의 스마트 미용기술 러닝 장치(100)에 다양한 형태로 포함될 수도 있다. The motion recognition sensor may be installed at a position spaced a predetermined distance forward with respect to the front of the
본 발명의 일 실시 예에 따른 동작인식 기반의 스마트 미용기술 러닝 장치는 센서부(130)를 더 포함할 수 있다. 보다 구체적으로 상기 학습자는 상기 학습자의 위치좌표로 구성된 데이터를 획득하기 위한 센서를 신체에 부착할 수 있으며, 이렇게 획득된 위치좌표 데이터를 통해 상기 학습자의 움직임을 보다 정밀하게 획득할 수 있다. 위치좌표로 구성된 데이터란, x,y,z좌표로 산출할 수 있는 정보로 예를 들어 방향, 속도 등의 정보를 포함할 수 있다. 또한, 상기 센서는 학습자가 사용하는 학습도구의 일부에 부착될 수도 있으며, 상기 센서부(130)는 이렇게 부착된 센서를 통해 상기 학습자가 사용하는 학습도구의 위치좌표로 구성된 데이터를 획득할 수도 있다. 즉, 상기 학습자의 경우와 마찬가지로 상기 학습자가 사용하는 학습도구의 방향, 움직이는 속도 등의 정보를 획득할 수 있다. The motion recognition-based smart beauty technology learning device according to an embodiment of the present invention may further include a
본 발명의 일 실시 예에 따른 상기 영상처리부(120)는 상기 촬상된 학습자의 영상(111) 및/또는 상기 입력된 영상으로부터 객체를 추출할 수 있다. 상기 객체는 상기 동작인식 센서를 통해 촬상된 영상속에 포함된 학습자(200) 또는 학습자(200)가 사용하는 도구(ex. 헤어스타일링을 위한 도구, 또는 메이크업을 위한 붓)일 수 있다. 또한, 상기 영상처리부(120)는 동작인식 기반의 자가 학습 장치에 입력된 영상 속 전문가 및 상기 전문가가 사용하는 도구(ex. 헤어스타일링을 위한 도구, 또는 메이크업을 위한 붓)를 객체로 인식하여 추출할 수도 있다. The
도 2는 본 발명의 일 실시예에 따른 학습자(200)의 자세정보 데이터(121)를 산출한 영상의 예시도면이다. 2 is an exemplary diagram of an image obtained by calculating the
본 발명의 일 실시예에 따르면, 상기 영상처리부(120)는 동작인식 센서로부터 획득한 영상에서 적어도 하나 이상의 객체를 추출하고, 그 추출된 객체에 대한 자세정보 데이터(121)를 생성할 수 있다. 여기서, 상기 자세정보 데이터(121)는 학습자(200) 및 전문가의 신체정보 특히, 학습자(200) 및 전문가의 손가락, 손목, 팔꿈치의 위치 정보 및 상기 학습자(200) 및 전문가의 스탠딩 정보가 포함될 수 있다. 예를 들어, 상기 신체정보는 깊이 영상의 픽셀을 분석하여 학습자(200)의 키, 어깨 폭, 팔 등에 대한 정보일 수 있으며, 또한, 상기 스탠딩 정보는 학습시작 단계의 학습자(200)의 자세 정보로서, 학습자(200)의 오른발과 왼발의 좌우 폭, 학습자(200)의 오른팔과 오른손 및 왼팔과 왼손 사이의 전후방향 이격거리가 포함될 수 있다. 또한, 영상처리부(120)가 스탠딩 정보를 산출하는 과정은, 예를 들어, 상기 촬상된 영상에서 학습자(200)의 신체가 차지하는 세로 픽셀과 가로 픽셀 수를 통해 길이를 알아낼 수 있으며, 해상도와 화각을 이용하여 신체가 차지하는 각도를 알 수 있다. According to an embodiment of the present invention, the
본 발명의 일 실시예에 따른 상기 영상처리부(120)는, 상기 학습자(200)가 학습을 위한 도구(ex. 가위, 메이크업 도구, 헤어 롤 등)를 사용하는 경우, 상기 도구를 잡는 손가락의 위치를 상기 세로 픽셀과 가로 픽셀 수를 통해 측정할 수 있다. 또한, 본 발명의 다른 일 실시예에 따르면, 상기 영상처리부(120)는 상기 학습자(200)의 자세정보를 관절 포인트를 기반으로 한 스켈레톤 데이터로 생성할 수도 있다. The
도3은 본 발명의 일 실시예에 따른 학습자(200)의 동작을 촬영한 영상의 어느 일 프레임에 상기 동작하는 학습자(200)의 동작 데이터를 레이어 한 모션 스크립트의 한 예시도면이다. 3 is an exemplary diagram of a motion script in which motion data of the
본 발명의 일 실시예에 따른 모션 스크립트 생성부(140)는 상기 산출된 상기 자세정보 데이터(121)를 기반으로 상기 객체의 연속된 동작 데이터를 포함하는 모션 스크립트를 생성할 수 있다. 보다 상세하게 설명하면, 동작데이터(141)란, 자세정보 데이터(121)를 기반으로 영상 속 객체의 일련의 연속 동작에 대한 데이터를 통합하여 것일 수 있다. 예를들어, 상기 자세정보 데이터(121)가 관절 포인트를 연결한 스켈레톤 데이터로 출력되는 경우 동작데이터(141)는 일련의 연속된 동작에 대한 스켈레톤 데이터를 연속적으로 출력한 것일 수 있다. 따라서 상기 영상처리부(120)는 학습자(200), 전문가, 학습자가 사용하는 학습도구 및 전문가가 사용하는 교구의 자세정보 데이터(121)를 추출하여 저장하되, 이러한 각각의 자세정보 데이터(121)를 기반으로 각각의 객체에 대한 개별적인 동작데이터(141)를 생성할 수 있다. 이러한 동작데이터(141)를 포함한 객체의 연속된 동작을 초당 프레임 단위로 추출하여 모션 스크립트를 생성할 수 있다. 상기 동작데이터(141)는 상기 자세정보 데이터(121)를 기반으로 상기 영상 속 객체의 위치, 이동좌표, 회전 및/또는 병진운동 좌표를 포함할 수 있으며, 이로써 상기 학습자(200)가 보다 자신의 동작을 객관적으로 판단할 수 있도록 할 수 있다. The motion
또한, 모션 스크립트 생성부(140)는 상기 학습자의 동작데이터를 생성함에 있어서 상기 센서부(130)가 획득한 학습자의 위치좌표로 구성된 정보 데이터를 포함할 수 있다. 즉 상기 학습자의 자세정보 데이터 및 획득한 학습자의 위치좌표 데이터를 결합하여 상기 학습자의 동작데이터를 생성할 수 있다. 즉, 상기 자세정보 데이터 및 상기 센서를 통해 획득한 상기 학습자의 위치좌표 데이터를 통합하여 보다 정밀한 상기 학습자의 동작데이터를 획득할 수 있다. 또한, 상기 학습자가 사용하는 학습도구의 동작데이터를 생성함에 있어서도 마찬가지로 상기 학습자가 사용하는 학습도구의 자세정보 데이터 및 위치좌표 데이터를 통합하여 상기 학습자가 사용하는 학습도구의 동작데이터를 생성 할 수 있다. In addition, the motion
또한, 모션 스크립트 생성부(140)는 영상 속 객체의 동작데이터를 각각의 영상에 레이어 하여 모션 스크립트를 생성할 수 있다. 상기 모션 스크립트란, 예를 들어 촬상된 학습자의 영상에 상기 학습장 및 학습자가 사용하는 학습도구의 동작데이터를 레이어 한 영상을 의미하며, 상기 입력된 전문가의 영상에 상기 전문가 및 전문가가 사용하는 교구의 동작데이터를 레이어 하여 전문자에 대한 모션 스크립트를 생성할 수 있다. 또다른 일 실시예로, 상기 전문가의 모션 스크립트에 학습자의 동작 데이터만을 레이어 하여 또다른 모션 스크립트를 생성할 수도 있다.In addition, the motion
도2 및 도3을 참조하여 설명하면, 학습자의 영상(111)에서 산출된 자세정보 데이터(121)는 도2에서와 같이 관절에 해당되는 포인트와 상기 관절 포인트를 연결한 선으로 구성된 스켈레톤 데이터일 수 있으며, 상기 모션 스크립트 생성부(140)는 도3과 같이 학습자(200)가 동작을 하는 일련의 과정에 자세정보 데이터(121)를 기반으로 한 동작데이터(141)를 생성하여 학습자(200)의 동작을 촬영한 영상에 상기 동작하는 학습자(200)의 동작 데이터를 레이어 한 모션 스크립트를 생성할 수 있다. 2 and 3, the
본 발명의 일 실시예에 따른 모션 스크립트 생성부(140)는 상기 모션 스크립트를 영상 시퀀스 단위로 생성할 수 있다. 여기서 시퀀스란, 특정 상황의 시작부터 끝까지를 묘사하는 영상 단락 구분을 의미한다. 따라서, 상기 모션 스크립트 생성부(140)는 초당 프레임 단위로 촬영된 동영상에 포함된 일련의 연속된 동작의 처음과 끝을 감지하여 시퀀스 단위로 분할 및 저장함으로써 상기 입력된 영상 속 전문가의 행동을 영상 시퀀스 단위로 학습할 수 있도록 모션 스크립트를 생성할 수 있다. 예를들어, 상기 영상 속 헤어 디자이너가 강의 중 멈춤없이 일련의 연속된 동작으로 머리의 일부분에 컬을 생성하는 강의를 하는 경우, 그 동작의 시작과 끝을 기준으로 한 모션 스크립트를 생성할 수 있다. The motion
본 발명의 일 실시예에 따른 동작판단부(150)는 상기 입력된 영상 속 객체의 동작 데이터와 상기 학습자의 영상(111) 속 객체의 동작 데이터의 오차정도를 판단할 수 있다. 보다 상세하게 설명하면, 상기 학습자 영상 속 객체의 동작데이터가 입력된 영상 속 객체(ex. 전문가)의 동작데이터와 불일치 하는 정도를 산출하여 수치로 표시할 수 있다. 예를 들면, 상기 학습자(200)의 동작 데이터와 상기 전문가의 동작데이터의 비교 분석을 통해 일치하지 않는 정도를 산출 할 수 있다. 이때, 상기 학습자 영상 속 객체(ex. 학습자)의 동작데이터와 상기 입력된 영상 속 객체(ex. 전문가)의 동작데이터 간의 불일치 정도를 오차정도라 할 수 있다. 이 오차정도는 상기 학습자 영상 속 객체의 동작데이터(ex. 관절 포인트)의 이동한 정도 방향, 회전 횟수 및/또는 병진운동을 포함하여 고려할 수 있다. 또한, 상기 객체는 학습자(200)나 전문가가 사용하는 도구를 포함할 수 있으므로, 상기 도구의 위치좌표, 회전 수 및 병진운동 좌표를 포함하여 오차정도를 산출 할 수 있다.The
본 발명의 일 실시예에 따른 동작판단부(150)는 상기 학습내용에서 컬러가 중요한 경우(예를들어 상기 입력된 영상이 메이크업 전문가의 메이크업 강좌인 경우), RGB센서를 포함하는 동작인식 센서를 통하여, 상기 학습자(200)의 동작뿐만 아니라 사용하는 메이크업 컬러 및 메이크업 결과물의 컬러 일치여부도 판단하여 오차정도를 산출할 수 있다. The
본 발명의 일 실시예에 따른 학습지원부(160)는 상기 동작판단부(150)의 판단 결과 즉, 오차정도가 설정된 수치를 초과하는 경우, 촬상된 학습자의 영상(111) 속 객체의 자세 교정을 위한 지시사항을 출력할 수 있다. 보다 상세하게 설명하면, 본 발명인 동작인식 기반의 스마트 미용기술 러닝 장치(100)를 사용하는 학습자(200)는 전문가 동작과 자신의 동작의 불일치 정도 또는 일치 여부에 대한 판단 결과를 출력하기 위한 수치를 설정할 수 있다. 즉, 오차정도가 상기 설정된 수치를 초과하는 경우 상기 오차정도는 상기 입력된 영상 속 객체에 레이어 되어 출력될 수 있다. The
또한, 상기 지시사항은, 상기 학습자(200)가 자세 교정을 위해 이동해야 하는 방향, 위치, 속도, 이동 각도 및/또는 회전횟수를 포함할 수 있다. 보다 상세하게 설명하면, 상기 지시사항은 상기 입력된 영상 속 객체(ex. 전문가)의 동작 데이터를 기준으로 상기 촬상된 영상 속 객체(ex.학습자)가 이동해야 하는 좌표, 각도, 회전 횟수 등을 의미할 수 있다. 상기 지시사항은 재생되는 영상에 레이어 되어 자막, 화살표로 출력될 수 있으며, 또는 음성으로 지원될 수도 있어 상기 학습자(200)가 입력된 영상 속 전문가의 기술을 따라하는데 있어 보다 정확한 방법을 학습할 수 있다. 다만, 상기 지시사항을 출력하는 방법은 일 실시예에 불과하며, 이에 한정되지 않는다. In addition, the instruction may include a direction, a position, a speed, a moving angle, and/or a number of rotations in which the
본 발명의 다른 일 실시예에 따른 학습지원부(160)는, 상기 오차정도가 설정된 수치범위를 초과하는 경우 상기 입력된 영상의 플레이 속도를 자동으로 조절 및/또는 상기 입력된 영상을 시퀀스 단위로 반복 재생할 수 있다. 즉, 상기 입력된 영상 속 객체의 동작데이터(141)와 상기 학습자(200)의 동작데이터(141)의 불일치 정도가 일정 수치를 초과하여 상기 학습자(200)가 상기 입력된 영상 속 전문가의 동작을 일정 수준이상 따라 가지 못하는 것으로 판단되는 경우, 상기 입력된 영상의 재생 속도를 조절하여 상기 학습자(200)가 보다 천천히 상기 전문가의 모션을 따라할 수 있도록 할 수 있다. 또는 오차정도가 설정된 수치 범위가 될 때까지 상기 입력된 영상을 시퀀스 단위로 반복 재생되도록 할 수 있다. 또한, 상기 전문가의 강의 동영상이 반복 재생됨에 따라 상기 학습자와 전문가의 동작데이터간의 일치여부가 설정된 수치범위 내로 판단될 경우 상기 반복 재생이 중단될 수 있다. 예를들어, 상기 학습자(200)는 학습진도 계획을 위해 상기 전문가의 동작과의 일치 정도를 수치화 하여 임으로 설정할 수 있다. 즉 오차범위를 10%로 설정한 경우 상기 전문가의 동작데이터(141)와 학습자(200)의 동작데이터(141)의 오차정도가 영상 시퀀스 단위로 10%를 초과하는 경우 해당 영상을 시퀀스 단위로 반복 재생할 수 있다. The
또한, 본 발명의 다른 일 실시예에 따른 학습지원부(160)는 학습결과인 학습자와 전문가의 동작데이터의 오차정도를 저장하여 학습 진도를 계획할 수 있도록 할 수 있다. 즉, 처음 학습 당시의 동작데이터 오차 정도와 개선된 상태의 동작데이터 오차정도의 수치를 저장할 수 있으며, 상기 오차정도가 큰 영상 시퀀스를 순위대로 기록하여, 복습이 필요한 영상을 추천하여 학습이 용이하도록 할 수 있으며, 다음 재생시 상기 기록된 영상 시퀀스를 복습하도록 추천할 수도 있다.In addition, the
본 발명의 다른 일 실시예에 따른 학습지원부(160)는, 자체 DB(도 1 참조)에 저장된 또는 외부(날씨정보 등을 제공하는 서비스업체 등)로부터 실시간 또는 설정된 주기로 외부 환경 정보(일 예로 기온, 강우량, 풍속, 풍향, 습도, 조도 등의 정보가 될 수 있다)를 수신받고, 외부 환경 정보에 최적화된 메이커업, 화장법 등과 관련된 전문가의 미용법을 디스플레이부(170)를 통해 구현되도록 할 수 있으며, 이와 동시에 또는 사용자 등의 선택에 따라 상기 외부 환경 조건에 부합(일 예로 날씨가 흐리고 바람이 많이 부는 경우, 기존 보다 짙은 화장법에 대한 콘텐츠가 디스플레이부(170)를 통해 구현(Display)되거나, SPF(Sun Protection Factor), Water-proof 등의 기능이 강화된 메이커업 제품 추천 및 이러한 제품을 기반으로 하는 화장법 등이 디스플레이부(170)를 통해 구현되고, 사용자 또는 학습자가 따라 배울 수 있도록 할 수도 있다. 이를 위해 학습지원부(160)는, 유선 또는 무선 네트워크를 통해 미리(또는 실시간으로) 전문가 등으로부터 외부 환경 정보에 따른 최적화된 화장법 등에 대한 콘텐츠나 정보, 메이크업 기술, 추천 화장품 등에 대한 정보를 전달받아 스마트 미용기술 러닝 장치(100)에 저장(DB가 될 수 있다)할 수 있다.
본 발명의 다른 일 실시예에 따른 학습지원부(160)는, 영상취득부(110)를 통해 수집된 학습자의 화장 패턴(브러쉬 등 각종 미용기구를 이용하는 방법, 눈화장, 립스틱 사용 컬러, 사용 방법 등 메이크업 패턴을 포함할 수 있다)을 동작인식 기반의 스마트 미용기술 러닝 장치(100)에 저장(일 예로 도 1에 도시된 DB가 될 수 있다)할 수 있으며, 이렇게 저장(또는 실시간으로 진행되는)된 학습자의 화장 패턴을 미리 상기 DB에 입력(저장)된 메이크업 아티스트 등 전문가의 화장법(또는 화장 패턴)과 비교하여, 학습자가 선호하는 시간에 별도로 디스플레이부(170)를 통해 상호 비교 영상을 재생하거나, 비교 분석 결과 등을 제공할 수 있으며, 추가적으로 학습자가 지정한 다른 단말기(PC나 태블릿 PC 등 유선 또는 무선 네트워크를 통해 연결되는 디바이스)에 데이터를 전송하여 비교하도록 할 수 있다.
또한 본 발명의 다른 일 실시예에 따른 동작인식 기반의 스마트 미용기술 러닝 장치(100)는, 실시간으로 메이크업 아티스트 등 전문가의 실시간 메이크업 등 화장 진행 정보를 통신 네트워크를 통해 전달받는 동시에, 영상취득부(110) 및 영상처리부(120)를 통해 입력, 처리된 학습자의 실시간 메이크업 등 화장 진행 정보를 실시간으로 비교 분석하여 디스플레이부(170)를 통해 상기 전문가와 상기 학습자가 상호 비교하면서 화장 등을 진행할 수 있도록 지원할 수도 있으며, 이와 함께 상기 전문가 및/또는 상기 학습자의 화장 패턴 및 화장 진행 상황을 DB에 저장하여 상기 전문가 및/또는 상기 학습자가 필요에 따라 분석하도록 할 수 있다.In addition, the motion recognition-based smart beauty
또한 본 발명의 다른 일 실시예에 따른 동작인식 기반의 스마트 미용기술 러닝 장치(100)는, 학습을 진행하는 개별 학습자별로 장치(100) 이용을 통한 미용 기술 습득에 대한 평가를 진행하도록 지원할 수 있다. 이를 위해 장치(100)는 DB에 개별 학습자의 "메이크업 완성도"(일 예로 완성도에 대한 평가는 1점에서 10점 척도로 제시될 수 있으며, 비교 영상 분석이 진행된 전문가와의 동작 일치/불일치 여부 등이 점수 배점의 척도가 될 수 있다), 개별 학습자의 "완성도 성취(학습을 통한 미용 기술의 습득 등)" 여부 및/또는 복수의 다른 학습자와의 상대 비교 등을 통해 개별 또는 그룹 학습자 등의 미용 기술 성취 여부에 대한 평가 역시 학습지원부(160)를 통해 진행할 수 있게 된다.In addition, the motion recognition-based smart beauty
또한, 본 발명의 다른 일 실시예에 따른 디스플레이부(170)는 예를 들면, LCD, 터치스크린 등과 같은 디스플레이 디바이스일 수 있으며, 디스플레이부(170)는 외부 사용자의 입력 등에 따라 반응하거나 추가적인 데이터를 입력할 수 있는 터치스크린으로 구성될 수 있다.In addition, the
통신부(미도시)는 동작인식 기반의 스마트 미용기술 러닝 장치(100)와 학습자(200) 및 학습도구에 부착된 센서 간의 송수신 신호를 전송하는데 필요한 통신 인터페이스를 제공한다. 또한, 통신부는 다른 네트워크 장치와 유무선 연결을 통해 데이터 신호와 같은 신호를 송수신하기 위해 필요한 하드웨어 및 소프트웨어를 포함하는 장치일 수 있다. The communication unit (not shown) provides a communication interface required to transmit a transmission/reception signal between the motion recognition-based smart beauty
메모리(DB)는 동작인식 기반의 스마트 미용기술 러닝 장치(100)가 처리하는 데이터를 일시적 또는 영구적으로 저장하는 기능을 수행한다. 여기서, 메모리(DB)는 자기 저장 매체(magnetic storage media) 또는 플래시 저장 매체(flash storage media)를 포함할 수 있으나, 본 발명의 범위가 이에 한정되는 것은 아니다.The memory DB performs a function of temporarily or permanently storing data processed by the motion recognition-based smart beauty
도 4는 본 발명의 일 실시예에 따른 동작인식 기반의 스마트 미용기술 러닝 방법에 대한 흐름도이다Figure 4 is a flow chart of a motion recognition-based smart beauty technology learning method according to an embodiment of the present invention
본 발명의 일 실시예에 따른 동작인식 기반의 스마트 미용기술 러닝 방법은, 상기 동작인식 기반의 스마트 미용기술 러닝 장치(100)에 입력된 영상 속 전문가의 동작을 동일하게 따라함으로써 스마트 러닝이 가능한 동작인식 기반 스마트 러닝 방법으로, 구체적으로 동작인식 센서를 통해 촬상된 학습자의 영상(111)을 취득하는 단계(S410)를 포함한다.The motion recognition-based smart beauty technology learning method according to an embodiment of the present invention is an operation capable of smart learning by identically following the motion of an expert in an image input to the motion recognition-based smart beauty technology learning device 100 A recognition-based smart learning method, specifically including a step (S410) of acquiring the learner's
또한, 상기 학습자의 영상(111) 및/또는 상기 입력된 영상 속 객체를 추출하는 단계(S420)를 포함한다. 보다 구체적으로 상기 동작인식 센서를 통해 촬상된 학습자(200) 및 학습자(200)가 사용하는 학습 도구를 객체로 인식하여 추출할 수 있다. 또한, 상기 입력된 영상 속 전문가 및 전문가가 사용하는 교구를 객체로 인식하여 추출할 수 있다. Also, it includes the step of extracting the learner's
본 발명의 일 실시예에 따른 동작인식 기반의 스마트 미용기술 러닝 방법은, 적어도 하나 이상의 상기 객체의 자세정보 데이터(121)를 생성하는 단계(S430)를 포함할 수 있다. A method of learning smart beauty technology based on motion recognition according to an embodiment of the present invention may include generating (S430)
상기 자세정보 데이터(121)는 상기 영상 속 객체 즉, 학습자(200) 및 전문가의 학습 초기 상태의 정지 상태의 자세에 대한 데이터로, 보다 구체척으로 학습자(200) 및 전문가의 관절 또는 뼈대로 구성된 스켈레톤 데이터를 의미할 수 있다. The
다음으로 본 발명의 일 실시예에 따른 동작인식 기반의 스마트 미용기술 러닝 방법은, 생성된 상기 자세정보 데이터(121)를 기반으로 상기 객체의 연속된 동작데이터(141)를 생성하는 단계(S440)를 포함할 수 있다. Next, in the motion recognition-based smart beauty technology learning method according to an embodiment of the present invention, the step of generating
상기 동작데이터(141)는 상기 영상처리부(120)가 상기 학습자의 영상(111) 및 입력된 영상 속 객체의 자세정보 데이터(121)를 추출하여 저장하되, 이러한 자세정보 데이터(121)를 기반으로 영상 속 객체의 연속 동작을 데이터화 한 것으로, 예를들어 상기 자세 정보가 관절 포인트를 연결한 스켈레톤 데이터로 출력된 경우 동작데이터(141)는 상기 스켈레톤 데이터를 연속적으로 출력한 것일 수 있다. 상기 스켈레톤 데이터는 디스플레이 상에 관절에 해당하는 포인트 및/또는 뼈대를 나타내는 선으로 구성될 수 있다. The
본 발명의 일 실시예에 따른 동작인식 기반의 스마트 미용기술 러닝 방법은, 상기 입력된 영상 속 객체의 동작데이터(141)와 상기 학습자의 영상(111) 속 객체의 동작데이터(141)의 일치여부를 판단하는 단계(S450)를 포함할 수 있다. The motion recognition-based smart beauty technology learning method according to an embodiment of the present invention is whether the
상기 동작데이터(141) 일치여부는 상기 입력된 영상 속 객체를 기준으로 상기 촬상된 영상 속 객체의 동작데이터(141)의 오차 여부로 판단하며, 상기 오차는 구체적으로 상기 학습자(200)의 이동 동선, 손의 회전 횟수, 팔의 높이, 도구의 사용여부 등을 수치로 나타낼 수 있다. Whether the
본 발명의 일 실시예에 따른 상기 동작데이터(141) 일치여부를 판단하는 단계(S450)는, 상기 판단결과 상기 오차가 설정된 수치범위를 초과하는 경우 상기 입력된 영상의 플레이 속도를 자동으로 조절하거나 또는 상기 입력된 영상을 시퀀스 단위로 반복 재생하는 단계를 더 포함할 수 있다. 예를들어, 상기 입력된 영상 속 객체의 동작데이터(141)와 상기 학습자(200)의 동작데이터(141)의 일치 정도에 대한 오차가 일정 수치를 초과하여 상기 학습자(200)가 상기 입력된 영상 속 전문가의 동작을 일정 수준이상 따라 가지 못하는 것으로 판단되는 경우, 학습효과 증대를 위해 상기 입력된 영상의 재생 속도를 조절하여 상기 학습자(200)가 보다 천천히 상기 전문가의 모션을 따라할 수 있도록 할 수 있다. 또는 상기 오차가 설정된 수치 범위가 될 때까지 상기 입력된 영상을 시퀀스 단위로 반복 재생할 수 있다. 즉, 반복 재생으로 일치여부가 설정된 수치범위 내로 판단될 경우 반복이 중단될 수 있다. In the step of determining whether the
본 발명의 일 실시예에 따른 동작인식 기반의 스마트 미용기술 러닝 방법은, 상기 판단 결과 설정된 수치범위를 초과하는 경우 상기 영상 속 객체의 동작을 교정하기 위한 지시사항이 출력되는 단계(S460)를 포함하여 상기 입력된 영상 속 객체의 동작과 상기 학습자(200)의 동작이 불일치 할 경우 이를 판단하여 상기 학습자(200)가 스스로 동작의 상태를 파악하고 출력된 지시상항에 따라 잘못된 자세를 교정할 수 있다. A motion recognition-based smart beauty technology learning method according to an embodiment of the present invention includes a step (S460) of outputting an instruction for correcting the motion of the object in the image when the determination result exceeds a set numerical range. Thus, when the motion of the object in the input image and the motion of the
보다 구체적으로 상기 동작데이터(141) 일치여부에 대한 판단 결과를 수치화 하여 영상속에 출력함으로써 상기 학습자(200)의 동작 교정을 촉진할 수도 있다. 또한, 보다 적극적인 동작 교정을 위해 재생되고 있는 상기 영상 속 전문가의 동작데이터(141)에 상기 학습자(200)의 동작데이터(141)를 레이어 하여 출력할 수 있으며, 이때 구체적인 이동방향을 화살표 및/또는 텍스트로 디스플레이 할 수도 있다. 이 때, 이러한 지시사항은 음성으로 출력될 수도 있다. More specifically, the result of determining whether the
상기와 같은 방법들은 도 1에 도시된 바와 같은 동작인식 기반의 스마트 미용기술 러닝 장치(100)에 의해 구현될 수 있고, 특히, 이러한 단계들을 수행하는 소프트웨어 프로그램으로 구현될 수 있으며, 이 경우, 이러한 프로그램들은 컴퓨터 판독가능한 기록 매체에 저장되거나 전송 매체 또는 통신망에서 반송파와 결합된 컴퓨터 데이터 신호에 의하여 전송될 수 있다. 이 때, 컴퓨터 판독 가능한 기록 매체는 컴퓨터 시스템에 의해 판독가능한 데이터가 저장되는 모든 종류의 기록 장치를 포함하며, 예를 들면, ROM, RAM, CD-ROM, DVD-ROM, DVD-RAM, 자기 테이프, 플로피 디스크, 하드디스크, 광 데이터 저장장치 등일 수 있다. The above methods may be implemented by the motion recognition-based smart beauty
이상에서 본 발명의 일 실시예에 대하여 설명하였으나, 본 발명의 사상은 본 명세서에 제시되는 실시 예에 제한되지 아니하며, 본 발명의 사상을 이해하는 당업자는 동일한 사상의 범위 내에서, 구성요소의 부가, 변경, 삭제, 추가 등에 의해서 다른 실시 예를 용이하게 제안할 수 있을 것이나, 이 또한 본 발명의 사상범위 내에 든다고 할 것이다.Although an embodiment of the present invention has been described above, the spirit of the present invention is not limited to the embodiment presented in the present specification, and those skilled in the art who understand the spirit of the present invention can add components within the scope of the same idea. It will be possible to easily propose other embodiments by changing, deleting, adding, etc., but it will be said that this is also within the scope of the present invention.
상술한 바와 같이, 본 발명의 바람직한 실시 예를 참조하여 설명하였지만, 해당기술분야의 당업자는 하기의 특허청구범위에 기재된 본 발명의 사상 및 영역으로부터 벗어나지 않는 범위 내에서 본 발명을 다양하게 수정 또는 변형하여 실시할 수 있다.As described above, although it has been described with reference to a preferred embodiment of the present invention, those skilled in the art will variously modify or modify the present invention within the scope not departing from the spirit and scope of the present invention described in the following claims. It can be done.
100: 동작인식 기반의 스마트 미용기술 러닝 장치
110: 영상취득부
120: 영상처리부
121: 자세정보 데이터
130: 센서부
140: 모션 스크립트 생성부
141: 동작데이터
150: 동작판단부
160: 학습지원부
170: 디스플레이부
200: 학습자100: Motion recognition-based smart beauty technology learning device
110: image acquisition unit
120: image processing unit
121: posture information data
130: sensor unit
140: motion script generation unit
141: motion data
150: operation judgment unit
160: Learning Support Department
170: display unit
200: learner
Claims (5)
동작인식 센서를 통해 촬상된 학습자의 영상을 취득하는 영상취득부;
상기 촬상된 학습자의 영상 및/또는 상기 입력된 영상으로부터 객체를 추출하여 적어도 하나 이상의 상기 객체의 자세정보 데이터를 산출하는 영상처리부;
산출된 상기 자세정보 데이터를 기반으로 상기 객체의 연속된 동작 데이터를 생성하는 모션 스크립트 생성부;
상기 입력된 영상 속 객체의 동작 데이터와 상기 학습자의 영상 속 객체의 동작 데이터의 오차정도를 판단하는 동작판단부; 및
상기 동작판단부의 오차정도가 설정된 수치범위를 초과하는 경우 상기 촬상된 학습자의 영상 속 객체의 자세 교정을 위한 지시사항이 출력되는 학습지원부를 포함하여,
상기 입력된 영상 속 객체의 동작 데이터와 상기 학습자의 동작 데이터가 불일치할 경우 이를 판단하여 상기 학습자가 스스로 동작의 상태를 파악하고 출력된 지시상항에 따라 잘못된 자세를 교정할 수 있도록 하는 것을 특징으로 하는 동작인식 기반의 스마트 미용기술 러닝 장치.
In the motion recognition-based smart beauty technology learning device capable of smart learning by identically following the motion of the expert in the pre-input video,
An image acquisition unit for acquiring an image of a learner captured through a motion recognition sensor;
An image processing unit that extracts an object from the captured image of the learner and/or the input image to calculate attitude information data of at least one object;
A motion script generator that generates continuous motion data of the object based on the calculated posture information data;
A motion determination unit determining an error degree between motion data of the object in the input image and motion data of the object in the learner's image; And
Including a learning support unit that outputs instructions for correcting the posture of the object in the captured learner's image when the error degree of the operation determination unit exceeds a set numerical range,
If the motion data of the object in the input image and the motion data of the learner are inconsistent, it is determined that the learner can determine the state of the motion and correct the wrong posture according to the output instruction. Smart beauty technology learning device based on motion recognition.
상기 스마트 미용기술 러닝 장치는,
상기 학습자 및/또는 상기 학습자가 사용하는 학습도구에 부착된 센서로부터 상기 학습자 및/또는 상기 학습자가 사용하는 학습도구의 위치좌표 데이터를 획득할 수 있는 센서부를 더 포함하여,
상기 학습자 및/또는 상기 학습자가 사용하는 학습도구의 움직임을 보다 정밀하게 센싱할 수 있는 것을 특징으로 하는 동작인식 기반의 스마트 미용기술 러닝 장치.
The method of claim 1,
The smart beauty technology learning device,
Further comprising a sensor unit capable of obtaining positional coordinate data of the learner and/or the learning tool used by the learner from a sensor attached to the learner and/or the learning tool used by the learner,
Motion recognition-based smart beauty technology learning device, characterized in that it can more precisely sense the movement of the learner and / or the learning tool used by the learner.
상기 모션 스크립트 생성부는,
상기 생성된 모션 스크립트를 영상 시퀀스 단위로 생성하되,
상기 동작 데이터는 자세정보 데이터의 위치, 이동좌표, 회전 수 및/또는 병진운동 좌표를 포함할 수 있으며,
상기 입력된 영상 속 전문가의 행동을 영상 시퀀스 단위로 학습할 수 있도록 모션 스크립트를 생성하여 상기 학습자의 학습효율을 증대시킬 수 있는 것을 특징으로 하는 동작인식 기반의 스마트 미용기술 러닝 장치.
The method of claim 1,
The motion script generation unit,
Generate the generated motion script in units of video sequences,
The motion data may include a position, a movement coordinate, a number of rotations, and/or a translational motion coordinate of the posture information data,
Motion recognition-based smart beauty technology learning device, characterized in that it is possible to increase the learning efficiency of the learner by generating a motion script to learn the behavior of the expert in the input image in units of image sequences.
상기 동작판단부는,
상기 오차정도를 판단함에 있어,
상기 입력된 영상 속 객체의 동작데이터 좌표를 기준으로 복수개의 상기 객체의 동작데이터 속 좌표를 비교 분석하여 방향 및/또는 회전 횟수의 오차를 측정하여,
상기 학습자가 입력된 영상 속 전문가의 기술을 따라하는데 있어 상기 전문가의 동작과 학습자의 동작의 차이를 보다 정확하게 인지하여 효율적으로 학습할 수 있도록 하며,
상기 지시사항은,
상기 학습자가 자세 교정을 위해 이동해야 하는 방향, 위치, 속도, 이동 각도 및/또는 회전횟수를 포함하도록 하여, 음성 및/또는 자막의 방식으로 출력될 수 있도록 하여,
상기 학습자가 입력된 영상 속 전문자의 기술을 따라하는데 있어 보다 정확한 방법을 학습할 수 있도록 하며,
상기 학습지원부는,
상기 오차정도가 설정된 수치범위를 초과하는 경우,
상기 입력된 영상의 플레이 속도 자동 조절 및/또는 상기 입력된 영상을 시퀀스 단위로 반복 재생하되,
상기 학습자가 상기 입력된 영상 속 전문가의 동작을 일정 수준이상 따라 가지 못하는 경우에는, 상기 입력된 영상의 재생 속도를 조절하여 상기 학습자가 보다 용이하게 학습할 수 있도록 하는 것을 특징으로 하는 학습 동작인식 기반의 스마트 미용기술 러닝 장치.
The method of claim 1,
The operation determination unit,
In determining the degree of error,
By comparing and analyzing the coordinates in the motion data of the plurality of objects based on the motion data coordinates of the object in the input image, measuring an error in the direction and/or the number of rotations,
When the learner follows the skill of the expert in the input image, the difference between the expert's movement and the learner's movement is more accurately recognized so that the learner can learn efficiently,
The above instructions are:
By including the direction, position, speed, movement angle and/or number of rotations that the learner should move for posture correction, so that it can be output in the manner of audio and/or subtitles,
It allows the learner to learn a more accurate method in imitating the skill of the expert in the input video,
The learning support unit,
If the error degree exceeds the set numerical range,
Automatically adjusting the play speed of the input video and/or repeatedly playing the input video in sequence units,
When the learner does not follow the expert's motion in the input video by a certain level or more, the learner can learn more easily by adjusting the playback speed of the input video. Smart Beauty Technology Learning Device.
동작인식 센서를 통해 촬상된 학습자의 영상을 취득하는 단계;
상기 학습자의 영상 및/또는 상기 입력된 영상으로부터 객체를 추출하는 단계;
적어도 하나 이상의 상기 객체의 자세정보 데이터를 생성하는 단계;
생성된 상기 자세정보 데이터를 기반으로 상기 객체의 연속된 동작데이터를 생성하는 단계;
상기 입력된 영상 속 객체의 동작데이터와 상기 학습자의 영상 속 객체의 동작데이터의 오차정도를 판단하는 단계; 및
상기 오차정도가 설정된 수치범위를 초과하는 경우 상기 영상 속 객체의 동작 교정을 위한 지시사항이 출력되는 단계를 포함하되,
상기 동작데이터의 오차정도를 판단하는 단계는,
상기 오차정도가 설정된 수치범위를 초과하는 경우 상기 입력된 영상의 플레이 속도를 자동으로 조절하거나 또는 상기 입력된 영상을 시퀀스 단위로 반복 재생하는 단계를 더 포함하여,
상기 입력된 영상 속 객체의 동작과 상기 학습자의 동작이 불일치 할 경우 이를 판단하여 상기 학습자가 스스로 동작의 상태를 파악하고 출력된 지시상항에 따라 잘못된 자세를 교정할 수 있도록 하는 것을 특징으로 하는 동작인식 기반의 스마트 미용기술 러닝 방법.In the motion recognition-based smart learning method that enables smart learning by identically following the motion of the expert in the input video,
Acquiring an image of a learner captured through a motion recognition sensor;
Extracting an object from the learner's image and/or the input image;
Generating at least one posture information data of the object;
Generating continuous motion data of the object based on the generated posture information data;
Determining an error degree between motion data of the object in the input image and motion data of the object in the learner's image; And
Including the step of outputting an instruction for correcting the motion of the object in the image when the error degree exceeds a set numerical range,
The step of determining the error degree of the motion data,
When the error degree exceeds a set numerical range, automatically adjusting the play speed of the input video or repeatedly playing the input video in sequence units,
Motion recognition, characterized in that when the motion of the object in the input image and the motion of the learner are inconsistent, it is determined that the learner can grasp the state of the motion and correct the wrong posture according to the output instruction. Based on smart beauty technology learning method.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020190016769A KR102199078B1 (en) | 2019-02-13 | 2019-02-13 | Smart -learning device and method based on motion recognition |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020190016769A KR102199078B1 (en) | 2019-02-13 | 2019-02-13 | Smart -learning device and method based on motion recognition |
Publications (2)
Publication Number | Publication Date |
---|---|
KR20200098970A true KR20200098970A (en) | 2020-08-21 |
KR102199078B1 KR102199078B1 (en) | 2021-01-06 |
Family
ID=72235777
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020190016769A KR102199078B1 (en) | 2019-02-13 | 2019-02-13 | Smart -learning device and method based on motion recognition |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR102199078B1 (en) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2022154483A1 (en) * | 2021-01-12 | 2022-07-21 | 삼성전자 주식회사 | Electronic device and operation method of electronic device |
KR20220126664A (en) * | 2021-03-09 | 2022-09-16 | 한양대학교 산학협력단 | Method and system for nursing practice education using virtual reality |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2002072861A (en) * | 2000-09-01 | 2002-03-12 | Ibic Service:Kk | Hairdressing art lecture system |
KR20090105785A (en) * | 2008-04-03 | 2009-10-07 | 한국전자통신연구원 | Teaching apparatus and method based on motion content |
KR20130042844A (en) * | 2011-10-19 | 2013-04-29 | 인하대학교 산학협력단 | Indoor exercise compensating position system |
KR101414744B1 (en) | 2013-06-12 | 2014-07-04 | (주)에이엠이엔지 | The portable water purifier |
KR20160139932A (en) | 2015-05-29 | 2016-12-07 | 삼성전기주식회사 | Multilayer Ceramic Electric Component And Manufacturing Method of The Same |
KR20170140756A (en) * | 2016-06-13 | 2017-12-21 | 한국전자통신연구원 | Appratus for writing motion-script, appratus for self-learning montion and method for using the same |
-
2019
- 2019-02-13 KR KR1020190016769A patent/KR102199078B1/en active IP Right Grant
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2002072861A (en) * | 2000-09-01 | 2002-03-12 | Ibic Service:Kk | Hairdressing art lecture system |
KR20090105785A (en) * | 2008-04-03 | 2009-10-07 | 한국전자통신연구원 | Teaching apparatus and method based on motion content |
KR20130042844A (en) * | 2011-10-19 | 2013-04-29 | 인하대학교 산학협력단 | Indoor exercise compensating position system |
KR101414744B1 (en) | 2013-06-12 | 2014-07-04 | (주)에이엠이엔지 | The portable water purifier |
KR20160139932A (en) | 2015-05-29 | 2016-12-07 | 삼성전기주식회사 | Multilayer Ceramic Electric Component And Manufacturing Method of The Same |
KR20170140756A (en) * | 2016-06-13 | 2017-12-21 | 한국전자통신연구원 | Appratus for writing motion-script, appratus for self-learning montion and method for using the same |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2022154483A1 (en) * | 2021-01-12 | 2022-07-21 | 삼성전자 주식회사 | Electronic device and operation method of electronic device |
KR20220126664A (en) * | 2021-03-09 | 2022-09-16 | 한양대학교 산학협력단 | Method and system for nursing practice education using virtual reality |
Also Published As
Publication number | Publication date |
---|---|
KR102199078B1 (en) | 2021-01-06 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US20180315329A1 (en) | Augmented reality learning system and method using motion captured virtual hands | |
KR101989447B1 (en) | Dance motion feedback system providing video feedback to user using augmented reality | |
CN109815776B (en) | Action prompting method and device, storage medium and electronic device | |
CN110490173B (en) | Intelligent action scoring system based on 3D somatosensory model | |
CN111242962A (en) | Method, device and equipment for generating remote training video and storage medium | |
Hajdin et al. | Digitization and visualization of movements of slovak folk dances | |
CN114327060B (en) | Working method of virtual teaching system based on AI assistant | |
Essid et al. | A multi-modal dance corpus for research into interaction between humans in virtual environments | |
Zou et al. | Intelligent fitness trainer system based on human pose estimation | |
CN111833669B (en) | Chinese calligraphy pen teaching system and teaching method | |
KR102199078B1 (en) | Smart -learning device and method based on motion recognition | |
Muneesawang et al. | A machine intelligence approach to virtual ballet training | |
CN111814587A (en) | Human behavior detection method, teacher behavior detection method, and related system and device | |
Zaletelj | Estimation of students' attention in the classroom from kinect features | |
CN112331001A (en) | Teaching system based on virtual reality technology | |
CN110841266A (en) | Auxiliary training system and method | |
CN111353439A (en) | Method, device, system and equipment for analyzing teaching behaviors | |
Aich et al. | NrityaGuru: a dance tutoring system for Bharatanatyam using kinect | |
CN113784059A (en) | Video generation and splicing method, equipment and storage medium for clothing production | |
CN112675527A (en) | Family education game system and method based on VR technology | |
KR20170140756A (en) | Appratus for writing motion-script, appratus for self-learning montion and method for using the same | |
Sun | Research on Dance Motion Capture Technology for Visualization Requirements | |
Kwon | A study on taekwondo training system using hybrid sensing technique | |
Murnane et al. | Learning from human-robot interactions in modeled scenes | |
Liu et al. | PianoSyncAR: Enhancing Piano Learning through Visualizing Synchronized Hand Pose Discrepancies in Augmented Reality |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
E902 | Notification of reason for refusal | ||
E701 | Decision to grant or registration of patent right | ||
GRNT | Written decision to grant |