KR102318394B1 - playing back section moving apparatus using learning - Google Patents

playing back section moving apparatus using learning Download PDF

Info

Publication number
KR102318394B1
KR102318394B1 KR1020200098829A KR20200098829A KR102318394B1 KR 102318394 B1 KR102318394 B1 KR 102318394B1 KR 1020200098829 A KR1020200098829 A KR 1020200098829A KR 20200098829 A KR20200098829 A KR 20200098829A KR 102318394 B1 KR102318394 B1 KR 102318394B1
Authority
KR
South Korea
Prior art keywords
makeup
pose
unit
video
demonstration
Prior art date
Application number
KR1020200098829A
Other languages
Korean (ko)
Inventor
남기환
임관령
성노윤
Original Assignee
주식회사 더발라
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 더발라 filed Critical 주식회사 더발라
Priority to KR1020200098829A priority Critical patent/KR102318394B1/en
Application granted granted Critical
Publication of KR102318394B1 publication Critical patent/KR102318394B1/en

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/47End-user applications
    • H04N21/472End-user interface for requesting content, additional data or services; End-user interface for interacting with content, e.g. for content reservation or setting reminders, for requesting event notification, for manipulating displayed content
    • H04N21/47217End-user interface for requesting content, additional data or services; End-user interface for interacting with content, e.g. for content reservation or setting reminders, for requesting event notification, for manipulating displayed content for controlling playback functions for recorded or on-demand content, e.g. using progress bars, mode or play-point indicators or bookmarks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
    • G06Q50/10Services
    • G06Q50/20Education
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/80Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
    • H04N21/83Generation or processing of protective or descriptive data associated with content; Content structuring
    • H04N21/845Structuring of content, e.g. decomposing content into time segments
    • H04N21/8456Structuring of content, e.g. decomposing content into time segments by decomposing the content in the time domain, e.g. in time segments
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/80Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
    • H04N21/85Assembly of content; Generation of multimedia applications
    • H04N21/854Content authoring
    • H04N21/8547Content authoring involving timestamps for synchronizing content

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Business, Economics & Management (AREA)
  • Signal Processing (AREA)
  • Tourism & Hospitality (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • Economics (AREA)
  • Strategic Management (AREA)
  • Educational Technology (AREA)
  • General Health & Medical Sciences (AREA)
  • Human Resources & Organizations (AREA)
  • Marketing (AREA)
  • Primary Health Care (AREA)
  • Health & Medical Sciences (AREA)
  • Educational Administration (AREA)
  • General Business, Economics & Management (AREA)
  • Human Computer Interaction (AREA)
  • Databases & Information Systems (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Computer Security & Cryptography (AREA)
  • Image Analysis (AREA)

Abstract

The present invention relates to a device for moving a playback section in makeup demonstration videos through learning and, more specifically, to a device for moving a playback section in makeup demonstration videos through learning, which marks time stamps for a playback start time and a playback end time for each makeup object recognized in a makeup demonstration video. To this end, the device comprises: a video image extraction unit individually extracting makeup demonstration images included in a video related to makeup demonstration by category according to preset conditions; a video image collection unit collecting the extracted makeup demonstration images according to the preset conditions and storing the same by category; a learning unit performing learning on the basis of the makeup demonstration images collected and stored by the moving image collection unit to learn individual makeup products and makeup poses; a video image analysis unit receiving an arbitrary makeup demonstration video related to a makeup demonstration to recognize and estimate a makeup object image included in the makeup demonstration video; and a time stamp unit additionally marking time stamps on the makeup demonstration video on the basis of recognition and estimation of the makeup object image to provide movement to each time stamp section of the makeup demonstration video.

Description

학습을 통한 화장법 영상 구간 이동 장치{playing back section moving apparatus using learning}Apparatus for moving image section of makeup method through learning {playing back section moving apparatus using learning}

본 발명은 학습을 통한 화장법 영상 구간 이동 장치에 관한 것으로서, 보다 상세하게는 화장법 시연 동영상에서 인식된 화장 객체별로 재생 시작 시각과 재생 종료 시각에 대한 타임 스탬프를 각각 마킹하는 학습을 통한 화장법 영상 구간 이동 장치에 관한 것이다.The present invention relates to an apparatus for moving a video section of a makeup method through learning, and more particularly, moving a section of a makeup method video through learning by marking time stamps for a playback start time and a playback end time for each makeup object recognized in a makeup demonstration video It's about the device.

인터넷을 통해 제공되는 유명 유투버들의 화장 제품별 화장법에 대한 다양한 화장법 시연 동영상을 참고하여 많은 시청자들은 유명 유투버들의 화장법을 따라 한다. 이러한 화장법 시연 동영상에는 여러 화장 제품에 대한 여러 화장 포즈가 삽입될 수도 있고, 또는 1개의 화장 제품에 대한 화장 포즈가 삽입될 수도 있다. Many viewers follow the makeup methods of famous YouTubers by referring to videos of famous YouTubers demonstrating various makeup methods for each makeup product provided through the Internet. Multiple makeup poses for multiple makeup products may be inserted into this makeup demonstration video, or makeup poses for one makeup product may be inserted.

이러한 화장법 시연 동영상을 시청하는 시청자는 자신이 시청하려고 하는 화장 제품으로 동영상 재생구간을 이동하려고 하는 경우나 또는 자신이 시청하려고 하는 화장 포즈로 동영상 재생구간을 이동하려고 하는 경우 트라인 앤 에러를 거쳐 찾게 된다. 이렇게 시청자가 트라이 앤 에러를 거쳐 자신이 시청하고자 하는 화장법 재생시간을 찾으려면 시간이 많이 걸릴 뿐만 아니라 정확한 시작 및 종료 시점을 찾기란 여간 어려운 일이 아니다. 더 나아가 수많은 유투버가 매일 새롭게 올리는 다양한 화장법 시연 동영상을 시청할때마다 이러한 트라이 앤 에러를 거친다면 시청자의 불편함이 늘어날 수 밖에 없는 문제점이 있다.Viewers who watch such a video demonstration of how to make up will go through a try and error when trying to move the video playback section with the makeup product they want to watch or when trying to move the video playback section with the makeup pose they want to watch. do. In this way, it takes a lot of time for viewers to find the makeup method playback time they want to watch through try and error, and it is not difficult to find the exact start and end points. Furthermore, there is a problem in that viewers' discomfort will inevitably increase if they go through such a try and error every time they watch various videos demonstrating various makeup methods uploaded by numerous YouTubers every day.

대한민국 등록특허공보 10-0405328Republic of Korea Patent Publication No. 10-0405328 대한민국 공개특허공보 10-2019-0100515Republic of Korea Patent Publication No. 10-2019-0100515 대한민국 공개특허공보 10-2020-0043112Korean Patent Publication No. 10-2020-0043112 대한민국 등록특허공보 10-1948040Republic of Korea Patent Publication No. 10-1948040

따라서, 본 발명은 전술한 바와 같은 문제점을 해결하기 위하여 창출된 것으로서, 유투버의 화장법 시연 동영상에 타임 스탬프를 삽입 마킹함으로써 유투버 시청자가 편리하고 정확하게 자신이 시청하고자 하는 지점으로 구간 이동할 수 있는 발명을 제공하는데 그 목적이 있다.Accordingly, the present invention was created to solve the above-described problems, and by inserting and marking a time stamp in a video showing a YouTuber's makeup method, a YouTuber viewer can conveniently and accurately move to a point where they want to watch. Its purpose is to provide

그러나, 본 발명의 목적들은 상기에 언급된 목적으로 제한되지 않으며, 언급되지 않은 또 다른 목적들은 아래의 기재로부터 당업자에게 명확하게 이해될 수 있을 것이다.However, the objects of the present invention are not limited to the above-mentioned objects, and other objects not mentioned will be clearly understood by those skilled in the art from the following description.

전술한 본 발명의 목적은, 화장법 시연과 관련된 동영상에 포함된 화장법 시연 이미지를 기 설정된 조건에 따라 카테고리별로 개별 추출하는 동영상 이미지 추출부, 추출된 화장법 시연 이미지를 기 설정된 조건에 따라 수집하고 카테고리별로 저장하는 동영상 이미지 수집부, 동영상 이미지 수집부에 카테고리별로 수집 저장된 화장법 시연 이미지를 기초로 학습을 수행함으로써 개별 화장 제품 및 화장 포즈를 학습하는 학습부, 화장법 시연과 관련된 임의의 화장법 시연 동영상을 입력받아 화장법 시연 동영상에 포함된 화장법 객체 이미지를 인식하고 추정하는 동영상 이미지 분석부, 화장법 객체 이미지의 인식 및 추정을 바탕으로 화장법 시연 동영상에 타임 스탬프를 추가로 마킹함으로써 화장법 시연 동영상의 타임 스탬프별 구간 이동을 제공하도록 하는 타임 스탬프부를 포함하는 것을 특징으로 하는 학습을 통한 화장법 영상 구간 이동 장치를 제공함으로써 달성될 수 있다.The above-described object of the present invention is a video image extractor for individually extracting a makeup demonstration image included in a video related to a makeup demonstration by category according to a preset condition, and collects the extracted makeup demonstration image according to a preset condition and by category The video image collection unit that stores, the video image collection unit collects by category by category, and the learning unit learns individual makeup products and makeup poses by performing learning based on the stored makeup demonstration images, receiving arbitrary makeup demonstration videos related to makeup demonstration A video image analysis unit that recognizes and estimates the makeup method object image included in the makeup method demonstration video, and additionally marks a time stamp on the makeup method demonstration video based on the recognition and estimation of the makeup method object image to move sections of the makeup method demonstration video by time stamp It can be achieved by providing an apparatus for moving the video section of the makeup method through learning, characterized in that it includes a time stamp unit to provide.

또한, 동영상 이미지 추출부는 화장법 시연 이미지에 포함된 제품 로고 이미지를 추출하는 제품 로고 추출부, 화장법 시연 이미지에 포함된 제품 모델 이미지를 추출하는 제품 모델 추출부, 화장법 시연 이미지에 포함된 화장 포즈 이미지를 추출하는 포즈 추출부를 포함하며,In addition, the video image extraction unit extracts a product logo extractor that extracts a product logo image included in the makeup demonstration image, a product model extraction unit that extracts a product model image included in the makeup demonstration image, and a makeup pose image included in the makeup demonstration image. Includes a pose extractor to extract,

동영상 이미지 수집부는 제품 로고 추출부에서 추출한 복수의 제품 로고 이미지를 카테고리별로 수집 및 저장하는 제품 로고 수집부, 제품 모델 추출부에서 추출한 복수의 제품 모델 이미지를 카테고리별로 수집 및 저장하는 제품 모델 수집부, 포즈 추출부에서 추출한 복수의 화장 포즈 이미지를 카테고리별로 수집 및 저장하는 포즈 수집부를 포함한다.The video image collection unit includes a product logo collection unit that collects and stores a plurality of product logo images extracted from the product logo extraction unit by category, a product model collection unit that collects and stores a plurality of product model images extracted from the product model extraction unit by category, and a pose collecting unit that collects and stores the plurality of makeup pose images extracted by the pose extracting unit by category.

또한, 학습부는 제품 로고 수집부 및 제품 모델 수집부에서 제공된 카테고리별 제품 로고 이미지와 제품 모델 이미지를 기초로 학습을 수행함으로써 화장 제품을 학습하는 제품 학습부, 포즈 수집부에서 제공된 카테고리별 화장 포즈 이미지를 기초로 학습을 수행함으로써 화장 포즈를 학습하는 포즈 학습부를 포함한다.In addition, the learning unit learns makeup products by performing learning based on product logo images and product model images for each category provided by the product logo collection unit and the product model collection unit, and makeup pose images by category provided by the product learning unit and pose collection unit and a pose learning unit that learns a makeup pose by performing learning based on .

또한, 동영상 이미지 분석부는 화장법 시연 동영상을 입력받아 화장법 객체 이미지인 제품 로고 이미지와 제품 모델 이미지를 추출하고, 추출된 제품 로고 이미지와 제품 모델 이미지를 기준으로 제품 학습부의 학습에 의해 화장법 시연 동영상에 포함된 화장 제품을 인식하는 제품 인식부, 화장법 시연 동영상을 입력받아 화장법 객체 이미지인 화장 포즈 이미지를 추출하고, 추출된 화장 포즈 이미지를 기준으로 포즈 학습부의 학습에 의해 화장법 시연 동영상에 포함된 화장 포즈를 추정하는 포즈 추정부를 포함한다.In addition, the video image analysis unit receives the makeup method demonstration video and extracts the product logo image and product model image, which are the makeup method object images, and is included in the makeup method demonstration video by learning from the product learning unit based on the extracted product logo image and product model image The product recognition unit that recognizes the makeup product that has been used as an input, receives the makeup demonstration video, extracts the makeup pose image that is the makeup method object image, and the makeup pose included in the makeup method demonstration video by learning the pose learning unit based on the extracted makeup pose image and a pose estimator for estimating.

또한, 타임 스탬프부는 제품 인식부의 화장 제품 인식을 바탕으로 화장법 시연 동영상에 화장 제품의 재생 시작 및 종료에 대한 타임 스탬프를 마킹하는 제품 타임 스탬프부,In addition, the time stamp unit includes a product time stamp unit for marking time stamps for the start and end of playback of the cosmetic product in the makeup method demonstration video based on the recognition of the cosmetic product by the product recognition unit;

포즈 추정부의 화장 포즈 추정을 바탕으로 화장법 시연 동영상에 화장 포즈의 재생 시작 및 종료에 대한 타임 스탬프를 마킹하는 포즈 타임 스탬프부를 포함한다.A pose time stamp unit for marking time stamps for starting and ending reproduction of a makeup pose in a video for demonstrating a makeup method based on the makeup pose estimation of the pose estimator is included.

또한, 포즈 추정부에서 인식된 화장 포즈 추정을 바탕으로 화장 포즈의 유효성을 판단하는 포즈 유효 판단부를 더 포함한다.The apparatus further includes a pose validity determining unit that determines the validity of a makeup pose based on the makeup pose estimation recognized by the pose estimation unit.

또한, 포즈 유효 판단부는 포즈 추정부에서 인식된 화장 포즈 추정을 바탕으로 화장 포즈의 시작 시각을 측정하는 포즈 시작 측정부, 화장 포즈의 종료 시각을 측정하는 포즈 종료 측정부, 화장 포즈의 시작 시각 및 종료 시각을 바탕으로 기 설정된 조건과 비교함으로써 화장 포즈의 유효시간을 판단하는 포즈 유효시간 판단부를 포함한다.In addition, the pose validity determining unit includes a pose start measurement unit that measures a start time of a makeup pose based on the makeup pose estimation recognized by the pose estimation unit, a pose end measurement unit that measures an end time of a makeup pose, a start time of a makeup pose, and and a pose validity time determination unit that determines the validity time of the makeup pose by comparing it with a preset condition based on the end time.

또한, 포즈 타임 스탬프부는 포즈 유효시간 판단부의 판단 결과에 따라 화장 포즈의 유효성이 인정된 경우에 화장법 시연 동영상에 화장 포즈의 시작 및 종료에 대한 타임 스탬프를 마킹한다.In addition, the pose time stamp unit marks time stamps for the start and end of the makeup pose on the makeup method demonstration video when the validity of the makeup pose is recognized according to the determination result of the pose validity time determination unit.

전술한 바와 같은 본 발명에 의하면 유투버의 화장법 시연 동영상에 타임 스탬프를 삽입 마킹함으로써 유투버 시청자가 편리하고 정확하게 자신이 시청하고자 하는 지점으로 구간 이동할 수 있는 효과가 있다.According to the present invention as described above, there is an effect that a YouTuber viewer can conveniently and accurately move a section to a point that he or she wants to watch by inserting and marking a time stamp in a video showing a YouTuber's makeup method.

본 명세서에 첨부되는 다음의 도면들은 본 발명의 바람직한 일실시예를 예시하는 것이며, 발명의 상세한 설명과 함께 본 발명의 기술적 사상을 더욱 이해시키는 역할을 하는 것이므로, 본 발명은 그러한 도면에 기재된 사항에만 한정되어 해석 되어서는 아니 된다.
도 1은 본 발명의 일실시예에 따른 학습을 통한 화장법 영상 구간 이동 장치의 동영상 이미지 추출부 및 동영상 이미지 수집부를 개략적으로 나타낸 도면이고,
도 2는 본 발명의 일실시예에 따른 유투버의 화장법 시연 동영상에 포함된 화장 제품과 화장 포즈의 시연 순서를 설명하기 위한 도면이고,
도 3은 본 발명의 일실시예에 따른 학습을 통한 화장법 영상 구간 이동 장치의 학습부(300)를 개략적으로 나타낸 도면이고,
도 4는 본 발명의 일실시예에 따른 학습을 통한 화장법 영상 구간 이동 장치의 동영상 이미지 분석부를 개략적으로 나타낸 도면이고,
도 5는 본 발명의 일실시예에 따른 포즈 유효 판단부, 산출부, 타임 스탬프부를 개략적으로 나타낸 도면이고,
도 6은 본 발명의 일실시예에 따른 임의의 유투버의 화장법 시연 동영상에 화장 제품과 화장 포즈의 재생 시작 시각과 재생 종료 시각을 각각 삽입 마킹한 것을 나타낸 도면이다.
The following drawings attached to this specification illustrate a preferred embodiment of the present invention, and serve to further understand the technical spirit of the present invention together with the detailed description of the present invention, so the present invention is limited to the matters described in those drawings It should not be construed as being limited.
1 is a diagram schematically showing a moving image extracting unit and a moving image collecting unit of a makeup method image section moving device through learning according to an embodiment of the present invention;
2 is a view for explaining a demonstration sequence of makeup products and makeup poses included in a YouTuber's makeup method demonstration video according to an embodiment of the present invention;
3 is a diagram schematically showing the learning unit 300 of the apparatus for moving the video section of the makeup method through learning according to an embodiment of the present invention;
4 is a diagram schematically showing a moving image analysis unit of the apparatus for moving the video section of the makeup method through learning according to an embodiment of the present invention;
5 is a diagram schematically showing a pause validity determination unit, a calculation unit, and a time stamp unit according to an embodiment of the present invention;
6 is a view showing the insertion and marking of the reproduction start time and the reproduction end time of a makeup product and a makeup pose, respectively, in a video of a YouTuber demonstrating a makeup method according to an embodiment of the present invention.

이하, 도면을 참조하여 본 발명의 바람직한 일실시예에 대해서 설명한다. 또한, 이하에 설명하는 일실시예는 특허청구범위에 기재된 본 발명의 내용을 부당하게 한정하지 않으며, 본 실시 형태에서 설명되는 구성 전체가 본 발명의 해결 수단으로서 필수적이라고는 할 수 없다. 또한, 종래 기술 및 당업자에게 자명한 사항은 설명을 생략할 수도 있으며, 이러한 생략된 구성요소(방법) 및 기능의 설명은 본 발명의 기술적 사상을 벗어나지 아니하는 범위내에서 충분히 참조될 수 있을 것이다.Hereinafter, a preferred embodiment of the present invention will be described with reference to the drawings. In addition, one embodiment described below does not unreasonably limit the content of the present invention described in the claims, and it cannot be said that the entire configuration described in the present embodiment is essential as a solution for the present invention. In addition, descriptions of the prior art and matters obvious to those skilled in the art may be omitted, and the description of the omitted components (methods) and functions may be sufficiently referenced within the scope not departing from the technical spirit of the present invention.

본 발명의 일실시예에 따른 학습을 통한 화장법 영상 구간 이동 장치는 유명 유투버 등이 시연하는 화장법 시연 동영상을 학습하여 해당 유투버가 시연하는 동영상에 포함된 화장 제품과 화장 부위별 화장 포즈를 인식하도록 하고, 수많은 학습을 바탕으로 임의로 제공된 화장법 시연 동영상에 포함된 화장 제품과 화장 포즈를 인식 및 추정하여 타임 스탬프를 마킹함으로써 해당 유투버 영상을 시청하는 시청자가 자신이 원하는 영상으로 구간 이동을 신속하고 편리하게 할 수 있도록 제공하는 장치이다. 이하에서는 첨부된 도면을 참고하여 본 발명의 일실시예에 따른 학습을 통한 화장법 영상 구간 이동 장치에 대해 상세히 설명하기로 한다.The apparatus for moving a video section of a makeup method through learning according to an embodiment of the present invention learns a video of a demonstration of a makeup method demonstrated by a famous YouTuber, etc. By recognizing and estimating the makeup products and makeup poses included in the makeup demonstration video provided arbitrarily based on numerous learnings and marking the time stamp, viewers who watch the YouTuber video can quickly and It is a device that is provided to make it convenient. Hereinafter, with reference to the accompanying drawings, an apparatus for moving a video section of a makeup method through learning according to an embodiment of the present invention will be described in detail.

도 1에 도시된 바와 같이 화장법을 시연하는 유투버의 화장법 시연 동영상(10a)이 인터넷을 통해 접근 가능하며, 이러한 유투버의 화장법 시연 동영상(10a)을 시청자가 자신의 컴퓨터 등의 접속수단을 통해 시청할 수 있다. 이때, 유투버의 화장법 시연 동영상(10a)은 도 1에 도시된 바와 같이 여러 명의 유투버 동영상이(11,12,13)이 인터넷을 통해 제공될 수 있으며, 또한 한 명의 유투버가 여러 개의 화장법 시연 동영상을 제공할 수도 있다. 해당 유투버의 화장법 시연 동영상에는 개별 동영상마다 각각 1개의 화장 제품에 대한 화장 포즈가 시연될 수도 있고, 각각 여러 개의 화장 제품에 대한 이에 대응하는 화장 포즈가 시연될 수도 있다. As shown in FIG. 1 , a video 10a of a YouTuber demonstrating a makeup method is accessible through the Internet, and a viewer can view the video 10a of a YouTuber demonstrating a makeup method through a connection means such as a computer. can watch At this time, as shown in FIG. 1 , in the YouTuber's makeup method demonstration video 10a, several YouTuber videos 11, 12, 13 can be provided through the Internet, and one YouTuber can use several makeup methods. Demonstration videos can also be provided. In the YouTuber's makeup demonstration video, a makeup pose for one makeup product may be demonstrated for each individual video, or makeup poses corresponding to several makeup products may be demonstrated for each individual video.

한편, 도 2에 도시된 바와 같이 화장법 시연 동영상에는 일반적으로 유투버가 화장법을 시연하기 전에 시연하고자 하는 화장 제품을 먼저 소개하고, 그 뒤를 이어 당해 화장 제품에 대한 화장법을 시연하는 동영상이 재생된다. 따라서 화장법 시연 동영상에는 크게 화장 제품(제품 로고, 제품 모델)에 대한 이미지와 당해 화장 제품의 화장 포즈에 대한 이미지를 포함한다. 물론 당해 동영상에는 이러한 영상 이외의 다양한 부가 영상이 포함될 수 있으나 본 발명의 일실시예에서는 화장 제품과 화장 포즈에 대해 초점을 맞추어 설명하기로 한다.On the other hand, as shown in FIG. 2 , in a video demonstrating a makeup method, in general, a YouTuber first introduces a cosmetic product to be demonstrated before demonstrating the makeup method, followed by a video demonstrating the makeup method for the cosmetic product. Therefore, the makeup demonstration video largely includes an image of a makeup product (product logo, product model) and an image of the makeup pose of the makeup product. Of course, the video may include various additional images other than these images, but in an embodiment of the present invention, the description will focus on makeup products and makeup poses.

도 1에 도시된 바와 같이 동영상 이미지 추출부(100)는 인터넷을 통해 다양한 유투버가 제공하는 개별 화장법 시연 동영상을 찾고, 당해 화장법 시연 동영상에 포함된 이미지를 추출한다. 이러한 화장법 시연 동영상은 해당 유투버에 의해 매일 갱신될 수 있으며, 따라서 후술하는 동영상 이미지 추출에서 학습까지의 작업은 기 설정된 시간에 따라 자동 또는 수동으로 계속 수행될 수 있다.As shown in FIG. 1 , the moving image extraction unit 100 searches for individual makeup method demonstration videos provided by various YouTubers through the Internet, and extracts images included in the makeup method demonstration video. Such a video for demonstrating the makeup method may be updated daily by a corresponding YouTuber, and thus, the operation from extracting a video image to learning, which will be described later, may be continuously performed automatically or manually according to a preset time.

화장법 시연 동영상에 포함된 이미지의 추출을 위해 동영상 이미지 추출부(100)는 제품 로고 추출부(110), 제품 모델 추출부(120), 포즈 추출부(130)를 포함한다. In order to extract the image included in the makeup demonstration video, the video image extraction unit 100 includes a product logo extraction unit 110 , a product model extraction unit 120 , and a pose extraction unit 130 .

제품 로고 추출부(110)는 화장법 시연 동영상을 순차적으로 입력받으며, 동영상(11,12,13)에 포함된 제품 로고 이미지의 영역을 설정하고 설정된 영역을 기준으로 제품 로고 이미지를 추출한다. 제품 로고 이미지는 화장품 제조사별로 브랜드별로 무궁무진하다. 따라서 이러한 제품 로고를 학습하기 위하여 제품 로고 이미지를 추출한다. The product logo extraction unit 110 sequentially receives a video demonstration of a makeup method, sets the area of the product logo image included in the videos 11, 12, and 13, and extracts the product logo image based on the set area. Product logo images are inexhaustible for each cosmetic manufacturer and brand. Therefore, in order to learn such a product logo, a product logo image is extracted.

제품 모델 추출부(120)는 화장법 시연 동영상을 순차적으로 입력받으며, 동영상(11,12,13)에 포함된 제품 모델 이미지의 영역을 설정하고 설정된 영역을 기준으로 제품 모델 이미지를 추출한다. 제품 모델 이미지는 후술하는 학습을 통해 수많은 유투버가 제시하는 제조사별/브랜드별 제품을 인식하기 위해 추출하고 학습한다.The product model extraction unit 120 sequentially receives the video of demonstration of makeup method, sets the area of the product model image included in the videos 11, 12, and 13, and extracts the product model image based on the set area. Product model images are extracted and learned to recognize products by manufacturers/brands presented by numerous YouTubers through learning, which will be described later.

포즈 추출부(130)는 화장법 시연 동영상을 순차적으로 입력받으며, 동영상(11,12,13)에 포함된 화장 포즈 이미지의 영역을 설정하고 설정된 영역을 기준으로 화장 포즈 이미지를 추출한다. 따라서 추출된 화장 포즈 이미지를 이용하여 학습을 진행함으로써 동영상에 포함된 눈썹 화장 포즈를 인식할 수 있다. 이때, 화장 포즈 이미지는 각 화장 부위별로 다양할 수 있다. 즉, 립스틱을 바르는 포즈 이미지, 눈썹 화장 포즈 이미지, 스킨을 바르는 포즈 이미지 등 각 화장 부위별 화장 포즈가 모두 다르며 이에 따른 화장 포즈 이미지를 추출하고 이를 이용해 후술하는 바와 같이 학습을 진행함으로써 각 화장 포즈를 인식할 수 있다. 한편, 유투버별로 동일한 화장 부위라도 서로 화장 포즈가 조금씩은 다를 수 있다. 이러한 화장 포즈의 차이는 후술하는 학습에 의해 극복될 수 있다. 따라서 학습의 정확도를 높이기 위해서는 각 유투버별로 다양한 화장 포즈 이미지를 추출하는 것이 바람직하다.The pose extraction unit 130 sequentially receives the makeup demonstration video, sets the area of the makeup pose image included in the videos 11, 12, and 13, and extracts the makeup pose image based on the set area. Therefore, by performing learning using the extracted makeup pose image, the eyebrow makeup pose included in the video can be recognized. In this case, the makeup pose image may vary for each makeup part. That is, each makeup pose is different for each makeup part, such as a lipstick pose image, an eyebrow makeup pose image, and a skin pose image. can recognize On the other hand, the makeup poses of each YouTuber may be slightly different from each other even for the same makeup area. This difference in makeup poses can be overcome by learning to be described later. Therefore, in order to increase the learning accuracy, it is desirable to extract various makeup pose images for each YouTuber.

동영상 이미지 수집부(200)는 상술한 동영상 이미지 추출부(100)에서 추출한 제품 로고 이미지, 제품 모델 이미지, 화장 포즈 이미지를 카테고리별로 수집하고 저장한다. 일예로서 A 유투버의 화장법 시연 동영상에는 a1 제품, a2 제품, a3 제품에 대한 제품 로고 이미지와 제품 모델 이미지가 포함되며, 각 제품에 대한 b1 화장 포즈, b2 화장 포즈, b3 화장 포즈 이미지가 포함된다. 또한, B 유투버의 화장법 시연 동영상에도 동일하게 각 제품에 대한 제품 로고 이미지, 제품 모델 이미지, 화장 포즈 이미지가 포함된다. 이러한 각 이미지를 제품 로고별, 제품 모델별, 화장 포즈별로 카테고리별로 수집 및 저장할 수 있다. 수집 저장된 각종 이미지는 데이터베이스(도면 미도시)에 저장될 수 있다. 데이터베이스는 본 발명에서 참조되는 각종 동영상 및 동영상과 관련된 이미지와 각종 데이터를 저장한다.The moving image collection unit 200 collects and stores the product logo image, product model image, and makeup pose image extracted by the above-described moving image extraction unit 100 by category. As an example, YouTuber A's makeup demonstration video includes product logo images and product model images for a1 product, a2 product, and a3 product, and includes b1 makeup pose, b2 makeup pose, and b3 makeup pose image for each product. . In addition, the video showing YouTuber B's makeup method includes a product logo image, a product model image, and a makeup pose image for each product. Each of these images can be collected and stored by category by product logo, by product model, and by makeup pose. The collected and stored various images may be stored in a database (not shown). The database stores various kinds of moving images and images related to moving images and various data referred to in the present invention.

학습부(300)는 동영상 이미지 수집부(200)에서 수집 및 저장된 제품 로고 이미지, 제품 모델 이미지, 화장 포즈 이미지를 이용하여 각각 학습을 수행한다. 이를 위해 학습부(300)는 제품 학습부(310), 포즈 학습부(320)를 포함한다.The learning unit 300 performs learning by using the product logo image, the product model image, and the makeup pose image collected and stored in the moving image collection unit 200 . To this end, the learning unit 300 includes a product learning unit 310 and a pose learning unit 320 .

제품 학습부(310)는 제품 로고 수집부(210), 제품 모델 수집부(220)에서 수집 및 저장한 제품 로고 이미지와 제품 모델 이미지를 입력받아 기 설정된 학습 알고리즘에 의해 학습을 수행한다. 포즈 학습부(320)는 포즈 수집부(230)에서 수집 및 저장한 화장 포즈 이미지를 입력받아 기 설정된 학습 알고리즘에 의해 학습을 수행한다. 상술한 학습 알고리즘은 종래에 이미 알려진 학습 알고리즘을 바탕으로 수행될 수 있으며, 본 발명에서는 특정 학습 알고리즘에 한정되지 않는다. 제품 학습부(310) 및 포즈 학습부(320)에 의해 학습을 수행함으로써 제조사별/브랜드별 제품을 인식할 수 있고, 화장 부위별로 화장 포즈를 추정할 수 있게 된다. 학습부(300)는 기초 데이터가 많을수록 인식 정확도가 올라가기 때문에 매일 새롭게 갱신되는 유투버들의 화장법 시연 동영상을 서치 및 추출하여 학습을 수시로 수행하는 것이 바람직할 수 있다.The product learning unit 310 receives the product logo image and the product model image collected and stored by the product logo collection unit 210 and the product model collection unit 220 and performs learning by a preset learning algorithm. The pose learning unit 320 receives the makeup pose image collected and stored by the pose collection unit 230 and performs learning by a preset learning algorithm. The above-described learning algorithm may be performed based on a previously known learning algorithm, and the present invention is not limited to a specific learning algorithm. By performing learning by the product learning unit 310 and the pose learning unit 320 , products for each manufacturer/brand can be recognized, and a makeup pose can be estimated for each makeup part. Since the recognition accuracy increases as the amount of basic data increases, it may be desirable for the learning unit 300 to search and extract videos for demonstrating makeup methods of YouTubers, which are newly updated every day, and to perform learning from time to time.

한편, 포즈 학습부(320)는 화장 부위별 또는 화장 제품별로 다양한 화장 포즈를 학습한다. 이때, 화장 포즈에 대해서는 때때로 학습 오류에 따른 포즈 추정 오류가 발생될 수 있다. 즉, 일예로서 유투버가 눈을 비비는 포즈를 취할 때 이를 눈썹 화장(또는 눈 화장)을 하는 것으로 학습하여 포즈 추정 오류를 범할 수 있다. 이러한 포즈 추정 오류를 해결하기 위해 후술하는 포즈 유효 판단부(500)를 본 발명에서는 포함하며 후술하기로 한다.Meanwhile, the pose learning unit 320 learns various makeup poses for each makeup part or makeup product. In this case, with respect to the makeup pose, a pose estimation error may sometimes occur due to a learning error. That is, as an example, when a YouTuber takes a pose of rubbing his eyes, he may make a pose estimation error by learning to apply eyebrow makeup (or eye makeup). In order to solve such a pose estimation error, a pose validity determining unit 500 to be described later is included in the present invention and will be described later.

도 1 및 도 3에 도시된 바를 참조하면, 인터넷을 통해 다양한 유투버들의 화장 제품과 화장법이 담긴 동영상을 서치하고 이에 포함된 제품 로고, 제품 모델, 화장 포즈에 대한 이미지를 각각 추출하여 학습함으로써 임의의 화장법 시연 동영상이 입력되면 이 동영상에 포함된 제품 로고, 제품 모델, 화장 포즈를 인식할 수 있게 된다. 이에 대해서는 첨부된 도 4 내지 도 6을 참고하여 후술하기로 한다.1 and 3, by searching through the Internet for videos containing makeup products and makeup methods of various YouTubers, extracting and learning images for product logos, product models, and makeup poses included therein. When a video demonstrating makeup method is input, the product logo, product model, and makeup pose included in the video can be recognized. This will be described later with reference to the accompanying FIGS. 4 to 6 .

도 4에 도시된 바와 같이 동영상 이미지 분석부(400)는 임의로 입력된 어느 하나의 유투버 화장법 시연 동영상(11)에 포함된 제품 로고, 제품 모델, 화장 포즈와 관련된 각 이미지를 추출하고, 추출된 이미지를 통해 화장 제품과 화장 포즈를 각각 인식 및 추정한다. 이를 위해 제품 로고 추출부(410), 제품 모델 추출부(420), 포즈 추출부(430), 제품 인식부(440), 포즈 추정부(450)를 포함한다. As shown in FIG. 4 , the moving image analysis unit 400 extracts each image related to the product logo, product model, and makeup pose included in any one arbitrarily input YouTuber makeup demonstration video 11, and extracts the extracted Recognize and estimate makeup products and makeup poses, respectively, through images. To this end, it includes a product logo extraction unit 410 , a product model extraction unit 420 , a pose extraction unit 430 , a product recognition unit 440 , and a pose estimation unit 450 .

제품 로고 추출부(410)는 입력된 화장법 시연 동영상(11)에 포함된 제품 로고 이미지를 기 설정된 추출 영역에 따라 추출한다. 제품 모델 추출부(420) 및 포즈 추출부(430)도 동일하게 기 설정된 추출 영역에 따라 제품 로고 및 화장 포즈 이미지를 각각 추출한다. The product logo extraction unit 410 extracts the product logo image included in the inputted makeup demonstration video 11 according to a preset extraction area. The product model extraction unit 420 and the pose extraction unit 430 also extract a product logo and a makeup pose image according to a preset extraction area, respectively.

제품 인식부(440)는 제품 로고 추출부(410) 및 제품 모델 추출부(420)에서 제공된 각각의 제품 로고 이미지와 제품 모델 이미지를 바탕으로 화장 제품을 인식한다. 포즈 추정부(450)는 포즈 추출부(430)에서 제공된 화장 포즈 이미지를 바탕으로 화장 포즈를 추정한다. 이러한 인식 및 추정은 앞서 설명한 학습부(300)에 의해 충분한 학습이 이루어졌기 때문에 가능하며, 학습은 새로운 화장법 시연 동영상이 업데이트 된 경우에 이를 찾아서 새로운 학습 데이터를 생성하여 지속적으로 반복 학습할 수 있다. 상술한 동영상 이미지 분석부(400)는 순차적으로 입력되는 각 유투버들의 화장법 시연 동영상(12,13)을 반복적으로 상술한 바와 같이 분석한다.The product recognition unit 440 recognizes a cosmetic product based on each product logo image and product model image provided by the product logo extraction unit 410 and the product model extraction unit 420 . The pose estimation unit 450 estimates a makeup pose based on the makeup pose image provided by the pose extraction unit 430 . Such recognition and estimation is possible because sufficient learning has been performed by the learning unit 300 described above, and learning can be continuously repeated by finding and generating new learning data when a new makeup method demonstration video is updated. The above-described moving image analysis unit 400 repeatedly analyzes the makeup method demonstration videos 12 and 13 of each YouTuber sequentially input as described above.

동영상 이미지 분석부(400)에서 분석이 완료되면, 각 유투버별 화장품 시연 동영상(11,12,13)에 각각 포함된 화장 제품과 화장 포즈를 인식 및 추정할 수 있게 된다.When the analysis is completed by the moving image analysis unit 400, it is possible to recognize and estimate the makeup products and makeup poses respectively included in the cosmetic demonstration videos 11, 12, and 13 for each YouTuber.

한편, 앞서 설명한 바와 같이 학습부(300)에 의해 학습이 완료되어 화장 포즈를 추정하는 경우에 유투버의 화장 포즈와 유투버의 임의의 동작 포즈가 서로 유사하여 화장 포즈 추정 오류를 발생시킬 수 있다. 이러한 문제점을 해결하기 위해 포즈 유효 판단부(500)를 본 발명에서는 포함한다.On the other hand, as described above, when the learning is completed by the learning unit 300 and the makeup pose is estimated, the makeup pose of the YouTuber and the arbitrary motion pose of the YouTuber are similar to each other, so that an error in estimation of the makeup pose may occur. . In order to solve this problem, the pause validity determination unit 500 is included in the present invention.

포즈 유효 판단부(500)는 포즈 추정부(450)에서 판단한 화장 포즈의 유효성을 검토 및 판단한다. 이를 위해 포즈 유효 판단부(500)는 포즈 시작 측정부(510), 포즈 종료 측정부(520), 포즈 유효시간 판단부(530)를 포함한다.The pose validity determining unit 500 examines and determines the validity of the makeup pose determined by the pose estimating unit 450 . To this end, the pose validity determination unit 500 includes a pose start measurement unit 510 , a pause end measurement unit 520 , and a pose validity time determination unit 530 .

포즈 시작 측정부(510)는 포즈 추정부(450)에서 추정한 화장 포즈를 기준 삼아 당해 화장법 시연 동영상에서 당해 화장 포즈의 재생이 시작되는 동영상 재생 시작 시각을 측정한다. The pose start measurement unit 510 measures a video playback start time at which the makeup pose starts playing in the makeup method demonstration video based on the makeup pose estimated by the pose estimation unit 450 .

포즈 종료 측정부(520)는 포즈 추정부(540)에서 추정한 화장 포즈를 기준 삼아 당해 화장법 시연 동영상에서 당해 화장 포즈의 재생이 종료되는 동영상 재생 종료 시각을 측정한다. The pose end measurement unit 520 measures the video playback end time at which the makeup pose in the makeup method demonstration video is finished using the makeup pose estimated by the pose estimation unit 540 as a reference.

포즈 유효시간 판단부(530)는 당해 화장 포즈의 동영상 재생 시작 시각과 종료 시각을 각각 입력받아 화장 포즈 시간을 산출하고, 산출된 화장 포즈 시간과 기 설정된 당해 포즈의 화장 시간을 서로 비교함으로써 화장 포즈의 유효성을 검토 및 판단한다. 즉, 눈썹 화장 포즈의 경우에 기 설정된 화장 시간 조건이 2분 ~ 3분의 범위로 설정되었다고 가정하면, 어느 유투버의 임의의 동작 행동이 포즈 추정부(450)에 의해 눈썹 화장 포즈로 인식되고 이에 따라 포즈 유효시간이 30초로 산출되었다면 유투버의 임의의 동작 행동은 눈썹 화장 포즈가 아닌 노이즈 행동이기 때문에 이러한 임의의 동작 행동은 제외할 수 있다. 따라서 포즈 유효 판단부(500)가 당해 화장 포즈의 유효성을 검토 및 판단하기 위해서는 데이터베이스에 각종 화장 포즈에 대한 유효한 화장 시간이 각각 미리 저장될 필요가 있다.The pose valid time determining unit 530 receives the video playback start time and end time of the makeup pose respectively, calculates a makeup pose time, and compares the calculated makeup pose time with a preset makeup time for the makeup pose. review and judge the effectiveness of That is, in the case of the eyebrow makeup pose, assuming that the preset makeup time condition is set in the range of 2 to 3 minutes, any YouTuber's arbitrary motion is recognized as the eyebrow makeup pose by the pose estimator 450 and Accordingly, if the effective time of the pose is calculated to be 30 seconds, the arbitrary motion behavior of the YouTuber is a noise action, not a eyebrow makeup pose, so this arbitrary motion action can be excluded. Therefore, in order for the pose validity determining unit 500 to examine and determine the validity of the corresponding makeup pose, it is necessary to pre-store the effective makeup times for various makeup poses in the database.

한편, 포즈 유효 판단부(500)에 의해 화장 포즈의 유효성이 검증된 경우에는 당해 유투버의 화장법 시연 동영상의 구간 이동을 편리하고 자유롭게 하기 위해 제품별 및 각 화장 포즈별로 타임 스탬프를 각각 마킹하는 작업을 수행한다. 이를 위해 제품 타임 스탬프부(610)와 포즈 타임 스탬프부(620)를 구비하는 타임 스탬프부(600)를 포함한다. 일반적으로 유투버의 화장법 시연 동영상에는 도 2와 같이 먼저 유투버가 시연할 화장품(화장 제품)을 시청자에게 보여주고, 그 다음으로 그 화장품을 이용한 화장법을 시연하게 된다. 물론 화장법 시연 동영상에는 이외의 부가 영상이 포함될 수 있지만(일예로서 잡담이나 제품에 대한 부가설명 등) 이러한 부가 영상은 앞서 설명한 바에 따라 본 발명에서 다 제외시킬 수 있다. On the other hand, when the validity of the makeup pose is verified by the pose validity determining unit 500, the time stamp for each product and each makeup pose is marked for convenient and free movement of the YouTuber's makeup demonstration video section. carry out To this end, it includes a time stamp unit 600 having a product time stamp unit 610 and a pause time stamp unit 620 . In general, in a video of a YouTuber demonstrating a makeup method, as shown in FIG. 2 , cosmetics (cosmetic products) to be demonstrated by the YouTuber are first shown to the viewer, and then a makeup method using the cosmetic is demonstrated. Of course, the video for demonstrating the makeup method may include other additional images (as an example, chatting or additional explanations about products, etc.), but these additional images may be excluded from the present invention as described above.

따라서 제품 타임 스탬프부(610)는 제품 재생시간 산출부(600)에서 전송된 재생시간 데이터를 기초로 해당 화장 제품의 재생 시작 시각과 재생 종료 시각에 대한 시각을 화장품 시연 동영상에 마킹한다. Therefore, the product time stamp unit 610 marks the reproduction start time and reproduction end time of the cosmetic product on the cosmetic demonstration video based on the reproduction time data transmitted from the product reproduction time calculation unit 600 .

또한, 포즈 타임 스탬프부(620)는 포즈 유효시간 판단부(530)에서의 화장 포즈의 유효성이 판단되면, 화장 포즈시간 산출부(720)에서 전송된 재생시간 데이터를 기초로 해당 화장 포즈의 재생 시작 시각과 재생 종료 시각에 대한 시각을 화장품 시연 동영상에 마킹한다.In addition, when the pose validity time determination unit 530 determines the validity of the makeup pose, the pose time stamp unit 620 reproduces the makeup pose based on the reproduction time data transmitted from the makeup pose time calculation unit 720 . The start time and playback end time are marked on the cosmetic demonstration video.

한편, 제품 재생시간 산출부(710)는 제품 인식부(440)의 제품 인식을 바탕으로 화장품 시연 동영상에서의 당해 화장품의 재생 시간의 시작과 종료를 각각 산출한다. 화장 포즈시간 산출부(720)는 포즈 추정부(450)의 화장 포즈 추정을 바탕으로 화장품 시연 동영상에서의 당해 화장 포즈의 재생 시간의 시작과 종료를 각각 산출한다. 화장 포즈시간 산출부(720)는 산출한 시작 시각과 종료 시각을 포즈 유효시간 판단부(530)로 전송함으로써 포즈 유효시간 판단부(530)가 화장 포즈의 유효성을 검증하도록 할 수 있다. On the other hand, the product playback time calculation unit 710 calculates the start and end of the playback time of the cosmetics in the cosmetic demonstration video, respectively, based on the product recognition of the product recognition unit 440 . The makeup pose time calculation unit 720 calculates the start and end times of the makeup pose in the cosmetic demonstration video, respectively, based on the makeup pose estimation of the pose estimation unit 450 . The makeup pose time calculation unit 720 may transmit the calculated start time and end time to the pose effective time determination unit 530 so that the pose validity time determination unit 530 verifies the validity of the makeup pose.

상술한 바와 같이 도 1 및 도 3에 따라 제품 로고, 제품 모델, 화장 포즈에 대한 학습을 수행하고, 도 4 및 도 5에 따라 임의로 입력된 화장법 시연 동영상을 학습을 통해 분석함으로써 화장 제품별/화장 포즈별로 각 유투버의 화장 시연 동영상에 타임 스탬프를 마킹할 수 있다.As described above, learning about product logos, product models, and makeup poses is performed according to FIGS. 1 and 3, and the makeup method demonstration video arbitrarily input according to FIGS. 4 and 5 is analyzed through learning through learning. You can mark a time stamp on each YouTuber's makeup demonstration video for each pose.

일예로서 도 6에 도시된 바와 같이 "A" 유투버의 눈 화장법 및 립스틱 화장법에 대한 화장법 시연 동영상이 시각(t11) ~ 시각(t24)까지 재생된다고 가정하면, A 유투버의 화장법 시연 동영상의 분석에 따라 "눈 화장 제품"에 대한 동영상 재생시간은 t11 ~ t14까지 재생됨을 알 수 있고 재생 시작 시각과 종료 시각을 당해 동영상(10)에 표시할 수 있다. 또한, "립스틱 화장 제품"에 대한 동영상은 t21 ~ t24까지 재생됨을 알 수 있고 재생 시작 시각과 종료 시각을 당해 동영상(10)에 표시할 수 있다.As an example, as shown in FIG. 6 , assuming that the makeup method demonstration video for YouTuber A's eye makeup method and lipstick makeup method is played from time t11 to time t24, analysis of YouTuber A's makeup method demonstration video Accordingly, it can be seen that the video playback time for “eye makeup products” is played from t11 to t14, and the playback start time and end time can be displayed on the video 10. In addition, it can be seen that the moving picture for “lipstick cosmetic product” is played from t21 to t24, and the playback start time and end time can be displayed on the moving picture 10 .

동일하게 눈 화장 포즈에 대한 재생 시작 시각과 종료 시각을 분석하여 당해 동영상(10)에 삽입 마킹할 수 있고, 립스틱 화장 포즈에 대한 재생 시작 시각과 종료 시각을 분석하여 당해 동영상(10)에 삽입 마킹할 수 있다. 이렇게 도 6과 같이 타임 스탬프를 유투버의 화장법 시연 동영상에 추가 마킹할 수 있다.Similarly, by analyzing the playback start time and end time for the eye makeup pose, it can be inserted and marked in the video 10, and the playback start time and end time for the lipstick makeup pose are analyzed and inserted and marked in the video 10 can do. In this way, as shown in FIG. 6, a time stamp can be additionally marked on a YouTuber's makeup demonstration video.

이와 같은 타임 스탬프의 추가에 의해 이를 재생하는 시청자는 자신이 원하는 화장품 제품이나 또는 화장 포즈로 구간 이동을 편리하게 할 수 있다. 즉, 상술한 타임 마킹이 삽입 포함된 각종 유투버의 화장법 시연 동영상은 지속적으로 데이터베이스에 새롭게 갱신되며, 시청자는 제공된 스마트폰의 어플을 통해 데이터베이스에 저장된 유명 유투버의 화장법 시연 동영상을 재생시킬 수 있으며, 어플의 조작에 따라 원하는 구간으로 구간 이동을 자유롭게 할 수 있다.By adding such a time stamp, a viewer who reproduces it can conveniently move to a section with a cosmetic product or makeup pose that he or she wants. That is, videos of various YouTubers' makeup method demonstrations including the above-described time marking are continuously updated in the database, and viewers can play videos of famous YouTubers' makeup method demonstrations stored in the database through the provided smartphone application. , You can freely move between sections according to the operation of the app.

본 발명을 설명함에 있어 종래 기술 및 당업자에게 자명한 사항은 설명을 생략할 수도 있으며, 이러한 생략된 구성요소(방법) 및 기능의 설명은 본 발명의 기술적 사상을 벗어나지 아니하는 범위내에서 충분히 참조될 수 있을 것이다. 또한, 상술한 본 발명의 구성요소는 본 발명의 설명의 편의를 위하여 설명하였을 뿐 여기에서 설명되지 아니한 구성요소가 본 발명의 기술적 사상을 벗어나지 아니하는 범위내에서 추가될 수 있다. In the description of the present invention, the description may be omitted for matters obvious to those skilled in the art and those skilled in the art, and the description of these omitted components (methods) and functions will be sufficiently referenced within the scope not departing from the technical spirit of the present invention. will be able In addition, the above-described components of the present invention have been described for convenience of description of the present invention, and components not described herein may be added within a range that does not depart from the technical spirit of the present invention.

상술한 각부의 구성 및 기능에 대한 설명은 설명의 편의를 위하여 서로 분리하여 설명하였을 뿐 필요에 따라 어느 한 구성 및 기능이 다른 구성요소로 통합되어 구현되거나, 또는 더 세분화되어 구현될 수도 있다.The description of the configuration and function of each part has been described separately for convenience of description, and if necessary, any configuration and function may be implemented by being integrated into other components, or may be implemented in more subdivision.

이상, 본 발명의 일실시예를 참조하여 설명했지만, 본 발명이 이것에 한정되지는 않으며, 다양한 변형 및 응용이 가능하다. 즉, 본 발명의 요지를 일탈하지 않는 범위에서 많은 변형이 가능한 것을 당업자는 용이하게 이해할 수 있을 것이다. 또한, 본 발명과 관련된 공지 기능 및 그 구성 또는 본 발명의 각 구성에 대한 결합관계에 대한 구체적인 설명이 본 발명의 요지를 불필요하게 흐릴 수 있다고 판단되는 경우에는, 그 구체적인 설명을 생략하였음에 유의해야 할 것이다.As mentioned above, although it has been described with reference to one embodiment of the present invention, the present invention is not limited thereto, and various modifications and applications are possible. That is, those skilled in the art will readily understand that many modifications are possible without departing from the gist of the present invention. In addition, if it is determined that the detailed description of the known functions related to the present invention and its configuration or the coupling relationship for each configuration of the present invention may unnecessarily obscure the gist of the present invention, it should be noted that the detailed description is omitted. something to do.

10, 10a, 10b : 유투버 화장법 시연 동영상
11 : 제1 유투버 동영상
12 : 제2 유투버 동영상
13 : 제3 유투버 동영상
21 : 유투버
22 : 화장 제품 또는 제품 모델
23 : 제품 로고
100 : 동영상 이미지 추출부
110 : 제품 로고 추출부
120 : 제품 모델 추출부
130 : 포즈 추출부
200 : 동영상 이미지 수집부
210 : 제품 로구 수집부
220 : 제품 모델 수집부
230 : 포즈 수집부
300 : 학습부
310 : 제품 학습부
320 : 포즈 학습부
400 : 동영상 이미지 분석부
410 : 제품 로고 추출부
420 : 제품 모델 추출부
430 : 화장 포즈 추출부
440 : 제품 인식부
450 : 포즈 추정부
500 : 포즈 유효 판단부
510 : 포즈 시작 측정부
520 : 포즈 종료 측정부
530 : 포즈 유효시간 판단부
600 : 타임 스탬프부
610 : 제품 타임 스탬프부
620 : 포즈 타임 스탬프부
710 : 제품 재생시간 산출부
720 : 화장 포즈시간 산출부
10, 10a, 10b : YouTuber makeup demonstration video
11: 1st YouTuber video
12 : 2nd YouTuber video
13 : 3rd YouTuber video
21 : YouTuber
22: cosmetic product or product model
23 : product logo
100: video image extraction unit
110: product logo extraction unit
120: product model extraction unit
130: pose extraction unit
200: video image collection unit
210: product log collection unit
220: product model collection unit
230: pose collection unit
300: study
310: Product Learning Department
320: pose learning unit
400: video image analysis unit
410: product logo extraction unit
420: product model extraction unit
430: makeup pose extraction unit
440: product recognition unit
450: pose estimation unit
500: pose validity judgment unit
510: pose start measurement unit
520: Pose end measurement unit
530: pose valid time determination unit
600: timestamp part
610: product timestamp part
620: pose time stamp part
710: product playback time calculation unit
720: makeup pose time calculation unit

Claims (8)

화장법 시연과 관련된 동영상에 포함된 화장법 시연 이미지를 기 설정된 조건에 따라 카테고리별로 개별 추출하는 동영상 이미지 추출부,
추출된 화장법 시연 이미지를 기 설정된 조건에 따라 수집하고 카테고리별로 저장하는 동영상 이미지 수집부,
상기 동영상 이미지 수집부에 카테고리별로 수집 저장된 화장법 시연 이미지를 기초로 학습을 수행함으로써 개별 화장 제품 및 화장 포즈를 학습하는 학습부,
화장법 시연과 관련된 임의의 화장법 시연 동영상을 입력받아 상기 화장법 시연 동영상에 포함된 화장법 객체 이미지를 인식하고 추정하는 동영상 이미지 분석부,
상기 화장법 객체 이미지의 인식 및 추정을 바탕으로 상기 화장법 시연 동영상에 타임 스탬프를 추가로 마킹함으로써 상기 화장법 시연 동영상의 타임 스탬프별 구간 이동을 제공하도록 하는 타임 스탬프부를 포함하는 것을 특징으로 하는 학습을 통한 화장법 영상 구간 이동 장치.
A video image extraction unit that individually extracts makeup demonstration images included in a video related to makeup demonstration by category according to preset conditions;
A video image collection unit that collects the extracted makeup demonstration images according to preset conditions and stores them by category;
A learning unit for learning individual makeup products and makeup poses by performing learning based on the makeup method demonstration images collected and stored by category in the moving image collection unit;
A video image analysis unit for receiving an arbitrary makeup method demonstration video related to the makeup method demonstration, and recognizing and estimating the makeup method object image included in the makeup method demonstration video;
Based on the recognition and estimation of the makeup method object image, by additionally marking a time stamp on the makeup method demonstration video, a time stamp unit for providing a section movement for each time stamp of the makeup method demonstration video. Video section moving device.
제 1 항에 있어서,
상기 동영상 이미지 추출부는,
상기 화장법 시연 이미지에 포함된 제품 로고 이미지를 추출하는 제품 로고 추출부,
상기 화장법 시연 이미지에 포함된 제품 모델 이미지를 추출하는 제품 모델 추출부,
상기 화장법 시연 이미지에 포함된 화장 포즈 이미지를 추출하는 포즈 추출부를 포함하며,
동영상 이미지 수집부는,
상기 제품 로고 추출부에서 추출한 복수의 제품 로고 이미지를 카테고리별로 수집 및 저장하는 제품 로고 수집부,
상기 제품 모델 추출부에서 추출한 복수의 제품 모델 이미지를 카테고리별로 수집 및 저장하는 제품 모델 수집부,
상기 포즈 추출부에서 추출한 복수의 화장 포즈 이미지를 카테고리별로 수집 및 저장하는 포즈 수집부를 포함하는 것을 특징으로 하는 학습을 통한 화장법 영상 구간 이동 장치.
The method of claim 1,
The video image extraction unit,
A product logo extraction unit for extracting a product logo image included in the makeup method demonstration image,
a product model extraction unit for extracting a product model image included in the makeup method demonstration image;
and a pose extraction unit for extracting a makeup pose image included in the makeup method demonstration image,
The video image collection unit,
a product logo collection unit for collecting and storing a plurality of product logo images extracted by the product logo extraction unit by category;
a product model collection unit that collects and stores a plurality of product model images extracted by the product model extraction unit by category;
and a pose collection unit for collecting and storing a plurality of makeup pose images extracted by the pose extraction unit by category.
제 2 항에 있어서,
상기 학습부는,
상기 제품 로고 수집부 및 제품 모델 수집부에서 제공된 카테고리별 제품 로고 이미지와 제품 모델 이미지를 기초로 학습을 수행함으로써 화장 제품을 학습하는 제품 학습부,
상기 포즈 수집부에서 제공된 카테고리별 화장 포즈 이미지를 기초로 학습을 수행함으로써 화장 포즈를 학습하는 포즈 학습부를 포함하는 것을 특징으로 하는 학습을 통한 화장법 영상 구간 이동 장치.
3. The method of claim 2,
The learning unit,
A product learning unit for learning makeup products by performing learning based on the product logo images and product model images for each category provided by the product logo collection unit and the product model collection unit,
and a pose learning unit for learning makeup poses by performing learning based on the makeup pose images for each category provided by the pose collection unit.
제 3 항에 있어서,
상기 동영상 이미지 분석부는,
상기 화장법 시연 동영상을 입력받아 화장법 객체 이미지인 제품 로고 이미지와 제품 모델 이미지를 추출하고, 추출된 제품 로고 이미지와 제품 모델 이미지를 기준으로 상기 제품 학습부의 학습에 의해 상기 화장법 시연 동영상에 포함된 화장 제품을 인식하는 제품 인식부,
상기 화장법 시연 동영상을 입력받아 화장법 객체 이미지인 화장 포즈 이미지를 추출하고, 추출된 화장 포즈 이미지를 기준으로 상기 포즈 학습부의 학습에 의해 상기 화장법 시연 동영상에 포함된 화장 포즈를 추정하는 포즈 추정부를 포함하는 것을 특징으로 하는 학습을 통한 화장법 영상 구간 이동 장치.
4. The method of claim 3,
The video image analysis unit,
The makeup method demonstration video is received, the product logo image and the product model image that are the makeup method object images are extracted, and the cosmetic product included in the makeup method demonstration video by the learning of the product learning unit based on the extracted product logo image and the product model image A product recognition unit that recognizes
A pose estimating unit that receives the makeup method demonstration video, extracts a makeup pose image that is a makeup method object image, and estimates a makeup pose included in the makeup method demonstration video by learning the pose learning unit based on the extracted makeup pose image A device for moving the video section of the makeup method through learning, characterized in that.
제 4 항에 있어서,
상기 타임 스탬프부는,
상기 제품 인식부의 화장 제품 인식을 바탕으로 상기 화장법 시연 동영상에 화장 제품의 재생 시작 및 종료에 대한 타임 스탬프를 마킹하는 제품 타임 스탬프부,
상기 포즈 추정부의 화장 포즈 추정을 바탕으로 상기 화장법 시연 동영상에 화장 포즈의 재생 시작 및 종료에 대한 타임 스탬프를 마킹하는 포즈 타임 스탬프부를 포함하는 것을 특징으로 하는 학습을 통한 화장법 영상 구간 이동 장치.
5. The method of claim 4,
The time stamp unit,
A product time stamp unit for marking time stamps for the start and end of reproduction of a cosmetic product on the video demonstration of the makeup method based on the recognition of the cosmetic product by the product recognition unit;
and a pose time stamp unit for marking time stamps for starting and ending reproduction of a makeup pose on the makeup demonstration video based on the makeup pose estimation of the pose estimator.
제 5 항에 있어서,
상기 포즈 추정부에서 인식된 화장 포즈 추정을 바탕으로 화장 포즈의 유효성을 판단하는 포즈 유효 판단부를 더 포함하는 것을 특징으로 하는 학습을 통한 화장법 영상 구간 이동 장치.
6. The method of claim 5,
The apparatus for moving the video section of the makeup method through learning, characterized in that it further comprises a pose validity determining unit that determines the validity of the makeup pose based on the makeup pose estimation recognized by the pose estimation unit.
제 6 항에 있어서,
상기 포즈 유효 판단부는,
상기 포즈 추정부에서 인식된 화장 포즈 추정을 바탕으로 화장 포즈의 시작 시각을 측정하는 포즈 시작 측정부,
상기 화장 포즈의 종료 시각을 측정하는 포즈 종료 측정부,
상기 화장 포즈의 시작 시각 및 종료 시각을 바탕으로 기 설정된 조건과 비교함으로써 화장 포즈의 유효시간을 판단하는 포즈 유효시간 판단부를 포함하는 것을 특징으로 하는 학습을 통한 화장법 영상 구간 이동 장치.
7. The method of claim 6,
The pose validity determination unit,
a pose start measurement unit for measuring the start time of a makeup pose based on the makeup pose estimation recognized by the pose estimation unit;
a pose end measurement unit that measures the end time of the makeup pose;
and a pose valid time determining unit that determines the effective time of the makeup pose by comparing it with a preset condition based on the start time and the end time of the makeup pose.
제 7 항에 있어서,
상기 포즈 타임 스탬프부는,
상기 포즈 유효시간 판단부의 판단 결과에 따라 화장 포즈의 유효성이 인정된 경우에 상기 화장법 시연 동영상에 화장 포즈의 시작 및 종료에 대한 타임 스탬프를 마킹하는 것을 특징으로 하는 학습을 통한 화장법 영상 구간 이동 장치.
8. The method of claim 7,
The pause time stamp unit,
When the validity of the makeup pose is recognized according to the determination result of the pose valid time determining unit, time stamps for the start and end of the makeup pose are marked on the makeup demonstration video.
KR1020200098829A 2020-08-06 2020-08-06 playing back section moving apparatus using learning KR102318394B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020200098829A KR102318394B1 (en) 2020-08-06 2020-08-06 playing back section moving apparatus using learning

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020200098829A KR102318394B1 (en) 2020-08-06 2020-08-06 playing back section moving apparatus using learning

Publications (1)

Publication Number Publication Date
KR102318394B1 true KR102318394B1 (en) 2021-10-27

Family

ID=78287196

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020200098829A KR102318394B1 (en) 2020-08-06 2020-08-06 playing back section moving apparatus using learning

Country Status (1)

Country Link
KR (1) KR102318394B1 (en)

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100405328B1 (en) 2000-07-28 2003-11-12 이성환 The real time hair,makeup and fashion accessary design system and method in the internet
KR101948040B1 (en) 2018-03-23 2019-02-14 주식회사 트위니 Makeup recommendation method based on face type, and recording medium storing program for executing the same, and recording medium storing program for executing the same
KR20190053587A (en) * 2017-11-10 2019-05-20 신범준 Video scene searching system through keyword
KR20190100515A (en) 2018-02-07 2019-08-29 주식회사 콜라주 SYSTEM FOR PROVIDING ARTIFICIAL INTELLIGENCE MAKE-UP SUPPORT SERVICE USING IoT BEAUTY DEVICE
KR20190106865A (en) * 2019-08-27 2019-09-18 엘지전자 주식회사 Method for searching video and equipment with video search function
KR20200043112A (en) 2018-10-17 2020-04-27 주식회사 룩투고 Method for Providing All-In-One Cosmetics Kit According to Individual Make-up Tutorial, and Software therefor and Software Distributing Server
KR20200049047A (en) * 2018-10-31 2020-05-08 네이버 주식회사 Content providing server, content providing terminal and content providing method
KR102125640B1 (en) * 2019-01-29 2020-06-22 서울과학기술대학교 산학협력단 Personal broadcasting control system using user gesture

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100405328B1 (en) 2000-07-28 2003-11-12 이성환 The real time hair,makeup and fashion accessary design system and method in the internet
KR20190053587A (en) * 2017-11-10 2019-05-20 신범준 Video scene searching system through keyword
KR20190100515A (en) 2018-02-07 2019-08-29 주식회사 콜라주 SYSTEM FOR PROVIDING ARTIFICIAL INTELLIGENCE MAKE-UP SUPPORT SERVICE USING IoT BEAUTY DEVICE
KR101948040B1 (en) 2018-03-23 2019-02-14 주식회사 트위니 Makeup recommendation method based on face type, and recording medium storing program for executing the same, and recording medium storing program for executing the same
KR20200043112A (en) 2018-10-17 2020-04-27 주식회사 룩투고 Method for Providing All-In-One Cosmetics Kit According to Individual Make-up Tutorial, and Software therefor and Software Distributing Server
KR20200049047A (en) * 2018-10-31 2020-05-08 네이버 주식회사 Content providing server, content providing terminal and content providing method
KR102125640B1 (en) * 2019-01-29 2020-06-22 서울과학기술대학교 산학협력단 Personal broadcasting control system using user gesture
KR20190106865A (en) * 2019-08-27 2019-09-18 엘지전자 주식회사 Method for searching video and equipment with video search function

Similar Documents

Publication Publication Date Title
US20180315329A1 (en) Augmented reality learning system and method using motion captured virtual hands
EP2950551B1 (en) Method for recommending multimedia resource and apparatus thereof
WO2020082566A1 (en) Physiological sign recognition-based distance learning method, device, apparatus, and storage medium
CN113691836B (en) Video template generation method, video generation method and device and electronic equipment
Laraba et al. Dance performance evaluation using hidden Markov models
US20110150283A1 (en) Apparatus and method for providing advertising content
CN104021162A (en) Method and device for grading multimedia resource
CN110019893B (en) Drawing obtaining method and device
CN113223123A (en) Image processing method and image processing apparatus
CN112990540A (en) Skin care product efficacy evaluation and prediction system and method
KR102318394B1 (en) playing back section moving apparatus using learning
CN111353439A (en) Method, device, system and equipment for analyzing teaching behaviors
CN112861633B (en) Image recognition method and device based on machine learning and storage medium
Conly et al. An integrated RGB-D system for looking up the meaning of signs
JP2020095615A (en) Generator, method for generation, and generating program
Glushkova et al. Gesture recognition and sensorimotor learning‐by‐doing of motor skills in manual professions: A case study in the wheel‐throwing art of pottery
CN116910302A (en) Multi-mode video content effectiveness feedback visual analysis method and system
KR102199078B1 (en) Smart -learning device and method based on motion recognition
CN112270231A (en) Method for determining target video attribute characteristics, storage medium and electronic equipment
CN108153863B (en) Video information representation method and device
KR20200085006A (en) Beauty technology smart learning system and method thereof
KR101587533B1 (en) An image processing system that moves an image according to the line of sight of a subject
KR20200135431A (en) Processing unit, processing method, data processing unit, data processing system, data processing method and program
KR20230028843A (en) Program for matching service of makeup time stamp
KR20230028836A (en) Device for providing service that judges the validity of makeup poses in beauty images

Legal Events

Date Code Title Description
GRNT Written decision to grant