KR20240018998A - Method and system for body pose guiding based on video contents selected by user - Google Patents

Method and system for body pose guiding based on video contents selected by user Download PDF

Info

Publication number
KR20240018998A
KR20240018998A KR1020220137680A KR20220137680A KR20240018998A KR 20240018998 A KR20240018998 A KR 20240018998A KR 1020220137680 A KR1020220137680 A KR 1020220137680A KR 20220137680 A KR20220137680 A KR 20220137680A KR 20240018998 A KR20240018998 A KR 20240018998A
Authority
KR
South Korea
Prior art keywords
information
video
motion
posture
terminal device
Prior art date
Application number
KR1020220137680A
Other languages
Korean (ko)
Inventor
김영인
사르다르 치타란잔
덕 트린 트란
반 게 팜
Original Assignee
주식회사 마크애니
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 마크애니 filed Critical 주식회사 마크애니
Priority to US17/973,532 priority Critical patent/US20240046500A1/en
Publication of KR20240018998A publication Critical patent/KR20240018998A/en

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63BAPPARATUS FOR PHYSICAL TRAINING, GYMNASTICS, SWIMMING, CLIMBING, OR FENCING; BALL GAMES; TRAINING EQUIPMENT
    • A63B24/00Electric or electronic controls for exercising apparatus of preceding groups; Controlling or monitoring of exercises, sportive games, training or athletic performances
    • A63B24/0003Analysing the course of a movement or motion sequences during an exercise or trainings sequence, e.g. swing for golf or tennis
    • A63B24/0006Computerised comparison for qualitative assessment of motion sequences or the course of a movement
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63BAPPARATUS FOR PHYSICAL TRAINING, GYMNASTICS, SWIMMING, CLIMBING, OR FENCING; BALL GAMES; TRAINING EQUIPMENT
    • A63B24/00Electric or electronic controls for exercising apparatus of preceding groups; Controlling or monitoring of exercises, sportive games, training or athletic performances
    • A63B24/0075Means for generating exercise programs or schemes, e.g. computerized virtual trainer, e.g. using expert databases
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63BAPPARATUS FOR PHYSICAL TRAINING, GYMNASTICS, SWIMMING, CLIMBING, OR FENCING; BALL GAMES; TRAINING EQUIPMENT
    • A63B71/00Games or sports accessories not covered in groups A63B1/00 - A63B69/00
    • A63B71/06Indicating or scoring devices for games or players, or for other sports activities
    • A63B71/0619Displays, user interfaces and indicating devices, specially adapted for sport equipment, e.g. display mounted on treadmills
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F21/00Security arrangements for protecting computers, components thereof, programs or data against unauthorised activity
    • G06F21/30Authentication, i.e. establishing the identity or authorisation of security principals
    • G06F21/31User authentication
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/431Generation of visual interfaces for content selection or interaction; Content or additional data rendering
    • H04N21/4312Generation of visual interfaces for content selection or interaction; Content or additional data rendering involving specific graphical features, e.g. screen layout, special fonts or colors, blinking icons, highlights or animations
    • H04N21/4316Generation of visual interfaces for content selection or interaction; Content or additional data rendering involving specific graphical features, e.g. screen layout, special fonts or colors, blinking icons, highlights or animations for displaying supplemental content in a region of the screen, e.g. an advertisement in a separate window
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63BAPPARATUS FOR PHYSICAL TRAINING, GYMNASTICS, SWIMMING, CLIMBING, OR FENCING; BALL GAMES; TRAINING EQUIPMENT
    • A63B24/00Electric or electronic controls for exercising apparatus of preceding groups; Controlling or monitoring of exercises, sportive games, training or athletic performances
    • A63B24/0003Analysing the course of a movement or motion sequences during an exercise or trainings sequence, e.g. swing for golf or tennis
    • A63B24/0006Computerised comparison for qualitative assessment of motion sequences or the course of a movement
    • A63B2024/0012Comparing movements or motion sequences with a registered reference
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63BAPPARATUS FOR PHYSICAL TRAINING, GYMNASTICS, SWIMMING, CLIMBING, OR FENCING; BALL GAMES; TRAINING EQUIPMENT
    • A63B71/00Games or sports accessories not covered in groups A63B1/00 - A63B69/00
    • A63B71/06Indicating or scoring devices for games or players, or for other sports activities
    • A63B71/0619Displays, user interfaces and indicating devices, specially adapted for sport equipment, e.g. display mounted on treadmills
    • A63B71/0622Visual, audio or audio-visual systems for entertaining, instructing or motivating the user
    • A63B2071/0625Emitting sound, noise or music
    • A63B2071/063Spoken or verbal instructions
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63BAPPARATUS FOR PHYSICAL TRAINING, GYMNASTICS, SWIMMING, CLIMBING, OR FENCING; BALL GAMES; TRAINING EQUIPMENT
    • A63B2220/00Measuring of physical parameters relating to sporting activity
    • A63B2220/80Special sensors, transducers or devices therefor
    • A63B2220/806Video cameras
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20036Morphological image processing
    • G06T2207/20044Skeletonization; Medial axis transform
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]

Landscapes

  • Engineering & Computer Science (AREA)
  • General Health & Medical Sciences (AREA)
  • Physical Education & Sports Medicine (AREA)
  • Health & Medical Sciences (AREA)
  • Computer Security & Cryptography (AREA)
  • Software Systems (AREA)
  • Theoretical Computer Science (AREA)
  • Databases & Information Systems (AREA)
  • Computer Hardware Design (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Business, Economics & Management (AREA)
  • Marketing (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)

Abstract

본 발명은 인체를 포함하는 객체(body)가 가지는 자세를 측정하고 분석하는 기술에 대한 것이며, 또한 상기 자세 정보 간의 비교를 통하여 모범 자세에 대비한 모방 자세의 일치율을 향상시킬 수 있는 가이드를 제공하는 시스템에 대한 것이다. 상술한 기술적 과제의 해결을 위한 본 발명의 일 실시예에 의한 단말 장치를 이용한 사용자 자세 가이드 제공 방법은, 영상선택정보를 입력하고, 상기 영상선택정보에 기반하여 제1동작이 촬영된 제1동영상을 획득하는 단계, 상기 제1동영상과 연관된 제1동작을 획득하는 단계, 상기 제1동영상을 표시하는 단계, 상기 제1동작을 모방하는 제2동작이 촬영된 제2동영상을 획득하는 단계, 상기 제1동작과 상기 제2동작을 비교하는 단계, 및 상기 비교에 기반하여 자세가이드 정보를 표시하는 단계를 포함할 수 있다.The present invention relates to a technology for measuring and analyzing the posture of an object (body) including the human body, and also provides a guide that can improve the matching rate of imitation posture compared to model posture through comparison between the posture information. It's about the system. A method of providing a user posture guide using a terminal device according to an embodiment of the present invention for solving the above-described technical problem includes inputting image selection information, and selecting a first video in which the first motion is captured based on the image selection information. Obtaining a first motion associated with the first video, displaying the first video, obtaining a second video in which a second motion imitating the first motion is captured, It may include comparing the first motion and the second motion, and displaying posture guide information based on the comparison.

Description

사용자 선택 동영상에 기반한 객체 자세 가이드 제공 방법 및 시스템 {METHOD AND SYSTEM FOR BODY POSE GUIDING BASED ON VIDEO CONTENTS SELECTED BY USER}Method and system for providing object pose guide based on user-selected video {METHOD AND SYSTEM FOR BODY POSE GUIDING BASED ON VIDEO CONTENTS SELECTED BY USER}

본 발명은 인체를 포함하는 객체(body)가 가지는 자세를 측정하고 분석하는 기술에 대한 것이며, 또한 상기 자세 정보 간의 비교를 통하여 모범 자세에 대비한 모방 자세의 일치율을 향상시킬 수 있는 가이드를 제공하는 시스템에 대한 것이다.The present invention relates to a technology for measuring and analyzing the posture of an object (body) including the human body, and also provides a guide that can improve the matching rate of imitation posture compared to model posture through comparison between the posture information. It's about the system.

대면이 없이도 원격지에 있는 개인에게 운동을 지도하는, 이른바 홈 트레이닝 서비스가 종래에 운영되어 오고 있다. 이러한 홈 트레이닝 서비스는 모범이 되는 운동 자세와 프로그램을 사전에 전문가를 동원하여 촬영한 뒤, 서비스 사용자들이 해당 자세를 모방함으로써 바른 운동습관을 가지도록 유도하는 기능을 스마트폰과 같은 개인용 정보통신기기에 기반하여 제공하는 것을 말한다.So-called home training services, which provide exercise instruction to individuals in remote locations without face-to-face contact, have been operated in the past. This home training service uses experts to film exemplary exercise postures and programs in advance, and then provides a function to encourage service users to develop good exercise habits by imitating the postures on personal information and communication devices such as smartphones. This means that it is provided based on

가장 기초적인 홈 트레이닝 서비스 방법은 운동 자세를 보여주는 시범 방송에 의한 것이 있다. 텔레비전 방송, VOD 서비스, 스트리밍 서비스, 및 인터넷 영상 공유 서비스, 그 밖의 특화된 시스템 등을 활용하여 운동 전문가(예를 들어 헬스 트레이너, 스포츠 트레이너, 필라테스 강사, 요가 강사 등)의 모범적인 자세 및 운동 프로그램을 영상 컨텐츠로 제공하고, 상기 영상 컨텐츠를 시청하는 사용자들이 상기 영상을 모방함으로써 원격지에서 운동을 익힐 수 있도록 한다.The most basic home training service method is through demonstration broadcasts showing exercise postures. We utilize television broadcasts, VOD services, streaming services, Internet video sharing services, and other specialized systems to provide exemplary posture and exercise programs from exercise experts (e.g., health trainers, sports trainers, Pilates instructors, yoga instructors, etc.) It provides video content, and allows users watching the video content to learn exercises from a remote location by imitating the video.

그러나, 사용자는 강사의 모범 운동 영상을 시청하면서 동작을 따라하지만, 방송에 의하여 일방적으로 영상 컨텐츠를 제공받는 상황에서는, 본인이 해당 동작을 정확하게 모방하고 있는지 알 수 없다. 따라서, 상기 전문가들이 구성해 놓은 수많은 훌륭한 운동 프로그램이 사용자들에게 제대로 전달되지 못하고, 때로는 오히려 잘못된 모방으로 인한 부상으로 이어지기도 한다. 또한, 사용자가 상기 서비스에 의한 모범 운동 영상을 성실히 모방하는 것은 사용자가 나태하지 않을 것을 전제로 한 것으로, 단순히 영상 시청만을 확인할 수 있는 이상 실질적으로 사용자의 건강에 도움이 되었다고 판단하기 어려운 한계가 있다.However, the user imitates the movements while watching the instructor's exemplary exercise video, but in a situation where the video content is unilaterally provided through a broadcast, the user cannot know whether the user is accurately imitating the movements. Therefore, many of the excellent exercise programs created by the above experts are not properly delivered to users, and sometimes even lead to injuries due to incorrect imitation. In addition, since the user's faithful imitation of the exemplary exercise videos provided by the above service is based on the premise that the user is not lazy, there is a limitation that it is difficult to judge whether it has actually helped the user's health beyond simply confirming the video viewing. .

이러한 홈 트레이닝 서비스의 개선을 위한 배경기술로는 컴퓨터 비전 기술을 이용한 인체의 자세 측정과 관련된 기술이 있다. 자세 측정 기술을 사용하면 특수한 스캐너를 사용하지 않고도 일반적인 카메라로 촬영한 화상으로부터 3차원적인 인체의 형상 및 자세에 대한 정보를 추출할 수 있게 된다. 따라서, 홈 트레이닝 서비스에서는 전문가의 모범 동작에서 추출된 인체 자세 정보와, 사용자들이 모방한 동작에서 추출된 인체 자세 정보를 비교하는 방식으로 활용되고 있다. 자세 간의 일치도를 정량적인 점수화하고, 이를 기반으로 자동 또는 수동 수단에 의해 피드백이 가능하다는 장점이 있다.Background technology for improving these home training services includes technology related to measuring human body posture using computer vision technology. Using posture measurement technology, it is possible to extract information about the three-dimensional shape and posture of the human body from images taken with a general camera without using a special scanner. Therefore, home training services are used by comparing human body posture information extracted from expert's exemplary movements with human body posture information extracted from movements imitated by users. It has the advantage of quantitatively scoring the consistency between postures and providing feedback through automatic or manual means based on this.

그러나, 종래에 알려진 홈 트레이닝 서비스에서, 모범 자세를 제공하는 것은 전적으로 서비스 공급자의 책임이 된다. 즉, 사용자가 모방하기에 적합한 전문가, 예를 들면 헬스 트레이너, 필라테스 강사, 또는 요가 강사 등을 섭외한 뒤, 해당 전문가들로부터 모범 동작 영상을 획득하고, 상기 모범 동작 영상 각각에 대하여 인체 자세 정보를 추출한 다음, 사용자들이 따라할 수 있는 서비스 프로그램으로서 기능하도록 동작 정보로서 가공되고, 또한 사전에 서비스 서버의 저장소 등에 저장되어야 한다.However, in conventionally known home training services, providing exemplary posture becomes the sole responsibility of the service provider. That is, after recruiting experts suitable for the user to imitate, such as health trainers, Pilates instructors, or yoga instructors, model movement images are obtained from the experts, and human body posture information is provided for each of the model movement images. After extraction, it must be processed as operation information to function as a service program that users can follow, and must be stored in advance in the service server's storage, etc.

본 발명은 종래의 홈 트레이닝 서비스 기술이 가진 한계를 극복하기 위한 것이다. 상술한 종래에 알려진 홈 트레이닝 서비스에서, 서비스 제공자는 지속적으로 운동 프로그램을 기획하고, 상응하는 운동 프로그램의 전문가를 섭외하여 모범 자세를 포함하는 컨텐츠를 촬영함으로써, 신규 컨텐츠를 계속해서 능동적으로 공급하여야 한다. 반면, 불특정 다수인 서비스 사용자는 이를 선택하여 수행하는 것만이 가능하다.The present invention is intended to overcome the limitations of conventional home training service technology. In the conventionally known home training service described above, the service provider must continuously plan exercise programs, recruit experts in the corresponding exercise program, and film content containing exemplary postures, thereby continuously actively supplying new content. . On the other hand, an unspecified number of service users can only select and perform this.

그러나, 상기 서비스 제공자에 의하여 컨텐츠를 공급하는 속도에는 한계가 있게 된다. 따라서, 서비스 제공자에게 과중한 운영 부담이 부가되는 한계를 지닌다. 상기 서비스의 수요가 증가하여 더욱 다양한 운동 전문가들이 상기 서비스 제공자의 사용자에게 다양한 프로그램을 제공하고자 하여도, 상기 서비스 제공자가 공급을 소화하지 못하는 병목 현상이 발생할 가능성이 높은 것이다. 이러한 한계는 종래의 홈 트레이닝 서비스 기술 및 이를 활용한 서비스 시스템이 컨텐츠 제공자, 서비스 제공자, 및 서비스 이용자 간의 구분이 명확한 폐쇄적 서비스 생태계로 구축되는 한 필연적으로 상존한다.However, there is a limit to the speed at which content is supplied by the service provider. Therefore, it has the limitation of imposing a heavy operating burden on the service provider. Even if the demand for the service increases and more and more exercise experts try to provide various programs to the users of the service provider, there is a high possibility that a bottleneck phenomenon will occur in which the service provider cannot meet the supply. These limitations inevitably exist as long as conventional home training service technology and service systems utilizing the same are built as a closed service ecosystem with clear distinctions between content providers, service providers, and service users.

본 발명은 상술한 한계를 극복하기 위해, 사용자가 선택한 동영상에 기반하여 홈 트레이닝 서비스를 제공할 수 있도록 하여 홈 트레이닝 서비스를 개방형으로 제공할 수 있도록 하는 신규한 방법과, 상기 방법을 실시하는 실시예를 개시한다.In order to overcome the above-mentioned limitations, the present invention provides a novel method for providing a home training service in an open manner by providing a home training service based on a video selected by the user, and an embodiment of implementing the method. begins.

상술한 기술적 과제의 해결을 위한 본 발명의 일 실시예에 의한 단말 장치를 이용한 사용자 자세 가이드 제공 방법은, 영상선택정보를 입력하고, 상기 영상선택정보에 기반하여 제1동작이 촬영된 제1동영상을 획득하는 단계, 상기 제1동영상과 연관된 제1동작을 획득하는 단계, 상기 제1동영상을 표시하는 단계, 상기 제1동작을 모방하는 제2동작이 촬영된 제2동영상을 획득하는 단계, 상기 제1동작과 상기 제2동작을 비교하는 단계, 및 상기 비교에 기반하여 자세가이드 정보를 표시하는 단계를 포함할 수 있다.A method of providing a user posture guide using a terminal device according to an embodiment of the present invention for solving the above-described technical problem includes inputting image selection information, and selecting a first video in which the first motion is captured based on the image selection information. Obtaining a first motion associated with the first video, displaying the first video, obtaining a second video in which a second motion imitating the first motion is captured, It may include comparing the first motion and the second motion, and displaying posture guide information based on the comparison.

상기 영상선택정보에 기반하여 상기 제1동영상을 획득하는 단계는, 서버 장치에 접속하는 단계, 상기 서버 장치로부터 인터페이스 정보를 수신하는 단계, 상기 영상선택정보를 입력하기 위한 인터페이스 정보를 표시하는 단계, 상기 인터페이스 정보에 따라서 상기 영상선택정보를 입력하여 상기 서버에 송신하는 단계, 및상기 서버로부터 상기 영상선택정보에 대응하는 상기 제1동영상을 수신하는 단계를 포함하는 것을 특징으로 할 수 있다.Obtaining the first video based on the video selection information includes connecting to a server device, receiving interface information from the server device, displaying interface information for inputting the video selection information, Inputting the image selection information according to the interface information and transmitting it to the server, and receiving the first video corresponding to the image selection information from the server.

상기 영상선택정보는, 상기 인터페이스 정보에 포함되어 상기 서버 장치로부터 제공된 적어도 하나의 동영상 선택지 중 하나를 선택하는 정보인 것을 특징으로 할 수 있다.The video selection information may be included in the interface information and may be information for selecting one of at least one video selection provided from the server device.

상기 영상선택정보는, 상기 서버 장치가 상기 제1동영상의 컨텐츠 제공자로부터 상기 제1동영상을 획득하는 데 사용되는 적어도 하나의 정보를 포함하는 것을 특징으로 할 수 있다.The video selection information may include at least one piece of information used by the server device to acquire the first video from a content provider of the first video.

상기 영상선택정보는, 상기 제1동영상의 상기 컨텐츠 제공자를 통신 네트워크에서 식별하는 통신정보, 상기 컨텐츠 제공자가 상기 제1동영상을 식별하는 데 사용하는 식별 정보, 상기 제1동영상을 획득하는 데 사용되는 통신 프로토콜 정보, 및 상기 컨텐츠 제공자로부터 상기 제1동영상을 획득하는 데 필요한 아이디, 비밀번호, 인증키 중 적어도 하나를 포함하는 통신 인증 정보; 중 적어도 하나를 포함하는 것을 특징으로 할 수 있다.The video selection information includes communication information that identifies the content provider of the first video in a communication network, identification information used by the content provider to identify the first video, and information used to obtain the first video. Communication authentication information including communication protocol information and at least one of an ID, password, and authentication key required to obtain the first video from the content provider; It may be characterized as including at least one of.

상기 영상선택정보에 기반하여 상기 제1동영상을 획득하는 단계는, 저장소에 저장된 적어도 하나의 영상을 선택하기 위한 인터페이스 정보를 표시하는 단계, 상기 인터페이스 정보에 따라서 상기 영상선택정보를 입력하는 단계, 및 저장소로부터 상기 영상선택정보에 대응하는 상기 제1동영상을 획득하는 단계를 포함하는 것을 특징으로 할 수 있다.Obtaining the first video based on the image selection information includes displaying interface information for selecting at least one image stored in a storage, inputting the image selection information according to the interface information, and It may be characterized by including the step of acquiring the first video corresponding to the video selection information from storage.

제1동작추출부에 의하여 상기 제1동영상으로부터 상기 제1동작을 추출하는 단계, 및 제2동작추출부에 의하여 상기 제2동영상으로부터 상기 제2동작을 추출하는 단계를 더 포함하고, 상기 제1동작 및 상기 제2동작은, 객체의 자세 변화를 시간순으로 나타내는 동작에 관련된 정보인 것을 특징으로 할 수 있다.It further includes extracting the first motion from the first video by a first motion extraction unit, and extracting the second motion from the second video by a second motion extraction unit, wherein the first The motion and the second motion may be characterized as information related to a motion indicating a change in the posture of an object in chronological order.

상기 제1동작추출부와 상기 제2동작추출부 중 적어도 하나는 자세 추출 알고리즘에 의하여 동작하고, 상기 자세 추출 알고리즘은, 동영상을 입력으로 받아 동작을 출력하고, 동영상으로부터 적어도 하나의 영상 프레임을 추출하는 단계, 적어도 하나의 상기 영상 프레임에 기초하여 적어도 하나의 객체 관절 정보를 생성하는 단계, 적어도 하나의 상기 영상 프레임에 기초하여 적어도 하나의 객체 골격 정보를 생성하는 단계, 상기 적어도 하나의 객체 관절 정보와 상기 적어도 하나의 객체 골격 정보를 결합하여 적어도 하나의 객체 자세 정보를 생성하는 단계, 및상기 적어도 하나의 객체 자세 정보를 연속적으로 결합하여 동작을 추출하는 단계를 포함하여 동작할 수 있다.At least one of the first motion extraction unit and the second motion extraction unit operates according to a posture extraction algorithm, and the posture extraction algorithm receives a video as an input, outputs a motion, and extracts at least one image frame from the video. generating at least one object joint information based on the at least one image frame, generating at least one object skeleton information based on the at least one image frame, the at least one object joint information Generating at least one object posture information by combining the at least one object skeleton information, and extracting a motion by continuously combining the at least one object posture information.

상기 자세 추출 알고리즘은, 상기 객체 자세 정보를 정규화하는 단계를 더 포함하여 동작하고, 상기 정규화는, 상기 객체 자세 정보의 적어도 일부에 적어도 하나의 벡터에 의하여 확대, 축소, 회전, 반전, 기울임 중 적어도 하나에 속하는 기하학적 변형을 가하여 상기 객체 자세 정보를 규격화시키는 것을 의미할 수 있다.The pose extraction algorithm further includes normalizing the object pose information, wherein the normalization includes at least one of enlarging, reducing, rotating, inverting, and tilting at least a portion of the object pose information by at least one vector. This may mean standardizing the object posture information by applying a geometric transformation that belongs to one category.

상기 자세 추출 알고리즘은, 적어도 하나의 단계가 인공신경망에 의하여 동작하는 것을 특징으로 할 수 있다.The posture extraction algorithm may be characterized in that at least one step operates by an artificial neural network.

상기 제1동영상을 표시하는 단계는, 상기 제1동작에 포함된 객체 자세 정보를 재현된 객체의 형태로 된 자세가이드 그래픽 요소로 변환하는 단계, 및상기 자세가이드 그래픽 요소를 상기 제1동영상과 함께 표시하는 단계를 포함할 수 있다.The displaying the first video includes converting object posture information included in the first motion into a posture guide graphic element in the form of a reproduced object, and combining the posture guide graphic element with the first video. It may include a display step.

상기 제1동작추출부는 서버 장치에서 동작하는 것을 특징으로 할 수 있다.The first motion extraction unit may operate in a server device.

상기 제1동작과 상기 제2동작을 비교하는 단계는, 상기 제1동작에 포함된 적어도 하나의 객체 자세 정보와 상기 제2동작에 포함된 적어도 하나의 객체 자세 정보를 비교 알고리즘에 의하여 비교하여 적어도 하나의 자세 비교 정보를 획득하는 단계를 포함하고, 상기 적어도 하나의 자세 비교 정보는, 상기 제1동작을 기준으로 한 상기 제2동작의 일치 정도 및 차분 벡터 중 적어도 하나를 나타내는 정보이고, 상기 자세가이드 정보는, 상기 적어도 하나의 자세 비교 정보에 기반하여 생성되는 것을 특징으로 할 수 있다.The step of comparing the first motion and the second motion includes comparing at least one object posture information included in the first motion and at least one object posture information included in the second motion by using a comparison algorithm to obtain at least Obtaining one posture comparison information, wherein the at least one posture comparison information is information representing at least one of a difference vector and a degree of matching of the second motion with respect to the first motion, the posture Guide information may be generated based on the at least one posture comparison information.

상기 비교 알고리즘은, 상기 제2동작에 포함된 객체 자세 정보의 적어도 일부에 적어도 하나의 벡터에 의하여 확대, 축소, 회전, 반전, 기울임 중 적어도 하나에 속하는 기하학적 변형을 가하여 상기 제2동작에 포함된 객체 자세 정보를 규격화시키는 정규화 단계를 포함할 수 있다.The comparison algorithm applies a geometric transformation belonging to at least one of enlargement, reduction, rotation, inversion, and tilt by at least one vector to at least a portion of the object posture information included in the second operation. A normalization step may be included to standardize object posture information.

상기 자세가이드 정보를 표시하는 단계는, 상기 자세가이드 정보를 시각화 하여 상기 제1동영상과 상기 제2동영상 중 적어도 하나에 오버레이(overlay)하여 상기 단말 장치의 디스플레이부를 통해 표시하는 단계를 포함할 수 있다.The step of displaying the posture guide information may include visualizing the posture guide information, overlaying it on at least one of the first video and the second video, and displaying the posture guide information through a display unit of the terminal device. .

상기 자세가이드 정보는, 상기 자세가이드 정보를 음성화 하여 상기 단말 장치의 스피커부를 통해 표시하는 단계를 포함할 수 있다.The posture guide information may include the step of converting the posture guide information into audio and displaying it through a speaker unit of the terminal device.

상기 제1동영상에는, 복수의 제1동작이 촬영되어 있고, 상기 제1동영상에서 동작이 나타나는 시간을 구분하는 정보 및 상기 제1동영상에서 동작을 취한 객체를 구분하는 정보를 포함하는 적어도 하나의 동작구분정보를 선택하는 단계를 더 포함하고, 상기 제1동영상과 연관된 제1동작을 획득하는 단계는, 상기 제1동영상과 연관된 복수의 제1동작 가운데 상기 동작구분정보에 기반하여 식별되는 제1동작만을 획득하는 것을 특징으로 할 수 있다.In the first video, a plurality of first motions are recorded, and at least one motion including information distinguishing a time when the motion appears in the first video and information distinguishing an object that performed the motion in the first video. It further includes the step of selecting classification information, and the step of obtaining a first motion associated with the first video includes selecting a first motion identified based on the motion classification information among a plurality of first motions associated with the first video. It can be characterized by acquiring only.

상술한 기술적 과제의 해결을 위한 본 발명의 일 실시예에 의한 단말 장치를 이용한 사용자 자세 가이드 제공 방법은, 영상선택정보를 입력하고, 상기 영상선택정보에 기반하여 제1동작이 촬영된 제1동영상을 획득하는 단계, 상기 제1동영상으로부터 적어도 하나의 영상 프레임을 추출하는 단계, 적어도 하나의 상기 영상 프레임에 기초하여 적어도 하나의 객체 관절 정보를 생성하는 단계, 적어도 하나의 상기 영상 프레임에 기초하여 적어도 하나의 객체 골격 정보를 생성하는 단계, 상기 적어도 하나의 객체 관절 정보와 상기 적어도 하나의 객체 골격 정보를 결합하여 적어도 하나의 객체 자세 정보를 생성하는 단계, 상기 적어도 하나의 객체 자세 정보를 연속적으로 결합하여 제1동작을 추출하는 단계, 상기 제1동작에 포함된 객체 자세 정보를 재현된 객체의 형태로 된 자세가이드 그래픽 요소로 변환하는 단계, 및 상기 자세가이드 그래픽 요소를 상기 제1동영상과 함께 표시하는 단계를 포함할 수 있다.A method of providing a user posture guide using a terminal device according to an embodiment of the present invention for solving the above-described technical problem includes inputting image selection information, and selecting a first video in which the first motion is captured based on the image selection information. Obtaining, extracting at least one image frame from the first video, generating at least one object joint information based on the at least one image frame, at least one object joint information based on the at least one image frame Generating one object skeleton information, combining the at least one object joint information and the at least one object skeleton information to generate at least one object posture information, continuously combining the at least one object posture information extracting a first motion, converting object posture information included in the first motion into a posture guide graphic element in the form of a reproduced object, and displaying the posture guide graphic element together with the first video. It may include steps.

상술한 기술적 과제의 해결을 위한 본 발명의 일 실시예에 의한 서버 장치를 이용한 사용자 자세 가이드 제공 방법은, 단말 장치로부터 제1동영상에 대한 영상선택정보를 수신하는 단계, 상기 영상선택정보에 기반하여 컨텐츠 제공자에게 상기 제1동영상을 요청하는 단계, 상기 컨텐츠 제공자로부터 상기 제1 동영상을 획득하는 단계, 자세 추출 알고리즘에 의하여 상기 제1동영상과 연관된 제1동작을 획득하는 단계, 및 상기 제1동영상과 상기 제1동작을 상기 단말 장치로 송신하는 단계를 포함할 수 있다.A method of providing a user posture guide using a server device according to an embodiment of the present invention for solving the above-described technical problem includes receiving image selection information for a first video from a terminal device, and based on the image selection information. requesting the first video from a content provider, obtaining the first video from the content provider, obtaining a first motion associated with the first video by a posture extraction algorithm, and the first video and It may include transmitting the first operation to the terminal device.

상술한 기술적 과제의 해결을 위한 본 발명의 일 실시예에 의한 사용자 자세 가이드를 제공하는 단말 장치는, 영상선택정보를 입력 받는 제1입력부, 상기 영상선택정보에 기반하여 제1동영상을 획득하는 영상획득부, 상기 제1동영상과 연관된 제1동작을 획득하는 제1처리부, 상기 제1동작을 모방하는 제2동작이 촬영된 제2동영상을 획득하는 제2입력부, 상기 제2동영상과 연관된 제2동작을 획득하는 제2처리부, 상기 제1동작과 상기 제2동작을 비교하여 자세가이드 정보를 생성하는 제3처리부, 상기 제1동영상, 제1동작, 상기 제2동영상, 상기 제2동작, 상기 자세가이드 정보 중 적어도 하나를 표시하는 표시부, 상기 각부의 동작을 제어하는 프로세서, 및 상기 프로세서에 연결된 메모리를 포함할 수 있다.A terminal device that provides a user posture guide according to an embodiment of the present invention for solving the above-described technical problem includes a first input unit that receives image selection information, and an image that acquires the first video based on the image selection information. An acquisition unit, a first processing unit for acquiring a first motion associated with the first video, a second input unit for acquiring a second video in which a second motion imitating the first motion was filmed, a second video associated with the second video. A second processing unit for acquiring a motion, a third processing unit for generating posture guide information by comparing the first motion and the second motion, the first video, the first motion, the second video, the second motion, the It may include a display unit that displays at least one of the posture guide information, a processor that controls the operation of each part, and a memory connected to the processor.

본 발명이 이하 서술하는 각 실시예 및 그러한 실시예에 의하여 한정되지 않고 본 발명의 사상 범위 내에서 자유로이 변형될 수 있는 실시방법들에 의하면, 사용자가 홈 트레이닝 서비스를 이용함에 있어서 서비스 제공자에 단독으로 의존하지 않고 자유로이 컨텐츠 제공자를 선택할 수 있는 개방형 서비스(이른바 "오픈 플랫폼(open platform) 서비스")를 제공하는 효과가 있다.According to the embodiments described below and implementation methods that can be freely modified within the spirit and scope of the present invention, the present invention is not limited by the embodiments and embodiments described below, and when the user uses the home training service, the user is solely responsible for the service provider. It has the effect of providing an open service (so-called “open platform service”) that allows content providers to be freely selected without dependence.

상기 개방형 서비스는 인터넷 등으로 서비스되어, 상기 사용자가 홈 트레이닝에 사용할 영상을 직접 선택하여 입력하면, 상기 개방형 서비스에 의하여 인공지능 등에 기반한 동작 추출이 이루어지고, 상기 동작 추출에 기반하여 상기 사용자에게 홈 트레이닝이 이루어질 수 있도록 하는 효과를 제공한다.The open service is provided through the Internet, etc., and when the user directly selects and inputs an image to be used for home training, motion extraction based on artificial intelligence, etc. is performed by the open service, and based on the motion extraction, the user is provided with a home training video. It provides an effect that allows training to take place.

따라서, 프리랜서 운동강사 혹은 운동영상 전문 크리에이터 등이 자유롭게 운동 트레이닝 영상을 업로드하면, 상기 서비스 제공자의 기획이나 간섭이 없이도 상기 사용자가 직접 상기 트레이닝 영상을 선택하여 운동을 취할 수 있게 되므로, 다양한 운동 컨텐츠의 공급자와 소비자가 보다 직접적으로 연결될 수 있도록 하여, 상술하였던 컨텐츠 공급 속도의 병목을 해소할 수 있도록 하는 기술적인 방법 및 그러한 시스템이 제공될 수 있는 유익한 효과가 있다.Therefore, when a freelance exercise instructor or a professional creator of exercise videos freely uploads an exercise training video, the user can directly select the training video and exercise without any planning or interference from the service provider, thereby providing a variety of exercise content. There are beneficial effects that can be provided by a technical method and such a system that allows suppliers and consumers to be more directly connected, thereby resolving the bottleneck in the content supply speed described above.

나아가, 상기 사용자가 지목할 수 있는 동영상의 유형은 한정되지 아니하는 바, 상기 홈 트레이닝 서비스를 이용하여서는 운동 트레이닝 영상 뿐 아니라 K-POP 댄스 영상과 같이 안무의 모방이 필요한 영상 또한 동일한 서비스에서 사용자에게 동작 인식 및 비교를 통한 연습 기회를 제공할 수 있다는 효과를 가진다.Furthermore, the types of videos that the user can point to are not limited, and by using the home training service, not only exercise training videos but also videos that require imitation of choreography, such as K-POP dance videos, can be provided to the user in the same service. It has the effect of providing practice opportunities through motion recognition and comparison.

도 1은 본 발명의 일 실시예에 따른 단말 장치를 이용한 사용자 자세 가이드 제공 서비스를 나타내는 개념도,
도 2는 본 발명의 제1실시예에 의한 사용자 자세 가이드 제공을 위한 서비스의 동작 개념도,
도 3은 본 발명의 제1실시예에 의한 인터페이스 정보에 의하여 단말 장치에 표시될 수 있는 인터페이스의 예시도,
도 4는 본 발명의 일 실시예에 의한 동작추출부의 객체 자세 정보 추출 순서도,
도 5는 본 발명의 일 실시예에 의한 인터페이스 정보에 의하여 단말 장치에 표시될 수 있는 제1동작 선택 인터페이스의 예시도,
도 6은 본 발명의 제1실시예에 의한 서비스 동작의 순서도,
도 7은 본 발명의 제1실시예에 의한 인터페이스 정보에 의하여 단말 장치에 표시될 수 있는 서비스 인터페이스의 예시도,
도 8은 본 발명의 제2실시예에 의한 사용자 자세 가이드 제공을 위한 서비스의 동작 개념도,
도 9는 본 발명의 제2실시예에 의한 인터페이스 정보에 의하여 단말 장치에 표시될 수 있는 인터페이스의 예시도,
도 10은 본 발명의 제3실시예에 의한 사용자 자세 가이드 제공을 위한 서비스의 동작 개념도,
도 11은 본 발명의 제3실시예에 의한 인터페이스 정보에 의하여 단말 장치에 표시될 수 있는 인터페이스의 예시도,
도 12는 본 발명의 제4실시예에 의한 사용자 자세 가이드 제공을 위한 서비스의 동작 개념도, 그리고
도 13은 본 발명의 사용자 자세 가이드 제공을 위한 단말 장치의 블록도이다.
1 is a conceptual diagram showing a user posture guide providing service using a terminal device according to an embodiment of the present invention;
Figure 2 is a conceptual diagram of the operation of a service for providing a user posture guide according to the first embodiment of the present invention;
3 is an example of an interface that can be displayed on a terminal device based on interface information according to the first embodiment of the present invention;
Figure 4 is a flowchart of object posture information extraction by the motion extraction unit according to an embodiment of the present invention;
5 is an example of a first action selection interface that can be displayed on a terminal device based on interface information according to an embodiment of the present invention;
Figure 6 is a flowchart of service operations according to the first embodiment of the present invention;
Figure 7 is an example of a service interface that can be displayed on a terminal device based on interface information according to the first embodiment of the present invention;
Figure 8 is a conceptual diagram of the operation of a service for providing user posture guide according to the second embodiment of the present invention;
9 is an example of an interface that can be displayed on a terminal device based on interface information according to the second embodiment of the present invention;
Figure 10 is a conceptual diagram of the operation of a service for providing user posture guide according to the third embodiment of the present invention;
11 is an example of an interface that can be displayed on a terminal device based on interface information according to the third embodiment of the present invention;
Figure 12 is a conceptual diagram of the operation of a service for providing user posture guide according to the fourth embodiment of the present invention, and
Figure 13 is a block diagram of a terminal device for providing a user posture guide according to the present invention.

본 발명은 다양한 변경을 가할 수 있고 여러 가지 실시예를 가질 수 있는 바, 특정 실시예들을 도면에 예시하고 상세하게 설명하고자 한다. 그러나, 이는 본 발명을 특정한 실시 형태에 대해 한정하려는 것이 아니며, 본 발명의 사상 및 기술 범위에 포함되는 모든 변경, 균등물 내지 대체물을 포함하는 것으로 이해되어야 한다.Since the present invention can make various changes and have various embodiments, specific embodiments will be illustrated in the drawings and described in detail. However, this is not intended to limit the present invention to specific embodiments, and should be understood to include all changes, equivalents, and substitutes included in the spirit and technical scope of the present invention.

제 1, 제 2 등의 용어는 다양한 구성요소들을 설명하는데 사용될 수 있지만, 상기 구성요소들은 상기 용어들에 의해 한정되어서는 안 된다. 상기 용어들은 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만 사용된다. 예를 들어, 본 발명의 권리 범위를 벗어나지 않으면서 제 1 구성요소는 제 2 구성요소로 명명될 수 있고, 유사하게 제 2 구성요소도 제 1 구성요소로 명명될 수 있다. "및/또는"이라는 용어는 복수의 관련된 기재된 항목들의 조합 또는 복수의 관련된 기재된 항목들 중의 어느 항목을 포함하며, 또한, 달리 지시되지 않는 한 비배타적이다. 본 출원에 항목을 열거하는 경우 그것은 본 출원 발명의 사상과 가능한 실시 방법들을 용이하게 설명하기 위한 예시적 서술에 그치며, 따라서, 본 발명의 실시예 범위를 한정하는 의도를 가지지 아니한다.Terms such as first, second, etc. may be used to describe various components, but the components should not be limited by the terms. The above terms are used only for the purpose of distinguishing one component from another. For example, a first component may be referred to as a second component, and similarly, the second component may be referred to as a first component without departing from the scope of the present invention. The term “and/or” includes any combination of a plurality of related stated items or any of a plurality of related stated items and, unless otherwise indicated, is non-exclusive. When items are listed in the present application, it is merely an exemplary description to easily explain the spirit and possible implementation methods of the invention of the present application, and therefore, it is not intended to limit the scope of the embodiments of the present invention.

어떤 구성요소가 다른 구성요소에 "연결되어" 있다거나 "접속되어" 있다고 언급된 때에는, 그 다른 구성요소에 직접적으로 연결되어 있거나 또는 접속되어 있을 수도 있지만, 중간에 다른 구성요소가 존재할 수도 있다고 이해되어야 할 것이다. 반면에, 어떤 구성요소가 다른 구성요소에 "직접 연결되어" 있다거나 "직접 접속되어" 있다고 언급된 때에는, 중간에 다른 구성요소가 존재하지 않는 것으로 이해되어야 할 것이다.When a component is said to be "connected" or "connected" to another component, it is understood that it may be directly connected to or connected to the other component, but that other components may exist in between. It should be. On the other hand, when it is mentioned that a component is “directly connected” or “directly connected” to another component, it should be understood that there are no other components in between.

본 출원에서 사용한 용어는 단지 특정한 실시예를 설명하기 위해 사용된 것으로, 본 발명을 한정하려는 의도가 아니다. 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. 본 출원에서, "포함하다" 또는 "가지다" 등의 용어는 명세서상에 기재된 특징, 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.The terms used in this application are only used to describe specific embodiments and are not intended to limit the invention. Singular expressions include plural expressions unless the context clearly dictates otherwise. In this application, terms such as “comprise” or “have” are intended to designate the presence of features, numbers, steps, operations, components, parts, or combinations thereof described in the specification, but are not intended to indicate the presence of one or more other features. It should be understood that this does not exclude in advance the possibility of the existence or addition of elements, numbers, steps, operations, components, parts, or combinations thereof.

다르게 정의되지 않는 한, 기술적이거나 과학적인 용어를 포함해서 여기서 사용되는 모든 용어들은 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 것과 동일한 의미를 가지고 있다. 일반적으로 사용되는 사전에 정의되어 있는 것과 같은 용어들은 관련 기술의 문맥상 가지는 의미와 일치하는 의미를 가진 것으로 해석되어야 하며, 본 출원에서 명백하게 정의하지 않는 한, 이상적이거나 과도하게 형식적인 의미로 해석되지 않는다.Unless otherwise defined, all terms used herein, including technical or scientific terms, have the same meaning as commonly understood by a person of ordinary skill in the technical field to which the present invention pertains. Terms defined in commonly used dictionaries should be interpreted as having a meaning consistent with the meaning in the context of the related technology, and should not be interpreted in an ideal or excessively formal sense unless explicitly defined in the present application. No.

본 출원에서 발명을 설명함에 있어, 실시예들은 설명된 기능 또는 기능들을 수행하는 단위 블록들의 측면에서 설명되거나 예시될 수 있다. 상기 블록들이란 본 출원에서 하나 또는 복수의 장치, 유닛, 모듈, 부 등으로 표현될 수 있다. 상기 블록들은 하나 또는 복수의 논리 게이트, 집적 회로, 프로세서, 컨트롤러, 메모리, 전자 부품 또는 이에 한정되지 않는 정보처리 하드웨어의 구현 방법에 의하여 하드웨어적으로 실시될 수도 있다. 또는, 상기 블록들은 응용 소프트웨어, 운영 체제 소프트웨어, 펌웨어, 또는 이에 한정되지 않는 정보처리 소프트웨어의 구현 방법에 의하여 소프트웨어적으로 실시될 수도 있다. 하나의 블록은 동일한 기능을 수행하는 복수의 블록들로 분리되어 실시될 수도 있으며, 반대로 복수의 블록들의 기능을 동시에 수행하기 위한 하나의 블록이 실시될 수도 있다. 상기 블록들은 또한 임의의 기준에 의하여 물리적으로 분리되거나 결합되어 실시될 수 있다. 상기 블록들은 통신 네트워크, 인터넷, 클라우드 서비스, 또는 이에 한정되지 않는 통신 방법에 의해 물리적 위치가 특정되지 않고 서로 이격되어 있는 환경에서 동작하도록 실시될 수도 있다. 상기의 모든 실시 방법은 동일한 기술적 사상을 구현하기 위하여 정보통신 기술 분야에 익숙한 통상의 기술자가 취할 수 있는 다양한 실시예의 영역이므로, 여하의 상세한 구현 방법은 모두 본 출원상 발명의 기술적 사상 영역에 포함되는 것으로 해석되어야 한다.In describing the invention in this application, embodiments may be described or illustrated in terms of unit blocks that perform the described function or functions. In the present application, the blocks may be expressed as one or more devices, units, modules, units, etc. The blocks may be implemented in hardware using one or more logic gates, integrated circuits, processors, controllers, memories, electronic components, or information processing hardware implementation methods that are not limited thereto. Alternatively, the blocks may be implemented in software by an implementation method of application software, operating system software, firmware, or information processing software that is not limited thereto. One block may be implemented separately into a plurality of blocks that perform the same function, or conversely, one block may be implemented to simultaneously perform the functions of a plurality of blocks. The blocks may also be implemented physically separated or combined by any criteria. The blocks may be implemented to operate in an environment where their physical locations are not specified and are spaced apart from each other by a communication network, the Internet, a cloud service, or a communication method that is not limited thereto. All of the above implementation methods are within the scope of various embodiments that can be taken by a person skilled in the art of information and communication technology to implement the same technical idea, so any detailed implementation methods are all included in the technical idea scope of the invention in this application. It should be interpreted as

이하, 첨부한 도면들을 참조하여, 본 발명의 바람직한 실시예를 보다 상세하게 설명하고자 한다. 본 발명을 설명함에 있어 전체적인 이해를 용이하게 하기 위하여 도면상의 동일한 구성요소에 대해서는 동일한 참조부호를 사용하고 동일한 구성요소에 대해서 중복된 설명은 생략한다. 또한 복수의 실시예들은 서로 배타적이 아니며, 일부 실시예들이 새로운 실시예들을 형성하기 위해 하나 이상의 다른 실시예들과 조합될 수 있음을 전제로 한다.Hereinafter, preferred embodiments of the present invention will be described in more detail with reference to the attached drawings. In order to facilitate overall understanding when describing the present invention, the same reference numerals are used for the same components in the drawings, and duplicate descriptions for the same components are omitted. Additionally, it is assumed that the plurality of embodiments are not mutually exclusive, and that some embodiments may be combined with one or more other embodiments to form new embodiments.

기본 개념basic concepts

도 1은 본 발명의 일 실시예에 따른 단말 장치를 이용한 사용자 자세 가이드 제공 서비스를 나타내는 개념도이다.1 is a conceptual diagram showing a user posture guide providing service using a terminal device according to an embodiment of the present invention.

도 1에 나타난 일 실시예의 서비스(100)에 있어서, 서비스의 사용자(110)는 원격지에서 일정한 자세가 연속되는 일정한 동작으로 구성된 프로그램을 수행하고자 하는 사람일 수 있으며, 예를 들어, 홈 트레이닝 서비스를 이용하여 운동을 하는 사람일 수 있다.In the service 100 of an embodiment shown in FIG. 1, the user 110 of the service may be a person who wishes to perform a program consisting of a certain movement with a certain posture continuously from a remote location, for example, a home training service. It could be a person who uses it to exercise.

상기 서비스의 사용자(110)에게는 모범 영상(120)이 제공(190)될 수 있다. 상기 모범 영상(120)은 전문가(125)에 의하여 모범적으로 실시된 동작을 촬영한 것으로, 피트니스 운동, 근력 운동, 요가, 필라테스, 댄스, 골프 스윙, 및 그 밖의 자세식별이 가능하고 모범자세의 추종이 필요한 신체움직임을 시연하는 전문가(125)를 촬영한 운동 트레이닝 영상일 수 있다. 따라서, 상기 서비스를 이용하는 사용자(110)는 상기 모범 영상(120)을 디스플레이 장치 등을 통하여 시청(190)하고, 상기 모범 영상(120)의 전문가(125)가 취하는 동작을 모방하여 운동할 것이 기대된다.A model video 120 may be provided (190) to the user (110) of the service. The exemplary video 120 is a film of exemplary movements performed by an expert 125, and is capable of identifying fitness exercise, strength training, yoga, pilates, dance, golf swing, and other postures and following exemplary postures. This may be an exercise training video filmed by an expert (125) demonstrating the necessary physical movements. Therefore, the user 110 using the service is expected to watch 190 the model image 120 through a display device, etc. and exercise by imitating the movements taken by the expert 125 of the model image 120. do.

상기 모범 영상(120)에 대하여서는 모범 동작 정보(130)가 생성될 수 있다. 상기 모범 동작 정보(130)는 모범 자세 정보(135)를 포함할 수 있다. 상기 모범 자세 정보(135)는 상기 전문가(125)가 취하고 있는 자세를 컴퓨터 판독 가능한 형태의 자료로 나타낸 것일 수 있다.Model motion information 130 may be generated for the model image 120. The model motion information 130 may include model posture information 135. The exemplary posture information 135 may represent the posture taken by the expert 125 in a computer-readable form.

본 발명의 바람직한 일 실시예에서, 상기 모범 자세 정보(135)는, 적어도 하나의 인체의 특정 관절부들의 절대적 또는 상대적 위치 정보 및 상기 관절부들 간을 연결하는 방향성 있는 벡터 정보에 의하여 구성될 수 있다. 본 명세서에서는 상기 관절부들의 위치 정보를 인체 관절 정보로, 상기 방향성 있는 벡터 정보를 인체 골격 정보로 칭하기로 한다. 또한, 상기 인체 관절 정보와 인체 골격 정보가 결합되어 인체의 자세를 나타낸 정보를 인체 자세 정보로 칭하기로 한다. 즉, 상기 모범 자세 정보(135)는 인체 자세 정보의 형태일 수 있다.In a preferred embodiment of the present invention, the model posture information 135 may be composed of absolute or relative position information of at least one specific joint of the human body and directional vector information connecting the joints. In this specification, the position information of the joints is referred to as human joint information, and the directional vector information is referred to as human skeleton information. Additionally, information representing the posture of the human body by combining the human joint information and human skeleton information will be referred to as human body posture information. That is, the exemplary posture information 135 may be in the form of human body posture information.

상기 모범 자세 정보(135)는 상기 모범 영상(120)을 제1 자세 추출 알고리즘(137)에 입력하여 획득할 수 있다. 상기 제1 자세 추출 알고리즘은 모범 영상(120)과 같은 주어진 영상으로부터 상기 인체 자세 정보를 추출하기 위한 알고리즘으로, 그 실시방법에 대하여서는 후술한다.The exemplary posture information 135 can be obtained by inputting the exemplary image 120 into the first posture extraction algorithm 137. The first posture extraction algorithm is an algorithm for extracting the human body posture information from a given image such as the model image 120, and its implementation method will be described later.

한편, 상기 사용자가 취한 자세 정보는 촬영(115)될 수 있다. 상기 촬영(115)은, 본 발명의 바람직한 일 실시예에 따르면, 실시간으로 이루어질 수 있으나, 반드시 그렇지 아니하여도 무방하다. 상기 촬영(115)의 결과로 사용자 영상(140)이 획득될 수 있다. 그리고, 상기 사용자 영상(140)에 대하여 사용자 동작 정보(150)가 생성될 수 있다. 상기 사용자 동작 정보(150)는 상기 사용자(110)가 취하고 있는 자세를 제2 자세 추출 알고리즘(157)에 입력하여 획득된 사용자 자세 정보(155)를 포함할 수 있다.Meanwhile, information on the posture taken by the user may be photographed (115). According to a preferred embodiment of the present invention, the photographing 115 may be performed in real time, but this may not necessarily be the case. As a result of the shooting 115, a user image 140 may be obtained. Additionally, user motion information 150 may be generated for the user image 140. The user motion information 150 may include user posture information 155 obtained by inputting the posture assumed by the user 110 into the second posture extraction algorithm 157.

상기 제1 자세 추출 알고리즘(137)과 상기 제2 자세 추출 알고리즘(157)은, 본 발명의 실시예에 따라서는, 내용적으로 동일할 수 있으나, 또한 목적을 유지하는 한 상이하여도 무방하다. 마찬가지로, 상기 두 알고리즘(137, 157)의 실시 장소와 시간이 일치하거나 상이하게 되는 것은 본 발명의 효과 달성에 영향을 미치지 아니한다.Depending on the embodiment of the present invention, the first posture extraction algorithm 137 and the second posture extraction algorithm 157 may be the same in content, but may be different as long as the purpose is maintained. Likewise, whether the implementation location and time of the two algorithms 137 and 157 are the same or different does not affect achieving the effect of the present invention.

상기 모범 동작 정보(130)와 상기 사용자 동작 정보(140)는 서로 비교(160)될 수 있다. 즉, 상기 모범 동작 정보(130)에 포함된 모범 자세 정보(135)를 기준으로 하여, 상기 사용자 동작 정보(140)에 포함된 사용자 자세 정보(145)를 평가할 수 있다. 상기 비교의 방법에 대하여서는 후술한다. 상기 비교를 통하여, 결과적으로는 상기 전문가(125)가 취한 자세와 상기 사용자(110)가 취한 자세의 일치 정도가 서로 비교될 수 있음은 쉽게 알 수 있다.The exemplary motion information 130 and the user motion information 140 may be compared with each other (160). That is, the user posture information 145 included in the user motion information 140 may be evaluated based on the exemplary posture information 135 included in the exemplary motion information 130. The method of the above comparison will be described later. Through the above comparison, it can be easily seen that the degree of agreement between the posture taken by the expert 125 and the posture taken by the user 110 can be compared.

상기 비교(160)의 결과로 자세가이드 정보가 생성되어 사용자에게 표시(165)될 수 있다. 상기 자세가이드 정보는, 상기 모범 동작 정보(130)에 부합하게 되기 위하여 사용자 동작 정보(140)에 가해져야 하는 변화를 계산한 결과에 기반하여 도출될 수 있다. 예를 들어, 상기 전문가(125)에 비하여 사용자(110)의 상완부 회전 각도가 부족한 경우, 상완부의 회전 각도를 보충하도록 요구하는 사람이 인식 가능한 표시방법일 수 있으며, 또한 이러한 예시에 한정되지 아니한다.As a result of the comparison (160), posture guide information may be generated and displayed (165) to the user. The posture guide information may be derived based on the result of calculating the change that must be made to the user motion information 140 in order to conform to the model motion information 130. For example, when the rotation angle of the upper arm of the user 110 is insufficient compared to that of the expert 125, this may be a display method that can be recognized by a person requesting supplementation of the rotation angle of the upper arm, and is not limited to this example.

상기 자세 가이드 정보의 표시(165)를 제공받은 사용자(110)는 상기 모범 영상(120)을 시청(190)하면서 상기 전문가(125)의 동작을 보다 잘 모방하기 위하여 어떠한 행동을 취하여야 하는지를 인식할 수 있게 되므로, 상기 서비스(100)는 본 발명의 실시예에 따라서는 홈 트레이닝 서비스의 목적으로 사용될 수 있는 것이다.The user 110, who has received the display 165 of the posture guide information, can recognize what actions to take in order to better imitate the movements of the expert 125 while watching the model video 120 (190). Therefore, the service 100 can be used for the purpose of a home training service according to an embodiment of the present invention.

본 발명에 따르면, 상기 사용자(110)가 상기 모범 영상(120)을 직접 선택할 수 있는 기능이 제공된다. 보다 구체적으로는, 상기 사용자가 상기 모범 영상을 특정하여 선택하기 위한 영상선택정보(192)를 제공할 수 있도록 한다. 결과적으로, 본 발명은 상기 모범 영상(120)의 컨텐츠 공급자가 제한되지 않는 방식으로 상기 사용자(110)가 상기 서비스(100)를 이용할 수 있도록 하는 효과를 제공할 수 있다.According to the present invention, a function is provided that allows the user 110 to directly select the exemplary image 120. More specifically, it allows the user to provide image selection information 192 to specify and select the exemplary image. As a result, the present invention can provide the effect of allowing the user 110 to use the service 100 in a manner in which the content provider of the exemplary video 120 is not limited.

제1실시예 및 그 응용된 실시예First embodiment and its applied embodiment

이하 본 발명의 바람직한 실시방법에 해당하되, 본 발명의 실시방법을 한정하지 아니하는 제1실시예에 대하여 설명한다. 또한, 상기 제1실시예를 구현함에 있어 통상의 기술자인 실시자의 재량에 의하여 응용될 수 있는 실시예에 관련하여서도 함께 설명한다.Hereinafter, a first embodiment, which corresponds to a preferred method of implementing the present invention but does not limit the method of implementing the present invention, will be described. In addition, in implementing the first embodiment, embodiments that can be applied at the discretion of the person skilled in the art will also be described.

도 2는 본 발명의 제1실시예에 의한 사용자 자세 가이드 제공을 위한 서비스의 동작 개념도이다. 도 2에 도시되는 서비스 시스템(200)은, 예를 들어, 본 발명에 의한 자세 가이드 제공에 의하여 홈 트레이닝 서비스를 제공하기 위한 것으로, 단말 장치(210), 서버 장치(220), 그리고 컨텐츠 공급자(230)를 포함하여 구성될 수 있다. Figure 2 is a conceptual diagram of the operation of a service for providing a user posture guide according to the first embodiment of the present invention. The service system 200 shown in FIG. 2 is, for example, for providing a home training service by providing a posture guide according to the present invention, and includes a terminal device 210, a server device 220, and a content provider ( 230).

상기 단말 장치(210)는 정보통신 단말 기기일 수 있다. 상기 단말 장치(210)는, 본 발명의 실시방법에 따라서는 스마트폰, 태블릿 컴퓨터, 개인용 컴퓨터(PC), 노트북 컴퓨터, 및 스마트 TV를 포함하는 개인용 정보통신 단말기기 중 어느 하나에 속하는 단말 장치일 수 있다. 또한, IMT-2000, LTE, 5G, Wi-fi, LAN, 또는 근거리통신과 같은 통신수단에 의하여 상기 서버 장치(220)에 연결하여 정보통신을 취할 수 있는 단말 장치일 수 있다.The terminal device 210 may be an information and communication terminal device. According to the implementation method of the present invention, the terminal device 210 is a terminal device belonging to any one of personal information and communication terminal devices including a smartphone, a tablet computer, a personal computer (PC), a laptop computer, and a smart TV. You can. Additionally, it may be a terminal device capable of communicating information by connecting to the server device 220 through communication means such as IMT-2000, LTE, 5G, Wi-fi, LAN, or short-distance communication.

본 발명의 실시방법을 한정하지 아니하는 이하 제1실시예의 설명에서는, 상기 단말 장치(210)는 홈 트레이닝 서비스(이하 서비스)를 이용하고자 하는 사용자에 의하여 조작되는 스마트폰과 같은 휴대용 정보통신 기기인 것으로 가정한다. 상기 사용자는, 예를 들어 도 1에 도시된 사용자(110)와 동일하다고 볼 수 있으며, 본 실시예의 서술에 있어서는, 자신이 모방하고자 하는 운동 전문가의 운동 영상인 제1동영상을 취득하여 상기 서비스를 이용하고자 한다고 가정한다.In the following description of the first embodiment, which does not limit the implementation method of the present invention, the terminal device 210 is a portable information and communication device such as a smartphone operated by a user who wants to use a home training service (hereinafter referred to as service). It is assumed that The user can be considered the same as, for example, the user 110 shown in FIG. 1, and in the description of this embodiment, the user acquires the first video, which is an exercise image of an exercise expert that the user wishes to imitate, and provides the service. Assume you want to use it.

본 발명의 실시방법을 한정하지 아니하는 이하 제1실시예에서는, 상기 서버 장치(220)는 상기 서비스를 제공하기 위하여 설치된 서버이며, 상기 단말 장치(210)의 요청을 받아 상기 제1동영상을 획득하고, 상기 제1동영상에 기준하여 자세가이드 정보를 제공하도록 구성된 서버일 수 있다. 상기 서버 장치(220)는 상기 제1동영상을 월드 와이드 웹을 경유하여 단일 파일(file) 또는 스트리밍 패킷(streaming packet) 또는 그와 유사한 디지털 데이터 교환 방법에 의하여 상기 단말 장치(210)에 공급하는 기능을 포함하도록 구성될 수 있다. 또한, 상기 서버 장치(220)는 상기 제1동영상으로부터 동작 정보를 추출하는 제1동작추출부의 기능을 포함하도록 구성될 수 있으며, 상기 제1동작추출부의 기능과 관련하여서는 도 2의 부호 400 및 도 4에 대한 설명에서 후술한다.In the following first embodiment, which does not limit the implementation method of the present invention, the server device 220 is a server installed to provide the service, and obtains the first video by receiving a request from the terminal device 210. And, it may be a server configured to provide posture guide information based on the first video. The server device 220 supplies the first video to the terminal device 210 via the World Wide Web as a single file, streaming packet, or a similar digital data exchange method. It may be configured to include. In addition, the server device 220 may be configured to include a function of a first motion extraction unit that extracts motion information from the first video. In relation to the function of the first motion extraction unit, reference numeral 400 of FIG. 2 and FIG. This will be described later in the explanation of 4.

상기 서버 장치(220)는 정보통신 서비스 서버일 수 있다. 상기 서버 장치(220)는 본 발명의 실시방법에 따라서는 단일한 서버 컴퓨터 장치로 구현될 수 있다. 그러나 다른 실시방법에 따라서는, 복수의 서버 장치, 클라우드 서버, 또는 적어도 하나의 서버와 적어도 하나의 클라이언트에 분산된 처리 과정에 의하여 구현되어도 본 발명의 목적을 달성하는 데에는 문제가 없다.The server device 220 may be an information and communication service server. The server device 220 may be implemented as a single server computer device according to the implementation method of the present invention. However, depending on other implementation methods, there is no problem in achieving the purpose of the present invention even if it is implemented by a plurality of server devices, a cloud server, or a processing process distributed over at least one server and at least one client.

상기 컨텐츠 공급자(230)는 주로 동영상을 중심으로 하는 컨텐츠 공급자일 수 있다. 상기 컨텐츠 공급자(230)는 본 발명의 실시방법에 따라서는 월드 와이드 웹을 경유하여 단일 파일(file) 또는 스트리밍 패킷(streaming packet) 또는 그와 유사한 디지털 데이터 교환 방법에 의하여 디지털 동영상 정보를 공급하는 자일 수 있으며, 특히 그러한 공급자가 상기 디지털 동영상을 공급하기 위하여 설치한 공급자의 저장소 서버 장치로 간주하여도 무방하다. 물론, 본 발명의 실시방법에 따라서는 상술한 것 외에도 본 발명의 핵심적 구성에 활용되는 목적의 동영상을 공급하는 수단이라면 어떠한 실시방법으로 대체되어도 무방함은 자명하다.The content provider 230 may be a content provider that mainly focuses on videos. According to the implementation method of the present invention, the content provider 230 is a person who supplies digital video information through a single file, streaming packet, or similar digital data exchange method through the World Wide Web. In particular, it may be regarded as the provider's storage server device installed by such provider to supply the digital video. Of course, depending on the implementation method of the present invention, it is obvious that any implementation method may be replaced as long as it is a means of supplying moving images for the purpose of being used in the core configuration of the present invention in addition to the above-mentioned method.

본 발명의 실시방법을 한정하지 아니하는 이하 제1실시예의 설명에서는, 상기 컨텐츠 공급자(230)는 상기 서비스에 활용되는 운동 전문가의 동영상 컨텐츠, 예를 들어 도 1에 도시된 전문가(125)에 의한 모범 영상(120)으로 활용될 수 있는 컨텐츠를 보유하고 또한 공급하는 저장소 서버 장치인 것으로 간주하여 설명한다.In the following description of the first embodiment, which does not limit the implementation method of the present invention, the content provider 230 provides video content of an exercise expert used in the service, for example, by the expert 125 shown in FIG. 1. The description will be made assuming that it is a storage server device that holds and supplies content that can be used as a model video 120.

상기 사용자에 의하여 단말 장치(210)에서 상기 서비스를 개시하는 경우, 상기 단말 장치(210)는 상기 서비스를 제공하는 서버 장치(220)에 접속(S251)할 수 있다. 상기 접속(S251)에 반응하여, 상기 서버 장치(220)는 상기 단말 장치(210)에 인터페이스 정보를 제공(S252)할 수 있다.When the user starts the service on the terminal device 210, the terminal device 210 can connect to the server device 220 providing the service (S251). In response to the connection (S251), the server device 220 may provide interface information to the terminal device 210 (S252).

상기 접속(S251)을 구성하는 방법 및 상기 제공(S252)되는 인터페이스 정보의 유형은 한정되지 아니한다. 본 발명의 실시방법에 따라서, 상기 단말 장치(210)는, 예를 들어, 내장된 웹 브라우저 소프트웨어에 의하여 상기 서버 장치(220)에 인터넷 프로토콜(internet protocol; IP) 기반으로 접속(S251)하고, 상기 서버 장치(220)는 상기 접속(S251)에 반응하여 상기 웹 브라우저 소프트웨어에서 표시될 수 있는 하이퍼텍스트 언어(HTML)를 포함하는 웹 서비스 인터페이스에 관련된 정보를 제공(S252)할 수 있다. 또 다른 예를 들면, 상기 단말 장치(210)는 내장된 애플리케이션 소프트웨어에 의하여 상기 서버 장치(220)에 고유의 통신 방법으로 접속(S251)하고, 상기 서버 장치(S220)는 상기 접속(S251)에 반응하여 상기 애플리케이션 소프트웨어에 포함된 사용자 인터페이스의 표시를 지시하는 정보를 제공(S252)할 수 있다. 그 밖에도 통상적인 단말-서버간 애플리케이션 소프트웨어에 의한 정보통신 서비스를 구현하는 데 있어 기존에 알려진 또는 새로이 발명되는 다양한 응용된 구현방법이 적용될 수 있다.The method of configuring the connection (S251) and the type of interface information provided (S252) are not limited. According to the implementation method of the present invention, the terminal device 210 connects to the server device 220 based on an Internet protocol (IP), for example, by using built-in web browser software (S251), The server device 220 may provide information (S252) related to a web service interface including hypertext language (HTML) that can be displayed in the web browser software in response to the connection (S251). For another example, the terminal device 210 connects to the server device 220 using a unique communication method (S251) using built-in application software, and the server device (S220) connects to the connection (S251). In response, information indicating display of a user interface included in the application software may be provided (S252). In addition, in implementing information and communication services using typical terminal-server application software, various applied implementation methods known or newly invented can be applied.

상기 인터페이스 정보의 수신(S252)에 따라, 상기 단말 장치(210)에는 상응하는 인터페이스(300)가 표시될 수 있다.According to reception of the interface information (S252), the corresponding interface 300 may be displayed on the terminal device 210.

이하 도 3을 더 참조하여 설명한다. 도 3은 본 발명의 제1실시예에 의한 인터페이스 정보에 의하여 단말 장치에 표시될 수 있는 인터페이스의 예시도이다. 본 발명의 실시방법을 한정하지 아니하는 본 제1실시예의 설명에 있어서, 상기 인터페이스(300)는 상기 사용자가 상기 홈 트레이닝 서비스에 활용하고자 하는 제1동영상을 지정하도록 하는 목적을 가질 수 있다.Hereinafter, the description will be made with further reference to FIG. 3. Figure 3 is an example diagram of an interface that can be displayed on a terminal device based on interface information according to the first embodiment of the present invention. In the description of this first embodiment, which does not limit the method of implementing the present invention, the interface 300 may have the purpose of allowing the user to designate a first video to be used for the home training service.

상기 인터페이스(300)는 단말 장치(305)의 디스플레이(310)를 통하여 표시될 수 있다. 상기 인터페이스(300)는 상기 제1동영상의 취득을 위한 영상선택정보를 입력하는 기능(320)과, 상기 제1동영상의 취득을 실행하도록 상기 서버 장치(220)에 지시하기 위한 기능(330)을 포함할 수 있다. 상기 인터페이스는 상기 인터페이스의 목적을 나타내는 표시사항(315), 예를 들어, 상기 서비스의 명칭을 나타내는 표시사항을 더 포함할 수 있다. 단, 상기 인터페이스(300)의 기능은 예시적인 것이며, 본 발명의 기술적 목적을 유지하는 한 상기 인터페이스(300)의 기능은 추가되거나, 변경되거나, 또는 제거되어 구현될 수 있다.The interface 300 may be displayed through the display 310 of the terminal device 305. The interface 300 includes a function 320 for inputting image selection information for acquisition of the first video, and a function 330 for instructing the server device 220 to execute acquisition of the first video. It can be included. The interface may further include a display item 315 indicating the purpose of the interface, for example, a display item indicating the name of the service. However, the function of the interface 300 is illustrative, and the function of the interface 300 may be added, changed, or removed as long as the technical purpose of the present invention is maintained.

상기 영상선택정보는, 상기 서버 장치(220)가 상기 제1동영상의 컨텐츠 제공자(230)로부터 상기 제1동영상을 획득하는 데 사용되는 적어도 하나의 정보를 포함할 수 있다. 본 발명의 실시방법을 한정하지 아니하는 본 제1실시예의 설명에 있어서, 상기 영상선택정보는 상기 컨텐츠 제공자(230)가 보유한 상기 제1동영상 컨텐츠를 인터넷 프로토콜에 의하여 취득하기 위하여 사용되는 URL(uniform resource locator)을 의미할 수 있다.The video selection information may include at least one piece of information used by the server device 220 to obtain the first video from the content provider 230 of the first video. In the description of this first embodiment, which does not limit the implementation method of the present invention, the video selection information is a URL (uniform) used to acquire the first video content held by the content provider 230 by Internet protocol. resource locator).

보다 구체적으로, 상기 영상선택정보는 상기 제1동영상의 상기 컨텐츠 제공자(230)를 통신 네트워크에서 식별하기 위해 사용되는 IP 주소, 도메인 이름과 같은 통신 정보를 포함할 수 있다. 상기 영상선택정보는 상기 컨텐츠 제공자(230)가 상기 제1동영상을 식별하는 데 사용하는 웹 페이지 주소, 데이터베이스 ID, 그 밖의 서비스 상 식별 부호와 같은 식별 정보를 포함할 수 있다. 상기 영상선택정보는 상기 제1동영상을 획득하는 데 사용되는 http(hypertext markup language) 또는 ftp(file transfer protocol)와 같은 통신 프로토콜을 지칭하는 정보를 포함할 수 있다. 상기 영상선택정보는 상기 컨텐츠 제공자로부터 상기 제1동영상을 획득하는 데 필요한 아이디, 비밀번호, 인증키 중 적어도 하나를 포함하는 통신 인증 정보를 포함할 수 있다. 상기 통신 인증 정보는 상기 컨텐츠 제공자(230)로부터 상기 제1동영상을 취득하기 위해 로그인 또는 API 인증과 같은 소정의 자격인증이 필요한 경우에 활용될 수 있다. 따라서, 상기 통신 인증 정보가 정보통신 네트워크를 이용한 데이터 수신 자격을 판별하기 위한 목적으로 사용되는 어떠한 종래에 알려진 또는 새로이 발명될 통신 인증 정보의 집합으로 변용되더라도 본 발명의 목적 달성에는 지장이 없음이 자명하다.More specifically, the video selection information may include communication information such as an IP address and domain name used to identify the content provider 230 of the first video in a communication network. The video selection information may include identification information such as a web page address, database ID, and other service identification codes used by the content provider 230 to identify the first video. The video selection information may include information indicating a communication protocol such as http (hypertext markup language) or ftp (file transfer protocol) used to acquire the first video. The video selection information may include communication authentication information including at least one of an ID, password, and authentication key required to obtain the first video from the content provider. The communication authentication information can be used when certain qualifications, such as login or API authentication, are required to acquire the first video from the content provider 230. Therefore, it is clear that even if the communication authentication information is transformed into a set of any conventionally known or newly invented communication authentication information used for the purpose of determining eligibility to receive data using an information and communication network, there will be no problem in achieving the purpose of the present invention. do.

통상의 기술자가 이해하기 쉬운 일 실시사례를 들어 예시하면, 상기 영상선택정보는 "http://www.*******.com/12345678"과 같은 http URL을 포함할 수 있다. 상기 통신 정보는 상기 URL에서 컨텐츠 제공자를 지목하는 도메인 주소("www.*******.com"), 상기 식별 부호는 상기 URL에서 특정 동영상을 지목하는 부가 주소("/12345678"), 상기 통신 프로토콜의 정보는 상기 URL의 프로토콜 표기("http://")로 예시된다고 볼 수 있다. 또한, 상기 영상선택정보는 상기 URL과는 별도로 상기 컨텐츠 제공자(즉, "*******.com")가 허용하는 동영상 다운로드 API의 고유 인증 키를 더 포함할 수 있다.As an example that is easy for those skilled in the art to understand, the image selection information may include an http URL such as "http://www.*******.com/12345678". The communication information is a domain address ("www.*******.com") that points to the content provider in the URL, and the identification code is an additional address ("/12345678") that points to a specific video in the URL. , the information on the communication protocol can be seen as exemplified by the protocol notation (“http://”) of the URL. Additionally, the video selection information may further include a unique authentication key of the video download API permitted by the content provider (i.e., “*******.com”), separately from the URL.

다시 도 2를 참조하면, 상기 사용자는 상기 인터페이스(300)의 입력 기능(320)을 통해 상기 영상선택정보를 입력하고, 상기 지시 기능(330)을 이용하여 상기 영상선택정보를 상기 서버 장치로 송신(S253)할 수 있다.Referring again to FIG. 2, the user inputs the image selection information through the input function 320 of the interface 300 and transmits the image selection information to the server device using the instruction function 330. (S253) You can.

상기 서버 장치(220)는 상기 수신(S253)된 영상선택정보에 기반하여 상기 컨텐츠 제공자(230)의 서버에 접속(S254)하고, 상기 사용자가 목적하였던 제1동영상을 획득(S255)할 수 있다. 상기 서버 장치(220)는 이에 따라 상기 제1동영상을 상기 단말 장치(210)에 제공(S256)할 수 있다.The server device 220 can connect to the server of the content provider 230 (S254) based on the video selection information received (S253) and obtain the first video that the user wanted (S255). . Accordingly, the server device 220 may provide the first video to the terminal device 210 (S256).

상기 제1동영상에는 적어도 하나의, 경우에 따라서는 다수의 객체가 촬영되어 있을 수 있다. 본 발명의 실시방법을 한정하지 아니하는 본 제1실시예의 설명에 있어서, 상기 객체는 인체일 수 있으며, 따라서 상기 제1동영상은 상술한 바와 같이 도 1에 도시된 전문가(125)에 의한 모범 영상(120)일 수 있다. In the first video, at least one object, and in some cases, multiple objects, may be captured. In the description of the first embodiment, which does not limit the method of implementing the present invention, the object may be a human body, and therefore the first video is an exemplary video by the expert 125 shown in FIG. 1 as described above. It may be (120).

상기 제1동영상을 이용하여 상기 서버 장치(220)는 제1동작추출부에 의하여 상기 제1동영상으로부터 제1동작을 추출(400)하도록 구성될 수 있다. 본 발명의 일 실시예에 따르면, 상기 제1동작추출부는 사전에 지도학습 또는 비지도학습에 의하여 훈련된 기계 학습 또는 인공 신경망과 같은 적어도 하나의 인공지능 모델을 포함할 수 있다. 본 발명의 실시예에 따라서는, 상기 인공지능 모델은 합성곱(convolution) 기반의 신경망(convolutional neural network, CNN)으로 구현될 수 있다. 상기 제1동작추출부는 상기 적어도 하나의 인공지능 모델에 전적으로 또는 부분적으로 의존하여 동작할 수 있다.Using the first video, the server device 220 may be configured to extract (400) a first motion from the first video by a first motion extraction unit. According to one embodiment of the present invention, the first motion extraction unit may include at least one artificial intelligence model, such as machine learning or artificial neural network, previously trained through supervised learning or unsupervised learning. According to an embodiment of the present invention, the artificial intelligence model may be implemented as a convolutional neural network (CNN). The first motion extraction unit may operate depending entirely or partially on the at least one artificial intelligence model.

이하 도 4를 함께 참조하며 설명한다. 도 4는 본 발명의 일 실시예에 의한 동작추출부의 객체 자세 정보 추출 순서도이다. 상기 동작추출부는 상기 제1동영상과 같은 동영상을 입력으로 받고(S410), 상기 동영상을 프레임 단위로 분리하여 적어도 하나의 영상 프레임을 획득하고(S420), 각각의 상기 영상 프레임으로부터 적어도 하나의 인체를 포함하는 객체(body)를 식별(S430)하고, 상기 식별된 객체를 분석하여 적어도 하나의 객체 관절 정보를 생성(S440)하고, 상기 식별된 객체를 분석하여 적어도 하나의 상기 영상 프레임에 기초하여 적어도 하나의 객체 골격 정보를 생성하고(S450), 상기 적어도 하나의 객체 관절 정보와 상기 적어도 하나의 객체 골격 정보를 결합하여 객체 자세 정보를 생성(S460)할 수 있다.Hereinafter, the description will be made with reference to FIG. 4. Figure 4 is a flowchart of object posture information extraction by the motion extraction unit according to an embodiment of the present invention. The motion extraction unit receives a video such as the first video as an input (S410), separates the video into frames to obtain at least one video frame (S420), and extracts at least one human body from each video frame. Identify the object (body) including (S430), analyze the identified object to generate at least one object joint information (S440), and analyze the identified object to generate at least one object joint information based on the at least one image frame. One object skeleton information may be generated (S450), and object posture information may be generated by combining the at least one object joint information and the at least one object skeleton information (S460).

본 발명의 보다 응용된 실시예(495)에서, 상기 객체 자세 정보는 생성된 다음 정규화(S490)될 수 있다. 상기 정규화는, 상기 객체 자세 정보의 적어도 일부에 적어도 하나의 벡터에 의하여 확대, 축소, 회전, 반전, 기울임 중 적어도 하나에 속하는 기하학적 변형을 가하여 상기 객체 자세 정보를 규격화시키는 것을 의미할 수 있다.In a more applied embodiment 495 of the present invention, the object pose information may be generated and then normalized (S490). The normalization may mean standardizing the object posture information by applying a geometric transformation of at least one of enlargement, reduction, rotation, inversion, and tilt to at least a portion of the object posture information by at least one vector.

상기 정규화는 상기 객체, 즉 촬영된 인체의 체구에 따른 변동성과, 상기 객체가 상기 입력된 동영상에 촬영될 때의 촬영방법에 의한 변동성을 보정하기 위한 것일 수 있다. 예를 들어, 상기 정규화는 상기 객체 자세 정보에 대한 회전, 확대, 축소, 및 각도변경 등 이른바 RST(Rotate, Scaling, and Transform) 변화를 상쇄하기 위한 목적을 가질 수 있다. 또한, 상기 정규화는 상기 객체 자세 정보를 기하학적으로 변형하여 규격화된 팔 길이와 다리 길이를 가진 인체 자세 정보로 변환하는 과정을 포함할 수 있다. 또 다른 예를 들어, 상기 정규화는 상기 객체가 상기 입력된 동영상에 나타날 때의 X축(좌우), Y축(전후), Z축(상하)에서의 변형을 계산하고, 상기 변형을 기하학적으로 상쇄함으로써 상기 X, Y, Z축 중 적어도 하나에 의한 기준점에 정렬되도록 수정하는 과정을 포함할 수 있다.The normalization may be intended to correct the variability due to the size of the object, that is, the photographed human body, and the variability due to the photographing method when the object is photographed in the input video. For example, the normalization may have the purpose of offsetting so-called Rotate, Scaling, and Transform (RST) changes in the object posture information, such as rotation, enlargement, reduction, and angle change. Additionally, the normalization may include a process of geometrically transforming the object posture information and converting it into human body posture information with standardized arm lengths and leg lengths. For another example, the normalization calculates the deformation in the By doing so, it may include a process of modifying the alignment to a reference point according to at least one of the X, Y, and Z axes.

상기 정규화는 상기 목적의 달성을 위하여 강체 변환(rigid transform), 아핀 변환(affine transform), 및 투사 변환(projection transform)을 포함하는 적어도 하나의 기하학적 변환 함수를 포함하여 실행될 수 있다.The normalization may be performed by including at least one geometric transformation function including a rigid transform, an affine transform, and a projection transform to achieve the above purpose.

상기 정규화는 상술한 실시방법 외에도 상기 객체 자세 정보를 규격화하여 본 발명의 목적에 맞게 용이하게 사용할 수 있도록 가공하는 어떠한 정보 수정 과정을 포함하도록 구성되어도 무방하다.In addition to the above-described implementation method, the normalization may be configured to include any information modification process to standardize the object posture information and process it so that it can be easily used for the purpose of the present invention.

상기 객체 자세 정보는 연속되는 프레임별로 반복적으로 생성(S465)될 수 있다. 상기 객체에 대하여 생성된 적어도 하나의 상기 객체 자세 정보는, 시간에 따라 연속적으로 결합하여, 상기 객체에 대한 객체 동작 정보를 생성(S470)하는 데 활용될 수 있다. The object posture information may be repeatedly generated for each successive frame (S465). At least one object posture information generated for the object may be continuously combined over time and used to generate object motion information for the object (S470).

상기 객체 동작 정보는 상기 동작추출부의 처리 결과로써 출력(S480)될 수 있다. 따라서, 상기 객체 동작 정보는 상기 제1동영상으로부터 상기 제1동작추출부에 의하여 추출되는 상기 제1동작으로 간주될 수 있다.The object motion information may be output (S480) as a result of processing by the motion extraction unit. Accordingly, the object motion information may be regarded as the first motion extracted by the first motion extractor from the first video.

다시 도 2를 참조하면, 상기 제1동작추출부(400)에 의하여 추출된 상기 제1동작은, 상술한 바와 같이 상기 제1동영상에 나타나는 객체, 즉 상기 전문가의 자세 변화를 시간순으로 나타내는 동작에 관련된 정보를 포함할 수 있다. 상기 제1동작이 추출되면, 상기 제1동작은 상기 서버(230)로부터 상기 단말 장치(210)에 송신(S259)될 수 있다.Referring again to FIG. 2, the first motion extracted by the first motion extraction unit 400 is, as described above, the object appearing in the first video, that is, the motion representing the change in posture of the expert in chronological order. May contain relevant information. If the first action is extracted, the first action may be transmitted from the server 230 to the terminal device 210 (S259).

본 발명의 제1실시예에 따른 서비스 시스템(200)은, 상기 제1동영상에 둘 이상의 객체가 촬영될 수 있고, 따라서 상기 제1동영상으로부터 둘 이상의 제1동작이 추출될 수 있도록 구성될 수 있다. 이 경우, 본 발명의 응용된 제1실시예에 해당하는 동작들(201)이 더 포함될 수 있다.The service system 200 according to the first embodiment of the present invention can be configured so that two or more objects can be captured in the first video, and thus two or more first actions can be extracted from the first video. . In this case, operations 201 corresponding to the first applied embodiment of the present invention may be further included.

본 발명의 실시방법을 한정하지 아니하는 본 발명의 응용된 제1실시예에 있어서, 상기 제1동작추출부(400)는 상기 복수의 객체들 각각에 대한 제1동작을 추출하도록 구성될 수 있다. 상기 복수의 객체들에 대한 복수의 제1동작들을 생성하기 위하여, 도 4에 나타난 제1동작추출부(400)의 처리 순서도 상에 있는 임의의 단계가 객체 단위로 반복하여 실행되도록 구성될 수 있으며, 그 밖의 다른 실시방법에 의하여 복수의 객체들로부터 복수의 제1동작들을 추출하도록 구성될 수도 있다.In the first applied embodiment of the present invention, which does not limit the implementation method of the present invention, the first motion extraction unit 400 may be configured to extract the first motion for each of the plurality of objects. . In order to generate a plurality of first operations for the plurality of objects, any step in the processing flowchart of the first motion extraction unit 400 shown in FIG. 4 may be configured to be repeatedly executed on an object basis. , It may also be configured to extract a plurality of first movements from a plurality of objects using other implementation methods.

상기 복수의 제1동작들은 동작이 나타나는 시간을 구분하는 정보 및 상기 제1동영상에서 동작을 취한 객체를 구분하는 정보를 포함하는 동작구분정보에 의하여 구분될 수 있다. 예를 들어, 상기 동작구분정보는 상기 제1동영상에 나타나는 여러 명의 운동 전문가 중 특정 시간대에 나타나는 특정한 운동 전문가를 지목하도록 구성된 정보일 수 있다.The plurality of first motions may be distinguished by motion classification information including information distinguishing the time at which the motion appears and information distinguishing the object that performed the motion in the first video. For example, the motion classification information may be information configured to point out a specific exercise expert that appears at a specific time among several exercise experts that appear in the first video.

본 발명의 실시방법을 한정하지 아니하는 본 발명의 응용된 제1실시예에 있어서, 상기 서비스(200)는 사용자가 상기 복수의 제1동작들 중 하나를 선택하도록 허용할 수 있다. 따라서 상기 서버 장치(220)는 상기 제1동영상에 포함된 복수의 제1동작들을 구분하는 적어도 하나의 동작구분정보를 상기 단말 장치에 제공(S257)할 수 있다.In the first applied embodiment of the present invention, which does not limit the implementation method of the present invention, the service 200 may allow the user to select one of the plurality of first operations. Accordingly, the server device 220 may provide the terminal device with at least one motion classification information that distinguishes a plurality of first motions included in the first video (S257).

도 5를 더 참조하여 설명한다. 도 5는 본 발명의 일 실시예에 의한 인터페이스 정보에 의하여 단말 장치에 표시될 수 있는 제1동작 선택 인터페이스의 예시도이다. 상기 인터페이스(500)는 상기 제공받은(S527) 적어도 하나의 동작구분정보 중 상기 사용자가 모방의 대상으로 취할 특정한 제1동작을 지목하는 동작구분정보를 선택하도록 하는 목적을 가질 수 있다.This will be explained further with reference to FIG. 5 . Figure 5 is an exemplary diagram of a first action selection interface that can be displayed on a terminal device based on interface information according to an embodiment of the present invention. The interface 500 may have the purpose of allowing the user to select motion classification information that points out a specific first motion to be taken as an object of imitation among the at least one motion classification information provided (S527).

상기 인터페이스(500)는 단말 장치(305)의 디스플레이(310)를 통하여 표시될 수 있다. 본 발명의 일 실시예에 따르면, 상기 인터페이스는, 상기 제1동영상을 표시하는 기능(520)과, 상기 제1동영상을 시간 방향으로 탐색할 수 있는 재생바(525) 또는 시간 표시기(526)와 같은 기능과, 상기 제1동영상에 나타난 복수의 객체들 중 하나를 선택할 수 있도록 제공되는 선택 커서(527) 기능과, 상기 기능들에 의한 시간 및 객체의 선택에 따른 동작구분정보의 선택 확정하는 기능(530)을 포함할 수 있다. 상기 인터페이스는 상기 인터페이스의 목적을 나타내는 표시사항(515)을 더 포함할 수 있다. 단, 상기 인터페이스(500)의 기능은 예시적인 것이며, 본 발명의 기술적 목적을 유지하는 한 상기 인터페이스(500)의 기능은 추가되거나, 변경되거나, 또는 제거되어 구현될 수 있다.The interface 500 may be displayed through the display 310 of the terminal device 305. According to one embodiment of the present invention, the interface includes a function 520 for displaying the first video, a play bar 525 or a time indicator 526 for searching the first video in the time direction, and The same function, a selection cursor 527 function provided to select one of a plurality of objects shown in the first video, and a function to confirm the selection of motion classification information according to the time and object selection by the above functions It may include (530). The interface may further include an indication 515 indicating the purpose of the interface. However, the function of the interface 500 is illustrative, and the function of the interface 500 may be added, changed, or removed as long as the technical purpose of the present invention is maintained.

도 5에 도시되는 상기 인터페이스(500)에 따르면, 사용자는 상기 제1동영상을 상기 재생바(525)를 통해 열람하면서 원하는 제1운동을 실행하는 운동 전문가의 출현을 확인한 다음, 해당 운동 전문가를 클릭함으로써 해당 운동 전문가에 대하여 식별된 객체를 선택하고, 결과적으로 해당 시간 및 객체의 선택에 따른 하나의 동작구분정보를 선택하여 모방하고자 하는 제1운동을 선택할 수 있다.According to the interface 500 shown in FIG. 5, the user checks the appearance of an exercise expert performing the desired first exercise while viewing the first video through the play bar 525, and then clicks on the exercise expert. By doing so, the object identified for the exercise expert can be selected, and as a result, one motion classification information according to the time and object selection can be selected to select the first exercise to be imitated.

단, 상술한 실시예는 본 발명의 실시방법을 한정하지 않는 바, 상기 인터페이스(500)의 실시방법은 다양하게 변경될 수 있다. 예를 들어, 상기 인터페이스(500)는 상기 제공받은(S527) 복수의 동작구분정보들을 열거하는 목록을 스크롤 목록(scroll list) 또는 드롭다운 목록(drop-down list)와 같은 형태로 제공하도록 구현되더라도 무방하다. 또한 그 밖의 어떠한 인터페이스가 제공되더라도 동작구분정보를 선택하는 기능을 가지는 한 본 발명의 목적 달성에 지장이 없음은 자명하다.However, the above-described embodiment does not limit the implementation method of the present invention, and the implementation method of the interface 500 may be changed in various ways. For example, even if the interface 500 is implemented to provide a list listing the plurality of operation classification information provided (S527) in the form of a scroll list or drop-down list, It's okay. Additionally, it is clear that no matter what other interface is provided, there is no problem in achieving the purpose of the present invention as long as it has the function of selecting operation classification information.

상기 단말 장치(210)에서 상기 동작구분정보를 선택한 것과 관련된 정보는 상기 서버 장치(220)로 송신(S258)될 수 있다. 상기 송신(S258)되는 정보는, 실시예에 따라서, 복수의 상기 동작구분정보 중 하나를 식별하는 인덱스(index)이거나, 또는 선택된 동작구분정보 자체일 수 있다. 상기 서버 장치(220)는 상기 선택된 동작구분정보에 기반하여 식별되는 제1동작만을 선택(S270)하고, 상기 선택된 제1동작에 관련된 정보를 상기 단말 장치(210)로 송신(S259)하도록 구성될 수 있다.Information related to selecting the operation classification information in the terminal device 210 may be transmitted to the server device 220 (S258). Depending on the embodiment, the transmitted information (S258) may be an index that identifies one of the plurality of operation classification information, or may be the selected operation classification information itself. The server device 220 will be configured to select only the first operation identified based on the selected operation classification information (S270) and transmit information related to the selected first operation to the terminal device 210 (S259). You can.

도 2에 도시한 상기 동작 절차에 의하여, 상기 단말 장치(210)는 상기 제1동영상을 획득(S256)하고, 상기 제1동작에 대한 정보를 획득(S259)할 수 있다. 따라서, 상기 단말 장치(210)는 이에 기반하여 서비스 동작(600)을 수행할 수 있도록 구성될 수 있다.By the operation procedure shown in FIG. 2, the terminal device 210 can acquire the first video (S256) and obtain information about the first operation (S259). Accordingly, the terminal device 210 may be configured to perform the service operation 600 based on this.

도 6은 본 발명의 제1실시예에 의한 서비스 동작의 순서도이다. 또한, 도 7은 본 발명의 제1실시예에 의한 인터페이스 정보에 의하여 단말 장치에 표시될 수 있는 서비스 인터페이스의 예시도이다. 이하 두 도면을 교차 참조하며 설명한다.Figure 6 is a flowchart of service operations according to the first embodiment of the present invention. Additionally, Figure 7 is an example diagram of a service interface that can be displayed on a terminal device based on interface information according to the first embodiment of the present invention. The following description will be made with cross-reference to the two drawings.

본 발명의 실시방법을 한정하지 아니하는 본 제1실시예의 설명에 있어서, 상기 서비스 인터페이스(700)는 상기 사용자가 상기 제1동영상에 나타나는 상기 제1동작을 성공적으로 모방하도록 돕는 상기 홈 트레이닝 서비스 동작(600)을 구현하는 목적을 가질 수 있다.In the description of the first embodiment, which does not limit the implementation method of the present invention, the service interface 700 includes the home training service operation to help the user successfully imitate the first movement appearing in the first video. It may have the purpose of implementing (600).

상기 인터페이스(700)는 단말 장치(305)의 디스플레이(310)를 통하여 표시될 수 있다. 상기 인터페이스(700)는 상기 제1동영상을 표시하는 기능(710), 상기 제1동작을 표시하는 기능(720), 제2동영상을 표시하는 기능(730), 제2동작을 표시하는 기능(740), 및 자세가이드를 표시하는 기능(750)을 포함할 수 있다. 본 발명의 바람직한 일 실시예에서, 상기 사용자는 상기 제1동영상의 표시(710) 및 상기 제1동작의 표시(720)를 관찰하면서 상기 제1동작을 모방하는 제2동작을 취하고, 또한 상기 제2동작을 취하는 자신의 모습을 상기 제2동영상의 표시(730)에 나타나는 사용자의 형상(735) 및 상기 제2동작의 표시(740)를 통하여 확인할 수 있으며, 상기 자세가이드의 표시(750)를 통하여 상기 제1동작을 더욱 성공적으로 모방할 수 있는 정보를 획득할 수 있다.The interface 700 may be displayed through the display 310 of the terminal device 305. The interface 700 includes a function for displaying the first video (710), a function for displaying the first motion (720), a function for displaying the second video (730), and a function for displaying the second motion (740). ), and may include a function 750 to display a posture guide. In a preferred embodiment of the present invention, the user takes a second action imitating the first action while observing the display 710 of the first video and the display 720 of the first action, and further 2 You can check your own appearance in the second motion through the user's shape 735 and the display 740 of the second motion shown in the display 730 of the second video, and the display 750 of the posture guide. Through this, information that can more successfully imitate the first motion can be obtained.

단, 상기 인터페이스(700)의 기능은 예시적인 것이며, 본 발명의 기술적 목적을 유지하는 한 상기 인터페이스(700)의 기능은 추가되거나, 변경되거나, 또는 제거되어 구현될 수 있다. 또한, 상기 인터페이스(700)를 표시하는 단말 장치(305)에는 적어도 하나의 촬영수단(760)이 설치되어 있을 수 있다.However, the function of the interface 700 is illustrative, and the function of the interface 700 may be added, changed, or removed as long as the technical purpose of the present invention is maintained. Additionally, at least one photographing means 760 may be installed in the terminal device 305 that displays the interface 700.

상기 획득된 제1동영상은 상기 사용자에게 표시될 수 있다. 또한, 본 발명의 실시예에 따라서, 상기 제1동영상은 상기 제1동작과 함께 표시될 수 있다(S610). 상기 제1동영상은 상기 인터페이스(700)의 상기 제1동영상 표시 기능(710)을 통하여, 상기 제1동작은 상기 인터페이스(700)의 상기 제1동작 표시 기능(720)을 통하여 표시될 수 있다.The acquired first video may be displayed to the user. Additionally, according to an embodiment of the present invention, the first video may be displayed together with the first motion (S610). The first video may be displayed through the first video display function 710 of the interface 700, and the first motion may be displayed through the first motion display function 720 of the interface 700.

상기 제1동작의 표시는, 상기 제1동작에 포함된 객체 자세 정보를 재현된 객체의 형태로 된 그래픽 요소로 변환하는 단계를 포함하는 절차에 의하여 이루어질 수 있다. 예를 들어, 상술한 일 실시예와 같이 본 발명의 객체 자세 정보가 객체 관절 정보와 객체 골격 정보로 구성되는 경우, 도 7의 상기 제1동작 표시 기능(720)에 나타나는 바와 같이, 상기 객체 관절 정보 및 상기 객체 골격 정보가 시각화되어(725) 사용자에게 제공될 수 있다.The display of the first motion may be accomplished by a procedure including converting object posture information included in the first motion into a graphic element in the form of a reproduced object. For example, when the object posture information of the present invention consists of object joint information and object skeleton information as in the above-described embodiment, as shown in the first motion display function 720 of FIG. 7, the object joint Information and the object skeleton information may be visualized (725) and provided to the user.

상기 제1동영상 표시 기능(710)과 상기 제1동작 표시 기능(720)은 상기 인터페이스(700) 상에서 서로 분리될 수도 있고, 실시예에 따라서는, 서로 일부 또는 전부가 중첩될 수도 있다. 예를 들어, 본 발명의 변형된 일 실시예에서는, 상기 제1 동작 표시 기능(720)은 상기 제1동영상 표시 기능(710)에 오버레이(overlay)되는 형태로 중첩되어 표시될 수 있다.The first video display function 710 and the first motion display function 720 may be separated from each other on the interface 700, or, depending on the embodiment, some or all of them may overlap with each other. For example, in a modified embodiment of the present invention, the first motion display function 720 may be displayed in an overlay form on the first video display function 710.

상기 제1동영상 및 제1동작의 표시에 따라서, 상기 사용자는 상기 제1동영상에 촬영된 전문가(715)의 상기 제1동작을 관찰하고 모방하고자 시도할 수 있게 된다. 상기 제1동작을 함께 표시하는 것은, 상기 사용자가 상기 제1동영상에 나타나는 제1동작을 보다 원활하게 모방할 수 있도록 돕는 유익한 효과가 있다.According to the display of the first video and the first motion, the user can observe and attempt to imitate the first motion of the expert 715 captured in the first video. Displaying the first motion together has the beneficial effect of helping the user more smoothly imitate the first motion appearing in the first video.

본 명세서에서, 상기 사용자가 상기 제1동작을 관찰하고 모방하여 취하게 되는 동작을 제2동작이라 칭하기로 한다. 상기 제1동작을 모방하는 사용자의 상기 제2동작은 상기 촬영수단(760)에 의하여 촬영되어 제2동영상을 생성(S620)할 수 있다. 상기 촬영수단(760)은, 실시예에 따라서는, 상기 단말 장치(305)에 부착된 카메라를 의미할 수 있다. 그러나 다른 실시예에 따라서는, 그 밖에 상기 단말 장치(305)에 내장 또는 외장으로, 그리고 유선 또는 무선으로 연결 가능한 어떠한 촬영수단이 사용되더라도 본 발명의 목적 달성에는 지장이 없다.In this specification, the action taken by the user by observing and imitating the first action will be referred to as the second action. The second motion of the user imitating the first motion may be captured by the photographing means 760 to generate a second video (S620). Depending on the embodiment, the photographing means 760 may mean a camera attached to the terminal device 305. However, depending on other embodiments, any photographing means that can be connected internally or externally to the terminal device 305 and wired or wirelessly may be used without affecting the achievement of the purpose of the present invention.

상기 제2동영상으로부터는 제2동작추출부에 의하여 상기 제2동작이 추출(S630)될 수 있다. 상기 제2동작추출부에 의하여 추출된 상기 제2동작은, 상술한 바와 같이 상기 제2동영상에 나타나는 객체, 즉 상기 사용자(735)의 자세 변화를 시간순으로 나타내는 동작에 관련된 정보를 포함할 수 있다. 본 발명의 실시방법을 한정하지 아니하는 본 제1실시예의 설명에 있어서, 상기 제2동작추출부는 상기 단말 장치(305)에서 동작할 수 있다. 이러한 실시예에 따르면, 상기 촬영수단(760)으로부터 촬영된 상기 제2동영상은 상기 단말 장치(305) 내에서 상기 제2동작추출부에 입력될 수 있다.The second motion may be extracted from the second video by a second motion extraction unit (S630). As described above, the second motion extracted by the second motion extractor may include information related to the motion representing the change in posture of the object appearing in the second video, that is, the user 735, in chronological order. . In the description of this first embodiment, which does not limit the implementation method of the present invention, the second motion extraction unit may operate in the terminal device 305. According to this embodiment, the second video captured by the photographing means 760 may be input to the second motion extraction unit within the terminal device 305.

상기 제2동작추출부의 동작 방법은, 본 발명의 바람직한 실시예에 따르면, 상기 제1동작추출부와 동일할 수 있다. 따라서, 상기 도 4를 참조하여 설명한 상기 제1동작추출부의 모든 실시예들은 상기 제2동작추출부에도 동일하게 원용될 수 있다. 다만, 본 발명의 다른 실시예에 따르면, 상기 제2동작추출부는 상기 제1동작추출부와 유사하나 서로 다른 구조로 구현될 수 있다. 예를 들어, 상기 제1동작추출부를 서버 장치에서 구동하는 경우, 동일한 동작 추출 기능을 단말 장치에서 구현하는 데 어려움이 있을 수 있어, 상기 제1동작과 같은 자료형식으로 상기 제2동작을 추출할 수 있는 상이한 구현방법이 상기 제2동작추출부에 적용될 수도 있다.According to a preferred embodiment of the present invention, the operating method of the second motion extraction unit may be the same as that of the first motion extraction unit. Accordingly, all embodiments of the first motion extraction unit described with reference to FIG. 4 can be equally used in the second motion extraction unit. However, according to another embodiment of the present invention, the second motion extraction unit may be implemented in a similar but different structure from the first motion extraction unit. For example, when the first motion extraction unit is run in a server device, it may be difficult to implement the same motion extraction function in the terminal device, so the second motion cannot be extracted in the same data format as the first motion. Different implementation methods may be applied to the second motion extraction unit.

또한, 본 발명의 또다른 실시예에 따르면, 상기 제2동작추출부는 상기 단말 장치에서 동작하지 아니하고, 상기 서버 장치와 같은 원격지에서 동작하도록 구성될 수도 있다. 이러한 경우에는 상기 제2동영상으로부터 상기 제2동작을 추출하기 위하여 상기 단말 장치로부터 상기 서버 장치에 상기 제2동영상을 송신하는 단계와 상기 서버 장치로부터 상기 제2동작에 관련된 정보를 수신하는 단계가 본 발명의 실시결과물에 추가될 수 있다. 나아가 실시예에 따라서는, 상기 제1동작추출부와 상기 제2동작추출부는 서로 다른 입력으로 동작하는 하나의 기능부를 의미할 수 있다.Additionally, according to another embodiment of the present invention, the second motion extraction unit may not operate in the terminal device, but may be configured to operate in a remote location such as the server device. In this case, the steps of transmitting the second video from the terminal device to the server device to extract the second motion from the second video and receiving information related to the second motion from the server device are: It can be added to the results of the invention. Furthermore, depending on the embodiment, the first motion extraction unit and the second motion extraction unit may mean one functional unit that operates with different inputs.

상기 제1동작과 제2동작이 획득되면, 상기 두 동작이 서로 비교되어 자세가이드 정보를 생성할 수 있다(S640). 상기 두 동작의 비교는, 도 1을 참조한 설명에서 상술하였던 바와 같이, 전문가(715)의 모범 동작에 해당하는 제1동작에 포함된 객체 자세 정보를 기준으로 하여, 사용자(735)의 모방 동작에 해당하는 제2동작에 포함된 객체 자세 정보를 평가하는 방법으로 이루어질 수 있다.When the first motion and the second motion are obtained, the two motions can be compared to generate posture guide information (S640). As described above in the description with reference to FIG. 1, the comparison of the two motions is based on the object posture information included in the first motion corresponding to the exemplary motion of the expert 715, and the imitation motion of the user 735. This can be done by evaluating object posture information included in the corresponding second motion.

본 발명의 실시방법을 한정하지 아니하는 본 제1실시예의 설명에 있어서, 상기 비교는 상기 제1동작과 상기 제2동작을 프레임 단위로 비교하여 이루어질 수 있다. 보다 구체적으로는, 각각의 프레임에서, 상기 제1동작의 객체 자세 정보를 구성하는 객체 관절 정보와 객체 골격 정보를 제1벡터 정보로 나타내고, 또한 상기 제2동작의 객체 자세 정보를 구성하는 객체 관절 정보와 객체 골격 정보를 제2벡터 정보로 나타낸 뒤, 상기 제1벡터 정보를 기준으로 한 상기 제2벡터 정보의 차이를 연산에 의해 구함으로써 이루어질 수 있다.In the description of this first embodiment, which does not limit the implementation method of the present invention, the comparison may be made by comparing the first operation and the second operation on a frame-by-frame basis. More specifically, in each frame, object joint information and object skeleton information constituting the object posture information of the first motion are expressed as first vector information, and object joints constituting the object posture information of the second motion are expressed as first vector information. This can be done by representing the information and the object skeleton information as second vector information and then calculating the difference between the second vector information based on the first vector information.

상기 제1벡터 정보와 상기 제2벡터 정보 간의 차이를 구함에 있어서, 관절 단위 또는 골격 단위로 분리하여 차이를 구할 수 있다. 예를 들어, 상기 제1동작의 객체 자세 정보 중 상완부에 해당하는 골격 정보를 나타내는 제1세부벡터와, 상기 제2동작에서 동일한 정보를 나타내는 제2세부벡터를 상호 비교하여, 상기 상완부에서 상기 사용자(735)의 제2동작이 상기 전문가(715)의 제1동작과 얼마나 차이가 나는지 도출할 수 있다.In obtaining the difference between the first vector information and the second vector information, the difference can be obtained by dividing the information into joint units or skeleton units. For example, by comparing a first detail vector representing skeletal information corresponding to the upper arm among the object posture information of the first motion and a second detail vector representing the same information in the second motion, the user It can be derived how much the second action of 735 differs from the first action of the expert 715.

상기 벡터 정보 간 차이의 연산은 알고리즘에 의하여 사전에 지정된 형태로 실행될 수도 있고, 또는 인공신경망 등 고도화된 정보처리 기능의 적용을 통하여 결과적으로 그러한 연산이 실행된 효과를 획득하는 방법으로 실행될 수도 있으며, 그 밖에 객체 자세 정보 간의 차이를 연산하기 위한 종래에 알려진 또는 새로이 개발되는 어떠한 연산기술이 적용되어도 본 발명의 목적 달성에는 지장이 없다.The calculation of the difference between the vector information may be performed in a pre-specified form by an algorithm, or may be performed in a way that obtains the effect of performing such calculation as a result through the application of advanced information processing functions such as artificial neural networks, In addition, there is no problem in achieving the purpose of the present invention even if any previously known or newly developed calculation technology for calculating the difference between object posture information is applied.

상기 차이 연산이 실시되기에 앞서, 상기 제2동작에 포함된 상기 객체 자세 정보는 정규화될 수 있다. 상기 정규화는, 상기 객체 자세 정보의 적어도 일부에 적어도 하나의 벡터에 의하여 확대, 축소, 회전, 반전, 기울임 중 적어도 하나에 속하는 기하학적 변형을 가하여 상기 객체 자세 정보를 규격화시키는 것을 의미할 수 있다.Before the difference calculation is performed, the object pose information included in the second operation may be normalized. The normalization may mean standardizing the object posture information by applying a geometric transformation of at least one of enlargement, reduction, rotation, inversion, and tilt to at least a portion of the object posture information by at least one vector.

상기 정규화는 상기 객체, 즉 촬영된 사용자 인체의 체구에 따른 변동성과, 상기 객체가 상기 제2동영상에 촬영될 때의 촬영방법에 의한 변동성을 보정하기 위한 것일 수 있다. 특히, 상기 제1동영상을 촬영한 환경과 상기 제2동영상이 촬영되는 환경은 상이하게 되므로, 이러한 차이를 보정함으로써 상기 제1동작을 모방한 제2동작이 외부적 요인, 이를테면 상기 사용자와 상기 전문가(715) 간에 체구의 차이, 신장의 차이, 관절 가동 범위의 차이, 영상 촬영수단과의 거리, 영상 촬영수단의 렌즈 각도, 영상 촬영수단의 해상도 등에 의하여 예기치 않게 서로 차이나는 것으로 평가되는 것을 억제하는 목적을 가질 수 있다.The normalization may be intended to correct the variability due to the size of the object, that is, the photographed user's human body, and the variability due to the photographing method when the object is photographed in the second video. In particular, since the environment in which the first video is filmed and the environment in which the second video is filmed are different, the second motion imitating the first motion by correcting this difference is caused by external factors, such as the user and the expert. (715) To suppress unexpected differences between the two due to differences in body size, height, joint range of motion, distance from the imaging means, lens angle of the imaging means, resolution of the imaging means, etc. You can have a purpose.

예를 들어, 상기 정규화는 상기 객체 자세 정보에 대한 회전, 확대, 축소, 및 각도변경 등 이른바 RST(Rotate, Scaling, and Transform) 변화를 상쇄하기 위한 목적을 가질 수 있다. 또한, 상기 정규화는 상기 객체 자세 정보를 기하학적으로 변형하여 규격화된 팔 길이와 다리 길이를 가진 인체 자세 정보로 변환하는 과정을 포함할 수 있다. 또 다른 예를 들어, 상기 정규화는 상기 객체가 상기 입력된 동영상에 나타날 때의 X축(좌우), Y축(전후), Z축(상하)에서의 변형을 계산하고, 상기 변형을 기하학적으로 상쇄함으로써 상기 X, Y, Z축 중 적어도 하나에 의한 기준점에 정렬되도록 수정하는 과정을 포함할 수 있다.For example, the normalization may have the purpose of offsetting so-called Rotate, Scaling, and Transform (RST) changes in the object posture information, such as rotation, enlargement, reduction, and angle change. Additionally, the normalization may include a process of geometrically transforming the object posture information and converting it into human body posture information with standardized arm lengths and leg lengths. For another example, the normalization calculates the deformation in the By doing so, it may include a process of modifying the alignment to a reference point according to at least one of the X, Y, and Z axes.

상기 정규화는 상기 목적의 달성을 위하여 강체 변환(rigid transform), 아핀 변환(affine transform), 및 투사 변환(projection transform)을 포함하는 적어도 하나의 기하학적 변환 함수를 포함하여 실행될 수 있다.The normalization may be performed by including at least one geometric transformation function including a rigid transform, an affine transform, and a projection transform to achieve the above purpose.

상기 정규화는 상술한 실시방법 외에도 상기 객체 자세 정보를 규격화하여 본 발명의 목적에 맞게 용이하게 사용할 수 있도록 가공하는 어떠한 정보 수정 과정을 포함하도록 구성되어도 무방하다.In addition to the above-described implementation method, the normalization may be configured to include any information modification process to standardize the object posture information and process it so that it can be easily used for the purpose of the present invention.

상기 제1동작과 상기 제2동작 간의 차이는, 본 발명의 실시예에 따라, 상기 제1벡터와 상기 제2벡터의 일치 정도 및 상기 제1벡터를 기준으로 한 상기 제2벡터의 차분(差分) 벡터 중 적어도 하나를 포함하는 자세 비교 정보로 도출될 수 있다. 상기 자세 비교 정보에 의하여, 자세가이드 정보가 생성(S660)될 수 있다.The difference between the first operation and the second operation is, according to an embodiment of the present invention, the degree of coincidence between the first vector and the second vector and the difference (差分) of the second vector based on the first vector. ) can be derived as posture comparison information including at least one of the vectors. Based on the posture comparison information, posture guide information can be generated (S660).

상기 자세가이드 정보는, 본 발명의 실시방법을 한정하지 아니하는 본 제1실시예의 설명에 있어서, 상기 사용자의 제2동작이 상기 전문가(715)의 제1동작에 근접하도록 유도하는 데 도움이 될 수 있는 다양한 정보의 형태로 도출될 수 있다. 예를 들어, 상기 자세가이드 정보는 상기 차분 벡터에 기반하여 상기 사용자가 제2동작을 취함에 있어 특정 신체 부위를 어떠한 방향으로 어떻게 더욱 가동하여야 하는지를 알려주는 정보를 포함할 수 있다. 또 다른 예를 들어, 상기 자세가이드 정보는 상기 제1동작과 상기 제2동작 간의 차분 벡터를 화살표와 같은 지시수단에 의하여 시각화한 정보를 포함할 수 있다. 또 다른 예를 들어, 상기 자세가이드 정보는 상기 사용자의 특정 신체 부위의 가동율을 평가하는 정보를 포함할 수 있다. 또 다른 예를 들어, 상기 자세가이드 정보는 상기 사용자의 특정 신체부위가 다른 신체부위, 특히 대칭이 되는 신체부위(이를 테면, 왼팔과 오른팔)에 비교하여 제1동작에 일치하는 정도가 상이함을 나타내는 정보를 포함할 수 있다. 또 다른 예를 들어, 상기 자세가이드 정보는 상기 사용자가 특정한 유형의 제1동작을 모방하는 제2동작에 있어 일치 정도가 낮다는 통계적 정보를 포함할 수 있다. 그 밖에도 상기 제1동작과 제2동작의 비교를 통해 획득할 수 있는 다양한 가이드 정보들이 종래에 알려진 또는 새로이 개발되는 운동 보조 방법 등에 의하여 본 발명의 범위 내에서 자세가이드 정보로 활용될 수 있음은 자명하다.In the description of the first embodiment, which does not limit the method of implementing the present invention, the posture guide information will be helpful in guiding the user's second motion to be closer to the expert's 715's first motion. It can be derived in various forms of information. For example, the posture guide information may include information indicating in which direction and how a specific body part should be further moved when the user takes the second motion based on the difference vector. For another example, the posture guide information may include information visualizing the difference vector between the first motion and the second motion using an indicating means such as an arrow. For another example, the posture guide information may include information evaluating the movement rate of a specific body part of the user. As another example, the posture guide information indicates that the degree to which a specific body part of the user matches the first movement is different compared to other body parts, especially symmetrical body parts (for example, the left arm and the right arm). It may contain information that it represents. For another example, the posture guide information may include statistical information that the degree of agreement between the user and the second movement imitating a specific type of first movement is low. In addition, it is obvious that various guide information that can be obtained through comparison of the first and second movements can be used as posture guide information within the scope of the present invention by conventionally known or newly developed exercise assistance methods. do.

상기 자세가이드 정보는 상기 인터페이스(700)를 통하여 표시될 수 있으며, 본 발명의 바람직한 일 실시예에 따르면, 상기 제2동영상 및 상기 제2동작과 함께 표시(S670)될 수 있다. 상기 제2동영상은 상기 인터페이스(700)의 상기 제2동영상 표시 기능(730)을 통하여, 상기 제2동작은 상기 인터페이스(700)의 상기 제2동작 표시 기능(740)을 통하여, 상기 자세가이드 정보는 상기 인터페이스(700)의 상기 자세가이드 표시 기능(750)을 통하여 표시될 수 있다.The posture guide information can be displayed through the interface 700, and according to a preferred embodiment of the present invention, it can be displayed together with the second video and the second motion (S670). The second video is displayed through the second video display function 730 of the interface 700, and the second motion is displayed through the second motion display function 740 of the interface 700. The posture guide information Can be displayed through the posture guide display function 750 of the interface 700.

상기 제2동작의 표시는, 상기 제1동작과 유사하게, 상기 제2동작에 포함된 객체 자세 정보를 재현된 객체의 형태로 된 그래픽 요소로 변환하는 단계를 포함하는 절차에 의하여, 예를 들어 시각화되어(745) 이루어질 수 있다. 상기 시각화의 실시예는 상기 제1동작의 표시를 위한 시각화(725)를 원용할 수 있다.The display of the second motion is, similar to the first motion, by a procedure comprising converting the object posture information included in the second motion into a graphic element in the form of a reproduced object, for example This can be done by visualizing (745). An embodiment of the visualization may use the visualization 725 for displaying the first operation.

상기 제2동영상 표시 기능(730)과 상기 제2동작 표시 기능(740)은 상기 인터페이스(700) 상에서 서로 분리될 수도 있고, 실시예에 따라서는, 서로 일부 또는 전부가 중첩될 수도 있다. 예를 들어, 본 발명의 변형된 일 실시예에서는, 상기 제2 동작 표시 기능(740)은 상기 제2동영상 표시 기능(730)에 오버레이되는 형태로 중첩되어 표시될 수 있다.The second video display function 730 and the second motion display function 740 may be separated from each other on the interface 700, or, depending on the embodiment, some or all of them may overlap with each other. For example, in a modified embodiment of the present invention, the second motion display function 740 may be displayed in an overlay form on the second video display function 730.

상기 자세가이드 표시 기능(750)은 상기 인터페이스(700)상 임의의 위치에 표시되어도 무방하다. 예를 들어, 상기 자세가이드 표시 기능(750)은 상기 제2동작 표시 기능(740)에 인접하거나 또는 중첩되도록 표시될 수 있다. 그러나, 본 발명의 변형된 일 실시예에서는, 상기 자세가이드 표시 기능(750)은 상기 인터페이스(700) 전체에 일시적으로 오버레이되는 돌발 메시지(splash message)의 형태로 표시될 수 있으며, 그 밖에 상기 자세가이드 정보의 세부 실시방법과 상기 사용자의 서비스 경험 증진을 위하여 다양한 형태로 사용자에게 표시될 수 있다.The posture guide display function 750 may be displayed at any position on the interface 700. For example, the posture guide display function 750 may be displayed adjacent to or overlaps with the second motion display function 740. However, in a modified embodiment of the present invention, the posture guide display function 750 may be displayed in the form of a splash message that is temporarily overlaid on the entire interface 700, and may also be displayed in the form of a splash message that is temporarily overlaid on the entire interface 700. Guide information may be displayed to the user in various forms in order to explain detailed implementation methods and improve the user's service experience.

본 발명의 변형된 실시예에서, 상기 자세가이드 표시 기능(750)은 상기 디스플레이(310)를 점유하지 않는 형태로 구현될 수 있다. 예를 들어, 상기 자세가이드 표시 기능(750)은 상기 인터페이스(700)의 음성 효과에 포함되어, 상기 단말 장치의 스피커부를 통해 표시되도록 구성될 수 있다.In a modified embodiment of the present invention, the posture guide display function 750 may be implemented in a form that does not occupy the display 310. For example, the posture guide display function 750 may be included in the voice effect of the interface 700 and configured to be displayed through a speaker unit of the terminal device.

상기 인터페이스(700)를 통한 상기 제1동영상을 표시하는 기능(710), 상기 제1동작을 표시하는 기능(720), 제2동영상을 표시하는 기능(730), 제2동작을 표시하는 기능(740), 및 자세가이드를 표시하는 기능(750)은, 본 발명의 바람직한 실시방법에 따르면, 실질적으로 동시에 하나의 표시 화상으로 결합되어 디스플레이(305) 상에 표시될 수 있다. 상기 제1동영상이 표시(710)된 뒤, 상기 제1동영상을 관찰하고 상기 제1동작을 모방하는 제2동작을 취하는 사용자의 영상이 촬영되어 제2동영상으로 표시(730)되기까지의 시간 간격은, 또한 상기 제1동작과 상기 제2동작 간의 비교가 이루어지는 데 소요되는 시간 간격은, 본 발명을 실시하는 데 사용되는 정보통신 기기의 성능 및 그 밖의 실시방법상 요인에 따르면, 무시될 수 있다. 또한, 연산 또는 통신 과정에서 발생하는 시간 지연의 경우, 통상적으로 알려진 정보통신 애플리케이션의 구현 기술들에 의하여 대응할 수 있음은 자명하다.A function for displaying the first video through the interface 700 (710), a function for displaying the first motion (720), a function for displaying the second video (730), a function for displaying the second motion ( According to a preferred implementation method of the present invention, the functions 740) and the function 750 for displaying the posture guide can be substantially simultaneously combined into one display image and displayed on the display 305. After the first video is displayed (710), the time interval until an image of the user observing the first video and making a second motion imitating the first motion is captured and displayed as a second video (730) Additionally, the time interval required to make a comparison between the first operation and the second operation may be neglected, depending on the performance of the information and communication device used to implement the present invention and other implementation method factors. . In addition, it is obvious that time delays occurring during computation or communication can be responded to using commonly known implementation technologies for information and communication applications.

제2실시예Second embodiment

이하 상기 제1실시예로부터 실시방법의 변화를 가하여 도출되는 본 발명의제2실시예에 관련하여 설명한다.Hereinafter, a description will be given regarding the second embodiment of the present invention, which is derived by changing the implementation method from the first embodiment.

도 8은 본 발명의 제2실시예에 의한 사용자 자세 가이드 제공을 위한 서비스의 동작 개념도이다. 도 8에 도시되는 서비스 시스템(800)은, 예를 들어, 본 발명에 의한 자세 가이드 제공에 의하여 홈 트레이닝 서비스를 제공하기 위한 것으로, 단말 장치(810) 및 서버 장치(820)를 포함하여 구성될 수 있다.Figure 8 is a conceptual diagram of the operation of a service for providing a user posture guide according to the second embodiment of the present invention. The service system 800 shown in FIG. 8 is for providing a home training service by providing a posture guide according to the present invention, for example, and is configured to include a terminal device 810 and a server device 820. You can.

도 8의 설명에 있어서, 상기 도 2와 동일한 부호를 공유하는 항목들은 상기 제1실시예의 실시예를 원용하여도 무방하다.In the description of FIG. 8, items sharing the same symbols as those of FIG. 2 may refer to the first embodiment.

본 발명의 실시방법을 한정하지 아니하는 이하 제2실시예에서는, 상기 제1실시예에서의 컨텐츠 제공자(230)를 별도로 두지 아니할 수 있다. 상기 서버 장치(820)는 상기 서비스를 제공하기 위하여 설치된 서버이며, 또한 적어도 하나의 제1동영상으로 사용될 수 있는 디지털 동영상 정보를 저장하는 컨텐츠 저장소와, 상기 디지털 동영상 정보를 월드 와이드 웹을 경유하여 단일 파일(file) 또는 스트리밍 패킷(streaming packet) 또는 그와 유사한 디지털 데이터 교환 방법에 의하여 공급하는 기능을 포함하도록 구성될 수 있다. 또한, 상기 서버 장치(820)는 상기 제1실시예의 제1동작추출부의 기능을 포함하도록 구성될 수 있다.In the following second embodiment, which does not limit the implementation method of the present invention, the content provider 230 in the first embodiment may not be separately provided. The server device 820 is a server installed to provide the service, and also has a content storage that stores digital video information that can be used as at least one first video, and stores the digital video information in a single file via the World Wide Web. It may be configured to include a function to supply by file or streaming packet or similar digital data exchange method. Additionally, the server device 820 may be configured to include the function of the first motion extraction unit of the first embodiment.

상기 사용자에 의하여 단말 장치(810)에서 상기 서비스를 개시하는 경우, 상기 단말 장치(810)는 상기 서비스를 제공하는 서버 장치(820)에 접속(S251)할 수 있다. 상기 접속(S251)에 반응하여, 상기 서버 장치(820)는 상기 단말 장치(810)에 인터페이스 정보를 제공(S852)할 수 있다. 상기 인터페이스 정보의 수신(S852)에 따라, 상기 단말 장치(810)에는 상응하는 인터페이스(900)가 표시될 수 있다.When the user starts the service on the terminal device 810, the terminal device 810 can connect to the server device 820 providing the service (S251). In response to the connection (S251), the server device 820 may provide interface information to the terminal device 810 (S852). According to reception of the interface information (S852), the corresponding interface 900 may be displayed on the terminal device 810.

이하 도 9를 더 참조하여 설명한다. 도 9는 본 발명의 제2실시예에 의한 인터페이스 정보에 의하여 단말 장치에 표시될 수 있는 인터페이스의 예시도이다. 본 발명의 실시방법을 한정하지 아니하는 본 제2실시예의 설명에 있어서, 상기 인터페이스(900)는 상기 사용자가 상기 홈 트레이닝 서비스에 활용하고자 하는 제1동영상을 지정하도록 하는 목적을 가질 수 있다.Hereinafter, the description will be made with further reference to FIG. 9. Figure 9 is an example diagram of an interface that can be displayed on a terminal device based on interface information according to the second embodiment of the present invention. In the description of the second embodiment, which does not limit the implementation method of the present invention, the interface 900 may have the purpose of allowing the user to designate a first video to be used for the home training service.

상기 인터페이스(900)는 단말 장치(305)의 디스플레이(310)를 통하여 표시될 수 있다. 상기 인터페이스(900)는 상기 서버 장치(820)에 저장되어 상기 사용자에게 사용이 허가된 후보 동영상의 목록을 제공하는 기능(920)과, 상기 후보 동영상 중 적어도 하나의 동영상을 상기 제1동영상으로 선택하였음에 대한 정보인 영상선택정보를 상기 서버 장치(820)에 송신하도록 지시하는 기능(930)을 포함할 수 있다. 상기 인터페이스는 상기 인터페이스의 목적을 나타내는 표시사항(315), 예를 들어, 상기 서비스의 명칭을 나타내는 표시사항을 더 포함할 수 있다. 단, 상기 인터페이스(900)의 기능은 예시적인 것이며, 본 발명의 기술적 목적을 유지하는 한 상기 인터페이스(900)의 기능은 추가되거나, 변경되거나, 또는 제거되어 구현될 수 있다.The interface 900 may be displayed through the display 310 of the terminal device 305. The interface 900 includes a function 920 for providing a list of candidate videos stored in the server device 820 and permitted to be used by the user, and selecting at least one video from among the candidate videos as the first video. It may include a function 930 that instructs the server device 820 to transmit image selection information, which is information about what has been done. The interface may further include a display item 315 indicating the purpose of the interface, for example, a display item indicating the name of the service. However, the function of the interface 900 is illustrative, and the function of the interface 900 may be added, changed, or removed as long as the technical purpose of the present invention is maintained.

상기 후보 동영상의 목록(920)은 상기 인터페이스(900) 내에서 스크롤 기능(922)을 가진 목록(scroll list) 또는 드롭다운 목록(drop-down list)와 같은 형태로 제공될 수 있다. 상기 사용자는 상기 목록(920)을 통하여 상기 서비스(800)에서 상기 서버 장치(820)를 통하여 이용할 수 있는 제1동영상의 후보 동영상을 탐색할 수 있으며, 그 중 적어도 하나를 선택(921)함으로써 상기 영상선택정보를 입력할 수 있다.The list 920 of the candidate videos may be provided in the form of a scroll list or drop-down list with a scroll function 922 within the interface 900. The user can search for candidate videos of the first video available through the server device 820 in the service 800 through the list 920, and select at least one of them (921). You can enter video selection information.

상기 사용자는 상기 지시 기능(930)을 이용하여 상기 단말(220)이 상기 영상선택정보를 상기 서버 장치(820)에 전송(S853)하도록 할 수 있고, 상기 서버 장치(820)는 이에 따라 상기 제1동영상을 상기 단말 장치(810)에 제공(S256)할 수 있다.The user can use the instruction function 930 to cause the terminal 220 to transmit the video selection information to the server device 820 (S853), and the server device 820 responds accordingly. 1 A video can be provided to the terminal device 810 (S256).

본 제2실시예에 있어서, 상기 제1동영상 제공(S256) 이후의 실시방법은 상기 제1실시예 및 그 변형에 서술하였던 내용을 동일하게 원용할 수 있다. 상기 도 6을 통하여 설명한 서비스 동작(600)의 실시예도 동일하게 원용할 수 있다. 또한, 상기 제1실시예로부터 제1동영상 내 복수의 객체에 대응하도록 응용된 실시예(201) 또한 동일한 방법으로 본 제2실시예에 결합될 수 있다.In this second embodiment, the implementation method after providing the first video (S256) can use the same contents described in the first embodiment and its modifications. The embodiment of the service operation 600 described above with reference to FIG. 6 may also be used in the same manner. Additionally, the embodiment 201 applied to correspond to a plurality of objects in the first video from the first embodiment can also be combined with the second embodiment in the same way.

제3실시예Third embodiment

이하 상기 제2실시예로부터 실시방법의 변화를 가하여 도출되는 본 발명의제2실시예에 관련하여 설명한다.Hereinafter, a description will be given regarding the second embodiment of the present invention, which is derived by changing the implementation method from the above second embodiment.

도 10은 본 발명의 제3실시예에 의한 사용자 자세 가이드 제공을 위한 서비스의 동작 개념도이다. 도 10에 도시되는 서비스 시스템(1000)은, 예를 들어, 본 발명에 의한 자세 가이드 제공에 의하여 홈 트레이닝 서비스를 제공하기 위한 것으로, 단말 장치(1010) 및 서버 장치(1020)를 포함하여 구성될 수 있다.Figure 10 is a conceptual diagram of the operation of a service for providing user posture guide according to the third embodiment of the present invention. The service system 1000 shown in FIG. 10 is for providing a home training service by providing a posture guide according to the present invention, for example, and is configured to include a terminal device 1010 and a server device 1020. You can.

도 10의 설명에 있어서, 상기 도 2와 동일한 부호를 공유하는 항목들은 상기 제1실시예의 실시예를 원용하여도 무방하다.In the description of FIG. 10, items sharing the same symbols as those of FIG. 2 may refer to the first embodiment.

본 발명의 실시방법을 한정하지 아니하는 이하 제3실시예에서는, 상기 단말 장치(1010)로부터 상기 제1동영상을 제공할 수 있다. 상기 서버 장치(1020)는 상기 서비스를 제공하기 위하여 설치된 서버이며, 상기 제1실시예의 제1동작추출부의 기능을 포함하도록 구성될 수 있다.In the third embodiment below, which does not limit the implementation method of the present invention, the first video can be provided from the terminal device 1010. The server device 1020 is a server installed to provide the service, and may be configured to include the function of the first motion extraction unit of the first embodiment.

상기 사용자에 의하여 단말 장치(1010)에서 상기 서비스를 개시하는 경우, 상기 단말 장치(1010)는 상기 서비스를 제공하는 서버 장치(1020)에 접속(S251)할 수 있다. 상기 접속(S251)에 반응하여, 상기 서버 장치(1020)는 상기 단말 장치(1010)에 인터페이스 정보를 제공(S1052)할 수 있다. 상기 인터페이스 정보의 수신(S1052)에 따라, 상기 단말 장치(1020)에는 상응하는 인터페이스(1100)가 표시될 수 있다.When the user starts the service on the terminal device 1010, the terminal device 1010 can connect to the server device 1020 providing the service (S251). In response to the connection (S251), the server device 1020 may provide interface information to the terminal device 1010 (S1052). According to reception of the interface information (S1052), the corresponding interface 1100 may be displayed on the terminal device 1020.

이하 도 11을 더 참조하여 설명한다. 도 11은 본 발명의 제3실시예에 의한 인터페이스 정보에 의하여 단말 장치에 표시될 수 있는 인터페이스의 예시도이다. 본 발명의 실시방법을 한정하지 아니하는 본 제3실시예의 설명에 있어서, 상기 인터페이스(1100)는 상기 사용자가 상기 홈 트레이닝 서비스에 활용하고자 하는 제1동영상을 직접 제공하도록 하는 목적을 가질 수 있다.Hereinafter, the description will be made with further reference to FIG. 11. Figure 11 is an example diagram of an interface that can be displayed on a terminal device based on interface information according to the third embodiment of the present invention. In the description of this third embodiment, which does not limit the implementation method of the present invention, the interface 1100 may have the purpose of allowing the user to directly provide the first video that the user wishes to use for the home training service.

상기 인터페이스(1100)는 단말 장치(305)의 디스플레이(310)를 통하여 표시될 수 있다. 상기 인터페이스(900)는 상기 단말 장치(1010)에 저장되어 있는 동영상의 목록을 제공하는 기능(1120)과, 상기 동영상 중 상기 제1동영상으로 사용하기로 결정한 적어도 하나의 동영상 정보를 포함하는 영상선택정보를 상기 서버 장치(1020)에 송신하도록 지시하는 기능(1130)을 포함할 수 있다. 상기 인터페이스는 상기 인터페이스의 목적을 나타내는 표시사항(315), 예를 들어, 상기 서비스의 명칭을 나타내는 표시사항을 더 포함할 수 있다. 단, 상기 인터페이스(1100)의 기능은 예시적인 것이며, 본 발명의 기술적 목적을 유지하는 한 상기 인터페이스(1100)의 기능은 추가되거나, 변경되거나, 또는 제거되어 구현될 수 있다.The interface 1100 may be displayed through the display 310 of the terminal device 305. The interface 900 includes a function 1120 for providing a list of videos stored in the terminal device 1010, and selecting an image including at least one video information determined to be used as the first video among the videos. It may include a function 1130 that instructs information to be transmitted to the server device 1020. The interface may further include a display item 315 indicating the purpose of the interface, for example, a display item indicating the name of the service. However, the function of the interface 1100 is illustrative, and the function of the interface 1100 may be added, changed, or removed as long as the technical purpose of the present invention is maintained.

상기 사용자는 상기 목록(1120)을 통하여 상기 서비스(1000)를 이용하기 위해 사용할 제1동영상의 후보 동영상을 탐색할 수 있으며, 그 중 적어도 하나를 선택(1121)할 수 있다. 상기 사용자는 상기 지시 기능(1130)을 이용하여 상기 단말 장치(1010)가 상기 영상선택정보를 상기 서버 장치(1120)에 전송(S1053)하도록 할 수 있으며, 상기 서버 장치(1020)는 상기 영상선택정보를 통하여 상기 제1동영상을 상기 단말 장치(1010)로부터 수신(S1053)할 수 있다. 따라서, 전술하였던 다른 실시예들과는 다르게, 본 제3실시예의 서버 장치(1020)는 상기 제1동영상을 상기 단말 장치(1010)로 제공하는 단계를 필요로 하지 않으며, 상기 수신한 제1동영상으로부터 제1동작을 추출(400)하도록 구성될 수 있다.The user can search for candidate videos of the first video to be used to use the service 1000 through the list 1120 and select at least one of them (1121). The user can use the instruction function 1130 to cause the terminal device 1010 to transmit the image selection information to the server device 1120 (S1053), and the server device 1020 selects the image. The first video can be received from the terminal device 1010 through information (S1053). Therefore, unlike other embodiments described above, the server device 1020 of this third embodiment does not require the step of providing the first video to the terminal device 1010, and the server device 1020 does not require the step of providing the first video to the terminal device 1010, and It may be configured to extract 1 action (400).

본 제3실시예에 있어서, 상기 제1동작 추출(400) 이후의 실시방법은 상기 제1실시예 및 그 변형에 서술하였던 내용을 동일하게 원용할 수 있다. 상기 도 6을 통하여 설명한 서비스 동작(600)의 실시예도 동일하게 원용할 수 있다. 또한, 상기 제1실시예로부터 제1동영상 내 복수의 객체에 대응하도록 응용된 실시예(201) 또한 동일한 방법으로 본 제3실시예에 결합될 수 있다.In this third embodiment, the implementation method after the first operation extraction 400 can use the same contents described in the first embodiment and its modifications. The embodiment of the service operation 600 described above with reference to FIG. 6 may also be used in the same manner. Additionally, the embodiment 201 applied to correspond to a plurality of objects in the first video from the first embodiment can also be combined with the third embodiment in the same way.

제4실시예Embodiment 4

이하 상기 제1실시예로부터 실시방법의 변화를 가하여 도출되는 본 발명의제4실시예에 관련하여 설명한다. 또한, 상술한 각각의 주요한 실시예로부터 추가적으로 통상의 기술자인 실시자의 재량에 의하여 응용 또는 변형될 수 있는 일부 변형된 실시예에 관련하여서도 함께 설명한다.Hereinafter, a description will be given regarding the fourth embodiment of the present invention, which is derived by changing the implementation method from the first embodiment. In addition, in addition to each of the main embodiments described above, some modified embodiments that can be applied or modified at the discretion of a person skilled in the art will also be described.

도 12는 본 발명의 제4실시예에 의한 사용자 자세 가이드 제공을 위한 서비스의 동작 개념도이다. 도 12에 도시되는 서비스 시스템(1200)은, 예를 들어, 본 발명에 의한 자세 가이드 제공에 의하여 홈 트레이닝 서비스를 제공하기 위한 것으로, 단말 장치(1210), 서버 장치(1220), 그리고 컨텐츠 공급자(1230)를 포함하여 구성될 수 있다. Figure 12 is a conceptual diagram of the operation of a service for providing user posture guide according to the fourth embodiment of the present invention. The service system 1200 shown in FIG. 12 is, for example, for providing a home training service by providing a posture guide according to the present invention, and includes a terminal device 1210, a server device 1220, and a content provider ( 1230).

도 12의 설명에 있어서, 상기 도 2와 동일한 부호를 공유하는 항목들은 상기 제1실시예의 실시예를 원용하여도 무방하다.In the description of FIG. 12, items sharing the same symbols as those of FIG. 2 may refer to the first embodiment.

본 발명의 실시방법을 한정하지 아니하는 이하 제4실시예에서는, 상술한 제1, 제2, 및 제3실시예에서 나타내는 제2동영상의 취득 및 제2동작과의 비교가 불필요한 방식으로 본 발명을 실시하는 방법이 제공된다.In the following fourth embodiment, which does not limit the implementation method of the present invention, the present invention is performed in a manner that does not require acquisition of the second moving image and comparison with the second operation shown in the first, second, and third embodiments described above. A method of carrying out is provided.

본 제4실시예에 있어서, 상기 제1동작이 추출(400)되어 상기 서버 장치(1220)로부터 상기 단말 장치(1210)로 전송(S259)되기까지의 실시방법은 상기 제1실시예 및 그 변형에 서술하였던 내용을 동일하게 원용할 수 있다.In this fourth embodiment, the implementation method until the first operation is extracted (400) and transmitted (S259) from the server device 1220 to the terminal device 1210 is the same as the first embodiment and its modification. The contents described in can be used in the same way.

즉, 상기 제4실시예에 의하여 사용자 자세 가이드를 제공하는 본 발명의 일실시방법에 따르면, 단말 장치(1210)는 상기 서비스를 제공하는 서버 장치(820)에 접속(S251)하고, 상기 접속(S251)에 반응하여 상기 서버 장치(1220)는 상기 단말 장치(1210)에 인터페이스 정보를 제공(S252)할 수 있다. 상기 인터페이스 정보의 수신(S252)에 따라, 상기 단말 장치(252)에는 상응하는 인터페이스(300)가 표시될 수 있다.That is, according to one implementation method of the present invention for providing a user posture guide according to the fourth embodiment, the terminal device 1210 connects to the server device 820 providing the service (S251), and the connection (S251) In response to S251), the server device 1220 may provide interface information to the terminal device 1210 (S252). According to reception of the interface information (S252), the corresponding interface 300 may be displayed on the terminal device 252.

상기 인터페이스(300)를 통하여서는 영상선택정보를 입력할 수 있고, 상기 영상선택정보는 상기 서버 장치(1120)로 송신(S253)되고 다시 상기 컨텐츠 공급자(1230)에게 송신(S254)될 수 있다. 상기 영상선택정보에 기반하여, 상기 컨텐츠 공급자(1230)는 상기 제1동영상을 상기 서버 장치(1230)에 제공(S255)하고, 상기 단말 장치(1210)는 상기 서버 장치(1230)로부터 상기 제1동작이 촬영된 제1동영상을 획득할 수 있다.Video selection information can be input through the interface 300, and the video selection information can be transmitted to the server device 1120 (S253) and then to the content provider 1230 (S254). Based on the video selection information, the content provider 1230 provides the first video to the server device 1230 (S255), and the terminal device 1210 receives the first video from the server device 1230. The first video in which the motion was filmed can be obtained.

상기 서버 장치(1220)는 제1동작추출부를 포함하고, 상기 제1동작추출부를 이용하여 상기 제1동영상으로부터 상기 제1동작을 추출할 수 있다. 따라서 상기 제1동작추출부는 상기 제1동영상으로부터 적어도 하나의 영상 프레임을 추출하고, 적어도 하나의 상기 영상 프레임에 기초하여 적어도 하나의 객체 관절 정보를 생성하고, 적어도 하나의 상기 영상 프레임에 기초하여 적어도 하나의 객체 골격 정보를 생성하고, 상기 적어도 하나의 객체 관절 정보와 상기 적어도 하나의 객체 골격 정보를 결합하여 적어도 하나의 객체 자세 정보를 생성하고, 상기 적어도 하나의 객체 자세 정보를 연속적으로 결합하여 제1동작을 추출하도록 구성될 수 있다.The server device 1220 includes a first motion extraction unit, and can extract the first motion from the first video using the first motion extraction unit. Accordingly, the first motion extraction unit extracts at least one image frame from the first video, generates at least one object joint information based on the at least one image frame, and generates at least one object joint information based on the at least one image frame. Generate one object skeleton information, generate at least one object posture information by combining the at least one object joint information and the at least one object skeleton information, and continuously combine the at least one object posture information to create a first It can be configured to extract 1 action.

상기 추출의 결과로, 상기 제1동작에 대한 정보는 상기 서버 장치(1220)로부터 상기 단말 장치에 제공(S259)될 수 있다. 상기 제1동영상과 상기 제1동작을 확보하였으므로, 상기 단말 장치(1210)는 이에 기반하여 서비스 동작(1260)을 수행할 수 있도록 구성될 수 있다.As a result of the extraction, information about the first operation may be provided from the server device 1220 to the terminal device (S259). Since the first video and the first operation have been secured, the terminal device 1210 can be configured to perform the service operation 1260 based on them.

본 발명의 실시방법을 한정하지 아니하는 본 제4실시예의 설명에 있어서, 상기 사용자가 상기 제1동영상에 나타나는 상기 제1동작을 성공적으로 모방하도록 돕는 상기 홈 트레이닝 서비스 동작(1260)을 구현하는 인터페이스가 구현될 수 있다. In the description of this fourth embodiment, which does not limit the implementation method of the present invention, an interface that implements the home training service operation 1260 to help the user successfully imitate the first movement appearing in the first video. can be implemented.

상기 획득된 제1동영상은 상기 사용자에게 표시될 수 있다. 또한, 본 발명의 실시예에 따라서, 상기 제1동영상은 상기 제1동작과 함께 표시될 수 있다. 상기 제1동영상은 상기 인터페이스의 상기 제1동영상 표시 기능을 통하여, 상기 제1동작은 상기 인터페이스의 상기 제1동작 표시 기능을 통하여 표시될 수 있다.The acquired first video may be displayed to the user. Additionally, according to an embodiment of the present invention, the first video may be displayed together with the first motion. The first video may be displayed through the first video display function of the interface, and the first motion may be displayed through the first motion display function of the interface.

상기 제1동작의 표시는, 상기 제1동작에 포함된 객체 자세 정보를 재현된 객체의 형태로 된 그래픽 자세가이드 요소로 변환하는 단계를 포함하는 절차에 의하여 이루어질 수 있다. 예를 들어, 상술한 일 실시예와 같이 본 발명의 객체 자세 정보가 객체 관절 정보와 객체 골격 정보로 구성되는 경우, 상기 객체 관절 정보 및 상기 객체 골격 정보가 시각화되어 자세가이드로서 사용자에게 제공될 수 있다.The display of the first motion may be accomplished by a procedure including converting object posture information included in the first motion into a graphic posture guide element in the form of a reproduced object. For example, when the object posture information of the present invention consists of object joint information and object skeleton information as in the above-described embodiment, the object joint information and object skeleton information may be visualized and provided to the user as a posture guide. there is.

또한, 상기 제1실시예로부터 제1동영상 내 복수의 객체에 대응하도록 응용된 실시예(201)는 제1실시예에서와 동일한 방법으로 본 제4실시예에 결합될 수 있다.Additionally, the embodiment 201 applied to correspond to a plurality of objects in the first video from the first embodiment can be combined with the fourth embodiment in the same way as in the first embodiment.

상술한 제4실시예에서는 사용자가 상기 제1동영상을 관찰하고 모방하는 제2동작이 촬영된 제2동영상을 요하지 않으며, 또한 상기 제1동작과 제2동작의 비교를 생략할 수 있다. 제4실시예에서의 자세가이드는 상기 제1동영상으로부터 분석된 제1동작의 형태를 가지게 된다. 따라서 상기 제4실시예에서의 자세가이드는, 상기 제1동영상에 나타나는 자세 정보를 단지 본 발명에 의한 동작추출부를 통하여 분석함으로써 운동 동작의 견본 또는 제1동작에 관련된 데이터만을 획득하고자 하는 사용자에게 유익하게 제공될 수 있는 것이다.In the above-described fourth embodiment, the second motion in which the user observes and imitates the first motion picture is not required, and comparison of the first motion and the second motion can be omitted. The posture guide in the fourth embodiment has the form of the first motion analyzed from the first video. Therefore, the posture guide in the fourth embodiment is beneficial to users who want to obtain only data related to a sample of an exercise movement or the first movement by analyzing the posture information appearing in the first video through the motion extraction unit according to the present invention. It can be provided.

단말 장치의 실시예Embodiment of terminal device

이하 본 발명의 구현에 사용되는 단말 장치의 실시예에 관련하여 설명한다.Hereinafter, an embodiment of a terminal device used to implement the present invention will be described.

도 13은 본 발명의 사용자 자세 가이드 제공을 위한 단말 장치의 블록도이다. 본 발명의 실시방법을 한정하지 아니하는 이하 실시예에 있어서, 상기 단말 장치(1300)는 영상선택정보(1315)를 입력 받는 제1입력부(1310), 상기 영상선택정보에 기반하여 제1동영상을 획득하는 영상획득부(1320), 상기 제1동영상과 연관된 제1동작을 획득하는 제1처리부(1330), 상기 제1동작을 모방하는 제2동작이 촬영된 제2동영상(1345)을 획득하는 제2입력부(1340), 상기 제2동영상과 연관된 제2동작을 획득하는 제2처리부(1350), 상기 제1동작과 상기 제2동작을 비교하여 자세가이드 정보를 생성하는 제3처리부(1360), 상기 제1동영상, 제1동작, 상기 제2동영상, 상기 제2동작, 상기 자세가이드 정보 중 적어도 하나를 표시하는 표시부(1370), 상기 각부의 동작을 제어하는 프로세서(1380), 및 상기 프로세서에 연결된 메모리(1390)를 포함할 수 있다.Figure 13 is a block diagram of a terminal device for providing a user posture guide according to the present invention. In the following embodiment, which does not limit the implementation method of the present invention, the terminal device 1300 includes a first input unit 1310 that receives image selection information 1315, and a first video based on the image selection information. An image acquisition unit 1320 that acquires, a first processing unit 1330 that acquires a first motion associated with the first video, and a second video 1345 in which a second motion imitating the first motion is captured. A second input unit 1340, a second processing unit 1350 that acquires a second motion associated with the second video, and a third processing unit 1360 that generates posture guide information by comparing the first motion and the second motion. , a display unit 1370 that displays at least one of the first video, the first motion, the second video, the second motion, and the posture guide information, a processor 1380 that controls the operation of each part, and the processor It may include a memory 1390 connected to .

상기 표시부(1370)는 실시예의 변형에 따라서는 디스플레이부(1375)에 연결되어 시각적 표시를 실행하도록 구성될 수 있다. 또한 다른 변형에 따라서는, 스피커부(1378)에 연결되어 음성적 표시를 실행하도록 구성될 수도 있다.Depending on the embodiment, the display unit 1370 may be connected to the display unit 1375 to display a visual display. Additionally, according to another modification, it may be connected to the speaker unit 1378 and configured to perform an audio display.

상기 단말 장치(1300)는 상술한 본 발명의 제1, 제2, 및 제4실시예에서 나타나는 단말 장치(210)(810)(1010)를 구현하는 장치일 수 있다. 상기 제1, 제2, 및 제4실시예의 단말 장치(210)(810)(1010)에서는 상기 단말 장치(1300)가 통신부(1335)를 더 포함할 수 있으며, 상기 통신부는 통신 네트워크를 통하여 외부의 서버(1338), 즉 상기 각 실시예에서 상응하는 서버 장치(220)(820)(1020)와 연결되어 필요한 정보를 송수신하도록 구성될 수 있다.The terminal device 1300 may be a device that implements the terminal devices 210, 810, and 1010 shown in the first, second, and fourth embodiments of the present invention described above. In the terminal devices 210, 810, and 1010 of the first, second, and fourth embodiments, the terminal device 1300 may further include a communication unit 1335, and the communication unit may communicate with the outside world through a communication network. It may be configured to connect to the server 1338, that is, the corresponding server devices 220, 820, and 1020 in each of the above embodiments to transmit and receive necessary information.

본 발명의 일부 실시예에서, 상기 통신부(1335)는 상기 영상획득부(1320), 상기 제1처리부(1330), 상기 제2처리부(1350), 상기 제3처리부(1360) 중 적어도 하나의 역할 수행을 위한 통신을 수행할 수 있다. 상기 외부 서버(1338)로부터 제1동영상을 수신하여야 하는 경우, 상기 외부 서버(1338)에서 제1동작추출부가 동작하는 경우, 상기 외부 서버(1338)에서 제2동작추출부가 동작하는 경우, 및 상기 외부 서버(1338)에서 제1동작과 제2동작의 비교가 이루어지는 경우 상기 통신부(1335)가 상응하는 각 기능부를 위한 정보 송수신을 처리하는 동작이 필요할 수 있다.In some embodiments of the present invention, the communication unit 1335 functions as at least one of the image acquisition unit 1320, the first processing unit 1330, the second processing unit 1350, and the third processing unit 1360. Communication for execution can be performed. When the first video needs to be received from the external server 1338, when the first motion extraction unit operates in the external server 1338, when the second motion extraction unit operates in the external server 1338, and When the first operation and the second operation are compared in the external server 1338, the communication unit 1335 may need to process information transmission and reception for each corresponding functional unit.

또한, 상기 단말 장치(1300)를 상술한 본 발명의 제4실시예에서 나타내는 단말 장치(1010)를 구현하는 장치로 사용하는 경우, 상술한 기능부들 중 상기 제2입력부(1340), 상기 제2처리부(1350), 상기 제3처리부(1360)는 사용되지 않을 수 있으며, 따라서 상기 제4실시예의 실시에 있어 본 발명 목적 달성에 지장이 없는 범위에서 생략될 수 있다.In addition, when the terminal device 1300 is used as a device that implements the terminal device 1010 shown in the fourth embodiment of the present invention described above, the second input unit 1340 and the second input unit 1340 among the above-described functional units. The processing unit 1350 and the third processing unit 1360 may not be used, and therefore may be omitted in the implementation of the fourth embodiment to the extent that there is no problem in achieving the purpose of the present invention.

그 밖의 변형실시 가능성Possibility of other modifications

이상 도면 및 실시예를 참조하여 설명하였지만, 본 발명의 보호범위가 상기 도면 또는 실시예에 의해 한정되는 것을 의미하지는 않으며 해당 기술 분야의 숙련된 당업자는 하기의 특허 청구의 범위에 기재된 본 발명의 사상 및 영역으로부터 벗어나지 않는 범위 내에서 본 발명을 다양하게 수정 및 변경시킬 수 있음을 이해할 수 있을 것이다. 이하 본 발명의 일부 변형된 실시예와 관련하여 예시적으로 설명하며, 본 발명의 변경 실시 가능성은 후술되는 변형된 실시예로 한정되지 아니한다.Although the description has been made with reference to the drawings and examples, this does not mean that the scope of protection of the present invention is limited by the drawings or examples, and those skilled in the art will understand the spirit and scope of the present invention as set forth in the following patent claims. It will be understood that the present invention can be modified and changed in various ways without departing from the scope of the present invention. Hereinafter, some modified embodiments of the present invention will be illustratively described, and the possibility of modified implementation of the present invention is not limited to the modified embodiments described later.

본 발명의 변형된 일 실시예에 있어서, 본 발명의 제1동영상 및 제2동영상 중 적어도 하나에서 식별되는 객체는 인체 이외의 것을 포함할 수 있다. 따라서, 제1동작을 취하는 객체와 제2동작을 취하는 객체 또한 인체에 한정되지 아니하며, 자세 분석이 가능한 형태의 어떠한 생물, 무생물, 또는 그러한 객체를 시각적으로 재현한 것을 본 발명에 의한 자세 식별 및 동작 간 비교의 대상으로 하더라도, 상술한 본 발명의 구조 및 제반 실시방법이 큰 변형 없이 동일하게 사용될 수 있음은 통상의 기술자가 쉽게 알 수 있는 사실이다.In a modified embodiment of the present invention, an object identified in at least one of the first video and the second video of the present invention may include something other than the human body. Therefore, the object taking the first action and the object taking the second action are not limited to the human body, and the posture identification and action according to the present invention includes any living thing or inanimate object in a form capable of posture analysis, or a visual representation of such an object. Even if it is the subject of comparison, it is a fact that those skilled in the art can easily see that the structure and various implementation methods of the present invention described above can be used in the same manner without major modification.

본 발명의 적용범위를 한정하지 않는 일례를 들면, 제1동영상은 컴퓨터그래픽에 의하여 시각화된 가상의 인체가 나타내는 제1동작의 영상을 포함할 수 있다. 또 다른 예를 들면, 제2동영상은 제1동작을 모방하는 관절 로봇의 제2동작을 촬영한 것일 수 있다.As an example that does not limit the scope of application of the present invention, the first video may include an image of a first motion shown by a virtual human body visualized using computer graphics. As another example, the second video may be a film of a second motion of an articulated robot that imitates the first motion.

제1동영상은 사전에 컨텐츠 공급자가 완성된 형태로 데이터를 갖고 있지 아니하고, 제2동영상과 같이 단말 장치의 촬영수단을 이용하여 실시간으로 또는 지연된 실시간으로 촬영되는 디지털 동영상 데이터를 중계하는 형태로 공급될 수 있다.The first video does not have data in a completed form in advance from the content provider, and like the second video, it will be supplied in the form of relaying digital video data that is shot in real time or in delayed real time using the shooting means of the terminal device. You can.

상술한 제3실시예에 나타낸 것과 같이 상기 사용자가 제1동영상에 해당하는 모범 영상을 직접 제공하는 경우, 상기 제1동영상은 상기 사용자에 의해 동영상 파일의 형태로 제공되거나, 또는 연속된 프레임을 나타내는 복수의 사진의 형태로 제공될 수 있다. 상기 복수의 사진은 상기 제1동영상으로 변환될 수 있으며, 필요에 따라 프레임 보간(frame interpolation)을 포함하는 변환 과정이 적용될 수 있다.As shown in the third embodiment described above, when the user directly provides an exemplary video corresponding to the first video, the first video is provided by the user in the form of a video file, or represents continuous frames. It may be provided in the form of multiple photos. The plurality of photos may be converted into the first video, and a conversion process including frame interpolation may be applied as needed.

상술한 다양한 실시예들에 있어, 제1동작추출부의 동작은 사용자의 단말 장치를 통한 실행 지시에 따라 실시간 또는 비실시간으로 이루어질 수 있다. 비실시간적으로 동작하는 경우, 상기 실시예들에 나타나는 서버 장치는 상기 제1동작추출부에 의하여 제1동작의 추출이 완료되면, 상기 제1동작을 이용한 서비스의 실행을 위하여 상기 단말 장치에 통지를 전송하여, 사용자의 상기 단말 장치 조작을 촉구하는 동작을 수행하도록 구성될 수 있다.In the various embodiments described above, the operation of the first motion extraction unit may be performed in real time or non-real time according to execution instructions through the user's terminal device. When operating in non-real time, the server device shown in the above embodiments notifies the terminal device for execution of a service using the first action when extraction of the first action is completed by the first action extraction unit. It may be configured to transmit and perform an operation that prompts the user to operate the terminal device.

제1동영상과 제2동영상은 서로 다른 배속에 의하여 비교될 수 있다. 예를 들어, 상기 사용자는 상기 제1동영상을 0.5배속으로 느리게 재생하여 모방함으로써 제2동작을 취할 수 있고, 또는 상기 제1동영상을 2배속으로 빠르게 재생하여 모방함으로써 제2동작을 취할 수도 있다.The first video and the second video can be compared by different speeds. For example, the user can take the second action by imitating the first video by playing it slowly at 0.5 times the speed, or the user can take the second action by imitating the first video by playing it quickly at 2 times the speed.

제1동영상의 표시는 일시 정지가 가능하며, 상기 일시 정지가 되는 경우 상기 제2동작의 표시가 함께 일시 정지될 수 있다. 또한, 제1동작과 제2동작의 비교 및 상기 비교 정보에 기반한 자세가이드 정보의 생성 및 표시가 함께 일시 정지될 수 있다.The display of the first video can be paused, and when the display is paused, the display of the second motion can also be paused. Additionally, the comparison between the first and second motions and the generation and display of posture guide information based on the comparison information may be paused together.

제1동영상은 사용자가 조작하는 단말 장치에 의하여 지시되기 전까지는 재생이 종료되어도 처음부터 반복적으로 다시 재생되는 루프(loop) 재생의 방식으로 표시될 수 있다. 상기 루프 재생에 의한 반복은 소정 횟수 또는 무한정일 수 있다.The first video may be displayed in a loop playback format in which the first video is repeatedly played from the beginning even after playback is terminated until instructed to do so by a terminal device operated by the user. Repetition by loop playback may be a predetermined number of times or indefinitely.

상기 제1, 제2, 및 제4실시예와 같이 단말 장치가 서버 장치로부터 제1동영상을 수신하여 활용하는 실시예의 경우, 상기 제1동영상은 전부 또는 일부가 상기 단말 장치에 캐시(cache)로 저장되어 상기 서버 장치와의 통신을 효율적으로 실행하는 데 활용될 수 있다. 마찬가지로, 상기 제1동영상으로부터 추출된 제1동작은 상기 제1동작추출부가 위치하는 단말 장치 또는 서버 장치에 상기 제1동영상에 대응하는 캐시로 저장되어 상기 제1동작추출부의 반복적 동작으로 인한 연산 자원 낭비를 억제할 수 있다.In the case of the embodiment in which the terminal device receives and uses the first video from the server device as in the first, second, and fourth embodiments, the first video is stored in whole or in part as a cache in the terminal device. It can be stored and used to efficiently communicate with the server device. Likewise, the first motion extracted from the first video is stored as a cache corresponding to the first video in the terminal device or server device where the first motion extraction unit is located, so that computational resources resulting from the repetitive operation of the first motion extraction unit are stored in the cache corresponding to the first video. Waste can be suppressed.

이상 본 발명에 대하여 도면 및 실시예를 참조하여 설명하였으나, 이미 상술한 바와 같이 본 발명의 보호범위가 상기 제시된 도면 또는 실시예에 의해 한정되는 것을 의미하지는 않으며, 해당 기술 분야의 숙련된 당업자는 하기의 특허 청구의 범위에 기재된 본 발명의 사상 및 영역으로부터 벗어나지 않는 범위 내에서 본 발명을 다양하게 수정 및 변경시킬 수 있음을 이해할 수 있을 것이다.Although the present invention has been described above with reference to the drawings and examples, as already described above, this does not mean that the scope of protection of the present invention is limited by the drawings or examples presented above, and those skilled in the art will It will be understood that various modifications and changes can be made to the present invention without departing from the spirit and scope of the present invention as set forth in the claims.

Claims (20)

단말 장치를 이용한 사용자 자세 가이드 제공 방법에 있어서,
영상선택정보를 입력하고, 상기 영상선택정보에 기반하여 제1동작이 촬영된 제1동영상을 획득하는 단계;
상기 제1동영상과 연관된 제1동작을 획득하는 단계;
상기 제1동영상을 표시하는 단계;
상기 제1동작을 모방하는 제2동작이 촬영된 제2동영상을 획득하는 단계;
상기 제1동작과 상기 제2동작을 비교하는 단계; 및
상기 비교에 기반하여 자세가이드 정보를 표시하는 단계를 포함하는, 방법.
In a method of providing a user posture guide using a terminal device,
Inputting image selection information and acquiring a first video in which a first motion is captured based on the image selection information;
Obtaining a first motion associated with the first video;
displaying the first video;
Obtaining a second video in which a second motion imitating the first motion is captured;
Comparing the first operation and the second operation; and
A method comprising displaying posture guide information based on the comparison.
제 1 항에 있어서,
상기 영상선택정보에 기반하여 상기 제1동영상을 획득하는 단계는,
서버 장치에 접속하는 단계;
상기 서버 장치로부터 인터페이스 정보를 수신하는 단계;
상기 영상선택정보를 입력하기 위한 인터페이스 정보를 표시하는 단계;
상기 인터페이스 정보에 따라서 상기 영상선택정보를 입력하여 상기 서버에 송신하는 단계; 및
상기 서버로부터 상기 영상선택정보에 대응하는 상기 제1동영상을 수신하는 단계를 포함하는 것을 특징으로 하는, 방법.
According to claim 1,
The step of acquiring the first video based on the video selection information,
Connecting to a server device;
Receiving interface information from the server device;
displaying interface information for inputting the image selection information;
inputting the video selection information according to the interface information and transmitting it to the server; and
Characterized in that it comprises the step of receiving the first video corresponding to the video selection information from the server.
제 2 항에 있어서,
상기 영상선택정보는, 상기 인터페이스 정보에 포함되어 상기 서버 장치로부터 제공된 적어도 하나의 동영상 선택지 중 하나를 선택하는 정보인 것을 특징으로 하는, 방법.
According to claim 2,
The method, characterized in that the video selection information is included in the interface information and is information for selecting one of at least one video selection provided from the server device.
제 2 항에 있어서,
상기 영상선택정보는, 상기 서버 장치가 상기 제1동영상의 컨텐츠 제공자로부터 상기 제1동영상을 획득하는 데 사용되는 적어도 하나의 정보를 포함하는 것을 특징으로 하는, 방법.
According to claim 2,
The video selection information includes at least one piece of information used by the server device to acquire the first video from a content provider of the first video.
제 4 항에 있어서,
상기 영상선택정보는,
상기 제1동영상의 상기 컨텐츠 제공자를 통신 네트워크에서 식별하는 통신정보;
상기 컨텐츠 제공자가 상기 제1동영상을 식별하는 데 사용하는 식별 정보;
상기 제1동영상을 획득하는 데 사용되는 통신 프로토콜 정보; 및
상기 컨텐츠 제공자로부터 상기 제1동영상을 획득하는 데 필요한 아이디, 비밀번호, 인증키 중 적어도 하나를 포함하는 통신 인증 정보; 중 적어도 하나를 포함하는 것을 특징으로 하는, 방법.
According to claim 4,
The video selection information is,
Communication information identifying the content provider of the first video in a communication network;
Identification information used by the content provider to identify the first video;
Communication protocol information used to obtain the first video; and
Communication authentication information including at least one of an ID, password, and authentication key required to obtain the first video from the content provider; A method comprising at least one of the following:
제 1 항에 있어서,
상기 영상선택정보에 기반하여 상기 제1동영상을 획득하는 단계는,
저장소에 저장된 적어도 하나의 영상을 선택하기 위한 인터페이스 정보를 표시하는 단계;
상기 인터페이스 정보에 따라서 상기 영상선택정보를 입력하는 단계; 및
저장소로부터 상기 영상선택정보에 대응하는 상기 제1동영상을 획득하는 단계를 포함하는 것을 특징으로 하는, 방법.
According to claim 1,
The step of acquiring the first video based on the video selection information,
Displaying interface information for selecting at least one image stored in the storage;
inputting the image selection information according to the interface information; and
Characterized in that it comprises the step of obtaining the first video corresponding to the video selection information from storage.
제 1 항에 있어서,
제1동작추출부에 의하여 상기 제1동영상으로부터 상기 제1동작을 추출하는 단계; 및
제2동작추출부에 의하여 상기 제2동영상으로부터 상기 제2동작을 추출하는 단계를 더 포함하고,
상기 제1동작 및 상기 제2동작은, 객체의 자세 변화를 시간순으로 나타내는 동작에 관련된 정보인 것을 특징으로 하는, 방법.
According to claim 1,
extracting the first motion from the first video by a first motion extraction unit; and
Further comprising extracting the second motion from the second video by a second motion extraction unit,
The method is characterized in that the first operation and the second operation are information related to an operation that indicates a change in the posture of an object in chronological order.
제 7 항에 있어서,
상기 제1동작추출부와 상기 제2동작추출부 중 적어도 하나는 자세 추출 알고리즘에 의하여 동작하고,
상기 자세 추출 알고리즘은, 동영상을 입력으로 받아 동작을 출력하고,
동영상으로부터 적어도 하나의 영상 프레임을 추출하는 단계;
적어도 하나의 상기 영상 프레임에 기초하여 적어도 하나의 객체 관절 정보를 생성하는 단계;
적어도 하나의 상기 영상 프레임에 기초하여 적어도 하나의 객체 골격 정보를 생성하는 단계;
상기 적어도 하나의 객체 관절 정보와 상기 적어도 하나의 객체 골격 정보를 결합하여 적어도 하나의 객체 자세 정보를 생성하는 단계; 및
상기 적어도 하나의 객체 자세 정보를 연속적으로 결합하여 동작을 추출하는 단계를 포함하여 동작하는, 방법.
According to claim 7,
At least one of the first motion extraction unit and the second motion extraction unit operates according to a posture extraction algorithm,
The posture extraction algorithm receives a video as input and outputs a motion,
Extracting at least one image frame from a video;
generating at least one object joint information based on at least one image frame;
generating at least one object skeleton information based on the at least one image frame;
generating at least one object posture information by combining the at least one object joint information and the at least one object skeleton information; and
A method operating including extracting a motion by continuously combining the at least one object posture information.
제 8 항에 있어서,
상기 자세 추출 알고리즘은, 상기 객체 자세 정보를 정규화하는 단계를 더 포함하여 동작하고,
상기 정규화는, 상기 객체 자세 정보의 적어도 일부에 적어도 하나의 벡터에 의하여 확대, 축소, 회전, 반전, 기울임 중 적어도 하나에 속하는 기하학적 변형을 가하여 상기 객체 자세 정보를 규격화시키는 것을 의미하는, 방법.
According to claim 8,
The pose extraction algorithm further includes normalizing the object pose information,
The normalization means standardizing the object posture information by applying a geometric transformation belonging to at least one of enlargement, reduction, rotation, inversion, and tilt by at least one vector to at least a portion of the object posture information.
제 8 항에 있어서,
상기 자세 추출 알고리즘은, 적어도 하나의 단계가 인공신경망에 의하여 동작하는 것을 특징으로 하는, 방법.
According to claim 8,
The pose extraction algorithm is characterized in that at least one step operates by an artificial neural network.
제 8 항에 있어서,
상기 제1동영상을 표시하는 단계는,
상기 제1동작에 포함된 객체 자세 정보를 재현된 객체의 형태로 된 자세가이드 그래픽 요소로 변환하는 단계; 및
상기 자세가이드 그래픽 요소를 상기 제1동영상과 함께 표시하는 단계를 포함하는, 방법.
According to claim 8,
The step of displaying the first video is,
Converting the object posture information included in the first operation into a posture guide graphic element in the form of a reproduced object; and
A method comprising displaying the posture guide graphic element together with the first video.
제 8 항에 있어서,
상기 제1동작추출부는 서버 장치에서 동작하는 것을 특징으로 하는, 방법.
According to claim 8,
A method, characterized in that the first motion extraction unit operates in a server device.
제 1 항에 있어서,
상기 제1동작과 상기 제2동작을 비교하는 단계는,
상기 제1동작에 포함된 적어도 하나의 객체 자세 정보와 상기 제2동작에 포함된 적어도 하나의 객체 자세 정보를 비교 알고리즘에 의하여 비교하여 적어도 하나의 자세 비교 정보를 획득하는 단계를 포함하고,
상기 적어도 하나의 자세 비교 정보는, 상기 제1동작을 기준으로 한 상기 제2동작의 일치 정도 및 차분 벡터 중 적어도 하나를 나타내는 정보이고,
상기 자세가이드 정보는, 상기 적어도 하나의 자세 비교 정보에 기반하여 생성되는 것을 특징으로 하는, 방법.
According to claim 1,
The step of comparing the first operation and the second operation is,
Comprising at least one object posture information included in the first operation and at least one object posture information included in the second operation using a comparison algorithm to obtain at least one posture comparison information,
The at least one posture comparison information is information representing at least one of a degree of agreement and a difference vector of the second motion based on the first motion,
The method, characterized in that the posture guide information is generated based on the at least one posture comparison information.
제 13 항에 있어서,
상기 비교 알고리즘은, 상기 제2동작에 포함된 객체 자세 정보의 적어도 일부에 적어도 하나의 벡터에 의하여 확대, 축소, 회전, 반전, 기울임 중 적어도 하나에 속하는 기하학적 변형을 가하여 상기 제2동작에 포함된 객체 자세 정보를 규격화시키는 정규화 단계를 포함하는, 방법.
According to claim 13,
The comparison algorithm applies a geometric transformation belonging to at least one of enlargement, reduction, rotation, inversion, and tilt by at least one vector to at least a portion of the object posture information included in the second operation. A method comprising a normalization step of standardizing object pose information.
제 1 항에 있어서,
상기 자세가이드 정보를 표시하는 단계는, 상기 자세가이드 정보를 시각화 하여 상기 제1동영상과 상기 제2동영상 중 적어도 하나에 오버레이(overlay)하여 상기 단말 장치의 디스플레이부를 통해 표시하는 단계를 포함하는, 방법.
According to claim 1,
The displaying of the posture guide information includes visualizing the posture guide information, overlaying it on at least one of the first video and the second video, and displaying the posture guide information through a display unit of the terminal device. .
제 1 항에 있어서,
상기 자세가이드 정보는, 상기 자세가이드 정보를 음성화 하여 상기 단말 장치의 스피커부를 통해 표시하는 단계를 포함하는, 방법.
According to claim 1,
The method includes the step of converting the posture guide information into audio and displaying the posture guide information through a speaker unit of the terminal device.
제 1 항에 있어서,
상기 제1동영상에는, 복수의 제1동작이 촬영되어 있고,
상기 제1동영상에서 동작이 나타나는 시간을 구분하는 정보 및 상기 제1동영상에서 동작을 취한 객체를 구분하는 정보를 포함하는 적어도 하나의 동작구분정보를 선택하는 단계를 더 포함하고,
상기 제1동영상과 연관된 제1동작을 획득하는 단계는, 상기 제1동영상과 연관된 복수의 제1동작 가운데 상기 동작구분정보에 기반하여 식별되는 제1동작만을 획득하는 것을 특징으로 하는, 방법.
According to claim 1,
In the first video, a plurality of first movements are filmed,
Further comprising the step of selecting at least one motion classification information including information distinguishing a time when a motion appears in the first video and information distinguishing an object that took a motion in the first video,
The step of acquiring the first motion associated with the first video is characterized in that acquiring only the first motion identified based on the motion classification information among the plurality of first motions associated with the first video.
단말 장치를 이용한 사용자 자세 가이드 제공 방법에 있어서,
영상선택정보를 입력하고, 상기 영상선택정보에 기반하여 제1동작이 촬영된 제1동영상을 획득하는 단계;
상기 제1동영상으로부터 적어도 하나의 영상 프레임을 추출하는 단계;
적어도 하나의 상기 영상 프레임에 기초하여 적어도 하나의 객체 관절 정보를 생성하는 단계;
적어도 하나의 상기 영상 프레임에 기초하여 적어도 하나의 객체 골격 정보를 생성하는 단계;
상기 적어도 하나의 객체 관절 정보와 상기 적어도 하나의 객체 골격 정보를 결합하여 적어도 하나의 객체 자세 정보를 생성하는 단계;
상기 적어도 하나의 객체 자세 정보를 연속적으로 결합하여 제1동작을 추출하는 단계;
상기 제1동작에 포함된 객체 자세 정보를 재현된 객체의 형태로 된 자세가이드 그래픽 요소로 변환하는 단계; 및
상기 자세가이드 그래픽 요소를 상기 제1동영상과 함께 표시하는 단계를 포함하는, 방법.
In a method of providing a user posture guide using a terminal device,
Inputting image selection information and acquiring a first video in which a first motion is captured based on the image selection information;
extracting at least one video frame from the first video;
generating at least one object joint information based on at least one image frame;
generating at least one object skeleton information based on the at least one image frame;
generating at least one object posture information by combining the at least one object joint information and the at least one object skeleton information;
extracting a first motion by continuously combining the at least one object posture information;
Converting the object posture information included in the first operation into a posture guide graphic element in the form of a reproduced object; and
A method comprising displaying the posture guide graphic element together with the first video.
서버 장치를 이용한 사용자 자세 가이드 제공 방법에 있어서,
단말 장치로부터 제1동영상에 대한 영상선택정보를 수신하는 단계;
상기 영상선택정보에 기반하여 컨텐츠 제공자에게 상기 제1동영상을 요청하는 단계;
상기 컨텐츠 제공자로부터 상기 제1 동영상을 획득하는 단계;
자세 추출 알고리즘에 의하여 상기 제1동영상과 연관된 제1동작을 획득하는 단계; 및
상기 제1동영상과 상기 제1동작을 상기 단말 장치로 송신하는 단계를 포함하는, 방법.
In a method of providing a user posture guide using a server device,
Receiving video selection information about a first video from a terminal device;
requesting the first video from a content provider based on the video selection information;
Obtaining the first video from the content provider;
Obtaining a first motion associated with the first video using a posture extraction algorithm; and
A method comprising transmitting the first video and the first motion to the terminal device.
사용자 자세 가이드를 제공하는 단말 장치에 있어서,
영상선택정보를 입력 받는 제1입력부;
상기 영상선택정보에 기반하여 제1동영상을 획득하는 영상획득부,
상기 제1동영상과 연관된 제1동작을 획득하는 제1처리부;
상기 제1동작을 모방하는 제2동작이 촬영된 제2동영상을 획득하는 제2입력부;
상기 제2동영상과 연관된 제2동작을 획득하는 제2처리부;
상기 제1동작과 상기 제2동작을 비교하여 자세가이드 정보를 생성하는 제3처리부;
상기 제1동영상, 제1동작, 상기 제2동영상, 상기 제2동작, 상기 자세가이드 정보 중 적어도 하나를 표시하는 표시부;
상기 각부의 동작을 제어하는 프로세서; 및
상기 프로세서에 연결된 메모리를 포함하는, 장치.

In a terminal device that provides a user posture guide,
A first input unit that receives image selection information;
An image acquisition unit that acquires a first video based on the image selection information,
a first processing unit that acquires a first motion associated with the first video;
a second input unit that acquires a second video in which a second motion imitating the first motion is captured;
a second processing unit that acquires a second motion associated with the second video;
a third processing unit that compares the first motion and the second motion to generate posture guide information;
a display unit that displays at least one of the first video, the first motion, the second video, the second motion, and the posture guide information;
A processor that controls the operation of each part; and
A device comprising memory coupled to the processor.

KR1020220137680A 2022-08-03 2022-10-24 Method and system for body pose guiding based on video contents selected by user KR20240018998A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
US17/973,532 US20240046500A1 (en) 2022-08-03 2022-10-25 Method and system for body pose guiding based on video contents selected by user

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
KR1020220096434 2022-08-03
KR20220096434 2022-08-03
KR20220131639 2022-10-13
KR1020220131639 2022-10-13

Publications (1)

Publication Number Publication Date
KR20240018998A true KR20240018998A (en) 2024-02-14

Family

ID=89896834

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020220137680A KR20240018998A (en) 2022-08-03 2022-10-24 Method and system for body pose guiding based on video contents selected by user

Country Status (1)

Country Link
KR (1) KR20240018998A (en)

Similar Documents

Publication Publication Date Title
KR20150008345A (en) Online dance training system
CN113850248B (en) Motion attitude evaluation method and device, edge calculation server and storage medium
WO2021098616A1 (en) Motion posture recognition method, motion posture recognition apparatus, terminal device and medium
Zou et al. Intelligent fitness trainer system based on human pose estimation
JP6647584B1 (en) Information processing device and program
US11954869B2 (en) Motion recognition-based interaction method and recording medium
KR102258128B1 (en) User motion analysis method for dance training using ai-based image recognition
JP6807744B2 (en) Image display method and equipment
Li et al. Action recognition based on multimode fusion for VR online platform
Shao et al. Edge4real: A cost-effective edge computing based human behaviour recognition system for human-centric software engineering
CN113784059A (en) Video generation and splicing method, equipment and storage medium for clothing production
CN113743237A (en) Follow-up action accuracy determination method and device, electronic device and storage medium
CN112633261A (en) Image detection method, device, equipment and storage medium
JP2021077218A (en) Information processing device, information processing method, and information processing program
KR20240018998A (en) Method and system for body pose guiding based on video contents selected by user
US20240046500A1 (en) Method and system for body pose guiding based on video contents selected by user
Adolf et al. Automatic telerehabilitation system in a home environment using computer vision
CN112257642B (en) Human body continuous motion similarity evaluation method and evaluation device
CN114241595A (en) Data processing method and device, electronic equipment and computer storage medium
Sun Research on dance motion capture technology for visualization requirements
KR101937040B1 (en) Online method of estimating a user's quantity of motion
KR102566378B1 (en) Method, computing device and computer program for providing home-training guide based on video analysis through artificial intelligence
CN113033242A (en) Action recognition method and system
CN114356100B (en) Body-building action guiding method, body-building action guiding device, electronic equipment and storage medium
Aiman et al. Workout Mentor: Improving posture in real-time using computer vision