KR20110126013A - Authoring method for synchronizing motion with moving image, and recording medium of its implementing program - Google Patents

Authoring method for synchronizing motion with moving image, and recording medium of its implementing program Download PDF

Info

Publication number
KR20110126013A
KR20110126013A KR1020100045694A KR20100045694A KR20110126013A KR 20110126013 A KR20110126013 A KR 20110126013A KR 1020100045694 A KR1020100045694 A KR 1020100045694A KR 20100045694 A KR20100045694 A KR 20100045694A KR 20110126013 A KR20110126013 A KR 20110126013A
Authority
KR
South Korea
Prior art keywords
motion
video
user
synchronizing
motions
Prior art date
Application number
KR1020100045694A
Other languages
Korean (ko)
Inventor
윤한경
송복희
최군호
Original Assignee
주식회사 럭샐
윤한경
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 럭샐, 윤한경 filed Critical 주식회사 럭샐
Priority to KR1020100045694A priority Critical patent/KR20110126013A/en
Publication of KR20110126013A publication Critical patent/KR20110126013A/en

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/80Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
    • H04N21/85Assembly of content; Generation of multimedia applications
    • H04N21/854Content authoring
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/4302Content synchronisation processes, e.g. decoder synchronisation
    • H04N21/4307Synchronising the rendering of multiple content streams or additional data on devices, e.g. synchronisation of audio on a mobile phone with the video output on the TV screen
    • H04N21/43074Synchronising the rendering of multiple content streams or additional data on devices, e.g. synchronisation of audio on a mobile phone with the video output on the TV screen of additional data with content streams on the same device, e.g. of EPG data or interactive icon with a TV program
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20092Interactive image processing based on input by user

Abstract

PURPOSE: An authoring method for synchronizing a motion with a moving image is provided to determine each frame of a moving picture and inserts a motion to the frame. CONSTITUTION: An authoring method for synchronizing a motion with a moving image comprises steps of: storing information about a system type of each motion(S200); receiving the system type input from a user(S300); receiving a moving picture for performing a synchronization(S400); receiving an input of a moving picture sync location(S700); creating a motion information file(S900); and converting the motion information file into a command signal(S1000).

Description

동영상과 모션의 동기화를 위한 저작 방법 및 그 방법을 구현하는 프로그램을 기록한 기록매체{AUTHORING METHOD FOR SYNCHRONIZING MOTION WITH MOVING IMAGE, AND RECORDING MEDIUM OF ITS IMPLEMENTING PROGRAM}A recording method recording an authoring method for synchronizing motion pictures with motion and a program for implementing the method {AUTHORING METHOD FOR SYNCHRONIZING MOTION WITH MOVING IMAGE

본 발명은 동영상과 모션의 동기화를 위한 저작 방법 및 그 방법을 구현하는 프로그램을 기록한 기록매체에 관한 것으로서, 특히, 동영상에 자동으로 모션을 동기화시킴으로써, 로봇이나 의자 등이 동영상에 따라 움직일 수 있도록 하는 명령 신호를 용이하게 생성할 수 있는 동영상과 모션의 동기화를 위한 저작 방법 및 그 방법을 구현하는 프로그램을 기록한 기록매체에 관한 것이다.The present invention relates to an authoring method for synchronizing motion with motion pictures and a recording medium recording a program for implementing the method. In particular, by automatically synchronizing motion with motion pictures, a robot or a chair can move according to motion pictures. The present invention relates to an authoring method for synchronizing motion pictures and motions that can easily generate a command signal, and a recording medium recording a program for implementing the method.

최근에는 극장가에서 3D 영화뿐만 아니라 4D 영화가 사람들의 많은 관심을 받고 있다. 단순히 평면 디스플레이에 표현되는 2차원적인 동영상에서 벗어나, 영화를 관람하는 사람들이 입체 안경을 착용함으로써 공간적 입체감을 느낄 수 있도록 하는 것이 3D 영화라면, 4D 영화는 공간적 입체감뿐만 아니라 진동, 또는 물이나 바람의 촉감도 느낄 수 있도록 하는 것이다. 이를 구현하기 위하여 영화에서의 인물이나 물체의 모션을 분석하고 모션에 대응되는 각각의 명령어를 생성하여 영화에 동기화시키는 작업이 필요하다. 각각의 명령어는 극장에 설치된 의자를 진동시키거나, 또는 물이나 공기를 분사하기 위한 것이다.
Recently, 4D movies as well as 3D movies have attracted much attention from theatres. If it is a 3D movie that simply moves away from the two-dimensional video that is displayed on a flat panel display, and allows viewers to feel the spatial three-dimensional effect by wearing three-dimensional glasses, the 4D movie is not only a spatial three-dimensional but also vibration or water or wind. It also makes you feel tactile. In order to implement this, it is necessary to analyze the motion of a person or an object in a movie, generate a command corresponding to the motion, and synchronize the motion with the movie. Each command is intended to vibrate a chair installed in a theater or to spray water or air.

또한 최근에는 로봇을 제어하는 기술이 빠른 속도로 발전함에 따라, 다양한 동작을 구사할 수 있는 로봇을 이용하여 특정 동영상에 맞추어 로봇을 움직이는 기술이 꾸준히 개발되고 있으며, 이러한 기술은 산업계를 포함하는 넓은 분야에서 다양하게 응용되고 있다. 물론, 이 기술 또한 동영상과 모션의 동기화 작업이 필수적이다.
In recent years, as the technology for controlling robots has been rapidly developed, technologies for moving robots in accordance with specific videos using robots capable of using various motions have been steadily developed, and these technologies have been developed in a wide range of fields including industries. It is applied in various ways. Of course, this technology also requires synchronization of motion and video.

종래에는, 동영상을 재생하는 프로그램을 사용하여 특정 모션이 재생되는 시간을 추출하고, 특정 모션에 해당하는 명령어를 해당 시간에 맞추어 입력함으로써 동영상과 모션을 동기화시키는 방식을 사용하였다. 그러나 이러한 방식은 특정 모션이 재생되는 시간을 별도로 추출하여야 하는 단순 시간 동기화 방법이기 때문에 작업이 불편하며, 작업 시간이 오래 걸린다는 문제점이 있다.Conventionally, a method of synchronizing a motion with a video by extracting a time when a specific motion is played using a program for playing a video and inputting a command corresponding to the specific motion at a corresponding time. However, this method is inconvenient because it is a simple time synchronization method of extracting the time when a specific motion is reproduced, and there is a problem that the work takes a long time.

본 발명은 기존에 제안된 방법들의 상기와 같은 문제점들을 해결하기 위해 제안된 것으로서, 기존의 동영상 편집기와 같은 동영상 편집 형태의 프로그램에서 모션을 동기화시키고자 하는 동영상을 로드한 후, 사용자가 다양한 종류의 모션을 선택할 수 있도록 모션 목록을 제공함으로써, 사용자는 동영상의 각 프레임을 지정하여 원하는 모션을 단순 클릭만으로 삽입하여 동기화시킬 수 있으므로 작업이 매우 용이한 동영상과 모션의 동기화를 위한 저작 방법 및 그 방법을 구현하는 프로그램을 기록한 기록매체를 제공하는 것을 그 목적으로 한다.
The present invention has been proposed to solve the above problems of the conventionally proposed methods, and after loading a video to synchronize motion in a video editing program such as a conventional video editor, By providing a motion list to select motions, users can specify each frame of the video and insert and synchronize the desired motions with a simple click. It is an object of the present invention to provide a recording medium recording a program to be implemented.

또한, 본 발명은, 자막을 처리하는 파일 형식과 유사한 방법을 사용하여, 동영상과 모션을 동기화한 작업의 결과물을 별도의 모션 정보 파일로 저장함으로써, 모션 정보 파일을 특정 명령어로 전환하여 실제 시스템을 구동 또는 제어하기 위한 신호를 생성할 수 있으므로, 하나의 모션 정보 파일이라도 전환 작업을 통해 다양한 시스템에 활용될 수 있고, 동기화한 작업의 결과를 용이하게 데이터베이스화할 수 있는 동영상과 모션의 동기화를 위한 저작 방법 및 그 방법을 구현하는 프로그램을 기록한 기록매체를 제공하는 것을 또 다른 목적으로 한다.In addition, the present invention, by using a method similar to the file format for processing subtitles, by storing the output of the video and motion synchronization work in a separate motion information file, by converting the motion information file to a specific command to the actual system Since a signal for driving or controlling can be generated, even a single motion information file can be utilized in various systems through a conversion operation, and a work for synchronizing a motion with a video that can easily database a result of a synchronized operation. Another object is to provide a recording medium recording a method and a program for implementing the method.

상기한 목적을 달성하기 위한 본 발명의 특징에 따른, 동영상과 모션의 동기화를 위한 저작 방법은,According to a feature of the present invention for achieving the above object, authoring method for synchronization of video and motion,

(1) 복수 개의 모션을 저장하는 단계;(1) storing a plurality of motions;

(2) 모션을 동기화시키기 위한 동영상을 입력받아 재생하는 단계;(2) receiving and playing a video for synchronizing motion;

(3) 사용자가 상기 복수 개의 모션 중 특정 모션을 선택할 수 있도록 사용자에게 모션 목록을 표시하는 단계;(3) displaying a motion list to the user so that the user can select a specific motion among the plurality of motions;

(4) 상기 모션 목록 중에서 사용자가 선택한 특정 모션을 입력받는 단계;(4) receiving a specific motion selected by a user from the motion list;

(5) 상기 입력받은 특정 모션을 상기 동영상에 동기화시키기 위한 상기 동영상의 싱크 위치를 입력받는 단계;(5) receiving a sync position of the video to synchronize the received specific motion to the video;

(6) 상기 싱크 위치에 상기 입력받은 특정 모션을 동기화시키는 단계; 및(6) synchronizing the received specific motion to the sink position; And

(7) 상기 단계 (4)와 단계 (6)을 반복하여 상기 동영상에 적어도 하나 이상의 모션을 동기화시킨 후, 상기 모션이 동기화된 싱크 위치, 상기 모션의 종류를 포함하는 모션 정보 파일을 생성하는 단계를 포함하는 것을 그 구성상의 특징으로 한다.
(7) repeating steps (4) and (6) to synchronize at least one or more motions to the video, and then generating a motion information file including the sync position and the type of motion to which the motions are synchronized; It characterized by including the configuration.

바람직하게는, 상기 단계 (3)에서는,Preferably, in the step (3)

각각의 모션에 해당하는 동작 그림이 도시된 아이콘들을 나열하는 방식으로 사용자에게 상기 모션 목록을 표시할 수 있다.
The motion list may be displayed to the user in a manner of arranging icons showing motion pictures corresponding to each motion.

바람직하게는,Preferably,

각각의 모션에 대해 구동이 가능한 시스템 타입에 대한 정보를 저장하는 단계; 및Storing information about a system type that can be driven for each motion; And

사용자로부터 구동 또는 제어하고자 하는 시스템 타입을 입력받는 단계를 더 포함하며,The method may further include receiving a system type to be driven or controlled by the user.

상기 단계 (3)에서는, 상기 입력받은 시스템 타입에 따라 구동이 가능한 모션들만의 목록을 사용자에게 표시할 수 있다.
In step (3), a list of only motions that can be driven according to the input system type may be displayed to the user.

바람직하게는,Preferably,

상기 시스템 타입을 토대로 특정 인터페이스를 이용하여, 상기 모션 정보 파일을 상기 여러 종류의 다른 시스템의 구동 또는 제어에 직접 적용될 수 있는 명령 신호로 전환하는 단계를 더 포함할 수 있다.
The method may further include converting the motion information file into a command signal that may be directly applied to driving or controlling the various types of other systems using a specific interface based on the system type.

상기한 목적을 달성하기 위하여, 본 발명은, 동영상과 모션의 동기화를 위한 저작 방법을 구현하는 프로그램을 기록한 기록매체를 제공할 수 있다.In order to achieve the above object, the present invention can provide a recording medium recording a program for implementing the authoring method for synchronization of motion pictures and motion.

본 발명에서 제안하고 있는 동영상과 모션의 동기화를 위한 저작 방법 및 그 방법을 구현하는 프로그램을 기록한 기록매체에 따르면, 기존의 동영상 편집기와 같은 동영상 편집 형태의 프로그램에서 모션을 동기화시키고자 하는 동영상을 로드한 후, 사용자가 다양한 종류의 모션을 선택할 수 있도록 모션 목록을 제공함으로써, 사용자는 동영상의 각 프레임을 지정하여 원하는 모션을 단순 클릭만으로 삽입하여 동기화시킬 수 있으므로 작업이 매우 용이하다.
According to the recording medium which records the authoring method for synchronizing motion with motion picture proposed in the present invention, and a program for implementing the method, a motion picture motion synchronization program is loaded in a video editing program such as a conventional video editor. Then, by providing a motion list so that the user can select various kinds of motions, the user can designate each frame of the video to insert and synchronize a desired motion with a simple click, thereby making the operation very easy.

또한, 본 발명에 따른 동영상과 모션의 동기화를 위한 저작 방법 및 그 방법을 구현하는 프로그램을 기록한 기록매체는, 자막을 처리하는 파일 형식과 유사한 방법을 사용하여, 동영상과 모션을 동기화한 작업의 결과물을 별도의 모션 정보 파일로 저장함으로써, 모션 정보 파일을 특정 명령어로 전환하여 실제 시스템을 구동 또는 제어하기 위한 신호를 생성할 수 있으므로, 하나의 모션 정보 파일이라도 전환 작업을 통해 다양한 시스템에 활용될 수 있고, 동기화한 작업의 결과를 용이하게 데이터베이스화할 수 있다.In addition, the recording medium recording the authoring method and the program for implementing the method for synchronizing the motion picture and motion according to the present invention, the result of the work of synchronizing the motion picture and motion using a method similar to the file format processing subtitles Is saved as a separate motion information file, the signal can be generated to drive or control the actual system by converting the motion information file into a specific command, so even one motion information file can be utilized in various systems through the conversion operation. The result of the synchronized work can be easily databased.

도 1은 본 발명의 일 실시예에 따른 동영상과 모션의 동기화를 위한 저작 방법의 순서도.
도 2는 본 발명의 일 실시예에 따른 동영상과 모션의 동기화를 위한 저작 방법에서 사용자로부터 시스템 타입을 입력받는 화면을 나타내는 도면.
도 3은 본 발명의 일 실시예에 따른 동영상과 모션의 동기화를 위한 저작 방법에서 모션 목록을 표시한 화면을 나타낸 도면.
도 4는 본 발명의 일 실시예에 따른 동영상과 모션의 동기화를 위한 저작 방법에서 모션 목록을 표시한 화면을 나타낸 도면.
도 5는 본 발명의 일 실시예에 따른 동영상과 모션의 동기화를 위한 저작 방법의 모션 정보 파일에 저장된 내용을 나타낸 도면.
1 is a flow chart of an authoring method for synchronizing motion with video according to an embodiment of the present invention.
2 is a diagram illustrating a screen for receiving a system type from a user in an authoring method for synchronizing a video with a motion according to an embodiment of the present invention.
3 is a diagram illustrating a screen displaying a motion list in an authoring method for synchronizing a video and a motion according to an embodiment of the present invention;
4 is a diagram illustrating a screen displaying a motion list in an authoring method for synchronizing a video and a motion according to an embodiment of the present invention.
FIG. 5 is a view showing contents stored in a motion information file of an authoring method for synchronizing motion with a video according to an embodiment of the present invention; FIG.

이하에서는 첨부된 도면을 참조하여 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자가 본 발명을 용이하게 실시할 수 있도록 바람직한 실시예를 상세히 설명한다. 다만, 본 발명의 바람직한 실시예를 상세하게 설명함에 있어, 관련된 공지 기능 또는 구성에 대한 구체적인 설명이 본 발명의 요지를 불필요하게 흐릴 수 있다고 판단되는 경우에는 그 상세한 설명을 생략한다. 또한, 유사한 기능 및 작용을 하는 부분에 대해서는 도면 전체에 걸쳐 동일 또는 유사한 부호를 사용한다.
Hereinafter, preferred embodiments of the present invention will be described in detail with reference to the accompanying drawings so that those skilled in the art can easily carry out the present invention. However, in describing the preferred embodiment of the present invention in detail, if it is determined that the detailed description of the related known function or configuration may unnecessarily obscure the subject matter of the present invention, the detailed description thereof will be omitted. The same or similar reference numerals are used throughout the drawings for portions having similar functions and functions.

덧붙여, 명세서 전체에서, 어떤 부분이 다른 부분과 ‘연결’되어 있다고 할 때, 이는 ‘직접적으로 연결’되어 있는 경우뿐만 아니라, 그 중간에 다른 소자를 사이에 두고 ‘간접적으로 연결’되어 있는 경우도 포함한다. 또한, 어떤 구성요소를 ‘포함’한다는 것은, 특별히 반대되는 기재가 없는 한 다른 구성요소를 제외하는 것이 아니라 다른 구성요소를 더 포함할 수 있다는 것을 의미한다.
In addition, throughout the specification, when a part is 'connected' to another part, it is not only 'directly connected' but also 'indirectly connected' with another element in between. Include. In addition, the term 'comprising' of an element means that the element may further include other elements, not to exclude other elements unless specifically stated otherwise.

도 1은 본 발명의 일 실시예에 따른 동영상과 모션의 동기화를 위한 저작 방법의 순서도이다. 도 1에 도시된 바와 같이, 본 발명의 일 실시예에 따른 동영상과 모션의 동기화를 위한 저작 방법은, 복수 개의 모션을 저장하는 단계(S100), 각각의 모션에 대해 구동이 가능한 시스템 타입에 대한 정보를 저장하는 단계(S200), 사용자로부터 구동 또는 제어하고자 하는 시스템 타입을 입력받는 단계(S300), 모션을 동기화시키기 위한 동영상을 입력받아 재생하는 단계(S400), 사용자가 복수 개의 모션 중 특정 모션을 선택할 수 있도록 사용자에게 모션 목록을 표시하는 단계(S500), 모션 목록 중에서 사용자가 선택한 특정 모션을 입력받는 단계(S600), 입력받은 특정 모션을 동영상에 동기화시키기 위한 동영상의 싱크 위치를 입력받는 단계(S700), 싱크 위치에 입력받은 특정 모션을 동기화시키는 단계(S800), 단계 S600 내지 단계 S800을 반복하여 동영상에 적어도 하나 이상의 모션을 동기화시킨 후, 모션이 동기화된 싱크 위치, 모션의 종류를 포함하는 모션 정보 파일을 생성하는 단계(S900), 및 시스템 타입을 토대로 특정 인터페이스를 이용하여, 모션 정보 파일을 여러 종류의 다른 시스템의 구동 또는 제어에 직접 적용될 수 있는 명령 신호로 전환하는 단계(S1000)를 포함하여 구성될 수 있다.
1 is a flowchart of an authoring method for synchronizing a video with a motion according to an embodiment of the present invention. As shown in FIG. 1, the authoring method for synchronizing motion with a video according to an embodiment of the present invention includes storing a plurality of motions (S100), for a system type that can be driven for each motion. Storing information (S200), receiving a system type to be driven or controlled by the user (S300), receiving and playing a video for synchronizing motions (S400), and a user selecting a specific motion among a plurality of motions. Displaying a motion list to the user to select a step (S500), receiving a specific motion selected by the user from the motion list (S600), and receiving a sink position of the video to synchronize the received specific motion to the video. (S700), the step of synchronizing a specific motion received at the sink position (S800), repeating steps S600 to S800 at least one in the video After synchronizing the above motions, generating a motion information file including the synchronized sync position, the type of motion (S900), and using a specific interface based on the system type, the motion information file is divided into various And switching to a command signal that can be directly applied to driving or controlling the system (S1000).

단계 S100에서는, 복수 개의 모션을 저장한다. 모션은 의자의 경우 진동, 좌로 경사, 앞으로 경사, 상하운동 등을 포함하며, 제어 가능한 사지가 부착된 로봇의 경우 왼팔 들기, 무릎 굽히기, 앞으로 걷기, 왼발로 균형 잡기 등을 포함한다. 물론 언급한 모션 외에도 사용자의 오감 자극 등을 포함한 어떠한 종류의 모션도 저장할 수 있다.
In step S100, a plurality of motions are stored. Motion includes chair vibration, tilt left, forward tilt, and up and down movement, and for robots with controllable limbs, lifting the left arm, bending the knee, walking forward, and balancing with the left foot. Of course, in addition to the motion mentioned, any type of motion can be stored, including the user's five senses.

단계 S200에서는, 각각의 모션에 대해 구동이 가능한 시스템 타입에 대한 정보를 저장한다. 일 실시예로 왼팔 들기의 경우, 의자에서는 구동될 수 없고 제어 가능한 팔이 부착된 로봇에서만 구동이 가능하다. 따라서 왼팔 들기에는 제어 가능한 팔이 부착된 로봇에 대한 정보를 저장할 수 있다. 물론 하나의 모션에 하나의 시스템 타입이 대응되는 것은 아니다. 일 실시예로 진동의 경우, 의자와 로봇에서 모두 구동될 수 있으므로 진동에는 의자 및 로봇에 대한 정보를 모두 저장할 수 있다.
In step S200, information about a system type that can be driven for each motion is stored. In one embodiment, in the case of lifting the left arm, it cannot be driven in a chair but only in a robot with a controllable arm. Thus, lifting the left arm can store information about a robot with controllable arms. Of course, one system type does not correspond to one motion. In one embodiment, in the case of vibration, since both the chair and the robot can be driven, the vibration can store both information about the chair and the robot.

단계 S300에서는, 사용자로부터 구동 또는 제어하고자 하는 시스템 타입을 입력받는다. 단계 S300에 대하여, 도 2를 참조하여 상세히 설명하도록 한다.
In step S300, a system type to be driven or controlled is received from a user. The step S300 will be described in detail with reference to FIG. 2.

도 2는 본 발명의 일 실시예에 따른 동영상과 모션의 동기화를 위한 저작 방법에서 사용자로부터 시스템 타입을 입력받는 화면을 나타내는 도면이다. 도 2에 도시된 바와 같이, 사용자는 의자, 로봇 또는 다른 시스템 타입을 입력할 수 있다. 사용자가 직접 시스템 타입을 문자로 입력하는 경우 시스템 타입의 분류 인식에 문제가 생길 수 있으므로, 시스템 타입별 버튼을 사용자에게 제공함으로써 사용자가 특정한 시스템 타입을 선택할 수 있도록 할 수 있다. 이때 사용자가 입력한 시스템 타입에 따라서, 적용 가능한 모션 목록이 자동으로 갱신될 수 있다.
2 is a diagram illustrating a screen for receiving a system type from a user in an authoring method for synchronizing a video with a motion according to an embodiment of the present invention. As shown in FIG. 2, a user may enter a chair, robot or other system type. If the user directly inputs the system type as a character, it may cause a problem in recognizing the classification of the system type. Thus, by providing a button for each system type, the user may select a specific system type. At this time, the applicable motion list may be automatically updated according to the system type input by the user.

단계 S400에서는, 모션을 동기화시키기 위한 동영상을 입력받아 재생한다. 입력받는 동영상은 확장자, 재생 시간 및 파일 크기를 제한하지 않으며, 영상 정보가 담겨 있으면 재생이 가능하다. 이때 사용자가 동영상에서의 움직임을 인식할 수 있을 정도의 크기로 동영상을 재생할 수 있다.
In step S400, a video for synchronizing motion is received and played. The input video does not limit the extension, playback time and file size, and can be played if it contains video information. At this time, the user can play the video in a size large enough to recognize the movement in the video.

단계 S500에서는, 사용자가 복수 개의 모션 중 특정 모션을 선택할 수 있도록 사용자에게 모션 목록을 표시한다. 이때 단계 S300에서 사용자가 입력한 시스템 타입에 따라 적용 가능한 모션 목록이 자동으로 갱신될 수 있다. 단계 S500에 대하여, 도 3과 도 4를 참조하여 상세히 설명하도록 한다.
In operation S500, the motion list is displayed to the user so that the user can select a specific motion from among the plurality of motions. In this case, the applicable motion list may be automatically updated according to the system type input by the user in step S300. The step S500 will be described in detail with reference to FIGS. 3 and 4.

도 3과 도 4는 본 발명의 일 실시예에 따른 동영상과 모션의 동기화를 위한 저작 방법에서 모션 목록을 표시한 화면을 나타낸 도면이다. 도 3에 도시된 바와 같이, 사용자가 시스템 타입으로 로봇을 선택한 경우, 모션 목록은 왼팔 앞으로 들기, 오른팔 앞으로 들기, 왼발 앞으로 들기, 오른발 앞으로 들기, 머리 흔들기, 10초 진동과 같은 다양한 종류의 모션을 포함한다. 이때 사용자의 편의성을 위하여 팔, 다리, 머리와 같은 구동 모듈별로 각 모션을 구분하여 표시할 수 있다. 따라서 사용자는 동영상을 확인하면서 동기화하고자 하는 특정 모션을 용이하게 선택할 수 있다.
3 and 4 are views illustrating a screen displaying a motion list in an authoring method for synchronizing motion with a video according to an embodiment of the present invention. As shown in FIG. 3, when the user selects the robot as the system type, the motion list includes various types of motions such as lifting the left arm forward, lifting the right arm forward, lifting the left foot forward, lifting the right foot, shaking the head, and vibration for 10 seconds. Include. In this case, for each user's convenience, each motion module such as an arm, a leg, and a head may be classified and displayed. Therefore, the user can easily select a specific motion to synchronize while checking the video.

또는 도 4에 도시된 바와 같이, 본 발명의 일 실시예에 따른 동영상과 모션의 동기화를 위한 저작 방법은, 각각의 모션에 해당하는 동작 그림이 도시된 아이콘들을 나열하는 방식으로 사용자에게 모션 목록을 표시할 수 있다. 팔, 발과 같은 문자의 유사성으로 인해 사용자가 모션을 혼동하여 선택할 우려를 방지하고, 모션에 의해 구동되는 동작을 사용자가 신속하게 이해할 수 있도록 그림 형태로 각 모션을 표현할 수 있다. 이때 사용자가 자주 사용하는 모션에 대한 아이콘을 상단에 표시함으로써 사용자가 편리하게 모션을 선택할 수 있도록 한다.
Alternatively, as shown in FIG. 4, the authoring method for synchronizing a video with a motion according to an exemplary embodiment of the present invention provides a motion list to a user in a manner of arranging icons showing motion pictures corresponding to each motion. I can display it. The similarity of characters such as arms and feet prevents the user from confusing motion choices, and expresses each motion in the form of pictures so that the user can quickly understand the motion driven by the motion. At this time, the icon for the motion that the user frequently uses is displayed on the top so that the user can conveniently select the motion.

단계 S600에서는, 모션 목록 중에서 사용자가 선택한 특정 모션을 입력받는다. 사용자는 동영상이 재생되는 도중에, 모션을 동기화시키고자 하는 프레임에서 특정 모션을 선택한 후 추가 버튼을 누름으로써 특정 모션을 동기화시킬 수 있다. 사용자의 편의성을 위하여, 동영상이 재생되고 있는 상태 및 동영상이 일시정지된 상태 모두에서 특정 모션의 선택이 가능하도록 할 수 있다.
In operation S600, a specific motion selected by the user is received from the motion list. While the video is playing, the user may select a specific motion in a frame to synchronize the motion and then press an additional button to synchronize the specific motion. For the convenience of the user, it is possible to select a specific motion in both the state in which the video is being played and the state in which the video is paused.

단계 S700에서는, 입력받은 특정 모션을 동영상에 동기화시키기 위한 동영상의 싱크 위치를 입력받는다. 싱크 위치는 자막을 삽입할 때 사용되는 싱크 위치와 동일한 의미이다. 싱크 위치는 사용자로부터 직접 입력받을 수도 있으나, 사용자가 단계 S600에서 특정 모션을 입력할 때의 싱크 위치를 자동으로 입력받는 것이 사용자의 편의성을 위하여 바람직하다. 따라서 단계 S600과 단계 S700은 동시에 수행될 수 있다.
In operation S700, a sync position of a video for synchronizing an input specific motion with a video is received. The sync position is synonymous with the sync position used when inserting subtitles. Although the sink position may be directly input by the user, it is preferable for the user's convenience to automatically receive the sink position when the user inputs a specific motion in step S600. Therefore, step S600 and step S700 may be performed at the same time.

단계 S800에서는, 싱크 위치에 입력받은 특정 모션을 동기화시킨다. 하나의 싱크 위치에 복수 개의 특정 모션이 동기화될 수 있다. 일 실시예로 로봇의 경우 왼팔 앞으로 들기와 오른발 뒤로 들기를 동시에 구현할 수 있다. 동기화 작업 도중 현재까지 완료된 결과를 사용자가 즉시 확인할 수 있도록, 동영상을 재생하면 특정 모션에 대한 정보를 자막으로 표시할 수 있다.
In step S800, the specific motion received at the sink position is synchronized. A plurality of specific motions may be synchronized to one sync position. In one embodiment, the robot can implement lifting the left arm forward and lifting the right foot at the same time. During the synchronization process, when the video is played, the subtitles can be displayed when the video is played so that the user can immediately check the result.

단계 S900에서는, 단계 S600 내지 단계 S800을 반복하여 동영상에 적어도 하나 이상의 모션을 동기화시킨 후, 모션이 동기화된 싱크 위치, 모션의 종류를 포함하는 모션 정보 파일을 생성한다. 단계 S900에 대하여, 도 5를 참조하여 상세히 설명하도록 한다.
In step S900, after repeating steps S600 to S800 to synchronize at least one or more motions to the video, a motion information file including the sync position and the type of motions to which the motions are synchronized is generated. The operation S900 will be described in detail with reference to FIG. 5.

도 5는 본 발명의 일 실시예에 따른 동영상과 모션의 동기화를 위한 저작 방법의 모션 정보 파일에 저장된 내용을 나타낸 도면이다. 도 5에 도시된 바와 같이, 본 발명의 일 실시예에 따른 동영상과 모션의 동기화를 위한 저작 방법의 모션 정보 파일은, 기본 정보와 모션 정보로 구성될 수 있으며, 모션 정보에는 싱크 시간과 이에 대응되는 모션 내용이 적어도 하나 이상 포함될 수 있다. 다만 컴퓨터에서의 인식을 위해 모션 내용은 코드화되어 저장될 수 있다. 모션 정보 파일이 자막 파일과 같은 구조를 사용함으로써, 사용자는 모션 정보 파일을 통하여 동영상과 모션의 동기화 결과를 용이하게 파악할 수 있다. 또한, 모션 정보 파일은 획일화된 형식으로 이루어져 있으므로, 사용자는 매우 편리하게 복수 개의 모션 정보 파일을 데이터베이스화할 수 있다.
FIG. 5 is a diagram illustrating contents stored in a motion information file of an authoring method for synchronizing a video with a motion according to an embodiment of the present invention. FIG. As shown in FIG. 5, the motion information file of the authoring method for synchronizing motion with a video according to an embodiment of the present invention may include basic information and motion information, and the sync information corresponds to the sync time. At least one motion content may be included. However, the motion content may be coded and stored for recognition in a computer. Since the motion information file uses the same structure as the subtitle file, the user can easily grasp the synchronization result of the video and the motion through the motion information file. In addition, since the motion information file has a uniform format, a user can database a plurality of motion information files with great convenience.

단계 S1000에서는, 시스템 타입을 토대로 특정 인터페이스를 이용하여, 모션 정보 파일을 여러 종류의 다른 시스템의 구동 또는 제어에 직접 적용될 수 있는 명령 신호로 전환한다. 시스템 타입이 다양함에 따라, 시스템 타입에 사용되는 명령 신호의 형식도 매우 다양하다. 따라서 모션 정보 파일을 각 시스템의 구동 또는 제어에 직접 적용될 수 있는 명령 신호로 전환하기 위하여, 확장성이 큰 특정 인터페이스를 사용할 필요가 있다.
In step S1000, the motion information file is converted into a command signal that can be directly applied to driving or controlling various types of other systems using a specific interface based on the system type. As the system types vary, the types of command signals used for the system types also vary. Therefore, in order to convert the motion information file into a command signal that can be directly applied to the driving or control of each system, it is necessary to use a specific, highly scalable interface.

특정 인터페이스는, 모션 정보 파일의 결과인 모션을, 각 시스템의 PLC 별 제어기 형태에 따른 실제 명령어로 변환한다. 이를 위하여 특정 인터페이스는 전기적인 신호 변환을 담당하는 특정 하드웨어 및 소프트웨어적인 신호 변환을 담당하는 특정 소프트웨어를 구비할 수 있다. 이때, 특정 인터페이스는 모션 정보 파일을 각 시스템에 적합한 프로토콜 파일로 변환한 후, 변환된 프로토콜 파일을 이용하여 각 시스템에 적절한 구동 신호를 전달할 수 있다.
The specific interface converts the motion, which is the result of the motion information file, into actual instructions according to the controller type of the PLC of each system. For this purpose, the specific interface may include specific hardware that is responsible for electrical signal conversion and specific software that is responsible for software signal conversion. In this case, the specific interface may convert the motion information file into a protocol file suitable for each system, and then transfer an appropriate driving signal to each system using the converted protocol file.

다만 단계 S1000에서는, 모션 정보 파일을 명령 신호로 전환하는 과정에서 모션 정보 파일에는 전환이 불가능한 모션이 포함될 수 있으므로, 이러한 모션은 명령 신호로 전환하는 것을 제외시키되, 전환이 제외된 사실을 사용자가 확인할 수 있도록 안내 메시지를 송출할 수 있다.
In operation S1000, however, the motion information file may include a motion that cannot be converted in the process of converting the motion information file into a command signal. Thus, the motion is excluded from switching to the command signal, but the user confirms that the conversion is excluded. You can send a guide message so that you can.

마지막으로, 본 발명의 일 실시예에 따른 동영상과 모션의 동기화를 위한 저작 방법을 구현하는 프로그램을 기록한 기록매체는, 컴퓨터, 내장 또는 외장 하드 디스크, 또는 전자기기에 삽입되어 판독이 가능한 소형 플래시 메모리일 수 있다. 물론 프로그램이 기록되는 역할을 한다면 임의의 기록매체도 사용이 가능하다.
Finally, a recording medium recording a program for implementing a method for authoring a video and motion synchronization according to an embodiment of the present invention is a small flash memory that can be read by being inserted into a computer, an internal or external hard disk, or an electronic device. Can be. Of course, if the program plays a role in recording, any recording medium can be used.

이상 설명한 본 발명은 본 발명이 속한 기술분야에서 통상의 지식을 가진 자에 의하여 다양한 변형이나 응용이 가능하며, 본 발명에 따른 기술적 사상의 범위는 아래의 특허청구범위에 의하여 정해져야 할 것이다.The present invention described above may be variously modified or applied by those skilled in the art, and the scope of the technical idea according to the present invention should be defined by the following claims.

S100: 복수 개의 모션을 저장하는 단계
S200: 각각의 모션에 대해 구동이 가능한 시스템 타입에 대한 정보를 저장하는 단계
S300: 사용자로부터 구동 또는 제어하고자 하는 시스템 타입을 입력받는 단계
S400: 모션을 동기화시키기 위한 동영상을 입력받아 재생하는 단계
S500: 사용자가 복수 개의 모션 중 특정 모션을 선택할 수 있도록 사용자에게 모션 목록을 표시하는 단계
S600: 모션 목록 중에서 사용자가 선택한 특정 모션을 입력받는 단계
S700: 입력받은 특정 모션을 동영상에 동기화시키기 위한 동영상의 싱크 위치를 입력받는 단계
S800: 싱크 위치에 입력받은 특정 모션을 동기화시키는 단계
S900: 모션이 동기화된 싱크 위치, 모션의 종류를 포함하는 모션 정보 파일을 생성하는 단계
S1000: 시스템 타입을 토대로 모션 정보 파일을 시스템의 구동 또는 제어에 직접 적용될 수 있는 명령 신호로 전환하는 단계
S100: storing a plurality of motions
S200: storing information about a system type that can be driven for each motion
S300: step for receiving a system type to be driven or controlled from the user
S400: step of receiving and playing a video for synchronizing motion
S500: displaying a list of motions to the user so that the user can select a specific motion among a plurality of motions
S600: step of receiving a specific motion selected by the user from the motion list
S700: step for receiving a sink position of the video for synchronizing the inputted specific motion to the video
S800: synchronizing a specific motion received at the sink position
S900: generating a motion information file including the synchronized sync position and the type of motion
S1000: converting the motion information file into a command signal that can be directly applied to driving or controlling the system based on the system type

Claims (5)

(1) 복수 개의 모션을 저장하는 단계;
(2) 모션을 동기화시키기 위한 동영상을 입력받아 재생하는 단계;
(3) 사용자가 상기 복수 개의 모션 중 특정 모션을 선택할 수 있도록 사용자에게 모션 목록을 표시하는 단계;
(4) 상기 모션 목록 중에서 사용자가 선택한 특정 모션을 입력받는 단계;
(5) 상기 입력받은 특정 모션을 상기 동영상에 동기화시키기 위한 상기 동영상의 싱크 위치를 입력받는 단계;
(6) 상기 싱크 위치에 상기 입력받은 특정 모션을 동기화시키는 단계; 및
(7) 상기 단계 (4)와 단계 (6)을 반복하여 상기 동영상에 적어도 하나 이상의 모션을 동기화시킨 후, 상기 모션이 동기화된 싱크 위치, 상기 모션의 종류를 포함하는 모션 정보 파일을 생성하는 단계를 포함하는 것을 특징으로 하는 동영상과 모션의 동기화를 위한 저작 방법.
(1) storing a plurality of motions;
(2) receiving and playing a video for synchronizing motion;
(3) displaying a motion list to the user so that the user can select a specific motion among the plurality of motions;
(4) receiving a specific motion selected by a user from the motion list;
(5) receiving a sync position of the video to synchronize the received specific motion to the video;
(6) synchronizing the received specific motion to the sink position; And
(7) repeating steps (4) and (6) to synchronize at least one or more motions to the video, and then generating a motion information file including the sync position and the type of motion to which the motions are synchronized; Authoring method for synchronizing motion with the video, characterized in that it comprises a.
제1항에 있어서, 상기 단계 (3)에서는,
각각의 모션에 해당하는 동작 그림이 도시된 아이콘들을 나열하는 방식으로 사용자에게 상기 모션 목록을 표시하는 것을 특징으로 하는 동영상과 모션의 동기화를 위한 저작 방법.
The method of claim 1, wherein in step (3),
A motion method for synchronizing motion with a video, characterized in that for displaying the motion list to a user in a manner of arranging icons showing motion pictures corresponding to each motion.
제1항에 있어서,
각각의 모션에 대해 구동이 가능한 시스템 타입에 대한 정보를 저장하는 단계; 및
사용자로부터 구동 또는 제어하고자 하는 시스템 타입을 입력받는 단계를 더 포함하며,
상기 단계 (3)에서는, 상기 입력받은 시스템 타입에 따라 구동이 가능한 모션들만의 목록을 사용자에게 표시하는 것을 특징으로 하는 동영상과 모션의 동기화를 위한 저작 방법.
The method of claim 1,
Storing information about a system type that can be driven for each motion; And
The method may further include receiving a system type to be driven or controlled by the user.
In the step (3), the method for authoring a video and motion synchronization, characterized in that for displaying a list of motions that can be driven according to the input system type to the user.
제1항에 있어서,
상기 시스템 타입을 토대로 특정 인터페이스를 이용하여, 상기 모션 정보 파일을 상기 여러 종류의 다른 시스템의 구동 또는 제어에 직접 적용될 수 있는 명령 신호로 전환하는 단계를 더 포함하는 것을 특징으로 하는 동영상과 모션의 동기화를 위한 저작 방법.
The method of claim 1,
And converting the motion information file into a command signal that can be directly applied to driving or controlling the various other systems using a specific interface based on the system type. Authoring method for.
제1항 내지 제4항 중 어느 한 항에서의 동영상과 모션의 동기화를 위한 저작 방법을 구현하는 프로그램을 기록한 기록매체.A recording medium recording a program for implementing an authoring method for synchronizing motion picture and motion according to any one of claims 1 to 4.
KR1020100045694A 2010-05-14 2010-05-14 Authoring method for synchronizing motion with moving image, and recording medium of its implementing program KR20110126013A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020100045694A KR20110126013A (en) 2010-05-14 2010-05-14 Authoring method for synchronizing motion with moving image, and recording medium of its implementing program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020100045694A KR20110126013A (en) 2010-05-14 2010-05-14 Authoring method for synchronizing motion with moving image, and recording medium of its implementing program

Publications (1)

Publication Number Publication Date
KR20110126013A true KR20110126013A (en) 2011-11-22

Family

ID=45395303

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020100045694A KR20110126013A (en) 2010-05-14 2010-05-14 Authoring method for synchronizing motion with moving image, and recording medium of its implementing program

Country Status (1)

Country Link
KR (1) KR20110126013A (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20200129354A (en) * 2019-05-08 2020-11-18 주식회사 모션하우스 Apparatus and Method for generating of simulation program for motion simulator
KR20220022582A (en) 2020-08-19 2022-02-28 엘아이지넥스원 주식회사 Virtual training apparatus for recognizing training movement and virtual training system

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20200129354A (en) * 2019-05-08 2020-11-18 주식회사 모션하우스 Apparatus and Method for generating of simulation program for motion simulator
KR20220022582A (en) 2020-08-19 2022-02-28 엘아이지넥스원 주식회사 Virtual training apparatus for recognizing training movement and virtual training system

Similar Documents

Publication Publication Date Title
US8363058B2 (en) Producing video and audio-photos from a static digital image
EP2376207B1 (en) Method and system for generating data for controlling a system for rendering at least one signal
JP2008141746A (en) System and method for playing moving images
JP3615195B2 (en) Content recording / playback apparatus and content editing method
US20100141661A1 (en) Content generation system, content generation device, and content generation program
JP2007300565A (en) Multimedia reproduction device, and menu screen display method
JP2007299335A (en) Multimedia reproduction device and background image display method
JP2016119600A (en) Editing device and editing method
JP2019033430A (en) Movie reproduction apparatus, control method thereof, and program
KR20140078171A (en) A method for play a contents of augmented reality and a system for excuting the method
KR101539972B1 (en) Robot study system using stereo image block and method thereof
KR20110126013A (en) Authoring method for synchronizing motion with moving image, and recording medium of its implementing program
KR100860510B1 (en) Method for creating slide show having visual effect in mobile device
KR101721231B1 (en) 4D media manufacture methods of MPEG-V standard base that use media platform
US10474743B2 (en) Method for presenting notifications when annotations are received from a remote device
US20210382931A1 (en) Information processing apparatus, control method of information processing apparatus, and non-transitory computer-readable storage medium
KR20070094055A (en) Thumbnail recording method and terminal using the same
CN1672212A (en) Method of modifying a playlist in an audio and/or video apparatus, and corresponding audio and/or video apparatus
JP6410483B2 (en) Image processing device
JP2017126856A (en) Information processing apparatus
JP2005167822A (en) Information reproducing device and information reproduction method
JP4171316B2 (en) Information editing apparatus, information editing method, and information editing program
JP2019050444A (en) Interface device for data editing, capture device, image processing device, data editing method, and data editing program
JP6958341B2 (en) Methods, devices, and programs for playing VR content
US10714146B2 (en) Recording device, recording method, reproducing device, reproducing method, and recording/reproducing device

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E90F Notification of reason for final refusal
E601 Decision to refuse application