WO2016140444A1 - Device for generating virtual video related to event of game and method using same - Google Patents

Device for generating virtual video related to event of game and method using same Download PDF

Info

Publication number
WO2016140444A1
WO2016140444A1 PCT/KR2016/001398 KR2016001398W WO2016140444A1 WO 2016140444 A1 WO2016140444 A1 WO 2016140444A1 KR 2016001398 W KR2016001398 W KR 2016001398W WO 2016140444 A1 WO2016140444 A1 WO 2016140444A1
Authority
WO
WIPO (PCT)
Prior art keywords
event
virtual video
game
information
objects
Prior art date
Application number
PCT/KR2016/001398
Other languages
French (fr)
Korean (ko)
Inventor
안태훈
이윤주
Original Assignee
안태훈
이윤주
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 안태훈, 이윤주 filed Critical 안태훈
Publication of WO2016140444A1 publication Critical patent/WO2016140444A1/en

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/80Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
    • H04N21/81Monomedia components thereof
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/80Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
    • H04N21/81Monomedia components thereof
    • H04N21/8126Monomedia components thereof involving additional data, e.g. news, sports, stocks, weather forecasts
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
    • G06Q50/10Services
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/80Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
    • H04N21/81Monomedia components thereof
    • H04N21/8146Monomedia components thereof involving graphical data, e.g. 3D object, 2D graphics
    • H04N21/8153Monomedia components thereof involving graphical data, e.g. 3D object, 2D graphics comprising still images, e.g. texture, background image

Definitions

  • the present invention relates to an apparatus for generating a virtual video related to an event of a game, and a method using the same (APPARATUS FOR CREATING VIRTUAL VIDEO RELATED TO EVENT OF GAME AND METHOD USING THE SAME).
  • the conventional techniques are inconvenient because they generate a virtual video by directly rendering a reference to the actual image of the game.
  • An object of the present invention is to provide a more sophisticated and realistic virtual video using event information extracted by decoding encoded data related to an event of a game.
  • an object of the present invention is to quickly generate a virtual video by storing a template corresponding to an object in a database and using the same for creating a virtual video.
  • an object of the present invention is to provide a more realistic virtual video by synchronizing the sound with the virtual video.
  • an apparatus for generating an event-related game virtual video including: a decoder configured to decode event-related data of a game encoded with preset fields; A database storing templates corresponding to each of the objects in the stadium; And a video generating unit generating a virtual video corresponding to the event based on the event information and the templates.
  • the decoding unit is an event decoding unit for extracting the type and information of the event by decoding the information corresponding to the event included in the event-related data of the game; And a sensor decoding unit decoding information corresponding to sensors included in event related data of the game and extracting identifiers and position information of the sensors.
  • the sensor decoding unit may include an object identification unit that distinguishes each of the objects based on identifiers of sensors corresponding to the objects; And a location information extracting unit extracting location information corresponding to each of the objects based on the location information of the sensors.
  • the video generating unit may include a background screen generating unit which loads a background screen corresponding to the event from the database based on the event information; A virtual screen generation unit generating virtual screens by placing the templates corresponding to each of the objects on a background screen corresponding to the event based on location information corresponding to each of the objects; And a virtual video generator configured to sequentially synthesize the virtual screens to generate the virtual video corresponding to the event.
  • the game virtual video generating device may further include a sound extracting unit for extracting a sound from the pre-recorded game image corresponding to the event.
  • the game virtual video generating device may further include a synchronization unit for synchronizing the sound extracted by the sound extraction unit and the virtual video.
  • the game virtual video generating apparatus may further include a control unit for expanding, reducing and controlling each of the objects present in the video.
  • the encoded event-related data may include an event ID field, an event attribute field, a sensor ID field associated with an event, and a sensor data field.
  • the fields may have a data frame existing between a start of field (SOF) and an end of field (EOF).
  • the event-related virtual video generating method comprises the steps of extracting the event information by decoding the event-related data of the game encoded in the predetermined field; And generating a virtual video corresponding to the event based on templates corresponding to each of the objects in the stadium stored in the event information and the database.
  • the extracting of the event information may include extracting the type and information of the event by decoding information corresponding to the event included in the event related data of the game; And extracting identifiers and location information of the sensors by decoding information corresponding to the sensors included in the event-related data of the game.
  • extracting the identifiers and location information of the sensors may include distinguishing each of the objects based on the identifiers of the sensors corresponding to the objects; And extracting location information corresponding to each of the objects based on location information of the sensors.
  • the generating of the virtual video may include: loading a background screen corresponding to the event from the database based on the event information; Generating virtual screens by placing the templates corresponding to each of the objects on the background screen based on location information corresponding to each of the objects; And sequentially synthesizing the virtual screen to generate the virtual video corresponding to the event.
  • the game virtual video generating method may further include extracting a sound from a pre-recorded game video corresponding to the event.
  • the game virtual video generating method may further comprise the step of synchronizing the sound and the virtual video.
  • the game virtual video generating method may further include expanding, reducing, and controlling each of the objects existing in the virtual video.
  • the encoded event-related data may include an event ID field, an event attribute field, a sensor ID field associated with an event, and a sensor data field.
  • the fields may have a data frame existing between a start of field (SOF) and an end of field (EOF).
  • the present invention can provide a more precise and realistic virtual video using the decoded and extracted event information.
  • the present invention can quickly generate a virtual video by storing a template corresponding to the object in a database, and using it for creating a virtual video.
  • the present invention can provide a more realistic virtual video by synchronizing the sound with the virtual video.
  • FIG. 1 is a block diagram illustrating an event-related virtual video generating device according to an embodiment of the present invention.
  • FIG. 2 is a block diagram of an embodiment of a video generating unit illustrated in FIG. 1.
  • FIG. 3 is a diagram illustrating an embodiment of a data frame of event-related data of an encoded game of the present invention.
  • FIG. 4 is a diagram illustrating extracting location information of objects in a virtual video generating apparatus according to an embodiment of the present invention.
  • 5 to 8 are diagrams illustrating an embodiment of an event related virtual video generating apparatus of the present invention.
  • 9 to 13 illustrate another embodiment of an event related virtual video generating apparatus of the present invention.
  • FIG. 14 is a flowchart illustrating an event-related virtual video generation method according to an embodiment of the present invention.
  • FIG. 15 is a flowchart illustrating an embodiment of generating a virtual video shown in FIG. 14.
  • FIG. 1 is a block diagram illustrating an event-related virtual video generating device according to an embodiment of the present invention.
  • an event related virtual video generating apparatus includes a decoding unit 110, a video generating unit 120, and a database 130.
  • the decoding unit 110 extracts event information by decoding event related data of a game encoded with preset fields.
  • the event means an event occurring during the game, for example, the approaching event of the ball and the player, the event of the ball entering the goal post, the successful tackle event of the player, the set piece event, the pass interception event, the near the player defending the ball.
  • Events that have passed but succeeded in a pass, events with counterattack, and the ball passing behind the fence in a baseball game can be events.
  • the event information is information about the event, and may include, for example, a time when the event occurred, a type of event, a time when the event lasted, and the like.
  • the event data may be configured as a data frame composed of preset fields. This will be described later in FIG. 3.
  • the decoding unit 110 decodes the information corresponding to the event included in the event-related data of the game to extract the type and information of the event and event-related data of the game
  • the sensor decoding unit may decode information corresponding to sensors included in and extract identifiers and position information of the sensors.
  • the event decoding unit may extract the event-related information, the event-related information has been described above may include the time the event occurred, the type of event, the duration.
  • the sensor decoding unit may extract the identifiers of the sensors corresponding to the objects in the stadium and the location information of the sensors.
  • the objects in the stadium may include players in the stadium, exercise tools used by players, balls, and the like.
  • the location information of the sensors may be determined by decoding and extracting the identifier, corresponding to each of the objects in the location information of the sensors.
  • Location information can be extracted. For example, if the sensor identifier installed in the attacker of the football game is 001, the sensor identifier is 001 inside the decoded event related data, and the position is (0,10,100), the position of the attacker of the football game is (0,10,100). This can be
  • the number of sensors installed in each of the objects is not limited. In order to extract the location information accurately, several sensors may be installed in the object.
  • the database 130 stores a template corresponding to each of the objects in the stadium.
  • a template corresponding to each of the objects may be stored in advance to quickly generate a virtual video.
  • players' bodies and faces may be pre-rendered and stored as templates. It is also possible to pre-render the movements of the players and save them as templates.
  • the audience of the stadium may be pre-rendered and stored as a template to generate a more realistic video when generating a virtual video.
  • the video generator 120 may generate a virtual video corresponding to the event based on the event information and the templates.
  • the video generating unit 120 will be described later with reference to FIG. 2.
  • the generated video may be transmitted to the device and output to the user to watch the video.
  • a sound extracting unit extracting sound from the captured game image corresponding to the event and a synchronization unit performing synchronization between the sound extracted from the sound extracting unit and the virtual video may be included.
  • the sound may be extracted from the game relay screen, or the sound may be extracted by recording.
  • the synchronization unit serves to synchronize the sound and the virtual video.
  • a virtual video corresponding to a sound corresponding to a specific time may be generated.
  • FIG. 2 is a block diagram of an embodiment of a video generating unit illustrated in FIG. 1.
  • the video generator 120 includes a background screen generator 210, a virtual screen generator 220, and a virtual video generator 230.
  • the background screen generator 210 calls a background screen corresponding to the event in the database based on the event information.
  • the virtual screen generation unit 220 generates a virtual screen by placing templates corresponding to each of the objects on a background screen based on location information corresponding to each of the objects.
  • a virtual screen is generated by synthesizing the templates corresponding to the two players on the stadium wallpaper with the location of the wallpaper corresponding to the location information.
  • virtual screens corresponding to time information among the extracted event information may be generated.
  • the virtual video generator 230 sequentially synthesizes the virtual screens generated by the virtual screen generator 220 to generate a virtual video corresponding to the event.
  • the synthesis rate per second is not limited. More virtual screens can be synthesized to create high quality virtual video.
  • FIG. 3 is a diagram illustrating an embodiment of a data frame of event-related data of an encoded game of the present invention.
  • the data frame includes a start field 310, an event ID field 320, a property of event field 330, and a sensor ID field associated with an event.
  • the Start of field 310 is a field where data starts.
  • the event ID field 320 is a data field relating to the type of event. For example, an event in which a goal is scored in a soccer game may be 'ID: 001', and an event in which a foul is generated may be 'ID: 010'. When the counterattack begins, it may be 'ID: 011'.
  • the Properties of event field 330 is a data field including time information, location information, and object information related to an event.
  • the time information may include an event occurrence time, a time of a predetermined interval before event occurrence, and a time of a predetermined interval after event occurrence.
  • the time information includes data such as the time the goal was entered, one minute before the goal was entered, and one minute after the goal was entered. Can be.
  • the location information may include information located in the stadium of the sensors related to the event. For example, in the case of data collected when an event of entering a goal occurs in a soccer game, a circular area having a radius of 5 m with respect to the ball may be included in the location information.
  • the object information may include information of sensors related to the event.
  • information including IDs of one or more sensors within a circular area having a radius of 5 m from the ball may be included in the object information.
  • the sensor ID field associated with the event 340 is a data field including a sensor ID associated with the event.
  • the data field of the sensor 350 is a data field including data corresponding to the sensor ID in the sensor ID field immediately preceding.
  • a sensor ID field associated with the event 340 and a data field of the sensor 350 are sequentially repeated.
  • the repeated data fields are 360 shown in FIG. 3.
  • the end field 370 is a field in which data indicating that an event related data field ends is located.
  • FIG. 4 is a diagram illustrating extracting location information of objects in a virtual video generating apparatus according to an embodiment of the present invention.
  • four vertices 410, 420, 430, and 440 and players 450 and 460 are formed in a square stadium.
  • a 3D coordinate (x, y, z) format is commonly used.
  • X and y correspond to the horizontal and vertical directions of the stadium, and in the case of z, height information may be expressed.
  • FIG. 4 four vertices are set as (0,0,0), (500,0,0), (500,300,0), and (0,300,0), respectively, and objects in the stadium are displayed in 3D coordinates. It was.
  • the position information of the player 450 may be represented by (100, 150, 150), and the position information of another player 460 may be represented by (120, 150, 50).
  • the coordinates may be expressed by dividing the same (uniform) interval, or may be expressed by dividing the other (non-uniform) interval. More precise location information may be obtained by narrowing the coordinates in the vicinity of the goal area where many events occur.
  • 5 to 8 are diagrams illustrating an embodiment of an event related virtual video generating apparatus of the present invention.
  • 5 to 8 illustrate a part of a virtual video regarding an event in which a player viewed from another direction shoots.
  • the virtual video may be controlled to enlarge or reduce or rotate the object.
  • the virtual video may be rotated in a clockwise direction.
  • 9 to 13 illustrate another embodiment of an event related virtual video generating apparatus of the present invention.
  • 9 to 13 illustrate a part of a virtual video related to an event in which an attacking team performs a penalty kick by a defensive team in a penalty area.
  • 9 to 13 may be sequentially synthesized to generate a virtual video.
  • a goal screen starts with a virtual screen that prepares for a penalty kick, a goal screen also creates a virtual screen that prevents the penalty kick, and synthesizes them in chronological order to generate a virtual video.
  • FIG. 14 is a flowchart illustrating an event-related virtual video generation method according to an embodiment of the present invention.
  • event information is extracted by decoding event related data (S1410).
  • the event means an event occurring during the game, for example, the approaching event of the ball and the player, the event of the ball entering the goal post, the successful tackle event of the player, the set piece event, the pass interception event, the near the player defending the ball.
  • Events that have passed but succeeded in a pass, events with counterattack, and the ball passing behind the fence in a baseball game can be events.
  • the event information is information about the event, and may include, for example, a time when the event occurred, a type of event, a time when the event lasted, and the like.
  • the event data may be configured as a data frame composed of preset fields. The description thereof has been described with reference to FIG. 3.
  • a virtual video is generated based on the event information and the template (S1420).
  • FIG. 15 is a flowchart illustrating an embodiment of generating a virtual video shown in FIG. 14.
  • a background screen stored in a database is loaded based on event information (S1510).
  • the virtual screen is generated by placing a template on the background screen.
  • a virtual screen is generated by synthesizing the templates corresponding to the two players on the stadium wallpaper with the location of the wallpaper corresponding to the location information.
  • virtual screens corresponding to time information among the extracted event information may be generated.
  • a virtual video is generated by synthesizing the virtual screens.
  • the synthesis rate per second is not limited. More virtual screens may be synthesized to create high quality virtual video.
  • the apparatus and method for generating an event-related virtual video according to the present invention may not be limitedly applied to the configuration and method of the embodiments described above, and the embodiments may be modified in various ways so that various modifications may be made. All or part of the examples may be optionally combined.

Landscapes

  • Engineering & Computer Science (AREA)
  • Business, Economics & Management (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Tourism & Hospitality (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Economics (AREA)
  • Computer Graphics (AREA)
  • Human Resources & Organizations (AREA)
  • Marketing (AREA)
  • Primary Health Care (AREA)
  • Strategic Management (AREA)
  • Physics & Mathematics (AREA)
  • General Business, Economics & Management (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Processing Or Creating Images (AREA)

Abstract

Disclosed are a device and a method for generating a virtual video of a game. The device for generating a virtual video of a game, according to one embodiment of the present invention, comprises: a decoding unit for decoding data related to an event of a game, the data being encoded using preset fields, and extracting event information; a database for storing templates each corresponding to objects in a game arena; and a video generation unit for generating, on the basis of the event information and the templates, a virtual video corresponding to the event.

Description

경기의 이벤트 관련 가상 동영상을 생성 하는 장치 및 이를 이용한 방법Apparatus for generating virtual video related to event of game and method using same
본 발명은 경기의 이벤트 관련 가상 동영상을 생성하는 장치 및 이를 이용한 방법(APPARATUS FOR CREATING VIRTUAL VIDEO RELATED TO EVENT OF GAME AND METHOD USING THE SAME)에 관한 것이다.The present invention relates to an apparatus for generating a virtual video related to an event of a game, and a method using the same (APPARATUS FOR CREATING VIRTUAL VIDEO RELATED TO EVENT OF GAME AND METHOD USING THE SAME).
최근 축구 경기나 야구 경기 등 스포츠 경기의 인기가 점차적으로 증가하고 있다. 이에 따라 스포츠 중계 방송이나 분석 방송 등에서 경기 중에 발생한 이벤트에 관련된 영상을 방송하면서, 이에 대한 분석이 증가하고 있다.Recently, the popularity of sports games such as soccer games and baseball games is gradually increasing. Accordingly, while broadcasting a video related to an event occurring during a game in sports relay broadcasting or analysis broadcasting, analysis thereof is increasing.
최근에는 스포츠 경기를 관람하는 것을 즐기는 것을 넘어서 전문적으로 분석하는 경향이 증가하고 있다. 지금까지는 스포츠 경기를 분석하는데 있어 미리 촬영된 실제 영상을 다시 방송하는 것에 그치고 있다. 이는 다양한 방법으로 스포츠 경기를 분석하는 것을 저해하고 있으며, 오히려 이벤트에 관련된 가상 동영상을 이용하여 경기를 분석하는 것이 좀 더 다양한 방법으로 경기를 분석하는데 도움이 되고 있다.In recent years there has been an increasing tendency to analyze professionally beyond enjoying sports. Up to now, the analysis of sporting events has only re-broadcasted the actual video shot. This hinders the analysis of sporting events in various ways. Rather, analyzing the game using virtual video related to the event helps to analyze the game in more various ways.
다만, 종래의 기술들은 단순히 경기의 실제 영상을 참고하여 직접 렌더링하는 방식으로 가상 동영상을 생성하고 있어 불편한 점이 많다.However, the conventional techniques are inconvenient because they generate a virtual video by directly rendering a reference to the actual image of the game.
따라서, 경기 중의 이벤트에 관련된 가상 동영상을 좀 더 빠르게 생성하는 기술이 절실하게 대두된다.Accordingly, a technique for generating a virtual video related to an event during a game more quickly is urgently needed.
본 발명의 목적은 경기의 이벤트에 관련된 인코딩 데이터를 디코딩하여 추출된 이벤트 정보를 이용하여 좀 더 정교하고, 현실에 가까운 가상 동영상을 제공하는 것이다.An object of the present invention is to provide a more sophisticated and realistic virtual video using event information extracted by decoding encoded data related to an event of a game.
또한, 본 발명의 목적은 객체에 상응하는 템플릿을 데이터베이스에 저장하고, 이를 가상 동영상 생성에 이용함으로써 가상 동영상을 빠르게 생성하는 것이다.Also, an object of the present invention is to quickly generate a virtual video by storing a template corresponding to an object in a database and using the same for creating a virtual video.
또한, 본 발명의 목적은 가상 동영상과 사운드를 동기화 함으로써, 좀 더 실감나는 가상 동영상을 제공하는 것이다.In addition, an object of the present invention is to provide a more realistic virtual video by synchronizing the sound with the virtual video.
상기한 목적을 달성하기 위한 본 발명에 따른 이벤트 관련 경기 가상 동영상 생성 장치는 기 설정된 필드들로 인코딩된 경기의 이벤트 관련 데이터를 디코딩하여 상기 이벤트 정보를 추출하는 디코딩부; 경기장 내부의 객체들 각각에 상응하는 템플릿들이 저장된 데이터 베이스; 및 상기 이벤트 정보 및 상기 템플릿들에 기반하여 상기 이벤트에 상응하는 가상 동영상을 생성하는 동영상 생성부를 포함한다.According to an aspect of the present invention, there is provided an apparatus for generating an event-related game virtual video, including: a decoder configured to decode event-related data of a game encoded with preset fields; A database storing templates corresponding to each of the objects in the stadium; And a video generating unit generating a virtual video corresponding to the event based on the event information and the templates.
이 때, 디코딩부는 상기 경기의 이벤트 관련 데이터에 포함된 상기 이벤트에 상응하는 정보를 디코딩하여 상기 이벤트의 종류 및 정보를 추출하는 이벤트 디코딩부; 및 상기 경기의 이벤트 관련 데이터에 포함된 센서들에 상응하는 정보를 디코딩하여 상기 센서들의 식별자 및 위치 정보들을 추출하는 센서 디코딩부를 포함할 수 있다.At this time, the decoding unit is an event decoding unit for extracting the type and information of the event by decoding the information corresponding to the event included in the event-related data of the game; And a sensor decoding unit decoding information corresponding to sensors included in event related data of the game and extracting identifiers and position information of the sensors.
이 때, 센서 디코딩부는 상기 객체들에 상응하는 센서들의 식별자에 기반하여 상기 객체들 각각을 구별하는 객체 식별부; 및 상기 센서들의 위치 정보에 기반하여 상기 객체들 각각에 상응하는 위치 정보들을 추출하는 위치 정보 추출부를 포함할 수 있다.In this case, the sensor decoding unit may include an object identification unit that distinguishes each of the objects based on identifiers of sensors corresponding to the objects; And a location information extracting unit extracting location information corresponding to each of the objects based on the location information of the sensors.
이 때, 동영상 생성부는 상기 이벤트 정보에 기반하여 상기 데이터 베이스에서 상기 이벤트에 상응하는 배경 화면을 불러오는 배경 화면 생성부; 상기 객체들 각각에 상응하는 위치 정보들에 기반하여 상기 객체들 각각에 상응하는 상기 템플릿들을 상기 이벤트에 상응하는 배경화면에 배치하여 가상 화면들을 생성하는 가상 화면 생성부; 및 상기 가상 화면들을 순차적으로 합성하여 상기 이벤트에 상응하는 상기 가상 동영상을 생성하는 가상 동영상 생성부를 포함할 수 있다.In this case, the video generating unit may include a background screen generating unit which loads a background screen corresponding to the event from the database based on the event information; A virtual screen generation unit generating virtual screens by placing the templates corresponding to each of the objects on a background screen corresponding to the event based on location information corresponding to each of the objects; And a virtual video generator configured to sequentially synthesize the virtual screens to generate the virtual video corresponding to the event.
이 때, 경기 가상 동영상 생성 장치는 상기 이벤트에 상응하는 기 촬영된 경기 영상에서 사운드를 추출하는 사운드 추출부를 더 포함할 수 있다.At this time, the game virtual video generating device may further include a sound extracting unit for extracting a sound from the pre-recorded game image corresponding to the event.
이 때, 경기 가상 동영상 생성 장치는 상기 사운드 추출부에서 추출한 사운드와 상기 가상 동영상과 동기화 하는 동기화부를 더 포함할 수도 있다.At this time, the game virtual video generating device may further include a synchronization unit for synchronizing the sound extracted by the sound extraction unit and the virtual video.
이 때, 경기 가상 동영상 생성 장치는 상기 동영상에 존재하는 객체들 각각을 확대, 축소 및 제어하는 제어부를 더 포함할 수도 있다.At this time, the game virtual video generating apparatus may further include a control unit for expanding, reducing and controlling each of the objects present in the video.
이 때, 상기 인코딩 된 이벤트 관련 데이터는 이벤트 아이디 필드(Event ID Field), 이벤트 속성 필드(Properties of Event Field), 관련된 센서 아이디 필드(Sensor ID Field associated with event), 센서 데이터 필드(Data field of Sensor) 중 어느 하나 이상을 포함하고, 상기 필드들은 SOF(Start Of Field) 와 EOF(End Of Field) 사이에 존재하는 데이터 프레임을 가질 수도 있다.In this case, the encoded event-related data may include an event ID field, an event attribute field, a sensor ID field associated with an event, and a sensor data field. ), And the fields may have a data frame existing between a start of field (SOF) and an end of field (EOF).
또한, 본 발명에 따른 이벤트 관련 가상 동영상 생성 방법은 기 설정된 필드들로 인코딩된 경기의 이벤트 관련 데이터를 디코딩하여 이벤트 정보를 추출하는 단계; 및 상기 이벤트 정보 및 데이터 베이스에 저장된 경기장 내부의 객체들 각각에 상응하는 템플릿들에 기반하여 상기 이벤트에 상응하는 가상 동영상을 생성하는 단계를 포함할 수 있다.In addition, the event-related virtual video generating method according to the present invention comprises the steps of extracting the event information by decoding the event-related data of the game encoded in the predetermined field; And generating a virtual video corresponding to the event based on templates corresponding to each of the objects in the stadium stored in the event information and the database.
이 때, 상기 이벤트 정보를 추출하는 단계는 상기 경기의 이벤트 관련 데이터에 포함된 상기 이벤트에 상응하는 정보를 디코딩하여 상기 이벤트의 종류 및 정보를 추출하는 단계; 및 상기 경기의 이벤트 관련 데이터에 포함된 센서들에 상응하는 정보를 디코딩하여 상기 센서들의 식별자 및 위치 정보들을 추출하는 단계를 포함할 수 있다.In this case, the extracting of the event information may include extracting the type and information of the event by decoding information corresponding to the event included in the event related data of the game; And extracting identifiers and location information of the sensors by decoding information corresponding to the sensors included in the event-related data of the game.
이 때, 상기 센서들의 식별자 및 위치 정보들을 추출하는 단계는 상기 객체들에 상응하는 센서들의 식별자에 기반하여 상기 객체들 각각을 구별하는 단계; 및 상기 센서들의 위치 정보에 기반하여 상기 객체들 각각에 상응하는 위치 정보들을 추출하는 단계를 포함할 수 있다.In this case, extracting the identifiers and location information of the sensors may include distinguishing each of the objects based on the identifiers of the sensors corresponding to the objects; And extracting location information corresponding to each of the objects based on location information of the sensors.
이 때, 상기 가상 동영상을 생성하는 단계는 상기 이벤트 정보에 기반하여 상기 데이터 베이스에서 상기 이벤트에 상응하는 배경 화면을 불러오는 단계; 상기 객체들 각각에 상응하는 위치 정보들에 기반하여 상기 객체들 각각에 상응하는 상기 템플릿들을 상기 배경 화면에 배치하여 가상 화면들을 생성하는 단계; 및 상기 가상 화면을 순차적으로 합성하여 상기 이벤트에 상응하는 상기 가상 동영상을 생성하는 단계를 포함할 수 있다.The generating of the virtual video may include: loading a background screen corresponding to the event from the database based on the event information; Generating virtual screens by placing the templates corresponding to each of the objects on the background screen based on location information corresponding to each of the objects; And sequentially synthesizing the virtual screen to generate the virtual video corresponding to the event.
이 때, 상기 경기 가상 동영상 생성 방법은 상기 이벤트에 상응하는 기 촬영된 경기 영상에서 사운드를 추출하는 단계를 더 포함할 수 있다.In this case, the game virtual video generating method may further include extracting a sound from a pre-recorded game video corresponding to the event.
이 때, 상기 경기 가상 동영상 생성 방법은 상기 사운드와 상기 가상 동영상과 동기화하는 단계를 더 포함할 수 있다.At this time, the game virtual video generating method may further comprise the step of synchronizing the sound and the virtual video.
이 때, 상기 경기 가상 동영상 생성 방법은 상기 가상 동영상에 존재하는 객체들 각각을 확대, 축소 및 제어하는 단계를 더 포함할 수 있다.In this case, the game virtual video generating method may further include expanding, reducing, and controlling each of the objects existing in the virtual video.
이 때, 상기 인코딩 된 이벤트 관련 데이터는 이벤트 아이디 필드(Event ID Field), 이벤트 속성 필드(Properties of Event Field), 관련된 센서 아이디 필드(Sensor ID Field associated with event), 센서 데이터 필드(Data field of Sensor) 중 어느 하나 이상을 포함하고, 상기 필드들은 SOF(Start Of Field) 와 EOF(End Of Field) 사이에 존재하는 데이터 프레임을 가질 수 있다.In this case, the encoded event-related data may include an event ID field, an event attribute field, a sensor ID field associated with an event, and a sensor data field. ), And the fields may have a data frame existing between a start of field (SOF) and an end of field (EOF).
본 발명은 디코딩되어 추출된 이벤트 정보를 이용하여 좀 더 정교하고, 현실에 가까운 가상 동영상을 제공할 수 있다.The present invention can provide a more precise and realistic virtual video using the decoded and extracted event information.
또한, 본 발명은 객체에 상응하는 템플릿을 데이터베이스에 저장하고, 이를 가상 동영상 생성에 이용함으로써 가상 동영상을 빠르게 생성할 수 있다.In addition, the present invention can quickly generate a virtual video by storing a template corresponding to the object in a database, and using it for creating a virtual video.
또한, 본 발명은 가상 동영상과 사운드를 동기화 함으로써, 좀 더 실감나는 가상 동영상을 제공할 수 있다.In addition, the present invention can provide a more realistic virtual video by synchronizing the sound with the virtual video.
도 1은 본 발명의 일실시예에 따른 이벤트 관련 가상 동영상 생성 장치를 나타낸 블록도이다.1 is a block diagram illustrating an event-related virtual video generating device according to an embodiment of the present invention.
도 2는 도 1에 도시된 동영상 생성부의 일실시예에 관한 블록도이다.FIG. 2 is a block diagram of an embodiment of a video generating unit illustrated in FIG. 1.
도 3은 본 발명의 인코딩된 경기의 이벤트 관련 데이터가 갖는 데이터 프레임의 일실시예를 나타낸 도면이다.3 is a diagram illustrating an embodiment of a data frame of event-related data of an encoded game of the present invention.
도 4는 본 발명의 일실시예에 따른 가상 동영상 생성 장치에서 객체들의 위치 정보를 추출하는 것을 나타낸 도면이다.4 is a diagram illustrating extracting location information of objects in a virtual video generating apparatus according to an embodiment of the present invention.
도 5 내지 도 8은 본 발명의 이벤트 관련 가상 동영상 생성 장치의 일실시예를 나타낸 도면이다.5 to 8 are diagrams illustrating an embodiment of an event related virtual video generating apparatus of the present invention.
도 9 내지 도 13은 본 발명의 이벤트 관련 가상 동영상 생성 장치의 다른 실시예를 나타낸 도면이다.9 to 13 illustrate another embodiment of an event related virtual video generating apparatus of the present invention.
도 14는 본 발명의 일실시예에 따른 이벤트 관련 가상 동영상 생성 방법을 나타낸 동작 흐름도이다.14 is a flowchart illustrating an event-related virtual video generation method according to an embodiment of the present invention.
도 15는 도 14에 도시된 가상 동영상 생성에 관한 일 실시예를 나타낸 동작 흐름도이다.FIG. 15 is a flowchart illustrating an embodiment of generating a virtual video shown in FIG. 14.
본 발명을 첨부된 도면을 참조하여 상세히 설명하면 다음과 같다. 여기서, 반복되는 설명, 본 발명의 요지를 불필요하게 흐릴 수 있는 공지 기능, 및 구성에 대한 상세한 설명은 생략한다. 본 발명의 실시형태는 당 업계에서 평균적인 지식을 가진 자에게 본 발명을 보다 완전하게 설명하기 위해서 제공되는 것이다. 따라서, 도면에서의 요소들의 형상 및 크기 등은 보다 명확한 설명을 위해 과장될 수 있다.Hereinafter, the present invention will be described in detail with reference to the accompanying drawings. Here, the repeated description, well-known functions and configurations that may unnecessarily obscure the subject matter of the present invention, and detailed description of the configuration will be omitted. Embodiments of the present invention are provided to more completely describe the present invention to those skilled in the art. Accordingly, the shape and size of elements in the drawings may be exaggerated for clarity.
이하, 본 발명에 따른 바람직한 실시예를 첨부된 도면을 참조하여 상세하게 설명한다.Hereinafter, exemplary embodiments of the present invention will be described in detail with reference to the accompanying drawings.
도 1은 본 발명의 일실시예에 따른 이벤트 관련 가상 동영상 생성 장치를 나타낸 블록도이다.1 is a block diagram illustrating an event-related virtual video generating device according to an embodiment of the present invention.
도 1을 참조하면, 이벤트 관련 가상 동영상 생성 장치는 디코딩부(110), 동영상 생성부(120) 및 데이터베이스(130)로 구성되어 있다.Referring to FIG. 1, an event related virtual video generating apparatus includes a decoding unit 110, a video generating unit 120, and a database 130.
디코딩부(110)는 기 설정된 필드들로 인코딩 된 경기의 이벤트 관련 데이터를 디코딩하여 이벤트 정보를 추출한다.The decoding unit 110 extracts event information by decoding event related data of a game encoded with preset fields.
이 때, 이벤트는 경기 중에 일어나는 사건을 의미하며, 예를 들면, 공과 선수의 근접하는 사건, 공이 골대 안으로 들어가는 사건, 선수의 성공적인 태클 사건, 세트 피스 사건, 패스 가로채기 사건, 공이 수비하는 선수 근처를 지났으나 성공적인 패스로 이어지는 사건, 역습이 진행되는 사건, 야구 경기에서 공이 펜스 뒤로 넘어가는 사건 등이 이벤트가 될 수 있다.In this case, the event means an event occurring during the game, for example, the approaching event of the ball and the player, the event of the ball entering the goal post, the successful tackle event of the player, the set piece event, the pass interception event, the near the player defending the ball. Events that have passed but succeeded in a pass, events with counterattack, and the ball passing behind the fence in a baseball game can be events.
이 때, 이벤트 정보는 이벤트에 관한 정보들로서, 예를 들면, 이벤트가 일어난 시간, 이벤트의 종류, 이벤트가 지속된 시간 등이 포함될 수 있다.In this case, the event information is information about the event, and may include, for example, a time when the event occurred, a type of event, a time when the event lasted, and the like.
이 때, 이벤트 데이터는 기 설정된 필드로 구성된 데이터 프레임으로 구성될 수 있다. 이에 대한 설명은 도 3에서 후술한다.In this case, the event data may be configured as a data frame composed of preset fields. This will be described later in FIG. 3.
이 때, 도 1에 도시되지 않았지만 디코딩부(110)는 경기의 이벤트 관련 데이터에 포함된 상기 이벤트에 상응하는 정보를 디코딩하여 상기 이벤트의 종류 및 정보를 추출하는 이벤트 디코딩부와 경기의 이벤트 관련 데이터에 포함된 센서들에 상응하는 정보를 디코딩하여 상기 센서들의 식별자 및 위치 정보들을 추출하는 센서 디코딩부로 구성될 수 있다.At this time, although not shown in Figure 1, the decoding unit 110 decodes the information corresponding to the event included in the event-related data of the game to extract the type and information of the event and event-related data of the game The sensor decoding unit may decode information corresponding to sensors included in and extract identifiers and position information of the sensors.
이 때, 이벤트 디코딩부는 이벤트 관련 정보를 추출할 수 있는데, 이벤트 관련 정보에는 이벤트가 일어난 시간, 이벤트의 종류, 지속 시간이 포함될 수 있음을 위에서 서술하였다.At this time, the event decoding unit may extract the event-related information, the event-related information has been described above may include the time the event occurred, the type of event, the duration.
이 때, 센서 디코딩부는 경기장 내부의 객체들에 상응하는 센서들의 식별자와 센서들의 위치 정보를 추출할 수 있다.At this time, the sensor decoding unit may extract the identifiers of the sensors corresponding to the objects in the stadium and the location information of the sensors.
이 때, 경기장 내부의 객체들은 경기장 내부의 선수들, 선수들이 이용하는 운동 도구, 공 등이 포함될 수도 있다.At this time, the objects in the stadium may include players in the stadium, exercise tools used by players, balls, and the like.
이 때, 객체들 각각에 하나 이상의 센서들을 설치하고, 미리 식별자를 설정해 놓은 경우, 디코딩하여 식별자를 추출하면, 객체들의 위치 정보를 파악할 수 있음을 이용하여 센서들의 위치 정보에서 객체들 각각에 상응하는 위치 정보를 추출할 수 있다. 예를 들면, 축구 경기의 공격수에 설치된 센서 식별자가 001이고, 디코딩 된 이벤트 관련 데이터 내부에 센서 식별자가 001이고, 위치가 (0,10,100)이라면, 축구 경기의 공격수의 위치는 (0,10,100)이 될 수 있다.In this case, if one or more sensors are installed in each of the objects, and an identifier is set in advance, the location information of the sensors may be determined by decoding and extracting the identifier, corresponding to each of the objects in the location information of the sensors. Location information can be extracted. For example, if the sensor identifier installed in the attacker of the football game is 001, the sensor identifier is 001 inside the decoded event related data, and the position is (0,10,100), the position of the attacker of the football game is (0,10,100). This can be
이 때, 객체들 각각에 설치되는 센서의 개수에는 제한이 없다. 위치 정보를 정확하게 추출하기 위해 여러 개의 센서를 객체에 설치할 수도 있다.At this time, the number of sensors installed in each of the objects is not limited. In order to extract the location information accurately, several sensors may be installed in the object.
데이터 베이스(130)는 경기장 내부의 객체들 각각에 상응하는 템플릿을 저장한다.The database 130 stores a template corresponding to each of the objects in the stadium.
이 때, 객체들 각각에 상응하는 템플릿을 미리 저장하여 가상 동영상을 빠르게 생성할 수 있다.At this time, a template corresponding to each of the objects may be stored in advance to quickly generate a virtual video.
예를 들면, 축구 경기에서 선수들의 신체, 얼굴 등을 미리 렌더링하여 템플릿으로 저장할 수 있다. 또한, 선수들의 동작을 미리 렌더링을 하여 템플릿으로 저장할 수도 있다.For example, in a soccer game, players' bodies and faces may be pre-rendered and stored as templates. It is also possible to pre-render the movements of the players and save them as templates.
또 예를 들면, 경기장의 관중을 미리 렌더링하여 템플릿으로 저장하여 가상 동영상 생성시 좀 더 현실감 있는 동영상을 생성할 수도 있다.In addition, for example, the audience of the stadium may be pre-rendered and stored as a template to generate a more realistic video when generating a virtual video.
동영상 생성부(120)는 이벤트 정보 및 템플릿들에 기반하여 이벤트에 상응하는 가상 동영상을 생성할 수 있다. 동영상 생성부(120)에 관해서는 도 2에서 후술한다.The video generator 120 may generate a virtual video corresponding to the event based on the event information and the templates. The video generating unit 120 will be described later with reference to FIG. 2.
이 때, 생성된 동영상은 디바이스로 전송하고, 출력하여 사용자들이 동영상을 감상할 수도 있다.In this case, the generated video may be transmitted to the device and output to the user to watch the video.
이 때, 도 1에 도시되지는 않았으나, 상기 이벤트에 상응하는 촬영된 경기 영상에서 사운드를 추출하는 사운드 추출부 및 사운드 추출부에서 추출한 사운드와 가상 동영상간 동기화를 수행하는 동기화부도 포함될 수 있다.In this case, although not shown in FIG. 1, a sound extracting unit extracting sound from the captured game image corresponding to the event and a synchronization unit performing synchronization between the sound extracted from the sound extracting unit and the virtual video may be included.
이 때, 사운드를 추출하는 방법에는 제한이 없다. 경기 중계 화면에서 추출된 사운드가 될 수도 있고, 녹음을 수행하여 사운드를 추출할 수도 있다.At this time, there is no restriction on the method of extracting the sound. The sound may be extracted from the game relay screen, or the sound may be extracted by recording.
이 때, 동기화부는 사운드와 가상 동영상의 싱크를 맞춰주는 역할을 수행한다. 특정한 시간에 상응하는 사운드에 상응하는 가상 동영상을 생성할 수 있다.At this time, the synchronization unit serves to synchronize the sound and the virtual video. A virtual video corresponding to a sound corresponding to a specific time may be generated.
도 2는 도 1에 도시된 동영상 생성부의 일실시예에 관한 블록도이다.FIG. 2 is a block diagram of an embodiment of a video generating unit illustrated in FIG. 1.
도 2를 참조하면, 동영상 생성부(120)는 배경 화면 생성부(210), 가상 화면 생성부(220) 및 가상 동영상 생성부(230)로 구성되어 있다.Referring to FIG. 2, the video generator 120 includes a background screen generator 210, a virtual screen generator 220, and a virtual video generator 230.
배경 화면 생성부(210)는 이벤트 정보에 기반하여 데이터 베이스에서 이벤트에 상응하는 배경 화면을 불러온다.The background screen generator 210 calls a background screen corresponding to the event in the database based on the event information.
예를 들면, 골이 들어가는 이벤트의 경우, 공이 넘어간 골대와 골 에어리어 근처의 경기장 배경 화면을 데이터 베이스에서 불러올 수 있다.For example, in the event of a goal entry, you can retrieve a background image of the stadium where the ball was crossed and the stadium background near the goal area from the database.
가상 화면 생성부(220)는 객체들 각각에 상응하는 위치 정보들에 기반하여 객체들 각각에 상응하는 템플릿들을 배경 화면에 배치하여 가상 화면을 생성한다.The virtual screen generation unit 220 generates a virtual screen by placing templates corresponding to each of the objects on a background screen based on location information corresponding to each of the objects.
예를 들면, 골이 들어가는 이벤트에 해당하고, 이 때 골을 넣은 선수의 위치 정보가 3차원 좌표로 (0,1,10)로 추출되었고, 골기퍼에 해당하는 선수의 위치 정보가 (1,2,9)로 추출된 경우, 경기장 배경 화면에 두 선수에 해당하는 템플릿을 위치 정보에 상응하는 배경 화면의 위치로 합성을 하는 방법으로 가상 화면을 생성한다.For example, it corresponds to an event where a goal is entered, and the location information of the player who scored the goal was extracted as (0,1,10) in 3D coordinates, and the location information of the player corresponding to the goalkeeper was (1,2). , 9), a virtual screen is generated by synthesizing the templates corresponding to the two players on the stadium wallpaper with the location of the wallpaper corresponding to the location information.
이 때, 추출된 이벤트 정보 중 시간 정보에 상응하는 가상 화면들을 생성할 수 있다.In this case, virtual screens corresponding to time information among the extracted event information may be generated.
가상 동영상 생성부(230)는 가상 화면 생성부(220)에서 생성한 가상 화면들을 순차적으로 합성하여 상기 이벤트에 상응하는 가상 동영상을 생성한다.The virtual video generator 230 sequentially synthesizes the virtual screens generated by the virtual screen generator 220 to generate a virtual video corresponding to the event.
이 때, 순차적으로 합성한다는 의미는 시간의 흐름에 따라서 순서대로 합성한다는 의미이다.At this time, to synthesize sequentially means to synthesize in order over time.
이 때, 초당 합성 속도는 제한이 없다. 고 품질의 가상 동영상을 생성하기 위해서 더 많은 가상 화면들을 합성할 수 있다.At this time, the synthesis rate per second is not limited. More virtual screens can be synthesized to create high quality virtual video.
도 3은 본 발명의 인코딩된 경기의 이벤트 관련 데이터가 갖는 데이터 프레임의 일실시예를 나타낸 도면이다.3 is a diagram illustrating an embodiment of a data frame of event-related data of an encoded game of the present invention.
도 3을 참조하면, 데이터 프레임은 시작 필드(Start of field, 310), 이벤트 아이디 필드(Event ID Field, 320), 이벤트 속성 필드(Properties of event field, 330), 이벤트와 연관된 센서 아이디 필드(Sensor ID field associated with the event, 340), 센서의 데이터 필드(Data Field of the sensor, 350), 종료 필드(End of field, 370)로 구성되어 있다.Referring to FIG. 3, the data frame includes a start field 310, an event ID field 320, a property of event field 330, and a sensor ID field associated with an event. ID field associated with the event 340, a data field of the sensor 350, and an end of field 370.
시작 필드(Start of field, 310)는 데이터가 시작되는 필드이다. The Start of field 310 is a field where data starts.
이벤트 아이디 필드(Event ID Field, 320)는 이벤트의 종류에 관한 데이터 필드이다. 예를 들면, 축구 경기에서 골이 들어가는 이벤트의 경우 'ID:001'가 될 수 있고, 파울이 발생된 이벤트의 경우 'ID:010'가 될 수 있다. 역습이 시작되는 경우 'ID:011'이 될 수 있다.The event ID field 320 is a data field relating to the type of event. For example, an event in which a goal is scored in a soccer game may be 'ID: 001', and an event in which a foul is generated may be 'ID: 010'. When the counterattack begins, it may be 'ID: 011'.
이벤트 속성 필드(Properties of event field, 330)는 이벤트와 관련된 시간 정보, 위치 정보, 객체 정보가 포함된 데이터 필드이다.  The Properties of event field 330 is a data field including time information, location information, and object information related to an event.
이 때, 시간 정보는 이벤트 발생 시각, 이벤트 발생이전 일정 간격의 시각, 이벤트 발생 이후 일정 간격의 시각이 포함될 수 있다. 예를 들어, 축구 경기에서 골이 들어가는 이벤트가 발생될 때 수집된 데이터의 경우, 골이 들어간 시각, 골이 들어간 시각 이전의 1분, 골이 들어간 시각 이후의 1분이라는 데이터가 시간 정보에 포함될 수 있다.In this case, the time information may include an event occurrence time, a time of a predetermined interval before event occurrence, and a time of a predetermined interval after event occurrence. For example, in the case of data collected when a goal is scored in a soccer game, the time information includes data such as the time the goal was entered, one minute before the goal was entered, and one minute after the goal was entered. Can be.
이 때, 위치 정보는 이벤트와 관련된 센서들의 경기장 내에 위치하고 있는 정보를 포함할 수 있다. 예를 들어, 축구 경기에서 골이 들어가는 이벤트가 발생할 때 수집된 데이터의 경우, 공을 중심으로 반지름이 5m인 원형 영역을 위치 정보에 포함될 수 있다.At this time, the location information may include information located in the stadium of the sensors related to the event. For example, in the case of data collected when an event of entering a goal occurs in a soccer game, a circular area having a radius of 5 m with respect to the ball may be included in the location information.
이 때, 객체 정보는 이벤트와 관련된 센서들의 정보를 포함할 수 있다. 예를 들어, 축구 경기에서 골이 들어가는 이벤트가 발생할 때 수집된 데이터의 경우 공을 중심으로 반지름이 5m인 원형 영역 이내의 하나 이상의 센서들의 아이디가 포함된 정보가 객체 정보에 포함될 수 있다.In this case, the object information may include information of sensors related to the event. For example, in the case of data collected when a goal is entered in a soccer game, information including IDs of one or more sensors within a circular area having a radius of 5 m from the ball may be included in the object information.
이벤트와 연관된 센서 아이디 필드(Sensor ID field associated with the event, 340)는 이벤트와 관련된 센서 아이디를 포함하는 데이터 필드이다. The sensor ID field associated with the event 340 is a data field including a sensor ID associated with the event.
센서의 데이터 필드(Data Field of the sensor, 350)는 바로 앞에 있는 센서 아이디 필드에 있는 센서 아이디에 상응하는 데이터가 포함되는 데이터 필드이다.The data field of the sensor 350 is a data field including data corresponding to the sensor ID in the sensor ID field immediately preceding.
이 때, 이벤트와 관련된 센서는 하나 이상일 수도 있다. 이 경우 이벤트와 연관된 센서 아이디 필드(Sensor ID field associated with the event, 340), 센서의 데이터 필드(Data Field of the sensor, 350)가 순차적으로 반복되는데, 반복되는 데이터 필드들은 도 3에 도시된 360에 위치한다.In this case, there may be one or more sensors associated with the event. In this case, a sensor ID field associated with the event 340 and a data field of the sensor 350 are sequentially repeated. The repeated data fields are 360 shown in FIG. 3. Located in
종료 필드(End of field, 370)는 이벤트 관련 데이터 필드가 종료되는 것을 의미하는 데이터가 위치하는 필드이다.The end field 370 is a field in which data indicating that an event related data field ends is located.
도 4는 본 발명의 일실시예에 따른 가상 동영상 생성 장치에서 객체들의 위치 정보를 추출하는 것을 나타낸 도면이다.4 is a diagram illustrating extracting location information of objects in a virtual video generating apparatus according to an embodiment of the present invention.
도 4를 참조하면, 사각형으로 이루어진 경기장에서 4개의 꼭지점들(410, 420, 430, 440) 및 선수들(450, 460)로 구성되어 있다.Referring to FIG. 4, four vertices 410, 420, 430, and 440 and players 450 and 460 are formed in a square stadium.
경기장 내부의 위치 정보를 표현하는 방법에는 제한이 없다. 도 4에서는 일반적으로 많이 사용되는 3차원 좌표 (x,y,z) 형식으로 표현하였다. X와 y는 경기장의 가로 방향 및 세로 방향에 대응되고, z의 경우 높이 정보를 표현할 수 있다.There is no limitation on the way of expressing the location information in the stadium. In FIG. 4, a 3D coordinate (x, y, z) format is commonly used. X and y correspond to the horizontal and vertical directions of the stadium, and in the case of z, height information may be expressed.
도 4에서는 4개의 꼭지점들을 각각 (0,0,0), (500,0,0), (500,300,0), (0,300,0)으로 기준을 만들고, 경기장 내부의 객체들을 3차원 좌표로 표시하였다.In FIG. 4, four vertices are set as (0,0,0), (500,0,0), (500,300,0), and (0,300,0), respectively, and objects in the stadium are displayed in 3D coordinates. It was.
예를 들면, 선수(450)의 위치 정보는 (100, 150, 150)으로 표현될 수 있고, 다른 선수(460)의 위치 정보는 (120,150,50)으로 표현될 수 있다.For example, the position information of the player 450 may be represented by (100, 150, 150), and the position information of another player 460 may be represented by (120, 150, 50).
이 때, 좌표들을 동일한(uniform) 간격으로 나누어 표현 할 수도 있고, 다른 (non-uniform)간격으로 나누어 표현할 수도 있다. 이벤트가 많이 발생되는 골 에어리어 근방을 좁은 간격으로 좌표 간격을 정함으로써 더 정교한 위치 정보를 획득할 수도 있다.In this case, the coordinates may be expressed by dividing the same (uniform) interval, or may be expressed by dividing the other (non-uniform) interval. More precise location information may be obtained by narrowing the coordinates in the vicinity of the goal area where many events occur.
도 5 내지 도 8은 본 발명의 이벤트 관련 가상 동영상 생성 장치의 일실시예를 나타낸 도면이다.5 to 8 are diagrams illustrating an embodiment of an event related virtual video generating apparatus of the present invention.
도 5 내지 도 8을 참조하면, 다른 방향에서 바라본 선수가 슛을 하는 이벤트에 관한 가상 동영상의 일부를 도시한 것이다.5 to 8 illustrate a part of a virtual video regarding an event in which a player viewed from another direction shoots.
이 때, 가상 동영상을 객체를 확대 또는 축소, 회전 등의 제어를 수행할 수 있다. 예를 들면, 도 5 내지 도 8과 같이 가상 동영상을 시계 방향으로 회전을 수행 할 수 있다.At this time, the virtual video may be controlled to enlarge or reduce or rotate the object. For example, as shown in FIGS. 5 to 8, the virtual video may be rotated in a clockwise direction.
도 9 내지 도 13은 본 발명의 이벤트 관련 가상 동영상 생성 장치의 다른 실시예를 나타낸 도면이다.9 to 13 illustrate another embodiment of an event related virtual video generating apparatus of the present invention.
도 9 내지 도 13은 페널티 에어리어 내부에서 수비팀의 반칙으로 공격팀이 패널티킥을 수행하는 이벤트에 관련된 가상 동영상의 일부를 도시한 것이다.9 to 13 illustrate a part of a virtual video related to an event in which an attacking team performs a penalty kick by a defensive team in a penalty area.
도 9 내지 도 13을 순차적으로 합성하여 가상 동영상을 생성할 수 있다. 예를 들면, 패널티킥을 준비하는 가상 화면부터 시작하여 골기퍼가 패널티킥을 막아내는 가상 화면까지 생성하고 이를 시간 순서대로 합성하여 가상 동영상을 생성한다.9 to 13 may be sequentially synthesized to generate a virtual video. For example, starting with a virtual screen that prepares for a penalty kick, a goal screen also creates a virtual screen that prevents the penalty kick, and synthesizes them in chronological order to generate a virtual video.
도 14는 본 발명의 일실시예에 따른 이벤트 관련 가상 동영상 생성 방법을 나타낸 동작 흐름도이다.14 is a flowchart illustrating an event-related virtual video generation method according to an embodiment of the present invention.
먼저, 이벤트 관련 데이터를 디코딩하여 이벤트 정보를 추출한다(S1410).First, event information is extracted by decoding event related data (S1410).
이 때, 이벤트는 경기 중에 일어나는 사건을 의미하며, 예를 들면, 공과 선수의 근접하는 사건, 공이 골대 안으로 들어가는 사건, 선수의 성공적인 태클 사건, 세트 피스 사건, 패스 가로채기 사건, 공이 수비하는 선수 근처를 지났으나 성공적인 패스로 이어지는 사건, 역습이 진행되는 사건, 야구 경기에서 공이 펜스 뒤로 넘어가는 사건 등이 이벤트가 될 수 있다.In this case, the event means an event occurring during the game, for example, the approaching event of the ball and the player, the event of the ball entering the goal post, the successful tackle event of the player, the set piece event, the pass interception event, the near the player defending the ball. Events that have passed but succeeded in a pass, events with counterattack, and the ball passing behind the fence in a baseball game can be events.
이 때, 이벤트 정보는 이벤트에 관한 정보들로서, 예를 들면, 이벤트가 일어난 시간, 이벤트의 종류, 이벤트가 지속된 시간 등이 포함될 수 있다.In this case, the event information is information about the event, and may include, for example, a time when the event occurred, a type of event, a time when the event lasted, and the like.
이 때, 이벤트 데이터는 기 설정된 필드로 구성된 데이터 프레임으로 구성될 수 있다. 이에 대한 설명은 도 3에서 서술하였다.In this case, the event data may be configured as a data frame composed of preset fields. The description thereof has been described with reference to FIG. 3.
또한, 이벤트 정보 및 템플릿에 기반하여 가상 동영상을 생성한다(S1420).In addition, a virtual video is generated based on the event information and the template (S1420).
도 15는 도 14에 도시된 가상 동영상 생성에 관한 일 실시예를 나타낸 동작 흐름도이다.FIG. 15 is a flowchart illustrating an embodiment of generating a virtual video shown in FIG. 14.
도 15를 참조하면, 먼저 이벤트 정보에 기반하여 데이터 베이스에 저장된 배경 화면을 로딩한다(S1510).Referring to FIG. 15, first, a background screen stored in a database is loaded based on event information (S1510).
예를 들면, 골이 들어가는 이벤트의 경우, 공이 넘어간 골대와 골 에어리어 근처의 경기장 배경 화면을 데이터 베이스에서 불러올 수 있다.For example, in the event of a goal entry, you can retrieve a background image of the stadium where the ball was crossed and the stadium background near the goal area from the database.
또한, 배경 화면에 템플릿을 배치하여 가상 화면을 생성한다(S1520).In operation S1520, the virtual screen is generated by placing a template on the background screen.
예를 들면, 골이 들어가는 이벤트에 해당하고, 이 때 골을 넣은 선수의 위치 정보가 3차원 좌표로 (0,1,10)로 추출되었고, 골기퍼에 해당하는 선수의 위치 정보가 (1,2,9)로 추출된 경우, 경기장 배경 화면에 두 선수에 해당하는 템플릿을 위치 정보에 상응하는 배경 화면의 위치로 합성을 하는 방법으로 가상 화면을 생성한다.For example, it corresponds to an event where a goal is entered, and the location information of the player who scored the goal was extracted as (0,1,10) in 3D coordinates, and the location information of the player corresponding to the goalkeeper was (1,2). , 9), a virtual screen is generated by synthesizing the templates corresponding to the two players on the stadium wallpaper with the location of the wallpaper corresponding to the location information.
이 때, 추출된 이벤트 정보 중 시간 정보에 상응하는 가상 화면들을 생성할 수 있다.In this case, virtual screens corresponding to time information among the extracted event information may be generated.
또한, 가상 화면들을 합성하여 가상 동영상을 생성한다(S1530).In operation S1530, a virtual video is generated by synthesizing the virtual screens.
이 때, 순차적으로 합성한다는 의미는 시간의 흐름에 따라서 순서대로 합성한다는 의미이다.At this time, to synthesize sequentially means to synthesize in order over time.
이 때, 초당 합성 속도는 제한이 없다. 고 품질의 가상 동영상을 생성하기 위해서 더 많은 가상 화면들을 합성할 수도 있다.At this time, the synthesis rate per second is not limited. More virtual screens may be synthesized to create high quality virtual video.
이상에서와 같이 본 발명에 따른 이벤트 관련 가상 동영상 생성 장치 및 방법은 상기한 바와 같이 설명된 실시예들의 구성과 방법이 한정되게 적용될 수 있는 것이 아니라, 상기 실시예들은 다양한 변형이 이루어질 수 있도록 각 실시예들의 전부 또는 일부가 선택적으로 조합되어 구성될 수도 있다.As described above, the apparatus and method for generating an event-related virtual video according to the present invention may not be limitedly applied to the configuration and method of the embodiments described above, and the embodiments may be modified in various ways so that various modifications may be made. All or part of the examples may be optionally combined.

Claims (16)

  1. 기 설정된 필드들로 인코딩된 경기의 이벤트 관련 데이터를 디코딩하여 상기 이벤트 정보를 추출하는 디코딩부;A decoder configured to decode event-related data of a game encoded with preset fields to extract the event information;
    경기장 내부의 객체들 각각에 상응하는 템플릿들이 저장된 데이터 베이스; 및A database storing templates corresponding to each of the objects in the stadium; And
    상기 이벤트 정보 및 상기 템플릿들에 기반하여 상기 이벤트에 상응하는 가상 동영상을 생성하는 동영상 생성부Video generation unit for generating a virtual video corresponding to the event based on the event information and the templates
    를 포함하는 것을 특징으로 하는 경기 가상 동영상 생성 장치.Match virtual video generating device comprising a.
  2. 청구항 1에 있어서,The method according to claim 1,
    상기 디코딩부는The decoding unit
    상기 경기의 이벤트 관련 데이터에 포함된 상기 이벤트에 상응하는 정보를 디코딩하여 상기 이벤트의 종류 및 정보를 추출하는 이벤트 디코딩부; 및An event decoding unit for extracting the type and information of the event by decoding information corresponding to the event included in the event related data of the game; And
    상기 경기의 이벤트 관련 데이터에 포함된 센서들에 상응하는 정보를 디코딩하여 상기 센서들의 식별자 및 위치 정보들을 추출하는 센서 디코딩부Sensor decoding unit for extracting the identifier and location information of the sensors by decoding the information corresponding to the sensors included in the event-related data of the game
    를 포함하는 것을 특징으로 하는 경기 가상 동영상 생성 장치.Match virtual video generating device comprising a.
  3. 청구항 2에 있어서,The method according to claim 2,
    상기 센서 디코딩부는The sensor decoding unit
    상기 객체들에 상응하는 센서들의 식별자에 기반하여 상기 객체들 각각을 구별하는 객체 식별부; 및An object identifier which distinguishes each of the objects based on identifiers of sensors corresponding to the objects; And
    상기 센서들의 위치 정보에 기반하여 상기 객체들 각각에 상응하는 위치 정보들을 추출하는 위치 정보 추출부Location information extraction unit for extracting location information corresponding to each of the objects based on the location information of the sensors
    를 포함하는 것을 특징으로 하는 경기 가상 동영상 생성 장치.Match virtual video generating device comprising a.
  4. 청구항 3에 있어서,The method according to claim 3,
    상기 동영상 생성부는The video generation unit
    상기 이벤트 정보에 기반하여 상기 데이터 베이스에서 상기 이벤트에 상응하는 배경 화면을 불러오는 배경 화면 생성부;A background screen generation unit which loads a background screen corresponding to the event in the database based on the event information;
    상기 객체들 각각에 상응하는 위치 정보들에 기반하여 상기 객체들 각각에 상응하는 상기 템플릿들을 상기 이벤트에 상응하는 배경화면에 배치하여 가상 화면들을 생성하는 가상 화면 생성부; 및A virtual screen generation unit generating virtual screens by placing the templates corresponding to each of the objects on a background screen corresponding to the event based on location information corresponding to each of the objects; And
    상기 가상 화면들을 순차적으로 합성하여 상기 이벤트에 상응하는 상기 가상 동영상을 생성하는 가상 동영상 생성부A virtual video generation unit configured to sequentially synthesize the virtual screens to generate the virtual video corresponding to the event
    를 포함하는 것을 특징으로 하는 가상 동영상 생성 장치.Virtual video generating device comprising a.
  5. 청구항 1에 있어서,The method according to claim 1,
    상기 경기 가상 동영상 생성 장치는The game virtual video generating device
    상기 이벤트에 상응하는 기 촬영된 경기 영상에서 사운드를 추출하는 사운드 추출부Sound extractor for extracting the sound from the pre-recorded match video corresponding to the event
    를 더 포함하는 것을 특징으로 하는 경기 가상 동영상 생성 장치.Match virtual video generating device further comprising.
  6. 청구항 5에 있어서,The method according to claim 5,
    상기 경기 가상 동영상 생성 장치는 The game virtual video generating device
    상기 사운드 추출부에서 추출한 사운드와 상기 가상 동영상과 동기화 하는 동기화부A synchronizer for synchronizing the sound extracted by the sound extractor with the virtual video
    를 더 포함하는 것을 특징으로 하는 경기 가상 동영상 생성 장치.Match virtual video generating device further comprising.
  7. 청구항 1에 있어서,The method according to claim 1,
    상기 경기 가상 동영상 생성 장치는The game virtual video generating device
    상기 동영상에 존재하는 객체들 각각을 확대, 축소 및 제어하는 제어부Control unit to enlarge, reduce and control each of the objects present in the video
    를 더 포함하는 것을 특징으로 하는 경기 가상 동영상 생성 장치.Match virtual video generating device further comprising.
  8. 청구항 1에 있어서,The method according to claim 1,
    상기 인코딩된 이벤트 관련 데이터는The encoded event related data is
    이벤트 아이디 필드(Event ID Field), 이벤트 속성 필드(Properties of Event Field), 관련된 센서 아이디 필드(Sensor ID Field associated with event), 센서 데이터 필드(Data field of sensor) 중 어느 하나 이상을 포함하고, 상기 필드들은 SOF(Start of Field)와 EOF(End of field) 사이에 존재하는 데이터 프레임을 갖는 것을 특징으로 하는 경기 가상 동영상 생성 장치.And at least one of an event ID field, an event attribute field, a sensor ID field associated with an event, and a data field of sensor. And the fields have a data frame present between a start of field (SOF) and an end of field (EOF).
  9. 기 설정된 필드들로 인코딩된 경기의 이벤트 관련 데이터를 디코딩하여 이벤트 정보를 추출하는 단계; 및Extracting event information by decoding event related data of a game encoded with preset fields; And
    상기 이벤트 정보 및 데이터베이스에 저장된 경기장 내부의 객체들 각각에 상응하는 템플릿들에 기반하여 상기 이벤트에 상응하는 가상 동영상을 생성하는 단계Generating a virtual video corresponding to the event based on the event information and templates corresponding to each of the objects in the stadium stored in the database;
    를 포함하는 것을 특징으로 하는 경기 가상 동영상 생성 방법.Match virtual video generating method comprising a.
  10. 청구항 9에 있어서,The method according to claim 9,
    상기 이벤트 정보를 추출하는 단계는Extracting the event information
    상기 경기의 이벤트 관련 데이터에 포함된 상기 이벤트에 상응하는 정보를 디코딩하여 상기 이벤트의 종류 및 정보를 추출하는 단계; 및Extracting the type and information of the event by decoding the information corresponding to the event included in the event related data of the game; And
    상기 경기의 이벤트 관련 데이터에 포함된 센서들에 상응하는 정보를 디코딩하여 상기 센서들의 식별자 및 위치정보들을 추출하는 단계Extracting identifiers and location information of the sensors by decoding the information corresponding to the sensors included in the event-related data of the game.
    를 포함하는 것을 특징으로 하는 경기 가상 동영상 생성 방법.Match virtual video generating method comprising a.
  11. 청구항 10에 있어서,The method according to claim 10,
    상기 센서들의 식별자 및 위치 정보들을 추출하는 단계는Extracting identifiers and location information of the sensors
    상기 객체들에 상응하는 센서들의 식별자에 기반하여 상기 객체들 각각을 구별하는 단계; 및Distinguishing each of the objects based on identifiers of sensors corresponding to the objects; And
    상기 센서들의 위치 정보에 기반하여 상기 객체들 각각에 상응하는 위치 정보들을 추출하는 단계Extracting location information corresponding to each of the objects based on the location information of the sensors;
    를 포함하는 것을 특징으로 하는 경기 가상 동영상 생성 방법.Match virtual video generating method comprising a.
  12. 청구항 11에 있어서,The method according to claim 11,
    상기 가상 동영상을 생성하는 단계는Generating the virtual video is
    상기 이벤트 정보에 기반하여 상기 데이터 베이스에서 상기 이벤트에 상응하는 배경 화면을 불러오는 단계;Loading a background screen corresponding to the event from the database based on the event information;
    상기 객체들 각각에 상응하는 위치 정보들에 기반하여 상기 객체들 각각에 상응하는 상기 템플릿들을 상기 배경 화면에 배치하여 가상 화면들을 생성하는 단계; 및Generating virtual screens by placing the templates corresponding to each of the objects on the background screen based on location information corresponding to each of the objects; And
    상기 가상 화면을 순차적으로 합성하여 상기 이벤트에 상응하는 상기 가상 동영상을 생성하는 단계Generating the virtual video corresponding to the event by sequentially synthesizing the virtual screen
    를 포함하는 것을 특징으로 하는 경기 가상 동영상 생성 방법.Match virtual video generating method comprising a.
  13. 청구항 9에 있어서,The method according to claim 9,
    상기 경기 가상 동영상 생성 방법은The game virtual video generation method
    상기 이벤트에 상응하는 기 촬영된 경기 영상에서 사운드를 추출하는 단계Extracting a sound from a pre-recorded game image corresponding to the event
    를 더 포함하는 것을 특징으로 하는 경기 가상 동영상 생성 방법.Match virtual video generating method further comprising a.
  14. 청구항 13에 있어서,The method according to claim 13,
    상기 경기 가상 동영상 생성 방법은The game virtual video generation method
    상기 사운드와 상기 가상 동영상과 동기화하는 단계Synchronizing the sound with the virtual video
    를 더 포함하는 것을 특징으로 하는 경기 가상 동영상 생성 방법.Match virtual video generating method further comprising a.
  15. 청구항 9에 있어서,The method according to claim 9,
    상기 경기 가상 동영상 생성 방법은The game virtual video generation method
    상기 가상 동영상에 존재하는 객체들 각각을 확대, 축소 및 제어하는 단계Enlarging, reducing and controlling each of the objects present in the virtual video
    를 더 포함하는 것을 특징으로 하는 경기 가상 동영상 생성 방법.Match virtual video generating method further comprising a.
  16. 청구항 9에 있어서,The method according to claim 9,
    상기 인코딩 된 이벤트 관련 데이터는The encoded event-related data
    이벤트 아이디 필드(Event ID Field), 이벤트 속성 필드(Properties of Event Field), 관련된 센서 아이디 필드(Sensor ID Field associated with event), 센서 데이터 필드(Data field of sensor) 중 어느 하나 이상을 포함하고, 상기 필드들은 SOF(Start of Field)와 EOF(End of field) 사이에 존재하는 데이터 프레임을 갖는 것을 특징으로 하는 경기 가상 동영상 생성 방법.And at least one of an event ID field, an event attribute field, a sensor ID field associated with an event, and a data field of sensor. And the fields have a data frame existing between a start of field (SOF) and an end of field (EOF).
PCT/KR2016/001398 2015-03-02 2016-02-11 Device for generating virtual video related to event of game and method using same WO2016140444A1 (en)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR10-2015-0029135 2015-03-02
KR1020150029135A KR101559469B1 (en) 2015-03-02 2015-03-02 Apparatus for creating virtual video related to event of game and method using the same

Publications (1)

Publication Number Publication Date
WO2016140444A1 true WO2016140444A1 (en) 2016-09-09

Family

ID=54347303

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/KR2016/001398 WO2016140444A1 (en) 2015-03-02 2016-02-11 Device for generating virtual video related to event of game and method using same

Country Status (2)

Country Link
KR (1) KR101559469B1 (en)
WO (1) WO2016140444A1 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113051702A (en) * 2020-10-29 2021-06-29 视伴科技(北京)有限公司 Event activity operation simulation system

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101833644B1 (en) * 2016-11-25 2018-03-02 국방과학연구소 System and Method for recording screen shot combined with event information, graphic information, and template image

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006251885A (en) * 2005-03-08 2006-09-21 Kddi Corp Device for classifying and device for log generating sports video
KR20070010895A (en) * 2005-07-20 2007-01-24 주식회사 팬택 Mobile device and method for providing graphic image based on text data
JP2008117042A (en) * 2006-11-01 2008-05-22 Nomura Research Institute Ltd Virtual space providing server, virtual space providing system, and computer program
KR20090118634A (en) * 2008-05-14 2009-11-18 (주)비주얼 스포츠 System and method of athletics automatic analysis
KR101400923B1 (en) * 2012-06-07 2014-06-27 최종민 Method, system and computer-readable recording medium for broadcasting sports game using simulation

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006251885A (en) * 2005-03-08 2006-09-21 Kddi Corp Device for classifying and device for log generating sports video
KR20070010895A (en) * 2005-07-20 2007-01-24 주식회사 팬택 Mobile device and method for providing graphic image based on text data
JP2008117042A (en) * 2006-11-01 2008-05-22 Nomura Research Institute Ltd Virtual space providing server, virtual space providing system, and computer program
KR20090118634A (en) * 2008-05-14 2009-11-18 (주)비주얼 스포츠 System and method of athletics automatic analysis
KR101400923B1 (en) * 2012-06-07 2014-06-27 최종민 Method, system and computer-readable recording medium for broadcasting sports game using simulation

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113051702A (en) * 2020-10-29 2021-06-29 视伴科技(北京)有限公司 Event activity operation simulation system

Also Published As

Publication number Publication date
KR101559469B1 (en) 2015-10-12

Similar Documents

Publication Publication Date Title
US8358346B2 (en) Video processing device, video processing method, and program
US6466275B1 (en) Enhancing a video of an event at a remote location using data acquired at the event
US8988528B2 (en) Video processing device, video processing method, and program
WO2009107975A1 (en) Image comparison device using personal video recorder and method using the same
WO2018030656A1 (en) Interactive virtual reality baseball game device and method for controlling virtual baseball game by same
CN106254941A (en) Method for processing video frequency and device
JP2020526125A (en) Method and system for fusing user-specific content into video production
JP7334527B2 (en) Information processing device, information processing method, and program
WO2016140444A1 (en) Device for generating virtual video related to event of game and method using same
CN110270078B (en) Football game special effect display system and method and computer device
JP2020086983A (en) Image processing device, image processing method, and program
WO2014107025A1 (en) Method and apparatus for controlling contents in electronic device
EP2515548A1 (en) A competition tracking system
WO2015020466A1 (en) System and method for judging sports game using ar glass
CN111277768A (en) Electric competition studio system
WO2018124794A1 (en) Camerawork-based image synthesis system and image synthesis method
EP3639523A1 (en) Method and apparatus for managing a wide view content in a virtual reality environment
WO2015030534A1 (en) Golf practice system for providing golf lesson information and information processing method for providing golf lesson information using the same
CN114302234B (en) Quick packaging method for air skills
WO2022239988A1 (en) Dance matching method and system
JP5266035B2 (en) Sign language video display device, sign language video display method, and program
WO2022086202A1 (en) Device and method for determining image for sports broadcasting, and recording medium in which command is recorded
KR101583745B1 (en) Apparatus for real-time video clip editing and apparatus for supporting turn-based game using the same
KR20190046428A (en) Integrated system and control method for recording baseball play and producing a playing image
JP2003179811A (en) Image compositing device

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 16759080

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 16759080

Country of ref document: EP

Kind code of ref document: A1