WO2016140444A1 - Device for generating virtual video related to event of game and method using same - Google Patents
Device for generating virtual video related to event of game and method using same Download PDFInfo
- Publication number
- WO2016140444A1 WO2016140444A1 PCT/KR2016/001398 KR2016001398W WO2016140444A1 WO 2016140444 A1 WO2016140444 A1 WO 2016140444A1 KR 2016001398 W KR2016001398 W KR 2016001398W WO 2016140444 A1 WO2016140444 A1 WO 2016140444A1
- Authority
- WO
- WIPO (PCT)
- Prior art keywords
- event
- virtual video
- game
- information
- objects
- Prior art date
Links
- 238000000034 method Methods 0.000 title claims abstract description 38
- 230000002194 synthesizing effect Effects 0.000 claims description 5
- 238000000605 extraction Methods 0.000 claims description 2
- 238000010586 diagram Methods 0.000 description 10
- 239000000284 extract Substances 0.000 description 4
- 230000015572 biosynthetic process Effects 0.000 description 2
- 238000003786 synthesis reaction Methods 0.000 description 2
- 238000007796 conventional method Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000009877 rendering Methods 0.000 description 1
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/80—Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
- H04N21/81—Monomedia components thereof
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/80—Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
- H04N21/81—Monomedia components thereof
- H04N21/8126—Monomedia components thereof involving additional data, e.g. news, sports, stocks, weather forecasts
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q50/00—Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
- G06Q50/10—Services
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/80—Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
- H04N21/81—Monomedia components thereof
- H04N21/8146—Monomedia components thereof involving graphical data, e.g. 3D object, 2D graphics
- H04N21/8153—Monomedia components thereof involving graphical data, e.g. 3D object, 2D graphics comprising still images, e.g. texture, background image
Definitions
- the present invention relates to an apparatus for generating a virtual video related to an event of a game, and a method using the same (APPARATUS FOR CREATING VIRTUAL VIDEO RELATED TO EVENT OF GAME AND METHOD USING THE SAME).
- the conventional techniques are inconvenient because they generate a virtual video by directly rendering a reference to the actual image of the game.
- An object of the present invention is to provide a more sophisticated and realistic virtual video using event information extracted by decoding encoded data related to an event of a game.
- an object of the present invention is to quickly generate a virtual video by storing a template corresponding to an object in a database and using the same for creating a virtual video.
- an object of the present invention is to provide a more realistic virtual video by synchronizing the sound with the virtual video.
- an apparatus for generating an event-related game virtual video including: a decoder configured to decode event-related data of a game encoded with preset fields; A database storing templates corresponding to each of the objects in the stadium; And a video generating unit generating a virtual video corresponding to the event based on the event information and the templates.
- the decoding unit is an event decoding unit for extracting the type and information of the event by decoding the information corresponding to the event included in the event-related data of the game; And a sensor decoding unit decoding information corresponding to sensors included in event related data of the game and extracting identifiers and position information of the sensors.
- the sensor decoding unit may include an object identification unit that distinguishes each of the objects based on identifiers of sensors corresponding to the objects; And a location information extracting unit extracting location information corresponding to each of the objects based on the location information of the sensors.
- the video generating unit may include a background screen generating unit which loads a background screen corresponding to the event from the database based on the event information; A virtual screen generation unit generating virtual screens by placing the templates corresponding to each of the objects on a background screen corresponding to the event based on location information corresponding to each of the objects; And a virtual video generator configured to sequentially synthesize the virtual screens to generate the virtual video corresponding to the event.
- the game virtual video generating device may further include a sound extracting unit for extracting a sound from the pre-recorded game image corresponding to the event.
- the game virtual video generating device may further include a synchronization unit for synchronizing the sound extracted by the sound extraction unit and the virtual video.
- the game virtual video generating apparatus may further include a control unit for expanding, reducing and controlling each of the objects present in the video.
- the encoded event-related data may include an event ID field, an event attribute field, a sensor ID field associated with an event, and a sensor data field.
- the fields may have a data frame existing between a start of field (SOF) and an end of field (EOF).
- the event-related virtual video generating method comprises the steps of extracting the event information by decoding the event-related data of the game encoded in the predetermined field; And generating a virtual video corresponding to the event based on templates corresponding to each of the objects in the stadium stored in the event information and the database.
- the extracting of the event information may include extracting the type and information of the event by decoding information corresponding to the event included in the event related data of the game; And extracting identifiers and location information of the sensors by decoding information corresponding to the sensors included in the event-related data of the game.
- extracting the identifiers and location information of the sensors may include distinguishing each of the objects based on the identifiers of the sensors corresponding to the objects; And extracting location information corresponding to each of the objects based on location information of the sensors.
- the generating of the virtual video may include: loading a background screen corresponding to the event from the database based on the event information; Generating virtual screens by placing the templates corresponding to each of the objects on the background screen based on location information corresponding to each of the objects; And sequentially synthesizing the virtual screen to generate the virtual video corresponding to the event.
- the game virtual video generating method may further include extracting a sound from a pre-recorded game video corresponding to the event.
- the game virtual video generating method may further comprise the step of synchronizing the sound and the virtual video.
- the game virtual video generating method may further include expanding, reducing, and controlling each of the objects existing in the virtual video.
- the encoded event-related data may include an event ID field, an event attribute field, a sensor ID field associated with an event, and a sensor data field.
- the fields may have a data frame existing between a start of field (SOF) and an end of field (EOF).
- the present invention can provide a more precise and realistic virtual video using the decoded and extracted event information.
- the present invention can quickly generate a virtual video by storing a template corresponding to the object in a database, and using it for creating a virtual video.
- the present invention can provide a more realistic virtual video by synchronizing the sound with the virtual video.
- FIG. 1 is a block diagram illustrating an event-related virtual video generating device according to an embodiment of the present invention.
- FIG. 2 is a block diagram of an embodiment of a video generating unit illustrated in FIG. 1.
- FIG. 3 is a diagram illustrating an embodiment of a data frame of event-related data of an encoded game of the present invention.
- FIG. 4 is a diagram illustrating extracting location information of objects in a virtual video generating apparatus according to an embodiment of the present invention.
- 5 to 8 are diagrams illustrating an embodiment of an event related virtual video generating apparatus of the present invention.
- 9 to 13 illustrate another embodiment of an event related virtual video generating apparatus of the present invention.
- FIG. 14 is a flowchart illustrating an event-related virtual video generation method according to an embodiment of the present invention.
- FIG. 15 is a flowchart illustrating an embodiment of generating a virtual video shown in FIG. 14.
- FIG. 1 is a block diagram illustrating an event-related virtual video generating device according to an embodiment of the present invention.
- an event related virtual video generating apparatus includes a decoding unit 110, a video generating unit 120, and a database 130.
- the decoding unit 110 extracts event information by decoding event related data of a game encoded with preset fields.
- the event means an event occurring during the game, for example, the approaching event of the ball and the player, the event of the ball entering the goal post, the successful tackle event of the player, the set piece event, the pass interception event, the near the player defending the ball.
- Events that have passed but succeeded in a pass, events with counterattack, and the ball passing behind the fence in a baseball game can be events.
- the event information is information about the event, and may include, for example, a time when the event occurred, a type of event, a time when the event lasted, and the like.
- the event data may be configured as a data frame composed of preset fields. This will be described later in FIG. 3.
- the decoding unit 110 decodes the information corresponding to the event included in the event-related data of the game to extract the type and information of the event and event-related data of the game
- the sensor decoding unit may decode information corresponding to sensors included in and extract identifiers and position information of the sensors.
- the event decoding unit may extract the event-related information, the event-related information has been described above may include the time the event occurred, the type of event, the duration.
- the sensor decoding unit may extract the identifiers of the sensors corresponding to the objects in the stadium and the location information of the sensors.
- the objects in the stadium may include players in the stadium, exercise tools used by players, balls, and the like.
- the location information of the sensors may be determined by decoding and extracting the identifier, corresponding to each of the objects in the location information of the sensors.
- Location information can be extracted. For example, if the sensor identifier installed in the attacker of the football game is 001, the sensor identifier is 001 inside the decoded event related data, and the position is (0,10,100), the position of the attacker of the football game is (0,10,100). This can be
- the number of sensors installed in each of the objects is not limited. In order to extract the location information accurately, several sensors may be installed in the object.
- the database 130 stores a template corresponding to each of the objects in the stadium.
- a template corresponding to each of the objects may be stored in advance to quickly generate a virtual video.
- players' bodies and faces may be pre-rendered and stored as templates. It is also possible to pre-render the movements of the players and save them as templates.
- the audience of the stadium may be pre-rendered and stored as a template to generate a more realistic video when generating a virtual video.
- the video generator 120 may generate a virtual video corresponding to the event based on the event information and the templates.
- the video generating unit 120 will be described later with reference to FIG. 2.
- the generated video may be transmitted to the device and output to the user to watch the video.
- a sound extracting unit extracting sound from the captured game image corresponding to the event and a synchronization unit performing synchronization between the sound extracted from the sound extracting unit and the virtual video may be included.
- the sound may be extracted from the game relay screen, or the sound may be extracted by recording.
- the synchronization unit serves to synchronize the sound and the virtual video.
- a virtual video corresponding to a sound corresponding to a specific time may be generated.
- FIG. 2 is a block diagram of an embodiment of a video generating unit illustrated in FIG. 1.
- the video generator 120 includes a background screen generator 210, a virtual screen generator 220, and a virtual video generator 230.
- the background screen generator 210 calls a background screen corresponding to the event in the database based on the event information.
- the virtual screen generation unit 220 generates a virtual screen by placing templates corresponding to each of the objects on a background screen based on location information corresponding to each of the objects.
- a virtual screen is generated by synthesizing the templates corresponding to the two players on the stadium wallpaper with the location of the wallpaper corresponding to the location information.
- virtual screens corresponding to time information among the extracted event information may be generated.
- the virtual video generator 230 sequentially synthesizes the virtual screens generated by the virtual screen generator 220 to generate a virtual video corresponding to the event.
- the synthesis rate per second is not limited. More virtual screens can be synthesized to create high quality virtual video.
- FIG. 3 is a diagram illustrating an embodiment of a data frame of event-related data of an encoded game of the present invention.
- the data frame includes a start field 310, an event ID field 320, a property of event field 330, and a sensor ID field associated with an event.
- the Start of field 310 is a field where data starts.
- the event ID field 320 is a data field relating to the type of event. For example, an event in which a goal is scored in a soccer game may be 'ID: 001', and an event in which a foul is generated may be 'ID: 010'. When the counterattack begins, it may be 'ID: 011'.
- the Properties of event field 330 is a data field including time information, location information, and object information related to an event.
- the time information may include an event occurrence time, a time of a predetermined interval before event occurrence, and a time of a predetermined interval after event occurrence.
- the time information includes data such as the time the goal was entered, one minute before the goal was entered, and one minute after the goal was entered. Can be.
- the location information may include information located in the stadium of the sensors related to the event. For example, in the case of data collected when an event of entering a goal occurs in a soccer game, a circular area having a radius of 5 m with respect to the ball may be included in the location information.
- the object information may include information of sensors related to the event.
- information including IDs of one or more sensors within a circular area having a radius of 5 m from the ball may be included in the object information.
- the sensor ID field associated with the event 340 is a data field including a sensor ID associated with the event.
- the data field of the sensor 350 is a data field including data corresponding to the sensor ID in the sensor ID field immediately preceding.
- a sensor ID field associated with the event 340 and a data field of the sensor 350 are sequentially repeated.
- the repeated data fields are 360 shown in FIG. 3.
- the end field 370 is a field in which data indicating that an event related data field ends is located.
- FIG. 4 is a diagram illustrating extracting location information of objects in a virtual video generating apparatus according to an embodiment of the present invention.
- four vertices 410, 420, 430, and 440 and players 450 and 460 are formed in a square stadium.
- a 3D coordinate (x, y, z) format is commonly used.
- X and y correspond to the horizontal and vertical directions of the stadium, and in the case of z, height information may be expressed.
- FIG. 4 four vertices are set as (0,0,0), (500,0,0), (500,300,0), and (0,300,0), respectively, and objects in the stadium are displayed in 3D coordinates. It was.
- the position information of the player 450 may be represented by (100, 150, 150), and the position information of another player 460 may be represented by (120, 150, 50).
- the coordinates may be expressed by dividing the same (uniform) interval, or may be expressed by dividing the other (non-uniform) interval. More precise location information may be obtained by narrowing the coordinates in the vicinity of the goal area where many events occur.
- 5 to 8 are diagrams illustrating an embodiment of an event related virtual video generating apparatus of the present invention.
- 5 to 8 illustrate a part of a virtual video regarding an event in which a player viewed from another direction shoots.
- the virtual video may be controlled to enlarge or reduce or rotate the object.
- the virtual video may be rotated in a clockwise direction.
- 9 to 13 illustrate another embodiment of an event related virtual video generating apparatus of the present invention.
- 9 to 13 illustrate a part of a virtual video related to an event in which an attacking team performs a penalty kick by a defensive team in a penalty area.
- 9 to 13 may be sequentially synthesized to generate a virtual video.
- a goal screen starts with a virtual screen that prepares for a penalty kick, a goal screen also creates a virtual screen that prevents the penalty kick, and synthesizes them in chronological order to generate a virtual video.
- FIG. 14 is a flowchart illustrating an event-related virtual video generation method according to an embodiment of the present invention.
- event information is extracted by decoding event related data (S1410).
- the event means an event occurring during the game, for example, the approaching event of the ball and the player, the event of the ball entering the goal post, the successful tackle event of the player, the set piece event, the pass interception event, the near the player defending the ball.
- Events that have passed but succeeded in a pass, events with counterattack, and the ball passing behind the fence in a baseball game can be events.
- the event information is information about the event, and may include, for example, a time when the event occurred, a type of event, a time when the event lasted, and the like.
- the event data may be configured as a data frame composed of preset fields. The description thereof has been described with reference to FIG. 3.
- a virtual video is generated based on the event information and the template (S1420).
- FIG. 15 is a flowchart illustrating an embodiment of generating a virtual video shown in FIG. 14.
- a background screen stored in a database is loaded based on event information (S1510).
- the virtual screen is generated by placing a template on the background screen.
- a virtual screen is generated by synthesizing the templates corresponding to the two players on the stadium wallpaper with the location of the wallpaper corresponding to the location information.
- virtual screens corresponding to time information among the extracted event information may be generated.
- a virtual video is generated by synthesizing the virtual screens.
- the synthesis rate per second is not limited. More virtual screens may be synthesized to create high quality virtual video.
- the apparatus and method for generating an event-related virtual video according to the present invention may not be limitedly applied to the configuration and method of the embodiments described above, and the embodiments may be modified in various ways so that various modifications may be made. All or part of the examples may be optionally combined.
Landscapes
- Engineering & Computer Science (AREA)
- Business, Economics & Management (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Tourism & Hospitality (AREA)
- General Health & Medical Sciences (AREA)
- Health & Medical Sciences (AREA)
- Economics (AREA)
- Computer Graphics (AREA)
- Human Resources & Organizations (AREA)
- Marketing (AREA)
- Primary Health Care (AREA)
- Strategic Management (AREA)
- Physics & Mathematics (AREA)
- General Business, Economics & Management (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Processing Or Creating Images (AREA)
Abstract
Disclosed are a device and a method for generating a virtual video of a game. The device for generating a virtual video of a game, according to one embodiment of the present invention, comprises: a decoding unit for decoding data related to an event of a game, the data being encoded using preset fields, and extracting event information; a database for storing templates each corresponding to objects in a game arena; and a video generation unit for generating, on the basis of the event information and the templates, a virtual video corresponding to the event.
Description
본 발명은 경기의 이벤트 관련 가상 동영상을 생성하는 장치 및 이를 이용한 방법(APPARATUS FOR CREATING VIRTUAL VIDEO RELATED TO EVENT OF GAME AND METHOD USING THE SAME)에 관한 것이다.The present invention relates to an apparatus for generating a virtual video related to an event of a game, and a method using the same (APPARATUS FOR CREATING VIRTUAL VIDEO RELATED TO EVENT OF GAME AND METHOD USING THE SAME).
최근 축구 경기나 야구 경기 등 스포츠 경기의 인기가 점차적으로 증가하고 있다. 이에 따라 스포츠 중계 방송이나 분석 방송 등에서 경기 중에 발생한 이벤트에 관련된 영상을 방송하면서, 이에 대한 분석이 증가하고 있다.Recently, the popularity of sports games such as soccer games and baseball games is gradually increasing. Accordingly, while broadcasting a video related to an event occurring during a game in sports relay broadcasting or analysis broadcasting, analysis thereof is increasing.
최근에는 스포츠 경기를 관람하는 것을 즐기는 것을 넘어서 전문적으로 분석하는 경향이 증가하고 있다. 지금까지는 스포츠 경기를 분석하는데 있어 미리 촬영된 실제 영상을 다시 방송하는 것에 그치고 있다. 이는 다양한 방법으로 스포츠 경기를 분석하는 것을 저해하고 있으며, 오히려 이벤트에 관련된 가상 동영상을 이용하여 경기를 분석하는 것이 좀 더 다양한 방법으로 경기를 분석하는데 도움이 되고 있다.In recent years there has been an increasing tendency to analyze professionally beyond enjoying sports. Up to now, the analysis of sporting events has only re-broadcasted the actual video shot. This hinders the analysis of sporting events in various ways. Rather, analyzing the game using virtual video related to the event helps to analyze the game in more various ways.
다만, 종래의 기술들은 단순히 경기의 실제 영상을 참고하여 직접 렌더링하는 방식으로 가상 동영상을 생성하고 있어 불편한 점이 많다.However, the conventional techniques are inconvenient because they generate a virtual video by directly rendering a reference to the actual image of the game.
따라서, 경기 중의 이벤트에 관련된 가상 동영상을 좀 더 빠르게 생성하는 기술이 절실하게 대두된다.Accordingly, a technique for generating a virtual video related to an event during a game more quickly is urgently needed.
본 발명의 목적은 경기의 이벤트에 관련된 인코딩 데이터를 디코딩하여 추출된 이벤트 정보를 이용하여 좀 더 정교하고, 현실에 가까운 가상 동영상을 제공하는 것이다.An object of the present invention is to provide a more sophisticated and realistic virtual video using event information extracted by decoding encoded data related to an event of a game.
또한, 본 발명의 목적은 객체에 상응하는 템플릿을 데이터베이스에 저장하고, 이를 가상 동영상 생성에 이용함으로써 가상 동영상을 빠르게 생성하는 것이다.Also, an object of the present invention is to quickly generate a virtual video by storing a template corresponding to an object in a database and using the same for creating a virtual video.
또한, 본 발명의 목적은 가상 동영상과 사운드를 동기화 함으로써, 좀 더 실감나는 가상 동영상을 제공하는 것이다.In addition, an object of the present invention is to provide a more realistic virtual video by synchronizing the sound with the virtual video.
상기한 목적을 달성하기 위한 본 발명에 따른 이벤트 관련 경기 가상 동영상 생성 장치는 기 설정된 필드들로 인코딩된 경기의 이벤트 관련 데이터를 디코딩하여 상기 이벤트 정보를 추출하는 디코딩부; 경기장 내부의 객체들 각각에 상응하는 템플릿들이 저장된 데이터 베이스; 및 상기 이벤트 정보 및 상기 템플릿들에 기반하여 상기 이벤트에 상응하는 가상 동영상을 생성하는 동영상 생성부를 포함한다.According to an aspect of the present invention, there is provided an apparatus for generating an event-related game virtual video, including: a decoder configured to decode event-related data of a game encoded with preset fields; A database storing templates corresponding to each of the objects in the stadium; And a video generating unit generating a virtual video corresponding to the event based on the event information and the templates.
이 때, 디코딩부는 상기 경기의 이벤트 관련 데이터에 포함된 상기 이벤트에 상응하는 정보를 디코딩하여 상기 이벤트의 종류 및 정보를 추출하는 이벤트 디코딩부; 및 상기 경기의 이벤트 관련 데이터에 포함된 센서들에 상응하는 정보를 디코딩하여 상기 센서들의 식별자 및 위치 정보들을 추출하는 센서 디코딩부를 포함할 수 있다.At this time, the decoding unit is an event decoding unit for extracting the type and information of the event by decoding the information corresponding to the event included in the event-related data of the game; And a sensor decoding unit decoding information corresponding to sensors included in event related data of the game and extracting identifiers and position information of the sensors.
이 때, 센서 디코딩부는 상기 객체들에 상응하는 센서들의 식별자에 기반하여 상기 객체들 각각을 구별하는 객체 식별부; 및 상기 센서들의 위치 정보에 기반하여 상기 객체들 각각에 상응하는 위치 정보들을 추출하는 위치 정보 추출부를 포함할 수 있다.In this case, the sensor decoding unit may include an object identification unit that distinguishes each of the objects based on identifiers of sensors corresponding to the objects; And a location information extracting unit extracting location information corresponding to each of the objects based on the location information of the sensors.
이 때, 동영상 생성부는 상기 이벤트 정보에 기반하여 상기 데이터 베이스에서 상기 이벤트에 상응하는 배경 화면을 불러오는 배경 화면 생성부; 상기 객체들 각각에 상응하는 위치 정보들에 기반하여 상기 객체들 각각에 상응하는 상기 템플릿들을 상기 이벤트에 상응하는 배경화면에 배치하여 가상 화면들을 생성하는 가상 화면 생성부; 및 상기 가상 화면들을 순차적으로 합성하여 상기 이벤트에 상응하는 상기 가상 동영상을 생성하는 가상 동영상 생성부를 포함할 수 있다.In this case, the video generating unit may include a background screen generating unit which loads a background screen corresponding to the event from the database based on the event information; A virtual screen generation unit generating virtual screens by placing the templates corresponding to each of the objects on a background screen corresponding to the event based on location information corresponding to each of the objects; And a virtual video generator configured to sequentially synthesize the virtual screens to generate the virtual video corresponding to the event.
이 때, 경기 가상 동영상 생성 장치는 상기 이벤트에 상응하는 기 촬영된 경기 영상에서 사운드를 추출하는 사운드 추출부를 더 포함할 수 있다.At this time, the game virtual video generating device may further include a sound extracting unit for extracting a sound from the pre-recorded game image corresponding to the event.
이 때, 경기 가상 동영상 생성 장치는 상기 사운드 추출부에서 추출한 사운드와 상기 가상 동영상과 동기화 하는 동기화부를 더 포함할 수도 있다.At this time, the game virtual video generating device may further include a synchronization unit for synchronizing the sound extracted by the sound extraction unit and the virtual video.
이 때, 경기 가상 동영상 생성 장치는 상기 동영상에 존재하는 객체들 각각을 확대, 축소 및 제어하는 제어부를 더 포함할 수도 있다.At this time, the game virtual video generating apparatus may further include a control unit for expanding, reducing and controlling each of the objects present in the video.
이 때, 상기 인코딩 된 이벤트 관련 데이터는 이벤트 아이디 필드(Event ID Field), 이벤트 속성 필드(Properties of Event Field), 관련된 센서 아이디 필드(Sensor ID Field associated with event), 센서 데이터 필드(Data field of Sensor) 중 어느 하나 이상을 포함하고, 상기 필드들은 SOF(Start Of Field) 와 EOF(End Of Field) 사이에 존재하는 데이터 프레임을 가질 수도 있다.In this case, the encoded event-related data may include an event ID field, an event attribute field, a sensor ID field associated with an event, and a sensor data field. ), And the fields may have a data frame existing between a start of field (SOF) and an end of field (EOF).
또한, 본 발명에 따른 이벤트 관련 가상 동영상 생성 방법은 기 설정된 필드들로 인코딩된 경기의 이벤트 관련 데이터를 디코딩하여 이벤트 정보를 추출하는 단계; 및 상기 이벤트 정보 및 데이터 베이스에 저장된 경기장 내부의 객체들 각각에 상응하는 템플릿들에 기반하여 상기 이벤트에 상응하는 가상 동영상을 생성하는 단계를 포함할 수 있다.In addition, the event-related virtual video generating method according to the present invention comprises the steps of extracting the event information by decoding the event-related data of the game encoded in the predetermined field; And generating a virtual video corresponding to the event based on templates corresponding to each of the objects in the stadium stored in the event information and the database.
이 때, 상기 이벤트 정보를 추출하는 단계는 상기 경기의 이벤트 관련 데이터에 포함된 상기 이벤트에 상응하는 정보를 디코딩하여 상기 이벤트의 종류 및 정보를 추출하는 단계; 및 상기 경기의 이벤트 관련 데이터에 포함된 센서들에 상응하는 정보를 디코딩하여 상기 센서들의 식별자 및 위치 정보들을 추출하는 단계를 포함할 수 있다.In this case, the extracting of the event information may include extracting the type and information of the event by decoding information corresponding to the event included in the event related data of the game; And extracting identifiers and location information of the sensors by decoding information corresponding to the sensors included in the event-related data of the game.
이 때, 상기 센서들의 식별자 및 위치 정보들을 추출하는 단계는 상기 객체들에 상응하는 센서들의 식별자에 기반하여 상기 객체들 각각을 구별하는 단계; 및 상기 센서들의 위치 정보에 기반하여 상기 객체들 각각에 상응하는 위치 정보들을 추출하는 단계를 포함할 수 있다.In this case, extracting the identifiers and location information of the sensors may include distinguishing each of the objects based on the identifiers of the sensors corresponding to the objects; And extracting location information corresponding to each of the objects based on location information of the sensors.
이 때, 상기 가상 동영상을 생성하는 단계는 상기 이벤트 정보에 기반하여 상기 데이터 베이스에서 상기 이벤트에 상응하는 배경 화면을 불러오는 단계; 상기 객체들 각각에 상응하는 위치 정보들에 기반하여 상기 객체들 각각에 상응하는 상기 템플릿들을 상기 배경 화면에 배치하여 가상 화면들을 생성하는 단계; 및 상기 가상 화면을 순차적으로 합성하여 상기 이벤트에 상응하는 상기 가상 동영상을 생성하는 단계를 포함할 수 있다.The generating of the virtual video may include: loading a background screen corresponding to the event from the database based on the event information; Generating virtual screens by placing the templates corresponding to each of the objects on the background screen based on location information corresponding to each of the objects; And sequentially synthesizing the virtual screen to generate the virtual video corresponding to the event.
이 때, 상기 경기 가상 동영상 생성 방법은 상기 이벤트에 상응하는 기 촬영된 경기 영상에서 사운드를 추출하는 단계를 더 포함할 수 있다.In this case, the game virtual video generating method may further include extracting a sound from a pre-recorded game video corresponding to the event.
이 때, 상기 경기 가상 동영상 생성 방법은 상기 사운드와 상기 가상 동영상과 동기화하는 단계를 더 포함할 수 있다.At this time, the game virtual video generating method may further comprise the step of synchronizing the sound and the virtual video.
이 때, 상기 경기 가상 동영상 생성 방법은 상기 가상 동영상에 존재하는 객체들 각각을 확대, 축소 및 제어하는 단계를 더 포함할 수 있다.In this case, the game virtual video generating method may further include expanding, reducing, and controlling each of the objects existing in the virtual video.
이 때, 상기 인코딩 된 이벤트 관련 데이터는 이벤트 아이디 필드(Event ID Field), 이벤트 속성 필드(Properties of Event Field), 관련된 센서 아이디 필드(Sensor ID Field associated with event), 센서 데이터 필드(Data field of Sensor) 중 어느 하나 이상을 포함하고, 상기 필드들은 SOF(Start Of Field) 와 EOF(End Of Field) 사이에 존재하는 데이터 프레임을 가질 수 있다.In this case, the encoded event-related data may include an event ID field, an event attribute field, a sensor ID field associated with an event, and a sensor data field. ), And the fields may have a data frame existing between a start of field (SOF) and an end of field (EOF).
본 발명은 디코딩되어 추출된 이벤트 정보를 이용하여 좀 더 정교하고, 현실에 가까운 가상 동영상을 제공할 수 있다.The present invention can provide a more precise and realistic virtual video using the decoded and extracted event information.
또한, 본 발명은 객체에 상응하는 템플릿을 데이터베이스에 저장하고, 이를 가상 동영상 생성에 이용함으로써 가상 동영상을 빠르게 생성할 수 있다.In addition, the present invention can quickly generate a virtual video by storing a template corresponding to the object in a database, and using it for creating a virtual video.
또한, 본 발명은 가상 동영상과 사운드를 동기화 함으로써, 좀 더 실감나는 가상 동영상을 제공할 수 있다.In addition, the present invention can provide a more realistic virtual video by synchronizing the sound with the virtual video.
도 1은 본 발명의 일실시예에 따른 이벤트 관련 가상 동영상 생성 장치를 나타낸 블록도이다.1 is a block diagram illustrating an event-related virtual video generating device according to an embodiment of the present invention.
도 2는 도 1에 도시된 동영상 생성부의 일실시예에 관한 블록도이다.FIG. 2 is a block diagram of an embodiment of a video generating unit illustrated in FIG. 1.
도 3은 본 발명의 인코딩된 경기의 이벤트 관련 데이터가 갖는 데이터 프레임의 일실시예를 나타낸 도면이다.3 is a diagram illustrating an embodiment of a data frame of event-related data of an encoded game of the present invention.
도 4는 본 발명의 일실시예에 따른 가상 동영상 생성 장치에서 객체들의 위치 정보를 추출하는 것을 나타낸 도면이다.4 is a diagram illustrating extracting location information of objects in a virtual video generating apparatus according to an embodiment of the present invention.
도 5 내지 도 8은 본 발명의 이벤트 관련 가상 동영상 생성 장치의 일실시예를 나타낸 도면이다.5 to 8 are diagrams illustrating an embodiment of an event related virtual video generating apparatus of the present invention.
도 9 내지 도 13은 본 발명의 이벤트 관련 가상 동영상 생성 장치의 다른 실시예를 나타낸 도면이다.9 to 13 illustrate another embodiment of an event related virtual video generating apparatus of the present invention.
도 14는 본 발명의 일실시예에 따른 이벤트 관련 가상 동영상 생성 방법을 나타낸 동작 흐름도이다.14 is a flowchart illustrating an event-related virtual video generation method according to an embodiment of the present invention.
도 15는 도 14에 도시된 가상 동영상 생성에 관한 일 실시예를 나타낸 동작 흐름도이다.FIG. 15 is a flowchart illustrating an embodiment of generating a virtual video shown in FIG. 14.
본 발명을 첨부된 도면을 참조하여 상세히 설명하면 다음과 같다. 여기서, 반복되는 설명, 본 발명의 요지를 불필요하게 흐릴 수 있는 공지 기능, 및 구성에 대한 상세한 설명은 생략한다. 본 발명의 실시형태는 당 업계에서 평균적인 지식을 가진 자에게 본 발명을 보다 완전하게 설명하기 위해서 제공되는 것이다. 따라서, 도면에서의 요소들의 형상 및 크기 등은 보다 명확한 설명을 위해 과장될 수 있다.Hereinafter, the present invention will be described in detail with reference to the accompanying drawings. Here, the repeated description, well-known functions and configurations that may unnecessarily obscure the subject matter of the present invention, and detailed description of the configuration will be omitted. Embodiments of the present invention are provided to more completely describe the present invention to those skilled in the art. Accordingly, the shape and size of elements in the drawings may be exaggerated for clarity.
이하, 본 발명에 따른 바람직한 실시예를 첨부된 도면을 참조하여 상세하게 설명한다.Hereinafter, exemplary embodiments of the present invention will be described in detail with reference to the accompanying drawings.
도 1은 본 발명의 일실시예에 따른 이벤트 관련 가상 동영상 생성 장치를 나타낸 블록도이다.1 is a block diagram illustrating an event-related virtual video generating device according to an embodiment of the present invention.
도 1을 참조하면, 이벤트 관련 가상 동영상 생성 장치는 디코딩부(110), 동영상 생성부(120) 및 데이터베이스(130)로 구성되어 있다.Referring to FIG. 1, an event related virtual video generating apparatus includes a decoding unit 110, a video generating unit 120, and a database 130.
디코딩부(110)는 기 설정된 필드들로 인코딩 된 경기의 이벤트 관련 데이터를 디코딩하여 이벤트 정보를 추출한다.The decoding unit 110 extracts event information by decoding event related data of a game encoded with preset fields.
이 때, 이벤트는 경기 중에 일어나는 사건을 의미하며, 예를 들면, 공과 선수의 근접하는 사건, 공이 골대 안으로 들어가는 사건, 선수의 성공적인 태클 사건, 세트 피스 사건, 패스 가로채기 사건, 공이 수비하는 선수 근처를 지났으나 성공적인 패스로 이어지는 사건, 역습이 진행되는 사건, 야구 경기에서 공이 펜스 뒤로 넘어가는 사건 등이 이벤트가 될 수 있다.In this case, the event means an event occurring during the game, for example, the approaching event of the ball and the player, the event of the ball entering the goal post, the successful tackle event of the player, the set piece event, the pass interception event, the near the player defending the ball. Events that have passed but succeeded in a pass, events with counterattack, and the ball passing behind the fence in a baseball game can be events.
이 때, 이벤트 정보는 이벤트에 관한 정보들로서, 예를 들면, 이벤트가 일어난 시간, 이벤트의 종류, 이벤트가 지속된 시간 등이 포함될 수 있다.In this case, the event information is information about the event, and may include, for example, a time when the event occurred, a type of event, a time when the event lasted, and the like.
이 때, 이벤트 데이터는 기 설정된 필드로 구성된 데이터 프레임으로 구성될 수 있다. 이에 대한 설명은 도 3에서 후술한다.In this case, the event data may be configured as a data frame composed of preset fields. This will be described later in FIG. 3.
이 때, 도 1에 도시되지 않았지만 디코딩부(110)는 경기의 이벤트 관련 데이터에 포함된 상기 이벤트에 상응하는 정보를 디코딩하여 상기 이벤트의 종류 및 정보를 추출하는 이벤트 디코딩부와 경기의 이벤트 관련 데이터에 포함된 센서들에 상응하는 정보를 디코딩하여 상기 센서들의 식별자 및 위치 정보들을 추출하는 센서 디코딩부로 구성될 수 있다.At this time, although not shown in Figure 1, the decoding unit 110 decodes the information corresponding to the event included in the event-related data of the game to extract the type and information of the event and event-related data of the game The sensor decoding unit may decode information corresponding to sensors included in and extract identifiers and position information of the sensors.
이 때, 이벤트 디코딩부는 이벤트 관련 정보를 추출할 수 있는데, 이벤트 관련 정보에는 이벤트가 일어난 시간, 이벤트의 종류, 지속 시간이 포함될 수 있음을 위에서 서술하였다.At this time, the event decoding unit may extract the event-related information, the event-related information has been described above may include the time the event occurred, the type of event, the duration.
이 때, 센서 디코딩부는 경기장 내부의 객체들에 상응하는 센서들의 식별자와 센서들의 위치 정보를 추출할 수 있다.At this time, the sensor decoding unit may extract the identifiers of the sensors corresponding to the objects in the stadium and the location information of the sensors.
이 때, 경기장 내부의 객체들은 경기장 내부의 선수들, 선수들이 이용하는 운동 도구, 공 등이 포함될 수도 있다.At this time, the objects in the stadium may include players in the stadium, exercise tools used by players, balls, and the like.
이 때, 객체들 각각에 하나 이상의 센서들을 설치하고, 미리 식별자를 설정해 놓은 경우, 디코딩하여 식별자를 추출하면, 객체들의 위치 정보를 파악할 수 있음을 이용하여 센서들의 위치 정보에서 객체들 각각에 상응하는 위치 정보를 추출할 수 있다. 예를 들면, 축구 경기의 공격수에 설치된 센서 식별자가 001이고, 디코딩 된 이벤트 관련 데이터 내부에 센서 식별자가 001이고, 위치가 (0,10,100)이라면, 축구 경기의 공격수의 위치는 (0,10,100)이 될 수 있다.In this case, if one or more sensors are installed in each of the objects, and an identifier is set in advance, the location information of the sensors may be determined by decoding and extracting the identifier, corresponding to each of the objects in the location information of the sensors. Location information can be extracted. For example, if the sensor identifier installed in the attacker of the football game is 001, the sensor identifier is 001 inside the decoded event related data, and the position is (0,10,100), the position of the attacker of the football game is (0,10,100). This can be
이 때, 객체들 각각에 설치되는 센서의 개수에는 제한이 없다. 위치 정보를 정확하게 추출하기 위해 여러 개의 센서를 객체에 설치할 수도 있다.At this time, the number of sensors installed in each of the objects is not limited. In order to extract the location information accurately, several sensors may be installed in the object.
데이터 베이스(130)는 경기장 내부의 객체들 각각에 상응하는 템플릿을 저장한다.The database 130 stores a template corresponding to each of the objects in the stadium.
이 때, 객체들 각각에 상응하는 템플릿을 미리 저장하여 가상 동영상을 빠르게 생성할 수 있다.At this time, a template corresponding to each of the objects may be stored in advance to quickly generate a virtual video.
예를 들면, 축구 경기에서 선수들의 신체, 얼굴 등을 미리 렌더링하여 템플릿으로 저장할 수 있다. 또한, 선수들의 동작을 미리 렌더링을 하여 템플릿으로 저장할 수도 있다.For example, in a soccer game, players' bodies and faces may be pre-rendered and stored as templates. It is also possible to pre-render the movements of the players and save them as templates.
또 예를 들면, 경기장의 관중을 미리 렌더링하여 템플릿으로 저장하여 가상 동영상 생성시 좀 더 현실감 있는 동영상을 생성할 수도 있다.In addition, for example, the audience of the stadium may be pre-rendered and stored as a template to generate a more realistic video when generating a virtual video.
동영상 생성부(120)는 이벤트 정보 및 템플릿들에 기반하여 이벤트에 상응하는 가상 동영상을 생성할 수 있다. 동영상 생성부(120)에 관해서는 도 2에서 후술한다.The video generator 120 may generate a virtual video corresponding to the event based on the event information and the templates. The video generating unit 120 will be described later with reference to FIG. 2.
이 때, 생성된 동영상은 디바이스로 전송하고, 출력하여 사용자들이 동영상을 감상할 수도 있다.In this case, the generated video may be transmitted to the device and output to the user to watch the video.
이 때, 도 1에 도시되지는 않았으나, 상기 이벤트에 상응하는 촬영된 경기 영상에서 사운드를 추출하는 사운드 추출부 및 사운드 추출부에서 추출한 사운드와 가상 동영상간 동기화를 수행하는 동기화부도 포함될 수 있다.In this case, although not shown in FIG. 1, a sound extracting unit extracting sound from the captured game image corresponding to the event and a synchronization unit performing synchronization between the sound extracted from the sound extracting unit and the virtual video may be included.
이 때, 사운드를 추출하는 방법에는 제한이 없다. 경기 중계 화면에서 추출된 사운드가 될 수도 있고, 녹음을 수행하여 사운드를 추출할 수도 있다.At this time, there is no restriction on the method of extracting the sound. The sound may be extracted from the game relay screen, or the sound may be extracted by recording.
이 때, 동기화부는 사운드와 가상 동영상의 싱크를 맞춰주는 역할을 수행한다. 특정한 시간에 상응하는 사운드에 상응하는 가상 동영상을 생성할 수 있다.At this time, the synchronization unit serves to synchronize the sound and the virtual video. A virtual video corresponding to a sound corresponding to a specific time may be generated.
도 2는 도 1에 도시된 동영상 생성부의 일실시예에 관한 블록도이다.FIG. 2 is a block diagram of an embodiment of a video generating unit illustrated in FIG. 1.
도 2를 참조하면, 동영상 생성부(120)는 배경 화면 생성부(210), 가상 화면 생성부(220) 및 가상 동영상 생성부(230)로 구성되어 있다.Referring to FIG. 2, the video generator 120 includes a background screen generator 210, a virtual screen generator 220, and a virtual video generator 230.
배경 화면 생성부(210)는 이벤트 정보에 기반하여 데이터 베이스에서 이벤트에 상응하는 배경 화면을 불러온다.The background screen generator 210 calls a background screen corresponding to the event in the database based on the event information.
예를 들면, 골이 들어가는 이벤트의 경우, 공이 넘어간 골대와 골 에어리어 근처의 경기장 배경 화면을 데이터 베이스에서 불러올 수 있다.For example, in the event of a goal entry, you can retrieve a background image of the stadium where the ball was crossed and the stadium background near the goal area from the database.
가상 화면 생성부(220)는 객체들 각각에 상응하는 위치 정보들에 기반하여 객체들 각각에 상응하는 템플릿들을 배경 화면에 배치하여 가상 화면을 생성한다.The virtual screen generation unit 220 generates a virtual screen by placing templates corresponding to each of the objects on a background screen based on location information corresponding to each of the objects.
예를 들면, 골이 들어가는 이벤트에 해당하고, 이 때 골을 넣은 선수의 위치 정보가 3차원 좌표로 (0,1,10)로 추출되었고, 골기퍼에 해당하는 선수의 위치 정보가 (1,2,9)로 추출된 경우, 경기장 배경 화면에 두 선수에 해당하는 템플릿을 위치 정보에 상응하는 배경 화면의 위치로 합성을 하는 방법으로 가상 화면을 생성한다.For example, it corresponds to an event where a goal is entered, and the location information of the player who scored the goal was extracted as (0,1,10) in 3D coordinates, and the location information of the player corresponding to the goalkeeper was (1,2). , 9), a virtual screen is generated by synthesizing the templates corresponding to the two players on the stadium wallpaper with the location of the wallpaper corresponding to the location information.
이 때, 추출된 이벤트 정보 중 시간 정보에 상응하는 가상 화면들을 생성할 수 있다.In this case, virtual screens corresponding to time information among the extracted event information may be generated.
가상 동영상 생성부(230)는 가상 화면 생성부(220)에서 생성한 가상 화면들을 순차적으로 합성하여 상기 이벤트에 상응하는 가상 동영상을 생성한다.The virtual video generator 230 sequentially synthesizes the virtual screens generated by the virtual screen generator 220 to generate a virtual video corresponding to the event.
이 때, 순차적으로 합성한다는 의미는 시간의 흐름에 따라서 순서대로 합성한다는 의미이다.At this time, to synthesize sequentially means to synthesize in order over time.
이 때, 초당 합성 속도는 제한이 없다. 고 품질의 가상 동영상을 생성하기 위해서 더 많은 가상 화면들을 합성할 수 있다.At this time, the synthesis rate per second is not limited. More virtual screens can be synthesized to create high quality virtual video.
도 3은 본 발명의 인코딩된 경기의 이벤트 관련 데이터가 갖는 데이터 프레임의 일실시예를 나타낸 도면이다.3 is a diagram illustrating an embodiment of a data frame of event-related data of an encoded game of the present invention.
도 3을 참조하면, 데이터 프레임은 시작 필드(Start of field, 310), 이벤트 아이디 필드(Event ID Field, 320), 이벤트 속성 필드(Properties of event field, 330), 이벤트와 연관된 센서 아이디 필드(Sensor ID field associated with the event, 340), 센서의 데이터 필드(Data Field of the sensor, 350), 종료 필드(End of field, 370)로 구성되어 있다.Referring to FIG. 3, the data frame includes a start field 310, an event ID field 320, a property of event field 330, and a sensor ID field associated with an event. ID field associated with the event 340, a data field of the sensor 350, and an end of field 370.
시작 필드(Start of field, 310)는 데이터가 시작되는 필드이다. The Start of field 310 is a field where data starts.
이벤트 아이디 필드(Event ID Field, 320)는 이벤트의 종류에 관한 데이터 필드이다. 예를 들면, 축구 경기에서 골이 들어가는 이벤트의 경우 'ID:001'가 될 수 있고, 파울이 발생된 이벤트의 경우 'ID:010'가 될 수 있다. 역습이 시작되는 경우 'ID:011'이 될 수 있다.The event ID field 320 is a data field relating to the type of event. For example, an event in which a goal is scored in a soccer game may be 'ID: 001', and an event in which a foul is generated may be 'ID: 010'. When the counterattack begins, it may be 'ID: 011'.
이벤트 속성 필드(Properties of event field, 330)는 이벤트와 관련된 시간 정보, 위치 정보, 객체 정보가 포함된 데이터 필드이다. The Properties of event field 330 is a data field including time information, location information, and object information related to an event.
이 때, 시간 정보는 이벤트 발생 시각, 이벤트 발생이전 일정 간격의 시각, 이벤트 발생 이후 일정 간격의 시각이 포함될 수 있다. 예를 들어, 축구 경기에서 골이 들어가는 이벤트가 발생될 때 수집된 데이터의 경우, 골이 들어간 시각, 골이 들어간 시각 이전의 1분, 골이 들어간 시각 이후의 1분이라는 데이터가 시간 정보에 포함될 수 있다.In this case, the time information may include an event occurrence time, a time of a predetermined interval before event occurrence, and a time of a predetermined interval after event occurrence. For example, in the case of data collected when a goal is scored in a soccer game, the time information includes data such as the time the goal was entered, one minute before the goal was entered, and one minute after the goal was entered. Can be.
이 때, 위치 정보는 이벤트와 관련된 센서들의 경기장 내에 위치하고 있는 정보를 포함할 수 있다. 예를 들어, 축구 경기에서 골이 들어가는 이벤트가 발생할 때 수집된 데이터의 경우, 공을 중심으로 반지름이 5m인 원형 영역을 위치 정보에 포함될 수 있다.At this time, the location information may include information located in the stadium of the sensors related to the event. For example, in the case of data collected when an event of entering a goal occurs in a soccer game, a circular area having a radius of 5 m with respect to the ball may be included in the location information.
이 때, 객체 정보는 이벤트와 관련된 센서들의 정보를 포함할 수 있다. 예를 들어, 축구 경기에서 골이 들어가는 이벤트가 발생할 때 수집된 데이터의 경우 공을 중심으로 반지름이 5m인 원형 영역 이내의 하나 이상의 센서들의 아이디가 포함된 정보가 객체 정보에 포함될 수 있다.In this case, the object information may include information of sensors related to the event. For example, in the case of data collected when a goal is entered in a soccer game, information including IDs of one or more sensors within a circular area having a radius of 5 m from the ball may be included in the object information.
이벤트와 연관된 센서 아이디 필드(Sensor ID field associated with the event, 340)는 이벤트와 관련된 센서 아이디를 포함하는 데이터 필드이다. The sensor ID field associated with the event 340 is a data field including a sensor ID associated with the event.
센서의 데이터 필드(Data Field of the sensor, 350)는 바로 앞에 있는 센서 아이디 필드에 있는 센서 아이디에 상응하는 데이터가 포함되는 데이터 필드이다.The data field of the sensor 350 is a data field including data corresponding to the sensor ID in the sensor ID field immediately preceding.
이 때, 이벤트와 관련된 센서는 하나 이상일 수도 있다. 이 경우 이벤트와 연관된 센서 아이디 필드(Sensor ID field associated with the event, 340), 센서의 데이터 필드(Data Field of the sensor, 350)가 순차적으로 반복되는데, 반복되는 데이터 필드들은 도 3에 도시된 360에 위치한다.In this case, there may be one or more sensors associated with the event. In this case, a sensor ID field associated with the event 340 and a data field of the sensor 350 are sequentially repeated. The repeated data fields are 360 shown in FIG. 3. Located in
종료 필드(End of field, 370)는 이벤트 관련 데이터 필드가 종료되는 것을 의미하는 데이터가 위치하는 필드이다.The end field 370 is a field in which data indicating that an event related data field ends is located.
도 4는 본 발명의 일실시예에 따른 가상 동영상 생성 장치에서 객체들의 위치 정보를 추출하는 것을 나타낸 도면이다.4 is a diagram illustrating extracting location information of objects in a virtual video generating apparatus according to an embodiment of the present invention.
도 4를 참조하면, 사각형으로 이루어진 경기장에서 4개의 꼭지점들(410, 420, 430, 440) 및 선수들(450, 460)로 구성되어 있다.Referring to FIG. 4, four vertices 410, 420, 430, and 440 and players 450 and 460 are formed in a square stadium.
경기장 내부의 위치 정보를 표현하는 방법에는 제한이 없다. 도 4에서는 일반적으로 많이 사용되는 3차원 좌표 (x,y,z) 형식으로 표현하였다. X와 y는 경기장의 가로 방향 및 세로 방향에 대응되고, z의 경우 높이 정보를 표현할 수 있다.There is no limitation on the way of expressing the location information in the stadium. In FIG. 4, a 3D coordinate (x, y, z) format is commonly used. X and y correspond to the horizontal and vertical directions of the stadium, and in the case of z, height information may be expressed.
도 4에서는 4개의 꼭지점들을 각각 (0,0,0), (500,0,0), (500,300,0), (0,300,0)으로 기준을 만들고, 경기장 내부의 객체들을 3차원 좌표로 표시하였다.In FIG. 4, four vertices are set as (0,0,0), (500,0,0), (500,300,0), and (0,300,0), respectively, and objects in the stadium are displayed in 3D coordinates. It was.
예를 들면, 선수(450)의 위치 정보는 (100, 150, 150)으로 표현될 수 있고, 다른 선수(460)의 위치 정보는 (120,150,50)으로 표현될 수 있다.For example, the position information of the player 450 may be represented by (100, 150, 150), and the position information of another player 460 may be represented by (120, 150, 50).
이 때, 좌표들을 동일한(uniform) 간격으로 나누어 표현 할 수도 있고, 다른 (non-uniform)간격으로 나누어 표현할 수도 있다. 이벤트가 많이 발생되는 골 에어리어 근방을 좁은 간격으로 좌표 간격을 정함으로써 더 정교한 위치 정보를 획득할 수도 있다.In this case, the coordinates may be expressed by dividing the same (uniform) interval, or may be expressed by dividing the other (non-uniform) interval. More precise location information may be obtained by narrowing the coordinates in the vicinity of the goal area where many events occur.
도 5 내지 도 8은 본 발명의 이벤트 관련 가상 동영상 생성 장치의 일실시예를 나타낸 도면이다.5 to 8 are diagrams illustrating an embodiment of an event related virtual video generating apparatus of the present invention.
도 5 내지 도 8을 참조하면, 다른 방향에서 바라본 선수가 슛을 하는 이벤트에 관한 가상 동영상의 일부를 도시한 것이다.5 to 8 illustrate a part of a virtual video regarding an event in which a player viewed from another direction shoots.
이 때, 가상 동영상을 객체를 확대 또는 축소, 회전 등의 제어를 수행할 수 있다. 예를 들면, 도 5 내지 도 8과 같이 가상 동영상을 시계 방향으로 회전을 수행 할 수 있다.At this time, the virtual video may be controlled to enlarge or reduce or rotate the object. For example, as shown in FIGS. 5 to 8, the virtual video may be rotated in a clockwise direction.
도 9 내지 도 13은 본 발명의 이벤트 관련 가상 동영상 생성 장치의 다른 실시예를 나타낸 도면이다.9 to 13 illustrate another embodiment of an event related virtual video generating apparatus of the present invention.
도 9 내지 도 13은 페널티 에어리어 내부에서 수비팀의 반칙으로 공격팀이 패널티킥을 수행하는 이벤트에 관련된 가상 동영상의 일부를 도시한 것이다.9 to 13 illustrate a part of a virtual video related to an event in which an attacking team performs a penalty kick by a defensive team in a penalty area.
도 9 내지 도 13을 순차적으로 합성하여 가상 동영상을 생성할 수 있다. 예를 들면, 패널티킥을 준비하는 가상 화면부터 시작하여 골기퍼가 패널티킥을 막아내는 가상 화면까지 생성하고 이를 시간 순서대로 합성하여 가상 동영상을 생성한다.9 to 13 may be sequentially synthesized to generate a virtual video. For example, starting with a virtual screen that prepares for a penalty kick, a goal screen also creates a virtual screen that prevents the penalty kick, and synthesizes them in chronological order to generate a virtual video.
도 14는 본 발명의 일실시예에 따른 이벤트 관련 가상 동영상 생성 방법을 나타낸 동작 흐름도이다.14 is a flowchart illustrating an event-related virtual video generation method according to an embodiment of the present invention.
먼저, 이벤트 관련 데이터를 디코딩하여 이벤트 정보를 추출한다(S1410).First, event information is extracted by decoding event related data (S1410).
이 때, 이벤트는 경기 중에 일어나는 사건을 의미하며, 예를 들면, 공과 선수의 근접하는 사건, 공이 골대 안으로 들어가는 사건, 선수의 성공적인 태클 사건, 세트 피스 사건, 패스 가로채기 사건, 공이 수비하는 선수 근처를 지났으나 성공적인 패스로 이어지는 사건, 역습이 진행되는 사건, 야구 경기에서 공이 펜스 뒤로 넘어가는 사건 등이 이벤트가 될 수 있다.In this case, the event means an event occurring during the game, for example, the approaching event of the ball and the player, the event of the ball entering the goal post, the successful tackle event of the player, the set piece event, the pass interception event, the near the player defending the ball. Events that have passed but succeeded in a pass, events with counterattack, and the ball passing behind the fence in a baseball game can be events.
이 때, 이벤트 정보는 이벤트에 관한 정보들로서, 예를 들면, 이벤트가 일어난 시간, 이벤트의 종류, 이벤트가 지속된 시간 등이 포함될 수 있다.In this case, the event information is information about the event, and may include, for example, a time when the event occurred, a type of event, a time when the event lasted, and the like.
이 때, 이벤트 데이터는 기 설정된 필드로 구성된 데이터 프레임으로 구성될 수 있다. 이에 대한 설명은 도 3에서 서술하였다.In this case, the event data may be configured as a data frame composed of preset fields. The description thereof has been described with reference to FIG. 3.
또한, 이벤트 정보 및 템플릿에 기반하여 가상 동영상을 생성한다(S1420).In addition, a virtual video is generated based on the event information and the template (S1420).
도 15는 도 14에 도시된 가상 동영상 생성에 관한 일 실시예를 나타낸 동작 흐름도이다.FIG. 15 is a flowchart illustrating an embodiment of generating a virtual video shown in FIG. 14.
도 15를 참조하면, 먼저 이벤트 정보에 기반하여 데이터 베이스에 저장된 배경 화면을 로딩한다(S1510).Referring to FIG. 15, first, a background screen stored in a database is loaded based on event information (S1510).
예를 들면, 골이 들어가는 이벤트의 경우, 공이 넘어간 골대와 골 에어리어 근처의 경기장 배경 화면을 데이터 베이스에서 불러올 수 있다.For example, in the event of a goal entry, you can retrieve a background image of the stadium where the ball was crossed and the stadium background near the goal area from the database.
또한, 배경 화면에 템플릿을 배치하여 가상 화면을 생성한다(S1520).In operation S1520, the virtual screen is generated by placing a template on the background screen.
예를 들면, 골이 들어가는 이벤트에 해당하고, 이 때 골을 넣은 선수의 위치 정보가 3차원 좌표로 (0,1,10)로 추출되었고, 골기퍼에 해당하는 선수의 위치 정보가 (1,2,9)로 추출된 경우, 경기장 배경 화면에 두 선수에 해당하는 템플릿을 위치 정보에 상응하는 배경 화면의 위치로 합성을 하는 방법으로 가상 화면을 생성한다.For example, it corresponds to an event where a goal is entered, and the location information of the player who scored the goal was extracted as (0,1,10) in 3D coordinates, and the location information of the player corresponding to the goalkeeper was (1,2). , 9), a virtual screen is generated by synthesizing the templates corresponding to the two players on the stadium wallpaper with the location of the wallpaper corresponding to the location information.
이 때, 추출된 이벤트 정보 중 시간 정보에 상응하는 가상 화면들을 생성할 수 있다.In this case, virtual screens corresponding to time information among the extracted event information may be generated.
또한, 가상 화면들을 합성하여 가상 동영상을 생성한다(S1530).In operation S1530, a virtual video is generated by synthesizing the virtual screens.
이 때, 순차적으로 합성한다는 의미는 시간의 흐름에 따라서 순서대로 합성한다는 의미이다.At this time, to synthesize sequentially means to synthesize in order over time.
이 때, 초당 합성 속도는 제한이 없다. 고 품질의 가상 동영상을 생성하기 위해서 더 많은 가상 화면들을 합성할 수도 있다.At this time, the synthesis rate per second is not limited. More virtual screens may be synthesized to create high quality virtual video.
이상에서와 같이 본 발명에 따른 이벤트 관련 가상 동영상 생성 장치 및 방법은 상기한 바와 같이 설명된 실시예들의 구성과 방법이 한정되게 적용될 수 있는 것이 아니라, 상기 실시예들은 다양한 변형이 이루어질 수 있도록 각 실시예들의 전부 또는 일부가 선택적으로 조합되어 구성될 수도 있다.As described above, the apparatus and method for generating an event-related virtual video according to the present invention may not be limitedly applied to the configuration and method of the embodiments described above, and the embodiments may be modified in various ways so that various modifications may be made. All or part of the examples may be optionally combined.
Claims (16)
- 기 설정된 필드들로 인코딩된 경기의 이벤트 관련 데이터를 디코딩하여 상기 이벤트 정보를 추출하는 디코딩부;A decoder configured to decode event-related data of a game encoded with preset fields to extract the event information;경기장 내부의 객체들 각각에 상응하는 템플릿들이 저장된 데이터 베이스; 및A database storing templates corresponding to each of the objects in the stadium; And상기 이벤트 정보 및 상기 템플릿들에 기반하여 상기 이벤트에 상응하는 가상 동영상을 생성하는 동영상 생성부Video generation unit for generating a virtual video corresponding to the event based on the event information and the templates를 포함하는 것을 특징으로 하는 경기 가상 동영상 생성 장치.Match virtual video generating device comprising a.
- 청구항 1에 있어서,The method according to claim 1,상기 디코딩부는The decoding unit상기 경기의 이벤트 관련 데이터에 포함된 상기 이벤트에 상응하는 정보를 디코딩하여 상기 이벤트의 종류 및 정보를 추출하는 이벤트 디코딩부; 및An event decoding unit for extracting the type and information of the event by decoding information corresponding to the event included in the event related data of the game; And상기 경기의 이벤트 관련 데이터에 포함된 센서들에 상응하는 정보를 디코딩하여 상기 센서들의 식별자 및 위치 정보들을 추출하는 센서 디코딩부Sensor decoding unit for extracting the identifier and location information of the sensors by decoding the information corresponding to the sensors included in the event-related data of the game를 포함하는 것을 특징으로 하는 경기 가상 동영상 생성 장치.Match virtual video generating device comprising a.
- 청구항 2에 있어서,The method according to claim 2,상기 센서 디코딩부는The sensor decoding unit상기 객체들에 상응하는 센서들의 식별자에 기반하여 상기 객체들 각각을 구별하는 객체 식별부; 및An object identifier which distinguishes each of the objects based on identifiers of sensors corresponding to the objects; And상기 센서들의 위치 정보에 기반하여 상기 객체들 각각에 상응하는 위치 정보들을 추출하는 위치 정보 추출부Location information extraction unit for extracting location information corresponding to each of the objects based on the location information of the sensors를 포함하는 것을 특징으로 하는 경기 가상 동영상 생성 장치.Match virtual video generating device comprising a.
- 청구항 3에 있어서,The method according to claim 3,상기 동영상 생성부는The video generation unit상기 이벤트 정보에 기반하여 상기 데이터 베이스에서 상기 이벤트에 상응하는 배경 화면을 불러오는 배경 화면 생성부;A background screen generation unit which loads a background screen corresponding to the event in the database based on the event information;상기 객체들 각각에 상응하는 위치 정보들에 기반하여 상기 객체들 각각에 상응하는 상기 템플릿들을 상기 이벤트에 상응하는 배경화면에 배치하여 가상 화면들을 생성하는 가상 화면 생성부; 및A virtual screen generation unit generating virtual screens by placing the templates corresponding to each of the objects on a background screen corresponding to the event based on location information corresponding to each of the objects; And상기 가상 화면들을 순차적으로 합성하여 상기 이벤트에 상응하는 상기 가상 동영상을 생성하는 가상 동영상 생성부A virtual video generation unit configured to sequentially synthesize the virtual screens to generate the virtual video corresponding to the event를 포함하는 것을 특징으로 하는 가상 동영상 생성 장치.Virtual video generating device comprising a.
- 청구항 1에 있어서,The method according to claim 1,상기 경기 가상 동영상 생성 장치는The game virtual video generating device상기 이벤트에 상응하는 기 촬영된 경기 영상에서 사운드를 추출하는 사운드 추출부Sound extractor for extracting the sound from the pre-recorded match video corresponding to the event를 더 포함하는 것을 특징으로 하는 경기 가상 동영상 생성 장치.Match virtual video generating device further comprising.
- 청구항 5에 있어서,The method according to claim 5,상기 경기 가상 동영상 생성 장치는 The game virtual video generating device상기 사운드 추출부에서 추출한 사운드와 상기 가상 동영상과 동기화 하는 동기화부A synchronizer for synchronizing the sound extracted by the sound extractor with the virtual video를 더 포함하는 것을 특징으로 하는 경기 가상 동영상 생성 장치.Match virtual video generating device further comprising.
- 청구항 1에 있어서,The method according to claim 1,상기 경기 가상 동영상 생성 장치는The game virtual video generating device상기 동영상에 존재하는 객체들 각각을 확대, 축소 및 제어하는 제어부Control unit to enlarge, reduce and control each of the objects present in the video를 더 포함하는 것을 특징으로 하는 경기 가상 동영상 생성 장치.Match virtual video generating device further comprising.
- 청구항 1에 있어서,The method according to claim 1,상기 인코딩된 이벤트 관련 데이터는The encoded event related data is이벤트 아이디 필드(Event ID Field), 이벤트 속성 필드(Properties of Event Field), 관련된 센서 아이디 필드(Sensor ID Field associated with event), 센서 데이터 필드(Data field of sensor) 중 어느 하나 이상을 포함하고, 상기 필드들은 SOF(Start of Field)와 EOF(End of field) 사이에 존재하는 데이터 프레임을 갖는 것을 특징으로 하는 경기 가상 동영상 생성 장치.And at least one of an event ID field, an event attribute field, a sensor ID field associated with an event, and a data field of sensor. And the fields have a data frame present between a start of field (SOF) and an end of field (EOF).
- 기 설정된 필드들로 인코딩된 경기의 이벤트 관련 데이터를 디코딩하여 이벤트 정보를 추출하는 단계; 및Extracting event information by decoding event related data of a game encoded with preset fields; And상기 이벤트 정보 및 데이터베이스에 저장된 경기장 내부의 객체들 각각에 상응하는 템플릿들에 기반하여 상기 이벤트에 상응하는 가상 동영상을 생성하는 단계Generating a virtual video corresponding to the event based on the event information and templates corresponding to each of the objects in the stadium stored in the database;를 포함하는 것을 특징으로 하는 경기 가상 동영상 생성 방법.Match virtual video generating method comprising a.
- 청구항 9에 있어서,The method according to claim 9,상기 이벤트 정보를 추출하는 단계는Extracting the event information상기 경기의 이벤트 관련 데이터에 포함된 상기 이벤트에 상응하는 정보를 디코딩하여 상기 이벤트의 종류 및 정보를 추출하는 단계; 및Extracting the type and information of the event by decoding the information corresponding to the event included in the event related data of the game; And상기 경기의 이벤트 관련 데이터에 포함된 센서들에 상응하는 정보를 디코딩하여 상기 센서들의 식별자 및 위치정보들을 추출하는 단계Extracting identifiers and location information of the sensors by decoding the information corresponding to the sensors included in the event-related data of the game.를 포함하는 것을 특징으로 하는 경기 가상 동영상 생성 방법.Match virtual video generating method comprising a.
- 청구항 10에 있어서,The method according to claim 10,상기 센서들의 식별자 및 위치 정보들을 추출하는 단계는Extracting identifiers and location information of the sensors상기 객체들에 상응하는 센서들의 식별자에 기반하여 상기 객체들 각각을 구별하는 단계; 및Distinguishing each of the objects based on identifiers of sensors corresponding to the objects; And상기 센서들의 위치 정보에 기반하여 상기 객체들 각각에 상응하는 위치 정보들을 추출하는 단계Extracting location information corresponding to each of the objects based on the location information of the sensors;를 포함하는 것을 특징으로 하는 경기 가상 동영상 생성 방법.Match virtual video generating method comprising a.
- 청구항 11에 있어서,The method according to claim 11,상기 가상 동영상을 생성하는 단계는Generating the virtual video is상기 이벤트 정보에 기반하여 상기 데이터 베이스에서 상기 이벤트에 상응하는 배경 화면을 불러오는 단계;Loading a background screen corresponding to the event from the database based on the event information;상기 객체들 각각에 상응하는 위치 정보들에 기반하여 상기 객체들 각각에 상응하는 상기 템플릿들을 상기 배경 화면에 배치하여 가상 화면들을 생성하는 단계; 및Generating virtual screens by placing the templates corresponding to each of the objects on the background screen based on location information corresponding to each of the objects; And상기 가상 화면을 순차적으로 합성하여 상기 이벤트에 상응하는 상기 가상 동영상을 생성하는 단계Generating the virtual video corresponding to the event by sequentially synthesizing the virtual screen를 포함하는 것을 특징으로 하는 경기 가상 동영상 생성 방법.Match virtual video generating method comprising a.
- 청구항 9에 있어서,The method according to claim 9,상기 경기 가상 동영상 생성 방법은The game virtual video generation method상기 이벤트에 상응하는 기 촬영된 경기 영상에서 사운드를 추출하는 단계Extracting a sound from a pre-recorded game image corresponding to the event를 더 포함하는 것을 특징으로 하는 경기 가상 동영상 생성 방법.Match virtual video generating method further comprising a.
- 청구항 13에 있어서,The method according to claim 13,상기 경기 가상 동영상 생성 방법은The game virtual video generation method상기 사운드와 상기 가상 동영상과 동기화하는 단계Synchronizing the sound with the virtual video를 더 포함하는 것을 특징으로 하는 경기 가상 동영상 생성 방법.Match virtual video generating method further comprising a.
- 청구항 9에 있어서,The method according to claim 9,상기 경기 가상 동영상 생성 방법은The game virtual video generation method상기 가상 동영상에 존재하는 객체들 각각을 확대, 축소 및 제어하는 단계Enlarging, reducing and controlling each of the objects present in the virtual video를 더 포함하는 것을 특징으로 하는 경기 가상 동영상 생성 방법.Match virtual video generating method further comprising a.
- 청구항 9에 있어서,The method according to claim 9,상기 인코딩 된 이벤트 관련 데이터는The encoded event-related data이벤트 아이디 필드(Event ID Field), 이벤트 속성 필드(Properties of Event Field), 관련된 센서 아이디 필드(Sensor ID Field associated with event), 센서 데이터 필드(Data field of sensor) 중 어느 하나 이상을 포함하고, 상기 필드들은 SOF(Start of Field)와 EOF(End of field) 사이에 존재하는 데이터 프레임을 갖는 것을 특징으로 하는 경기 가상 동영상 생성 방법.And at least one of an event ID field, an event attribute field, a sensor ID field associated with an event, and a data field of sensor. And the fields have a data frame existing between a start of field (SOF) and an end of field (EOF).
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR10-2015-0029135 | 2015-03-02 | ||
KR1020150029135A KR101559469B1 (en) | 2015-03-02 | 2015-03-02 | Apparatus for creating virtual video related to event of game and method using the same |
Publications (1)
Publication Number | Publication Date |
---|---|
WO2016140444A1 true WO2016140444A1 (en) | 2016-09-09 |
Family
ID=54347303
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
PCT/KR2016/001398 WO2016140444A1 (en) | 2015-03-02 | 2016-02-11 | Device for generating virtual video related to event of game and method using same |
Country Status (2)
Country | Link |
---|---|
KR (1) | KR101559469B1 (en) |
WO (1) | WO2016140444A1 (en) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113051702A (en) * | 2020-10-29 | 2021-06-29 | 视伴科技(北京)有限公司 | Event activity operation simulation system |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101833644B1 (en) * | 2016-11-25 | 2018-03-02 | 국방과학연구소 | System and Method for recording screen shot combined with event information, graphic information, and template image |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2006251885A (en) * | 2005-03-08 | 2006-09-21 | Kddi Corp | Device for classifying and device for log generating sports video |
KR20070010895A (en) * | 2005-07-20 | 2007-01-24 | 주식회사 팬택 | Mobile device and method for providing graphic image based on text data |
JP2008117042A (en) * | 2006-11-01 | 2008-05-22 | Nomura Research Institute Ltd | Virtual space providing server, virtual space providing system, and computer program |
KR20090118634A (en) * | 2008-05-14 | 2009-11-18 | (주)비주얼 스포츠 | System and method of athletics automatic analysis |
KR101400923B1 (en) * | 2012-06-07 | 2014-06-27 | 최종민 | Method, system and computer-readable recording medium for broadcasting sports game using simulation |
-
2015
- 2015-03-02 KR KR1020150029135A patent/KR101559469B1/en active IP Right Grant
-
2016
- 2016-02-11 WO PCT/KR2016/001398 patent/WO2016140444A1/en active Application Filing
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2006251885A (en) * | 2005-03-08 | 2006-09-21 | Kddi Corp | Device for classifying and device for log generating sports video |
KR20070010895A (en) * | 2005-07-20 | 2007-01-24 | 주식회사 팬택 | Mobile device and method for providing graphic image based on text data |
JP2008117042A (en) * | 2006-11-01 | 2008-05-22 | Nomura Research Institute Ltd | Virtual space providing server, virtual space providing system, and computer program |
KR20090118634A (en) * | 2008-05-14 | 2009-11-18 | (주)비주얼 스포츠 | System and method of athletics automatic analysis |
KR101400923B1 (en) * | 2012-06-07 | 2014-06-27 | 최종민 | Method, system and computer-readable recording medium for broadcasting sports game using simulation |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113051702A (en) * | 2020-10-29 | 2021-06-29 | 视伴科技(北京)有限公司 | Event activity operation simulation system |
Also Published As
Publication number | Publication date |
---|---|
KR101559469B1 (en) | 2015-10-12 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US8358346B2 (en) | Video processing device, video processing method, and program | |
US6466275B1 (en) | Enhancing a video of an event at a remote location using data acquired at the event | |
US8988528B2 (en) | Video processing device, video processing method, and program | |
WO2009107975A1 (en) | Image comparison device using personal video recorder and method using the same | |
WO2018030656A1 (en) | Interactive virtual reality baseball game device and method for controlling virtual baseball game by same | |
CN106254941A (en) | Method for processing video frequency and device | |
JP2020526125A (en) | Method and system for fusing user-specific content into video production | |
JP7334527B2 (en) | Information processing device, information processing method, and program | |
WO2016140444A1 (en) | Device for generating virtual video related to event of game and method using same | |
CN110270078B (en) | Football game special effect display system and method and computer device | |
JP2020086983A (en) | Image processing device, image processing method, and program | |
WO2014107025A1 (en) | Method and apparatus for controlling contents in electronic device | |
EP2515548A1 (en) | A competition tracking system | |
WO2015020466A1 (en) | System and method for judging sports game using ar glass | |
CN111277768A (en) | Electric competition studio system | |
WO2018124794A1 (en) | Camerawork-based image synthesis system and image synthesis method | |
EP3639523A1 (en) | Method and apparatus for managing a wide view content in a virtual reality environment | |
WO2015030534A1 (en) | Golf practice system for providing golf lesson information and information processing method for providing golf lesson information using the same | |
CN114302234B (en) | Quick packaging method for air skills | |
WO2022239988A1 (en) | Dance matching method and system | |
JP5266035B2 (en) | Sign language video display device, sign language video display method, and program | |
WO2022086202A1 (en) | Device and method for determining image for sports broadcasting, and recording medium in which command is recorded | |
KR101583745B1 (en) | Apparatus for real-time video clip editing and apparatus for supporting turn-based game using the same | |
KR20190046428A (en) | Integrated system and control method for recording baseball play and producing a playing image | |
JP2003179811A (en) | Image compositing device |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
121 | Ep: the epo has been informed by wipo that ep was designated in this application |
Ref document number: 16759080 Country of ref document: EP Kind code of ref document: A1 |
|
NENP | Non-entry into the national phase |
Ref country code: DE |
|
122 | Ep: pct application non-entry in european phase |
Ref document number: 16759080 Country of ref document: EP Kind code of ref document: A1 |