WO2024096167A1 - Method for acquiring type of target event within sports session and electronic apparatus performing same - Google Patents
Method for acquiring type of target event within sports session and electronic apparatus performing same Download PDFInfo
- Publication number
- WO2024096167A1 WO2024096167A1 PCT/KR2022/017310 KR2022017310W WO2024096167A1 WO 2024096167 A1 WO2024096167 A1 WO 2024096167A1 KR 2022017310 W KR2022017310 W KR 2022017310W WO 2024096167 A1 WO2024096167 A1 WO 2024096167A1
- Authority
- WO
- WIPO (PCT)
- Prior art keywords
- target event
- player
- location
- team
- target
- Prior art date
Links
- 238000000034 method Methods 0.000 title claims abstract description 58
- 238000003062 neural network model Methods 0.000 claims description 94
- 230000015654 memory Effects 0.000 claims description 22
- 230000001133 acceleration Effects 0.000 claims description 14
- 230000000875 corresponding effect Effects 0.000 description 112
- 238000013528 artificial neural network Methods 0.000 description 37
- 238000010586 diagram Methods 0.000 description 24
- 238000013145 classification model Methods 0.000 description 15
- 230000007123 defense Effects 0.000 description 15
- 238000013473 artificial intelligence Methods 0.000 description 14
- 238000004891 communication Methods 0.000 description 10
- 239000013598 vector Substances 0.000 description 8
- 230000006870 function Effects 0.000 description 7
- 238000012545 processing Methods 0.000 description 7
- 230000000007 visual effect Effects 0.000 description 6
- 230000000694 effects Effects 0.000 description 5
- 230000000306 recurrent effect Effects 0.000 description 5
- 238000004590 computer program Methods 0.000 description 4
- 238000013527 convolutional neural network Methods 0.000 description 4
- 238000005516 engineering process Methods 0.000 description 4
- 238000004458 analytical method Methods 0.000 description 3
- 238000004364 calculation method Methods 0.000 description 3
- 238000010295 mobile communication Methods 0.000 description 3
- 230000008569 process Effects 0.000 description 3
- 230000009192 sprinting Effects 0.000 description 3
- 230000002457 bidirectional effect Effects 0.000 description 2
- 238000004422 calculation algorithm Methods 0.000 description 2
- 230000007423 decrease Effects 0.000 description 2
- 230000014509 gene expression Effects 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 238000003825 pressing Methods 0.000 description 2
- 238000012549 training Methods 0.000 description 2
- 230000010267 cellular communication Effects 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 230000001276 controlling effect Effects 0.000 description 1
- 230000002596 correlated effect Effects 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 230000009977 dual effect Effects 0.000 description 1
- 239000002360 explosive Substances 0.000 description 1
- 230000009191 jumping Effects 0.000 description 1
- 230000007774 longterm Effects 0.000 description 1
- 230000002787 reinforcement Effects 0.000 description 1
- 230000006403 short-term memory Effects 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
- 230000009466 transformation Effects 0.000 description 1
- 238000000844 transformation Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/77—Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
- G06V10/774—Generating sets of training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/40—Scenes; Scene-specific elements in video content
Definitions
- This disclosure relates to a method for obtaining the type of target event that occurred in a sports session and an electronic device for performing the same.
- a sprint event refers to an event in which a sports player runs faster than a preset speed in a sports session (including sports games and training sessions).
- Sprint events are highly correlated, being associated with approximately 70% of all scoring events that occur in a sports session.
- the analysis of sprint events is very important in the modern sports industry because the more scoring events there are, the higher the probability of winning the sports session.
- the present disclosure relates to a method of providing various information (eg, sprint type) for analysis of a sprint event.
- various information eg, sprint type
- This disclosure and the inventive concepts disclosed hereinafter provide methods, devices, systems, and computer-readable storage media for predicting the type of target event that will occur in a sports session.
- One technical problem that the present invention seeks to solve is to provide a method for predicting the type of target event based on a team location dataset representing the placement distribution of a plurality of players.
- Another technical problem to be solved by the present invention is to provide a method for predicting the type of target event based on ball ownership in the target event section.
- Another technical problem to be solved by the present invention is to provide a method of providing a video feed corresponding to a target event to a user.
- Embodiments include methods, devices, systems, and computer-readable storage media for predicting the position of a sports ball.
- a plurality of location datasets each corresponding to a plurality of time points within the sports session - each location dataset is a corresponding time point.
- Situation information reflecting a game situation during the target event based on time information corresponding to the target event - the situation information includes a first location dataset reflecting the location of the player who performed the target event and the player Obtaining a second location dataset that reflects the placement or movement of at least one other player other than the player on the playing field; And a method including obtaining the type of the target event based on the situation information may be provided.
- an electronic device for obtaining a type of target event within a sports session comprising: a memory storing at least one instruction; and a processor, wherein the processor executes the at least one instruction, thereby generating a plurality of location data sets, each of which corresponds to a plurality of time points within the sports session - each location data set corresponding to a corresponding time point.
- the situation information includes a first location dataset reflecting the location of the player who performed the target event and a second location dataset reflecting the placement or movement of at least one other player other than the player in the stadium.
- An electronic device may be provided that acquires a function and acquires the type of the target event based on the context information.
- the disclosed technology can have the following effects. However, since it does not mean that a specific embodiment must include all of the following effects or only the following effects, the scope of rights of the disclosed technology should not be understood as being limited thereby.
- the type of target event can be predicted based on a team location dataset representing the placement distribution of a plurality of players.
- the type of target event can be predicted based on ball ownership in the target event section.
- a video feed corresponding to a target event may be provided to the user.
- FIG. 1 is a diagram illustrating an example target event of a sports session according to an embodiment of the present disclosure.
- Figure 2 is a diagram illustrating a player tracking device according to an embodiment of the present disclosure.
- Figure 3 is a flowchart showing a method of obtaining the type of target event according to an embodiment of the present disclosure.
- Figure 4 is a diagram illustrating a plurality of location data sets according to an embodiment of the present disclosure.
- Figure 5 is a diagram showing a team location dataset according to an embodiment of the present disclosure.
- Figure 6 is a graph showing speed data of a sprinter according to an embodiment of the present disclosure.
- FIG. 7 is a diagram illustrating a method of obtaining the type of target event using a neural network model according to an embodiment of the present disclosure.
- Figure 8 is a diagram for explaining a method of acquiring the position of a ball according to an embodiment of the present disclosure.
- Figure 9 is a flowchart showing a method of providing a target scene corresponding to a target event according to an embodiment of the present disclosure.
- FIG. 10 is a diagram for explaining a method of extracting a target scene from a video feed according to an embodiment of the present disclosure.
- Figure 11 is a diagram showing a sprint scene according to an embodiment of the present disclosure.
- FIG. 12 is a table showing a target event log according to an embodiment of the present disclosure.
- Figure 13 is a flowchart showing a method of obtaining the type of target event according to an embodiment of the present disclosure.
- Figure 14 is a diagram for explaining a method of obtaining ball ownership using a neural network model according to an embodiment of the present disclosure.
- Figure 15 is a diagram for explaining the structure of a third neural network model according to an embodiment of the present disclosure.
- Figure 16 is a diagram for explaining a method of obtaining the type of target event according to an embodiment of the present disclosure.
- Figure 17 is a block diagram showing the configuration of an electronic device according to an embodiment of the present disclosure.
- Embodiments of the present disclosure can be modified and have various embodiments, and specific embodiments will be illustrated in the drawings and described in detail in the detailed description. However, this is not intended to limit the scope to specific embodiments, and should be understood to include all transformations, equivalents, and substitutes included in the disclosed spirit and technical scope. In describing the embodiments, if it is determined that detailed description of related known technologies may obscure the point, the detailed description will be omitted.
- a plurality of location datasets each corresponding to a plurality of time points within the sports session - each location dataset is a corresponding time point.
- Situation information reflecting a game situation during the target event based on time information corresponding to the target event - the situation information includes a first location dataset reflecting the location of the player who performed the target event and the player Obtaining a second location dataset that reflects the placement or movement of at least one other player other than the player on the playing field; And a method including obtaining the type of the target event based on the situation information may be provided.
- the method includes a plurality of team location datasets corresponding to the target event from the plurality of location datasets - the plurality of team location datasets being the stadium of players of the first team to which the player who performed the target event belongs. generating a plurality of first team location datasets reflecting the placement status in the stadium, and a plurality of second team location datasets reflecting the placement status of players of a second team in the stadium; Further comprising, the step of obtaining the type of the target event includes at least one of the plurality of first team location datasets or the plurality of second team location datasets and location values of the player who performed the target event.
- the type of the target event can be obtained by inputting it into a neural network model.
- the method further includes obtaining the position of a ball used in the sports session, wherein the step of obtaining the type of the target event includes determining the position of the ball in a time interval corresponding to the target event.
- the type of the target event can be obtained by additionally inputting it into the neural network model.
- the type of the target event may be obtained by additionally inputting role information of the player who performed the target event into the neural network model.
- the time information corresponding to the target event includes a first time period in which the instantaneous speed of the player who performed the target event is maintained within a preset range for a critical time or more, from the time when the target event is intended by the player. It may include a second time section from the start point of the first time section, and a third time section from the end point of the first time section to a preset time after the end point of the first time section.
- the threshold time may be adjusted based on the distance the player moves during the first time period.
- the timing at which the target event is intended may be determined based on the player's acceleration.
- an electronic device for obtaining a type of target event within a sports session comprising: a memory storing at least one instruction; and a processor, wherein the processor executes the at least one instruction, thereby generating a plurality of location data sets, each of which corresponds to a plurality of time points within the sports session - each location data set corresponding to a corresponding time point.
- the situation information includes a first location dataset reflecting the location of the player who performed the target event and a second location dataset reflecting the placement or movement of at least one other player other than the player in the stadium.
- An electronic device may be provided that acquires a function and acquires the type of the target event based on the context information.
- the processor a plurality of team location datasets from the identified plurality of location datasets - the plurality of team location datasets, the arrangement status of players of the first team to which the player who performed the target event belongs in the stadium generating a plurality of first team location datasets reflecting a plurality of first team location datasets, and a plurality of second team location datasets reflecting placement states of players of a second team in the stadium, wherein the plurality of first team Type of the target event by inputting at least one of the location dataset or the plurality of second team location datasets and the location values of the player who performed the target event included in the identified plurality of location datasets into a neural network model. can be obtained.
- the processor may acquire the position of the ball used in the sports session and obtain the type of the target event by additionally inputting the position of the ball in the time interval corresponding to the target event into the neural network model.
- the processor may obtain the type of the target event by additionally inputting role information of the player who performed the target event into the neural network model.
- the processor may adjust the threshold time based on the distance the player moves during the first time period.
- the processor may determine when the target event is intended based on the player's acceleration.
- a method of providing information about a target event occurring in a sports session includes: acquiring a video feed for the sports session; predicting the type of target event that occurred in the sports session; extracting a target scene corresponding to the target event from the video feed; And a method including the step of storing the type of the predicted target event in association with the target scene.
- the method includes providing the type of the predicted target event and the target scene to a user; And when a user command for modifying the type of the predicted target event is received, the method may further include modifying the type of the predicted target event based on the user command.
- the type of the predicted target event may be displayed in the target scene.
- a highlight may be displayed on the player who performed the target event in the target scene, and the player's movement trajectory may be displayed in a time section corresponding to the target event.
- the method further includes obtaining a plurality of location datasets, each of which corresponds to a plurality of time points within a sports session, each location dataset including location values of players at the corresponding time points, , the predicting step is to identify a plurality of location datasets corresponding to the target event from the plurality of location datasets, and a neural network model trained to receive the plurality of location datasets and predict the type of the target event. Using , the type of the target event can be obtained based on the identified plurality of location datasets.
- the target scene may be extracted from the video feed based on time information corresponding to the target event.
- an electronic device providing information about a target event occurring in a sports session, comprising: a memory storing at least one instruction; and a processor, wherein the processor obtains a video feed for the sports session by executing the at least one instruction, predicts the type of the target event that occurred in the sports session, and executes the at least one instruction from the video feed.
- An electronic device may be provided including extracting a target scene corresponding to a target event, and storing the target scene in association with the type of the predicted target event.
- the processor provides the type of the predicted target event and the target scene to the user, and when a user command for modifying the type of the predicted target event is received, the predicted target event is changed based on the user command.
- the type can be modified.
- the processor acquires a plurality of location datasets, each of which corresponds to a plurality of time points within a sports session, each location dataset including location values of players at the corresponding time points, and the plurality of locations. Identifying a plurality of location datasets corresponding to the target event from a dataset, receiving the plurality of location datasets and using a neural network model learned to predict the type of the target event, the identified plurality of location datasets Based on this, the type of the target event can be obtained.
- the target event is identified based on the speed of a plurality of players participating in the sports session, and information about the identified target event is - Obtaining the information, including time information corresponding to the target event and information about a target player who performed the target event; Obtaining a plurality of location data sets, each of which corresponds to a plurality of time points included in the time interval of the identified target event, each location data set including position values of the plurality of players at the corresponding time point; determining ball ownership in a time interval of the identified target event based on the plurality of location data sets; and obtaining the type of the target event based on the plurality of location datasets and the determined ball ownership.
- the method is learned to obtain the type of target event corresponding to the attack situation.
- a first neural network model based on the position value of the target player, a first team position dataset related to the first team, and a second team location dataset associated with a second team that is an opponent of the first team The type of the target event can be obtained.
- the step of acquiring the type of the target event includes, when a second team that is an opponent of the first team to which the target player belongs has possession of the ball in the time section of the identified target event, a target event corresponding to a defense situation
- the type of the target event can be obtained based on the location value of the target player and the second team location dataset related to the second team, using a second neural network model learned to obtain the type.
- the step of obtaining the type of the target event includes, when the first team to which the target player belongs has possession of the ball in the time section of the identified target event, the location of the ball in the time section of the identified target event.
- the reflecting ball position dataset may be input to the first neural network model.
- the method includes a plurality of team location datasets from the plurality of location datasets, wherein the plurality of team location datasets are generated from location datasets corresponding to players of a first team and a stadium of players of the first team.
- a first team location dataset reflecting the placement status in the stadium
- a second team location data generated from a location dataset corresponding to the players of the second team and reflecting the placement status of the players of the second team in the stadium.
- the type of the target event may be obtained based on a first team location dataset related to the first team and a second team location dataset related to the second team that is the opposing team of the first team.
- the ball ownership is to determine the ball ownership by receiving a plurality of team position data sets generated from the plurality of position data sets and a ball position data set reflecting the position of the ball in the time interval of the identified target event. It can be obtained using the learned fourth neural network model.
- the fourth neural network model may be a neural network model of the recurrent neural network series that receives the plurality of team location data sets in segments corresponding to a predetermined time length.
- an electronic device for obtaining a type of target event within a sports session comprising: a memory storing at least one instruction; and a processor; wherein the processor, by executing the at least one instruction, identifies a target event based on speeds of a plurality of players participating in the sports session, and provides information about the identified target event - the information. includes time information corresponding to the target event and information about the target player who performed the target event, and obtains a plurality of time points each corresponding to a plurality of time points included in the time section of the identified target event.
- Each location dataset comprising location values of the plurality of players at a corresponding point in time, and ball possession in a time interval of the identified target event based on the plurality of location datasets.
- An electronic device may be provided including the step of determining and obtaining the type of the target event based on the plurality of location datasets and the determined ball ownership.
- the processor uses a first neural network model learned to obtain the type of target event corresponding to an attack situation when the first team to which the target player belongs has possession of the ball in the time interval of the identified target event. , Obtaining the type of the target event based on the location value of the target player, a first team location dataset related to the first team, and a second team location dataset related to the second team that is the opposing team of the first team. can do.
- the processor is trained to obtain the type of target event corresponding to the defensive situation when the second team, which is an opponent of the first team to which the target player belongs, has possession of the ball in the time section of the identified target event.
- the type of the target event can be obtained based on the location value of the target player and a second team location dataset related to the second team.
- the processor generates a ball position dataset reflecting the position of the ball in the time interval of the identified target event when the first team to which the target player belongs has possession of the ball in the time interval of the identified target event. It can be input into the first neural network model.
- a computer-readable recording medium on which a program for executing the method on a computer is recorded may be provided.
- FIG. 1 is a diagram illustrating an example target event of a sports session according to an embodiment of the present disclosure.
- a player 1 may run with the ball 2 at a preset speed (eg, 25 km/h) or higher.
- the target event is a sprint event
- the type of target event may be ‘Run with ball’.
- the electronic device 100 of the present disclosure can identify a target event within a sports session and obtain the type of the target event. For example, when an event as shown in FIG. 1 occurs in a sports session, the electronic device 100 may determine that a ‘hit and run’ event has been performed by the player 1.
- the target event is a sprint event
- the target event of the present disclosure may be one of events other than the sprint event.
- the target event could be explosive acceleration or change of direction (COD).
- the target event may be High Speed Running (HSR) or a set piece. High-speed running refers to running at a lower speed than sprinting.
- a player performing a target event may be referred to as a target player.
- the target player when the target event is a sprint event, the target player may be referred to as a sprinter.
- Figure 2 is a diagram illustrating a player tracking device according to an embodiment of the present disclosure.
- the player tracking device (T) may be inserted into a pocket (4) formed in clothing (3) worn by the player (1).
- the player tracking device T may include at least one sensor.
- the player tracking device T may include at least one of a GPS sensor, an IMU sensor, or an LPS sensor.
- the player tracking device T can measure data related to the player 1 during a sports session and transmit the measured data to a server.
- data related to player 1 may include position data, velocity data, and acceleration data of player 1 during a sports session.
- the player tracking device T may be installed on another item worn by the player 1 rather than the pocket 4.
- the player tracking device T may be provided on a shoe, bracelet or hair band worn by the player 1.
- Each of a plurality of players participating in a sports session may wear a player tracking device (T). Accordingly, a plurality of location data sets corresponding to each of a plurality of players can be obtained. Meanwhile, some of the plurality of players participating in the sports session may not be wearing the player tracking device (T). For example, a goalie or goaltender may not wear a player tracking device (T).
- the electronic device 100 may identify a sprint event using data related to the player 1 and determine the type of the identified sprint event. For example, the electronic device 100 may identify a sprint event using the player's speed data. Additionally, the electronic device 100 may obtain the type of sprint event using the player's location data. At least some of the various data used by the electronic device 100 may be measured by the player tracking device (T). The electronic device 100 may receive data related to the player 1 from a server or a player tracking device T.
- the location data of the present disclosure may be data processed by the electronic device 100 rather than raw data measured by various sensors.
- the electronic device 100 may obtain location data by performing signal processing on a signal measured by a GPS sensor and a signal measured by an IMU sensor. Additionally, the electronic device 100 may convert the position value measured by the GPS sensor to correspond to the coordinate system of the stadium where the sports session is taking place.
- Figure 3 is a flowchart showing a method of obtaining the type of target event according to an embodiment of the present disclosure.
- the electronic device 100 may acquire a plurality of location datasets each corresponding to a plurality of time points within a sports session (S310).
- Each location dataset may include location values of players at a corresponding point in time.
- a plurality of location datasets may be as shown in FIG. 4.
- Figure 4 is a diagram illustrating a plurality of location data sets according to an embodiment of the present disclosure.
- the electronic device 100 may acquire motion data of a plurality of players (S320).
- Motion data may include speed data, acceleration data, and angular velocity data.
- Motion data may represent various actions of the player. For example, motion data may represent shooting, jumping, changing direction, etc.
- Motion data of multiple players may be measured by multiple player tracking devices (T) worn by multiple players.
- a player's speed data may be measured by a GPS sensor included in the tracking device (T).
- the player's acceleration data and angular velocity data may be measured by an IMU sensor included in the tracking device (T).
- the electronic device 100 may receive speed data of a plurality of players from a server or a player tracking device (T). Alternatively, the electronic device 100 may acquire speed data based on position data or acceleration data measured by the player tracking device T. For example, the electronic device 100 may obtain speed data by differentiating position data or obtain speed data by integrating acceleration data. Additionally, the electronic device 100 may acquire speed data measured by an external device. For example, an external device may perform video analysis on a video feed of a sports session to obtain speed data.
- the electronic device 100 may identify a target event based on the acquired motion data and obtain information about the target event (S330). For example, if the speed of the first player is maintained within a preset range (e.g., 25 (km/h) to 50 (km/h)) for more than a threshold time (e.g., 3 seconds), the electronic device 100 1 It can be determined that the sprint event has been performed by the player.
- a preset range e.g., 25 (km/h) to 50 (km/h)
- a threshold time e.g. 3 seconds
- Information about the target event may include time information corresponding to the target event and information about the target player who performed the target event. Additionally, information about the target event may include ball possession information or the distance traveled by the target player during the time interval corresponding to the target event. Meanwhile, in the present disclosure, the time section corresponding to the target event may be briefly referred to as the target event section. In particular, when the target event is a sprint event, the time section corresponding to the sprint event may be referred to as a sprint section.
- the electronic device 100 may obtain the length of the target event section based on speed data of the target player who performed the identified target event.
- the target event section may include a first time section in which the instantaneous speed of the target player is maintained within a preset range for more than a threshold time.
- the electronic device 100 may identify the first point in time when the target player's instantaneous speed enters a preset range as the starting point of the first time period.
- the electronic device 100 may identify a second point in time at which the target player's instantaneous speed deviates from the preset range after the first point in time as the end point of the first time period.
- the critical time for identifying the target event may vary depending on the distance the target player moves while performing the target event. For example, the greater the distance the target player moves, the shorter the threshold time may be. As the distance traveled by the target player decreases, the critical time may increase. Meanwhile, the moving distance of the target player in the target event section may be calculated based on the speed data of the target player in the target event section and the time length of the target event section.
- the target event section of the present disclosure may be larger than the time section in which the target player actually performs the target event.
- the sprint section of the present disclosure may be larger than the section where the target player actually sprints. This is because the type of target event can be obtained more accurately by using information before and after the time when the actual target event was performed.
- the target event section may include a second time section from the time when the target event is intended by the target player to the starting point of the first time section (ie, the first time point).
- the electronic device 100 may determine when a target event is intended (or when an intention occurs) based on the acceleration of the target player. For example, the electronic device 100 may determine the time when the target player's acceleration becomes greater than a preset value as the time when the intent for the target event occurs.
- the target event section may include a third time section from the end point of the first time section (i.e., the second time point) to the third time point that is a preset time (e.g., 2 seconds) after the end point of the first time section. .
- an identification value may be assigned to each player tracking device (T) worn by each player.
- the electronic device 100 may identify the target player based on speed data measured by the player tracking device (T) and an identification value assigned to the player tracking device (T).
- the electronic device 100 may acquire situation information reflecting the game situation during the target event based on time information corresponding to the target event (S340).
- the situation information may include a first location dataset reflecting the location of the target player and a second location dataset reflecting the placement or movement of at least one other player other than the target player in the stadium.
- the situational information may include context information that reflects various tactical situations within a sports session.
- the situation information may include a plurality of team location datasets corresponding to the target event.
- the electronic device 100 may generate a plurality of team location datasets from a plurality of location datasets corresponding to the target event section.
- a plurality of team location datasets may each correspond to a plurality of time points within the target event section.
- the team location dataset includes a first team location dataset reflecting the disposition status of players of the first team on the stadium to which the player who performed the target event belongs, and a first team location dataset reflecting the disposition status of players of the second team opposing the first team on the stadium. It may include a second team location dataset that reflects the deployment status of.
- the team location dataset may be as shown in Figure 5.
- Figure 5 is a diagram showing a team location dataset according to an embodiment of the present disclosure.
- the first team location dataset 51 may reflect the arrangement status of players of the first team in the stadium at a point in time within the target event section.
- the second team location data set 52 may reflect the arrangement status of players of the second team in the stadium at a point in time within the target event section.
- Each element of the team location datasets 51 and 52 may correspond to a location within the stadium and may indicate whether a player is located at each location. If the value of each element is 0, it may mean that there is no player in the location corresponding to the element. If the value of each element is 1, this may mean that a player belonging to the first team (Team A) is located in the position corresponding to the element.
- the values "0" or "1" are just arbitrary indices, so you can express them as “-1” and "1”, or use any other form of value that can semantically distinguish between teams.
- the position is expressed using a coordinate plane in the form of a grid map with the field expressed as 120x90, but the size of the grid map is not necessarily limited to the example in Figure 5, and the position is expressed with vector coordinates instead of grid coordinates. It is also possible.
- the team location dataset may be a merged team location dataset of two teams. For example, if an element of the team location dataset is "0", there may be no player in the location corresponding to that element. If it is “1” in the team location dataset, a player belonging to the first team may exist in the location corresponding to the element. If it is "2" in the team location dataset, a player belonging to the second team may exist in the location corresponding to the element.
- the index number is arbitrary.
- the electronic device 100 may process location data in the form of a heatmap as shown in FIG. 5 to obtain permutation invariant data.
- the electronic device 100 may acquire a team location dataset using a neural network model.
- a neural network model can convert input data into permutation invariant data.
- a neural network model may be a 'set transformer'.
- this neural network model may be included inside a neural network model learned to infer the type of target event.
- the first neural network model (M1) may include a 'set transformer' that is trained to receive a plurality of location datasets and generate a team location dataset.
- the electronic device 100 may obtain the type of target event based on context information (S350).
- the electronic device 100 includes at least one of a plurality of first team location datasets or a plurality of second team location datasets corresponding to the target event section in the first neural network model (M1), and a target player corresponding to the target event section.
- the target player's location data set refers to a set of location values of the target player in the target event section.
- the input data of the first neural network model (M1) may vary depending on ball ownership in the target event section.
- the electronic device 100 stores the target player's location dataset, the first team's team location dataset, and the target player's team location dataset against the first team.
- the team location dataset of the second team may be input into the first neural network model (M1).
- the electronic device 100 may input the target player's location dataset and the second team's team location dataset into the first neural network model (M1).
- additional information may be input to the first neural network model (M1).
- the electronic device 100 may input the ball position dataset corresponding to the target event section or the role information of the target player into the first neural network model M1.
- the target player's role information may mean the target player's position (eg, attacker).
- the electronic device 100 may input identification information of the first team to which the target player belongs and/or identification information of the second team opposing the first team to the first neural network model (M1).
- Figure 6 is a graph showing speed data of a sprinter according to an embodiment of the present disclosure.
- the sprint section 60 may include a first time section 61, a second time section 62, and a third time section 63.
- the first time section 61 may be a time section in which the instantaneous speed of the sprinter is maintained above the critical speed (sth) for more than a critical time.
- the second time section 62 may be a time section from the point in time (t1) when the sprinter's intention to sprint occurs to the starting point (t2) of the first time section 61.
- the third time section 63 may be a time section from a point in time (t3) when the instantaneous speed of the sprinter becomes less than the critical time to a time point (t4) a preset time after the time point (t3).
- the first time section 61 may be defined as a time section in which the instantaneous speed of the sprinter is maintained within a preset range for a critical time.
- the preset range may be defined by a lower limit threshold and an upper limit threshold.
- the lower threshold may be the threshold speed (sth).
- speed data acquired by the electronic device 100 may include noise.
- the instantaneous speed of the sprinter may momentarily become less than the critical speed (sth) for a very short time (for example, 0.1 second) in the first time section 61 and then become greater than the critical speed (sth) again.
- the electronic device 100 may judge the sudden decrease in the sprinter's instantaneous speed as noise and ignore it. That is, even though the sprinter's instantaneous speed becomes smaller than the critical speed (sth), the electronic device 100 can determine the entire first time section 61 as one sprint section.
- FIG. 7 is a diagram illustrating a method of obtaining the type of target event using a neural network model according to an embodiment of the present disclosure.
- the electronic device 100 may select one of the target player's location dataset 71, the first team location dataset 72, the second team location dataset 73, or the ball location dataset 74.
- the type 75 of the target event can be obtained by inputting at least one into the first neural network model (M1).
- the first neural network model (M1) is based on at least one of the target player's position dataset 71, the first team position dataset 72, the second team position dataset 73, and the ball position dataset 74. It may be a model learned to obtain the type 75 of the target event.
- the electronic device 100 inputs the target player's location dataset 71 and the plurality of second team location datasets 73 corresponding to the target event section into the first neural network model (M1). can do.
- Each second team location dataset 73 refers to a team location dataset of the second team opposing the first team to which the target player belongs at a corresponding point in time within the target event section.
- the electronic device 100 includes a target player's location dataset 71 corresponding to the target event section, a plurality of first team location datasets 72, and a plurality of second team location datasets ( 73) can be input into the first neural network model (M1).
- Each first team location dataset 72 refers to a team location dataset of the first team to which the target player belongs at a corresponding point in time within the target event section.
- the electronic device 100 includes a target player's location dataset 71 corresponding to the target event section, a plurality of first team location datasets 72, and a plurality of second team location datasets ( 73) and the ball position dataset 74 can be input to the first neural network model (M1).
- the first neural network model (M1) processes the input data and can infer the type of target event (75) using only part of the input data based on the processing results.
- the first neural network model (M1) may include a ball ownership determination module that determines ball ownership and an event type prediction module.
- the ball ownership determination module may determine ball ownership based on a plurality of first team location datasets 72, a plurality of second team location datasets 73, and a ball location dataset 74.
- the event type prediction module may predict the type of target event based on ball ownership determined by the ball ownership determination module.
- the event type prediction module when the first team to which the target player belongs owns the ball in the target event section, the event type prediction module includes the target player's location dataset 71, a plurality of first team location datasets 72, and a plurality of The type of target event can be predicted based on the second team location dataset 73.
- the event type prediction module can predict the type of target event based on the target player's location dataset 71 and the plurality of second team location datasets 73. there is.
- the ball position dataset 74 is shown as being input to the first neural network model (M1), but according to another embodiment, the ball position dataset 74 is obtained inside the first neural network model (M1). It can be.
- the first neural network model (M1) may include a ball position prediction module trained to predict the ball position based on a plurality of team position datasets.
- Figure 8 is a diagram for explaining a method of acquiring the position of a ball according to an embodiment of the present disclosure.
- the electronic device 100 may obtain the ball position 82 by inputting the team position dataset 81 into the second neural network model (M2). Specifically, the electronic device 100 may input a plurality of team location datasets 81, each corresponding to a plurality of viewpoints within the target event section, into the second neural network model (M2).
- the second neural network model (M2) can be trained to predict the position of the ball 82 by receiving a plurality of team position datasets 81 corresponding to a plurality of viewpoints in segments of a predetermined time length.
- the ball position 82 predicted by the second neural network model (M2) can be used as input data of the first neural network model (M1).
- the second neural network model (M2) may be embedded within the first neural network model (M1).
- Figure 9 is a flowchart showing a method of providing a target scene corresponding to a target event according to an embodiment of the present disclosure.
- the electronic device 100 may obtain a video feed for a sports session (S910).
- the video feed may be footage of all or part of a sports session.
- the video feed may be a broadcast of a Real Madrid vs. Barcelona match.
- the electronic device 100 may receive a video feed from an external device or external server.
- the electronic device 100 may store the received video feed in the memory 120 .
- the electronic device 100 may predict the type of target event that occurred in the sports session (S920).
- the target event may be a sprint event.
- the electronic device 100 can predict the type of sprint event.
- the method for predicting the type of target event has been described above with reference to FIG. 3, so detailed description thereof will be omitted.
- the electronic device 100 may extract a target scene corresponding to the target event from the video feed (S930). For example, the electronic device 100 may extract a scene of 'Lionel Messi' sprinting from a video feed. The electronic device 100 may identify the target scene based on time information (eg, time stamp) corresponding to the target event.
- time information eg, time stamp
- the electronic device 100 may store the type of predicted target event in relation to the extracted target scene (S940).
- the electronic device 100 may generate a target event log by matching the type of target event and the target scene based on the time stamp corresponding to the target event.
- the electronic device 100 may store the target event log in the memory 120 .
- the target event log may include various information related to the target event in addition to the type of target event.
- the target event log may include data related to identification information, affiliated team, and position of the target player who performed the target event.
- the target event log may include data related to the distance the target player sprints.
- the target event log may include data regarding the results of the target event.
- the result of a target event can mean success or failure.
- the target event log may include a link for executing an application or web page that outputs the target scene.
- the electronic device 100 may provide the type of predicted target event and the extracted target scene to the user (S950).
- the electronic device 100 may transmit a target event log in which information about the target event, including the type of the target event, and a link for playing the target scene are recorded, to the user terminal.
- the user can watch the target scene by selecting a link to play the target scene.
- the type of predicted target event may be displayed in the target scene provided to the user. Additionally, a visual indicator regarding the player who performed the target event in the target scene may be displayed. For example, a highlight may be displayed on the target player in the target scene, or the target player's movement trajectory may be displayed.
- FIG. 10 is a diagram for explaining a method of extracting a target scene from a video feed according to an embodiment of the present disclosure.
- the video feed (VF) may include a plurality of frames including a first frame 101, a third frame 103, and a fifth frame 105.
- the video feed (VF) is a video of a soccer game
- the target scene to be extracted may be a sprint scene corresponding to a sprint event.
- the electronic device 100 may identify a sprint event. For example, the electronic device 100 may identify a sprint event based on speed data measured by a player tracking device (T) worn by players included in the video feed (VF).
- T player tracking device
- VF video feed
- the electronic device 100 may define a sprint section corresponding to a sprint event.
- the sprint section is a first time section in which the instantaneous speed of the sprinter is maintained within a preset range for more than a critical time, a second time section from the point when the sprinter intends to sprint to the starting point of the first time section, and a second time section. It may include a third time interval from the end point of the 1-hour interval to a preset time after the end point of the first time interval.
- the electronic device 100 may extract the sprint scene 106 from the video feed (VF) based on the start and end points of the sprint section.
- the sprint scene 106 may include a second frame 102, a third frame 103, and a fourth frame 104.
- Figure 11 is a diagram showing a sprint scene according to an embodiment of the present disclosure.
- a highlight may be displayed around the sprinting player 1 (i.e., the sprinter) to emphasize the sprinter 1.
- a bounding box 111 may be displayed around the sprinter 1.
- text 115 indicating the sprint type may be displayed in the sprint scene.
- an indicator 112 indicating the movement trajectory of the sprinter 1 may be displayed.
- the indicator 112 may include a first indicator 113 and a second indicator 114.
- the first indicator 113 and the second indicator 114 may have different visual characteristics.
- the first indicator 113 and the second indicator 114 may have different thickness, shape, color, design, or pattern.
- the area where the first indicator 113 and the second indicator 114 are displayed may be determined according to the speed of the sprinter 1.
- the first indicator 113 may be displayed in an area where the sprinter 1 moves at a speed within a preset range.
- the second indicator 114 may be displayed in an area where the sprinter 1 moves at a speed outside the preset range.
- the visual characteristics of the displayed indicator may vary depending on the sprint type.
- Sprint types can be broadly divided into offensive sprints and defensive sprints.
- An offensive sprint refers to a sprint performed when the sprinter's team is in an offensive situation (i.e., the sprinter's team has possession of the ball).
- a defensive sprint refers to a sprint performed when the sprinter's team is in a defensive situation (i.e., the opponent of the sprinter's team has possession of the ball).
- a first indicator may be displayed
- the sprint type is a defensive sprint
- a second indicator may be displayed.
- the visual characteristics of the first indicator and the visual characteristics of the second indicator may be different.
- the visual characteristics of the indicator may vary depending on the detailed type.
- the electronic device 100 may perform image processing on the sprint scene to display the various indicators described above.
- Figure 12 is a table showing a target event log according to an embodiment of the present disclosure. Specifically, Figure 12 shows the target event log 1200 when the sports session is a soccer game and the target event is a sprint event.
- the target event log 1200 may include information about a soccer game, information about a sprinter, and information about a sprint event.
- Information about the soccer game may include the date of the soccer game (1201) and identification information (1202) of the opposing team of the team to which the sprinter belongs.
- Information about the sprinter may include the sprinter's name (1203), position (1204), and identification information of the affiliated team.
- Information about the sprint event may include the distance the sprinter runs in each sprint event (1206) and the ball ownership (1207) in the sprint event section. If the sprinter's team possessed the ball, it was recorded as In-possession (abbreviated In-pos), and if the sprinter's team's opponent possessed the ball, it was recorded as Out-possession (abbreviated Out-pos).
- Information about the sprint event may include information about the start point (1208) and end point (1209) of the sprint section, the type of sprint event (1210), the result of the sprint event (1211), and the video feed corresponding to the sprint section. there is.
- Information about the video feed may include a link 1212 for running the video feed.
- An example of the type 1210 of the sprint event is 'Run with ball'. 'Run with ball' refers to the movement of running with a ball attached.
- Another example of the type of sprint event (1210) is 'Covering'. 'Covering' refers to the movement of a sprinter positioning himself towards the goal side to prevent an opposing player who has or will have the ball from heading towards the goal side.
- Another example of the type of sprint event (1210) is 'Break into Box'. 'Break into Box' refers to a movement in which a teammate on the side has the ball and heads toward the opponent's goal in the opponent's penalty box, aiming to score by receiving a cross from the side.
- the electronic device 100 may provide the target event log 1200 to the user.
- a user may modify at least part of the target event log 1200.
- a user can modify the type 1210 of a sprint event.
- the type of sprint event 1210 may be predicted by the first neural network model M1 and may therefore include some error.
- the user can run the video PD through the link 1212 to determine whether the type 1210 of the sprint event predicted by the first neural network model (M1) is accurate.
- the command entered by the user may be transmitted to the electronic device 100 through a communication interface.
- the electronic device 100 may modify and update the type 1210 of the sprint event based on the command input by the user.
- the electronic device 100 may store the target event log 1200 in which the type 1210 of the sprint event has been modified in the memory 120 .
- FIG. 12 illustrates an embodiment in which the electronic device 100 provides the target event log 1200 to the user, and the user modifies the type 1210 of the sprint event included in the target event log 1200.
- the electronic device 100 can provide the type of target event to the user in any form, and the user cannot necessarily modify the type of target event only through the target event log. reveal.
- Figure 13 is a flowchart showing a method of obtaining the type of target event according to an embodiment of the present disclosure.
- the electronic device 100 may identify a target event based on the speed of a plurality of players participating in a sports session and obtain information about the identified target event (S1310).
- Information about the identified target event may include time information corresponding to the target event and information about the target player who performed the target event.
- the electronic device 100 may acquire a plurality of location data sets each corresponding to a plurality of time points included in the time interval of the target event (S1320).
- Each location dataset may include a plurality of location values each assigned to a plurality of player identifiers at a corresponding point in time.
- the electronic device 100 may generate a plurality of team location datasets from a plurality of location datasets (S1330).
- the plurality of team location datasets may include a plurality of first team location datasets that are generated from location values assigned to player identifiers corresponding to the first team and reflect the placement status of players of the first team in the stadium. there is.
- the plurality of team location datasets may include a plurality of second team location datasets that are generated from location values assigned to player identifiers corresponding to the second team and reflect the placement status of players of the second team in the stadium. there is.
- the electronic device 100 may determine ball ownership in the time section of the target event based on a plurality of team location data sets (S1340). Ball ownership in the time interval of the target event (or target event interval) can be determined using a third neural network model (M3) learned to predict ball ownership based on multiple team position datasets and ball position datasets. You can.
- the electronic device 100 may determine ball ownership in the target event section by inputting a plurality of team location datasets and ball location datasets corresponding to the target event section into the third neural network model (M3).
- ball ownership can be said to generally mean the team's ball ownership, unless specified as a player's ball ownership.
- the output of the third neural network model (M3) may be probability values indicating the probability that the two teams will possess the ball. For example, if the probability that the first team possesses the ball is 80% and the probability that the second team possesses the ball is indicated is 20%, the electronic device 100 may determine that the first team possesses the ball. .
- the third neural network model (M3) may be a neural network model of the recurrent neural network series that receives a plurality of team location data sets in segments corresponding to a predetermined time length. A more detailed description of the third neural network model (M3) will be described later with reference to FIG. 15.
- the electronic device 100 may obtain the type of target event based on a plurality of team location datasets and ball ownership (S1350).
- the electronic device 100 determines the type of target event using an attack event classification model learned to obtain the type of target event corresponding to the attack situation. It can be obtained.
- the electronic device 100 may input the target player's location values corresponding to the target event section, a plurality of first team location datasets, and a plurality of second team location datasets into the attack event classification model.
- the first team location dataset refers to a team location dataset related to the first team to which the target player belongs.
- the second team location dataset refers to a team location dataset related to the second team, which is the opposing team of the first team.
- the electronic device 100 may obtain the type of the target event using a defense event classification model learned to obtain the type of the target event corresponding to the defense situation. You can. Specifically, the electronic device 100 may input the target player's location value and a plurality of second team location datasets into a defense event classification model.
- the neural network model for obtaining the type of target event can be implemented as a dual network consisting of an attack event classification model and a defense event classification model.
- the type of neural network model used to obtain the type of event and the type of data input to each neural network model may vary depending on ball ownership.
- the electronic device 100 may select an optimal neural network model based on ball ownership and obtain the type of target event using the selected neural network model.
- the neural network model for obtaining the type of target event may be implemented as a model that can classify both target events corresponding to attack situations and target events corresponding to defense situations. .
- the electronic device 100 may additionally input the ball position dataset into the neural network model to obtain more accurate results.
- the electronic device 100 may additionally input a ball position dataset reflecting the ball position in the target event section into the attack event classification model and/or the defense event classification model.
- Figure 14 is a diagram for explaining a method of obtaining ball ownership using a neural network model according to an embodiment of the present disclosure.
- the electronic device 100 inputs the first team location dataset 141, the second team location dataset 142, and the ball location dataset 143 into the third neural network model (M3).
- Ball possession (144) can be obtained.
- the electronic device 100 uses a plurality of first team location datasets 141 and a plurality of second team location datasets 142 corresponding to a specific time interval (e.g., target event interval) to form a third neural network model. It can be entered in (M3).
- the ball position data set 143 may be a plurality of position values indicating the position of the ball in a specific time period.
- the output of the third neural network model (M3) may be probability values representing the probability that each team possesses the ball.
- the output of the third neural network model (M3) may include identification information of the team in possession of the ball.
- Figure 15 is a diagram for explaining the structure of a third neural network model according to an embodiment of the present disclosure.
- the third neural network model (M3) may include a first neural network (NN1), a second neural network (NN2), and a third neural network (NN3).
- the first neural network (NN1) generates a plurality of first feature vectors (152-1, 152-2) based on input data (151-1, 151-2, ..., 151-100) respectively corresponding to a plurality of frames. , ..., 152-100) can be output.
- Input data corresponding to each frame may include team position datasets and ball position data of multiple teams.
- the first neural network NN1 may output the first feature vector 152-1 corresponding to the first frame based on the first input data 151-1 corresponding to the first frame.
- the first neural network (NN1) may be a convolutional neural network (CNN).
- the input data (151-1, 151-2, ..., 151-100) is shown as being input to the third neural network model (M3) on a frame basis, but this is only an embodiment.
- the input data (151-1, 151-2, ..., 151-100) may be input to the third neural network model (M3) in segments of a predetermined time length. At this time, some of the input data for each time section may overlap.
- the second neural network NN2 generates a plurality of second feature vectors 153-1 based on a plurality of first feature vectors 152-1, 152-2, ..., 152-100 respectively corresponding to a plurality of frames. , 153-2, ..., 153-100) can be output.
- the second neural network NN2 may output a second feature vector 153-1 corresponding to the first frame based on the first feature vector 152-1 corresponding to the first frame.
- the second neural network (NN2) may be a variety of recurrent neural network-based networks, including a bidirectional Long Short-Term Memory (LSTM) network including a forward network and a reverse network.
- LSTM Long Short-Term Memory
- the third neural network (NN3) provides the team's ball possession information ( 154-1, 154-2, ..., 154-100) can be output.
- the team's ball possession information may mean the probability of each team owning the ball.
- the third neural network NN3 may output the team's ball possession information 154-1 in the first frame based on the second feature vector 153-1 corresponding to the first frame.
- the third neural network (NN3) may be a deep neural network (DNN).
- Figure 16 is a diagram for explaining a method of obtaining the type of target event according to an embodiment of the present disclosure.
- the electronic device 100 may acquire a plurality of team location datasets 161 and ball location datasets 162.
- the electronic device 100 may acquire ball ownership in the target event section based on a plurality of team location datasets 161 and ball location datasets 162.
- the electronic device 100 When the first team to which the target player who performed the target event belongs possesses the ball in the target event section, the electronic device 100 includes a plurality of team location datasets 161 corresponding to the target event section and the target player's location data.
- the type 166 of the attack event can be obtained by inputting the set 163 into the attack event classification model 164.
- the attack event may mean an attack sprint.
- Example types of offensive sprints include 'Run with ball', which is a movement in which a player runs with the ball, and 'Penetrate', which is a movement that aims to score by receiving a through pass while running toward the space behind the opponent's defense and heading directly to the vicinity of the opponent's goal. You can.
- the electronic device 100 may additionally input the ball position dataset 162 into the attack event classification model 164.
- the electronic device 100 When the second team, which is the opposing team of the first team, possesses the ball in the target event section, the electronic device 100 includes a plurality of team location datasets 161 corresponding to the target event section and the target player's location dataset ( 163) can be input into the defense event classification model 165 to obtain the type 166 of the defense event.
- the target event is a sprint event
- the defense event may mean a defense sprint.
- Exemplary types of defensive sprints include 'Pressing', which is a movement to get close to an opposing player to prevent the opposing player with the ball from advancing the ball by dribbling or passing, and 'Pressing', which is a movement to steal the ball from an opposing player who is moving while in possession of the ball.
- the electronic device 100 may additionally input the ball position dataset 162 into the defense event classification model 165.
- the attack event classification model 164 and the defense event classification model 165 may be implemented as embedded within the first neural network model (M1).
- the first neural network model (M1) determines ball ownership based on a plurality of team position datasets 161 and ball position datasets 162, and inputs input data into the classification model corresponding to ball ownership. You can.
- Figure 17 is a block diagram showing the configuration of an electronic device according to an embodiment of the present disclosure.
- the electronic device 100 may include a communication interface 110, a memory 120, and a processor 130.
- the electronic device 100 may be a server. However, this is only an example, and the electronic device 100 may be a personal computer.
- the communication interface 110 includes at least one communication circuit and can communicate with various types of external devices or external servers.
- the communication interface 110 may receive location information about the player from an external device.
- the external device may be a server.
- the external device may store location information received from the player tracking device (T).
- the external device may acquire the player's location data based on location information about the player and store the obtained location data.
- the communication interface 110 may receive location information about the player from the player tracking device (T).
- the communication interface 110 is a Wi-Fi communication module, a cellular communication module, a 3G (3rd generation) mobile communication module, a 4G (4th generation) mobile communication module, a 4th generation LTE (Long Term Evolution) communication module, and a 5G (5th generation) mobile communication module. It may include at least one of a module or wired Ethernet.
- the memory 120 may store an operating system (OS) for controlling the overall operation of the components of the electronic device 100 and commands or data related to the components of the electronic device 100.
- OS operating system
- Memory 120 may store information about a plurality of neural network models.
- Information about the plurality of neural network models may include information about parameters corresponding to each of the plurality of neural network models and learning data for learning the plurality of neural network models.
- the memory 120 may be implemented as non-volatile memory (ex: hard disk, solid state drive (SSD), flash memory) or volatile memory.
- the processor 130 is electrically connected to the memory 120 and can control the overall functions and operations of the electronic device 100.
- the processor 130 may control the electronic device 100 by executing instructions stored in the memory 120.
- the processor 130 may acquire a player's location data set (position data set for short) corresponding to a plurality of time points within a sports session.
- the player location dataset may include location values indicating the locations of a plurality of players.
- Sports sessions may include sessions for various events related to sports, such as match sessions and training sessions.
- a plurality of position values for a plurality of time points may include coordinates within a field indicating the positions of each of the plurality of players over time.
- the processor 130 may obtain a plurality of position values in various ways.
- the processor 130 may receive a plurality of position values from an external device through the communication interface 110.
- the external device may be an external server that stores the location value obtained based on the location information obtained by the player tracking device (T).
- the processor 130 may receive the player's location information from the player tracking device (T).
- the processor 130 may obtain a location value based on the received location information.
- Processor 130 may generate a team location dataset from the player location dataset.
- a team location dataset may reflect the placement of players belonging to a team on the stadium. Team location datasets may be permutation invariant.
- the processor 130 may obtain speed data of multiple players.
- Speed data of a plurality of players may be acquired by a player tracking device (T) worn by each of the plurality of players.
- speed data of a plurality of players may be obtained by a GPS sensor included in the player tracking device (T).
- the processor 130 may identify a target event based on speed data of a plurality of players. For example, if the player's speed remains within a preset speed range for more than a threshold time in the first time period, the processor 130 may determine that a target event has occurred in the first time period. Alternatively, if the player's speed is greater than or equal to the threshold speed in the first time interval, the processor 130 may determine that the target event occurred in the first time interval.
- the processor 130 may obtain information about the target event.
- Information about the target event may include time information corresponding to the target event and information about the player who performed the target event. For example, processor 130 may obtain a time stamp at which the target event is identified.
- Processor 130 may identify a player identifier corresponding to the identified target event.
- the processor 130 may identify a plurality of location datasets corresponding to the target event from the plurality of location datasets based on time information corresponding to the target event.
- the processor 130 may identify a plurality of location data sets corresponding to the target event based on the time stamp corresponding to the target event section.
- the processor 130 may obtain the type of target event based on a plurality of location data sets. Processor 130 may generate a plurality of team location datasets from a plurality of location datasets. The processor 130 may obtain the type of target event by inputting a plurality of team location datasets and the location value of the player who performed the target event into a neural network model.
- the processor 130 may define a target event section.
- the target event section is a first time section in which the instantaneous speed of the player who performed the target event is maintained within a preset range for more than a critical time, and a first time section from the time when the target event is intended by the player. It may include a second time section to the starting point, and a third time section from the end point of the first time section to a preset time after the end point of the first time section.
- the processor 130 may adjust the threshold time based on the distance traveled by the player who performed the target event during the first time period. For example, the greater the distance the player moves, the processor 130 can lower the threshold time.
- the processor 130 may determine when the target event is intended based on the acceleration of the player who performed the target event. For example, the processor 130 may determine the time when the target player's acceleration becomes greater than a preset value as the time when the intent for the target event occurs.
- the processor 130 may obtain the type of target event based on ball ownership in the target event section. For example, when the first team to which the target player belongs has possession of the ball in the target event section, the processor 130 uses a first neural network model learned to obtain the type of target event corresponding to the attack situation, The type of target event may be obtained based on the player's location value, the first team location dataset, and the second team location dataset. When the second team has possession of the ball in the target event section, the processor 130 uses a second neural network model learned to obtain the type of target event corresponding to the defense situation, and determines the position value of the target player and the second team. The type of target event can be obtained based on the location dataset.
- Processor 130 may acquire ball possession based on a plurality of team location datasets and ball location datasets. For example, the processor 130 may acquire ball ownership by inputting a plurality of team location datasets and ball location datasets into a neural network model in segments of a predetermined time length.
- the processor 130 may provide a video feed corresponding to the target event section to the user.
- Processor 130 may extract a target scene corresponding to a target event from a video feed for a sports session.
- the processor 130 may transmit a command to the user terminal to display the target scene. Additionally, the processor 130 may transmit a link for executing the target scene to the user terminal.
- the target scene may be provided to the user along with the type of target event determined by the processor 130.
- the user may input a command to modify the type of target event determined by the processor 130. Based on the command entered by the user, the processor 130 may update the type of target event.
- the processor 130 may be comprised of one or multiple processors.
- one or more processors may be a general-purpose processor such as a CPU, AP, or DSP (Digital Signal Processor), a graphics-specific processor such as a GPU or VPU (Vision Processing Unit), or an artificial intelligence-specific processor such as an NPU.
- One or more processors control input data to be processed according to predefined operation rules or artificial intelligence models stored in the memory 120.
- the artificial intelligence dedicated processors may be designed with a hardware structure specialized for processing a specific artificial intelligence model.
- Predefined operation rules or artificial intelligence models are characterized by being created through learning.
- being created through learning means that the basic artificial intelligence model is learned using a large number of learning data by a learning algorithm, thereby creating a predefined operation rule or artificial intelligence model set to perform the desired characteristics (or purpose). It means burden.
- This learning may be accomplished in the device itself that performs the artificial intelligence according to the present disclosure, or may be accomplished through a separate server and/or system. Examples of learning algorithms include supervised learning, unsupervised learning, semi-supervised learning, or reinforcement learning, but are not limited to the examples described above.
- An artificial intelligence model may be composed of multiple neural network layers. Each of the plurality of neural network layers has a plurality of weight values, and neural network calculation is performed through calculation between the calculation result of the previous layer and the plurality of weights. Multiple weights of multiple neural network layers can be optimized by the learning results of the artificial intelligence model. For example, a plurality of weights may be updated so that loss or cost values obtained from the artificial intelligence model are reduced or minimized during the learning process.
- DNN deep neural networks
- CNN Convolutional Neural Network
- DNN Deep Neural Network
- RNN Recurrent Neural Network
- GAN Generative Adversarial Network
- RBM Restricted Boltzmann Machine
- DNN Deep Belief Network
- BDN Bidirectional Recurrent Deep Neural Network
- DQ-Networks Deep Q-Networks, but are not limited to the examples described above.
- embodiments described above may be implemented in a recording medium that can be read by a computer or similar device using software, hardware, or a combination thereof.
- embodiments described herein may be implemented in a processor itself.
- embodiments such as procedures and functions described in this specification may be implemented as separate software modules. Each of the software modules may perform one or more functions and operations described herein.
- Computer instructions for performing processing operations according to various embodiments of the present disclosure described above may be stored in a non-transitory computer-readable medium.
- Computer instructions stored in such a non-transitory computer-readable medium when executed by a processor, can cause a specific device to perform processing operations according to the various embodiments described above.
- a non-transitory computer-readable medium refers to a medium that stores data semi-permanently and can be read by a device, rather than a medium that stores data for a short period of time, such as registers, caches, and memories.
- Specific examples of non-transitory computer-readable media may include CD, DVD, hard disk, Blu-ray disk, USB, memory card, ROM, etc.
- a storage medium that can be read by a device may be provided in the form of a non-transitory storage medium.
- 'non-transitory storage medium' only means that it is a tangible device and does not contain signals (e.g. electromagnetic waves). This term refers to cases where data is semi-permanently stored in a storage medium and temporary storage media. It does not distinguish between cases where it is stored as .
- a 'non-transitory storage medium' may include a buffer where data is temporarily stored.
- Computer program products are commodities and can be traded between sellers and buyers.
- the computer program product may be distributed in the form of a machine-readable storage medium (e.g. compact disc read only memory (CD-ROM)) or through an application store (e.g. Play StoreTM) or on two user devices (e.g. It can be distributed (e.g. downloaded or uploaded) directly between smartphones) or online.
- a machine-readable storage medium e.g. compact disc read only memory (CD-ROM)
- an application store e.g. Play StoreTM
- two user devices e.g. It can be distributed (e.g. downloaded or uploaded) directly between smartphones) or online.
- at least a portion of the computer program product e.g., a downloadable app
- a machine-readable storage medium such as the memory of a manufacturer's server, an application store's server, or a relay server. It can be temporarily stored or created temporarily.
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Multimedia (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Artificial Intelligence (AREA)
- Health & Medical Sciences (AREA)
- Computing Systems (AREA)
- Databases & Information Systems (AREA)
- Evolutionary Computation (AREA)
- General Health & Medical Sciences (AREA)
- Medical Informatics (AREA)
- Software Systems (AREA)
- Management, Administration, Business Operations System, And Electronic Commerce (AREA)
Abstract
Disclosed is a method for acquiring a type of target event within a sports session. The method comprises the steps of: acquiring a plurality of location datasets respectively corresponding to a plurality of time points within the sports session; acquiring speed data of a plurality of players; identifying a target event on the basis of the speed data and acquiring information regarding the target event; on the basis of time information corresponding to the target event, identifying a plurality of location datasets corresponding to the target event from the plurality of location datasets; and acquiring the type of target event on the basis of the plurality of location datasets that have been identified.
Description
본 개시는 스포츠 세션에서 발생된 타겟 이벤트의 유형을 획득하는 방법 및 이를 수행하는 전자 장치에 관한 것이다.This disclosure relates to a method for obtaining the type of target event that occurred in a sports session and an electronic device for performing the same.
스프린트 이벤트란 스포츠 세션(스포츠 경기, 훈련 세션을 포함함)에서, 스포츠 선수가 기설정된 속력 이상으로 달리는 이벤트를 의미한다. 스프린트 이벤트는 스포츠 세션에서 일어나는 전체 득점 이벤트 중 약 70%와 관련 있을 정도로 높은 상관 관계를 가진다. 득점 이벤트가 많을수록 스포츠 세션에서 승리할 확률이 높기 때문에 현대 스포츠 산업에서 스프린트 이벤트에 대한 분석은 대단히 중요하다고 할 수 있다.A sprint event refers to an event in which a sports player runs faster than a preset speed in a sports session (including sports games and training sessions). Sprint events are highly correlated, being associated with approximately 70% of all scoring events that occur in a sports session. The analysis of sprint events is very important in the modern sports industry because the more scoring events there are, the higher the probability of winning the sports session.
본 개시는 스프린트 이벤트에 대한 분석을 위한 다양한 정보(예로, 스프린트 유형)를 제공하는 방법과 관련된다.The present disclosure relates to a method of providing various information (eg, sprint type) for analysis of a sprint event.
이하에서는 본 기재에서 개시되는 특정 실시예들에 관한 요약을 제시한다. 이하의 요약에서 제시되는 양태들은 단지 특정 실시예들에 관한 간략한 요약을 제공하기 위한 것에 불과한 것으로 본 기재의 범위를 한정하려는 것은 아닌 것으로 이해되어야 한다. 따라서, 본 기재는 이하에서 제시되지 않는 다양한 양태들을 포함할 수 있음을 미리 밝혀둔다.The following presents a summary of specific embodiments disclosed in this disclosure. It should be understood that the aspects presented in the following summary are merely intended to provide a brief summary of specific embodiments and are not intended to limit the scope of the present disclosure. Accordingly, it should be noted in advance that this description may include various aspects not presented below.
본 기재 및 이하에서 개시되는 발명의 개념은 스포츠 세션에서 발생되는 타겟 이벤트의 유형을 예측하는 방법들, 장치들, 시스템들, 및 컴퓨터 판독 가능한 저장 매체들을 제공한다.This disclosure and the inventive concepts disclosed hereinafter provide methods, devices, systems, and computer-readable storage media for predicting the type of target event that will occur in a sports session.
본 발명이 해결하고자 하는 일 기술적 과제는, 복수의 플레이어의 배치 분포를 나타내는 팀 위치 데이터셋에 기초하여 타겟 이벤트의 유형을 예측하는 방법을 제공하는 것이다.One technical problem that the present invention seeks to solve is to provide a method for predicting the type of target event based on a team location dataset representing the placement distribution of a plurality of players.
본 발명이 해결하고자 하는 다른 일 기술적 과제는, 타겟 이벤트 구간에서의 볼 소유권에 기초하여 타겟 이벤트의 유형을 예측하는 방법을 제공하는 것이다.Another technical problem to be solved by the present invention is to provide a method for predicting the type of target event based on ball ownership in the target event section.
본 발명이 해결하고자 하는 또 다른 일 기술적 과제는, 타겟 이벤트에 대응되는 비디오 피드를 사용자에게 제공하는 방법을 제공하는 것이다.Another technical problem to be solved by the present invention is to provide a method of providing a video feed corresponding to a target event to a user.
다만, 본 기재의 해결하고자 하는 과제는 이에 한정되는 것이 아니며, 본 기재의 사상 및 영역으로부터 벗어나지 않는 범위에서 다양하게 확장될 수 있을 것이다.However, the problem to be solved by this description is not limited to this, and may be expanded in various ways without departing from the spirit and scope of this description.
실시예들은, 스포츠 볼의 위치를 예측하는 방법들, 장치들, 시스템들 및 컴퓨터 판독 가능한 저장 매체들을 포함한다.Embodiments include methods, devices, systems, and computer-readable storage media for predicting the position of a sports ball.
일 실시예에 따르면, 스포츠 세션 내 타겟 이벤트의 유형을 획득하는 방법에 있어서, 상기 스포츠 세션 내 복수의 시점(time point)에 각각 대응되는 복수의 위치 데이터셋-각 위치 데이터셋은, 대응되는 시점에서 플레이어들의 위치값을 포함함-을 획득하는 단계; 상기 복수의 플레이어의 모션 데이터를 획득하는 단계; 상기 모션 데이터에 기초하여 상기 타겟 이벤트를 식별하고, 상기 타겟 이벤트에 대한 정보-상기 정보는, 상기 타겟 이벤트에 대응되는 시간 정보 및 상기 타겟 이벤트를 수행한 플레이어에 대한 정보를 포함함-를 획득하는 단계; 상기 타겟 이벤트에 대응되는 시간 정보에 기초하여 상기 타겟 이벤트 동안의 경기 상황을 반영하는 상황 정보-상기 상황 정보는, 상기 타겟 이벤트를 수행한 상기 플레이어의 위치를 반영하는 제1 위치 데이터셋 및 상기 플레이어가 아닌 적어도 하나 이상의 다른 플레이어의 경기장에서의 배치나 움직임을 반영하는 제2 위치 데이터셋을 포함함-를 획득하는 단계; 및 상기 상황 정보에 기초하여 상기 타겟 이벤트의 유형을 획득하는 단계를 포함하는 방법이 제공될 수 있다.According to one embodiment, in a method of obtaining the type of target event within a sports session, a plurality of location datasets each corresponding to a plurality of time points within the sports session - each location dataset is a corresponding time point. Obtaining -including location values of players; Obtaining motion data of the plurality of players; Identifying the target event based on the motion data, and obtaining information about the target event - the information includes time information corresponding to the target event and information about the player who performed the target event. step; Situation information reflecting a game situation during the target event based on time information corresponding to the target event - the situation information includes a first location dataset reflecting the location of the player who performed the target event and the player Obtaining a second location dataset that reflects the placement or movement of at least one other player other than the player on the playing field; And a method including obtaining the type of the target event based on the situation information may be provided.
다른 실시예에 따르면, 스포츠 세션 내 타겟 이벤트의 유형을 획득하는 전자 장치에 있어서, 적어도 하나의 인스트럭션을 저장하는 메모리; 및 프로세서;를 포함하고, 상기 프로세서는, 상기 적어도 하나의 인스트럭션을 실행함으로써, 상기 스포츠 세션 내 복수의 시점(time point)에 각각 대응되는 복수의 위치 데이터셋-각 위치 데이터셋은, 대응되는 시점에서 플레이어들의 위치값을 포함함-을 획득하고, 상기 복수의 플레이어의 모션 데이터를 획득하고, 상기 모션 데이터에 기초하여 상기 타겟 이벤트를 식별하고, 상기 타겟 이벤트에 대한 정보-상기 정보는, 상기 타겟 이벤트에 대응되는 시간 정보 및 상기 타겟 이벤트를 수행한 상기 플레이어에 대한 정보를 포함함-를 획득하고, 상기 타겟 이벤트에 대응되는 시간 정보에 기초하여 상기 타겟 이벤트 동안의 경기 상황을 반영하는 상황 정보-상기 상황 정보는, 상기 타겟 이벤트를 수행한 상기 플레이어의 위치를 반영하는 제1 위치 데이터셋 및 상기 플레이어가 아닌 적어도 하나 이상의 다른 플레이어의 경기장에서의 배치나 움직임을 반영하는 제2 위치 데이터셋을 포함함-를 획득하고, 상기 상황 정보에 기초하여 상기 타겟 이벤트의 유형을 획득하는 전자 장치가 제공될 수 있다.According to another embodiment, an electronic device for obtaining a type of target event within a sports session, comprising: a memory storing at least one instruction; and a processor, wherein the processor executes the at least one instruction, thereby generating a plurality of location data sets, each of which corresponds to a plurality of time points within the sports session - each location data set corresponding to a corresponding time point. Including the position values of the players, obtain, obtain motion data of the plurality of players, identify the target event based on the motion data, and information about the target event, wherein the target Acquires - including time information corresponding to an event and information about the player who performed the target event - and situational information reflecting the game situation during the target event based on the time information corresponding to the target event - The situation information includes a first location dataset reflecting the location of the player who performed the target event and a second location dataset reflecting the placement or movement of at least one other player other than the player in the stadium. An electronic device may be provided that acquires a function and acquires the type of the target event based on the context information.
이상의 예시적 실시예들과 다른 예시적 실시예들은 첨부된 도면과 연관되어 읽혀질 예시적 실시예들에 관하여 후술될 상세한 설명에 의해 설명되거나 명확해질 것이다.The above exemplary embodiments and other exemplary embodiments will be explained or clarified by the detailed description below regarding the exemplary embodiments to be read in conjunction with the attached drawings.
개시된 기술은 다음의 효과를 가질 수 있다. 다만, 특정 실시예가 다음의 효과를 전부 포함하여야 한다거나 다음의 효과만을 포함하여야 한다는 의미는 아니므로, 개시된 기술의 권리범위는 이에 의하여 제한되는 것으로 이해되어서는 아니 될 것이다. The disclosed technology can have the following effects. However, since it does not mean that a specific embodiment must include all of the following effects or only the following effects, the scope of rights of the disclosed technology should not be understood as being limited thereby.
본 개시의 일 실시예에 따르면, 복수의 플레이어의 배치 분포를 나타내는 팀 위치 데이터셋에 기초하여 타겟 이벤트의 유형을 예측할 수 있다.According to an embodiment of the present disclosure, the type of target event can be predicted based on a team location dataset representing the placement distribution of a plurality of players.
본 개시의 일 실시예에 따르면, 타겟 이벤트 구간에서의 볼 소유권에 기초하여 타겟 이벤트의 유형을 예측할 수 있다.According to an embodiment of the present disclosure, the type of target event can be predicted based on ball ownership in the target event section.
본 개시의 일 실시예에 따르면, 타겟 이벤트에 대응되는 비디오 피드를 사용자에게 제공할 수 있다.According to an embodiment of the present disclosure, a video feed corresponding to a target event may be provided to the user.
이상의 발명의 내용은 본 발명의 모든 측면들에 관한 완전한 목록을 포함하는 것은 아니다. 본 발명은 이상에서 요약된 사항들은 물론, 이하의 상세한 설명 및 청구항에서 개시되는 다양한 측면들의 모든 적절한 조합들로부터 실시 가능한 모든 방법들, 기기들, 및 시스템들을 포함하는 것으로 이해되어야 한다. 그 외에 본 개시의 실시예로 인하여 얻을 수 있거나 예측되는 효과에 대해서는 본 개시의 실시예에 대한 상세한 설명에서 직접적 또는 암시적으로 개시하도록 한다. 예컨대, 본 개시의 실시예에 따라 예측되는 다양한 효과에 대해서는 후술될 상세한 설명 내에서 개시될 것이다.The above disclosure does not contain a complete list of all aspects of the invention. The present invention should be understood to include all methods, devices, and systems practicable from all suitable combinations of the various aspects disclosed in the foregoing summary as well as the following detailed description and claims. In addition, effects that can be obtained or expected due to the embodiments of the present disclosure will be directly or implicitly disclosed in the detailed description of the embodiments of the present disclosure. For example, various effects expected according to embodiments of the present disclosure will be disclosed in the detailed description to be described later.
본 개시의 특정 실시예의 양상, 특징 및 이점은 첨부된 도면들을 참조하여 후술되는 설명을 통해 보다 명확해질 것이다.Aspects, features and advantages of specific embodiments of the present disclosure will become clearer through the following description with reference to the accompanying drawings.
도 1은 본 개시의 일 실시예에 따른 스포츠 세션의 예시적인 타겟 이벤트를 나타내는 도면이다.1 is a diagram illustrating an example target event of a sports session according to an embodiment of the present disclosure.
도 2는 본 개시의 일 실시예에 따른 플레이어 추적 장치를 도시한 도면이다.Figure 2 is a diagram illustrating a player tracking device according to an embodiment of the present disclosure.
도 3은 본 개시의 일 실시예에 따른 타겟 이벤트의 유형을 획득하는 방법을 나타내는 순서도이다.Figure 3 is a flowchart showing a method of obtaining the type of target event according to an embodiment of the present disclosure.
도 4는 본 개시의 일 실시예에 따른 복수의 위치 데이터셋을 나타내는 도면이다.Figure 4 is a diagram illustrating a plurality of location data sets according to an embodiment of the present disclosure.
도 5는 본 개시의 일 실시예에 따른 팀 위치 데이터셋을 나타내는 도면이다.Figure 5 is a diagram showing a team location dataset according to an embodiment of the present disclosure.
도 6은 본 개시의 일 실시예에 따른 스프린터의 속력 데이터를 나타내는 그래프이다.Figure 6 is a graph showing speed data of a sprinter according to an embodiment of the present disclosure.
도 7은 본 개시의 일 실시예에 따른 신경망 모델을 이용한 타겟 이벤트의 유형을 획득하는 방법을 설명하기 위한 도면이다.FIG. 7 is a diagram illustrating a method of obtaining the type of target event using a neural network model according to an embodiment of the present disclosure.
도 8은 본 개시의 일 실시예에 따른 볼의 위치를 획득하는 방법을 설명하기 위한 도면이다.Figure 8 is a diagram for explaining a method of acquiring the position of a ball according to an embodiment of the present disclosure.
도 9는 본 개시의 일 실시예에 따른 타겟 이벤트에 대응되는 타겟 장면을 제공하는 방법을 나타내는 순서도이다.Figure 9 is a flowchart showing a method of providing a target scene corresponding to a target event according to an embodiment of the present disclosure.
도 10은 본 개시의 일 실시예에 따른 비디오 피드로부터 타겟 장면을 추출하는 방법을 설명하기 위한 도면이다.FIG. 10 is a diagram for explaining a method of extracting a target scene from a video feed according to an embodiment of the present disclosure.
도 11은 본 개시의 일 실시예에 따른 스프린트 장면을 나타내는 도면이다.Figure 11 is a diagram showing a sprint scene according to an embodiment of the present disclosure.
도 12는 본 개시의 일 실시예에 따른 타겟 이벤트 로그를 나타내는 표이다.12 is a table showing a target event log according to an embodiment of the present disclosure.
도 13은 본 개시의 일 실시예에 따른 타겟 이벤트의 유형을 획득하는 방법을 나타내는 순서도이다.Figure 13 is a flowchart showing a method of obtaining the type of target event according to an embodiment of the present disclosure.
도 14는 본 개시의 일 실시예에 따른 신경망 모델을 이용한 볼 소유권을 획득하는 방법을 설명하기 위한 도면이다.Figure 14 is a diagram for explaining a method of obtaining ball ownership using a neural network model according to an embodiment of the present disclosure.
도 15는 본 개시의 일 실시예에 따른 제3 신경망 모델의 구조를 설명하기 위한 도면이다.Figure 15 is a diagram for explaining the structure of a third neural network model according to an embodiment of the present disclosure.
도 16은 본 개시의 일 실시예에 따른 타겟 이벤트의 유형을 획득하는 방법을 설명하기 위한 도면이다.Figure 16 is a diagram for explaining a method of obtaining the type of target event according to an embodiment of the present disclosure.
도 17은 본 개시의 일 실시예에 따른 전자 장치의 구성을 도시한 블록도이다.Figure 17 is a block diagram showing the configuration of an electronic device according to an embodiment of the present disclosure.
본 명세서에서 사용되는 용어에 대해 간략히 설명하고, 본 개시에 대해 구체적으로 설명하기로 한다. Terms used in this specification will be briefly described, and the present disclosure will be described in detail.
본 개시의 실시예에서 사용되는 용어는 본 개시에서의 기능을 고려하면서 가능한 현재 널리 사용되는 일반적인 용어들을 선택하였으나, 이는 당 분야에 종사하는 기술자의 의도 또는 판례, 새로운 기술의 출현 등에 따라 달라질 수 있다. 또한, 특정한 경우는 출원인이 임의로 선정한 용어도 있으며, 이 경우 해당되는 개시의 설명 부분에서 상세히 그 의미를 기재할 것이다. 따라서 본 개시에서 사용되는 용어는 단순한 용어의 명칭이 아닌, 그 용어가 가지는 의미와 본 개시의 전반에 걸친 내용을 토대로 정의되어야 한다.The terms used in the embodiments of the present disclosure have selected general terms that are currently widely used as much as possible while considering the functions in the present disclosure, but this may vary depending on the intention or precedent of a technician working in the art, the emergence of new technology, etc. . In addition, in certain cases, there are terms arbitrarily selected by the applicant, and in this case, the meaning will be described in detail in the description part of the relevant disclosure. Therefore, the terms used in this disclosure should be defined based on the meaning of the term and the overall content of this disclosure, rather than simply the name of the term.
본 개시의 실시예들은 다양한 변환을 가할 수 있고 여러 가지 실시예를 가질 수 있는바, 특정 실시예들을 도면에 예시하고 상세한 설명에 상세하게 설명하고자 한다. 그러나 이는 특정한 실시 형태에 대해 범위를 한정하려는 것이 아니며, 개시된 사상 및 기술 범위에 포함되는 모든 변환, 균등물 내지 대체물을 포함하는 것으로 이해되어야 한다. 실시예들을 설명함에 있어서 관련된 공지 기술에 대한 구체적인 설명이 요지를 흐릴 수 있다고 판단되는 경우 그 상세한 설명을 생략한다.Embodiments of the present disclosure can be modified and have various embodiments, and specific embodiments will be illustrated in the drawings and described in detail in the detailed description. However, this is not intended to limit the scope to specific embodiments, and should be understood to include all transformations, equivalents, and substitutes included in the disclosed spirit and technical scope. In describing the embodiments, if it is determined that detailed description of related known technologies may obscure the point, the detailed description will be omitted.
제1, 제2 등의 용어는 다양한 구성요소들을 설명하는데 사용될 수 있지만, 구성요소들은 용어들에 의해 한정되어서는 안 된다. 용어들은 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만 사용된다.Terms such as first, second, etc. may be used to describe various components, but the components should not be limited by the terms. Terms are used only to distinguish one component from another.
단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. 본 출원에서, "포함하다" 또는 "구성되다" 등의 용어는 명세서 상에 기재된 특징, 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.Singular expressions include plural expressions unless the context clearly dictates otherwise. In this application, terms such as “comprise” or “consist of” are intended to designate the presence of features, numbers, steps, operations, components, parts, or combinations thereof described in the specification, but are intended to indicate the presence of one or more other It should be understood that this does not exclude in advance the presence or addition of features, numbers, steps, operations, components, parts, or combinations thereof.
아래에서는 첨부한 도면을 참고하여 본 개시의 실시예에 대하여 본 개시가 속하는 기술 분야에서 통상의 지식을 가진 자가 용이하게 실시할 수 있도록 상세히 설명한다. 그러나 본 개시는 여러 가지 상이한 형태로 구현될 수 있으며 여기에서 설명하는 실시예에 한정되지 않는다. 그리고 도면에서 본 개시를 명확하게 설명하기 위해서 설명과 관계없는 부분은 생략하였으며, 명세서 전체를 통하여 유사한 부분에 대해서는 유사한 도면 부호를 붙였다.Below, with reference to the attached drawings, embodiments of the present disclosure will be described in detail so that those skilled in the art can easily practice them. However, the present disclosure may be implemented in many different forms and is not limited to the embodiments described herein. In order to clearly explain the present disclosure in the drawings, parts that are not related to the description are omitted, and similar parts are given similar reference numerals throughout the specification.
일 실시예에 따르면, 스포츠 세션 내 타겟 이벤트의 유형을 획득하는 방법에 있어서, 상기 스포츠 세션 내 복수의 시점(time point)에 각각 대응되는 복수의 위치 데이터셋-각 위치 데이터셋은, 대응되는 시점에서 플레이어들의 위치값을 포함함-을 획득하는 단계; 상기 복수의 플레이어의 모션 데이터를 획득하는 단계; 상기 모션 데이터에 기초하여 상기 타겟 이벤트를 식별하고, 상기 타겟 이벤트에 대한 정보-상기 정보는, 상기 타겟 이벤트에 대응되는 시간 정보 및 상기 타겟 이벤트를 수행한 플레이어에 대한 정보를 포함함-를 획득하는 단계; 상기 타겟 이벤트에 대응되는 시간 정보에 기초하여 상기 타겟 이벤트 동안의 경기 상황을 반영하는 상황 정보-상기 상황 정보는, 상기 타겟 이벤트를 수행한 상기 플레이어의 위치를 반영하는 제1 위치 데이터셋 및 상기 플레이어가 아닌 적어도 하나 이상의 다른 플레이어의 경기장에서의 배치나 움직임을 반영하는 제2 위치 데이터셋을 포함함-를 획득하는 단계; 및 상기 상황 정보에 기초하여 상기 타겟 이벤트의 유형을 획득하는 단계를 포함하는 방법이 제공될 수 있다.According to one embodiment, in a method of obtaining the type of target event within a sports session, a plurality of location datasets each corresponding to a plurality of time points within the sports session - each location dataset is a corresponding time point. Obtaining -including location values of players; Obtaining motion data of the plurality of players; Identifying the target event based on the motion data, and obtaining information about the target event - the information includes time information corresponding to the target event and information about the player who performed the target event. step; Situation information reflecting a game situation during the target event based on time information corresponding to the target event - the situation information includes a first location dataset reflecting the location of the player who performed the target event and the player Obtaining a second location dataset that reflects the placement or movement of at least one other player other than the player on the playing field; And a method including obtaining the type of the target event based on the situation information may be provided.
상기 방법은, 상기 복수의 위치 데이터셋으로부터 상기 타겟 이벤트에 대응되는 복수의 팀 위치 데이터셋-상기 복수의 팀 위치 데이터셋은, 상기 타겟 이벤트를 수행한 상기 플레이어가 속한 제1 팀의 플레이어들의 경기장에서의 배치 상태를 반영하는 복수의 제1 팀 위치 데이터셋, 및 제2 팀의 플레이어들의 상기 경기장에서의 배치 상태를 반영하는 복수의 제2 팀 위치 데이터셋을 포함함-을 생성하는 단계;를 더 포함하고, 상기 타겟 이벤트의 유형을 획득하는 단계는, 상기 복수의 제1 팀 위치 데이터셋 또는 상기 복수의 제2 팀 위치 데이터셋 중 적어도 하나와 상기 타겟 이벤트를 수행한 상기 플레이어의 위치값들을 신경망 모델에 입력하여 상기 타겟 이벤트의 유형을 획득할 수 있다.The method includes a plurality of team location datasets corresponding to the target event from the plurality of location datasets - the plurality of team location datasets being the stadium of players of the first team to which the player who performed the target event belongs. generating a plurality of first team location datasets reflecting the placement status in the stadium, and a plurality of second team location datasets reflecting the placement status of players of a second team in the stadium; Further comprising, the step of obtaining the type of the target event includes at least one of the plurality of first team location datasets or the plurality of second team location datasets and location values of the player who performed the target event. The type of the target event can be obtained by inputting it into a neural network model.
상기 방법은, 상기 스포츠 세션에 이용되는 볼의 위치를 획득하는 단계;를 더 포함하고, 상기 타겟 이벤트의 유형을 획득하는 단계는, 상기 타겟 이벤트에 대응되는 시간 구간에서의 상기 볼의 위치를 상기 신경망 모델에 추가적으로 입력하여 상기 타겟 이벤트의 유형을 획득할 수 있다.The method further includes obtaining the position of a ball used in the sports session, wherein the step of obtaining the type of the target event includes determining the position of the ball in a time interval corresponding to the target event. The type of the target event can be obtained by additionally inputting it into the neural network model.
상기 타겟 이벤트의 유형을 획득하는 단계는, 상기 타겟 이벤트를 수행한 상기 플레이어의 역할 정보를 상기 신경망 모델에 추가적으로 입력하여 상기 타겟 이벤트의 유형을 획득할 수 있다.In the step of acquiring the type of the target event, the type of the target event may be obtained by additionally inputting role information of the player who performed the target event into the neural network model.
상기 타겟 이벤트에 대응되는 시간 정보는, 상기 타겟 이벤트를 수행한 상기 플레이어의 순간 속력이 기설정된 범위 이내로 임계 시간 이상 동안 유지되는 제1 시간 구간, 상기 플레이어에 의해 상기 타겟 이벤트가 의도된 시점으로부터 상기 제1 시간 구간의 시작점까지의 제2 시간 구간, 및 상기 제1 시간 구간의 끝점으로부터 상기 제1 시간 구간의 끝점으로부터 기설정된 시간 후인 시점까지의 제3 시간 구간을 포함할 수 있다.The time information corresponding to the target event includes a first time period in which the instantaneous speed of the player who performed the target event is maintained within a preset range for a critical time or more, from the time when the target event is intended by the player. It may include a second time section from the start point of the first time section, and a third time section from the end point of the first time section to a preset time after the end point of the first time section.
상기 임계 시간은, 상기 제1 시간 구간동안 상기 플레이어가 이동한 거리에 기초하여 조절될 수 있다.The threshold time may be adjusted based on the distance the player moves during the first time period.
상기 타겟 이벤트가 의도된 시점은, 상기 플레이어의 가속도에 기초하여 판단될 수 있다.The timing at which the target event is intended may be determined based on the player's acceleration.
다른 일 실시예에 따르면, 스포츠 세션 내 타겟 이벤트의 유형을 획득하는 전자 장치에 있어서, 적어도 하나의 인스트럭션을 저장하는 메모리; 및 프로세서;를 포함하고, 상기 프로세서는, 상기 적어도 하나의 인스트럭션을 실행함으로써, 상기 스포츠 세션 내 복수의 시점(time point)에 각각 대응되는 복수의 위치 데이터셋-각 위치 데이터셋은, 대응되는 시점에서 플레이어들의 위치값을 포함함-을 획득하고, 상기 복수의 플레이어의 모션 데이터를 획득하고, 상기 모션 데이터에 기초하여 상기 타겟 이벤트를 식별하고, 상기 타겟 이벤트에 대한 정보-상기 정보는, 상기 타겟 이벤트에 대응되는 시간 정보 및 상기 타겟 이벤트를 수행한 상기 플레이어에 대한 정보를 포함함-를 획득하고, 상기 타겟 이벤트에 대응되는 시간 정보에 기초하여 상기 타겟 이벤트 동안의 경기 상황을 반영하는 상황 정보-상기 상황 정보는, 상기 타겟 이벤트를 수행한 상기 플레이어의 위치를 반영하는 제1 위치 데이터셋 및 상기 플레이어가 아닌 적어도 하나 이상의 다른 플레이어의 경기장에서의 배치나 움직임을 반영하는 제2 위치 데이터셋을 포함함-를 획득하고, 상기 상황 정보에 기초하여 상기 타겟 이벤트의 유형을 획득하는 전자 장치가 제공될 수 있다.According to another embodiment, an electronic device for obtaining a type of target event within a sports session, comprising: a memory storing at least one instruction; and a processor, wherein the processor executes the at least one instruction, thereby generating a plurality of location data sets, each of which corresponds to a plurality of time points within the sports session - each location data set corresponding to a corresponding time point. Including the position values of the players, obtain, obtain motion data of the plurality of players, identify the target event based on the motion data, and information about the target event, wherein the target Acquires - including time information corresponding to an event and information about the player who performed the target event - and situational information reflecting the game situation during the target event based on the time information corresponding to the target event - The situation information includes a first location dataset reflecting the location of the player who performed the target event and a second location dataset reflecting the placement or movement of at least one other player other than the player in the stadium. An electronic device may be provided that acquires a function and acquires the type of the target event based on the context information.
상기 프로세서는, 상기 식별된 복수의 위치 데이터셋으로부터 복수의 팀 위치 데이터셋-상기 복수의 팀 위치 데이터셋은, 상기 타겟 이벤트를 수행한 상기 플레이어가 속한 제1 팀의 플레이어들의 경기장에서의 배치 상태를 반영하는 복수의 제1 팀 위치 데이터셋, 및 제2 팀의 플레이어들의 상기 경기장에서의 배치 상태를 반영하는 복수의 제2 팀 위치 데이터셋을 포함함-을 생성하고, 상기 복수의 제1 팀 위치 데이터셋 또는 상기 복수의 제2 팀 위치 데이터셋 중 적어도 하나와 상기 식별된 복수의 위치 데이터셋에 포함된 상기 타겟 이벤트를 수행한 상기 플레이어의 위치값들을 신경망 모델에 입력하여 상기 타겟 이벤트의 유형을 획득할 수 있다.The processor, a plurality of team location datasets from the identified plurality of location datasets - the plurality of team location datasets, the arrangement status of players of the first team to which the player who performed the target event belongs in the stadium generating a plurality of first team location datasets reflecting a plurality of first team location datasets, and a plurality of second team location datasets reflecting placement states of players of a second team in the stadium, wherein the plurality of first team Type of the target event by inputting at least one of the location dataset or the plurality of second team location datasets and the location values of the player who performed the target event included in the identified plurality of location datasets into a neural network model. can be obtained.
상기 프로세서는, 상기 스포츠 세션에 이용되는 볼의 위치를 획득하고, 상기 타겟 이벤트에 대응되는 시간 구간에서의 상기 볼의 위치를 상기 신경망 모델에 추가적으로 입력하여 상기 타겟 이벤트의 유형을 획득할 수 있다.The processor may acquire the position of the ball used in the sports session and obtain the type of the target event by additionally inputting the position of the ball in the time interval corresponding to the target event into the neural network model.
상기 프로세서는, 상기 타겟 이벤트를 수행한 상기 플레이어의 역할 정보를 상기 신경망 모델에 추가적으로 입력하여 상기 타겟 이벤트의 유형을 획득할 수 있다.The processor may obtain the type of the target event by additionally inputting role information of the player who performed the target event into the neural network model.
상기 프로세서는, 상기 제1 시간 구간동안 상기 플레이어가 이동한 거리에 기초하여 상기 임계 시간을 조절할 수 있다.The processor may adjust the threshold time based on the distance the player moves during the first time period.
상기 프로세서는, 상기 플레이어의 가속도에 기초하여 상기 타겟 이벤트가 의도된 시점을 판단할 수 있다.The processor may determine when the target event is intended based on the player's acceleration.
또 다른 일 실시예에 따르면, 스포츠 세션에서 발생되는 타겟 이벤트에 대한 정보를 제공하는 방법에 있어서, 상기 스포츠 세션에 대한 비디오 피드를 획득하는 단계; 상기 스포츠 세션에서 발생한 상기 타겟 이벤트의 유형을 예측하는 단계; 상기 비디오 피드로부터 상기 타겟 이벤트에 대응되는 타겟 장면을 추출하는 단계; 및 상기 예측된 타겟 이벤트의 유형과 상기 타겟 장면을 관련지어 저장하는 단계를 포함하는 방법이 제공될 수 있다.According to another embodiment, a method of providing information about a target event occurring in a sports session includes: acquiring a video feed for the sports session; predicting the type of target event that occurred in the sports session; extracting a target scene corresponding to the target event from the video feed; And a method including the step of storing the type of the predicted target event in association with the target scene.
상기 방법은, 상기 예측된 타겟 이벤트의 유형과 상기 타겟 장면을 사용자에게 제공하는 단계; 및 상기 예측된 타겟 이벤트의 유형을 수정하기 위한 사용자 명령이 수신되면, 상기 사용자 명령에 기초하여 상기 예측된 타겟 이벤트의 유형을 수정하는 단계를 더 포함할 수 있다.The method includes providing the type of the predicted target event and the target scene to a user; And when a user command for modifying the type of the predicted target event is received, the method may further include modifying the type of the predicted target event based on the user command.
상기 타겟 장면에는 상기 예측된 타겟 이벤트의 유형이 표시될 수 있다.The type of the predicted target event may be displayed in the target scene.
상기 타겟 장면에서 상기 타겟 이벤트를 수행한 플레이어에 하이라이트가 표시되고, 상기 타겟 이벤트에 대응되는 시간 구간에서 상기 플레이어의 이동 궤적이 표시될 수 있다.A highlight may be displayed on the player who performed the target event in the target scene, and the player's movement trajectory may be displayed in a time section corresponding to the target event.
상기 방법은, 스포츠 세션 내 복수의 시점(time point)에 각각 대응되는 복수의 위치 데이터셋-각 위치 데이터셋은, 대응되는 시점에서 플레이어들의 위치값을 포함함-을 획득하는 단계를 더 포함하고, 상기 예측하는 단계는, 상기 복수의 위치 데이터셋으로부터 상기 타겟 이벤트에 대응되는 복수의 위치 데이터셋을 식별하고, 및 복수의 위치 데이터셋을 입력 받아 상기 타겟 이벤트의 유형을 예측하도록 학습된 신경망 모델을 이용하여, 상기 식별된 복수의 위치 데이터셋에 기초하여 상기 타겟 이벤트의 유형을 획득할 수 있다.The method further includes obtaining a plurality of location datasets, each of which corresponds to a plurality of time points within a sports session, each location dataset including location values of players at the corresponding time points, , the predicting step is to identify a plurality of location datasets corresponding to the target event from the plurality of location datasets, and a neural network model trained to receive the plurality of location datasets and predict the type of the target event. Using , the type of the target event can be obtained based on the identified plurality of location datasets.
상기 타겟 장면은, 상기 타겟 이벤트에 대응되는 시간 정보에 기초하여 상기 비디오 피드로부터 추출될 수 있다.The target scene may be extracted from the video feed based on time information corresponding to the target event.
또 다른 일 실시예에 따르면, 스포츠 세션에서 발생되는 타겟 이벤트에 대한 정보를 제공하는 전자 장치에 있어서, 적어도 하나의 인스트럭션을 저장하는 메모리; 및 프로세서;를 포함하고, 상기 프로세서는, 상기 적어도 하나의 인스트럭션을 실행함으로써, 상기 스포츠 세션에 대한 비디오 피드를 획득하고, 상기 스포츠 세션에서 발생한 상기 타겟 이벤트의 유형을 예측하고, 상기 비디오 피드로부터 상기 타겟 이벤트에 대응되는 타겟 장면을 추출하고, 상기 예측된 타겟 이벤트의 유형과 상기 타겟 장면을 관련지어 저장하는 단계를 포함하는 전자 장치가 제공될 수 있다.According to another embodiment, an electronic device providing information about a target event occurring in a sports session, comprising: a memory storing at least one instruction; and a processor, wherein the processor obtains a video feed for the sports session by executing the at least one instruction, predicts the type of the target event that occurred in the sports session, and executes the at least one instruction from the video feed. An electronic device may be provided including extracting a target scene corresponding to a target event, and storing the target scene in association with the type of the predicted target event.
상기 프로세서는, 상기 예측된 타겟 이벤트의 유형과 상기 타겟 장면을 사용자에게 제공하고, 상기 예측된 타겟 이벤트의 유형을 수정하기 위한 사용자 명령이 수신되면, 상기 사용자 명령에 기초하여 상기 예측된 타겟 이벤트의 유형을 수정할 수 있다.The processor provides the type of the predicted target event and the target scene to the user, and when a user command for modifying the type of the predicted target event is received, the predicted target event is changed based on the user command. The type can be modified.
상기 프로세서는, 스포츠 세션 내 복수의 시점(time point)에 각각 대응되는 복수의 위치 데이터셋-각 위치 데이터셋은, 대응되는 시점에서 플레이어들의 위치값을 포함함-을 획득하고, 상기 복수의 위치 데이터셋으로부터 상기 타겟 이벤트에 대응되는 복수의 위치 데이터셋을 식별하고, 복수의 위치 데이터셋을 입력 받아 상기 타겟 이벤트의 유형을 예측하도록 학습된 신경망 모델을 이용하여, 상기 식별된 복수의 위치 데이터셋에 기초하여 상기 타겟 이벤트의 유형을 획득할 수 있다.The processor acquires a plurality of location datasets, each of which corresponds to a plurality of time points within a sports session, each location dataset including location values of players at the corresponding time points, and the plurality of locations. Identifying a plurality of location datasets corresponding to the target event from a dataset, receiving the plurality of location datasets and using a neural network model learned to predict the type of the target event, the identified plurality of location datasets Based on this, the type of the target event can be obtained.
또 다른 일 실시예에 따르면, 스포츠 세션 내 타겟 이벤트의 유형을 획득하는 방법에 있어서, 상기 스포츠 세션에 참가한 복수의 플레이어의 속력에 기초하여 타겟 이벤트를 식별하고, 상기 식별된 타겟 이벤트에 대한 정보-상기 정보는, 상기 타겟 이벤트에 대응되는 시간 정보 및 상기 타겟 이벤트를 수행한 타겟 플레이어에 대한 정보를 포함함-를 획득하는 단계; 상기 식별된 타겟 이벤트의 시간 구간에 포함된 복수의 시점에 각각 대응되는 복수의 위치 데이터셋-각 위치 데이터셋은, 대응되는 시점에서 상기 복수의 플레이어의 위치값을 포함함-을 획득하는 단계; 상기 복수의 위치 데이터셋에 기초하여 상기 식별된 타겟 이벤트의 시간 구간에서의 볼 소유권을 판단하는 단계; 및 상기 복수의 위치 데이터셋 및 상기 판단된 볼 소유권에 기초하여 상기 타겟 이벤트의 유형을 획득하는 단계를 포함하는 방법이 제공될 수 있다.According to another embodiment, in a method of obtaining the type of target event in a sports session, the target event is identified based on the speed of a plurality of players participating in the sports session, and information about the identified target event is - Obtaining the information, including time information corresponding to the target event and information about a target player who performed the target event; Obtaining a plurality of location data sets, each of which corresponds to a plurality of time points included in the time interval of the identified target event, each location data set including position values of the plurality of players at the corresponding time point; determining ball ownership in a time interval of the identified target event based on the plurality of location data sets; and obtaining the type of the target event based on the plurality of location datasets and the determined ball ownership.
상기 타겟 이벤트의 유형을 획득하는 단계는, 상기 식별된 타겟 이벤트의 시간 구간에서 상기 타겟 플레이어가 속한 제1 팀이 상기 볼 소유권을 갖는 경우, 공격 상황에 해당하는 타겟 이벤트의 유형을 획득하도록 학습된 제1 신경망 모델을 이용하여, 상기 타겟 플레이어의 위치값, 상기 제1 팀과 관련된 제1 팀 위치 데이터셋 및 상기 제1 팀의 상대팀인 제2 팀과 관련된 제2 팀 위치 데이터셋에 기초하여 상기 타겟 이벤트의 유형을 획득할 수 있다.In the step of acquiring the type of the target event, when the first team to which the target player belongs has possession of the ball in the time section of the identified target event, the method is learned to obtain the type of target event corresponding to the attack situation. Using a first neural network model, based on the position value of the target player, a first team position dataset related to the first team, and a second team location dataset associated with a second team that is an opponent of the first team The type of the target event can be obtained.
상기 타겟 이벤트의 유형을 획득하는 단계는, 상기 식별된 타겟 이벤트의 시간 구간에서 상기 타겟 플레이어가 속한 제1 팀의 상대팀인 제2 팀이 상기 볼 소유권을 갖는 경우, 수비 상황에 해당하는 타겟 이벤트의 유형을 획득하도록 학습된 제2 신경망 모델을 이용하여, 상기 타겟 플레이어의 위치값 및 상기 제2 팀과 관련된 제2 팀 위치 데이터셋에 기초하여 상기 타겟 이벤트의 유형을 획득할 수 있다.The step of acquiring the type of the target event includes, when a second team that is an opponent of the first team to which the target player belongs has possession of the ball in the time section of the identified target event, a target event corresponding to a defense situation The type of the target event can be obtained based on the location value of the target player and the second team location dataset related to the second team, using a second neural network model learned to obtain the type.
상기 타겟 이벤트의 유형을 획득하는 단계는, 상기 식별된 타겟 이벤트의 시간 구간에서 상기 타겟 플레이어가 속한 제1 팀이 상기 볼 소유권을 갖는 경우, 상기 식별된 타겟 이벤트의 시간 구간에서의 볼의 위치를 반영하는 볼 위치 데이터셋을 상기 제1 신경망 모델에 입력할 수 있다.The step of obtaining the type of the target event includes, when the first team to which the target player belongs has possession of the ball in the time section of the identified target event, the location of the ball in the time section of the identified target event. The reflecting ball position dataset may be input to the first neural network model.
상기 방법은, 상기 복수의 위치 데이터셋으로부터 복수의 팀 위치 데이터셋-상기 복수의 팀 위치 데이터셋은, 제1 팀의 플레이어들에 대응되는 위치 데이터셋으로부터 생성되며 상기 제1 팀의 플레이어들의 경기장에서의 배치 상태를 반영하는 제1 팀 위치 데이터셋, 및 제2 팀의 플레이어들에 대응되는 위치 데이터셋으로부터 생성되며 상기 제2 팀의 플레이어들의 경기장에서의 배치 상태를 반영하는 제2 팀 위치 데이터셋을 포함함-을 생성하는 단계를 더 포함하고, 상기 타겟 이벤트의 유형을 획득하는 단계는, 상기 타겟 이벤트의 유형을 획득하도록 학습된 제3 신경망 모델을 이용하여, 상기 타겟 플레이어의 위치값, 상기 제1 팀과 관련된 제1 팀 위치 데이터셋 및 상기 제1 팀의 상대팀인 제2 팀과 관련된 제2 팀 위치 데이터셋에 기초하여 상기 타겟 이벤트의 유형을 획득할 수 있다.The method includes a plurality of team location datasets from the plurality of location datasets, wherein the plurality of team location datasets are generated from location datasets corresponding to players of a first team and a stadium of players of the first team. A first team location dataset reflecting the placement status in the stadium, and a second team location data generated from a location dataset corresponding to the players of the second team and reflecting the placement status of the players of the second team in the stadium. It further includes the step of generating a set, wherein the step of obtaining the type of the target event includes: a location value of the target player, using a third neural network model learned to obtain the type of the target event; The type of the target event may be obtained based on a first team location dataset related to the first team and a second team location dataset related to the second team that is the opposing team of the first team.
상기 볼 소유권은, 상기 복수의 위치 데이터셋으로부터 생성된 복수의 팀 위치 데이터셋과 상기 식별된 타겟 이벤트의 시간 구간에서의 볼의 위치를 반영하는 볼 위치 데이터셋을 입력 받아 상기 볼 소유권을 판단하도록 학습된 제4 신경망 모델을 이용하여 획득될 수 있다.The ball ownership is to determine the ball ownership by receiving a plurality of team position data sets generated from the plurality of position data sets and a ball position data set reflecting the position of the ball in the time interval of the identified target event. It can be obtained using the learned fourth neural network model.
상기 제4 신경망 모델은, 상기 복수의 팀 위치 데이터셋을 미리 정해진 시간 길이에 대응되는 세그먼트 단위로 입력 받는 순환신경망 계열의 신경망 모델일 수 있다.The fourth neural network model may be a neural network model of the recurrent neural network series that receives the plurality of team location data sets in segments corresponding to a predetermined time length.
또 다른 일 실시예에 따르면, 스포츠 세션 내 타겟 이벤트의 유형을 획득하는 전자 장치에 있어서, 적어도 하나의 인스트럭션을 저장하는 메모리; 및 프로세서;를 포함하고, 상기 프로세서는, 상기 적어도 하나의 인스트럭션을 실행함으로써, 상기 스포츠 세션에 참가한 복수의 플레이어의 속력에 기초하여 타겟 이벤트를 식별하고, 상기 식별된 타겟 이벤트에 대한 정보-상기 정보는, 상기 타겟 이벤트에 대응되는 시간 정보 및 상기 타겟 이벤트를 수행한 타겟 플레이어에 대한 정보를 포함함-를 획득하고, 상기 식별된 타겟 이벤트의 시간 구간에 포함된 복수의 시점에 각각 대응되는 복수의 위치 데이터셋-각 위치 데이터셋은, 대응되는 시점에서 상기 복수의 플레이어의 위치값을 포함함-을 획득하고, 상기 복수의 위치 데이터셋에 기초하여 상기 식별된 타겟 이벤트의 시간 구간에서의 볼 소유권을 판단하고, 상기 복수의 위치 데이터셋 및 상기 판단된 볼 소유권에 기초하여 상기 타겟 이벤트의 유형을 획득하는 단계를 포함하는 전자 장치가 제공될 수 있다.According to another embodiment, an electronic device for obtaining a type of target event within a sports session, comprising: a memory storing at least one instruction; and a processor; wherein the processor, by executing the at least one instruction, identifies a target event based on speeds of a plurality of players participating in the sports session, and provides information about the identified target event - the information. includes time information corresponding to the target event and information about the target player who performed the target event, and obtains a plurality of time points each corresponding to a plurality of time points included in the time section of the identified target event. Obtain location datasets, each location dataset comprising location values of the plurality of players at a corresponding point in time, and ball possession in a time interval of the identified target event based on the plurality of location datasets. An electronic device may be provided including the step of determining and obtaining the type of the target event based on the plurality of location datasets and the determined ball ownership.
상기 프로세서는, 상기 식별된 타겟 이벤트의 시간 구간에서 상기 타겟 플레이어가 속한 제1 팀이 상기 볼 소유권을 갖는 경우, 공격 상황에 해당하는 타겟 이벤트의 유형을 획득하도록 학습된 제1 신경망 모델을 이용하여, 상기 타겟 플레이어의 위치값, 상기 제1 팀과 관련된 제1 팀 위치 데이터셋 및 상기 제1 팀의 상대팀인 제2 팀과 관련된 제2 팀 위치 데이터셋에 기초하여 상기 타겟 이벤트의 유형을 획득할 수 있다.The processor uses a first neural network model learned to obtain the type of target event corresponding to an attack situation when the first team to which the target player belongs has possession of the ball in the time interval of the identified target event. , Obtaining the type of the target event based on the location value of the target player, a first team location dataset related to the first team, and a second team location dataset related to the second team that is the opposing team of the first team. can do.
상기 프로세서는, 상기 식별된 타겟 이벤트의 시간 구간에서 상기 타겟 플레이어가 속한 제1 팀의 상대팀인 제2 팀이 상기 볼 소유권을 갖는 경우, 수비 상황에 해당하는 타겟 이벤트의 유형을 획득하도록 학습된 제2 신경망 모델을 이용하여, 상기 타겟 플레이어의 위치값 및 상기 제2 팀과 관련된 제2 팀 위치 데이터셋에 기초하여 상기 타겟 이벤트의 유형을 획득할 수 있다.The processor is trained to obtain the type of target event corresponding to the defensive situation when the second team, which is an opponent of the first team to which the target player belongs, has possession of the ball in the time section of the identified target event. Using a second neural network model, the type of the target event can be obtained based on the location value of the target player and a second team location dataset related to the second team.
상기 프로세서는, 상기 식별된 타겟 이벤트의 시간 구간에서 상기 타겟 플레이어가 속한 제1 팀이 상기 볼 소유권을 갖는 경우, 상기 식별된 타겟 이벤트의 시간 구간에서의 볼의 위치를 반영하는 볼 위치 데이터셋을 상기 제1 신경망 모델에 입력할 수 있다.The processor generates a ball position dataset reflecting the position of the ball in the time interval of the identified target event when the first team to which the target player belongs has possession of the ball in the time interval of the identified target event. It can be input into the first neural network model.
또 다른 일 실시예에 따르면, 상기 방법을 컴퓨터에서 실행시키기 위한 프로그램이 기록된 컴퓨터 판독 가능한 기록매체가 제공될 수 있다.According to another embodiment, a computer-readable recording medium on which a program for executing the method on a computer is recorded may be provided.
도 1은 본 개시의 일 실시예에 따른 스포츠 세션의 예시적인 타겟 이벤트를 나타내는 도면이다.1 is a diagram illustrating an example target event of a sports session according to an embodiment of the present disclosure.
도 1을 참조하면, 축구 경기에서 플레이어(1)가 기설정된 속력(예로, 25km/h) 이상으로 볼(2)과 함께 달릴 수 있다. 이 때, 타겟 이벤트는 스프린트 이벤트이며, 타겟 이벤트의 유형은 ‘치고 달리기'(Run with ball)일 수 있다. 본 개시의 전자 장치(100)는 스포츠 세션 내 타겟 이벤트를 식별하고, 타겟 이벤트의 유형을 획득할 수 있다. 예를 들어, 스포츠 세션에서 도 1과 같은 이벤트가 발생한 경우, 전자 장치(100)는 플레이어(1)에 의해 ‘치고 달리기' 이벤트가 수행되었음을 판단할 수 있다.Referring to FIG. 1, in a soccer game, a player 1 may run with the ball 2 at a preset speed (eg, 25 km/h) or higher. At this time, the target event is a sprint event, and the type of target event may be ‘Run with ball’. The electronic device 100 of the present disclosure can identify a target event within a sports session and obtain the type of the target event. For example, when an event as shown in FIG. 1 occurs in a sports session, the electronic device 100 may determine that a ‘hit and run’ event has been performed by the player 1.
한편, 이하에서는 설명의 편의상 타겟 이벤트가 스프린트 이벤트인 경우를 중심으로 설명하나, 본 개시의 타겟 이벤트는 스프린트 이벤트가 아닌 다른 이벤트들 중 하나일 수 있다. 예를 들어, 타겟 이벤트는 폭발적 가속(explosive acceleration)이나 방향 전환(change of direction, COD)일 수 있다. 또한, 타겟 이벤트는 고속달리기(High Speed Running, HSR)나 세트피스일 수 있다. 고속달리기는 스프린트보다 낮은 속력의 달리기를 의미한다.Meanwhile, for convenience of explanation, the following description will focus on the case where the target event is a sprint event, but the target event of the present disclosure may be one of events other than the sprint event. For example, the target event could be explosive acceleration or change of direction (COD). Additionally, the target event may be High Speed Running (HSR) or a set piece. High-speed running refers to running at a lower speed than sprinting.
본 개시에서 서술되는 여러 방법은 축구에만 한정 적용될 수 있는 것은 아니며, 하키나 아이스하키를 비롯한 모든 구기 스포츠에 적용될 수 있다. 그리고, 본 개시에서 타겟 이벤트를 수행하는 플레이어는 타겟 플레이어라고 지칭될 수 있다. 특히, 타겟 이벤트가 스프린트 이벤트일 때, 타겟 플레이어는 스프린터로 지칭될 수 있다.The various methods described in this disclosure are not limited to soccer and can be applied to all ball sports, including hockey and ice hockey. And, in this disclosure, a player performing a target event may be referred to as a target player. In particular, when the target event is a sprint event, the target player may be referred to as a sprinter.
도 2는 본 개시의 일 실시예에 따른 플레이어 추적 장치를 도시한 도면이다.Figure 2 is a diagram illustrating a player tracking device according to an embodiment of the present disclosure.
도 2를 참조하면, 플레이어 추적 장치(T)는 플레이어(1)가 착용한 의류(3)에 형성된 포켓(4)에 삽입될 수 있다. 플레이어 추적 장치(T)는 적어도 하나의 센서를 포함할 수 있다. 예를 들어, 플레이어 추적 장치(T)는 GPS 센서, IMU 센서 또는 LPS 센서 중 적어도 하나를 포함할 수 있다. 플레이어 추적 장치(T)는 스포츠 세션 동안 플레이어(1)와 관련된 데이터를 측정하고, 측정된 데이터를 서버로 전송할 수 있다. 예를 들어, 플레이어(1)와 관련된 데이터는, 스포츠 세션 동안의 플레이어(1)의 위치 데이터, 속도 데이터 및 가속도 데이터를 포함할 수 있다. 한편, 플레이어 추적 장치(T)는 포켓(4)이 아닌 플레이어(1)가 착용한 다른 아이템에 마련될 수도 있다. 예를 들어, 플레이어 추적 장치(T)는 플레이어(1)가 착용한 신발, 팔찌 또는 헤어 밴드에 마련될 수 있다.Referring to Figure 2, the player tracking device (T) may be inserted into a pocket (4) formed in clothing (3) worn by the player (1). The player tracking device T may include at least one sensor. For example, the player tracking device T may include at least one of a GPS sensor, an IMU sensor, or an LPS sensor. The player tracking device T can measure data related to the player 1 during a sports session and transmit the measured data to a server. For example, data related to player 1 may include position data, velocity data, and acceleration data of player 1 during a sports session. Meanwhile, the player tracking device T may be installed on another item worn by the player 1 rather than the pocket 4. For example, the player tracking device T may be provided on a shoe, bracelet or hair band worn by the player 1.
스포츠 세션에 참가하는 복수의 플레이어 각각은 플레이어 추적 장치(T)를 착용할 수 있다. 이에 따라, 복수의 플레이어 각각에 대응되는 복수의 위치 데이터셋이 획득될 수 있다. 한편, 스포츠 세션에 참가한 복수의 플레이어 중 일부는 플레이어 추적 장치(T)를 착용하지 않을 수도 있다. 예를 들어, 골키퍼 또는 골텐더는 플레이어 추적 장치(T)를 착용하지 않을 수 있다.Each of a plurality of players participating in a sports session may wear a player tracking device (T). Accordingly, a plurality of location data sets corresponding to each of a plurality of players can be obtained. Meanwhile, some of the plurality of players participating in the sports session may not be wearing the player tracking device (T). For example, a goalie or goaltender may not wear a player tracking device (T).
본 개시에서 전자 장치(100)는 플레이어(1)와 관련된 데이터를 이용하여 스프린트 이벤트를 식별하고, 식별된 스프린트 이벤트의 유형을 판단할 수 있다. 예를 들어, 전자 장치(100)는 플레이어의 속력 데이터를 이용하여 스프린트 이벤트를 식별할 수 있다. 또한, 전자 장치(100)는 플레이어의 위치 데이터를 이용하여 스프린트 이벤트의 유형을 획득할 수 있다. 전자 장치(100)가 이용하는 각종 데이터 중 적어도 일부는 플레이어 추적 장치(T)에 의해 측정될 수 있다. 전자 장치(100)는 플레이어(1)와 관련된 데이터를 서버 또는 플레이어 추적 장치(T)로부터 수신할 수 있다.In the present disclosure, the electronic device 100 may identify a sprint event using data related to the player 1 and determine the type of the identified sprint event. For example, the electronic device 100 may identify a sprint event using the player's speed data. Additionally, the electronic device 100 may obtain the type of sprint event using the player's location data. At least some of the various data used by the electronic device 100 may be measured by the player tracking device (T). The electronic device 100 may receive data related to the player 1 from a server or a player tracking device T.
한편, 본 개시의 위치 데이터는, 각종 센서에 의해 측정된 로 데이터가 아닌 전자 장치(100)에 의해 처리된 데이터일 수 있다. 예를 들어, 전자 장치(100)는 GPS 센서에 의해 측정된 신호 및 IMU 센서에 의해 측정된 신호에 대한 신호 처리를 수행하여 위치 데이터를 획득할 수 있다. 또한, 전자 장치(100)는 GPS 센서에 의해 측정된 위치값을 스포츠 세션이 진행되는 경기장 좌표계에 대응되도록 변환할 수 있다. Meanwhile, the location data of the present disclosure may be data processed by the electronic device 100 rather than raw data measured by various sensors. For example, the electronic device 100 may obtain location data by performing signal processing on a signal measured by a GPS sensor and a signal measured by an IMU sensor. Additionally, the electronic device 100 may convert the position value measured by the GPS sensor to correspond to the coordinate system of the stadium where the sports session is taking place.
도 3은 본 개시의 일 실시예에 따른 타겟 이벤트의 유형을 획득하는 방법을 나타내는 순서도이다.Figure 3 is a flowchart showing a method of obtaining the type of target event according to an embodiment of the present disclosure.
도 3을 참조하면, 전자 장치(100)는 스포츠 세션 내 복수의 시점(time point)에 각각 대응되는 복수의 위치 데이터셋을 획득할 수 있다(S310). 각 위치 데이터셋은, 대응되는 시점에서 플레이어들의 위치값을 포함할 수 있다. 예를 들어, 복수의 위치 데이터셋은 도 4와 같을 수 있다. 도 4는 본 개시의 일 실시예에 따른 복수의 위치 데이터셋을 나타내는 도면이다. 도 4를 참조하면, 복수의 위치 데이터셋(40)은 제1 시점(t=1)에 대응되는 제1 위치 데이터셋을 포함할 수 있다. 제1 위치 데이터셋은 제1 시점(t=1)에서 복수의 플레이어의 위치를 각각 나타내는 복수의 위치 값((x1_A1, y1_A1), (x1_A2, y1_A2), ..., (x1_B11, y1_B11))을 포함할 수 있다.Referring to FIG. 3, the electronic device 100 may acquire a plurality of location datasets each corresponding to a plurality of time points within a sports session (S310). Each location dataset may include location values of players at a corresponding point in time. For example, a plurality of location datasets may be as shown in FIG. 4. Figure 4 is a diagram illustrating a plurality of location data sets according to an embodiment of the present disclosure. Referring to FIG. 4, the plurality of location datasets 40 may include a first location dataset corresponding to a first time point (t=1). The first location data set is a plurality of position values ((x1_A1, y1_A1), (x1_A2, y1_A2), ..., (x1_B11, y1_B11)) respectively representing the positions of a plurality of players at a first time point (t=1). may include.
전자 장치(100)는 복수의 플레이어의 모션 데이터를 획득할 수 있다(S320). 모션 데이터는 속력 데이터, 가속도 데이터 및 각속도 데이터를 포함할 수 있다. 모션 데이터는 플레이어의 여러 동작을 나타낼 수 있다. 예를 들어, 모션 데이터는 슈팅, 점프, 방향 전환 등을 나타낼 수 있다. 복수의 플레이어의 모션 데이터는 복수의 플레이어가 착용한 복수의 플레이어 추적 장치(T)에 의해 측정될 수 있다. 예를 들어, 플레이어의 속력 데이터는 추적 장치(T)에 포함된 GPS 센서에 의해 측정될 수 있다. 또한, 플레이어의 가속도 데이터 및 각속도 데이터는 추적 장치(T)에 포함된 IMU 센서에 의해 측정될 수 있다.The electronic device 100 may acquire motion data of a plurality of players (S320). Motion data may include speed data, acceleration data, and angular velocity data. Motion data may represent various actions of the player. For example, motion data may represent shooting, jumping, changing direction, etc. Motion data of multiple players may be measured by multiple player tracking devices (T) worn by multiple players. For example, a player's speed data may be measured by a GPS sensor included in the tracking device (T). Additionally, the player's acceleration data and angular velocity data may be measured by an IMU sensor included in the tracking device (T).
전자 장치(100)는 복수의 플레이어의 속력 데이터를 서버 또는 플레이어 추적 장치(T)로부터 수신할 수 있다. 또는, 전자 장치(100)는 플레이어 추적 장치(T)에 의해 측정된 위치 데이터 또는 가속도 데이터를 기초로 속력 데이터를 획득할 수 있다. 예를 들어, 전자 장치(100)는 위치 데이터를 미분하여 속력 데이터를 획득하거나, 가속도 데이터를 적분하여 속력 데이터를 획득할 수 있다. 또한, 전자 장치(100)는 외부 장치에 의해 측정된 속력 데이터를 획득할 수 있다. 예컨대, 외부 장치는 스포츠 세션의 비디오 피드에 대해 영상 분석을 수행하여 속력 데이터를 획득할 수 있다.The electronic device 100 may receive speed data of a plurality of players from a server or a player tracking device (T). Alternatively, the electronic device 100 may acquire speed data based on position data or acceleration data measured by the player tracking device T. For example, the electronic device 100 may obtain speed data by differentiating position data or obtain speed data by integrating acceleration data. Additionally, the electronic device 100 may acquire speed data measured by an external device. For example, an external device may perform video analysis on a video feed of a sports session to obtain speed data.
전자 장치(100)는 획득된 모션 데이터에 기초하여 타겟 이벤트를 식별하고, 타겟 이벤트에 대한 정보를 획득할 수 있다(S330). 예를 들어, 제1 플레이어의 속력이 기설정된 범위(예로, 25(km/h)이상 50(km/h)이하) 이내로 임계 시간(예로 3초) 이상 유지되면, 전자 장치(100)는 제1 플레이어에 의해 스프린트 이벤트가 수행되었다고 판단할 수 있다. The electronic device 100 may identify a target event based on the acquired motion data and obtain information about the target event (S330). For example, if the speed of the first player is maintained within a preset range (e.g., 25 (km/h) to 50 (km/h)) for more than a threshold time (e.g., 3 seconds), the electronic device 100 1 It can be determined that the sprint event has been performed by the player.
타겟 이벤트에 대한 정보는, 타겟 이벤트에 대응되는 시간 정보 및 타겟 이벤트를 수행한 타겟 플레이어에 대한 정보를 포함할 수 있다. 또한, 타겟 이벤트에 대한 정보는, 타겟 이벤트에 대응되는 시간 구간 동안 볼 소유 정보나 타겟 플레이어가 이동한 거리를 포함할 수 있다. 한편, 본 개시에서 타겟 이벤트에 대응되는 시간 구간은 타겟 이벤트 구간으로 간략히 지칭될 수 있다. 특히, 타겟 이벤트가 스프린트 이벤트인 경우, 스프린트 이벤트에 대응되는 시간 구간은 스프린트 구간으로 지칭될 수 있다.Information about the target event may include time information corresponding to the target event and information about the target player who performed the target event. Additionally, information about the target event may include ball possession information or the distance traveled by the target player during the time interval corresponding to the target event. Meanwhile, in the present disclosure, the time section corresponding to the target event may be briefly referred to as the target event section. In particular, when the target event is a sprint event, the time section corresponding to the sprint event may be referred to as a sprint section.
전자 장치(100)는 식별된 타겟 이벤트를 수행한 타겟 플레이어의 속력 데이터에 기초하여 타겟 이벤트 구간의 길이를 획득할 수 있다. 타겟 이벤트 구간은, 타겟 플레이어의 순간 속력이 기설정된 범위 이내로 임계 시간 이상 동안 유지되는 제1 시간 구간을 포함할 수 있다. 전자 장치(100)는 타겟 플레이어의 순간 속력이 기설정된 범위 이내로 진입하는 제1 시점을 제1 시간 구간의 시작점으로 식별할 수 있다. 전자 장치(100)는 타겟 플레이어의 순간 속력이 제1 시점 이후 기설정된 범위를 벗어나게 되는 제2 시점을 제1 시간 구간의 끝점으로 식별할 수 있다.The electronic device 100 may obtain the length of the target event section based on speed data of the target player who performed the identified target event. The target event section may include a first time section in which the instantaneous speed of the target player is maintained within a preset range for more than a threshold time. The electronic device 100 may identify the first point in time when the target player's instantaneous speed enters a preset range as the starting point of the first time period. The electronic device 100 may identify a second point in time at which the target player's instantaneous speed deviates from the preset range after the first point in time as the end point of the first time period.
한편, 타겟 이벤트 식별을 위한 임계 시간은, 타겟 이벤트를 수행하는 동안 타겟 플레이어가 이동한 거리에 따라 달라질 수 있다. 예를 들어, 타겟 플레이어가 이동한 거리가 클수록, 임계 시간은 감소할 수 있다. 타겟 플레이어가 이동한 거리가 작을수록, 임계 시간은 증가할 수 있다. 한편, 타겟 이벤트 구간에서 타겟 플레이어의 이동 거리는, 타겟 이벤트 구간에서 타겟 플레이어의 속력 데이터 및 타겟 이벤트 구간의 시간 길이에 기초하여 산출될 수 있다.Meanwhile, the critical time for identifying the target event may vary depending on the distance the target player moves while performing the target event. For example, the greater the distance the target player moves, the shorter the threshold time may be. As the distance traveled by the target player decreases, the critical time may increase. Meanwhile, the moving distance of the target player in the target event section may be calculated based on the speed data of the target player in the target event section and the time length of the target event section.
한편, 본 개시의 타겟 이벤트 구간은, 실제 타겟 플레이어가 타겟 이벤트를 수행한 시간 구간보다 클 수 있다. 가령, 본 개시의 스프린트 구간은, 실제 타겟 플레이어가 스프린트한 구간보다 클 수 있다. 이는, 실제 타겟 이벤트가 수행된 시간 전후의 정보들까지 이용하면 타겟 이벤트의 유형을 보다 정확히 획득할 수 있기 때문이다.Meanwhile, the target event section of the present disclosure may be larger than the time section in which the target player actually performs the target event. For example, the sprint section of the present disclosure may be larger than the section where the target player actually sprints. This is because the type of target event can be obtained more accurately by using information before and after the time when the actual target event was performed.
타겟 이벤트 구간은, 타겟 플레이어에 의해 타겟 이벤트가 의도된 시점으로부터 제1 시간 구간의 시작점(즉, 제1 시점)까지인 제2 시간 구간을 포함할 수 있다. 전자 장치(100)는 타겟 플레이어의 가속도에 기초하여 타겟 이벤트가 의도된 시점(또는, 의도 발생 시점)을 판단할 수 있다. 예를 들어, 전자 장치(100)는 타겟 플레이어의 가속도가 기설정된 값보다 커지게 되는 시점을 타겟 이벤트에 대한 의도 발생 시점으로 판단할 수 있다.The target event section may include a second time section from the time when the target event is intended by the target player to the starting point of the first time section (ie, the first time point). The electronic device 100 may determine when a target event is intended (or when an intention occurs) based on the acceleration of the target player. For example, the electronic device 100 may determine the time when the target player's acceleration becomes greater than a preset value as the time when the intent for the target event occurs.
타겟 이벤트 구간은, 제1 시간 구간의 끝점(즉, 제2 시점)으로부터 제1 시간 구간의 끝점으로부터 기설정된 시간(예로, 2초) 후인 제3 시점까지의 제3 시간 구간을 포함할 수 있다. The target event section may include a third time section from the end point of the first time section (i.e., the second time point) to the third time point that is a preset time (e.g., 2 seconds) after the end point of the first time section. .
한편, 각 플레이어가 착용한 플레이어 추적 장치(T) 마다 식별 값이 할당될 수 있다. 전자 장치(100)는 플레이어 추적 장치(T)에 의해 측정된 속력 데이터 및 플레이어 추적 장치(T)에 할당된 식별 값에 기초하여 타겟 플레이어를 식별할 수 있다.Meanwhile, an identification value may be assigned to each player tracking device (T) worn by each player. The electronic device 100 may identify the target player based on speed data measured by the player tracking device (T) and an identification value assigned to the player tracking device (T).
전자 장치(100)는 타겟 이벤트에 대응되는 시간 정보에 기초하여 타겟 이벤트 동안의 경기 상황을 반영하는 상황 정보를 획득할 수 있다(S340). 상황 정보는, 타겟 플레이어의 위치를 반영하는 제1 위치 데이터셋 및 타겟 플레이어가 아닌 적어도 하나 이상의 다른 플레이어의 경기장에서의 배치나 움직임을 반영하는 제2 위치 데이터셋을 포함할 수 있다. 이 외에도, 상황 정보는 스포츠 세션 내 여러 전술적 상황들을 반영하는 맥락 정보를 포함할 수 있다.The electronic device 100 may acquire situation information reflecting the game situation during the target event based on time information corresponding to the target event (S340). The situation information may include a first location dataset reflecting the location of the target player and a second location dataset reflecting the placement or movement of at least one other player other than the target player in the stadium. In addition to this, the situational information may include context information that reflects various tactical situations within a sports session.
상황 정보는, 타겟 이벤트에 대응되는 복수의 팀 위치 데이터셋을 포함할 수 있다. 전자 장치(100)는 타겟 이벤트 구간에 대응되는 복수의 위치 데이터셋으로부터 복수의 팀 위치 데이터셋을 생성할 수 있다. 여기서, 복수의 팀 위치 데이터셋은, 타겟 이벤트 구간 내 복수의 시점에 각각 대응될 수 있다. 팀 위치 데이터셋은, 타겟 이벤트를 수행한 플레이어가 속한 제1 팀의 플레이어들의 경기장에서의 배치 상태를 반영하는 제1 팀 위치 데이터셋과, 제1 팀에 대항하는 제2 팀의 플레이어들의 경기장에서의 배치 상태를 반영하는 제2 팀 위치 데이터셋을 포함할 수 있다. 일 예로, 팀 위치 데이터셋은 도 5와 같을 수 있다.The situation information may include a plurality of team location datasets corresponding to the target event. The electronic device 100 may generate a plurality of team location datasets from a plurality of location datasets corresponding to the target event section. Here, a plurality of team location datasets may each correspond to a plurality of time points within the target event section. The team location dataset includes a first team location dataset reflecting the disposition status of players of the first team on the stadium to which the player who performed the target event belongs, and a first team location dataset reflecting the disposition status of players of the second team opposing the first team on the stadium. It may include a second team location dataset that reflects the deployment status of. As an example, the team location dataset may be as shown in Figure 5.
도 5는 본 개시의 일 실시예에 따른 팀 위치 데이터셋을 나타내는 도면이다. 구체적으로, 제1 팀 위치 데이터셋(51)은 타겟 이벤트 구간 내 일 시점에서 제1 팀의 플레이어들의 경기장에서의 배치 상태를 반영할 수 있다. 제2 팀 위치 데이터셋(52)은 타겟 이벤트 구간 내 일 시점에서 제2 팀의 플레이어들의 경기장에서의 배치 상태를 반영할 수 있다.Figure 5 is a diagram showing a team location dataset according to an embodiment of the present disclosure. Specifically, the first team location dataset 51 may reflect the arrangement status of players of the first team in the stadium at a point in time within the target event section. The second team location data set 52 may reflect the arrangement status of players of the second team in the stadium at a point in time within the target event section.
팀 위치 데이터셋(51, 52)의 각 요소는 경기장 내 위치에 대응될 수 있으며, 각 위치에 플레이어가 위치하는 지 여부를 나타낼 수 있다. 각 요소의 값이 0이면 해당 요소에 대응되는 위치에 플레이어가 존재하지 않는 것을 의미할 수 있다. 각 요소의 값이 1이면 해당 요소에 대응되는 위치에 제1 팀(팀 A)에 속하는 플레이어가 위치하는 것을 의미할 수 있다. 물론, 여기서 값 "0"이나 "1"은 임의적 인덱스(trivial index)에 불과하므로, "-1"과 "1"로 표현하거나 의미론적으로 팀 구분이 가능한 어떠한 형태의 값을 이용해도 무방하다. 한편, 도 5에서는 필드를 120x90으로 표현한 그리드 맵 형태의 좌표 평면을 이용해 위치를 표현하였으나, 그리드 맵의 사이즈가 반드시 도 5의 예시로 한정되는 것은 아니며, 또 그리드 좌표 대신 벡터 좌표로 위치를 표현하는 것도 가능하다.Each element of the team location datasets 51 and 52 may correspond to a location within the stadium and may indicate whether a player is located at each location. If the value of each element is 0, it may mean that there is no player in the location corresponding to the element. If the value of each element is 1, this may mean that a player belonging to the first team (Team A) is located in the position corresponding to the element. Of course, here, the values "0" or "1" are just arbitrary indices, so you can express them as "-1" and "1", or use any other form of value that can semantically distinguish between teams. Meanwhile, in Figure 5, the position is expressed using a coordinate plane in the form of a grid map with the field expressed as 120x90, but the size of the grid map is not necessarily limited to the example in Figure 5, and the position is expressed with vector coordinates instead of grid coordinates. It is also possible.
한편, 팀 위치 데이터셋은 두 팀의 팀 위치 데이터셋 병합된 형태일 수 있다. 예를 들어, 팀 위치 데이터셋의 요소가 "0"이면, 해당 요소에 대응되는 위치에 플레이어가 존재하지 않을 수 있다. 팀 위치 데이터셋의 "1"이면, 해당 요소에 대응되는 위치에 제1 팀에 속하는 플레이어가 존재할 수 있다. 팀 위치 데이터셋의 "2"이면, 해당 요소에 대응되는 위치에 제2 팀에 속하는 플레이어가 존재할 수 있다. 여기서도 인덱스 번호는 임의적인 것임을 다시 한번 밝혀 둔다. Meanwhile, the team location dataset may be a merged team location dataset of two teams. For example, if an element of the team location dataset is "0", there may be no player in the location corresponding to that element. If it is “1” in the team location dataset, a player belonging to the first team may exist in the location corresponding to the element. If it is "2" in the team location dataset, a player belonging to the second team may exist in the location corresponding to the element. Here again, it should be noted that the index number is arbitrary.
상술한 바와 같이, 전자 장치(100)는 순열 불변성(permutation invariant) 데이터를 획득하기 위해 도 5와 같은 히트맵 형태로 위치 데이터를 가공할 수 있다. 또는, 전자 장치(100)는 신경망 모델을 이용하여 팀 위치 데이터셋을 획득할 수 있다. 신경망 모델은 입력 받은 데이터를 순열 불변성한 데이터로 변환할 수 있다. 예를 들어, 신경망 모델은 '셋 트랜스포머'일 수 있다. 한편, 이러한 신경망 모델은 타겟 이벤트의 유형을 추론하도록 학습된 신경망 모델 내부에 포함될 수 있다. 예를 들어, 제1 신경망 모델(M1)은 복수의 위치 데이터셋을 입력 받아 팀 위치 데이터셋을 생성하도록 학습된 '셋 트랜스포머'를 포함할 수 있다.As described above, the electronic device 100 may process location data in the form of a heatmap as shown in FIG. 5 to obtain permutation invariant data. Alternatively, the electronic device 100 may acquire a team location dataset using a neural network model. A neural network model can convert input data into permutation invariant data. For example, a neural network model may be a 'set transformer'. Meanwhile, this neural network model may be included inside a neural network model learned to infer the type of target event. For example, the first neural network model (M1) may include a 'set transformer' that is trained to receive a plurality of location datasets and generate a team location dataset.
다시 도 3을 참조하면, 전자 장치(100)는 상황 정보에 기초하여 타겟 이벤트의 유형을 획득할 수 있다(S350). 전자 장치(100)는 제1 신경망 모델(M1)에 타겟 이벤트 구간에 대응되는 복수의 제1 팀 위치 데이터셋 또는 복수의 제2 팀 위치 데이터셋 중 적어도 하나와, 타겟 이벤트 구간에 대응되는 타겟 플레이어의 위치 데이터셋을 입력하여 타겟 이벤트의 유형을 획득할 수 있다. 여기서, 타겟 플레이어의 위치 데이터셋은, 타겟 이벤트 구간에서 타겟 플레이어의 위치값들의 집합을 의미한다.Referring again to FIG. 3, the electronic device 100 may obtain the type of target event based on context information (S350). The electronic device 100 includes at least one of a plurality of first team location datasets or a plurality of second team location datasets corresponding to the target event section in the first neural network model (M1), and a target player corresponding to the target event section. You can obtain the type of target event by entering the location data set. Here, the target player's location data set refers to a set of location values of the target player in the target event section.
한편, 타겟 이벤트 구간에서 볼 소유권에 따라 제1 신경망 모델(M1)의 입력 데이터는 달라질 수 있다. 예를 들어, 타겟 이벤트 구간에서 타겟 플레이어의 속한 제1 팀이 볼 소유권을 갖는 경우, 전자 장치(100)는 타겟 플레이어의 위치 데이터셋, 제1 팀의 팀 위치 데이터셋 및 제1 팀에 대항하는 제2 팀의 팀 위치 데이터셋을 제1 신경망 모델(M1)에 입력할 수 있다. 타겟 이벤트 구간에서 제2 팀이 볼 소유권을 갖는 경우, 전자 장치(100)는 타겟 플레이어의 위치 데이터셋 및 제2 팀의 팀 위치 데이터셋을 제1 신경망 모델(M1)에 입력할 수 있다.Meanwhile, the input data of the first neural network model (M1) may vary depending on ball ownership in the target event section. For example, when the first team belonging to the target player has possession of the ball in the target event section, the electronic device 100 stores the target player's location dataset, the first team's team location dataset, and the target player's team location dataset against the first team. The team location dataset of the second team may be input into the first neural network model (M1). When the second team has possession of the ball in the target event section, the electronic device 100 may input the target player's location dataset and the second team's team location dataset into the first neural network model (M1).
제1 신경망 모델(M1)을 이용한 타겟 이벤트 유형 예측의 정확도를 향상시키기 위해서, 제1 신경망 모델(M1)에는 추가적인 정보가 입력될 수 있다. 예를 들어, 전자 장치(100)는 제1 신경망 모델(M1)에 타겟 이벤트 구간에 대응되는 볼 위치 데이터셋이나 타겟 플레이어의 역할 정보를 입력할 수 있다. 타겟 플레이어의 역할 정보는, 타겟 플레이어의 포지션(예로, 공격수)을 의미할 수 있다. 또한, 전자 장치(100)는 타겟 플레이어가 속한 제1 팀의 식별 정보 및/또는 제1 팀에 대항하는 제2 팀의 식별 정보를 제1 신경망 모델(M1)에 입력할 수 있다.In order to improve the accuracy of predicting the target event type using the first neural network model (M1), additional information may be input to the first neural network model (M1). For example, the electronic device 100 may input the ball position dataset corresponding to the target event section or the role information of the target player into the first neural network model M1. The target player's role information may mean the target player's position (eg, attacker). Additionally, the electronic device 100 may input identification information of the first team to which the target player belongs and/or identification information of the second team opposing the first team to the first neural network model (M1).
한편, 제1 신경망 모델(M1)에 대해서는 도 7을 참조하여 보다 상세히 후술한다.Meanwhile, the first neural network model (M1) will be described in more detail later with reference to FIG. 7.
도 6은 본 개시의 일 실시예에 따른 스프린터의 속력 데이터를 나타내는 그래프이다.Figure 6 is a graph showing speed data of a sprinter according to an embodiment of the present disclosure.
도 6을 참조하면, 스프린트 구간(60)은 제1 시간 구간(61), 제2 시간 구간(62) 및 제3 시간 구간(63)을 포함할 수 있다. 제1 시간 구간(61)은 스프린터의 순간 속력이 임계 시간 이상 동안 임계 속력(sth) 이상으로 유지되는 시간 구간일 수 있다. 제2 시간 구간(62)은 스프린터의 스프린트 의도가 발생한 시점(t1)으로부터 제1 시간 구간(61)의 시작점(t2)까지의 시간 구간일 수 있다. 제3 시간 구간(63)은 스프린터의 순간 속력이 임계 시간보다 작아지게 되는 시점(t3)으로부터, 시점(t3)으로부터 기설정된 시간 후의 시점(t4)까지의 시간 구간일 수 있다.Referring to FIG. 6, the sprint section 60 may include a first time section 61, a second time section 62, and a third time section 63. The first time section 61 may be a time section in which the instantaneous speed of the sprinter is maintained above the critical speed (sth) for more than a critical time. The second time section 62 may be a time section from the point in time (t1) when the sprinter's intention to sprint occurs to the starting point (t2) of the first time section 61. The third time section 63 may be a time section from a point in time (t3) when the instantaneous speed of the sprinter becomes less than the critical time to a time point (t4) a preset time after the time point (t3).
전술한 바와 같이, 제1 시간 구간(61)은 스프린터의 순간 속력이 임계 시간 동안 기설정된 범위 이내로 유지되는 시간 구간으로 정의될 수 있다. 여기서, 기설정된 범위는 하한 임계값과 상한 임계값에 의해 정의될 수 있다. 하한 임계값은 임계 속력(sth)이 될 수 있다.As described above, the first time section 61 may be defined as a time section in which the instantaneous speed of the sprinter is maintained within a preset range for a critical time. Here, the preset range may be defined by a lower limit threshold and an upper limit threshold. The lower threshold may be the threshold speed (sth).
한편, 전자 장치(100)가 획득한 속력 데이터는 노이즈를 포함할 수 있다. 예컨대, 스프린터의 순간 속력이 제1 시간 구간(61)에서 매우 짧은 시간(예로, 0.1초) 동안 순간적으로 임계 속력(sth)보다 작아졌다가 임계 속력(sth)보다 다시 커질 수 있다. 이 때, 전자 장치(100)는 스프린터의 순간 속력의 급감을 노이즈로 판단하여 무시할 수 있다. 즉, 스프린터의 순간 속력이 임계 속력(sth)보다 작아 졌음에도 불구하고, 전자 장치(100)는 제1 시간 구간(61) 전체를 하나의 스프린트 구간으로 판단할 수 있다.Meanwhile, speed data acquired by the electronic device 100 may include noise. For example, the instantaneous speed of the sprinter may momentarily become less than the critical speed (sth) for a very short time (for example, 0.1 second) in the first time section 61 and then become greater than the critical speed (sth) again. At this time, the electronic device 100 may judge the sudden decrease in the sprinter's instantaneous speed as noise and ignore it. That is, even though the sprinter's instantaneous speed becomes smaller than the critical speed (sth), the electronic device 100 can determine the entire first time section 61 as one sprint section.
도 7은 본 개시의 일 실시예에 따른 신경망 모델을 이용한 타겟 이벤트의 유형을 획득하는 방법을 설명하기 위한 도면이다.FIG. 7 is a diagram illustrating a method of obtaining the type of target event using a neural network model according to an embodiment of the present disclosure.
도 7을 참조하면, 전자 장치(100)는 타겟 플레이어의 위치 데이터셋(71), 제1 팀 위치 데이터셋(72), 제2 팀 위치 데이터셋(73) 또는 볼 위치 데이터셋(74) 중 적어도 하나를 제1 신경망 모델(M1)에 입력하여 타겟 이벤트의 유형(75)을 획득할 수 있다. 제1 신경망 모델(M1)은 타겟 플레이어의 위치 데이터셋(71), 제1 팀 위치 데이터셋(72), 제2 팀 위치 데이터셋(73) 또는 볼 위치 데이터셋(74) 중 적어도 하나에 기초하여 타겟 이벤트의 유형(75)을 획득하도록 학습된 모델일 수 있다.Referring to FIG. 7, the electronic device 100 may select one of the target player's location dataset 71, the first team location dataset 72, the second team location dataset 73, or the ball location dataset 74. The type 75 of the target event can be obtained by inputting at least one into the first neural network model (M1). The first neural network model (M1) is based on at least one of the target player's position dataset 71, the first team position dataset 72, the second team position dataset 73, and the ball position dataset 74. It may be a model learned to obtain the type 75 of the target event.
제1 실시예에 따르면, 전자 장치(100)는 타겟 이벤트 구간에 대응되는 타겟 플레이어의 위치 데이터셋(71) 및 복수의 제2 팀 위치 데이터셋(73)을 제1 신경망 모델(M1)에 입력할 수 있다. 각 제2 팀 위치 데이터셋(73)은, 타겟 이벤트 구간 내 대응되는 시점에서 타겟 플레이어가 속한 제1 팀에 대항하는 제2 팀의 팀 위치 데이터셋을 의미한다.According to the first embodiment, the electronic device 100 inputs the target player's location dataset 71 and the plurality of second team location datasets 73 corresponding to the target event section into the first neural network model (M1). can do. Each second team location dataset 73 refers to a team location dataset of the second team opposing the first team to which the target player belongs at a corresponding point in time within the target event section.
제2 실시예에 따르면, 전자 장치(100)는 타겟 이벤트 구간에 대응되는 타겟 플레이어의 위치 데이터셋(71), 복수의 제1 팀 위치 데이터셋(72) 및 복수의 제2 팀 위치 데이터셋(73)을 제1 신경망 모델(M1)에 입력할 수 있다. 각 제1 팀 위치 데이터셋(72)은, 타겟 이벤트 구간 내 대응되는 시점에서 타겟 플레이어가 속한 제1 팀의 팀 위치 데이터셋을 의미한다.According to the second embodiment, the electronic device 100 includes a target player's location dataset 71 corresponding to the target event section, a plurality of first team location datasets 72, and a plurality of second team location datasets ( 73) can be input into the first neural network model (M1). Each first team location dataset 72 refers to a team location dataset of the first team to which the target player belongs at a corresponding point in time within the target event section.
제3 실시예에 따르면, 전자 장치(100)는 타겟 이벤트 구간에 대응되는 타겟 플레이어의 위치 데이터셋(71), 복수의 제1 팀 위치 데이터셋(72), 복수의 제2 팀 위치 데이터셋(73) 및 볼 위치 데이터셋(74)을 제1 신경망 모델(M1)에 입력할 수 있다. According to the third embodiment, the electronic device 100 includes a target player's location dataset 71 corresponding to the target event section, a plurality of first team location datasets 72, and a plurality of second team location datasets ( 73) and the ball position dataset 74 can be input to the first neural network model (M1).
한편, 제1 신경망 모델(M1)은 입력된 데이터를 처리하고, 처리 결과를 바탕으로 입력된 데이터 중 일부만 이용하여 타겟 이벤트의 유형(75)을 추론할 수 있다. 예컨대, 제1 신경망 모델(M1)은 볼 소유권을 판단하는 볼 소유권 판단 모듈과 이벤트 유형 예측 모듈을 포함할 수 있다. 볼 소유권 판단 모듈은, 복수의 제1 팀 위치 데이터셋(72), 복수의 제2 팀 위치 데이터셋(73) 및 볼 위치 데이터셋(74)을 기초로 볼 소유권을 판단할 수 있다. 이벤트 유형 예측 모듈은, 볼 소유권 판단 모듈에 의해 판단된 볼 소유권에 기초하여 타겟 이벤트의 유형을 예측할 수 있다. 예를 들어, 타겟 이벤트 구간에서 타겟 플레이어가 속한 제1 팀이 볼을 소유한 경우, 이벤트 유형 예측 모듈은 타겟 플레이어의 위치 데이터셋(71), 복수의 제1 팀 위치 데이터셋(72) 및 복수의 제2 팀 위치 데이터셋(73)을 기초로 타겟 이벤트의 유형을 예측할 수 있다. 타겟 이벤트 구간에서 제2 팀이 볼을 소유한 경우, 이벤트 유형 예측 모듈은 타겟 플레이어의 위치 데이터셋(71) 및 복수의 제2 팀 위치 데이터셋(73)을 기초로 타겟 이벤트의 유형을 예측할 수 있다.Meanwhile, the first neural network model (M1) processes the input data and can infer the type of target event (75) using only part of the input data based on the processing results. For example, the first neural network model (M1) may include a ball ownership determination module that determines ball ownership and an event type prediction module. The ball ownership determination module may determine ball ownership based on a plurality of first team location datasets 72, a plurality of second team location datasets 73, and a ball location dataset 74. The event type prediction module may predict the type of target event based on ball ownership determined by the ball ownership determination module. For example, when the first team to which the target player belongs owns the ball in the target event section, the event type prediction module includes the target player's location dataset 71, a plurality of first team location datasets 72, and a plurality of The type of target event can be predicted based on the second team location dataset 73. When the second team possesses the ball in the target event section, the event type prediction module can predict the type of target event based on the target player's location dataset 71 and the plurality of second team location datasets 73. there is.
한편, 도 7에서는 볼 위치 데이터셋(74)이 제1 신경망 모델(M1)로 입력되는 것으로 도시하였으나, 다른 실시예에 따르면 볼 위치 데이터셋(74)은 제1 신경망 모델(M1) 내부에서 획득될 수 있다. 예컨대, 제1 신경망 모델(M1)은 복수의 팀 위치 데이터셋에 기초하여 볼 위치를 예측하도록 학습된 볼 위치 예측 모듈을 포함할 수 있다.Meanwhile, in FIG. 7, the ball position dataset 74 is shown as being input to the first neural network model (M1), but according to another embodiment, the ball position dataset 74 is obtained inside the first neural network model (M1). It can be. For example, the first neural network model (M1) may include a ball position prediction module trained to predict the ball position based on a plurality of team position datasets.
도 8은 본 개시의 일 실시예에 따른 볼의 위치를 획득하는 방법을 설명하기 위한 도면이다.Figure 8 is a diagram for explaining a method of acquiring the position of a ball according to an embodiment of the present disclosure.
도 8을 참조하면, 전자 장치(100)는 팀 위치 데이터셋(81)을 제2 신경망 모델(M2)에 입력하여 볼의 위치(82)를 획득할 수 있다. 구체적으로, 전자 장치(100)는 타겟 이벤트 구간 내 복수의 시점에 각각 대응되는 복수의 팀 위치 데이터셋(81)을 제2 신경망 모델(M2)에 입력할 수 있다. 제2 신경망 모델(M2)은 미리 정해진 시간 길이의 세그먼트 단위로 복수의 시점에 각각 대응되는 복수의 팀 위치 데이터셋(81)을 입력 받아 볼의 위치(82)를 예측하도록 학습될 수 있다. 제2 신경망 모델(M2)에 의해 예측된 볼의 위치(82)는 제1 신경망 모델(M1)의 입력 데이터로 이용될 수 있다. 또는, 제2 신경망 모델(M2)은 제1 신경망 모델(M1) 내부에 임베딩될 수 있다.Referring to FIG. 8, the electronic device 100 may obtain the ball position 82 by inputting the team position dataset 81 into the second neural network model (M2). Specifically, the electronic device 100 may input a plurality of team location datasets 81, each corresponding to a plurality of viewpoints within the target event section, into the second neural network model (M2). The second neural network model (M2) can be trained to predict the position of the ball 82 by receiving a plurality of team position datasets 81 corresponding to a plurality of viewpoints in segments of a predetermined time length. The ball position 82 predicted by the second neural network model (M2) can be used as input data of the first neural network model (M1). Alternatively, the second neural network model (M2) may be embedded within the first neural network model (M1).
도 9는 본 개시의 일 실시예에 따른 타겟 이벤트에 대응되는 타겟 장면을 제공하는 방법을 나타내는 순서도이다.Figure 9 is a flowchart showing a method of providing a target scene corresponding to a target event according to an embodiment of the present disclosure.
도 9를 참조하면, 전자 장치(100)는 스포츠 세션에 대한 비디오 피드를 획득할 수 있다(S910). 비디오 피드는 스포츠 세션의 전부 또는 일부에 대한 영상일 수 있다. 예를 들어, 비디오 피드는 레알 마드리드 대 바르셀로나 매치의 중계 영상일 수 있다. 전자 장치(100)는 외부 장치 또는 외부 서버로부터 비디오 피드를 수신할 수 있다. 전자 장치(100)는 수신한 비디오 피드를 메모리(120)에 저장할 수 있다.Referring to FIG. 9, the electronic device 100 may obtain a video feed for a sports session (S910). The video feed may be footage of all or part of a sports session. For example, the video feed may be a broadcast of a Real Madrid vs. Barcelona match. The electronic device 100 may receive a video feed from an external device or external server. The electronic device 100 may store the received video feed in the memory 120 .
전자 장치(100)는 스포츠 세션에서 발생한 타겟 이벤트의 유형을 예측할 수 있다(S920). 예를 들어, 타겟 이벤트는 스프린트 이벤트일 수 있다. 이 때, 전자 장치(100)는 스프린트 이벤트의 유형을 예측할 수 있다. 타겟 이벤트의 유형을 예측하는 방법에 대해서는 도 3을 참조하여 전술하였는바 그 상세한 설명은 생략하도록 한다.The electronic device 100 may predict the type of target event that occurred in the sports session (S920). For example, the target event may be a sprint event. At this time, the electronic device 100 can predict the type of sprint event. The method for predicting the type of target event has been described above with reference to FIG. 3, so detailed description thereof will be omitted.
전자 장치(100)는 비디오 피드로부터 타겟 이벤트에 대응되는 타겟 장면을 추출할 수 있다(S930). 예를 들어, 전자 장치(100)는 비디오 피드에서 '리오넬 메시'가 스프린트하는 장면을 추출할 수 있다. 전자 장치(100)는 타겟 이벤트에 대응되는 시간 정보(예로, 타임 스탬프)를 기초로 타겟 장면을 식별할 수 있다.The electronic device 100 may extract a target scene corresponding to the target event from the video feed (S930). For example, the electronic device 100 may extract a scene of 'Lionel Messi' sprinting from a video feed. The electronic device 100 may identify the target scene based on time information (eg, time stamp) corresponding to the target event.
전자 장치(100)는 예측된 타겟 이벤트의 유형과 추출된 타겟 장면을 관련 지어 저장할 수 있다(S940). 전자 장치(100)는 타겟 이벤트에 대응되는 타임 스탬프를 기초로 타겟 이벤트의 유형과 타겟 장면을 매칭시켜 타겟 이벤트 로그를 생성할 수 있다. 전자 장치(100)는 타겟 이벤트 로그를 메모리(120)에 저장할 수 있다. The electronic device 100 may store the type of predicted target event in relation to the extracted target scene (S940). The electronic device 100 may generate a target event log by matching the type of target event and the target scene based on the time stamp corresponding to the target event. The electronic device 100 may store the target event log in the memory 120 .
타겟 이벤트 로그는, 타겟 이벤트의 유형 이외에도 타겟 이벤트와 관련된 다양한 정보를 포함할 수 있다. 예를 들어, 타겟 이벤트 로그는, 타겟 이벤트를 수행한 타겟 플레이어의 식별 정보, 소속 팀 및 포지션과 관련된 데이터를 포함할 수 있다. 타겟 이벤트가 스프린트 이벤트인 경우, 타겟 이벤트 로그는, 타겟 플레이어가 스프린트한 거리와 관련된 데이터를 포함할 수 있다. 또한, 타겟 이벤트 로그는, 타겟 이벤트의 결과에 관한 데이터를 포함할 수 있다. 타겟 이벤트의 결과는 성공 또는 실패를 의미할 수 있다. 타겟 이벤트 로그는, 타겟 장면을 출력하는 어플리케이션 또는 웹 페이지를 실행하기 위한 링크를 포함할 수 있다.The target event log may include various information related to the target event in addition to the type of target event. For example, the target event log may include data related to identification information, affiliated team, and position of the target player who performed the target event. When the target event is a sprint event, the target event log may include data related to the distance the target player sprints. Additionally, the target event log may include data regarding the results of the target event. The result of a target event can mean success or failure. The target event log may include a link for executing an application or web page that outputs the target scene.
전자 장치(100)는 예측된 타겟 이벤트의 유형과 추출된 타겟 장면을 사용자에게 제공할 수 있다(S950). 전자 장치(100)는 타겟 이벤트의 유형을 비롯한 타겟 이벤트에 대한 정보와 타겟 장면을 재생하기 위한 링크가 기록된 타겟 이벤트 로그를 사용자 단말로 전송할 수 있다. 사용자는 타겟 장면을 재생하기 위한 링크를 선택하여 타겟 장면을 시청할 수 있다.The electronic device 100 may provide the type of predicted target event and the extracted target scene to the user (S950). The electronic device 100 may transmit a target event log in which information about the target event, including the type of the target event, and a link for playing the target scene are recorded, to the user terminal. The user can watch the target scene by selecting a link to play the target scene.
사용자에게 제공되는 타겟 장면에는 예측된 타겟 이벤트의 유형이 표시될 수 있다. 또한, 타겟 장면에서 타겟 이벤트를 수행한 플레이어에 관한 시각적 지시자가 표시될 수 있다. 예를 들어, 타겟 장면에서 타겟 플레이어에 하이라이트가 표시되거나, 타겟 플레이어의 이동 궤적이 표시될 수 있다.The type of predicted target event may be displayed in the target scene provided to the user. Additionally, a visual indicator regarding the player who performed the target event in the target scene may be displayed. For example, a highlight may be displayed on the target player in the target scene, or the target player's movement trajectory may be displayed.
도 10은 본 개시의 일 실시예에 따른 비디오 피드로부터 타겟 장면을 추출하는 방법을 설명하기 위한 도면이다.FIG. 10 is a diagram for explaining a method of extracting a target scene from a video feed according to an embodiment of the present disclosure.
도 10을 참조하면, 비디오 피드(VF)는 제1 프레임(101), 제3 프레임(103), 제5 프레임(105)를 비롯한 복수의 프레임을 포함할 수 있다. 예를 들어, 비디오 피드(VF)는 축구 경기를 촬영한 영상이며, 추출하고자 하는 타겟 장면은 스프린트 이벤트에 대응되는 스프린트 장면일 수 있다.Referring to FIG. 10, the video feed (VF) may include a plurality of frames including a first frame 101, a third frame 103, and a fifth frame 105. For example, the video feed (VF) is a video of a soccer game, and the target scene to be extracted may be a sprint scene corresponding to a sprint event.
전자 장치(100)는 스프린트 이벤트를 식별할 수 있다. 예를 들어, 전자 장치(100)는 비디오 피드(VF)에 포함된 플레이어들이 착용한 플레이어 추적 장치(T)에 의해 측정된 속력 데이터에 기초하여 스프린트 이벤트를 식별할 수 있다.The electronic device 100 may identify a sprint event. For example, the electronic device 100 may identify a sprint event based on speed data measured by a player tracking device (T) worn by players included in the video feed (VF).
전자 장치(100)는 스프린트 이벤트에 대응되는 스프린트 구간을 정의할 수 있다. 예를 들어, 스프린트 구간은 스프린터의 순간 속력이 기설정된 범위 이내로 임계 시간 이상 동안 유지되는 제1 시간 구간, 스프린터가 스프린트를 의도한 시점으로부터 제1 시간 구간의 시작점까지의 제2 시간 구간, 및 제1 시간 구간의 끝점으로부터 제1 시간 구간의 끝점으로부터 기설정된 시간 후인 시점까지의 제3 시간 구간을 포함할 수 있다.The electronic device 100 may define a sprint section corresponding to a sprint event. For example, the sprint section is a first time section in which the instantaneous speed of the sprinter is maintained within a preset range for more than a critical time, a second time section from the point when the sprinter intends to sprint to the starting point of the first time section, and a second time section. It may include a third time interval from the end point of the 1-hour interval to a preset time after the end point of the first time interval.
전자 장치(100)는 스프린트 구간의 시작점 및 끝점을 기초로 비디오 피드(VF)로부터 스프린트 장면(106)을 추출할 수 있다. 예를 들어, 스프린트 장면(106)은 제2 프레임(102), 제3 프레임(103) 및 제4 프레임(104)을 포함할 수 있다.The electronic device 100 may extract the sprint scene 106 from the video feed (VF) based on the start and end points of the sprint section. For example, the sprint scene 106 may include a second frame 102, a third frame 103, and a fourth frame 104.
도 11은 본 개시의 일 실시예에 따른 스프린트 장면을 나타내는 도면이다.Figure 11 is a diagram showing a sprint scene according to an embodiment of the present disclosure.
도 11을 참조하면, 스프린트 장면에서 스프린트하는 플레이어(1)(즉, 스프린터) 주변에는 스프린터(1)를 강조하기 위한 하이라이트가 표시될 수 있다. 예를 들어, 스프린터(1) 주변에 바운딩 박스(111)가 표시될 수 있다. 또한, 스프린트 장면에는 스프린트 유형을 나타내는 텍스트(115)가 표시될 수 있다.Referring to FIG. 11, in a sprint scene, a highlight may be displayed around the sprinting player 1 (i.e., the sprinter) to emphasize the sprinter 1. For example, a bounding box 111 may be displayed around the sprinter 1. Additionally, text 115 indicating the sprint type may be displayed in the sprint scene.
스프린트 장면에는 스프린터(1)의 이동 궤적을 나타내는 인디케이터(112)가 표시될 수 있다. 인디케이터(112)는 제1 인디케이터(113)와 제2 인디케이터(114)를 포함할 수 있다. 제1 인디케이터(113) 및 제2 인디케이터(114)는 서로 다른 시각적 특성을 가질 수 있다. 예를 들어, 제1 인디케이터(113) 및 제2 인디케이터(114)는 굵기, 형태, 색상, 디자인 또는 패턴이 상이할 수 있다.In the sprint scene, an indicator 112 indicating the movement trajectory of the sprinter 1 may be displayed. The indicator 112 may include a first indicator 113 and a second indicator 114. The first indicator 113 and the second indicator 114 may have different visual characteristics. For example, the first indicator 113 and the second indicator 114 may have different thickness, shape, color, design, or pattern.
제1 인디케이터(113) 및 제2 인디케이터(114)가 표시되는 영역은 스프린터(1)의 속력에 따라 결정될 수 있다. 예를 들어, 스프린터(1)가 기설정된 범위 이내의 속력으로 이동한 영역에는 제1 인디케이터(113)가 표시될 수 있다. 반면에, 스프린터(1)가 기설정된 범위 밖의 속력으로 이동한 영역에는 제2 인디케이터(114)가 표시될 수 있다.The area where the first indicator 113 and the second indicator 114 are displayed may be determined according to the speed of the sprinter 1. For example, the first indicator 113 may be displayed in an area where the sprinter 1 moves at a speed within a preset range. On the other hand, the second indicator 114 may be displayed in an area where the sprinter 1 moves at a speed outside the preset range.
한편, 스프린트 유형에 따라 표시되는 인디케이터의 시각적 특징이 달라질 수 있다. 스프린트 유형은 크게는 공격 스프린트와 수비 스프린트로 나눠질 수 있다. 공격 스프린트는, 스프린터의 팀이 공격 상황(즉, 스프린터의 팀이 볼 소유권을 갖는 상태)일 때 수행되는 스프린트를 의미한다. 수비 스프린트는, 스프린터의 팀이 수비 상황(즉, 스프린터의 팀의 상대팀이 볼 소유권을 갖는 상태)일 때 수행되는 스프린트를 의미한다. 예를 들어, 스프린트 유형이 공격 스프린트일 때는 제1 인디케이터가 표시되며, 스프린트 유형이 수비 스프린트일 때는 제2 인디케이터가 표시될 수 있다. 이 때, 제1 인디케이터의 시각적 특징과 제2 인디케이터의 시각적 특징은 상이할 수 있다. 물론, 공격 스프린트 또는 수비 스프린트 내에서도 세부 유형에 따라 인디케이터의 시각적 특징이 달라질 수 있다.Meanwhile, the visual characteristics of the displayed indicator may vary depending on the sprint type. Sprint types can be broadly divided into offensive sprints and defensive sprints. An offensive sprint refers to a sprint performed when the sprinter's team is in an offensive situation (i.e., the sprinter's team has possession of the ball). A defensive sprint refers to a sprint performed when the sprinter's team is in a defensive situation (i.e., the opponent of the sprinter's team has possession of the ball). For example, when the sprint type is an offensive sprint, a first indicator may be displayed, and when the sprint type is a defensive sprint, a second indicator may be displayed. At this time, the visual characteristics of the first indicator and the visual characteristics of the second indicator may be different. Of course, even within an offensive sprint or defensive sprint, the visual characteristics of the indicator may vary depending on the detailed type.
한편, 전자 장치(100)는 상술한 각종 인디케이터를 표시하기 위해 스프린트 장면에 대한 영상 처리를 수행할 수 있다.Meanwhile, the electronic device 100 may perform image processing on the sprint scene to display the various indicators described above.
도 12는 본 개시의 일 실시예에 따른 타겟 이벤트 로그를 나타내는 표이다. 구체적으로, 도 12는 스포츠 세션이 축구 경기이고 타겟 이벤트가 스프린트 이벤트일 때의 타겟 이벤트 로그(1200)를 나타낸다.12 is a table showing a target event log according to an embodiment of the present disclosure. Specifically, Figure 12 shows the target event log 1200 when the sports session is a soccer game and the target event is a sprint event.
도 12를 참조하면, 타겟 이벤트 로그(1200)는 축구 경기에 대한 정보, 스프린터에 대한 정보 및 스프린트 이벤트에 대한 정보를 포함할 수 있다.Referring to FIG. 12, the target event log 1200 may include information about a soccer game, information about a sprinter, and information about a sprint event.
축구 경기에 대한 정보는, 축구 경기가 있었던 날짜(1201) 및 스프린터가 속한 팀의 상대팀의 식별 정보(1202)를 포함할 수 있다. 스프린터에 대한 정보는, 스프린터의 이름(1203), 포지션(1204) 및 소속팀의 식별 정보를 포함할 수 있다.Information about the soccer game may include the date of the soccer game (1201) and identification information (1202) of the opposing team of the team to which the sprinter belongs. Information about the sprinter may include the sprinter's name (1203), position (1204), and identification information of the affiliated team.
스프린트 이벤트에 대한 정보는, 각 스프린트 이벤트에서 스프린터가 뛴 거리(1206), 스프린트 이벤트 구간에서 볼 소유권(1207)을 포함할 수 있다. 스프린터의 팀이 볼을 소유한 경우 In-possession(줄여서 In-pos)로 기재하였고, 스프린터의 팀의 상대팀이 볼을 소유한 경우 Out-possession(줄여서 Out-pos)로 기재하였다.Information about the sprint event may include the distance the sprinter runs in each sprint event (1206) and the ball ownership (1207) in the sprint event section. If the sprinter's team possessed the ball, it was recorded as In-possession (abbreviated In-pos), and if the sprinter's team's opponent possessed the ball, it was recorded as Out-possession (abbreviated Out-pos).
스프린트 이벤트에 대한 정보는, 스프린트 구간의 시작점(1208)과 끝점(1209), 스프린트 이벤트의 유형(1210), 스프린트 이벤트의 결과(1211) 및 스프린트 구간에 대응되는 비디오 피드에 대한 정보를 포함할 수 있다. 비디오 피드에 대한 정보는 비디오 피드를 실행시키기 위한 링크(1212)를 포함할 수 있다.Information about the sprint event may include information about the start point (1208) and end point (1209) of the sprint section, the type of sprint event (1210), the result of the sprint event (1211), and the video feed corresponding to the sprint section. there is. Information about the video feed may include a link 1212 for running the video feed.
스프린트 이벤트의 유형(1210)의 일 예로, 'Run with ball'이 있다. 'Run with ball'은, 공을 달고 뛰는 움직임을 의미한다. 스프린트 이벤트의 유형(1210) 다른 일 예로는 'Covering'이 있다. 'Covering'은, 공을 가지거나 가질 상대 선수가 골 사이드로 향하지 못하도록 스프린터가 골 사이드로 위치하는 움직임을 의미한다. 스프린트 이벤트의 유형(1210) 또 다른 일 예로는 'Break into Box'가 있다. 'Break into Box'는, 측면에 위치한 동료가 볼을 가지고 있을 때 상대 페널티박스 안의 상대 골대 부근으로 향하면서 측면에서 오는 크로스를 받아 득점을 노리는 움직임을 의미한다.An example of the type 1210 of the sprint event is 'Run with ball'. 'Run with ball' refers to the movement of running with a ball attached. Another example of the type of sprint event (1210) is 'Covering'. 'Covering' refers to the movement of a sprinter positioning himself towards the goal side to prevent an opposing player who has or will have the ball from heading towards the goal side. Another example of the type of sprint event (1210) is 'Break into Box'. 'Break into Box' refers to a movement in which a teammate on the side has the ball and heads toward the opponent's goal in the opponent's penalty box, aiming to score by receiving a cross from the side.
전자 장치(100)는 타겟 이벤트 로그(1200)를 사용자에게 제공할 수 있다. 사용자는 타겟 이벤트 로그(1200)의 적어도 일부를 수정할 수 있다. 예를 들어, 사용자는 스프린트 이벤트의 유형(1210)을 수정할 수 있다. 전술한 바와 같이, 스프린트 이벤트의 유형(1210)은 제1 신경망 모델(M1)에 의해 예측될 수 있으며, 이에 따라 일부 오차를 포함할 수 있다. 사용자는 링크(1212)를 통해 비디오 피디를 실행시켜 제1 신경망 모델(M1)에 의해 예측된 스프린트 이벤트의 유형(1210)이 정확한 지 판단할 수 있다.The electronic device 100 may provide the target event log 1200 to the user. A user may modify at least part of the target event log 1200. For example, a user can modify the type 1210 of a sprint event. As described above, the type of sprint event 1210 may be predicted by the first neural network model M1 and may therefore include some error. The user can run the video PD through the link 1212 to determine whether the type 1210 of the sprint event predicted by the first neural network model (M1) is accurate.
사용자가 사용자 단말에 스프린트 이벤트의 유형(1210)을 수정하기 위한 명령을 입력하면, 사용자가 입력된 명령은 통신 인터페이스를 통해 전자 장치(100)로 전송될 수 있다. 이 때, 전자 장치(100)는 사용자가 입력한 명령에 기초하여 스프린트 이벤트의 유형(1210)을 수정 및 업데이트할 수 있다. 전자 장치(100)는 스프린트 이벤트의 유형(1210)이 수정된 타겟 이벤트 로그(1200)를 메모리(120)에 저장할 수 있다.When a user inputs a command to modify the type 1210 of a sprint event into the user terminal, the command entered by the user may be transmitted to the electronic device 100 through a communication interface. At this time, the electronic device 100 may modify and update the type 1210 of the sprint event based on the command input by the user. The electronic device 100 may store the target event log 1200 in which the type 1210 of the sprint event has been modified in the memory 120 .
한편, 도 12에서는 전자 장치(100)가 타겟 이벤트 로그(1200)를 사용자에게 제공하고, 사용자가 타겟 이벤트 로그(1200)에 포함된 스프린트 이벤트의 유형(1210)을 수정하는 실시예를 설명하였다. 다만, 이는 일 실시예에 불과하며, 전자 장치(100)는 어떠한 형태로도 타겟 이벤트의 유형을 사용자에게 제공할 수 있고, 사용자가 반드시 타겟 이벤트 로그를 통해서만 타겟 이벤트의 유형을 수정할 수 있는 것은 아님을 밝혀 둔다.Meanwhile, FIG. 12 illustrates an embodiment in which the electronic device 100 provides the target event log 1200 to the user, and the user modifies the type 1210 of the sprint event included in the target event log 1200. However, this is only an example, and the electronic device 100 can provide the type of target event to the user in any form, and the user cannot necessarily modify the type of target event only through the target event log. reveal.
도 13은 본 개시의 일 실시예에 따른 타겟 이벤트의 유형을 획득하는 방법을 나타내는 순서도이다.Figure 13 is a flowchart showing a method of obtaining the type of target event according to an embodiment of the present disclosure.
도 13을 참조하면, 전자 장치(100)는 스포츠 세션에 참가한 복수의 플레이어의 속력에 기초하여 타겟 이벤트를 식별하고, 식별된 타겟 이벤트에 대한 정보를 획득할 수 있다(S1310). 식별된 타겟 이벤트에 대한 정보는, 타겟 이벤트에 대응되는 시간 정보 및 타겟 이벤트를 수행한 타겟 플레이어에 대한 정보를 포함할 수 있다.Referring to FIG. 13, the electronic device 100 may identify a target event based on the speed of a plurality of players participating in a sports session and obtain information about the identified target event (S1310). Information about the identified target event may include time information corresponding to the target event and information about the target player who performed the target event.
전자 장치(100)는 타겟 이벤트의 시간 구간에 포함된 복수의 시점에 각각 대응되는 복수의 위치 데이터셋을 획득할 수 있다(S1320). 각 위치 데이터셋은, 대응되는 시점에서 복수의 플레이어 식별자에 각각 할당된 복수의 위치 값을 포함할 수 있다.The electronic device 100 may acquire a plurality of location data sets each corresponding to a plurality of time points included in the time interval of the target event (S1320). Each location dataset may include a plurality of location values each assigned to a plurality of player identifiers at a corresponding point in time.
전자 장치(100)는 복수의 위치 데이터셋으로부터 복수의 팀 위치 데이터셋을 생성할 수 있다(S1330). 복수의 팀 위치 데이터셋은, 제1 팀에 해당하는 플레이어 식별자에 할당된 위치 값들로부터 생성되며 제1 팀의 플레이어들의 경기장에서의 배치 상태를 반영하는 복수의 제1 팀 위치 데이터셋을 포함할 수 있다. 복수의 팀 위치 데이터셋은, 제2 팀에 해당하는 플레이어 식별자에 할당된 위치 값들로부터 생성되며 제2 팀의 플레이어들의 경기장에서의 배치 상태를 반영하는 복수의 제2 팀 위치 데이터셋을 포함할 수 있다.The electronic device 100 may generate a plurality of team location datasets from a plurality of location datasets (S1330). The plurality of team location datasets may include a plurality of first team location datasets that are generated from location values assigned to player identifiers corresponding to the first team and reflect the placement status of players of the first team in the stadium. there is. The plurality of team location datasets may include a plurality of second team location datasets that are generated from location values assigned to player identifiers corresponding to the second team and reflect the placement status of players of the second team in the stadium. there is.
전자 장치(100)는 복수의 팀 위치 데이터셋에 기초하여 타겟 이벤트의 시간 구간에서의 볼 소유권을 판단할 수 있다(S1340). 복수의 팀 위치 데이터셋 및 볼 위치 데이터셋을 기초로 볼 소유권을 예측하도록 학습된 제3 신경망 모델(M3)을 이용하여 타겟 이벤트의 시간 구간(또는, 타겟 이벤트 구간)에서의 볼 소유권을 판단할 수 있다. 전자 장치(100)는 타겟 이벤트 구간에 대응되는 복수의 팀 위치 데이터셋 및 볼 위치 데이터셋을 제3 신경망 모델(M3)에 입력하여 타겟 이벤트 구간에서의 볼 소유권을 판단할 수 있다.The electronic device 100 may determine ball ownership in the time section of the target event based on a plurality of team location data sets (S1340). Ball ownership in the time interval of the target event (or target event interval) can be determined using a third neural network model (M3) learned to predict ball ownership based on multiple team position datasets and ball position datasets. You can. The electronic device 100 may determine ball ownership in the target event section by inputting a plurality of team location datasets and ball location datasets corresponding to the target event section into the third neural network model (M3).
한편, 본 개시에서 볼 소유권은, 플레이어의 볼 소유권이라고 특정하지 않는 한 일반적으로 팀의 볼 소유권을 의미한다고 할 수 있다. 특정 팀이 “볼을 소유”한다는 것은, 그 팀의 플레이어가 볼을 제어할 수 있는 상태에 있음을 의미한다. 한편, 제3 신경망 모델(M3)이 출력은, 두 팀이 볼을 소유할 확률을 나타내는 확률값들 일 수 있다. 가령, 제1 팀이 볼을 소유할 확률이 80%이고, 제2 팀이 볼을 소유할 확률이 20%임을 지시한다면, 전자 장치(100)는 제1 팀이 볼을 소유한다고 판단할 수 있다.Meanwhile, in this disclosure, ball ownership can be said to generally mean the team's ball ownership, unless specified as a player's ball ownership. When a team “has the ball,” it means that a player on that team is in control of the ball. Meanwhile, the output of the third neural network model (M3) may be probability values indicating the probability that the two teams will possess the ball. For example, if the probability that the first team possesses the ball is 80% and the probability that the second team possesses the ball is indicated is 20%, the electronic device 100 may determine that the first team possesses the ball. .
한편, 제3 신경망 모델(M3)은 복수의 팀 위치 데이터셋을 미리 정해진 시간 길이에 대응되는 세그먼트 단위로 입력 받는 순환신경망 계열의 신경망 모델일 수 있다. 제3 신경망 모델(M3)에 대한 보다 상세한 설명은 도 15를 참조하여 후술하도록 한다.Meanwhile, the third neural network model (M3) may be a neural network model of the recurrent neural network series that receives a plurality of team location data sets in segments corresponding to a predetermined time length. A more detailed description of the third neural network model (M3) will be described later with reference to FIG. 15.
전자 장치(100)는 복수의 팀 위치 데이터셋 및 볼 소유권에 기초하여 타겟 이벤트의 유형을 획득할 수 있다(S1350). 타겟 이벤트 구간에서 타겟 플레이어가 속한 제1 팀이 볼 소유권을 갖는 경우, 전자 장치(100)는 공격 상황에 해당하는 타겟 이벤트의 유형을 획득하도록 학습된 공격 이벤트 분류 모델을 이용하여 타겟 이벤트의 유형을 획득할 수 있다. 구체적으로, 전자 장치(100)는 타겟 이벤트 구간에 대응되는 타겟 플레이어의 위치값들, 복수의 제1 팀 위치 데이터셋 및 복수의 제2 팀 위치 데이터셋을 공격 이벤트 분류 모델에 입력할 수 있다. 여기서, 제1 팀 위치 데이터셋은, 타겟 플레이어가 속한 제1 팀과 관련된 팀 위치 데이터셋을 의미한다. 제2 팀 위치 데이터셋은, 제1 팀의 상대팀인 제2 팀과 관련된 팀 위치 데이터셋을 의미한다.The electronic device 100 may obtain the type of target event based on a plurality of team location datasets and ball ownership (S1350). When the first team to which the target player belongs has possession of the ball in the target event section, the electronic device 100 determines the type of target event using an attack event classification model learned to obtain the type of target event corresponding to the attack situation. It can be obtained. Specifically, the electronic device 100 may input the target player's location values corresponding to the target event section, a plurality of first team location datasets, and a plurality of second team location datasets into the attack event classification model. Here, the first team location dataset refers to a team location dataset related to the first team to which the target player belongs. The second team location dataset refers to a team location dataset related to the second team, which is the opposing team of the first team.
타겟 이벤트의 시간 구간에서 제2 팀이 볼 소유권을 갖는 경우, 전자 장치(100)는 수비 상황에 해당하는 타겟 이벤트의 유형을 획득하도록 학습된 수비 이벤트 분류 모델을 이용하여 타겟 이벤트의 유형을 획득할 수 있다. 구체적으로, 전자 장치(100)는 타겟 플레이어의 위치값 및 복수의 제2 팀 위치 데이터셋을 수비 이벤트 분류 모델에 입력할 수 있다.When the second team has possession of the ball in the time section of the target event, the electronic device 100 may obtain the type of the target event using a defense event classification model learned to obtain the type of the target event corresponding to the defense situation. You can. Specifically, the electronic device 100 may input the target player's location value and a plurality of second team location datasets into a defense event classification model.
이처럼, 타겟 이벤트의 유형을 획득하기 위한 신경망 모델은 공격 이벤트 분류 모델 및 수비 이벤트 분류 모델로 구성되는 듀얼 네트워크로 구현될 수 있다. 이 경우, 볼 소유권에 따라 이벤트의 유형을 획득하기 위해 이용되는 신경망 모델의 종류와 각 신경망 모델로 입력하는 데이터의 종류가 달라질 수 있다. 전자 장치(100)는 볼 소유권에 기초하여 최적의 신경망 모델을 선택하고, 선택된 신경망 모델을 이용하여 타겟 이벤트의 유형을 획득할 수 있다. 다만, 이는 일 실시예에 불과하며, 타겟 이벤트의 유형을 획득하기 위한 신경망 모델은 공격 상황에 해당하는 타겟 이벤트와 수비 상황에 해당하는 타겟 이벤트 모두를 분류할 수 있는 하나의 모델로 구현될 수도 있다.In this way, the neural network model for obtaining the type of target event can be implemented as a dual network consisting of an attack event classification model and a defense event classification model. In this case, the type of neural network model used to obtain the type of event and the type of data input to each neural network model may vary depending on ball ownership. The electronic device 100 may select an optimal neural network model based on ball ownership and obtain the type of target event using the selected neural network model. However, this is only an example, and the neural network model for obtaining the type of target event may be implemented as a model that can classify both target events corresponding to attack situations and target events corresponding to defense situations. .
한편, 전자 장치(100)는 보다 정확한 결과를 획득하기 위하여 볼 위치 데이터셋을 신경망 모델에 추가적으로 입력할 수 있다. 예를 들어, 전자 장치(100)는 공격 이벤트 분류 모델 및/또는 수비 이벤트 분류 모델에 타겟 이벤트 구간에서의 볼 위치를 반영하는 볼 위치 데이터셋을 추가적으로 입력할 수 있다.Meanwhile, the electronic device 100 may additionally input the ball position dataset into the neural network model to obtain more accurate results. For example, the electronic device 100 may additionally input a ball position dataset reflecting the ball position in the target event section into the attack event classification model and/or the defense event classification model.
도 14는 본 개시의 일 실시예에 따른 신경망 모델을 이용한 볼 소유권을 획득하는 방법을 설명하기 위한 도면이다.Figure 14 is a diagram for explaining a method of obtaining ball ownership using a neural network model according to an embodiment of the present disclosure.
도 14를 참조하면, 전자 장치(100)는 제1 팀 위치 데이터셋(141), 제2 팀 위치 데이터셋(142) 및 볼 위치 데이터셋(143)을 제3 신경망 모델(M3)에 입력하여 볼 소유권(144)을 획득할 수 있다. 구체적으로, 전자 장치(100)는 특정 시간 구간(예로, 타겟 이벤트 구간)에 대응되는 복수의 제1 팀 위치 데이터셋(141) 및 복수의 제2 팀 위치 데이터셋(142)을 제3 신경망 모델(M3)에 입력할 수 있다. 또한, 볼 위치 데이터셋(143)은 특정 시간 구간에서의 볼의 위치를 나타내는 복수의 위치값일 수 있다.Referring to FIG. 14, the electronic device 100 inputs the first team location dataset 141, the second team location dataset 142, and the ball location dataset 143 into the third neural network model (M3). Ball possession (144) can be obtained. Specifically, the electronic device 100 uses a plurality of first team location datasets 141 and a plurality of second team location datasets 142 corresponding to a specific time interval (e.g., target event interval) to form a third neural network model. It can be entered in (M3). Additionally, the ball position data set 143 may be a plurality of position values indicating the position of the ball in a specific time period.
제3 신경망 모델(M3)이 출력은, 각 팀이 볼을 소유할 확률을 나타내는 확률값들 일 수 있다. 제3 신경망 모델(M3)이 출력은 볼을 소유한 팀의 식별 정보를 포함할 수 있다.The output of the third neural network model (M3) may be probability values representing the probability that each team possesses the ball. The output of the third neural network model (M3) may include identification information of the team in possession of the ball.
도 15는 본 개시의 일 실시예에 따른 제3 신경망 모델의 구조를 설명하기 위한 도면이다.Figure 15 is a diagram for explaining the structure of a third neural network model according to an embodiment of the present disclosure.
도 15를 참조하면, 제3 신경망 모델(M3)은 제1 신경망(NN1), 제2 신경망(NN2) 및 제3 신경망(NN3)을 포함할 수 있다. 제1 신경망(NN1)은 복수의 프레임에 각각 대응되는 입력 데이터(151-1, 151-2, ..., 151-100)를 기초로 복수의 제1 특징 벡터(152-1, 152-2, ..., 152-100)를 출력할 수 있다. 각 프레임에 대응되는 입력 데이터는 복수의 팀의 팀 위치 데이터셋 및 볼 위치 데이터를 포함할 수 있다. 예를 들어, 제1 신경망(NN1)은 제1 프레임에 대응되는 제1 입력 데이터(151-1)에 기초하여 제1 프레임에 대응되는 제1 특징 벡터(152-1)를 출력할 수 있다. 제1 신경망(NN1)은 컨볼루션 신경망(Convolutional Neural Network, CNN)일 수 있다. Referring to FIG. 15, the third neural network model (M3) may include a first neural network (NN1), a second neural network (NN2), and a third neural network (NN3). The first neural network (NN1) generates a plurality of first feature vectors (152-1, 152-2) based on input data (151-1, 151-2, ..., 151-100) respectively corresponding to a plurality of frames. , ..., 152-100) can be output. Input data corresponding to each frame may include team position datasets and ball position data of multiple teams. For example, the first neural network NN1 may output the first feature vector 152-1 corresponding to the first frame based on the first input data 151-1 corresponding to the first frame. The first neural network (NN1) may be a convolutional neural network (CNN).
한편, 도 15에서는 설명의 편의상 입력 데이터(151-1, 151-2, ..., 151-100)가 프레임 단위로 제3 신경망 모델(M3)에 입력되는 것으로 도시하였으나 이는 일 실시예에 불과하며, 입력 데이터(151-1, 151-2, ..., 151-100)는 미리 정해진 시간 길이의 세그먼트 단위로 제3 신경망 모델(M3)에 입력될 수 있다. 이 때, 각 시간 구간 별 입력 데이터 중 일부는 오버랩될 수 있다.Meanwhile, in FIG. 15, for convenience of explanation, the input data (151-1, 151-2, ..., 151-100) is shown as being input to the third neural network model (M3) on a frame basis, but this is only an embodiment. In addition, the input data (151-1, 151-2, ..., 151-100) may be input to the third neural network model (M3) in segments of a predetermined time length. At this time, some of the input data for each time section may overlap.
제2 신경망(NN2)은 복수의 프레임에 각각 대응되는 복수의 제1 특징 벡터(152-1, 152-2, ..., 152-100)에 기초하여 복수의 제2 특징 벡터(153-1, 153-2, ..., 153-100)를 출력할 수 있다. 예를 들어, 제2 신경망(NN2)은 제1 프레임에 대응되는 제1 특징 벡터(152-1)에 기초하여 제1 프레임에 대응되는 제2 특징 벡터(153-1)를 출력할 수 있다. 제2 신경망(NN2)은 순방향 네트워크 및 역방향 네트워크를 포함하는 양방향 롱 숏텀 메모리(Long Short-Term Memory, LSTM) 네트워크를 비롯한 다양한 순환 신경망 계열 네트워크가 이용될 수 있다.The second neural network NN2 generates a plurality of second feature vectors 153-1 based on a plurality of first feature vectors 152-1, 152-2, ..., 152-100 respectively corresponding to a plurality of frames. , 153-2, ..., 153-100) can be output. For example, the second neural network NN2 may output a second feature vector 153-1 corresponding to the first frame based on the first feature vector 152-1 corresponding to the first frame. The second neural network (NN2) may be a variety of recurrent neural network-based networks, including a bidirectional Long Short-Term Memory (LSTM) network including a forward network and a reverse network.
제3 신경망(NN3)은 복수의 프레임에 각각 대응되는 복수의 제2 특징 벡터(153-1, 153-2, ..., 153-100)에 기초하여 각 프레임에서의 팀의 볼 소유 정보(154-1, 154-2, ..., 154-100)를 출력할 수 있다. 팀의 볼 소유 정보란, 각 팀이 볼을 소유할 확률을 의미할 수 있다. 예를 들어, 제3 신경망(NN3)은 제1 프레임에 대응되는 제2 특징 벡터(153-1)에 기초하여 제1 프레임에서의 팀의 볼 소유 정보(154-1)를 출력할 수 있다. 제3 신경망(NN3)은 심층 신경망(Deep Neural Network, DNN)일 수 있다.The third neural network (NN3) provides the team's ball possession information ( 154-1, 154-2, ..., 154-100) can be output. The team's ball possession information may mean the probability of each team owning the ball. For example, the third neural network NN3 may output the team's ball possession information 154-1 in the first frame based on the second feature vector 153-1 corresponding to the first frame. The third neural network (NN3) may be a deep neural network (DNN).
도 16은 본 개시의 일 실시예에 따른 타겟 이벤트의 유형을 획득하는 방법을 설명하기 위한 도면이다.Figure 16 is a diagram for explaining a method of obtaining the type of target event according to an embodiment of the present disclosure.
도 16을 참조하면, 전자 장치(100)는 복수의 팀 위치 데이터셋(161) 및 볼 위치 데이터셋(162)을 획득할 수 있다. 전자 장치(100)는 복수의 팀 위치 데이터셋(161) 및 볼 위치 데이터셋(162)을 기초로 타겟 이벤트 구간에서의 볼 소유권을 획득할 수 있다. Referring to FIG. 16, the electronic device 100 may acquire a plurality of team location datasets 161 and ball location datasets 162. The electronic device 100 may acquire ball ownership in the target event section based on a plurality of team location datasets 161 and ball location datasets 162.
타겟 이벤트를 수행한 타겟 플레이어가 속한 제1 팀이 타겟 이벤트 구간에서 볼을 소유한 경우, 전자 장치(100)는 타겟 이벤트 구간에 대응되는 복수의 팀 위치 데이터셋(161) 및 타겟 플레이어의 위치 데이터셋(163)을 공격 이벤트 분류 모델(164)에 입력하여 공격 이벤트의 유형(166)을 획득할 수 있다. 예를 들어, 타겟 이벤트가 스프린트 이벤트인 경우, 공격 이벤트는 공격 스프린트를 의미할 수 있다. 공격 스프린트 예시적인 유형으로는, 공과 함께 달리는 움직임인 'Run with ball', 상대 수비 뒷 공간으로 달리는 움직임 중 스루패스를 받아 직접적으로 상대 골대 부근으로 향하면서 득점을 노리는 움직임인 'Penetrate' 등이 있을 수 있다. 한편, 전자 장치(100)는 볼 위치 데이터셋(162)을 추가적으로 공격 이벤트 분류 모델(164)에 입력할 수 있다.When the first team to which the target player who performed the target event belongs possesses the ball in the target event section, the electronic device 100 includes a plurality of team location datasets 161 corresponding to the target event section and the target player's location data. The type 166 of the attack event can be obtained by inputting the set 163 into the attack event classification model 164. For example, if the target event is a sprint event, the attack event may mean an attack sprint. Example types of offensive sprints include 'Run with ball', which is a movement in which a player runs with the ball, and 'Penetrate', which is a movement that aims to score by receiving a through pass while running toward the space behind the opponent's defense and heading directly to the vicinity of the opponent's goal. You can. Meanwhile, the electronic device 100 may additionally input the ball position dataset 162 into the attack event classification model 164.
제1 팀의 상대팀인 제2 팀이 타겟 이벤트 구간에서 볼을 소유한 경우, 전자 장치(100)는 타겟 이벤트 구간에 대응되는 복수의 팀 위치 데이터셋(161) 및 타겟 플레이어의 위치 데이터셋(163)을 수비 이벤트 분류 모델(165)에 입력하여 수비 이벤트의 유형(166)을 획득할 수 있다. 예를 들어, 타겟 이벤트가 스프린트 이벤트인 경우, 수비 이벤트는 수비 스프린트를 의미할 수 있다. 수비 스프린트 예시적인 유형으로는, 공을 갖는 상대 선수가 드리블이나 패싱으로 공을 전진시키지 못하게 상대 선수에 가깝게 접근하는 움직임인 'Pressing', 공을 소유한 채로 움직이는 상대 선수의 공을 빼앗기 위한 움직임인 'Chase the Opponent with Ball' 등이 있을 수 있다. 한편, 전자 장치(100)는 볼 위치 데이터셋(162)을 추가적으로 수비 이벤트 분류 모델(165)에 입력할 수 있다.When the second team, which is the opposing team of the first team, possesses the ball in the target event section, the electronic device 100 includes a plurality of team location datasets 161 corresponding to the target event section and the target player's location dataset ( 163) can be input into the defense event classification model 165 to obtain the type 166 of the defense event. For example, if the target event is a sprint event, the defense event may mean a defense sprint. Exemplary types of defensive sprints include 'Pressing', which is a movement to get close to an opposing player to prevent the opposing player with the ball from advancing the ball by dribbling or passing, and 'Pressing', which is a movement to steal the ball from an opposing player who is moving while in possession of the ball. There may be 'Chase the Opponent with Ball', etc. Meanwhile, the electronic device 100 may additionally input the ball position dataset 162 into the defense event classification model 165.
공격 이벤트 분류 모델(164) 및 수비 이벤트 분류 모델(165)은 제1 신경망 모델(M1) 내부에 임베딩되는 형태로 구현될 수 있다. 이 경우, 제1 신경망 모델(M1)은 복수의 팀 위치 데이터셋(161) 및 볼 위치 데이터셋(162)을 기초로 볼 소유권을 판단하고, 볼 소유권에 대응되는 분류 모델에 입력 데이터를 입력할 수 있다.The attack event classification model 164 and the defense event classification model 165 may be implemented as embedded within the first neural network model (M1). In this case, the first neural network model (M1) determines ball ownership based on a plurality of team position datasets 161 and ball position datasets 162, and inputs input data into the classification model corresponding to ball ownership. You can.
도 17은 본 개시의 일 실시예에 따른 전자 장치의 구성을 도시한 블록도이다.Figure 17 is a block diagram showing the configuration of an electronic device according to an embodiment of the present disclosure.
도 17을 참조하면, 전자 장치(100)는 통신 인터페이스(110), 메모리(120) 및 프로세서(130)를 포함할 수 있다. 예를 들어, 전자 장치(100)는 서버일 수 있다. 다만 이는 일 실시예에 불과하며 전자 장치(100)는 개인용 컴퓨터일 수 있다.Referring to FIG. 17 , the electronic device 100 may include a communication interface 110, a memory 120, and a processor 130. For example, the electronic device 100 may be a server. However, this is only an example, and the electronic device 100 may be a personal computer.
통신 인터페이스(110)는 적어도 하나의 통신 회로를 포함하며, 다양한 유형의 외부 기기 또는 외부 서버와 통신을 수행할 수 있다. 예를 들어, 통신 인터페이스(110)는 외부 장치로부터 플레이어에 대한 위치 정보를 수신할 수 있다. 외부 장치는 서버일 수 있다. 외부 장치는 플레이어 추적 장치(T)로부터 수신된 위치 정보를 저장하고 있을 수 있다. 또는, 외부 장치는 플레이어에 대한 위치 정보에 기초하여 플레이어의 위치 데이터를 획득하고, 획득된 위치 데이터를 저장하고 있을 수 있다. 통신 인터페이스(110)는 플레이어 추적 장치(T)로부터 플레이어에 대한 위치 정보를 수신할 수 있다. The communication interface 110 includes at least one communication circuit and can communicate with various types of external devices or external servers. For example, the communication interface 110 may receive location information about the player from an external device. The external device may be a server. The external device may store location information received from the player tracking device (T). Alternatively, the external device may acquire the player's location data based on location information about the player and store the obtained location data. The communication interface 110 may receive location information about the player from the player tracking device (T).
통신 인터페이스(110)는 와이파이 통신 모듈, 셀룰러 통신모듈, 3G(3세대) 이동통신 모듈, 4G(4세대) 이동통신 모듈, 4세대 LTE(Long Term Evolution) 통신 모듈, 5G(5세대) 이동통신 모듈 또는 유선 이더넷(Ethernet) 중 적어도 하나를 포함할 수 있다.The communication interface 110 is a Wi-Fi communication module, a cellular communication module, a 3G (3rd generation) mobile communication module, a 4G (4th generation) mobile communication module, a 4th generation LTE (Long Term Evolution) communication module, and a 5G (5th generation) mobile communication module. It may include at least one of a module or wired Ethernet.
메모리(120)는 전자 장치(100)의 구성요소들의 전반적인 동작을 제어하기 위한 운영체제(OS: Operating System) 및 전자 장치(100)의 구성요소와 관련된 명령 또는 데이터를 저장할 수 있다. 메모리(120)는 복수의 신경망 모델에 대한 정보를 저장할 수 있다. 복수의 신경망 모델에 대한 정보는 복수의 신경망 모델 각각에 대응되는 파라미터에 대한 정보, 복수의 신경망 모델의 학습을 위한 학습 데이터를 포함할 수 있다. 메모리(120)는 비휘발성 메모리(ex: 하드 디스크, SSD(Solid state drive), 플래시 메모리) 또는 휘발성 메모리 등으로 구현될 수 있다.The memory 120 may store an operating system (OS) for controlling the overall operation of the components of the electronic device 100 and commands or data related to the components of the electronic device 100. Memory 120 may store information about a plurality of neural network models. Information about the plurality of neural network models may include information about parameters corresponding to each of the plurality of neural network models and learning data for learning the plurality of neural network models. The memory 120 may be implemented as non-volatile memory (ex: hard disk, solid state drive (SSD), flash memory) or volatile memory.
프로세서(130)는 메모리(120)와 전기적으로 연결되어 전자 장치(100)의 전반적인 기능 및 동작을 제어할 수 있다. 프로세서(130)는 메모리(120)에 저장된 인스트럭션(instruction)을 실행함으로써 전자 장치(100)를 제어할 수 있다.The processor 130 is electrically connected to the memory 120 and can control the overall functions and operations of the electronic device 100. The processor 130 may control the electronic device 100 by executing instructions stored in the memory 120.
예를 들어, 프로세서(130)는 스포츠 세션 내 복수의 시점(time point)에 대응되는 플레이어의 위치 데이터셋(줄여서 위치 데이터셋)을 획득할 수 있다. 플레이어 위치 데이터셋은, 복수의 플레이어의 위치를 나타내는 위치 값들을 포함할 수 있다. 스포츠 세션은, 매치 세션 및 트레이닝 세션과 같이 스포츠와 관련된 다양한 이벤트에 대한 세션을 포함할 수 있다. 복수의 시점(time point)에 대한 복수의 위치 값은, 시간에 따른 복수의 플레이어 각각의 위치를 나타내는 필드 내 좌표를 포함할 수 있다.For example, the processor 130 may acquire a player's location data set (position data set for short) corresponding to a plurality of time points within a sports session. The player location dataset may include location values indicating the locations of a plurality of players. Sports sessions may include sessions for various events related to sports, such as match sessions and training sessions. A plurality of position values for a plurality of time points may include coordinates within a field indicating the positions of each of the plurality of players over time.
프로세서(130)는 다양한 방법으로 복수의 위치 값을 획득할 수 있다. 일 예로, 프로세서(130)는 통신 인터페이스(110)를 통해 외부 장치로부터 복수의 위치 값을 수신할 수 있다. 외부 장치는 플레이어 추적 장치(T)에 의해 획득된 위치 정보에 기초하여 획득한 위치 값을 저장하는 외부 서버일 수 있다. 다른 일 예로, 프로세서(130)는 플레이어 추적 장치(T)로부터 플레이어의 위치 정보를 수신할 수 있다. 프로세서(130)는 수신된 위치 정보에 기초하여 위치 값을 획득할 수 있다.The processor 130 may obtain a plurality of position values in various ways. As an example, the processor 130 may receive a plurality of position values from an external device through the communication interface 110. The external device may be an external server that stores the location value obtained based on the location information obtained by the player tracking device (T). As another example, the processor 130 may receive the player's location information from the player tracking device (T). The processor 130 may obtain a location value based on the received location information.
프로세서(130)는 플레이어 위치 데이터셋으로부터 팀 위치 데이터셋을 생성할 수 있다. 팀 위치 데이터셋은 팀에 속하는 플레이어들의 경기장에서의 배치 상태를 반영할 수 있다. 팀 위치 데이터셋은 순열 불변성(permutation invariant)일 수 있다. Processor 130 may generate a team location dataset from the player location dataset. A team location dataset may reflect the placement of players belonging to a team on the stadium. Team location datasets may be permutation invariant.
프로세서(130)는 복수의 플레이어의 속력 데이터를 획득할 수 있다. 복수의 플레이어의 속력 데이터는 복수의 플레이어가 각각 착용한 플레이어 추적 장치(T)에 의해 획득될 수 있다. 예를 들어, 복수의 플레이어의 속력 데이터는 플레이어 추적 장치(T)에 포함된 GPS 센서에 의해 획득될 수 있다.The processor 130 may obtain speed data of multiple players. Speed data of a plurality of players may be acquired by a player tracking device (T) worn by each of the plurality of players. For example, speed data of a plurality of players may be obtained by a GPS sensor included in the player tracking device (T).
프로세서(130)는 복수의 플레이어의 속력 데이터에 기초하여 타겟 이벤트를 식별할 수 있다. 예를 들어, 제1 시간 구간에서 플레이어의 속력이 기설정된 속력 범위 이내로 임계 시간 이상 유지되면, 프로세서(130)는 제1 시간 구간에서 타겟 이벤트가 발생했다고 판단할 수 있다. 또는, 플레이어의 속력이 제1 시간 구간에서 임계 속력 이상이면, 프로세서(130)는 제1 시간 구간에서 타겟 이벤트가 발생했다고 판단할 수 있다.The processor 130 may identify a target event based on speed data of a plurality of players. For example, if the player's speed remains within a preset speed range for more than a threshold time in the first time period, the processor 130 may determine that a target event has occurred in the first time period. Alternatively, if the player's speed is greater than or equal to the threshold speed in the first time interval, the processor 130 may determine that the target event occurred in the first time interval.
프로세서(130)는 타겟 이벤트에 대한 정보를 획득할 수 있다. 타겟 이벤트에 대한 정보는, 타겟 이벤트에 대응되는 시간 정보 및 타겟 이벤트를 수행한 플레이어에 대한 정보를 포함할 수 있다. 예를 들어, 프로세서(130)는 타겟 이벤트가 식별된 타임 스탬프를 획득할 수 있다. 프로세서(130)는 식별된 타겟 이벤트에 대응되는 플레이어 식별자를 식별할 수 있다.The processor 130 may obtain information about the target event. Information about the target event may include time information corresponding to the target event and information about the player who performed the target event. For example, processor 130 may obtain a time stamp at which the target event is identified. Processor 130 may identify a player identifier corresponding to the identified target event.
프로세서(130)는 타겟 이벤트에 대응되는 시간 정보에 기초하여 복수의 위치 데이터셋으로부터 타겟 이벤트에 대응되는 복수의 위치 데이터셋을 식별할 수 있다. 프로세서(130)는 타겟 이벤트 구간에 대응되는 타임 스탬프를 기초로 타겟 이벤트에 대응되는 복수의 위치 데이터셋을 식별할 수 있다.The processor 130 may identify a plurality of location datasets corresponding to the target event from the plurality of location datasets based on time information corresponding to the target event. The processor 130 may identify a plurality of location data sets corresponding to the target event based on the time stamp corresponding to the target event section.
프로세서(130)는 복수의 위치 데이터셋에 기초하여 타겟 이벤트의 유형을 획득할 수 있다. 프로세서(130)는 복수의 위치 데이터셋으로부터 복수의 팀 위치 데이터셋을 생성할 수 있다. 프로세서(130)는 복수의 팀 위치 데이터셋과 타겟 이벤트를 수행한 플레이어의 위치값을 신경망 모델에 입력하여 타겟 이벤트의 유형을 획득할 수 있다.The processor 130 may obtain the type of target event based on a plurality of location data sets. Processor 130 may generate a plurality of team location datasets from a plurality of location datasets. The processor 130 may obtain the type of target event by inputting a plurality of team location datasets and the location value of the player who performed the target event into a neural network model.
프로세서(130)는 타겟 이벤트 구간을 정의할 수 있다. 예를 들어, 타겟 이벤트 구간은, 타겟 이벤트를 수행한 플레이어의 순간 속력이 기설정된 범위 이내로 임계 시간 이상 동안 유지되는 제1 시간 구간, 플레이어에 의해 상기 타겟 이벤트가 의도된 시점으로부터 제1 시간 구간의 시작점까지의 제2 시간 구간, 및 제1 시간 구간의 끝점으로부터 제1 시간 구간의 끝점으로부터 기설정된 시간 후인 시점까지의 제3 시간 구간을 포함할 수 있다. 이 때, 프로세서(130)는 제1 시간 구간동안 타겟 이벤트를 수행한 플레이어가 이동한 거리에 기초하여 임계 시간을 조절할 수 있다. 예를 들어, 플레이어가 이동한 거리가 클수록, 프로세서(130)는 임계 시간은 낮출 수 있다. 한편, 프로세서(130)는 타겟 이벤트를 수행한 플레이어의 가속도에 기초하여 타겟 이벤트가 의도된 시점을 판단할 수 있다. 예를 들어, 프로세서(130)는 타겟 플레이어의 가속도가 기설정된 값보다 커지게 되는 시점을 타겟 이벤트에 대한 의도 발생 시점으로 판단할 수 있다.The processor 130 may define a target event section. For example, the target event section is a first time section in which the instantaneous speed of the player who performed the target event is maintained within a preset range for more than a critical time, and a first time section from the time when the target event is intended by the player. It may include a second time section to the starting point, and a third time section from the end point of the first time section to a preset time after the end point of the first time section. At this time, the processor 130 may adjust the threshold time based on the distance traveled by the player who performed the target event during the first time period. For example, the greater the distance the player moves, the processor 130 can lower the threshold time. Meanwhile, the processor 130 may determine when the target event is intended based on the acceleration of the player who performed the target event. For example, the processor 130 may determine the time when the target player's acceleration becomes greater than a preset value as the time when the intent for the target event occurs.
프로세서(130)는 타겟 이벤트 구간에서의 볼 소유권에 기초하여 타겟 이벤트의 유형을 획득할 수 있다. 예를 들어, 타겟 이벤트 구간에서 타겟 플레이어가 속한 제1 팀이 볼 소유권을 갖는 경우, 프로세서(130)는 공격 상황에 해당하는 타겟 이벤트의 유형을 획득하도록 학습된 제1 신경망 모델을 이용하여, 타겟 플레이어의 위치값, 제1 팀 위치 데이터셋 및 제2 팀 위치 데이터셋에 기초하여 타겟 이벤트의 유형을 획득할 수 있다. 타겟 이벤트 구간에서 제2 팀이 볼 소유권을 갖는 경우, 프로세서(130)는 수비 상황에 해당하는 타겟 이벤트의 유형을 획득하도록 학습된 제2 신경망 모델을 이용하여, 타겟 플레이어의 위치값 및 제2 팀 위치 데이터셋에 기초하여 타겟 이벤트의 유형을 획득할 수 있다.The processor 130 may obtain the type of target event based on ball ownership in the target event section. For example, when the first team to which the target player belongs has possession of the ball in the target event section, the processor 130 uses a first neural network model learned to obtain the type of target event corresponding to the attack situation, The type of target event may be obtained based on the player's location value, the first team location dataset, and the second team location dataset. When the second team has possession of the ball in the target event section, the processor 130 uses a second neural network model learned to obtain the type of target event corresponding to the defense situation, and determines the position value of the target player and the second team. The type of target event can be obtained based on the location dataset.
프로세서(130)는 복수의 팀 위치 데이터셋 및 볼 위치 데이터셋에 기초하여 볼 소유권을 획득할 수 있다. 예를 들어, 프로세서(130)는 복수의 팀 위치 데이터셋 및 볼 위치 데이터셋을 미리 정해진 시간 길이의 세그먼트 단위로 신경망 모델에 입력하여 볼 소유권을 획득할 수 있다. Processor 130 may acquire ball possession based on a plurality of team location datasets and ball location datasets. For example, the processor 130 may acquire ball ownership by inputting a plurality of team location datasets and ball location datasets into a neural network model in segments of a predetermined time length.
프로세서(130)는 타겟 이벤트 구간에 대응되는 비디오 피드를 사용자에게 제공할 수 있다. 프로세서(130)는 스포츠 세션에 대한 비디오 피드로부터 타겟 이벤트에 대응되는 타겟 장면을 추출할 수 있다. 프로세서(130)는 타겟 장면을 표시하도록 사용자 단말로 명령을 전송할 수 있다. 또한, 프로세서(130)는 타겟 장면을 실행시키기 위한 링크를 사용자 단말로 전송할 수 있다. 타겟 장면은 프로세서(130)가 판단한 타겟 이벤트의 유형과 함께 사용자에게 제공될 수 있다. 사용자는 프로세서(130)가 판단한 타겟 이벤트의 유형을 수정하기 위한 명령을 입력할 수 있다. 사용자가 입력한 명령에 기초하여, 프로세서(130)는 타겟 이벤트의 유형을 업데이트할 수 있다.The processor 130 may provide a video feed corresponding to the target event section to the user. Processor 130 may extract a target scene corresponding to a target event from a video feed for a sports session. The processor 130 may transmit a command to the user terminal to display the target scene. Additionally, the processor 130 may transmit a link for executing the target scene to the user terminal. The target scene may be provided to the user along with the type of target event determined by the processor 130. The user may input a command to modify the type of target event determined by the processor 130. Based on the command entered by the user, the processor 130 may update the type of target event.
한편, 본 개시에 따른 인공지능과 관련된 기능은 프로세서(130)와 메모리(120)를 통해 동작된다. 프로세서(130)는 하나 또는 복수의 프로세서로 구성될 수 있다. 이때, 하나 또는 복수의 프로세서는 CPU, AP, DSP(Digital Signal Processor) 등과 같은 범용 프로세서, GPU, VPU(Vision Processing Unit)와 같은 그래픽 전용 프로세서 또는 NPU와 같은 인공지능 전용 프로세서일 수 있다. 하나 또는 복수의 프로세서는, 메모리(120)에 저장된 기 정의된 동작 규칙 또는 인공지능 모델에 따라, 입력 데이터를 처리하도록 제어한다. 또는, 하나 또는 복수의 프로세서가 인공지능 전용 프로세서인 경우, 인공지능 전용 프로세서는, 특정 인공지능 모델의 처리에 특화된 하드웨어 구조로 설계될 수 있다. Meanwhile, functions related to artificial intelligence according to the present disclosure are operated through the processor 130 and memory 120. The processor 130 may be comprised of one or multiple processors. At this time, one or more processors may be a general-purpose processor such as a CPU, AP, or DSP (Digital Signal Processor), a graphics-specific processor such as a GPU or VPU (Vision Processing Unit), or an artificial intelligence-specific processor such as an NPU. One or more processors control input data to be processed according to predefined operation rules or artificial intelligence models stored in the memory 120. Alternatively, when one or more processors are dedicated artificial intelligence processors, the artificial intelligence dedicated processors may be designed with a hardware structure specialized for processing a specific artificial intelligence model.
기 정의된 동작 규칙 또는 인공지능 모델은 학습을 통해 만들어진 것을 특징으로 한다. 여기서, 학습을 통해 만들어진다는 것은, 기본 인공지능 모델이 학습 알고리즘에 의하여 다수의 학습 데이터들을 이용하여 학습됨으로써, 원하는 특성(또는, 목적)을 수행하도록 설정된 기 정의된 동작 규칙 또는 인공지능 모델이 만들어짐을 의미한다. 이러한 학습은 본 개시에 따른 인공지능이 수행되는 기기 자체에서 이루어질 수도 있고, 별도의 서버 및/또는 시스템을 통해 이루어질 수도 있다. 학습 알고리즘의 예로는, 지도형 학습(supervised learning), 비지도형 학습(unsupervised learning), 준지도형 학습(semi-supervised learning) 또는 강화 학습(reinforcement learning)이 있으나, 전술한 예에 한정되지 않는다.Predefined operation rules or artificial intelligence models are characterized by being created through learning. Here, being created through learning means that the basic artificial intelligence model is learned using a large number of learning data by a learning algorithm, thereby creating a predefined operation rule or artificial intelligence model set to perform the desired characteristics (or purpose). It means burden. This learning may be accomplished in the device itself that performs the artificial intelligence according to the present disclosure, or may be accomplished through a separate server and/or system. Examples of learning algorithms include supervised learning, unsupervised learning, semi-supervised learning, or reinforcement learning, but are not limited to the examples described above.
인공지능 모델은 학습을 통해 만들어질 수 있다. 인공지능 모델은, 복수의 신경망 레이어들로 구성될 수 있다. 복수의 신경망 레이어들 각각은 복수의 가중치들(weight values)을 갖고 있으며, 이전(previous) 레이어의 연산 결과와 복수의 가중치들 간의 연산을 통해 신경망 연산을 수행한다. 복수의 신경망 레이어들이 갖고 있는 복수의 가중치들은 인공지능 모델의 학습 결과에 의해 최적화될 수 있다. 예를 들어, 학습 과정 동안 인공지능 모델에서 획득한 로스(loss) 값 또는 코스트(cost) 값이 감소 또는 최소화되도록 복수의 가중치들이 갱신될 수 있다.Artificial intelligence models can be created through learning. An artificial intelligence model may be composed of multiple neural network layers. Each of the plurality of neural network layers has a plurality of weight values, and neural network calculation is performed through calculation between the calculation result of the previous layer and the plurality of weights. Multiple weights of multiple neural network layers can be optimized by the learning results of the artificial intelligence model. For example, a plurality of weights may be updated so that loss or cost values obtained from the artificial intelligence model are reduced or minimized during the learning process.
인공 신경망은 심층 신경망(DNN: Deep Neural Network)를 포함할 수 있으며, 예를 들어, CNN (Convolutional Neural Network), DNN (Deep Neural Network), RNN (Recurrent Neural Network), GAN (Generative Adversarial Network), RBM (Restricted Boltzmann Machine), DBN (Deep Belief Network), BRDNN(Bidirectional Recurrent Deep Neural Network) 또는 심층 Q-네트워크 (Deep Q-Networks) 등이 있으나, 전술한 예에 한정되지 않는다.Artificial neural networks may include deep neural networks (DNN), such as Convolutional Neural Network (CNN), Deep Neural Network (DNN), Recurrent Neural Network (RNN), Generative Adversarial Network (GAN), Examples include Restricted Boltzmann Machine (RBM), Deep Belief Network (DBN), Bidirectional Recurrent Deep Neural Network (BRDNN), or Deep Q-Networks, but are not limited to the examples described above.
이상에서 설명된 다양한 실시예들은 소프트웨어(software), 하드웨어(hardware) 또는 이들의 조합을 이용하여 컴퓨터(computer) 또는 이와 유사한 장치로 읽을 수 있는 기록 매체 내에서 구현될 수 있다. 일부 경우에 있어 본 명세서에서 설명되는 실시예들이 프로세서 자체로 구현될 수 있다. 소프트웨어로 구현되는 경우, 본 명세서에서 설명되는 절차 및 기능과 같은 실시예들은 별도의 소프트웨어 모듈들로 구현될 수 있다. 소프트웨어 모듈들 각각은 본 명세서에서 설명되는 하나 이상의 기능 및 작동을 수행할 수 있다.The various embodiments described above may be implemented in a recording medium that can be read by a computer or similar device using software, hardware, or a combination thereof. In some cases, embodiments described herein may be implemented in a processor itself. When implemented in software, embodiments such as procedures and functions described in this specification may be implemented as separate software modules. Each of the software modules may perform one or more functions and operations described herein.
상술한 본 개시의 다양한 실시예들에 따른 처리 동작을 수행하기 위한 컴퓨터 명령어(computer instructions)는 비일시적 컴퓨터 판독 가능 매체(non-transitory computer-readable medium)에 저장될 수 있다. 이러한 비일시적 컴퓨터 판독 가능 매체에 저장된 컴퓨터 명령어는 프로세서에 의해 실행되었을 때 상술한 다양한 실시예에 따른 처리 동작을 특정 기기가 수행하도록 할 수 있다.Computer instructions for performing processing operations according to various embodiments of the present disclosure described above may be stored in a non-transitory computer-readable medium. Computer instructions stored in such a non-transitory computer-readable medium, when executed by a processor, can cause a specific device to perform processing operations according to the various embodiments described above.
비일시적 컴퓨터 판독 가능 매체란 레지스터, 캐쉬, 메모리 등과 같이 짧은 순간 동안 데이터를 저장하는 매체가 아니라 반영구적으로 데이터를 저장하며, 기기에 의해 판독(reading)이 가능한 매체를 의미한다. 비일시적 컴퓨터 판독 가능 매체의 구체적인 예로는, CD, DVD, 하드 디스크, 블루레이 디스크, USB, 메모리카드, ROM 등이 있을 수 있다.A non-transitory computer-readable medium refers to a medium that stores data semi-permanently and can be read by a device, rather than a medium that stores data for a short period of time, such as registers, caches, and memories. Specific examples of non-transitory computer-readable media may include CD, DVD, hard disk, Blu-ray disk, USB, memory card, ROM, etc.
기기로 읽을 수 있는 저장매체는, 비일시적(non-transitory) 저장매체의 형태로 제공될 수 있다. 여기서, ‘비일시적 저장매체'는 실재(tangible)하는 장치이고, 신호(signal)(예: 전자기파)를 포함하지 않는다는 것을 의미할 뿐이며, 이 용어는 데이터가 저장매체에 반영구적으로 저장되는 경우와 임시적으로 저장되는 경우를 구분하지 않는다. 예로, '비일시적 저장매체'는 데이터가 임시적으로 저장되는 버퍼를 포함할 수 있다.A storage medium that can be read by a device may be provided in the form of a non-transitory storage medium. Here, 'non-transitory storage medium' only means that it is a tangible device and does not contain signals (e.g. electromagnetic waves). This term refers to cases where data is semi-permanently stored in a storage medium and temporary storage media. It does not distinguish between cases where it is stored as . For example, a 'non-transitory storage medium' may include a buffer where data is temporarily stored.
본 문서에 개시된 다양한 실시예들에 따른 방법은 컴퓨터 프로그램 제품(computer program product)에 포함되어 제공될 수 있다. 컴퓨터 프로그램 제품은 상품으로서 판매자 및 구매자 간에 거래될 수 있다. 컴퓨터 프로그램 제품은 기기로 읽을 수 있는 저장 매체(예: compact disc read only memory (CD-ROM))의 형태로 배포되거나, 또는 어플리케이션 스토어(예: 플레이 스토어TM)를 통해 또는 두개의 사용자 장치들(예: 스마트폰들) 간에 직접, 온라인으로 배포(예: 다운로드 또는 업로드)될 수 있다. 온라인 배포의 경우에, 컴퓨터 프로그램 제품(예: 다운로더블 앱(downloadable app))의 적어도 일부는 제조사의 서버, 어플리케이션 스토어의 서버, 또는 중계 서버의 메모리와 같은 기기로 읽을 수 있는 저장 매체에 적어도 일시 저장되거나, 임시적으로 생성될 수 있다.Methods according to various embodiments disclosed in this document may be provided and included in a computer program product. Computer program products are commodities and can be traded between sellers and buyers. The computer program product may be distributed in the form of a machine-readable storage medium (e.g. compact disc read only memory (CD-ROM)) or through an application store (e.g. Play StoreTM) or on two user devices (e.g. It can be distributed (e.g. downloaded or uploaded) directly between smartphones) or online. In the case of online distribution, at least a portion of the computer program product (e.g., a downloadable app) is stored on a machine-readable storage medium, such as the memory of a manufacturer's server, an application store's server, or a relay server. It can be temporarily stored or created temporarily.
이상에서는 본 개시의 바람직한 실시예에 대하여 도시하고 설명하였지만, 본 개시는 상술한 특정의 실시예에 한정되지 아니하며, 청구범위에서 청구하는 본 개시의 요지를 벗어남이 없이 당해 개시에 속하는 기술분야에서 통상의 지식을 가진자에 의해 다양한 변형실시가 가능한 것은 물론이고, 이러한 변형실시들은 본 개시의 기술적 사상이나 전망으로부터 개별적으로 이해되어져서는 안될것이다.In the above, preferred embodiments of the present disclosure have been shown and described, but the present disclosure is not limited to the specific embodiments described above, and may be used in the technical field pertaining to the disclosure without departing from the gist of the disclosure as claimed in the claims. Of course, various modifications can be made by those with the knowledge, and these modifications should not be understood individually from the technical ideas or perspectives of the present disclosure.
Claims (15)
- 스포츠 세션 내 타겟 이벤트의 유형을 획득하는 방법에 있어서,In a method of obtaining the type of target event within a sports session,상기 스포츠 세션 내 복수의 시점(time point)에 각각 대응되는 복수의 위치 데이터셋-각 위치 데이터셋은, 대응되는 시점에서 플레이어들의 위치값을 포함함-을 획득하는 단계;Obtaining a plurality of location datasets each corresponding to a plurality of time points within the sports session, each location dataset including location values of players at the corresponding time points;상기 복수의 플레이어의 모션 데이터를 획득하는 단계;Obtaining motion data of the plurality of players;상기 모션 데이터에 기초하여 상기 타겟 이벤트를 식별하고, 상기 타겟 이벤트에 대한 정보-상기 정보는, 상기 타겟 이벤트에 대응되는 시간 정보 및 상기 타겟 이벤트를 수행한 플레이어에 대한 정보를 포함함-를 획득하는 단계;Identifying the target event based on the motion data, and obtaining information about the target event - the information includes time information corresponding to the target event and information about the player who performed the target event. step;상기 타겟 이벤트에 대응되는 시간 정보에 기초하여 상기 타겟 이벤트 동안의 경기 상황을 반영하는 상황 정보-상기 상황 정보는, 상기 타겟 이벤트를 수행한 상기 플레이어의 위치를 반영하는 제1 위치 데이터셋 및 상기 플레이어가 아닌 적어도 하나 이상의 다른 플레이어의 경기장에서의 배치나 움직임을 반영하는 제2 위치 데이터셋을 포함함-를 획득하는 단계; 및Situation information reflecting a game situation during the target event based on time information corresponding to the target event - the situation information includes a first location dataset reflecting the location of the player who performed the target event and the player Obtaining a second location dataset that reflects the placement or movement of at least one other player other than the player on the playing field; and상기 상황 정보에 기초하여 상기 타겟 이벤트의 유형을 획득하는 단계를 포함하는Comprising the step of obtaining the type of the target event based on the situation information.방법.method.
- 제1 항에 있어서,According to claim 1,상기 복수의 위치 데이터셋으로부터 상기 타겟 이벤트에 대응되는 복수의 팀 위치 데이터셋-상기 복수의 팀 위치 데이터셋은, 상기 타겟 이벤트를 수행한 상기 플레이어가 속한 제1 팀의 플레이어들의 경기장에서의 배치 상태를 반영하는 복수의 제1 팀 위치 데이터셋, 및 제2 팀의 플레이어들의 상기 경기장에서의 배치 상태를 반영하는 복수의 제2 팀 위치 데이터셋을 포함함-을 생성하는 단계;를 더 포함하고,A plurality of team location datasets corresponding to the target event from the plurality of location datasets - the plurality of team location datasets are the arrangement status of players of the first team to which the player who performed the target event belongs in the stadium It further includes generating a plurality of first team location datasets reflecting a plurality of first team location datasets, and a plurality of second team location datasets reflecting the placement status of players of a second team in the stadium,상기 타겟 이벤트의 유형을 획득하는 단계는,The step of obtaining the type of the target event is,상기 복수의 제1 팀 위치 데이터셋 또는 상기 복수의 제2 팀 위치 데이터셋 중 적어도 하나와 상기 타겟 이벤트를 수행한 상기 플레이어의 위치값들을 신경망 모델에 입력하여 상기 타겟 이벤트의 유형을 획득하는Obtaining the type of the target event by inputting at least one of the plurality of first team location datasets or the plurality of second team location datasets and the location values of the player who performed the target event into a neural network model.방법.method.
- 제2 항에 있어서,According to clause 2,상기 스포츠 세션에 이용되는 볼의 위치를 획득하는 단계;를 더 포함하고,Further comprising: obtaining the position of a ball used in the sports session,상기 타겟 이벤트의 유형을 획득하는 단계는,The step of obtaining the type of the target event is,상기 타겟 이벤트에 대응되는 시간 구간에서의 상기 볼의 위치를 상기 신경망 모델에 추가적으로 입력하여 상기 타겟 이벤트의 유형을 획득하는Obtaining the type of the target event by additionally inputting the position of the ball in the time interval corresponding to the target event into the neural network model방법.method.
- 제2 항에 있어서,According to clause 2,상기 타겟 이벤트의 유형을 획득하는 단계는,The step of obtaining the type of the target event is,상기 타겟 이벤트를 수행한 상기 플레이어의 역할 정보를 상기 신경망 모델에 추가적으로 입력하여 상기 타겟 이벤트의 유형을 획득하는Obtaining the type of the target event by additionally inputting the role information of the player who performed the target event into the neural network model방법.method.
- 제1 항에 있어서,According to claim 1,상기 타겟 이벤트에 대응되는 시간 정보는,The time information corresponding to the target event is,상기 타겟 이벤트를 수행한 상기 플레이어의 순간 속력이 기설정된 범위 이내로 임계 시간 이상 동안 유지되는 제1 시간 구간,A first time period in which the instantaneous speed of the player who performed the target event is maintained within a preset range for more than a critical time,상기 플레이어에 의해 상기 타겟 이벤트가 의도된 시점으로부터 상기 제1 시간 구간의 시작점까지의 제2 시간 구간, 및a second time interval from the point at which the target event is intended by the player to the starting point of the first time interval, and상기 제1 시간 구간의 끝점으로부터 상기 제1 시간 구간의 끝점으로부터 기설정된 시간 후인 시점까지의 제3 시간 구간을 포함하는Comprising a third time interval from the end point of the first time interval to a preset time after the end point of the first time interval.방법.method.
- 제5 항에 있어서,According to clause 5,상기 임계 시간은,The critical time is,상기 제1 시간 구간동안 상기 플레이어가 이동한 거리에 기초하여 조절되는Adjusted based on the distance moved by the player during the first time period방법.method.
- 제5 항에 있어서,According to clause 5,상기 타겟 이벤트가 의도된 시점은,When the target event is intended,상기 플레이어의 가속도에 기초하여 판단되는Determined based on the player's acceleration방법.method.
- 제1 항의 방법을 컴퓨터에서 실행시키기 위한 프로그램이 기록된 컴퓨터 판독 가능한 기록매체.A computer-readable recording medium on which a program for executing the method of claim 1 on a computer is recorded.
- 스포츠 세션 내 타겟 이벤트의 유형을 획득하는 전자 장치에 있어서,An electronic device for obtaining a type of target event within a sports session, comprising:적어도 하나의 인스트럭션을 저장하는 메모리; 및a memory storing at least one instruction; and프로세서;를 포함하고,Including a processor;상기 프로세서는, 상기 적어도 하나의 인스트럭션을 실행함으로써,The processor executes the at least one instruction,상기 스포츠 세션 내 복수의 시점(time point)에 각각 대응되는 복수의 위치 데이터셋-각 위치 데이터셋은, 대응되는 시점에서 플레이어들의 위치값을 포함함-을 획득하고,Obtaining a plurality of location datasets, each of which corresponds to a plurality of time points within the sports session, each location dataset including location values of players at the corresponding time points,상기 복수의 플레이어의 모션 데이터를 획득하고,Obtaining motion data of the plurality of players,상기 모션 데이터에 기초하여 상기 타겟 이벤트를 식별하고, 상기 타겟 이벤트에 대한 정보-상기 정보는, 상기 타겟 이벤트에 대응되는 시간 정보 및 상기 타겟 이벤트를 수행한 상기 플레이어에 대한 정보를 포함함-를 획득하고,Identify the target event based on the motion data, and obtain information about the target event - the information includes time information corresponding to the target event and information about the player who performed the target event. do,상기 타겟 이벤트에 대응되는 시간 정보에 기초하여 상기 타겟 이벤트 동안의 경기 상황을 반영하는 상황 정보-상기 상황 정보는, 상기 타겟 이벤트를 수행한 상기 플레이어의 위치를 반영하는 제1 위치 데이터셋 및 상기 플레이어가 아닌 적어도 하나 이상의 다른 플레이어의 경기장에서의 배치나 움직임을 반영하는 제2 위치 데이터셋을 포함함-를 획득하고,Situation information reflecting a game situation during the target event based on time information corresponding to the target event - the situation information includes a first location dataset reflecting the location of the player who performed the target event and the player Obtaining a second location dataset that reflects the placement or movement on the playing field of at least one other player other than상기 상황 정보에 기초하여 상기 타겟 이벤트의 유형을 획득하는Obtaining the type of the target event based on the situation information전자 장치.Electronic devices.
- 제9 항에 있어서,According to clause 9,상기 프로세서는,The processor,상기 복수의 위치 데이터셋으로부터 상기 타겟 이벤트에 대응되는 복수의 팀 위치 데이터셋-상기 복수의 팀 위치 데이터셋은, 상기 타겟 이벤트를 수행한 상기 플레이어가 속한 제1 팀의 플레이어들의 경기장에서의 배치 상태를 반영하는 복수의 제1 팀 위치 데이터셋, 및 제2 팀의 플레이어들의 상기 경기장에서의 배치 상태를 반영하는 복수의 제2 팀 위치 데이터셋을 포함함-을 생성하고,A plurality of team location datasets corresponding to the target event from the plurality of location datasets - the plurality of team location datasets are the arrangement status of players of the first team to which the player who performed the target event belongs in the stadium generating a plurality of first team location datasets reflecting a plurality of first team location datasets, and a plurality of second team location datasets reflecting the placement status of players of a second team in the stadium;상기 복수의 제1 팀 위치 데이터셋 또는 상기 복수의 제2 팀 위치 데이터셋 중 적어도 하나와 상기 타겟 이벤트를 수행한 상기 플레이어의 위치값들을 신경망 모델에 입력하여 상기 타겟 이벤트의 유형을 획득하는Obtaining the type of the target event by inputting at least one of the plurality of first team location datasets or the plurality of second team location datasets and the location values of the player who performed the target event into a neural network model.전자 장치.Electronic devices.
- 제10 항에 있어서,According to claim 10,상기 프로세서는,The processor,상기 스포츠 세션에 이용되는 볼의 위치를 획득하고,Obtaining the position of the ball used in the sports session,상기 타겟 이벤트에 대응되는 시간 구간에서의 상기 볼의 위치를 상기 신경망 모델에 추가적으로 입력하여 상기 타겟 이벤트의 유형을 획득하는Obtaining the type of the target event by additionally inputting the position of the ball in the time interval corresponding to the target event into the neural network model전자 장치.Electronic devices.
- 제10 항에 있어서,According to claim 10,상기 프로세서는,The processor,상기 타겟 이벤트를 수행한 상기 플레이어의 역할 정보를 상기 신경망 모델에 추가적으로 입력하여 상기 타겟 이벤트의 유형을 획득하는Obtaining the type of the target event by additionally inputting the role information of the player who performed the target event into the neural network model전자 장치.Electronic devices.
- 제9 항에 있어서,According to clause 9,상기 타겟 이벤트에 대응되는 시간 정보는,The time information corresponding to the target event is,상기 타겟 이벤트를 수행한 상기 플레이어의 순간 속력이 기설정된 범위 이내로 임계 시간 이상 동안 유지되는 제1 시간 구간,A first time period in which the instantaneous speed of the player who performed the target event is maintained within a preset range for more than a threshold time,상기 플레이어에 의해 상기 타겟 이벤트가 의도된 시점으로부터 상기 제1 시간 구간의 시작점까지의 제2 시간 구간, 및a second time interval from when the target event is intended by the player to the starting point of the first time interval, and상기 제1 시간 구간의 끝점으로부터 상기 제1 시간 구간의 끝점으로부터 기설정된 시간 후인 시점까지의 제3 시간 구간을 포함하는Comprising a third time interval from the end point of the first time interval to a preset time after the end point of the first time interval.전자 장치.Electronic devices.
- 제13 항에 있어서,According to claim 13,상기 프로세서는, The processor,상기 제1 시간 구간동안 상기 플레이어가 이동한 거리에 기초하여 상기 임계 시간을 조절하는Adjusting the threshold time based on the distance moved by the player during the first time period전자 장치.Electronic devices.
- 제13 항에 있어서,According to claim 13,상기 프로세서는,The processor,상기 플레이어의 가속도에 기초하여 상기 타겟 이벤트가 의도된 시점을 판단하는Determining when the target event is intended based on the player's acceleration전자 장치.Electronic devices.
Applications Claiming Priority (6)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020220146204A KR102627521B1 (en) | 2022-11-04 | 2022-11-04 | Method for acquiring type of target event in sports session and electronic apparatus performing the same |
KR1020220146206A KR20240065636A (en) | 2022-11-04 | 2022-11-04 | Method for acquiring type of target event in sports session and electronic apparatus performing the same |
KR10-2022-0146204 | 2022-11-04 | ||
KR10-2022-0146206 | 2022-11-04 | ||
KR1020220146205A KR20240065635A (en) | 2022-11-04 | 2022-11-04 | Method for acquiring information on target event in sports session and electronic apparatus performing the same |
KR10-2022-0146205 | 2022-11-04 |
Publications (1)
Publication Number | Publication Date |
---|---|
WO2024096167A1 true WO2024096167A1 (en) | 2024-05-10 |
Family
ID=90930790
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
PCT/KR2022/017310 WO2024096167A1 (en) | 2022-11-04 | 2022-11-07 | Method for acquiring type of target event within sports session and electronic apparatus performing same |
Country Status (1)
Country | Link |
---|---|
WO (1) | WO2024096167A1 (en) |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20180063777A (en) * | 2016-12-02 | 2018-06-12 | (주) 지티씨솔루션 | Soccer information analysis apparatus and the method thereof |
KR20180066474A (en) * | 2016-12-09 | 2018-06-19 | 한국전자통신연구원 | Apparatus and method for soccer event detection based on motion |
KR102234165B1 (en) * | 2020-07-13 | 2021-03-31 | 주식회사 스포츠로그 | Service providing apparatus and method for match analysis |
KR20220040433A (en) * | 2019-07-31 | 2022-03-30 | 인텔 코포레이션 | Creating player trajectories with multi-camera player tracking |
KR20220066759A (en) * | 2020-11-16 | 2022-05-24 | 주식회사 핏투게더 | Method for tracking sports participants, device for tracking sports participants, and system for tracking sports participants |
-
2022
- 2022-11-07 WO PCT/KR2022/017310 patent/WO2024096167A1/en unknown
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20180063777A (en) * | 2016-12-02 | 2018-06-12 | (주) 지티씨솔루션 | Soccer information analysis apparatus and the method thereof |
KR20180066474A (en) * | 2016-12-09 | 2018-06-19 | 한국전자통신연구원 | Apparatus and method for soccer event detection based on motion |
KR20220040433A (en) * | 2019-07-31 | 2022-03-30 | 인텔 코포레이션 | Creating player trajectories with multi-camera player tracking |
KR102234165B1 (en) * | 2020-07-13 | 2021-03-31 | 주식회사 스포츠로그 | Service providing apparatus and method for match analysis |
KR20220066759A (en) * | 2020-11-16 | 2022-05-24 | 주식회사 핏투게더 | Method for tracking sports participants, device for tracking sports participants, and system for tracking sports participants |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
WO2020060113A1 (en) | Method for providing key moments in multimedia content and electronic device thereof | |
WO2020105948A1 (en) | Image processing apparatus and control method thereof | |
WO2017155343A1 (en) | Server, dart game device and computer program stored on computer readable medium for providing image related to dart game | |
WO2015088179A1 (en) | Method and device for positioning with respect to key points of face | |
WO2021251689A1 (en) | Electronic device and controlling method of electronic device | |
WO2014107041A1 (en) | Dart game device comprising image-capture device for capturing images of dart games | |
WO2016122217A1 (en) | Server and dart game device for providing dart game in accordance with hitting area on basis of location of dart pin, and computer program | |
WO2019151735A1 (en) | Vision inspection management method and vision inspection system | |
WO2024096167A1 (en) | Method for acquiring type of target event within sports session and electronic apparatus performing same | |
WO2022010177A1 (en) | Device and method for generating summary video | |
WO2019054792A1 (en) | Method and terminal for providing content | |
WO2017183836A1 (en) | Dart game apparatus and method for controlling dart game through image processing, and computer program stored in computer-readable medium | |
WO2013100258A1 (en) | Method and apparatus for controlling a soccer game character | |
WO2020116983A1 (en) | Electronic apparatus, controlling method of electronic apparatus, and computer readable medium | |
WO2022131465A1 (en) | Electronic device and method for displaying augmented reality content | |
WO2021125521A1 (en) | Action recognition method using sequential feature data and apparatus therefor | |
WO2016167480A1 (en) | Dart-game-having-player-score-areas provision method, dart game server, and computer program | |
WO2021221394A1 (en) | Method and electronic device for image augmentation | |
WO2022071660A1 (en) | Match-up device and match-up method | |
WO2022045613A1 (en) | Method and device for improving video quality | |
WO2017222161A1 (en) | Dart game device providing rival system | |
KR102627521B1 (en) | Method for acquiring type of target event in sports session and electronic apparatus performing the same | |
WO2013055049A1 (en) | Method and system for controlling character of football game | |
WO2020071692A1 (en) | Refrigerator, server, and object recognition method of refrigerator | |
WO2018143517A1 (en) | Dart game apparatus, for providing multimedia information, and computer program stored in computer-readable medium |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
121 | Ep: the epo has been informed by wipo that ep was designated in this application |
Ref document number: 22964546 Country of ref document: EP Kind code of ref document: A1 |