KR20210114815A - Deep Learning based score display system and operation method using mobile app - Google Patents

Deep Learning based score display system and operation method using mobile app Download PDF

Info

Publication number
KR20210114815A
KR20210114815A KR1020200030430A KR20200030430A KR20210114815A KR 20210114815 A KR20210114815 A KR 20210114815A KR 1020200030430 A KR1020200030430 A KR 1020200030430A KR 20200030430 A KR20200030430 A KR 20200030430A KR 20210114815 A KR20210114815 A KR 20210114815A
Authority
KR
South Korea
Prior art keywords
deep learning
mobile app
score
mobile
mobile terminal
Prior art date
Application number
KR1020200030430A
Other languages
Korean (ko)
Inventor
김호동
Original Assignee
김호동
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 김호동 filed Critical 김호동
Priority to KR1020200030430A priority Critical patent/KR20210114815A/en
Publication of KR20210114815A publication Critical patent/KR20210114815A/en

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63BAPPARATUS FOR PHYSICAL TRAINING, GYMNASTICS, SWIMMING, CLIMBING, OR FENCING; BALL GAMES; TRAINING EQUIPMENT
    • A63B71/00Games or sports accessories not covered in groups A63B1/00 - A63B69/00
    • A63B71/06Indicating or scoring devices for games or players, or for other sports activities
    • A63B71/0619Displays, user interfaces and indicating devices, specially adapted for sport equipment, e.g. display mounted on treadmills
    • A63B71/0669Score-keepers or score display devices
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63BAPPARATUS FOR PHYSICAL TRAINING, GYMNASTICS, SWIMMING, CLIMBING, OR FENCING; BALL GAMES; TRAINING EQUIPMENT
    • A63B71/00Games or sports accessories not covered in groups A63B1/00 - A63B69/00
    • A63B71/06Indicating or scoring devices for games or players, or for other sports activities
    • A63B71/0605Decision makers and devices using detection means facilitating arbitration
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
    • G06Q50/10Services
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63BAPPARATUS FOR PHYSICAL TRAINING, GYMNASTICS, SWIMMING, CLIMBING, OR FENCING; BALL GAMES; TRAINING EQUIPMENT
    • A63B2220/00Measuring of physical parameters relating to sporting activity
    • A63B2220/80Special sensors, transducers or devices therefor
    • A63B2220/806Video cameras
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63BAPPARATUS FOR PHYSICAL TRAINING, GYMNASTICS, SWIMMING, CLIMBING, OR FENCING; BALL GAMES; TRAINING EQUIPMENT
    • A63B2220/00Measuring of physical parameters relating to sporting activity
    • A63B2220/80Special sensors, transducers or devices therefor
    • A63B2220/808Microphones

Landscapes

  • Engineering & Computer Science (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Physics & Mathematics (AREA)
  • Business, Economics & Management (AREA)
  • Theoretical Computer Science (AREA)
  • Tourism & Hospitality (AREA)
  • General Physics & Mathematics (AREA)
  • Physical Education & Sports Medicine (AREA)
  • Biomedical Technology (AREA)
  • Artificial Intelligence (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Evolutionary Computation (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Computational Linguistics (AREA)
  • Human Computer Interaction (AREA)
  • Data Mining & Analysis (AREA)
  • Biophysics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Economics (AREA)
  • Human Resources & Organizations (AREA)
  • Marketing (AREA)
  • Primary Health Care (AREA)
  • Strategic Management (AREA)
  • General Business, Economics & Management (AREA)
  • Electrically Operated Instructional Devices (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)

Abstract

An objective of the present invention is to provide a deep learning-based score display system using a mobile application, which accurately records a score even without a referee or athletic staff, and an operation method thereof. According to the present invention, the deep learning-based score display system comprises: a mobile terminal capable of collecting images and sounds of athletic matches between players, teams, or users; a mobile application transmitting the image and sound received from the mobile terminal to a deep learning server and displaying an analysis result to the players, teams, or users; and a server providing a model for extracting, analyzing, and reading mixed features of the image and sound received from the mobile application, and storing results and history of the athletic matches.

Description

모바일 앱을 활용한 딥 러닝 기반의 점수 표시 시스템 및 동작 방법{Deep Learning based score display system and operation method using mobile app}Deep Learning based score display system and operation method using mobile app

본 발명은 모바일 앱을 활용한 딥 러닝(deep learning) 기반의 점수 표시 시스템 및 동작 방법을 제공하는 것이다. An object of the present invention is to provide a score display system and operation method based on deep learning using a mobile app.

보다 상세하게는 선수, 팀 혹은 사용자들이 운동 경기를 펼치면, 운동 경기에서 발생하는 영상과 소리를 모바일 단말기로 수집하고, 이를 딥 러닝으로 학습된 득점과 실점에서의 기준 영상과 소리와 비교하여, In more detail, when players, teams, or users play an athletic event, the video and sound generated from the athletic event are collected by a mobile terminal, and compared with the standard video and sound from the score and loss learned by deep learning,

그 점수 판정 결과를 모바일 앱에 표시하는 딥 러닝 기반의 점수 표시 시스템 및 동작 방법에 관한 것이다.It relates to a deep learning-based score display system and operation method for displaying the score determination result on a mobile app.

일반적으로 운동 경기의 점수 표시는 심판을 통해 진행하거나, 운동 경기 진행요원, 기록원, 혹은 규칙을 아는 사용간의 합의에 의해 진행된다. 점수 표시는 숫자 카드, 전자 점수판과 같은 매체를 이용해서 진행하며, 양 팀, 양 선수, 혹은 양 사용자 간의 획득점수를 표시한다. In general, the scoring of an athletic event is done by a referee or by agreement between an athletic event organizer, scorer, or a user who knows the rules. Scores are displayed using media such as number cards and electronic scoreboards, and the points earned between both teams, both players, or both users are displayed.

아울러 점수에 대한 판정은 대회의 규정이나 운동 경기를 주체하는 측에서 제공하는 규정을 적용하여 득점과 실점에 대해 심판 혹은 이에 해당하는 역할을 수행하는 사람의 판정으로 점수가 표시된다. In addition, the score is displayed by the judgment of a referee or a person who plays a corresponding role in scoring and conceding by applying the rules of the competition or the rules provided by the party in charge of the athletic event.

상기와 같은 점수 표시방식은 항상 점수를 판정하는 역할을 수행하는 사람과 점수 표시 매체가 필요하다.The score display method as described above requires a person who always plays a role in determining the score and a score display medium.

또한, 심판 역할을 수행하는 개인의 기준 해석과 판단에 따라 점수에 대한 판정결과가 다를 수 있다는 단점이 있다. In addition, there is a disadvantage that the judgment result for the score may be different depending on the standard interpretation and judgment of the individual serving as the judge.

위와 같은 단점을 극복하기 위해, 운동 경기 중에서 선수, 팀 혹은 사용자 간에 득점과 실점의 상황에서 발생하는 영상과 소리를 활용하여, 인공지능에 의해서 자동으로 점수를 판정하는 딥 러닝 기반의 점수 표시 시스템 및 동작 방법이 필요하다. In order to overcome the above shortcomings, a deep learning-based score display system that automatically determines the score by artificial intelligence using the video and sound generated in the situation of scoring and conceding between players, teams, or users during an athletic event; and You need a way to work.

국내등록특허 제10-2039584호 : 스마트 요가 매트를 이용한 기계학습 기반의 점수화 시스템 및 방법Domestic Registered Patent No. 10-2039584: Machine learning-based scoring system and method using smart yoga mat

최근 해외에서는 다양한 딥 러닝 응용을 시도하고 있다. Recently, various deep learning applications are being attempted abroad. 그러나 운동 경기 중에 발생한 영상과 소리의 혼합만으로 모바일 앱을 활용한 딥 러닝 기반의 점수 표시 시스템 및 동작 방법은 비특허 문헌도 찾을 수 가 없었다.However, no non-patent literature could be found for a deep learning-based score display system and operation method using a mobile app only by mixing video and sound generated during an athletic event.

본 발명은 상기와 같은 문제점을 해결하기 위하여 안출된 것으로, 선수, 팀 혹은 사용자 간의 운동 경기진행 과정에서 발생하는 영상과 소리를 수집하여, 딥 러닝으로 득점과 실점이 되는 점수 상황을 분류하여 그 판단 결과를 모바일 앱을 통해 선수, 팀 혹은 사용자에게 제공하기 위한 것이다.The present invention was devised to solve the above problems, by collecting images and sounds generated in the course of an athletic match between players, teams, or users, and classifying the scoring situation that results in scoring and loss by deep learning, and then determining it It is intended to provide results to players, teams or users via a mobile app.

상기한 과제를 해결하기 위하여, In order to solve the above problems,

본 발명에 따른 모바일 앱을 활용한 딥 러닝 기반의 점수 표시 시스템 및 동작 방법은 Deep learning-based score display system and operation method using a mobile app according to the present invention

선수, 팀 혹은 사용자 간의 운동 경기 영상과 소리를 수집할 수 있는 모바일 단말기와;a mobile terminal capable of collecting images and sounds of athletic matches between players, teams, or users;

상기 모바일 단말기로부터 전달받은 영상과 소리를 서버에 전송하고, 딥 러닝 학습 모델로 판정된 점수 결과를 표시하는 모바일 앱과; a mobile app for transmitting the image and sound received from the mobile terminal to a server, and displaying a score result determined by the deep learning learning model;

상기 모바일 앱에서 전송받은 영상과 소리에 대한 혼합된 특징을 추출하고 분석하여 점수를 판정하는 딥 러닝 학습 모델과 상기 선수, 팀 혹은 사용자들의 점수와 운동 경기 이력을 보관하는 서버를; a deep learning learning model for determining a score by extracting and analyzing the mixed features of the image and sound received from the mobile app, and a server for storing scores and athletic history of the players, teams or users;

포함하는 것을 특징으로 한다.characterized by including.

상기 딥 러닝 학습 모델은 사전에 기준이 되는 득점과 실점에 대한 영상과 소리를 딥 러닝 CNN(convolutional neural network)으로 학습시키고, 입력 영상과 소리가 들어오면 CNN 학습 모델에 의해 학습된 기준 영상과 소리들을 비교하여, 그 유사성으로 득점 여부를 판단한다.The deep learning learning model trains the image and sound for the standard score and loss in advance with a deep learning convolutional neural network (CNN), and when the input image and sound come in, the reference image and sound learned by the CNN learning model By comparing them, it is judged whether or not a score is scored based on the similarity.

기타 실시 예의 구체적인 사항들은 발명을 실시하기 위한 구체적인 내용 및 도면들에 포함되어 있다.The specific details of other embodiments are included in the specific contents and drawings for carrying out the invention.

본 발명의 해결수단에 의하면, 모바일 앱을 활용한 딥 러닝 기반의 점수 표시 시스템은 영상과 소리에 의해서만 자동적으로 판정이 되므로, 심판이나 운동 경기 진행요원이 없더라도 스코어를 정확하게 기록할 수 있으며 운동 경기를 원활하게 진행할 수 있는 장점이 있다.According to the solution of the present invention, since the deep learning-based score display system using a mobile app is automatically determined only by video and sound, it is possible to accurately record the score even if there is no referee or an athletic event facilitator. It has the advantage of running smoothly.

또한, 별도의 점수 기록 매체가 없어도 선수, 팀 혹은 사용자가 가지고 있는 모바일 앱을 통해 쉽게 표시가 가능하다.In addition, even if there is no separate score recording medium, players, teams, or users can easily display them through the mobile app they have.

또한, 선수, 팀 혹은 사용자들의 운동 경기 이력을 확인할 수 있어, 이를 통하여 자신의 운동 경기력이 지속적으로 향상되고 있는지를 파악할 수 있는 장점이 있다.In addition, it is possible to check the athletic performance history of players, teams, or users, so that it is possible to determine whether one's own athletic performance is continuously improved.

도 1은 본 발명의 실시 예에 따른 모바일 앱을 활용한 딥 러닝 기반의 점수 표시 시스템 및 동작 방법의 전체 개요도이다.
도 2는 본 발명의 실시 예에 따른 모바일 앱의 세부 구성도이다.
도 3는 본 발명의 실시 예에 따른 딥 러닝 서버의 세부 구성도이다.
도 4는 본 발명의 실시 예에 따른 관리 서버의 세부 구성도이다.
도 5은 본 발명의 실 시예에 따른 CNN 학습 모델의 기능 흐름을 나타낸 순서도이다.
도 6은 본 발명의 실시 예에 따른 CNN 학습 모델의 구조를 설명하기 위한 도면이다.
1 is an overall schematic diagram of a deep learning-based score display system and operation method using a mobile app according to an embodiment of the present invention.
2 is a detailed configuration diagram of a mobile app according to an embodiment of the present invention.
3 is a detailed configuration diagram of a deep learning server according to an embodiment of the present invention.
4 is a detailed configuration diagram of a management server according to an embodiment of the present invention.
5 is a flowchart illustrating a functional flow of a CNN learning model according to an embodiment of the present invention.
6 is a diagram for explaining the structure of a CNN learning model according to an embodiment of the present invention.

아래에서는 첨부한 도면을 참조하여 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자가 용이하게 실시할 수 있도록 본 발명의 실시 예를 상세히 설명한다.Hereinafter, embodiments of the present invention will be described in detail with reference to the accompanying drawings so that those of ordinary skill in the art can easily carry out the present invention.

그러나, 본 발명은 여러 가지 상이한 형태로 구현될 수 있으며 여기에서 설명하는 실시 예에 한정되지 않는다.However, the present invention may be embodied in various different forms and is not limited to the embodiments described herein.

그리고, 도면에서 본 발명을 명확하게 설명하기 위해서 설명과 관계없는 부분은 생략하였으며, 명세서 전체를 통하여 유사한 부분에 대해서는 유사한 도면 부호를 붙였다. 도면에서 동일 부분에 대해서는 동일 부호를 사용한다.And, in order to clearly explain the present invention in the drawings, parts irrelevant to the description are omitted, and similar reference numerals are attached to similar parts throughout the specification. In the drawings, the same reference numbers are used for the same parts.

또한, 본 발명을 설명함에 있어, 관련된 공지 구성 또는 기능에 대한 구체적인 설명이 본 발명의 요지를 흐릴 수 있다고 판단되는 경우에는 그 상세한 설명은 생략한다.In addition, in describing the present invention, if it is determined that a detailed description of a related known configuration or function may obscure the gist of the present invention, the detailed description thereof will be omitted.

발명의 상세한 설명 또는 특허 청구범위에서 어느 하나의 구성요소가 다른 구성요소를 "포함"한다고 할 때, 이는 특별히 반대되는 기재가 없는 한 당해 구성요소만으로 이루어지는 것으로 한정되어 해석되지 아니하며, 다른 구성요소들을 더 포함할 수 있는 것으로 이해되어야 한다.When it is said that any one component "includes" another component in the detailed description or claims of the invention, it is not construed as being limited to only the component unless otherwise stated, and other components are not It should be understood that more may be included.

또한, 본 발명의 구성 요소를 설명하는 데 있어서, “운동 경기”란 용어를 사용할 수 있다.In addition, in describing the components of the present invention, the term “athletic competition” may be used.

이러한 용어는 점수를 통해 승패를 가리는 각종 운동 경기를 나타내는 것으로 탁구, 테니스, 농구, 배구, 야구, 배드민턴 등의 공식적인 대회로만 한정되지 않는다. 이는 친선운동 경기, 연습운동 경기와 같이 선수, 팀 혹은 사용자들 간의 합의에 어떠한 형태의 운동 경기에도 적용될 수 도 있다고 이해되어야 할 것이다.These terms refer to various sporting events in which victory or defeat is determined through scores, and is not limited to official competitions such as table tennis, tennis, basketball, volleyball, baseball, and badminton. It should be understood that this may be applied to any type of athletic event as agreed upon between players, teams or users, such as friendly sports events and practice sports competitions.

또한, 본 발명의 구성 요소를 설명하는 데 있어서, “사용자”란 용어를 사용할 수 있다.In addition, in describing the components of the present invention, the term “user” may be used.

이러한 용어는 모바일 앱을 활용한 딥 러닝 기반의 점수 표시 시스템을 사용하는 사람으로서 선수, 심판, 진행요원, 기록원, 경기에 관련된 제3자나 이해당사자로도 적용될 수 도 있다고 이해되어야 할 것이다.It should be understood that these terms can also be applied to players, referees, facilitators, scorers, third parties or stakeholders involved in the game as a person who uses a deep learning-based score display system using a mobile app.

또한, 본 발명의 구성 요소를 설명하는 데 있어서, 모바일 앱(200)의 구현은 네이티브 앱(NATIVE APP), 모바일 웹(MOBILE WEB), 모바일 웹앱(MOBILE WEB APP), 하이브리드 앱(HYBRID APP)의 모바일 앱의 일반적인 응용 프로그램 구현방식을 적용할 수 있다. 이는 모바일 앱을 특정방식으로만 구현하는 것을 한정하지 않는다.In addition, in describing the components of the present invention, the implementation of the mobile app 200 is a native app (NATIVE APP), a mobile web (MOBILE WEB), a mobile web app (MOBILE WEB APP), a hybrid app (HYBRID APP) The general application implementation method of the mobile app can be applied. This does not limit the implementation of mobile apps in a specific way.

또한, 본 발명의 구성 요소를 설명하는 데 있어서, 딥 러닝 서버(310)와 관리 서버(320)는 논리적인 구분으로 물리적으로는 1개 이상의 서버로 구현할 수 있다.In addition, in describing the components of the present invention, the deep learning server 310 and the management server 320 may be physically implemented as one or more servers as a logical division.

또한, 본 발명의 구성 요소를 설명하는 데 있어서, 모바일 단말기(100)는 1개 이상으로 구성되며, 2대 이상으로 구성되는 경우는 각각 동일 상황에 대한 다른 각도에서의 영상과 소리를 수집하여 판단결과를 종합하는 형태로 구현할 수 있다.In addition, in explaining the components of the present invention, the mobile terminal 100 is composed of one or more, and when it is composed of two or more, images and sounds from different angles for the same situation are collected and determined. It can be implemented in the form of a synthesis of the results.

이하에서는 본 발명에 따른 모바일 앱을 활용한 딥 러닝 기반의 점수 표시 시스템 및 동작 방법이 구현된 일예를 첨부된 도면과 특정한 실시 예를 통하여 설명하기로 한다.Hereinafter, an example in which a deep learning-based score display system and an operating method using a mobile app according to the present invention are implemented will be described with reference to the accompanying drawings and specific embodiments.

상기 시스템은 탁구, 농구, 배구, 테니스, 배드민턴 등 각종 운동 경기에 동일한 방식으로 변경 가능할 것이며, 이하에서는 탁구 운동 경기에서의 실시 예로써 설명하기로 한다.The system may be changed in the same manner for various sports events such as table tennis, basketball, volleyball, tennis, and badminton, and will be described below as an embodiment in table tennis sports.

탁구 운동 경기의 점수 체계는 각 게임별로 세트와 각 세트 내에서의 득점 포인트(point)로 이루어진다. 탁구 운동 경기는 1 게임의 운동 경기 점수 구성이 3, 5, 7, 9 등의 홀수 개의 세트로 구성되고, 일반적으로 5 또는 7세트로 진행된다. 각 세트는 11점을 먼저 득점하거나 10대 10으로 동률을 이뤄 듀스가 된 경우, 먼저 연속으로 2점을 획득한 선수가 세트를 이기게 된다.The scoring system for table tennis sports consists of a set for each game and a scoring point within each set. In a table tennis sport, the score of one game is composed of odd sets of 3, 5, 7, 9, etc., and is generally performed in 5 or 7 sets. In each set, if the first to score 11 points or a 10-10 tie results in a deuce, the first player to score 2 points in a row wins the set.

도 1은 본 발명의 실시 예에 따른 모바일 앱을 활용한 딥 러닝 기반의 점수 표시 시스템의 전체 개요도이다.1 is an overall schematic diagram of a deep learning-based score display system using a mobile app according to an embodiment of the present invention.

상기 전체 개요도에서 나타낸 것처럼 모바일 앱을 활용한 딥 러닝 기반의 점수 표시 시스템은 모바일 단말기(100), 모바일 앱(200), 서버(300)를 포함한다.As shown in the overall schematic diagram, the deep learning-based score display system using a mobile app includes a mobile terminal 100 , a mobile app 200 , and a server 300 .

상기 모바일 앱(200)을 활용한 딥 러닝 기반의 점수 표시 시스템은 선수, 팀 혹은 사용자 간의 운동 경기에서 발생하는 영상과 소리를 이용하여, 딥 러닝으로 점수를 판단하여 그 결과를 선수, 팀 혹은 사용자에게 알려주는 시스템이다.The deep learning-based score display system using the mobile app 200 uses images and sounds generated in athletic competitions between players, teams, or users to determine the score by deep learning and displays the results to the players, teams, or users. It is a system that informs

상기 모바일 단말기(100)는 모바일 앱과 같은 응용 프로그램을 동작시킬 수 있는 컴퓨터 매체가 될 수 있다.The mobile terminal 100 may be a computer medium capable of operating an application program such as a mobile app.

아울러 서버(300)는 딥 러닝 학습 모델을 관리하는 딥 러닝 서버(310)와 선수, 팀 혹은 사용자별로 점수 이력을 관리하는 관리 서버(320)로 구성된다.In addition, the server 300 includes a deep learning server 310 that manages a deep learning learning model and a management server 320 that manages a score history for each player, team or user.

또한, 상기 모바일 앱(200)과 서버(300)와의 통신은 유선통신, 무선통신 또는 이동통신을 통해서 연결되어 통신 할 수 있다.In addition, communication between the mobile app 200 and the server 300 may be connected and communicated through wired communication, wireless communication, or mobile communication.

도 1을 참조하면, 선수, 팀 혹은 사용자 간의 운동 경기는 모바일 단말기(100)를 통해서 그 운동 경기에서 발생하는 영상과 소리를 수집하여, 모바일 앱(200)으로 전달될 수 있다. Referring to FIG. 1 , in an athletic competition between players, teams, or users, images and sounds generated in the sports competition may be collected through the mobile terminal 100 and transmitted to the mobile app 200 .

모바일 앱(200)에서는 사전에 학습된 딥 러닝 학습 모델을 이용하여 운동 경기 중에 발생하는 영상과 소리에서, 득점 혹은 실점이 되는 영상과 소리를 각각 매칭하여 점수 판정이 가능하다. In the mobile app 200, it is possible to determine a score by matching the image and sound that are scored or lost in the image and sound generated during the athletic event using the deep learning learning model learned in advance, respectively.

딥 러닝 학습 모델은 기준이 되는 득점과 실점에 관한 각종 영상과 소리를 모아서 사전에 딥 러닝 서버(310)에서 학습시킨다. 또한, 학습 모델은 영상에 딥 러닝 학습 모델과 소리에 대한 딥 러닝 학습 모델로 구분되어진다.The deep learning learning model collects various images and sounds related to a standard score and a loss and trains it in the deep learning server 310 in advance. In addition, the learning model is divided into a deep learning learning model for images and a deep learning learning model for sound.

도 5에서 도시된 바와 같이, 득점이나 실점의 점수 결과 판정은 영상으로만 판독이 가능한 경우, 소리로만 판독이 가능한 경우, 영상과 소리를 함께 이용해서 판독해야하는 경우로 구분하여 진행할 수 있다.As shown in FIG. 5 , the determination of the score result of a score or a loss can be performed by dividing it into a case in which reading is possible only with an image, a case where reading is possible only with sound, and a case where reading is required using both image and sound.

상기 학습 모델에서의 점수 판정을 위한 입력이 되는 운동 경기 영상과 소리는 실시간으로 수집되어 모바일 앱(200)으로 전달되어 입력되거나, 사전에 녹화된 운동 경기 영상과 소리를 모바일 앱(200)에서 선택하여 입력되게 할 수 있다.Athletics video and sound, which are input for score determination in the learning model, are collected in real time and transmitted to the mobile app 200 and input, or pre-recorded video and sound of an athletic event are selected from the mobile app 200 so it can be entered.

상기 서버(300)에서 관리하고 있는 딥 러닝 학습 모델은 탁구 운동 경기에서 발생하는 영상과 소리에서 득점이 되는 상황과 실점이 되는 상황에서의 특징을 추출하고 분석하여, 그 입력 영상과 소리에 대해 득점이나 실점의 기준 영상이나 기준 소리와의 오차를 검출해서 이를 선수, 팀 혹은 사용자에게 해석된 결과로 모바일 앱을 통하여 제공해준다.The deep learning learning model managed by the server 300 extracts and analyzes features in a situation where a score is scored from an image and sound generated in a table tennis game and a situation where a score is scored, and scores for the input image and sound It detects the error between the standard image or the standard sound of a goal or loss and provides it to the player, team, or user as an interpreted result through the mobile app.

상기 딥 러닝 학습 모델은 영상과 소리에 대해 각각 따로 분류할 수 있는 별도의 CNN 학습 모델(312)을 사용하며, 득점과 실점의 기준 영상과 소리는 각각 독립된 형태로 학습시킬 수 있다.The deep learning learning model uses a separate CNN learning model 312 that can separately classify images and sounds, and can learn the reference images and sounds of scoring and missing points in an independent form.

아울러 사전에 해당 영상과 소리별로 어떤 부분이 득점이고 실점인지에 대한 안내사항도 별도 정보로 연결해놓고, 이를 모바일 앱(200)을 통해 제공할 수 있다.In addition, information on which parts are scored and lost for each video and sound may be connected as separate information in advance, and this may be provided through the mobile app 200 .

이와 같이 딥 러닝에 의해 판단되는 기준 영상과 소리들은 운동 경기에서 발생하는 영상과 소리에 대한 여러 유형별로 득점과 실점을 모두를 식별할 수 있는 영상과 소리들이고, 입력 영상이 들어오면 딥 러닝 CNN 학습 모델(312)에서 자동으로 매핑 하여 그 입력 영상을 분류해준다.In this way, the reference images and sounds judged by deep learning are images and sounds that can identify both scores and losses by various types of images and sounds occurring in athletic events, and when an input image is received, deep learning CNN learning The model 312 automatically maps and classifies the input image.

상기 CNN 학습 모델(312)의 분류를 위한 계산 작업은 모바일 앱(200)이 탑재된 모바일 단말기(100)내의 모바일 앱(200)에서 수행할 수 도 있고, 서버(300)에서 계산하여 그 결과만 모바일 단말기(100)의 모바일 앱(200)으로 전달할 수도 있다.The calculation work for classification of the CNN learning model 312 may be performed in the mobile app 200 in the mobile terminal 100 on which the mobile app 200 is mounted, and only the result calculated by the server 300 It may be delivered to the mobile app 200 of the mobile terminal 100 .

또한, 상기 모바일 앱(200)은 관리 서버(320)에서 직접 다운로드 경로를 제공하거나, In addition, the mobile app 200 provides a direct download path from the management server 320, or

응용 소프트웨어 다운로드 서비스(예를 들어, 앱 스토어 혹은 플레이 스토어 등)를 통하여 제공하는 것으로, 선수, 팀 혹은 사용자는 유선통신, 무선통신 또는 이동통신을 통하여 각자의 모바일 단말기(100)에 다운받을 수 있다.It is provided through an application software download service (eg, App Store or Play Store, etc.), and players, teams, or users can download it to their respective mobile terminals 100 through wired communication, wireless communication, or mobile communication. .

그러면, 선수, 팀 혹은 사용자는 자신의 모바일 단말기(100)에서 모바일 앱(200)을 다운로드 받을 지의 여부를 결정하여 다운로드를 받으면 된다.Then, the player, the team, or the user decides whether to download the mobile app 200 from his/her mobile terminal 100 and receives the download.

도 2에서 각각 도시된 바와 같이, 상기 모바일 앱(200)에서는 선수, 팀 혹은 사용자별로 자신의 운동 경기 점수 내용과 이력을 관리하기위한 사용자 로그인(211, 221) 기능을 구성한다.As shown in FIG. 2 , the mobile app 200 configures user log-in functions 211 and 221 for managing the content and histories of their own athletic competition scores for each player, team, or user.

도 4에서 도시된 바와 같이, 사용자 로그인(211, 221)의 요청이 일어나면 요청받은 사용자가 정당한 사용자인지는 관리 서버(320)에서 사용자 인증부(321)를 통해 제공된다.As shown in FIG. 4 , when a request for user logins 211 and 221 occurs, whether the requested user is a legitimate user is provided through the user authentication unit 321 in the management server 320 .

영상 수신부(212, 222)에서는 모바일 단말기(100)에서 실시간으로 촬영되는 영상이나 선수, 팀 혹은 사용자가 선택한 녹화 영상을 보여주고, 마찬가지로 소리 수신부(213, 223)에서는 모바일 단말기(100)에서 실시간으로 수집된 소리나 선수, 팀 혹은 사용자가 선택한 녹화 동영상에서 나오는 소리를 들려준다.The video receivers 212 and 222 show images captured in real time by the mobile terminal 100 or recorded images selected by a player, team, or user. It plays the collected sounds or sounds from recorded videos selected by players, teams or users.

상기 모바일 앱(200)의 점수 표시부(214, 224)에서는 딥 러닝에 의해 판단된 기준 영상과 소리로 점수를 표시할 수 있다. The score display units 214 and 224 of the mobile app 200 may display the score as a reference image and sound determined by deep learning.

아울러 상기 선수, 팀 혹은 사용자에게 표시되는 점수 정보는 개별 이력을 관리하기 위해서 점수 정보 저장(215, 225) 기능을 통하여 관리 서버(320)에 저장된다.In addition, the score information displayed to the player, team, or user is stored in the management server 320 through the score information storage (215, 225) function in order to manage individual histories.

따라서, 상기 선수, 팀 혹은 사용자는 데이터베이스에 저장된 자신의 사용자 경기이력(322)을 언제든지 모바일 앱(200)을 통해 볼 수 있다.Accordingly, the player, team, or user can view his/her user game history 322 stored in the database at any time through the mobile app 200 .

상기 관리 서버(320)의 모바일 앱 제공부(323)에서는 모바일 앱(200)를 통해 운동 경기 점수 분석 및 축적된 데이터 이력을 활용한 다양한 통계 분석을 제공 할 수 있고, 선수, 팀 혹은 사용자가 활용할 수 있는 원시 이력 자료로도 제공할 수 있다.The mobile app providing unit 323 of the management server 320 may provide various statistical analyzes using the athletic score analysis and accumulated data history through the mobile app 200, and may be utilized by players, teams or users. It can also be provided as raw historical data.

예를 들면, 선수, 팀 혹은 사용자들 간에 진행된 운동 경기 내역에 대해서는 데이터베이스에 저장되어있으므로, 해당 데이터를 활용하여 운동 경기 변화 추이를 제공과 같은 정보제공이 가능하다. 또한, 자주 발생하는 실점 영상이라든지, 선수, 팀 혹은 사용자별 주요 득점 포인트에 대한 영상과 소리를 매칭 시켜서 표시하게 하는 것이다.For example, since it is stored in the database about the history of athletic matches between players, teams, or users, it is possible to provide information such as providing changes in athletics by using the data. In addition, it is to match the video and sound of the frequently occurring loss video or the main scoring point for each player, team, or user, and display it.

입력 영상과 득점 혹은 실점이 되는 기준 영상과 의 유사성 판정은 오차 범위로 식별된다. 해당 오차범위는 선수, 팀 혹은 사용자 혹은 관리자가 임의로 기준을 세워 설정할 수 있다. 예를 들어 5%로 기준 오차를 설정하면, 95%의 유사성을 가져야 동일한 영상으로 판별하는 것이다. 이와 같은 오차는 지속적인 학습과 보정작업을 통해 그 정확도를 향상시킬 수 있다.The similarity determination between the input image and the reference image to be scored or lost is identified as an error range. The error range can be set by a player, team, user, or manager by setting a standard arbitrarily. For example, if the reference error is set to 5%, the same image must be identified as having a similarity of 95%. Such an error can improve its accuracy through continuous learning and correction.

또한, 도 3에서 도시된 바와 같이, 딥 러닝 서버(310)에서는 딥 러닝으로 사용되는 CNN 학습 모델(312)과 학습 데이터에 대한 관리부(311)가 구성된다. 학습 데이터 관리부(311)는 영상의 판단 기준이 되는 득점과 실점에 있어서의 영상과 소리를 유형별로 이미지 데이터로 보관한다. In addition, as shown in FIG. 3 , the deep learning server 310 includes a CNN learning model 312 used for deep learning and a management unit 311 for learning data. The learning data management unit 311 stores images and sounds in scores and losses, which are the criteria for determining images, as image data for each type.

또한, CNN 학습 모델(312)은 가장 최근까지 수집된 기준 영상과 소리로 학습된 CNN 모델에 대한 가중치, 노드수, Layer 수, 임계치, 목적 함수, 활성화 함수에 관한 정보들을 저장하고 있다.In addition, the CNN learning model 312 stores information about weights, the number of nodes, the number of layers, the threshold, the objective function, and the activation function for the CNN model learned from the most recently collected reference image and sound.

CNN 학습 모델(312)들은 학습 모델 관리부(313)를 통하여 버전별로 그 생성된 이력을 관리하여, 선수, 팀 혹은 사용자 혹은 관리자에게 가장 적합한 형태의 학습 모델을 학습 모델 제공부(314)를 통해 선택할 수 있게 제공해준다.The CNN learning models 312 manage the generated histories for each version through the learning model management unit 313 , and select the most suitable learning model for the player, team, user, or manager through the learning model providing unit 314 . provide you with

또한, 도 5에서 도시된 바와 같이 CNN 학습 모델(312)은 영상과 소리에 대해 각각 데이터를 Matrix형태의 수치로 변환되는 입력부, 그 변환된 수치를 통해서 득점과 실점의 특징을 축출하는 부분, 분류하는 부분, 그리고 최종적으로 운동 자세에 대한 분류를 제공해주는 결과부로 구성되어있다. 그리고 영상 학습모델 혹은 소리 학습모델에서 독자적인 판단이 어려운 경우에는 양쪽의 결과를 합쳐서 AND 조건 혹은 OR 조건으로 혼합판단을 수행한다.In addition, as shown in FIG. 5, the CNN learning model 312 is an input unit that converts data into a matrix-type numerical value for image and sound, respectively, a part that extracts the features of scoring and loss through the converted numerical value, classification It consists of a part to do, and a result part that provides classification for exercise postures. And when independent judgment is difficult in the video learning model or the sound learning model, mixed judgment is performed using the AND condition or OR condition by combining the results of both sides.

예를 들면, 탁구공이 라켓핸드가 아닌 몸에 맞은 경우, 혹은 탁구공이 네트에 닿아 못 넘긴 경우의 영상은 실점 영상으로 분류할 수 있고, 탁구공이 탁구대가 아닌 운동 경기장 바닥에 부딪히는 경우에는 실점 소리로 분류할 수 있다. 또한, 러버를 붙이지 않은 라켓 면으로 탁구공을 처 넘긴 경우는 탁구공을 라켓으로 칠 때의 영상과 소리를 혼합하여 실점여부를 판정할 수 도 있다.For example, an image when a ping-pong ball hits the body other than the racquet hand or when the ping-pong ball hits the net and fails to pass can be classified as a loss video. can be classified. In addition, if the ping-pong ball is thrown over the racquet side without a rubber attached, it is possible to determine whether a score has been scored by mixing the image and sound of hitting the ping-pong ball with the racquet.

그 외에도 상대가 서브나 리턴에 실패한 경우. 상대가 서브나 리턴을 한 공이 자신의 코트에 바운드 되기 전에 네트 이외의 곳에 맞을 경우. 상대가 친 공이 바운드 되지 않고 코트를 넘어간 경우. 상대가 공을 가린 경우. 상대가 공을 연속해서 두 번 친 경우. 상대가 탁구대를 움직이게 만들거나 네트를 건드린 경우. 상대가 라켓을 들지 않은 쪽 손으로 탁구대를 건드린 경우와 같은 상황에서의 영상과 소리를 사전에 학습시켜놓을 수 있다.Other than that, if your opponent fails to serve or return. When the ball, served or returned by the opponent, hits outside the net before it is bound to his court. When the opponent's ball crosses the court without bouncing. If your opponent blocks the ball. Your opponent hits the ball twice in a row. If your opponent makes the ping-pong table move or touches the net. You can learn the video and sound in advance in situations such as when the opponent touches the table tennis table with the hand that does not hold the racket.

도 6은 본 발명의 실시 예에 따른 딥 러닝 CNN 학습 모델(312) 구조의 노드에서부터의 계산 과정을 도시한 모식도이다.6 is a schematic diagram illustrating a calculation process from a node of the deep learning CNN learning model 312 structure according to an embodiment of the present invention.

도 6에 도시된 바와 같이, 본 발명의 실시 예에 따른 CNN 학습 모델(312)은 다층 신경망 구조로 합성곱층과 풀링층이 여러 겹 쌓여있는 구조로 되어있다.As shown in FIG. 6 , the CNN learning model 312 according to an embodiment of the present invention is a multi-layer neural network structure in which a convolution layer and a pooling layer are stacked several times.

또한, 최종적으로 추출된 특징을 잘 학습해서 이미지를 알맞은 카테고리로 분류하는 영역은 완전 연결 계층(Fully Connected)으로 모두 연결되어있다. 이는 영상과 소리의 분류에 적합 하게 사용될 수 있다.In addition, the regions that classify images into appropriate categories by learning the finally extracted features well are all connected in a fully connected layer. This can be used appropriately for the classification of images and sounds.

이상, 본 발명의 특정 실시를 통하여 본 발명의 기술적 사상을 살펴보았다.Above, the technical idea of the present invention has been reviewed through specific implementations of the present invention.

또한, 비록 명시적으로 도시되거나 설명되지 아니하였다 하여도 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자가 본 발명의 기재사항으로부터 본 발명에 의한 기술적 사상을 포함하는 다양한 형태의 변형을 할 수 있음은 자명하며, 이는 여전히 본 발명의 권리범위에 속한다.In addition, even if not explicitly shown or described, a person of ordinary skill in the art to which the present invention pertains may make various modifications including the technical idea according to the present invention from the description of the present invention. is self-evident, which still falls within the scope of the present invention.

첨부하는 도면을 참조하여 설명된 상기의 실시 예들은 본 발명을 설명하기 위한 목적으로 기술된 것이며 본 발명의 권리범위는 이러한 실시 예에 국한되지 아니한다.The above embodiments described with reference to the accompanying drawings have been described for the purpose of explaining the present invention, and the scope of the present invention is not limited to these embodiments.

100 : 사용자 디바이스
110 : 모바일 단말기
120 : 개인용 컴퓨터
200 : 모바일 앱
211 : 사용자 로그인
212 : 영상 수신부
213 : 소리 수신부
214 : 점수 표시부
215 : 점수 정보 저장
300 : 서버
310 : 딥 러닝 서버
311 : 학습 데이터 관리부
312 : CNN 학습 모델
313 : 학습 모델 관리부
314 : 학습 모델 제공부
320 : 관리 서버
321 : 사용자 인증부
322 : 사용자 운동 경기이력
323 : 모바일 앱 제공부
100: user device
110: mobile terminal
120: personal computer
200 : mobile app
211 : user login
212: video receiver
213: sound receiver
214: score display unit
215: save score information
300 : server
310: Deep Learning Server
311: learning data management unit
312: CNN learning model
313: learning model management unit
314: learning model providing unit
320: management server
321: user authentication unit
322: user exercise history
323: mobile app provider

Claims (6)

카메라와 마이크로폰을 통하여 선수, 팀 혹은 사용자 간의 운동 경기 영상과 소리를 모바일 단말기와;
상기 모바일 단말기로부터 전달받은 영상과 소리를 서버에 전송하고, 그 판정 결과를 선수, 팀 혹은 사용자와 모바일 단말기에게 제공하는 모바일 앱과;
상기 모바일 앱에서 전달받은 영상과 소리에 대한 혼합된 특징을 추출하고 분석하여 득점과 실점을 판정하는 딥 러닝 학습 모델을 제공하고, 상기 운동 경기의 결과와 이력을 저장하는 서버를;
포함하는 것을 특징으로 하는 모바일 앱을 활용한 딥 러닝 기반의 점수 표시 시스템 및 동작 방법.
Through the camera and microphone, the video and sound of the sports game between players, teams, or users with the mobile terminal;
a mobile app for transmitting the image and sound received from the mobile terminal to a server, and providing the determination result to a player, team, or user and a mobile terminal;
a server that provides a deep learning learning model for determining a score and a loss by extracting and analyzing the mixed features of the image and sound received from the mobile app, and storing the results and history of the athletic game;
Deep learning-based score display system and operation method using a mobile app, characterized in that it includes.
제1항에 있어서,
상기 모바일 앱은
모바일 단말기로부터 전달받은 영상과 소리를 서버에 전송하고, 득점과 실점의 판정 결과를 선수, 팀 혹은 사용자에게 제공하는 것을 특징으로 하는 모바일 앱 형태의 응용 프로그램.
According to claim 1,
The mobile app is
An application in the form of a mobile app, characterized in that it transmits the video and sound received from the mobile terminal to the server, and provides the result of scoring and conceding to a player, team, or user.
제1항에 있어서,
상기 서버는
상기 모바일 앱에서 전달받은 영상과 소리에 대한 혼합된 특징을 딥 러닝 학습모델로 분석하여 득점과 실점을 판정하는 모델을 제공하고, 상기 운동 경기의 결과와 이력을 제공하는 것을 특징을 가진 시스템.
According to claim 1,
the server
A system characterized in that it analyzes the mixed features of the image and the sound received from the mobile app with a deep learning learning model to provide a model for judging scores and losses, and provides the results and history of the athletic event.
모바일 단말기를 통하여 운동 경기 영상과 소리를 수집하는 제 1 단계;
상기 모바일 단말기로부터 수집한 영상과 소리를 서버에 전송하고, 딥 러닝에 의한 득점과 실점의 판정 결과를 선수, 팀 혹은 사용자의 모바일 앱에게 제공하는 제 2 단계;
상기 모바일 앱을 통해 전달받은 영상과 소리에 대한 혼합된 특징을 추출하고 분석하여 득점과 실점을 판정하는 딥 러닝 학습 모델을 제공하고, 상기 운동 경기의 결과와 이력을 보관하는 제 3 단계를;
더 포함하는 것을 특징으로 하는 모바일 앱을 활용한 딥 러닝 기반의 점수 표시 동작 방법.
A first step of collecting sports video and sound through a mobile terminal;
a second step of transmitting the images and sounds collected from the mobile terminal to a server, and providing the results of scoring and conceding by deep learning to a mobile app of a player, team or user;
A third step of extracting and analyzing the mixed features of the image and sound received through the mobile app to provide a deep learning learning model that determines the score and the loss, and storing the results and history of the athletic game;
Deep learning-based score display operation method using a mobile app, characterized in that it further comprises.
제 4 항에 있어서,
상기 모바일 앱을 활용한 딥 러닝 기반의 점수 표시 동작 방법은,
상기 제 1 단계 이후에,
상기 모바일 단말기로부터 전달받은 영상과 소리를 서버에 전송하고,
딥 러닝에 의한 득점과 실점의 판정 결과를 모바일 앱을 통하여 선수, 팀 혹은 사용자와 모바일 단말기에게 제공하는 단계를;
더 포함하는 것을 특징으로 하는 동작 방법.
5. The method of claim 4,
The deep learning-based score display operation method using the mobile app is,
After the first step,
Transmitting the image and sound received from the mobile terminal to the server,
providing a score and loss determination result by deep learning to a player, a team, or a user and a mobile terminal through a mobile app;
Method of operation, characterized in that it further comprises.
제 4 항에 있어서,
상기 모바일 앱을 활용한 딥 러닝 기반의 점수 표시 동작 방법은,
상기 제 2 단계 이후에,
상기 모바일 앱을 통해 전달받은 영상과 소리에 대한 혼합된 특징을 추출하고 분석하여 득점과 실점을 판정하는 딥 러닝 학습 모델을 제공하고, 상기 운동 경기의 결과와 이력을 보관하는 단계를;
더 포함하는 것을 특징으로 하는 동작 방법.
5. The method of claim 4,
The deep learning-based score display operation method using the mobile app is,
After the second step,
providing a deep learning learning model that extracts and analyzes mixed features of images and sounds delivered through the mobile app to determine a score and a loss, and storing the results and history of the athletic game;
Method of operation, characterized in that it further comprises.
KR1020200030430A 2020-03-11 2020-03-11 Deep Learning based score display system and operation method using mobile app KR20210114815A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020200030430A KR20210114815A (en) 2020-03-11 2020-03-11 Deep Learning based score display system and operation method using mobile app

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020200030430A KR20210114815A (en) 2020-03-11 2020-03-11 Deep Learning based score display system and operation method using mobile app

Publications (1)

Publication Number Publication Date
KR20210114815A true KR20210114815A (en) 2021-09-24

Family

ID=77914763

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020200030430A KR20210114815A (en) 2020-03-11 2020-03-11 Deep Learning based score display system and operation method using mobile app

Country Status (1)

Country Link
KR (1) KR20210114815A (en)

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102039584B1 (en) 2018-04-12 2019-11-01 고려대학교 세종산학협력단 System and Method for Machine Learning-based Scoring Using Smart Yoga Mat

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102039584B1 (en) 2018-04-12 2019-11-01 고려대학교 세종산학협력단 System and Method for Machine Learning-based Scoring Using Smart Yoga Mat

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
그러나 운동 경기 중에 발생한 영상과 소리의 혼합만으로 모바일 앱을 활용한 딥 러닝 기반의 점수 표시 시스템 및 동작 방법은 비특허 문헌도 찾을 수 가 없었다.
최근 해외에서는 다양한 딥 러닝 응용을 시도하고 있다.

Similar Documents

Publication Publication Date Title
US11717737B2 (en) Athletic training system and method
KR102061485B1 (en) Management server, system and method for sports game
JP2011505202A5 (en)
US20150018988A1 (en) System and method for player performance evaluation
US8996446B2 (en) Sensory testing data analysis by categories
CN108905095B (en) Athlete competition state evaluation method and equipment
KR20210139021A (en) Sports Game Management System for Matches among Members
US20230050335A1 (en) Cricket game intelligent bot umpire for automated umpiring and scoring decisions during cricket match
KR20210114155A (en) Smart scoring system and operation method based on deep learning
US20140330412A1 (en) Computerized interactive sports system and a method of assessing sports skills of users
KR20210114815A (en) Deep Learning based score display system and operation method using mobile app
US20170124155A1 (en) Sports data matching system and method
Khurana et al. Beyond adaptive sports: challenges & opportunities to improve accessibility and analytics
US20240046763A1 (en) Live event information display method, system, and apparatus
US20190171679A1 (en) International Athletic Scouting Combines
KR20210117385A (en) Table tennis target training system and operation method using artificial intelligence
US20130113607A1 (en) Rfid object location system and method
Toleikis Elite men's basketball teams offensive outcomes analysis
Primo et al. Beantragung einer Analyse des Challenge-Erfolgs durch kontextuelle Variablen beim Elite-Badminton
KR20160082164A (en) Internet coaching staff for game information database system providing ball games
Lund et al. Temporal Description of the Stolen Base in High School Softball.
SIERKSMA The problem of increasing densities of top level performances: Goulds Hypothesis