KR20210114815A - Deep Learning based score display system and operation method using mobile app - Google Patents
Deep Learning based score display system and operation method using mobile app Download PDFInfo
- Publication number
- KR20210114815A KR20210114815A KR1020200030430A KR20200030430A KR20210114815A KR 20210114815 A KR20210114815 A KR 20210114815A KR 1020200030430 A KR1020200030430 A KR 1020200030430A KR 20200030430 A KR20200030430 A KR 20200030430A KR 20210114815 A KR20210114815 A KR 20210114815A
- Authority
- KR
- South Korea
- Prior art keywords
- deep learning
- mobile app
- score
- mobile
- mobile terminal
- Prior art date
Links
- 238000013135 deep learning Methods 0.000 title claims abstract description 52
- 238000000034 method Methods 0.000 title claims abstract description 19
- 230000000386 athletic effect Effects 0.000 claims abstract description 30
- 239000000284 extract Substances 0.000 claims description 3
- 238000004458 analytical method Methods 0.000 abstract description 2
- 238000013527 convolutional neural network Methods 0.000 description 16
- 238000007726 management method Methods 0.000 description 11
- 238000010586 diagram Methods 0.000 description 8
- 238000004891 communication Methods 0.000 description 5
- 230000006870 function Effects 0.000 description 5
- 230000037147 athletic performance Effects 0.000 description 2
- 238000004364 calculation method Methods 0.000 description 2
- 238000013523 data management Methods 0.000 description 2
- VJYFKVYYMZPMAB-UHFFFAOYSA-N ethoprophos Chemical compound CCCSP(=O)(OCC)SCCC VJYFKVYYMZPMAB-UHFFFAOYSA-N 0.000 description 2
- 238000010295 mobile communication Methods 0.000 description 2
- 230000004913 activation Effects 0.000 description 1
- 238000013473 artificial intelligence Methods 0.000 description 1
- 238000013528 artificial neural network Methods 0.000 description 1
- 230000008901 benefit Effects 0.000 description 1
- 230000015572 biosynthetic process Effects 0.000 description 1
- 238000012937 correction Methods 0.000 description 1
- 238000010801 machine learning Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000011017 operating method Methods 0.000 description 1
- 238000011176 pooling Methods 0.000 description 1
- 230000036544 posture Effects 0.000 description 1
- 230000008569 process Effects 0.000 description 1
- 238000001454 recorded image Methods 0.000 description 1
- 238000003786 synthesis reaction Methods 0.000 description 1
Images
Classifications
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63B—APPARATUS FOR PHYSICAL TRAINING, GYMNASTICS, SWIMMING, CLIMBING, OR FENCING; BALL GAMES; TRAINING EQUIPMENT
- A63B71/00—Games or sports accessories not covered in groups A63B1/00 - A63B69/00
- A63B71/06—Indicating or scoring devices for games or players, or for other sports activities
- A63B71/0619—Displays, user interfaces and indicating devices, specially adapted for sport equipment, e.g. display mounted on treadmills
- A63B71/0669—Score-keepers or score display devices
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63B—APPARATUS FOR PHYSICAL TRAINING, GYMNASTICS, SWIMMING, CLIMBING, OR FENCING; BALL GAMES; TRAINING EQUIPMENT
- A63B71/00—Games or sports accessories not covered in groups A63B1/00 - A63B69/00
- A63B71/06—Indicating or scoring devices for games or players, or for other sports activities
- A63B71/0605—Decision makers and devices using detection means facilitating arbitration
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q50/00—Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
- G06Q50/10—Services
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63B—APPARATUS FOR PHYSICAL TRAINING, GYMNASTICS, SWIMMING, CLIMBING, OR FENCING; BALL GAMES; TRAINING EQUIPMENT
- A63B2220/00—Measuring of physical parameters relating to sporting activity
- A63B2220/80—Special sensors, transducers or devices therefor
- A63B2220/806—Video cameras
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63B—APPARATUS FOR PHYSICAL TRAINING, GYMNASTICS, SWIMMING, CLIMBING, OR FENCING; BALL GAMES; TRAINING EQUIPMENT
- A63B2220/00—Measuring of physical parameters relating to sporting activity
- A63B2220/80—Special sensors, transducers or devices therefor
- A63B2220/808—Microphones
Landscapes
- Engineering & Computer Science (AREA)
- General Health & Medical Sciences (AREA)
- Health & Medical Sciences (AREA)
- Physics & Mathematics (AREA)
- Business, Economics & Management (AREA)
- Theoretical Computer Science (AREA)
- Tourism & Hospitality (AREA)
- General Physics & Mathematics (AREA)
- Physical Education & Sports Medicine (AREA)
- Biomedical Technology (AREA)
- Artificial Intelligence (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- General Engineering & Computer Science (AREA)
- Evolutionary Computation (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Computational Linguistics (AREA)
- Human Computer Interaction (AREA)
- Data Mining & Analysis (AREA)
- Biophysics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Economics (AREA)
- Human Resources & Organizations (AREA)
- Marketing (AREA)
- Primary Health Care (AREA)
- Strategic Management (AREA)
- General Business, Economics & Management (AREA)
- Electrically Operated Instructional Devices (AREA)
- Management, Administration, Business Operations System, And Electronic Commerce (AREA)
Abstract
Description
본 발명은 모바일 앱을 활용한 딥 러닝(deep learning) 기반의 점수 표시 시스템 및 동작 방법을 제공하는 것이다. An object of the present invention is to provide a score display system and operation method based on deep learning using a mobile app.
보다 상세하게는 선수, 팀 혹은 사용자들이 운동 경기를 펼치면, 운동 경기에서 발생하는 영상과 소리를 모바일 단말기로 수집하고, 이를 딥 러닝으로 학습된 득점과 실점에서의 기준 영상과 소리와 비교하여, In more detail, when players, teams, or users play an athletic event, the video and sound generated from the athletic event are collected by a mobile terminal, and compared with the standard video and sound from the score and loss learned by deep learning,
그 점수 판정 결과를 모바일 앱에 표시하는 딥 러닝 기반의 점수 표시 시스템 및 동작 방법에 관한 것이다.It relates to a deep learning-based score display system and operation method for displaying the score determination result on a mobile app.
일반적으로 운동 경기의 점수 표시는 심판을 통해 진행하거나, 운동 경기 진행요원, 기록원, 혹은 규칙을 아는 사용간의 합의에 의해 진행된다. 점수 표시는 숫자 카드, 전자 점수판과 같은 매체를 이용해서 진행하며, 양 팀, 양 선수, 혹은 양 사용자 간의 획득점수를 표시한다. In general, the scoring of an athletic event is done by a referee or by agreement between an athletic event organizer, scorer, or a user who knows the rules. Scores are displayed using media such as number cards and electronic scoreboards, and the points earned between both teams, both players, or both users are displayed.
아울러 점수에 대한 판정은 대회의 규정이나 운동 경기를 주체하는 측에서 제공하는 규정을 적용하여 득점과 실점에 대해 심판 혹은 이에 해당하는 역할을 수행하는 사람의 판정으로 점수가 표시된다. In addition, the score is displayed by the judgment of a referee or a person who plays a corresponding role in scoring and conceding by applying the rules of the competition or the rules provided by the party in charge of the athletic event.
상기와 같은 점수 표시방식은 항상 점수를 판정하는 역할을 수행하는 사람과 점수 표시 매체가 필요하다.The score display method as described above requires a person who always plays a role in determining the score and a score display medium.
또한, 심판 역할을 수행하는 개인의 기준 해석과 판단에 따라 점수에 대한 판정결과가 다를 수 있다는 단점이 있다. In addition, there is a disadvantage that the judgment result for the score may be different depending on the standard interpretation and judgment of the individual serving as the judge.
위와 같은 단점을 극복하기 위해, 운동 경기 중에서 선수, 팀 혹은 사용자 간에 득점과 실점의 상황에서 발생하는 영상과 소리를 활용하여, 인공지능에 의해서 자동으로 점수를 판정하는 딥 러닝 기반의 점수 표시 시스템 및 동작 방법이 필요하다. In order to overcome the above shortcomings, a deep learning-based score display system that automatically determines the score by artificial intelligence using the video and sound generated in the situation of scoring and conceding between players, teams, or users during an athletic event; and You need a way to work.
본 발명은 상기와 같은 문제점을 해결하기 위하여 안출된 것으로, 선수, 팀 혹은 사용자 간의 운동 경기진행 과정에서 발생하는 영상과 소리를 수집하여, 딥 러닝으로 득점과 실점이 되는 점수 상황을 분류하여 그 판단 결과를 모바일 앱을 통해 선수, 팀 혹은 사용자에게 제공하기 위한 것이다.The present invention was devised to solve the above problems, by collecting images and sounds generated in the course of an athletic match between players, teams, or users, and classifying the scoring situation that results in scoring and loss by deep learning, and then determining it It is intended to provide results to players, teams or users via a mobile app.
상기한 과제를 해결하기 위하여, In order to solve the above problems,
본 발명에 따른 모바일 앱을 활용한 딥 러닝 기반의 점수 표시 시스템 및 동작 방법은 Deep learning-based score display system and operation method using a mobile app according to the present invention
선수, 팀 혹은 사용자 간의 운동 경기 영상과 소리를 수집할 수 있는 모바일 단말기와;a mobile terminal capable of collecting images and sounds of athletic matches between players, teams, or users;
상기 모바일 단말기로부터 전달받은 영상과 소리를 서버에 전송하고, 딥 러닝 학습 모델로 판정된 점수 결과를 표시하는 모바일 앱과; a mobile app for transmitting the image and sound received from the mobile terminal to a server, and displaying a score result determined by the deep learning learning model;
상기 모바일 앱에서 전송받은 영상과 소리에 대한 혼합된 특징을 추출하고 분석하여 점수를 판정하는 딥 러닝 학습 모델과 상기 선수, 팀 혹은 사용자들의 점수와 운동 경기 이력을 보관하는 서버를; a deep learning learning model for determining a score by extracting and analyzing the mixed features of the image and sound received from the mobile app, and a server for storing scores and athletic history of the players, teams or users;
포함하는 것을 특징으로 한다.characterized by including.
상기 딥 러닝 학습 모델은 사전에 기준이 되는 득점과 실점에 대한 영상과 소리를 딥 러닝 CNN(convolutional neural network)으로 학습시키고, 입력 영상과 소리가 들어오면 CNN 학습 모델에 의해 학습된 기준 영상과 소리들을 비교하여, 그 유사성으로 득점 여부를 판단한다.The deep learning learning model trains the image and sound for the standard score and loss in advance with a deep learning convolutional neural network (CNN), and when the input image and sound come in, the reference image and sound learned by the CNN learning model By comparing them, it is judged whether or not a score is scored based on the similarity.
기타 실시 예의 구체적인 사항들은 발명을 실시하기 위한 구체적인 내용 및 도면들에 포함되어 있다.The specific details of other embodiments are included in the specific contents and drawings for carrying out the invention.
본 발명의 해결수단에 의하면, 모바일 앱을 활용한 딥 러닝 기반의 점수 표시 시스템은 영상과 소리에 의해서만 자동적으로 판정이 되므로, 심판이나 운동 경기 진행요원이 없더라도 스코어를 정확하게 기록할 수 있으며 운동 경기를 원활하게 진행할 수 있는 장점이 있다.According to the solution of the present invention, since the deep learning-based score display system using a mobile app is automatically determined only by video and sound, it is possible to accurately record the score even if there is no referee or an athletic event facilitator. It has the advantage of running smoothly.
또한, 별도의 점수 기록 매체가 없어도 선수, 팀 혹은 사용자가 가지고 있는 모바일 앱을 통해 쉽게 표시가 가능하다.In addition, even if there is no separate score recording medium, players, teams, or users can easily display them through the mobile app they have.
또한, 선수, 팀 혹은 사용자들의 운동 경기 이력을 확인할 수 있어, 이를 통하여 자신의 운동 경기력이 지속적으로 향상되고 있는지를 파악할 수 있는 장점이 있다.In addition, it is possible to check the athletic performance history of players, teams, or users, so that it is possible to determine whether one's own athletic performance is continuously improved.
도 1은 본 발명의 실시 예에 따른 모바일 앱을 활용한 딥 러닝 기반의 점수 표시 시스템 및 동작 방법의 전체 개요도이다.
도 2는 본 발명의 실시 예에 따른 모바일 앱의 세부 구성도이다.
도 3는 본 발명의 실시 예에 따른 딥 러닝 서버의 세부 구성도이다.
도 4는 본 발명의 실시 예에 따른 관리 서버의 세부 구성도이다.
도 5은 본 발명의 실 시예에 따른 CNN 학습 모델의 기능 흐름을 나타낸 순서도이다.
도 6은 본 발명의 실시 예에 따른 CNN 학습 모델의 구조를 설명하기 위한 도면이다.1 is an overall schematic diagram of a deep learning-based score display system and operation method using a mobile app according to an embodiment of the present invention.
2 is a detailed configuration diagram of a mobile app according to an embodiment of the present invention.
3 is a detailed configuration diagram of a deep learning server according to an embodiment of the present invention.
4 is a detailed configuration diagram of a management server according to an embodiment of the present invention.
5 is a flowchart illustrating a functional flow of a CNN learning model according to an embodiment of the present invention.
6 is a diagram for explaining the structure of a CNN learning model according to an embodiment of the present invention.
아래에서는 첨부한 도면을 참조하여 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자가 용이하게 실시할 수 있도록 본 발명의 실시 예를 상세히 설명한다.Hereinafter, embodiments of the present invention will be described in detail with reference to the accompanying drawings so that those of ordinary skill in the art can easily carry out the present invention.
그러나, 본 발명은 여러 가지 상이한 형태로 구현될 수 있으며 여기에서 설명하는 실시 예에 한정되지 않는다.However, the present invention may be embodied in various different forms and is not limited to the embodiments described herein.
그리고, 도면에서 본 발명을 명확하게 설명하기 위해서 설명과 관계없는 부분은 생략하였으며, 명세서 전체를 통하여 유사한 부분에 대해서는 유사한 도면 부호를 붙였다. 도면에서 동일 부분에 대해서는 동일 부호를 사용한다.And, in order to clearly explain the present invention in the drawings, parts irrelevant to the description are omitted, and similar reference numerals are attached to similar parts throughout the specification. In the drawings, the same reference numbers are used for the same parts.
또한, 본 발명을 설명함에 있어, 관련된 공지 구성 또는 기능에 대한 구체적인 설명이 본 발명의 요지를 흐릴 수 있다고 판단되는 경우에는 그 상세한 설명은 생략한다.In addition, in describing the present invention, if it is determined that a detailed description of a related known configuration or function may obscure the gist of the present invention, the detailed description thereof will be omitted.
발명의 상세한 설명 또는 특허 청구범위에서 어느 하나의 구성요소가 다른 구성요소를 "포함"한다고 할 때, 이는 특별히 반대되는 기재가 없는 한 당해 구성요소만으로 이루어지는 것으로 한정되어 해석되지 아니하며, 다른 구성요소들을 더 포함할 수 있는 것으로 이해되어야 한다.When it is said that any one component "includes" another component in the detailed description or claims of the invention, it is not construed as being limited to only the component unless otherwise stated, and other components are not It should be understood that more may be included.
또한, 본 발명의 구성 요소를 설명하는 데 있어서, “운동 경기”란 용어를 사용할 수 있다.In addition, in describing the components of the present invention, the term “athletic competition” may be used.
이러한 용어는 점수를 통해 승패를 가리는 각종 운동 경기를 나타내는 것으로 탁구, 테니스, 농구, 배구, 야구, 배드민턴 등의 공식적인 대회로만 한정되지 않는다. 이는 친선운동 경기, 연습운동 경기와 같이 선수, 팀 혹은 사용자들 간의 합의에 어떠한 형태의 운동 경기에도 적용될 수 도 있다고 이해되어야 할 것이다.These terms refer to various sporting events in which victory or defeat is determined through scores, and is not limited to official competitions such as table tennis, tennis, basketball, volleyball, baseball, and badminton. It should be understood that this may be applied to any type of athletic event as agreed upon between players, teams or users, such as friendly sports events and practice sports competitions.
또한, 본 발명의 구성 요소를 설명하는 데 있어서, “사용자”란 용어를 사용할 수 있다.In addition, in describing the components of the present invention, the term “user” may be used.
이러한 용어는 모바일 앱을 활용한 딥 러닝 기반의 점수 표시 시스템을 사용하는 사람으로서 선수, 심판, 진행요원, 기록원, 경기에 관련된 제3자나 이해당사자로도 적용될 수 도 있다고 이해되어야 할 것이다.It should be understood that these terms can also be applied to players, referees, facilitators, scorers, third parties or stakeholders involved in the game as a person who uses a deep learning-based score display system using a mobile app.
또한, 본 발명의 구성 요소를 설명하는 데 있어서, 모바일 앱(200)의 구현은 네이티브 앱(NATIVE APP), 모바일 웹(MOBILE WEB), 모바일 웹앱(MOBILE WEB APP), 하이브리드 앱(HYBRID APP)의 모바일 앱의 일반적인 응용 프로그램 구현방식을 적용할 수 있다. 이는 모바일 앱을 특정방식으로만 구현하는 것을 한정하지 않는다.In addition, in describing the components of the present invention, the implementation of the mobile app 200 is a native app (NATIVE APP), a mobile web (MOBILE WEB), a mobile web app (MOBILE WEB APP), a hybrid app (HYBRID APP) The general application implementation method of the mobile app can be applied. This does not limit the implementation of mobile apps in a specific way.
또한, 본 발명의 구성 요소를 설명하는 데 있어서, 딥 러닝 서버(310)와 관리 서버(320)는 논리적인 구분으로 물리적으로는 1개 이상의 서버로 구현할 수 있다.In addition, in describing the components of the present invention, the
또한, 본 발명의 구성 요소를 설명하는 데 있어서, 모바일 단말기(100)는 1개 이상으로 구성되며, 2대 이상으로 구성되는 경우는 각각 동일 상황에 대한 다른 각도에서의 영상과 소리를 수집하여 판단결과를 종합하는 형태로 구현할 수 있다.In addition, in explaining the components of the present invention, the mobile terminal 100 is composed of one or more, and when it is composed of two or more, images and sounds from different angles for the same situation are collected and determined. It can be implemented in the form of a synthesis of the results.
이하에서는 본 발명에 따른 모바일 앱을 활용한 딥 러닝 기반의 점수 표시 시스템 및 동작 방법이 구현된 일예를 첨부된 도면과 특정한 실시 예를 통하여 설명하기로 한다.Hereinafter, an example in which a deep learning-based score display system and an operating method using a mobile app according to the present invention are implemented will be described with reference to the accompanying drawings and specific embodiments.
상기 시스템은 탁구, 농구, 배구, 테니스, 배드민턴 등 각종 운동 경기에 동일한 방식으로 변경 가능할 것이며, 이하에서는 탁구 운동 경기에서의 실시 예로써 설명하기로 한다.The system may be changed in the same manner for various sports events such as table tennis, basketball, volleyball, tennis, and badminton, and will be described below as an embodiment in table tennis sports.
탁구 운동 경기의 점수 체계는 각 게임별로 세트와 각 세트 내에서의 득점 포인트(point)로 이루어진다. 탁구 운동 경기는 1 게임의 운동 경기 점수 구성이 3, 5, 7, 9 등의 홀수 개의 세트로 구성되고, 일반적으로 5 또는 7세트로 진행된다. 각 세트는 11점을 먼저 득점하거나 10대 10으로 동률을 이뤄 듀스가 된 경우, 먼저 연속으로 2점을 획득한 선수가 세트를 이기게 된다.The scoring system for table tennis sports consists of a set for each game and a scoring point within each set. In a table tennis sport, the score of one game is composed of odd sets of 3, 5, 7, 9, etc., and is generally performed in 5 or 7 sets. In each set, if the first to score 11 points or a 10-10 tie results in a deuce, the first player to score 2 points in a row wins the set.
도 1은 본 발명의 실시 예에 따른 모바일 앱을 활용한 딥 러닝 기반의 점수 표시 시스템의 전체 개요도이다.1 is an overall schematic diagram of a deep learning-based score display system using a mobile app according to an embodiment of the present invention.
상기 전체 개요도에서 나타낸 것처럼 모바일 앱을 활용한 딥 러닝 기반의 점수 표시 시스템은 모바일 단말기(100), 모바일 앱(200), 서버(300)를 포함한다.As shown in the overall schematic diagram, the deep learning-based score display system using a mobile app includes a mobile terminal 100 , a mobile app 200 , and a server 300 .
상기 모바일 앱(200)을 활용한 딥 러닝 기반의 점수 표시 시스템은 선수, 팀 혹은 사용자 간의 운동 경기에서 발생하는 영상과 소리를 이용하여, 딥 러닝으로 점수를 판단하여 그 결과를 선수, 팀 혹은 사용자에게 알려주는 시스템이다.The deep learning-based score display system using the mobile app 200 uses images and sounds generated in athletic competitions between players, teams, or users to determine the score by deep learning and displays the results to the players, teams, or users. It is a system that informs
상기 모바일 단말기(100)는 모바일 앱과 같은 응용 프로그램을 동작시킬 수 있는 컴퓨터 매체가 될 수 있다.The mobile terminal 100 may be a computer medium capable of operating an application program such as a mobile app.
아울러 서버(300)는 딥 러닝 학습 모델을 관리하는 딥 러닝 서버(310)와 선수, 팀 혹은 사용자별로 점수 이력을 관리하는 관리 서버(320)로 구성된다.In addition, the server 300 includes a
또한, 상기 모바일 앱(200)과 서버(300)와의 통신은 유선통신, 무선통신 또는 이동통신을 통해서 연결되어 통신 할 수 있다.In addition, communication between the mobile app 200 and the server 300 may be connected and communicated through wired communication, wireless communication, or mobile communication.
도 1을 참조하면, 선수, 팀 혹은 사용자 간의 운동 경기는 모바일 단말기(100)를 통해서 그 운동 경기에서 발생하는 영상과 소리를 수집하여, 모바일 앱(200)으로 전달될 수 있다. Referring to FIG. 1 , in an athletic competition between players, teams, or users, images and sounds generated in the sports competition may be collected through the mobile terminal 100 and transmitted to the mobile app 200 .
모바일 앱(200)에서는 사전에 학습된 딥 러닝 학습 모델을 이용하여 운동 경기 중에 발생하는 영상과 소리에서, 득점 혹은 실점이 되는 영상과 소리를 각각 매칭하여 점수 판정이 가능하다. In the mobile app 200, it is possible to determine a score by matching the image and sound that are scored or lost in the image and sound generated during the athletic event using the deep learning learning model learned in advance, respectively.
딥 러닝 학습 모델은 기준이 되는 득점과 실점에 관한 각종 영상과 소리를 모아서 사전에 딥 러닝 서버(310)에서 학습시킨다. 또한, 학습 모델은 영상에 딥 러닝 학습 모델과 소리에 대한 딥 러닝 학습 모델로 구분되어진다.The deep learning learning model collects various images and sounds related to a standard score and a loss and trains it in the
도 5에서 도시된 바와 같이, 득점이나 실점의 점수 결과 판정은 영상으로만 판독이 가능한 경우, 소리로만 판독이 가능한 경우, 영상과 소리를 함께 이용해서 판독해야하는 경우로 구분하여 진행할 수 있다.As shown in FIG. 5 , the determination of the score result of a score or a loss can be performed by dividing it into a case in which reading is possible only with an image, a case where reading is possible only with sound, and a case where reading is required using both image and sound.
상기 학습 모델에서의 점수 판정을 위한 입력이 되는 운동 경기 영상과 소리는 실시간으로 수집되어 모바일 앱(200)으로 전달되어 입력되거나, 사전에 녹화된 운동 경기 영상과 소리를 모바일 앱(200)에서 선택하여 입력되게 할 수 있다.Athletics video and sound, which are input for score determination in the learning model, are collected in real time and transmitted to the mobile app 200 and input, or pre-recorded video and sound of an athletic event are selected from the mobile app 200 so it can be entered.
상기 서버(300)에서 관리하고 있는 딥 러닝 학습 모델은 탁구 운동 경기에서 발생하는 영상과 소리에서 득점이 되는 상황과 실점이 되는 상황에서의 특징을 추출하고 분석하여, 그 입력 영상과 소리에 대해 득점이나 실점의 기준 영상이나 기준 소리와의 오차를 검출해서 이를 선수, 팀 혹은 사용자에게 해석된 결과로 모바일 앱을 통하여 제공해준다.The deep learning learning model managed by the server 300 extracts and analyzes features in a situation where a score is scored from an image and sound generated in a table tennis game and a situation where a score is scored, and scores for the input image and sound It detects the error between the standard image or the standard sound of a goal or loss and provides it to the player, team, or user as an interpreted result through the mobile app.
상기 딥 러닝 학습 모델은 영상과 소리에 대해 각각 따로 분류할 수 있는 별도의 CNN 학습 모델(312)을 사용하며, 득점과 실점의 기준 영상과 소리는 각각 독립된 형태로 학습시킬 수 있다.The deep learning learning model uses a separate
아울러 사전에 해당 영상과 소리별로 어떤 부분이 득점이고 실점인지에 대한 안내사항도 별도 정보로 연결해놓고, 이를 모바일 앱(200)을 통해 제공할 수 있다.In addition, information on which parts are scored and lost for each video and sound may be connected as separate information in advance, and this may be provided through the mobile app 200 .
이와 같이 딥 러닝에 의해 판단되는 기준 영상과 소리들은 운동 경기에서 발생하는 영상과 소리에 대한 여러 유형별로 득점과 실점을 모두를 식별할 수 있는 영상과 소리들이고, 입력 영상이 들어오면 딥 러닝 CNN 학습 모델(312)에서 자동으로 매핑 하여 그 입력 영상을 분류해준다.In this way, the reference images and sounds judged by deep learning are images and sounds that can identify both scores and losses by various types of images and sounds occurring in athletic events, and when an input image is received, deep learning CNN learning The
상기 CNN 학습 모델(312)의 분류를 위한 계산 작업은 모바일 앱(200)이 탑재된 모바일 단말기(100)내의 모바일 앱(200)에서 수행할 수 도 있고, 서버(300)에서 계산하여 그 결과만 모바일 단말기(100)의 모바일 앱(200)으로 전달할 수도 있다.The calculation work for classification of the
또한, 상기 모바일 앱(200)은 관리 서버(320)에서 직접 다운로드 경로를 제공하거나, In addition, the mobile app 200 provides a direct download path from the
응용 소프트웨어 다운로드 서비스(예를 들어, 앱 스토어 혹은 플레이 스토어 등)를 통하여 제공하는 것으로, 선수, 팀 혹은 사용자는 유선통신, 무선통신 또는 이동통신을 통하여 각자의 모바일 단말기(100)에 다운받을 수 있다.It is provided through an application software download service (eg, App Store or Play Store, etc.), and players, teams, or users can download it to their respective mobile terminals 100 through wired communication, wireless communication, or mobile communication. .
그러면, 선수, 팀 혹은 사용자는 자신의 모바일 단말기(100)에서 모바일 앱(200)을 다운로드 받을 지의 여부를 결정하여 다운로드를 받으면 된다.Then, the player, the team, or the user decides whether to download the mobile app 200 from his/her mobile terminal 100 and receives the download.
도 2에서 각각 도시된 바와 같이, 상기 모바일 앱(200)에서는 선수, 팀 혹은 사용자별로 자신의 운동 경기 점수 내용과 이력을 관리하기위한 사용자 로그인(211, 221) 기능을 구성한다.As shown in FIG. 2 , the mobile app 200 configures user log-in
도 4에서 도시된 바와 같이, 사용자 로그인(211, 221)의 요청이 일어나면 요청받은 사용자가 정당한 사용자인지는 관리 서버(320)에서 사용자 인증부(321)를 통해 제공된다.As shown in FIG. 4 , when a request for
영상 수신부(212, 222)에서는 모바일 단말기(100)에서 실시간으로 촬영되는 영상이나 선수, 팀 혹은 사용자가 선택한 녹화 영상을 보여주고, 마찬가지로 소리 수신부(213, 223)에서는 모바일 단말기(100)에서 실시간으로 수집된 소리나 선수, 팀 혹은 사용자가 선택한 녹화 동영상에서 나오는 소리를 들려준다.The
상기 모바일 앱(200)의 점수 표시부(214, 224)에서는 딥 러닝에 의해 판단된 기준 영상과 소리로 점수를 표시할 수 있다. The
아울러 상기 선수, 팀 혹은 사용자에게 표시되는 점수 정보는 개별 이력을 관리하기 위해서 점수 정보 저장(215, 225) 기능을 통하여 관리 서버(320)에 저장된다.In addition, the score information displayed to the player, team, or user is stored in the
따라서, 상기 선수, 팀 혹은 사용자는 데이터베이스에 저장된 자신의 사용자 경기이력(322)을 언제든지 모바일 앱(200)을 통해 볼 수 있다.Accordingly, the player, team, or user can view his/her
상기 관리 서버(320)의 모바일 앱 제공부(323)에서는 모바일 앱(200)를 통해 운동 경기 점수 분석 및 축적된 데이터 이력을 활용한 다양한 통계 분석을 제공 할 수 있고, 선수, 팀 혹은 사용자가 활용할 수 있는 원시 이력 자료로도 제공할 수 있다.The mobile
예를 들면, 선수, 팀 혹은 사용자들 간에 진행된 운동 경기 내역에 대해서는 데이터베이스에 저장되어있으므로, 해당 데이터를 활용하여 운동 경기 변화 추이를 제공과 같은 정보제공이 가능하다. 또한, 자주 발생하는 실점 영상이라든지, 선수, 팀 혹은 사용자별 주요 득점 포인트에 대한 영상과 소리를 매칭 시켜서 표시하게 하는 것이다.For example, since it is stored in the database about the history of athletic matches between players, teams, or users, it is possible to provide information such as providing changes in athletics by using the data. In addition, it is to match the video and sound of the frequently occurring loss video or the main scoring point for each player, team, or user, and display it.
입력 영상과 득점 혹은 실점이 되는 기준 영상과 의 유사성 판정은 오차 범위로 식별된다. 해당 오차범위는 선수, 팀 혹은 사용자 혹은 관리자가 임의로 기준을 세워 설정할 수 있다. 예를 들어 5%로 기준 오차를 설정하면, 95%의 유사성을 가져야 동일한 영상으로 판별하는 것이다. 이와 같은 오차는 지속적인 학습과 보정작업을 통해 그 정확도를 향상시킬 수 있다.The similarity determination between the input image and the reference image to be scored or lost is identified as an error range. The error range can be set by a player, team, user, or manager by setting a standard arbitrarily. For example, if the reference error is set to 5%, the same image must be identified as having a similarity of 95%. Such an error can improve its accuracy through continuous learning and correction.
또한, 도 3에서 도시된 바와 같이, 딥 러닝 서버(310)에서는 딥 러닝으로 사용되는 CNN 학습 모델(312)과 학습 데이터에 대한 관리부(311)가 구성된다. 학습 데이터 관리부(311)는 영상의 판단 기준이 되는 득점과 실점에 있어서의 영상과 소리를 유형별로 이미지 데이터로 보관한다. In addition, as shown in FIG. 3 , the
또한, CNN 학습 모델(312)은 가장 최근까지 수집된 기준 영상과 소리로 학습된 CNN 모델에 대한 가중치, 노드수, Layer 수, 임계치, 목적 함수, 활성화 함수에 관한 정보들을 저장하고 있다.In addition, the
CNN 학습 모델(312)들은 학습 모델 관리부(313)를 통하여 버전별로 그 생성된 이력을 관리하여, 선수, 팀 혹은 사용자 혹은 관리자에게 가장 적합한 형태의 학습 모델을 학습 모델 제공부(314)를 통해 선택할 수 있게 제공해준다.The
또한, 도 5에서 도시된 바와 같이 CNN 학습 모델(312)은 영상과 소리에 대해 각각 데이터를 Matrix형태의 수치로 변환되는 입력부, 그 변환된 수치를 통해서 득점과 실점의 특징을 축출하는 부분, 분류하는 부분, 그리고 최종적으로 운동 자세에 대한 분류를 제공해주는 결과부로 구성되어있다. 그리고 영상 학습모델 혹은 소리 학습모델에서 독자적인 판단이 어려운 경우에는 양쪽의 결과를 합쳐서 AND 조건 혹은 OR 조건으로 혼합판단을 수행한다.In addition, as shown in FIG. 5, the
예를 들면, 탁구공이 라켓핸드가 아닌 몸에 맞은 경우, 혹은 탁구공이 네트에 닿아 못 넘긴 경우의 영상은 실점 영상으로 분류할 수 있고, 탁구공이 탁구대가 아닌 운동 경기장 바닥에 부딪히는 경우에는 실점 소리로 분류할 수 있다. 또한, 러버를 붙이지 않은 라켓 면으로 탁구공을 처 넘긴 경우는 탁구공을 라켓으로 칠 때의 영상과 소리를 혼합하여 실점여부를 판정할 수 도 있다.For example, an image when a ping-pong ball hits the body other than the racquet hand or when the ping-pong ball hits the net and fails to pass can be classified as a loss video. can be classified. In addition, if the ping-pong ball is thrown over the racquet side without a rubber attached, it is possible to determine whether a score has been scored by mixing the image and sound of hitting the ping-pong ball with the racquet.
그 외에도 상대가 서브나 리턴에 실패한 경우. 상대가 서브나 리턴을 한 공이 자신의 코트에 바운드 되기 전에 네트 이외의 곳에 맞을 경우. 상대가 친 공이 바운드 되지 않고 코트를 넘어간 경우. 상대가 공을 가린 경우. 상대가 공을 연속해서 두 번 친 경우. 상대가 탁구대를 움직이게 만들거나 네트를 건드린 경우. 상대가 라켓을 들지 않은 쪽 손으로 탁구대를 건드린 경우와 같은 상황에서의 영상과 소리를 사전에 학습시켜놓을 수 있다.Other than that, if your opponent fails to serve or return. When the ball, served or returned by the opponent, hits outside the net before it is bound to his court. When the opponent's ball crosses the court without bouncing. If your opponent blocks the ball. Your opponent hits the ball twice in a row. If your opponent makes the ping-pong table move or touches the net. You can learn the video and sound in advance in situations such as when the opponent touches the table tennis table with the hand that does not hold the racket.
도 6은 본 발명의 실시 예에 따른 딥 러닝 CNN 학습 모델(312) 구조의 노드에서부터의 계산 과정을 도시한 모식도이다.6 is a schematic diagram illustrating a calculation process from a node of the deep learning
도 6에 도시된 바와 같이, 본 발명의 실시 예에 따른 CNN 학습 모델(312)은 다층 신경망 구조로 합성곱층과 풀링층이 여러 겹 쌓여있는 구조로 되어있다.As shown in FIG. 6 , the
또한, 최종적으로 추출된 특징을 잘 학습해서 이미지를 알맞은 카테고리로 분류하는 영역은 완전 연결 계층(Fully Connected)으로 모두 연결되어있다. 이는 영상과 소리의 분류에 적합 하게 사용될 수 있다.In addition, the regions that classify images into appropriate categories by learning the finally extracted features well are all connected in a fully connected layer. This can be used appropriately for the classification of images and sounds.
이상, 본 발명의 특정 실시를 통하여 본 발명의 기술적 사상을 살펴보았다.Above, the technical idea of the present invention has been reviewed through specific implementations of the present invention.
또한, 비록 명시적으로 도시되거나 설명되지 아니하였다 하여도 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자가 본 발명의 기재사항으로부터 본 발명에 의한 기술적 사상을 포함하는 다양한 형태의 변형을 할 수 있음은 자명하며, 이는 여전히 본 발명의 권리범위에 속한다.In addition, even if not explicitly shown or described, a person of ordinary skill in the art to which the present invention pertains may make various modifications including the technical idea according to the present invention from the description of the present invention. is self-evident, which still falls within the scope of the present invention.
첨부하는 도면을 참조하여 설명된 상기의 실시 예들은 본 발명을 설명하기 위한 목적으로 기술된 것이며 본 발명의 권리범위는 이러한 실시 예에 국한되지 아니한다.The above embodiments described with reference to the accompanying drawings have been described for the purpose of explaining the present invention, and the scope of the present invention is not limited to these embodiments.
100 : 사용자 디바이스
110 : 모바일 단말기
120 : 개인용 컴퓨터
200 : 모바일 앱
211 : 사용자 로그인
212 : 영상 수신부
213 : 소리 수신부
214 : 점수 표시부
215 : 점수 정보 저장
300 : 서버
310 : 딥 러닝 서버
311 : 학습 데이터 관리부
312 : CNN 학습 모델
313 : 학습 모델 관리부
314 : 학습 모델 제공부
320 : 관리 서버
321 : 사용자 인증부
322 : 사용자 운동 경기이력
323 : 모바일 앱 제공부 100: user device
110: mobile terminal
120: personal computer
200 : mobile app
211 : user login
212: video receiver
213: sound receiver
214: score display unit
215: save score information
300 : server
310: Deep Learning Server
311: learning data management unit
312: CNN learning model
313: learning model management unit
314: learning model providing unit
320: management server
321: user authentication unit
322: user exercise history
323: mobile app provider
Claims (6)
상기 모바일 단말기로부터 전달받은 영상과 소리를 서버에 전송하고, 그 판정 결과를 선수, 팀 혹은 사용자와 모바일 단말기에게 제공하는 모바일 앱과;
상기 모바일 앱에서 전달받은 영상과 소리에 대한 혼합된 특징을 추출하고 분석하여 득점과 실점을 판정하는 딥 러닝 학습 모델을 제공하고, 상기 운동 경기의 결과와 이력을 저장하는 서버를;
포함하는 것을 특징으로 하는 모바일 앱을 활용한 딥 러닝 기반의 점수 표시 시스템 및 동작 방법.Through the camera and microphone, the video and sound of the sports game between players, teams, or users with the mobile terminal;
a mobile app for transmitting the image and sound received from the mobile terminal to a server, and providing the determination result to a player, team, or user and a mobile terminal;
a server that provides a deep learning learning model for determining a score and a loss by extracting and analyzing the mixed features of the image and sound received from the mobile app, and storing the results and history of the athletic game;
Deep learning-based score display system and operation method using a mobile app, characterized in that it includes.
상기 모바일 앱은
모바일 단말기로부터 전달받은 영상과 소리를 서버에 전송하고, 득점과 실점의 판정 결과를 선수, 팀 혹은 사용자에게 제공하는 것을 특징으로 하는 모바일 앱 형태의 응용 프로그램. According to claim 1,
The mobile app is
An application in the form of a mobile app, characterized in that it transmits the video and sound received from the mobile terminal to the server, and provides the result of scoring and conceding to a player, team, or user.
상기 서버는
상기 모바일 앱에서 전달받은 영상과 소리에 대한 혼합된 특징을 딥 러닝 학습모델로 분석하여 득점과 실점을 판정하는 모델을 제공하고, 상기 운동 경기의 결과와 이력을 제공하는 것을 특징을 가진 시스템.According to claim 1,
the server
A system characterized in that it analyzes the mixed features of the image and the sound received from the mobile app with a deep learning learning model to provide a model for judging scores and losses, and provides the results and history of the athletic event.
상기 모바일 단말기로부터 수집한 영상과 소리를 서버에 전송하고, 딥 러닝에 의한 득점과 실점의 판정 결과를 선수, 팀 혹은 사용자의 모바일 앱에게 제공하는 제 2 단계;
상기 모바일 앱을 통해 전달받은 영상과 소리에 대한 혼합된 특징을 추출하고 분석하여 득점과 실점을 판정하는 딥 러닝 학습 모델을 제공하고, 상기 운동 경기의 결과와 이력을 보관하는 제 3 단계를;
더 포함하는 것을 특징으로 하는 모바일 앱을 활용한 딥 러닝 기반의 점수 표시 동작 방법.A first step of collecting sports video and sound through a mobile terminal;
a second step of transmitting the images and sounds collected from the mobile terminal to a server, and providing the results of scoring and conceding by deep learning to a mobile app of a player, team or user;
A third step of extracting and analyzing the mixed features of the image and sound received through the mobile app to provide a deep learning learning model that determines the score and the loss, and storing the results and history of the athletic game;
Deep learning-based score display operation method using a mobile app, characterized in that it further comprises.
상기 모바일 앱을 활용한 딥 러닝 기반의 점수 표시 동작 방법은,
상기 제 1 단계 이후에,
상기 모바일 단말기로부터 전달받은 영상과 소리를 서버에 전송하고,
딥 러닝에 의한 득점과 실점의 판정 결과를 모바일 앱을 통하여 선수, 팀 혹은 사용자와 모바일 단말기에게 제공하는 단계를;
더 포함하는 것을 특징으로 하는 동작 방법.5. The method of claim 4,
The deep learning-based score display operation method using the mobile app is,
After the first step,
Transmitting the image and sound received from the mobile terminal to the server,
providing a score and loss determination result by deep learning to a player, a team, or a user and a mobile terminal through a mobile app;
Method of operation, characterized in that it further comprises.
상기 모바일 앱을 활용한 딥 러닝 기반의 점수 표시 동작 방법은,
상기 제 2 단계 이후에,
상기 모바일 앱을 통해 전달받은 영상과 소리에 대한 혼합된 특징을 추출하고 분석하여 득점과 실점을 판정하는 딥 러닝 학습 모델을 제공하고, 상기 운동 경기의 결과와 이력을 보관하는 단계를;
더 포함하는 것을 특징으로 하는 동작 방법.5. The method of claim 4,
The deep learning-based score display operation method using the mobile app is,
After the second step,
providing a deep learning learning model that extracts and analyzes mixed features of images and sounds delivered through the mobile app to determine a score and a loss, and storing the results and history of the athletic game;
Method of operation, characterized in that it further comprises.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020200030430A KR20210114815A (en) | 2020-03-11 | 2020-03-11 | Deep Learning based score display system and operation method using mobile app |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020200030430A KR20210114815A (en) | 2020-03-11 | 2020-03-11 | Deep Learning based score display system and operation method using mobile app |
Publications (1)
Publication Number | Publication Date |
---|---|
KR20210114815A true KR20210114815A (en) | 2021-09-24 |
Family
ID=77914763
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020200030430A KR20210114815A (en) | 2020-03-11 | 2020-03-11 | Deep Learning based score display system and operation method using mobile app |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR20210114815A (en) |
Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR102039584B1 (en) | 2018-04-12 | 2019-11-01 | 고려대학교 세종산학협력단 | System and Method for Machine Learning-based Scoring Using Smart Yoga Mat |
-
2020
- 2020-03-11 KR KR1020200030430A patent/KR20210114815A/en unknown
Patent Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR102039584B1 (en) | 2018-04-12 | 2019-11-01 | 고려대학교 세종산학협력단 | System and Method for Machine Learning-based Scoring Using Smart Yoga Mat |
Non-Patent Citations (2)
Title |
---|
그러나 운동 경기 중에 발생한 영상과 소리의 혼합만으로 모바일 앱을 활용한 딥 러닝 기반의 점수 표시 시스템 및 동작 방법은 비특허 문헌도 찾을 수 가 없었다. |
최근 해외에서는 다양한 딥 러닝 응용을 시도하고 있다. |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11717737B2 (en) | Athletic training system and method | |
KR102061485B1 (en) | Management server, system and method for sports game | |
JP2011505202A5 (en) | ||
US20150018988A1 (en) | System and method for player performance evaluation | |
US8996446B2 (en) | Sensory testing data analysis by categories | |
CN108905095B (en) | Athlete competition state evaluation method and equipment | |
KR20210139021A (en) | Sports Game Management System for Matches among Members | |
US20230050335A1 (en) | Cricket game intelligent bot umpire for automated umpiring and scoring decisions during cricket match | |
KR20210114155A (en) | Smart scoring system and operation method based on deep learning | |
US20140330412A1 (en) | Computerized interactive sports system and a method of assessing sports skills of users | |
KR20210114815A (en) | Deep Learning based score display system and operation method using mobile app | |
US20170124155A1 (en) | Sports data matching system and method | |
Khurana et al. | Beyond adaptive sports: challenges & opportunities to improve accessibility and analytics | |
US20240046763A1 (en) | Live event information display method, system, and apparatus | |
US20190171679A1 (en) | International Athletic Scouting Combines | |
KR20210117385A (en) | Table tennis target training system and operation method using artificial intelligence | |
US20130113607A1 (en) | Rfid object location system and method | |
Toleikis | Elite men's basketball teams offensive outcomes analysis | |
Primo et al. | Beantragung einer Analyse des Challenge-Erfolgs durch kontextuelle Variablen beim Elite-Badminton | |
KR20160082164A (en) | Internet coaching staff for game information database system providing ball games | |
Lund et al. | Temporal Description of the Stolen Base in High School Softball. | |
SIERKSMA | The problem of increasing densities of top level performances: Goulds Hypothesis |