KR102304641B1 - 인공지능형 태권도 품새 판독 및 교육 시스템 - Google Patents

인공지능형 태권도 품새 판독 및 교육 시스템 Download PDF

Info

Publication number
KR102304641B1
KR102304641B1 KR1020200175485A KR20200175485A KR102304641B1 KR 102304641 B1 KR102304641 B1 KR 102304641B1 KR 1020200175485 A KR1020200175485 A KR 1020200175485A KR 20200175485 A KR20200175485 A KR 20200175485A KR 102304641 B1 KR102304641 B1 KR 102304641B1
Authority
KR
South Korea
Prior art keywords
motion
unit
poomsae
image data
exercise
Prior art date
Application number
KR1020200175485A
Other languages
English (en)
Inventor
박상수
Original Assignee
(주)나노아이티
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by (주)나노아이티 filed Critical (주)나노아이티
Priority to KR1020200175485A priority Critical patent/KR102304641B1/ko
Application granted granted Critical
Publication of KR102304641B1 publication Critical patent/KR102304641B1/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
    • G06Q50/10Services
    • G06Q50/20Education
    • A63B69/004
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63BAPPARATUS FOR PHYSICAL TRAINING, GYMNASTICS, SWIMMING, CLIMBING, OR FENCING; BALL GAMES; TRAINING EQUIPMENT
    • A63B71/00Games or sports accessories not covered in groups A63B1/00 - A63B69/00
    • A63B71/06Indicating or scoring devices for games or players, or for other sports activities
    • G06K9/00221
    • G06K9/00342
    • G06K9/62
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09BEDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
    • G09B19/00Teaching not covered by other main groups of this subclass
    • G09B19/003Repetitive work cycles; Sequence of movements
    • G09B19/0038Sports

Landscapes

  • Engineering & Computer Science (AREA)
  • Business, Economics & Management (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Educational Administration (AREA)
  • Educational Technology (AREA)
  • Tourism & Hospitality (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Data Mining & Analysis (AREA)
  • Primary Health Care (AREA)
  • General Business, Economics & Management (AREA)
  • Marketing (AREA)
  • Human Resources & Organizations (AREA)
  • Economics (AREA)
  • Artificial Intelligence (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Strategic Management (AREA)
  • Evolutionary Computation (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Entrepreneurship & Innovation (AREA)
  • Physical Education & Sports Medicine (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

본 발명의 인공지능형 태권도 품새 판독 및 교육 시스템에 따르면, 사용자의 움직임을 촬영하고, 촬영되는 운동 영상데이터를 제공하는 카메라부; 상기 카메라부로 촬영되어 제공되는 운동 영상데이터로부터 딥러닝 기반의 인공지능 영상분석알고리즘을 이용하여 운동 동작을 인식하는 동작인식부; 미리 설정된 표준 동작이 저장되고, 딥러닝 기반의 인공지능 영상분석알고리즘을 이용하여 미리 학습된 특정 동작이 저장된 저장부; 및 상기 운동 동작에서 특정 동작을 인식한 후에 인식되는 운동 동작과 표준 동작을 비교하여 차이를 나타내는 정도를 점수로 환산하는 점수환산부;를 포함한다.
본 발명의 효과는, 카메라부로 촬영되어 제공되는 운동 영상데이터로부터 딥러닝 기반의 인공지능 영상분석알고리즘을 이용하여 운동 동작을 인식함으로써, 운동 동작을 인식하기 위한 별도의 특정 마커 부착이 필요하지 않으며, 사용자 움직임의 방향 및 속도 등을 감지하여 운동 동작을 실시간으로 빠르게 인식할 수 있는 인공지능형 태권도 품새 판독 및 교육 시스템을 제공할 수 있다.

Description

인공지능형 태권도 품새 판독 및 교육 시스템{Artificial intelligence Taekwondo Poomsae reading and education system}
본 발명은 인공지능형 태권도 품새 판독 및 교육 시스템에 관한 것이다.
태권도 품새란, 공격과 방어의 기술을 규정된 형식에 맞추어 지도자 없이 수련할 수 있도록 이어놓은 동작을 말한다. 겨루기 기술 향상과 동작 응용 능력 그리고 기본 동작에서 익힐 수 없는 특수기술을 연마할 수 있는 장점이 있다.
일반적으로 품새는, 품새를 할 때의 발의 위치와 그 이동 방향을 선으로 표시한 품새선에 따라 수련하며, 태극, 고려, 금강, 태백, 평원, 십진, 지태, 천권, 한수, 일여의 10가지 종류가 있다.
종래의 품새 판독 방식은 심사위원들이 각자 자신의 자리에 앉아 주관적인 판단으로 채점한 점수의 총합을 내어 승패를 결정하는 방식이었다. 그러나 이와 같은 종래의 품새 판독 방식은, 채점의 정확도 및 공정성이 떨어지고, 각 심판의 편견이나 오류로 심판 판정에 시비가 따르는 문제가 있었다.
이에 최근에는, 카메라를 통하여 획득한 영상 정보로부터 사람의 움직임을 추적하고 인식하는 접촉식 방식을 활용하여 움직임을 인식한 후, 기준이 되는 움직임과 비교하여 품새를 판독하는 방식이 개발되었다.
그러나, 접촉식 방식은 사용자의 움직임 감지가 가능한 센서나 장치를 사용자가 직접 착용한 후 움직여야 하는 불편함이 있었다.
대한민국 공개특허 10-2020-0056233 대한민국 공개특허 10-2020-0022788
상술한 바와 같은 문제점을 해결하기 위해 안출된 본 발명의 목적은, 카메라부로 촬영되어 제공되는 운동 영상데이터로부터 딥러닝 기반의 인공지능 영상분석알고리즘을 이용하여 운동 동작을 인식함으로써, 운동 동작을 인식하기 위한 별도의 특정 마커 부착이 필요하지 않으며, 사용자 움직임의 방향 및 속도 등을 감지하여 운동 동작을 실시간으로 빠르게 인식할 수 있는 인공지능형 태권도 품새 판독 및 교육 시스템을 제공하기 위함이다.
상기한 바와 같은 목적을 달성하기 위한 본 발명의 인공지능형 태권도 품새 판독 및 교육 시스템에 따르면, 사용자의 움직임을 촬영하고, 촬영되는 운동 영상데이터를 제공하는 카메라부; 상기 카메라부로 촬영되어 제공되는 운동 영상데이터로부터 딥러닝 기반의 인공지능 영상분석알고리즘을 이용하여 운동 동작을 인식하는 동작인식부; 미리 설정된 표준 동작이 저장되고, 딥러닝 기반의 인공지능 영상분석알고리즘을 이용하여 미리 학습된 특정 동작이 저장된 저장부; 및 상기 운동 동작에서 특정 동작을 인식한 후에 인식되는 운동 동작과 표준 동작을 비교하여 차이를 나타내는 정도를 점수로 환산하는 점수환산부;를 포함한다.
또한, 상기 저장부는, 딥러닝 기반의 인공지능 영상분석알고리즘을 이용하여 미리 학습되어 저장된 시작동작, 종료동작이 저장되고, 상기 사용자의 얼굴과 개인정보가 입력되면, 상기 얼굴과 개인정보를 포함하는 식별코드를 상기 사용자에게 발급하는 코드발급부; 상기 코드발급부로부터 발급된 식별코드와 얼굴이 상기 카메라부로부터 인식되면, 인식된 얼굴을 포커싱하도록 상기 카메라부를 제어하고, 상기 동작인식부가 특정 사용자의 운동 동작만 인식할 수 있도록 상기 카메라부가 포커싱하는 얼굴의 테두리와 연결된 사용자만 추출하는 사용자추출부; 상기 사용자추출부가 추출한 사용자만의 운동 동작을 동작인식부가 인식할 때, 인식하는 운동 동작중에서 상기 시작동작이 인식되면 품새 판독의 시작으로 판단하고, 종료동작이 인식되면 품새 판독의 종료로 판단하여 상기 품새를 판독하는 시작과 종료를 설정하는 판독설정부;를 더 포함하고, 상기 점수환산부는, 상기 판독설정부가 설정한 시작과 종료 사이에 인식된 운동 동작만 표준 동작과 비교하여 상기 카메라부가 인식하고 포커싱한 사용자에 대한 품새 점수를 환산하는 것을 특징으로 한다.
또한, 상기 판독설정부로부터 사용자의 품새 판독의 종료가 이루어지면, 사용자의 품새 판독의 시작부터 종료까지의 운동 영상데이터를 분할하되, 상기 표준 동작과 대응되는 운동 동작을 기준으로 분할하여 각 운동 동작에 대한 영상으로 이루어진 다수의 분할 영상데이터를 생성하는 영상분할부; 상기 분할 영상데이터, 상기 동작인식부에서 인식한 운동 동작, 상기 점수환산부에서 운동 동작과 비교한 표준 동작, 환산한 품새 점수 및 동작 비교로 차이를 나타내는 관절부분을 추출한 감점데이터를 상기 개인정보에 포함된 연락처로 전송하는 데이터전송부; 상기 연락처가 등록되어, 상기 데이터전송부가 전송하는 데이터를 수신 가능한 스마트기기; 및 상기 스마트기기에 설치된 어플리케이션;을 더 포함한다.
또한, 상기 어플리케이션은, 수신한 데이터를 스마트기기의 디스플레이부에 표시하되, 상기 운동 동작을 표시하는 제1표시부, 상기 운동 동작에 비교되는 표준 동작을 표시하는 제2표시부, 상기 운동 동작과 표준 동작을 오버랩시킨 오버랩 동작을 표시하는 제3표시부 및 상기 운동 동작과 표준 동작의 비교로 환산된 품새 점수를 표시하는 제4표시부를 상기 디스플레이부에 분할하여 표시하는 표시부와, 상기 제1표시부가 사용자에 의해 터치되면, 터치된 상기 제1표시부에 표시된 운동 동작을 하기까지의 움직임을 확인할 수 있도록 상기 운동 동작에 대응하는 분할 영상데이터를 제1표시부에 재생시키되, 상기 제3표시부에 표시된 오버랩 동작시점으로 갈수록 재생시킨 분할 영상데이터의 재생속도를 느리게 제어하는 재생부를 포함하고, 상기 표시부는, 상기 분할 영상데이터가 재생될 때, 상기 제4표시부에 표시된 품새 점수가 감점상태이면, 상기 분할 영상데이터의 재생영상에 감점데이터를 표시하되 감점이 발생하는 시점에 기 설정된 도형을 점멸시키며 표시하여 감점원인이 된 관절부분을 확인시키는 것을 특징으로 한다.
또한, 상기 표시부는, 상기 표준 동작에 대한 설명, 상기 감점원인에 대한 설명, 상기 운동 동작에 대한 코칭 설명을 텍스트로 입력 가능한 제5표시부를 상기 디스플레이부에 더 분할하여 표시하고, 상기 저장부에는, 표준 동작으로 이루어진 표준품새 영상데이터가 저장되되, 상기 표준품새 영상데이터의 품새명으로 분류 저장되고, 상기 어플리케이션은, 상기 분할 영상데이터와 텍스트 및 품새명을 편집한 편집품새 영상데이터를 제3자에게 판매되도록 마켓서버에 업로드하는 영상편집 제공부 및 업로드된 편집품새 영상데이터를 판매 상품으로 등록하여 제3자 단말기의 요청에 따라 판매 상품을 제공하는 상품 판매부를 더 포함한다.
또한, 상기 영상편집 제공부는, 상기 재생부에서 재생되는 분할 영상데이터와 상기 제5표시부에 입력된 텍스트를 포함하는 목록을 생성하여 사용자에게 제공하고, 상기 목록에서 사용자로부터 선택되는 분할 영상데이터와 선택된 분할 영상데이터 일부에 상기 텍스트를 추가하는 편집을 진행한 후, 텍스트가 추가된 분할 영상데이터를 연결하여 편집품새 영상데이터로 생성하는 품새 영상편집부와, 상기 운동 영상데이터에서 인식되는 운동 동작과 상기 표준 품새 영상데이터의 표준 동작을 비교하여 품새명을 추출하는 품새명추출부와, 상기 품새명추출부로부터 추출된 품새명, 상기 제4표시부에 감점점수가 기재되지 않은 제1표시부의 운동동작을 이용한 섬네일을 제작하고, 상기 편집품새 영상데이터의 시작부에 추가하는 섬네일제작부와, 상기 편집품새 영상데이터에 상기 섬네일을 추가시켜 판매 상품으로 제작하고, 상기 판매 상품을 제3자에게 판매될 수 있도록 마켓서버로 업로드하는 업로드부를 포함한다.
또한, 상기 상품 판매부는, 상기 마켓서버에 업로드된 판매 상품을 제3자 단말기에 표시되도록 상기 판매 상품을 등록하는 영상등록부와, 상기 제3자 단말기의 판매 상품 구매 요청에 따라, 요청된 판매 상품에 기 설정된 금액의 결제를 제3자 단말기에 요청하는 결제부와, 상기 결제부를 통해 결제가 이루어진 판매 상품이 상기 제3자 단말기로 다운로드되도록 하는 다운로드부와, 상기 제3자 단말기로 다운로드된 판매 상품에 대한 평가를 요청하는 평가요청부를 포함한다.
이상 살펴본 바와 같은 본 발명의 효과는, 카메라부로 촬영되어 제공되는 운동 영상데이터로부터 딥러닝 기반의 인공지능 영상분석알고리즘을 이용하여 운동 동작을 인식함으로써, 운동 동작을 인식하기 위한 별도의 특정 마커 부착이 필요하지 않으며, 사용자 움직임의 방향 및 속도 등을 감지하여 운동 동작을 실시간으로 빠르게 인식할 수 있는 인공지능형 태권도 품새 판독 및 교육 시스템을 제공할 수 있다.
도 1은 본 발명의 바람직한 실시예에 따른 인공지능형 태권도 품새 판독 및 교육 시스템을 나타낸 구성도이다.
도 2는 태권도 품새의 예시를 도시한 도면이다.
도 3은 본 발명의 바람직한 실시예에 따른 인공지능형 태권도 품새 판독 및 교육 시스템의 동작인식부가 인식한 운동 동작을 나타낸 예시도이다.
도 4 및 도 5는 본 발명의 바람직한 실시예에 따른 인공지능형 태권도 품새 판독 및 교육 시스템을 나타낸 구성도이다.
도 6은 본 발명의 바람직한 실시예에 따른 인공지능형 태권도 품새 판독 및 교육 시스템의 스마트기기에 표시되는 상태를 나타낸 예시도이다.
본 발명의 이점 및 특징, 그리고 그것들을 달성하는 방법은 첨부되는 도면과 함께 상세하게 후술되어 있는 실시예들을 참조하면 명확해질 것이다. 그러나 본 발명은 이하에서 개시되는 실시예들에 한정되는 것이 아니라 서로 다른 다양한 형태로 구현될 수 있으며, 단지 본 실시예들은 본 발명의 개시가 완전하도록 하고, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 발명의 범주를 완전하게 알려주기 위해 제공되는 것이며, 본 발명은 청구항의 범주에 의해 정의될 뿐이다. 명세서 전체에 걸쳐 동일 참조 부호는 동일 구성 요소를 지칭한다.
이하, 본 발명의 실시예들에 의하여 인공지능형 태권도 품새 판독 및 교육 시스템을 설명하기 위한 도면들을 참고하여 본 발명에 대해 설명하도록 한다.
도 1은 본 발명의 바람직한 실시예에 따른 인공지능형 태권도 품새 판독 및 교육 시스템을 나타낸 구성도이다. 도 2는 태권도 품새의 예시를 도시한 도면이다. 도 3은 본 발명의 바람직한 실시예에 따른 인공지능형 태권도 품새 판독 및 교육 시스템의 동작인식부가 인식한 운동 동작을 나타낸 예시도이다. 도 4 및 도 5는 본 발명의 바람직한 실시예에 따른 인공지능형 태권도 품새 판독 및 교육 시스템을 나타낸 구성도이다. 도 6은 본 발명의 바람직한 실시예에 따른 인공지능형 태권도 품새 판독 및 교육 시스템의 스마트기기에 표시되는 상태를 나타낸 예시도이다.
도 1 내지 도 3을 참조하면, 본 발명에 따른 인공지능형 태권도 품새 판독 및 교육 시스템은, 카메라부(10), 동작인식부(20), 저장부(30) 및 점수환산부(40)를 포함한다.
먼저, 카메라부(10)는, 운동하는 사용자의 움직임을 촬영하고, 촬영되는 운동 영상데이터를 제공한다.
이때, 카메라부(10)는, 적외선(IR : Infra-Red)의 반사 시간 차이를 이용한 TOF(Time-Of-flight) 방식의 깊이 카메라인 것이 바람직하나, 이에 한정하지 않는다.
이러한, TOF(Time-Of-flight) 방식의 깊이 카메라는, 레이저나 적외선을 객체나 대상 영역에 비추어 되돌아오는 광선을 받아 시간 차이를 계산하는 ToF 방식으로 거리 정보를 계산할 수 있다.
이에 따라, 본 발명의 카메라부(10)는, CCD카메라 영상 화소 단위로 깊이 정보를 얻을 수 있고, 3D 객체 인식의 움직이는 객체의 실시간 깊이 정보를 모으는데 활용되는 깊이 카메라인 것이 바람직하다.
동작인식부(20)는, 카메라부(10)로 촬영되어 제공되는 운동 영상데이터로부터 딥러닝 기반의 인공지능 영상분석알고리즘을 이용하여 운동 동작을 인식한다.
인공지능 영상분석알고리즘은 딥 러닝(기계학습) 및 딥 러닝을 활용한 요소 기술들로 구성된다.
딥 러닝은 입력 데이터의 특징들을 스스로 분류/학습하는 알고리즘이다.
요소 기술은 딥 러닝을 활용하여 인간 두뇌의 인지, 판단 등의 기능을 모사하는 기술로서, 시각적 이해, 추론/예측, 지식 표현 등의 기술들을 포함할 수 있다.
시각적 이해는 사물을 인간의 시각처럼 인식하여 처리하는 기술로서, 객체 인식, 객체 추적, 영상 검색, 사람 인식, 장면 이해, 공간 이해, 영상 개선 등을 포함할 수 있다. 추론/예측은 정보를 판단하여 논리적으로 추론하고 예측하는 기술로서, 지식/확률 기반 추론, 최적화 예측, 선호 기반계획, 추천 등을 포함할 수 있다. 지식 표현은 인간의 경험정보를 지식데이터로 자동화 처리하는 기술로서, 지식 구축(데이터 생성/분류), 지식 관리(데이터 활용) 등을 포함할 수 있다.
이러한, 딥러닝 기반의 인공지능 영상분석알고리즘으로 운동 동작을 인식하는 동작인식부(20)는, 데이터 학습부 및 데이터 분석부를 포함할 수 있다.
데이터 학습부는 CNN(Convolutional neural network)과 같은 신경망 알고리즘, SIFT(Scale Invariant Feature Transform)와 같은 비전 알고리즘을 수행할 수 있다. 데이터 학습부는 오브젝트/패턴 인지, 오브젝트들의 유사도 검사 등의 다양한 영상 분석 기준들을 학습할 수 있다. 데이터 학습부는 영상 분석을 위하여 어떤 데이터를 이용할지에 관한 기준들을 학습(traning)하고 추론(inferencing)할 수 있다. 데이터 학습부는 학습에 이용될 데이터를 획득하고, 획득된 데이터를 데이터 분석 모델에 적용함으로써, 영상 분석을 위한 기준을 학습해 나갈 수 있다.
또한, 데이터 분석부는 학습된 데이터 인식 모델을 이용하여 영상 분석을 수행할 수 있다. 데이터 분석부는 학습에 의해 설정된 기준들에 따라 데이터를 획득하고, 획득된 데이터를 입력 값으로 하는 데이터 분석모델을 이용함으로써 영상 분석을 수행하고, 분석에 따른 결과 정보를 출력할 수 있다.
즉, 동작인식부(20)는 상술한 분석에 따른 결과 정보 출력으로 운동 동작을 인식할 수 있다.
또한, 동작인식부(20)는, 운동 동작으로부터 골격을 기반으로 하는 관절과 뼈로 구성되는 2D와 3D의 스켈레톤 데이터를 추출할 수 있다. 그리고, 동작인식부(20)는, 운동 동작에 따른 신체 주요 부위에 대한 공간상의 x, y, z값을 추출하여 3차원의 스켈레톤 데이터를 추출할 수 있다. 또한, 동작인식부(20)는, 스켈레톤 데이터를 통해서 운동 동작과 표준 동작에서 관절부위별로 구분하여 인식할 수 있다.
상술한, 동작인식부(20)가, 운동 동작을 인식하고, 스켈레톤 데이터를 추출할 수 있는 기술은, 이미 공지된 기술에 관한 것이므로, 이에 대한 상세한 설명은 생략한다.
이하, 동작인식부(20)가 인식한 운동 동작은 정지된 자세를 나타내며, 정지된 자세에 3D의 스켈레톤 데이터가 표시된 것일 수 있으나, 이에 한정하지 않는다.
저장부(30)는, 미리 설정된 표준 동작이 저장되고, 딥러닝 기반의 인공지능 영상분석알고리즘을 이용하여 미리 학습된 특정 동작이 저장된다.
표준 동작은 미리 연산에 의하여 설정된 값일 수 있다. 또한 카메라부(10)를 통해서 촬영한 태권도 품새 시연자의 운동 영상데이터로부터 인식한 시연자의 시연 동작을 설정하여 저장할 수도 있다.
이때, 특정 동작은 시작동작과 종료동작으로 이루어진다. 시작동작과 종료동작은 품새에서 처음 동작과 마지막 동작으로, 서기 자세일 수 있으나, 이에 한정하지 않는다.
여기서, 인식한 운동 동작, 표준 동작, 특정 동작은 정지된 자세를 나타낸 스크린샷일 수 있으나, 이에 한정하지 않는다.
그리고 저장부(30)에는, 표준 동작으로 이루어진 표준품새 영상데이터가 저장되되, 표준품새 영상데이터의 품새명으로 분류 저장된다.
이때, 저장부(30)는, 후술할 점수환산부(40)로 운동 동작과 표준 동작의 비교에서 차이가 없을 때의 운동 영상데이터를 표준품새 영상데이터로 지정할 수 있으며, 지정된 표준품새 영상데이터와 이에 품새명을 매칭시켜 분류 저장한다.
점수환산부(40)는, 운동 동작에서 특정 동작을 인식한 후에 인식되는 운동 동작과 표준 동작을 비교하여 차이를 나타내는 정도를 점수로 환산한다.
즉, 점수환산부(40)는, 사용자가 시작동작하고, 동작인식부(20)가 시작동작을 인식하면 시작동작부터 사용자가 행하는 운동 동작과 표준 동작을 비교하여 차이를 나타내는 정도를 점수로 환산한다. 그리고 점수환산부(40)는 사용자가 종료동작하고, 동작인식부(20)가 종료동작을 인식하면 더 이상 표준 동작과 비교하지 않고 점수의 환산을 중지할 수 있다.
이에 따라, 품새를 행할 때의 운동 동작만으로 점수를 환산하고, 사용자가 품새를 시작하기 전과, 끝난 후에 행하는 운동 동작은 점수로 환산하지 않으므로, 좀 더 정확하게 품새를 점수로 환산할 수 있어, 심판이나 관리자가 본 발명의 조작을 하지 않아도 되는 사용용이성이 있다.
한편, 도 4를 참조하면, 본 발명에 따른 인공지능형 태권도 품새 판독 및 교육 시스템, 코드발급부(51), 사용자추출부(52) 및 판독설정부(53)를 더 포함한다.
코드발급부(51)는, 사용자의 얼굴과 개인정보가 입력되면, 얼굴과 개인정보를 포함하는 식별코드를 사용자에게 발급한다.
이때, 식별코는 2차원 또는 3차원코드로 이루어질 수 있으나, 이에 한정하지 않는다.
그리고, 코드발급부(51)는, 사용자의 얼굴과 개인정보 및 식별코드를 매칭시켜 저장할 수 있다.
이에 따라, 점수환산부(40)는, 사용자가 발급된 식별코드와 사용자 얼굴을 카메라부(10)에 인식시키면, 기 저장한 사용자의 얼굴과 식별코드와 비교하여 일치할 때만 품새의 운동 동작에 대해 점수환산한다.
이를 위해, 사용자추출부(52)는, 코드발급부(51)로부터 발급된 식별코드와 얼굴이 카메라부(10)로부터 인식되면, 인식된 얼굴을 포커싱하도록 카메라부(10)를 제어한다.
그리고, 사용자추출부(52)는, 동작인식부(20)가 특정 사용자의 운동 동작만 인식할 수 있도록 카메라부(10)가 포커싱하는 얼굴의 테두리와 연결된 사용자만 추출한다.
즉, 카메라부(10)에 인식되지 않은 얼굴을 갖는 또 다른 사용자의 운동 동작이 카메라부(10)에 촬영되어도, 동작인식부(20)는 또 다른 사용자의 운동 동작을 인식하지 못하고, 카메라부(10)에 사전 인식되어 포커싱되고 있는 얼구를 갖는 사용자만의 운동 동작을 인식한다.
판독설정부(53)는, 사용자추출부(52)가 추출한 사용자만의 운동 동작을 동작인식부(20)가 인식할 때, 인식하는 운동 동작중에서 시작동작이 인식되면 품새 판독의 시작으로 판단하고, 종료동작이 인식되면 품새 판독의 종료로 판단하여 품새를 판독하는 시작과 종료를 설정한다.
그리고, 점수환산부(40)는, 판독설정부(53)가 설정한 시작과 종료 사이에 인식된 운동 동작만 표준 동작과 비교하여 카메라부(10)가 인식하고 포커싱한 사용자에 대한 품새 점수를 환산한다.
이와 같이, 특정 사용자에 대한 품새의 운동 동작만을 점수로 환산하므로, 특정 사용자를 제외한 또 다른 사용자의 품새 이외의 동작으로 인한 점수 환산 오류를 방지하고, 특정 사용자의 품새 동작 외의 또 다른 동작으로 인한 점수 환산 오류를 방지할 뿐만 아니라, 객관적이고 일관된 기준에 따른 품새 판정의 공정성을 증대시킬 수 있다.
이때, 운동 영상데이터는, 사용자가 시작동작을 취하기 일정시간부터 종료동작을 취한 후 일정시간동안 카메라부(10)로 촬영된 영상데이터로 이루어질 수 있으나, 이에 한정하지 않는다.
한편, 도 5 및 6을 참조하면, 본 발명에 따른 인공지능형 태권도 품새 판독 및 교육 시스템은, 영상분할부(54), 데이터전송부(55), 스마트기기(60) 및 어플리케이션(61)을 더 포함한다.
영상분할부(54)는, 판독설정부(53)로부터 사용자의 품새 판독의 종료가 이루어지면, 사용자의 품새 판독의 시작부터 종료까지의 운동 영상데이터를 분할하되, 표준 동작과 대응되는 운동 동작을 기준으로 분할한다.
즉, 영상분할부(54)는, 운동 영상데이터를 각 운동 동작에 대한 영상으로 이루어진 다수의 분할 영상데이터를 생성하는 것이다.
예를 들어, 품새가 30개의 운동 동작으로 이루어졌으면, 운동 영상데이터는 1개이며, 분할 영상데이터는 30개로 이루어진다.
이로 인해, 사용자는 영상분할부(54)로 생성된 분할 영상데이터로 품새의 운동 동작별로 분할된 분할 영상데이터를 확인 및 어느 하나의 분할 영상데이터만 반복적으로 확인할 수 있다. 이는, 사용자가 다수의 분할 영상데이터 중에 원하는 분할 영상데이터만 선택할 수 있어, 학습활용에 효율적이다.
예를 들어, 사용자가 감점없는 분할 영상데이터와 감점있는 분할 영상데이터를 구분하여 감점있는 분할 영상데이터를 통해 태권도 품새 학습을 진행할 수 있다. 또한, 지도자는 분할 영상데이터를 통해 품새의 각 운동 동작에 대해서 빠르게 식별하고 사용자에게 지도할 분할 영상데이터만으로 지도할 수 있다. 이 외에도 다양한 방식으로 사용자와 지도자 간의 학습에 유용하게 활용될 수 있다.
데이터전송부(55)는, 분할 영상데이터, 동작인식부(20)에서 인식한 운동 동작, 점수환산부(40)에서 운동 동작과 비교한 표준 동작, 환산한 품새 점수 및 동작 비교로 차이를 나타내는 관절부분을 추출한 감점데이터를 매칭시켜 개인정보에 포함된 연락처로 전송한다.
여기서, 감점데이터는 운동 동작과 표준 동작을 비교하여 차이가 나타난 관절부분을 말한다. 이때, 차이가 나타난 관절부분 즉, 감점원인이 된 관절부분은 후술할 어플리케이션(61)a에 표시된다.
스마트기기(60)는, 사용자의 연락처가 등록되어, 데이터전송부(55)가 전송하는 데이터를 수신 가능하다.
어플리케이션(61)은 스마트기기(60)에 설치되어, 데이터전송부(55)가 전송한 데이터를 확인하고 편집할 수 있는 사용자 인터페이스로 이루어진다.
이러한, 어플리케이션(61)은, 표시부(62), 재생부(63)를 포함한다.
표시부(62)는, 수신한 데이터를 스마트기기(60)의 디스플레이부에 표시한다.
이때, 표시부(62)는, 운동 동작을 표시하는 어플리케이션(61)a, 운동 동작에 비교되는 표준 동작을 표시하는 표시부(62)b, 운동 동작과 표준 동작을 오버랩시킨 오버랩 동작을 표시하는 재생부(63)c 및 운동 동작과 표준 동작의 비교로 환산된 품새 점수를 표시하는 재생부(63)d를 디스플레이부에 분할하여 표시한다.
그리고 표시부(62)는, 분할 영상데이터를 기준으로 리스트를 표시하고, 선택되는 분할 영상데이터에 매칭된 운동 동작, 표준 동작, 오버랩 동작 및 품새 점수를 어플리케이션(61)a 내지 재생부(63)d를 통해 표시한다.
특히, 재생부(63)c는, 오버랩 동작을 표시하며 감점데이터를 더 표시할 수 있다.
이에 따라, 사용자는 품새의 각 동작을 확인하는 동시에, 오버랩 동작으로 차이나는 부분을 정확하게 인지할 수 있고, 감점데이터로 감점된 원인을 파악함으로써, 품새의 각 동작 별로 확인과 정확한 동작 습득으로 개인 수련에 도움될 뿐만 아니라, 또 다른 사용자에게 교육자료로 활용될 수 있다.
또한, 표시부(62)는, 표준 동작에 대한 설명, 감점원인에 대한 설명, 운동 동작에 대한 코칭 설명을 텍스트로 입력 가능한 영상편집 제공부(64)e를 디스플레이부에 더 분할하여 표시할 수 있다.
이때, 사용자는 영상편집 제공부(64)e에 텍스트를 입력하여 코칭 설명을 기록할 수 있어, 추후 표시부(62)를 통해 보다 용이한 학습을 할 수 있다.
재생부(63)는, 어플리케이션(61)a가 사용자에 의해 터치되면, 터치된 어플리케이션(61)a에 표시된 운동 동작을 하기까지의 움직임을 확인할 수 있도록 운동 동작에 대응하는 분할 영상데이터를 어플리케이션(61)a에 재생시킨다. 이때, 재생부(63)는, 재생부(63)c에 표시된 오버랩 동작시점으로 갈수록 재생시킨 분할 영상데이터의 재생속도를 느리게 제어한다.
또한, 표시부(62)는, 분할 영상데이터가 재생될 때, 재생부(63)d에 표시된 품새 점수가 감점상태이면, 분할 영상데이터의 재생영상에 감점데이터를 표시하되 감점이 발생하는 시점에 기 설정된 도형을 점멸시키며 표시하여 감점원인이 된 관절부분을 확인시킬 수 있다.
이에 따라, 사용자는 느리게 재생되는 분할 영상데이터로 자세하게 자세를 확인할 수 있으며, 점멸되는 도형으로 감점원인이 된 관절부분을 식별하여 정확한 동작 습득을 할 수 있다.
한편, 어플리케이션(61)은, 영상편집 제공부(64) 및 상품 판매부(65)를 더 포함한다.
영상편집 제공부(64)는, 분할 영상데이터와 텍스트 및 품새명을 편집한 편집품새 영상데이터를 제3자에게 판매되도록 마켓서버에 업로드한다.
상품 판매부(65)는 마켓서버에 업로드된 편집품새 영상데이터를 판매 상품으로 등록하여 제3자 단말기의 요청에 따라 판매 상품을 제공한다.
이때, 어플리케이션(61)은 마켓서버에 업로드되어 저장된 편집품새 영상데이터를 공유 및 거래를 할 수 있는 사용자 인터페이스를 제공한다.
즉, 어플리케이션(61)은 편집품새 영상데이터를 공유하고 거래할 수 있도록 하여, 누구나 쉽게 태권도를 접하고 배울 수 있도록 할 수 있다.
이를 위해, 영상편집 제공부(64)는, 품새 영상편집부, 품새명추출부, 섬네일제작부, 업로드부를 포함한다.
품새 영상편집부는, 재생부(63)에서 재생되는 분할 영상데이터와 영상편집 제공부(64)e에 입력된 텍스트를 포함하는 목록을 생성하여 사용자에게 제공하고, 목록에서 사용자로부터 선택되는 분할 영상데이터와 선택된 분할 영상데이터 일부에 텍스트를 추가하는 편집을 진행한 후, 텍스트가 추가된 분할 영상데이터를 연결하여 편집품새 영상데이터로 생성한다.
편집품새 영상데이터는, 분할 영상데이터와 텍스트를 함께 확인할 수 있는 데이터이다.
품새명추출부는, 운동 영상데이터에서 인식되는 운동 동작과 표준 품새 영상데이터의 표준 동작을 비교하여 품새명을 추출한다.
섬네일제작부는, 품새명추출부로부터 추출된 품새명, 재생부(63)d에 감점점수가 기재되지 않은 어플리케이션(61)a의 운동동작을 이용한 섬네일을 제작하고, 편집품새 영상데이터의 시작부에 추가한다.
즉, 편집품새 영상데이터의 섬네일을 자동으로 생성함으로써, 사용자가 별도의 편집을 하지 않는 편리함이 있다.
업로드부는, 편집품새 영상데이터에 섬네일을 추가시켜 판매 상품으로 제작하고, 판매 상품을 제3자에게 판매될 수 있도록 마켓서버로 업로드한다.
상품 판매부(65)는, 영상등록부, 결제부, 다운로드부 및 평가요청부를 포함한다.
영상등록부는, 마켓서버에 업로드된 판매 상품을 제3자 단말기에 표시되도록 판매 상품을 등록한다.
이때, 등록된 판매 상품은 사용자별로 생성된 개인 페이지에 등록될 수 있다. 이를 위해, 상품 판매부(65)는 사용자별 개인 웹페이지를 생성하는 웹페이지 생성부를 더 포함할 수 있다.
결제부는, 제3자 단말기의 판매 상품 구매 요청에 따라, 요청된 판매 상품에 기 설정된 금액의 결제를 제3자 단말기에 요청한다.
다운로드부는, 결제부를 통해 결제가 이루어진 판매 상품이 제3자 단말기로 다운로드되도록 한다.
평가요청부는, 제3자 단말기로 다운로드된 판매 상품에 대한 평가를 요청한다.
따라서, 제3자는 판매 상품을 통해서 품새를 배울 수 있되, 감점된 운동 동작과 코칭된 텍스트를 통해서 다양한 동작을 학습할 수 있다.
본 발명이 속하는 기술분야의 통상의 지식을 가진 자는 본 발명이 그 기술적 사상이나 필수적인 특징을 변경하지 않고서 다른 구체적인 형태로 실시될 수 있다는 것을 이해할 수 있을 것이다. 그러므로 이상에서 기술한 실시예들은 모든 면에서 예시적인 것이며 한정적이 아닌 것으로 이해해야만 한다. 본 발명의 범위는 상세한 설명보다는 후술하는 특허청구의 범위에 의하여 나타내어지며, 특허청구의 범위의 의미 및 범위 그리고 그 균등 개념으로부터 도출되는 모든 변경 또는 변형된 형태가 본 발명의 범위에 포함되는 것으로 해석되어야 한다. 더불어, 상술하는 과정에서 기술된 구성의 작동순서는 반드시 시계열적인 순서대로 수행될 필요는 없으며, 각 구성 및 단계의 수행 순서가 바뀌어도 본 발명의 요지를 충족한다면 이러한 과정은 본 발명의 권리범위에 속할 수 있음은 물론이다.
10 : 카메라부 20 : 동작인식부
30 : 저장부 40 : 점수환산부
51 : 코드발급부 52 : 사용자추출부
53 : 판독설정부 54 : 영상분할부
55 : 데이터전송부 60 : 스마트기기
61 : 어플리케이션 62 : 표시부
62a : 제1표시부 62b : 제2표시부
62c : 제3표시부 62d : 제4표시부
62e : 제5표시부 63 : 재생부
64 : 영상편집 제공부 65 : 상품 판매부

Claims (3)

  1. 사용자의 움직임을 촬영하고, 촬영되는 운동 영상데이터를 제공하는 카메라부;
    상기 카메라부로 촬영되어 제공되는 운동 영상데이터로부터 딥러닝 기반의 인공지능 영상분석알고리즘을 이용하여 운동 동작을 인식하는 동작인식부;
    미리 설정된 표준 동작이 저장되고, 딥러닝 기반의 인공지능 영상분석알고리즘을 이용하여 미리 학습된 특정 동작이 저장된 저장부; 및
    상기 운동 동작에서 특정 동작을 인식한 후에 인식되는 운동 동작과 표준 동작을 비교하여 차이를 나타내는 정도를 점수로 환산하는 점수환산부;를 포함하고,
    상기 저장부는, 딥러닝 기반의 인공지능 영상분석알고리즘을 이용하여 미리 학습되어 저장된 시작동작, 종료동작이 저장되고,
    상기 사용자의 얼굴과 개인정보가 입력되면, 상기 얼굴과 개인정보를 포함하는 식별코드를 상기 사용자에게 발급하는 코드발급부;
    상기 코드발급부로부터 발급된 식별코드와 얼굴이 상기 카메라부로부터 인식되면, 인식된 얼굴을 포커싱하도록 상기 카메라부를 제어하고, 상기 동작인식부가 특정 사용자의 운동 동작만 인식할 수 있도록 상기 카메라부가 포커싱하는 얼굴의 테두리와 연결된 사용자만 추출하는 사용자추출부;
    상기 사용자추출부가 추출한 사용자만의 운동 동작을 동작인식부가 인식할 때, 인식하는 운동 동작중에서 상기 시작동작이 인식되면 품새 판독의 시작으로 판단하고, 종료동작이 인식되면 품새 판독의 종료로 판단하여 상기 품새를 판독하는 시작과 종료를 설정하는 판독설정부;를 더 포함하고,
    상기 점수환산부는, 상기 판독설정부가 설정한 시작과 종료 사이에 인식된 운동 동작만 표준 동작과 비교하여 상기 카메라부가 인식하고 포커싱한 사용자에 대한 품새 점수를 환산하고,
    상기 판독설정부로부터 사용자의 품새 판독의 종료가 이루어지면, 사용자의 품새 판독의 시작부터 종료까지의 운동 영상데이터를 분할하되, 상기 표준 동작과 대응되는 운동 동작을 기준으로 분할하여 각 운동 동작에 대한 영상으로 이루어진 다수의 분할 영상데이터를 생성하는 영상분할부;
    상기 분할 영상데이터, 상기 동작인식부에서 인식한 운동 동작, 상기 점수환산부에서 운동 동작과 비교한 표준 동작, 환산한 품새 점수 및 동작 비교로 차이를 나타내는 관절부분을 추출한 감점데이터를 상기 개인정보에 포함된 연락처로 전송하는 데이터전송부;
    상기 연락처가 등록되어, 상기 데이터전송부가 전송하는 데이터를 수신 가능한 스마트기기; 및
    상기 스마트기기에 설치된 어플리케이션;을 더 포함하고,
    상기 어플리케이션은,
    수신한 데이터를 스마트기기의 디스플레이부에 표시하되, 상기 운동 동작을 표시하는 제1표시부, 상기 운동 동작에 비교되는 표준 동작을 표시하는 제2표시부, 상기 운동 동작과 표준 동작을 오버랩시킨 오버랩 동작을 표시하는 제3표시부 및 상기 운동 동작과 표준 동작의 비교로 환산된 품새 점수를 표시하는 제4표시부를 상기 디스플레이부에 분할하여 표시하는 표시부와,
    상기 제1표시부가 사용자에 의해 터치되면, 터치된 상기 제1표시부에 표시된 운동 동작을 하기까지의 움직임을 확인할 수 있도록 상기 운동 동작에 대응하는 분할 영상데이터를 제1표시부에 재생시키되, 상기 제3표시부에 표시된 오버랩 동작시점으로 갈수록 재생시킨 분할 영상데이터의 재생속도를 느리게 제어하는 재생부를 포함하고,
    상기 표시부는, 상기 분할 영상데이터가 재생될 때, 상기 제4표시부에 표시된 품새 점수가 감점상태이면, 상기 분할 영상데이터의 재생영상에 감점데이터를 표시하되 감점이 발생하는 시점에 기 설정된 도형을 점멸시키며 표시하여 감점원인이 된 관절부분을 확인시키고,
    상기 표시부는, 상기 표준 동작에 대한 설명, 상기 감점원인에 대한 설명, 상기 운동 동작에 대한 코칭 설명을 텍스트로 입력 가능한 제5표시부를 상기 디스플레이부에 더 분할하여 표시하고,
    상기 저장부에는, 표준 동작으로 이루어진 표준품새 영상데이터가 저장되되, 상기 표준품새 영상데이터의 품새명으로 분류 저장되고,
    상기 어플리케이션은, 상기 분할 영상데이터와 텍스트 및 품새명을 편집한 편집품새 영상데이터를 제3자에게 판매되도록 마켓서버에 업로드하는 영상편집 제공부 및 업로드된 편집품새 영상데이터를 판매 상품으로 등록하여 제3자 단말기의 요청에 따라 판매 상품을 제공하는 상품 판매부를 더 포함하고,
    상기 영상편집 제공부는, 상기 재생부에서 재생되는 분할 영상데이터와 상기 제5표시부에 입력된 텍스트를 포함하는 목록을 생성하여 사용자에게 제공하고, 상기 목록에서 사용자로부터 선택되는 분할 영상데이터와 선택된 분할 영상데이터 일부에 상기 텍스트를 추가하는 편집을 진행한 후, 텍스트가 추가된 분할 영상데이터를 연결하여 편집품새 영상데이터로 생성하는 품새 영상편집부와, 상기 운동 영상데이터에서 인식되는 운동 동작과 상기 표준 품새 영상데이터의 표준 동작을 비교하여 품새명을 추출하는 품새명추출부와, 상기 품새명추출부로부터 추출된 품새명, 상기 제4표시부에 감점점수가 기재되지 않은 제1표시부의 운동동작을 이용한 섬네일을 제작하고, 상기 편집품새 영상데이터의 시작부에 추가하는 섬네일제작부와, 상기 편집품새 영상데이터에 상기 섬네일을 추가시켜 판매 상품으로 제작하고, 상기 판매 상품을 제3자에게 판매될 수 있도록 마켓서버로 업로드하는 업로드부를 포함하며,
    상기 상품 판매부는, 상기 마켓서버에 업로드된 판매 상품을 제3자 단말기에 표시되도록 상기 판매 상품을 등록하는 영상등록부와, 상기 제3자 단말기의 판매 상품 구매 요청에 따라, 요청된 판매 상품에 기 설정된 금액의 결제를 제3자 단말기에 요청하는 결제부와, 상기 결제부를 통해 결제가 이루어진 판매 상품이 상기 제3자 단말기로 다운로드되도록 하는 다운로드부와, 상기 제3자 단말기로 다운로드된 판매 상품에 대한 평가를 요청하는 평가요청부를 포함하는 인공지능형 태권도 품새 판독 및 교육 시스템.
  2. 삭제
  3. 삭제
KR1020200175485A 2020-12-15 2020-12-15 인공지능형 태권도 품새 판독 및 교육 시스템 KR102304641B1 (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020200175485A KR102304641B1 (ko) 2020-12-15 2020-12-15 인공지능형 태권도 품새 판독 및 교육 시스템

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020200175485A KR102304641B1 (ko) 2020-12-15 2020-12-15 인공지능형 태권도 품새 판독 및 교육 시스템

Publications (1)

Publication Number Publication Date
KR102304641B1 true KR102304641B1 (ko) 2021-09-24

Family

ID=77914773

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020200175485A KR102304641B1 (ko) 2020-12-15 2020-12-15 인공지능형 태권도 품새 판독 및 교육 시스템

Country Status (1)

Country Link
KR (1) KR102304641B1 (ko)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP4216228A1 (en) * 2022-01-25 2023-07-26 LG Electronics Inc. Method of providing customized training content and user terminal for implementing the same
KR102630799B1 (ko) * 2023-07-26 2024-01-29 주식회사 에이아이태권도 인공지능을 이용한 음성 인식 기반 태권도 동작 평가방법 및 장치

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101576106B1 (ko) * 2014-10-14 2015-12-10 순천향대학교 산학협력단 깊이 카메라를 이용한 인체골격 기반의 태권도 품새 인식 및 승단 심사 장치 와 그 방법
JP2020031406A (ja) * 2018-08-24 2020-02-27 独立行政法人日本スポーツ振興センター 判定システム、及び判定方法
KR20200022788A (ko) 2018-08-23 2020-03-04 전자부품연구원 동작분석 장치 및 방법
KR102112236B1 (ko) * 2019-09-26 2020-05-18 주식회사 홀로웍스 모션 디텍팅 기반의 가상 품새 에스티메이팅 시스템
KR20200056233A (ko) 2018-11-14 2020-05-22 주식회사 퓨전소프트 단일 카메라 기반의 인공지능 자세 분석 기술을 이용한 동작 정확도 판정 시스템
KR20200129327A (ko) * 2019-05-08 2020-11-18 아이픽셀 주식회사 퍼스널 트레이닝 서비스 제공 방법 및 시스템

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101576106B1 (ko) * 2014-10-14 2015-12-10 순천향대학교 산학협력단 깊이 카메라를 이용한 인체골격 기반의 태권도 품새 인식 및 승단 심사 장치 와 그 방법
KR20200022788A (ko) 2018-08-23 2020-03-04 전자부품연구원 동작분석 장치 및 방법
JP2020031406A (ja) * 2018-08-24 2020-02-27 独立行政法人日本スポーツ振興センター 判定システム、及び判定方法
KR20200056233A (ko) 2018-11-14 2020-05-22 주식회사 퓨전소프트 단일 카메라 기반의 인공지능 자세 분석 기술을 이용한 동작 정확도 판정 시스템
KR20200129327A (ko) * 2019-05-08 2020-11-18 아이픽셀 주식회사 퍼스널 트레이닝 서비스 제공 방법 및 시스템
KR102112236B1 (ko) * 2019-09-26 2020-05-18 주식회사 홀로웍스 모션 디텍팅 기반의 가상 품새 에스티메이팅 시스템

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP4216228A1 (en) * 2022-01-25 2023-07-26 LG Electronics Inc. Method of providing customized training content and user terminal for implementing the same
KR102630799B1 (ko) * 2023-07-26 2024-01-29 주식회사 에이아이태권도 인공지능을 이용한 음성 인식 기반 태권도 동작 평가방법 및 장치

Similar Documents

Publication Publication Date Title
JP7325668B2 (ja) シーンアウェア映像対話
KR20150008345A (ko) 온라인 댄스 강의 시스템
KR102304641B1 (ko) 인공지능형 태권도 품새 판독 및 교육 시스템
WO2018233398A1 (zh) 学习监控方法、装置及电子设备
KR102106135B1 (ko) 행동 인식 기반의 응용 서비스 제공 장치 및 그 방법
CN105426827A (zh) 活体验证方法、装置和系统
CN110211222B (zh) 一种ar沉浸式旅游导览方法、装置、存储介质及终端设备
JP2022532772A (ja) ポーズ類似度判別モデル生成方法及びポーズ類似度判別モデル生成装置
Zhao et al. An intelligent augmented reality training framework for neonatal endotracheal intubation
US20230267768A1 (en) Quantitative, biomechanical-based analysis with outcomes and context
Maes et al. Dance-the-Music: an educational platform for the modeling, recognition and audiovisual monitoring of dance steps using spatiotemporal motion templates
Alshammari et al. Robotics Utilization in Automatic Vision-Based Assessment Systems From Artificial Intelligence Perspective: A Systematic Review
Mastorakis Human-like machine learning: limitations and suggestions
US20220223067A1 (en) System and methods for learning and training using cognitive linguistic coding in a virtual reality environment
KR20170140756A (ko) 동작 교본 저작 장치, 동작 자가 학습 장치 및 방법
US11620783B2 (en) 3D avatar generation and robotic limbs using biomechanical analysis
US20240013675A1 (en) A computerized method for facilitating motor learning of motor skills and system thereof
Deotale et al. Human activity recognition in untrimmed video using deep learning for sports domain
Chuan et al. Human action recognition based on action forests model using kinect camera
CN113781271A (zh) 化妆教学方法及装置、电子设备、存储介质
CN111105651A (zh) 基于ar的废弃物归类的教学方法及系统
KR102415356B1 (ko) 폐쇄형 쇼 호스팅 서비스 제공 시스템 및 그 방법
KR102596248B1 (ko) 모션캡쳐 기반의 초실감형 컨텐츠 제공 방법 및 그를 위한 시스템
Fauzan et al. Development of a Facial Recognition-based Attendance System using Binary Patterns Histograms Method and Telegram Bot Notification
KR102347692B1 (ko) 움직임 정보 기반의 신체 자세 피드백 서비스 장치, 방법, 컴퓨터 판독 가능한 기록 매체 및 컴퓨터 프로그램

Legal Events

Date Code Title Description
GRNT Written decision to grant