JP2016081504A - 深度カメラを用いた人体の骨格に基づくテコンドープムセの認識及び昇段審査装置とその方法 - Google Patents

深度カメラを用いた人体の骨格に基づくテコンドープムセの認識及び昇段審査装置とその方法 Download PDF

Info

Publication number
JP2016081504A
JP2016081504A JP2015041146A JP2015041146A JP2016081504A JP 2016081504 A JP2016081504 A JP 2016081504A JP 2015041146 A JP2015041146 A JP 2015041146A JP 2015041146 A JP2015041146 A JP 2015041146A JP 2016081504 A JP2016081504 A JP 2016081504A
Authority
JP
Japan
Prior art keywords
motion
recognition
taekwondo
type
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2015041146A
Other languages
English (en)
Other versions
JP5986656B2 (ja
Inventor
ナム,ユン−ヨン
Yun-Young Nam
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Industry Academy Cooperation Foundation of Soonchunhyang University
Original Assignee
Industry Academy Cooperation Foundation of Soonchunhyang University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Industry Academy Cooperation Foundation of Soonchunhyang University filed Critical Industry Academy Cooperation Foundation of Soonchunhyang University
Publication of JP2016081504A publication Critical patent/JP2016081504A/ja
Application granted granted Critical
Publication of JP5986656B2 publication Critical patent/JP5986656B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/20Movements or behaviour, e.g. gesture recognition
    • G06V40/23Recognition of whole body movements, e.g. for sport training
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63BAPPARATUS FOR PHYSICAL TRAINING, GYMNASTICS, SWIMMING, CLIMBING, OR FENCING; BALL GAMES; TRAINING EQUIPMENT
    • A63B71/00Games or sports accessories not covered in groups A63B1/00 - A63B69/00
    • A63B71/06Indicating or scoring devices for games or players, or for other sports activities
    • A63B71/0605Decision makers and devices using detection means facilitating arbitration
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63BAPPARATUS FOR PHYSICAL TRAINING, GYMNASTICS, SWIMMING, CLIMBING, OR FENCING; BALL GAMES; TRAINING EQUIPMENT
    • A63B24/00Electric or electronic controls for exercising apparatus of preceding groups; Controlling or monitoring of exercises, sportive games, training or athletic performances
    • A63B24/0003Analysing the course of a movement or motion sequences during an exercise or trainings sequence, e.g. swing for golf or tennis
    • A63B24/0006Computerised comparison for qualitative assessment of motion sequences or the course of a movement
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/246Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09BEDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
    • G09B19/00Teaching not covered by other main groups of this subclass
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09BEDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
    • G09B19/00Teaching not covered by other main groups of this subclass
    • G09B19/003Repetitive work cycles; Sequence of movements
    • G09B19/0038Sports
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10028Range image; Depth image; 3D point clouds
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N2013/0074Stereoscopic image analysis
    • H04N2013/0085Motion estimation from stereoscopic image signals

Landscapes

  • Engineering & Computer Science (AREA)
  • Business, Economics & Management (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Educational Technology (AREA)
  • Educational Administration (AREA)
  • Entrepreneurship & Innovation (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physical Education & Sports Medicine (AREA)
  • Signal Processing (AREA)
  • Psychiatry (AREA)
  • Social Psychology (AREA)
  • Human Computer Interaction (AREA)
  • User Interface Of Digital Computer (AREA)
  • Image Analysis (AREA)

Abstract

【課題】 深度カメラを用いて人体の骨格に基づくテコンドー型を認識し、これを用いて自動的に昇段有無を判定する昇段審査装置とその方法を提供すること。【解決手段】 深度カメラを用いた人体の骨格に基づくテコンドー型の認識及び昇段審査装置において、深度カメラから入力されたオブジェクトの特徴を取り出す特徴取出し部と、前記オブジェクトの様々な動作を定義するための動作定義部と、前記特徴取出し部及び前記動作定義部により得られた情報を用いて前記オブジェクトの行動を認識する動作認識部と、前記動作認識部において確定された前記オブジェクトの動作の正確度を判定する判定部と、を備えるテコンドー型の認識及び昇段審査装置。【選択図】 図1

Description

本発明は、キネクト(登録商標)などの深度カメラを用いて人体の骨格を取り出してこれをテコンドー型(プムセ)の認識及び昇段審査に利用するための昇段審査装置とその方法に関する。
人間の動作認識技術は、センサーや特定の装置を人間の身体に取り付けて身体の動きを感知したデータを動作認識に活用する接触方式と、カメラを用いて人間の動作映像を追跡して動作認識情報を取り出す非接触方式と、に大別される。接触方式は、ユーザーの動きを感知可能なセンサーや装置を人間の身体に直接的に取り付けてこのユーザーの動き情報を取得する方式であり、この直接的に取り付けられたセンサーにより比較的に正確な情報が得られるというメリットがあるが、ユーザーがセンサーや装置を着用することを余儀なくされるという不都合がある。これに対し、非接触方式は、ほとんどの場合、人間の動作映像を撮影した後に動き情報を取り出す技術を利用する。
接触方式の3Dコンテンツの制御方法は、ユーザーの動きを感知可能なセンサーや装置をユーザーが自ら着用して3Dコンテンツと相互作用するものである。接触方式のインタフェースの代表例としては、光ファイバ、磁気センサー、ジャイロセンサーを用いたデータグローブ、モーショントラッカーなどが挙げられる。接触方式による入力装置はほとんど商用化されている。例えば、3D製作されたナビゲーションコンテンツにおけるタッチに基づく3Dインタラクション操作インタフェース、任天堂社のWii
Remote(登録商標)モーションコントローラインタフェース、ソニー社のPlay Station(登録商標) Moveインタフェース、スペースマウスに代え得るGlobalFishインタフェース、ジョイスティックを弾性体リングを用いて製作してタッチパッドを組み込んだGroove
Padインタフェースなど様々な3D物理的インタフェースが挙げられる。
非接触方式に基づく3Dコンテンツの制御方法は、ほとんどの場合、カメラを用いて取得した映像情報から人間の動きを追跡して認識する。非接触方式は、身体部位に特定のマーカーを取り付け、視覚技術を用いて身体の動きを追跡するマーカーに基づく方式と、マーカーを用いないマーカーレス方式と、に大別される。マーカーに基づく方式は、映像のカラー、形状、発光ダイオード(LED)、赤外線などをマーカー属性として予め定めておき、そのマーカーを追跡することにより比較的に手軽に且つ迅速にユーザーの動作を追跡することができる。この方法は、映像の特徴点の取出しを相対的に速やかに行うことができるが、ユーザーは依然として不自然なマーカーを取り付けることを余儀なくされるという欠点がある。マーカーレス方式は、オプティカルフロー、背景分離技法、モーションヒストリーイメージなどの技法を用いてユーザーの動きの方向及び速度などを感知して動きをリアルタイムにて迅速に追跡することができ、また、光源の明るさを追跡して動きを追跡したりする。マーカーレス方式は、カメラの位置、光源の干渉、陰影などの外部要因に脆弱であるという欠点がある。
テコンドー昇段審査は、全的に審査委員の主観的な判断により行われ、審査委員個々人の好み、気持ちなど外的要因の影響を受けやすいため一貫した基準がなく、それ故に不満が募っていた。
大韓民国公開特許公報10−2013−0044473号(2010年 5月 3日)
本発明は上述した問題を解決するために案出されたものであり、その目的は、深度カメラを用いて人間の動きに関する深度情報とビジュアル情報とを取り出し、これを用いてテコンドー型を認識し、昇段審査を自動的に行う昇段審査装置を提供することである。
本発明の他の目的は、人間のテコンドー動作の昇段基準の符合有無を判断するために標準型動作に関するデータが格納されている標準型動作データベースのデータと深度カメラから受け取った座標値とを比較して正確度を測定し、テコンドー型の連続したシーケンスを比較して合格基準の充足有無を判断する方法を行う昇段審査装置を提供することである。
上記の目的を達成するために、本発明の一実施形態による深度カメラを用いた人体の骨格に基づくテコンドー型の認識及び昇段審査装置は、深度カメラから入力されたオブジェクトの特徴を取り出す特徴取出し部と、前記オブジェクトの様々な動作を定義するための動作定義部と、前記特徴取出し部及び前記動作定義部により得られた情報を用いて前記オブジェクトの行動を認識する動作認識部と、前記動作認識部において確定された前記オブジェクトの動作の正確度を判定する判定部と、を備えることを特徴とする。
また、上記の目的を達成するために、本発明の一実施形態による深度カメラを用いた人体の骨格に基づくテコンドー型の認識及び昇段審査方法は、深度カメラから入力されたオブジェクトの特徴を取り出す特徴取出ステップと、前記オブジェクトの様々な動作を定義するための動作定義ステップと、前記特徴取出ステップ及び前記動作定義ステップにより得られた情報を用いて前記オブジェクトの行動を認識する動作認識ステップと、前記動作認識部において確定された前記オブジェクトの動作の正確度を判定する判定ステップと、を含むことを特徴とする。
本発明の一実施形態による深度カメラを用いた人体の骨格に基づくテコンドー型の認識及び昇段審査装置とその方法によれば、人間のテコンドー動作に対する正確な型を認識し、昇段審査に際して発生し得る採点及び判定エラーなどを防ぐことができる。
深度カメラを用いた人体の骨格に基づくテコンドー型の認識及び昇段審査装置の全体構造図である。 RGB−Dセンサーを用いた深度情報及びスケルトンデータを示す図である。 人間の関節及び取り出されたスケルトンのパラメータを示す図である。 人間が立って右手を引っ張ったときの各関節の座標からの距離値を示す図である。 深度カメラを用いた人体の骨格に基づくテコンドー型の認識及び昇段審査装置の全体の流れを示す図である。 本発明の一実施形態による判定ステップの細部的な流れを示す図である。
その他の実施形態の具体的な事項は、詳細な説明及び図面に含まれている。
本発明の利点及び特徴並びにこれらを達成する方法は、添付図面と結び付けて詳細に後述する実施形態を参照すれば一層明らかになる。しかしながら、本発明は後述する実施形態に何ら限定されるものではなく、異なる様々な形態に実現可能であり、単にこれらの実施形態は本発明の開示を完全たるものにし、且つ、本発明が属する技術分野において通常の知識を有する者に発明の範囲を完全に知らせるために提供されるものであり、本発明は請求項の範囲により定義される。なお、明細書の全体に亘って同じ参照符号は同じ構成要素を示す。
図1は、本発明による深度カメラを用いた人体の骨格に基づくテコンドー型の認識及び昇段審査装置の全体構造図である。図1に示すように、本発明のテコンドー型及び昇段審査装置は、深度カメラから入力された人体骨格、すなわち、オブジェクトから深度及びビジュアル特徴を取り出す特徴取出し部110と、オブジェクトの動作が具体的にどのような動作を示すかを定義するためにオブジェクトの動作の各々を分解する動作分解部121を有する動作定義部120と、特徴取出し部110及び動作定義部120に取り出された情報を用いて動作を認識する動作認識部130と、を備える。前記オブジェクトの深度特徴は、深度カメラから取り出されたRGBデータとオブジェクトの深度情報とを組み合わせたRGB−Dデータである。また、前記動作認識部130は、前記取り出された情報の動作を認識するために動作認識データベース150をさらに備える。前記動作認識データベースには、認識されたテコンドー動作に関するデータが格納されるが、そのデータとしては、騎馬立ち、左下段払い、右下段払い、左足前蹴り、右足前蹴りなどのデータが挙げられる。
前記動作認識部130は、動作マッチング部131と、動作分類部132と、動作確定部133という細部モジュールを備える。前記動作マッチング部131は、前記特徴取出し部110及び前記動作定義部120から取り出された情報と前記動作認識データベース150のデータとを比較して動作をマッチングさせ、マッチングされた結果を用いて動作を分類した後に動作を確定する。
本発明による深度カメラを用いた人体の骨格に基づくテコンドー型の認識及び昇段審査装置は、前記オブジェクトの動作を確定した後に動作のつながり(シーケンス)を判定して昇段有無を決定する判定部140を備える。前記判定部は、前記動作認識部130において認識された動作のつながりが正確であるか否かを判定するために標準型動作データベース160を備える。前記標準型動作データベース160には、一般的に知られているテコンドーの有段者の型である太極1章から8章までのデータと、有級者の型である高麗(コリョ)、金剛(クムガン)、太白(テベク)、平原(ピョンウォン)などの型データが格納されている。
図2は、RGB−Dセンサーを介して入力されたデータの深度情報及びスケルトンを示す図である。図2の(a)は、RGB−Dセンサーを介して入力されたRGBカメライメージを示す。前記イメージには、2つのオブジェクト(人間)が現れている。図2の(b)は、図2の(a)の2つのオブジェクトに関する深度情報を示すものであり、深度カメラから自動的にセグメントされて表示される。黄色及び紫色のラベルは、セグメントされたオブジェクトを示す。灰色のラベルは、椅子及び床面などの非反射(non
IR reflective)領域を示す。図2の(c)は、深度カメラによって、マーキングされた領域に赤外線を投射して連結された点の反射波の強度を測定し、反射強度を用いて距離を測定し、反射強度の低い点は遠くからきたものと推定し、強度の高い点は前面にいるユーザーからきたものと推定してオブジェクトの主なスケルトンを認識したものを示す。
図3は、人間の関節及び取り出されたスケルトンのパラメータを示す図である。深度カメラが人間の骨格を認知する技法を用いて、人間の手首、腕、肩の動きに基づく動作を定義することができる。例えば、「左への移動」とは、右腕を用いて肩線を中心として手首及び肘が左側に移動することをいい、「右への移動」とは、左腕が肩線を基準として手首及び肘が右側に移動することをいい、「上への移動」とは、肩線よりも上に移動することをいい、「下への移動」とは、肩線よりも下に移動することをいい、「拡大」とは、両手が基準よりも外側に移動することをいい、「縮小」とは、両手が基準よりも内側に移動することをいい、「選択」とは、片手を正面に移動することをいう。このように、図3の(b)に示すように、人間のスケルトン間の連結ポイントである関節(joint)の座標の変化及び角度によって動きを判断することができる。
図4は、人間が立って右手を引っ張ったときの関節間の座標に対する距離を示す図である。本発明においては、人間の姿勢と動作のモデリングのために入力シーケンスの移動距離をマッチングするために標準型の連結動作を用いて各関節の距離偏差を考慮する。例えば、上体動作を感知するために、各関節Pと原点(reference point)との間の経時的な距離Dr,iを計算する。左右の肩関節の左側と右側との間の中心点(center point)は、原点を分析して計算する。上体の中心点の各関節の距離偏差を用いて、
は、下記式(1)のように計算される。
式中、
は、左側及び右側の肩の座標値を示し、各関節のiの座標値
は、下記式(2)のように計算される。
式中、
は、
となる。
各関節iの標準化された座標
は、下記式(3)のように計算される。
下半身に対する動作認識も、上記の上体動作を感知するための計算式と同様に計算される。
動作は、立っている動作と、横になっている動作と、に大別されるが、これらを区別するためには、脊髄とx軸との間の角度Aspを下記式(4)のように計算する。
式中、CUP及びClowは、前記の上体中心点の各関節の距離偏差を用いた
の計算式及び各関節のiの座標値
の計算式を用いて求めることができる。お辞儀(bow)などの腰をかがめる動作のためには、2種類のベクトルであるVupとVlowとの間の角度であるAup,lowを求めればよく、計算式は、下記式(5)の通りである。
式中、Jspは、脊髄を示す。
図5は、深度カメラを用いた人体の骨格に基づくテコンドー型の認識及び昇段審査装置の全体の流れを示す図である。
テコンドー型の認識及び昇段のために昇段審査が始まると、人間は開始位置に立っている必要がある(S510)。開始位置は、深度カメラから少なくとも40cm〜5m以内でなければならない。人間が開始位置に立つと、テコンドー型の開始を知らせるメッセージが送られ(S520)、人間は、メッセージを見た時点から当該審査の型及び動作をカメラを見ながら行えばよい。動作を行う人間の型及び動作を正確に認識するために、人間の周りに深度カメラを少なくとも1台から最大4台まで設置する。前記型及び動作を行っている間には、前記深度カメラの深度センサー及びビジュアルセンサーにより人間が行う動作に関する特徴がリアルタイムにてユーザー動作認識データベースに格納され(S530)、前記格納されたデータは、動作の認識のために、動作マッチングステップ(S533)、動作分類ステップ(S534)及び動作確定ステップ(S535)を経て最終的に人間の動作がどのような動作であるかを認識する。
前記認識された人間の動作は、型及び動作に関する標準データが格納されている標準型動作データベースのデータと比較して判定するステップ(S540)を経て最終的な合格有無を決定(S550)する。
図6は、判定ステップの細部的な流れを示す図である。
前記判定ステップS540は、前記深度カメラから受け取った座標を予め格納されている座標値と比較して正確度を測定するステップ(S610)と、テコンドー型の連続したシーケンスを比較して判断するステップ(S620)と、合格基準の充足有無を判断するステップ(S630)と、をさらに含む。テコンドー型に対する動作のシーケンスを比較して判断するとき、前記動作の正確度の判定は、オブジェクトのx、y、z軸の座標値とこれら軸との間の角度を比較して行い、前記判定の結果、動作の正確度が60%〜100%である場合に合格を通報する。
本発明においては、正確度の測定のために、動的時間ワープ(Dynamic Time Warping)アルゴリズムを用いて動作に関するデータ値396個を定義している。すなわち、最初に動きがある動作の開始点と動作が終わる終点との間に必要な値を動的時間ワープアルゴリズムを用いて396個並べる。前記正確度を測定するステップ(S610)においては、動作の開始点と前記動作の終点との間に必要な値を動的時間ワープアルゴリズムを用いて並べたデータを用いて求め、前記座標値及び前記並べたデータを用いて正確度を求める。
本発明は上述した好適な実施形態にのみ限定されるものではなく、本発明の要旨を逸脱しない範囲内において種々に改良、変更、代替又は付加して実施可能であるということは、当該技術分野における通常の知識を有する者であれば容易に理解できる。このような改良、変更、代替又は付加による実施が以下の添付の請求範囲の範囲に属するものであれば、その技術思想もまた本発明に属するものとみなす。

Claims (17)

  1. 深度カメラを用いた人体の骨格に基づくテコンドー型の認識及び昇段審査装置において、
    深度カメラから入力されたオブジェクトの特徴を取り出す特徴取出し部と、
    前記オブジェクトの様々な動作を定義するための動作定義部と、
    前記特徴取出し部及び前記動作定義部により得られた情報を用いて前記オブジェクトの行動を認識する動作認識部と、
    前記動作認識部において確定された前記オブジェクトの動作の正確度を判定する判定部と、
    を備えるテコンドー型の認識及び昇段審査装置。
  2. 前記深度カメラは、深度センサー及びビジュアルセンサーを備えることを特徴とする請求項1に記載のテコンドー型の認識及び昇段審査装置。
  3. 前記動作は、単純な動作、複雑な動作、身体の複数の部分を用いた動作に区別され、前記動作定義部は、動作分解部をさらに備えることを特徴とする請求項1に記載のテコンドー型の認識及び昇段審査装置。
  4. 前記動作認識部は、前記オブジェクトの動作を分類する動作分類部と、動作をマッチングする動作マッチング部及び前記オブジェクトの動作を確定する動作確定部をさらに備えることを特徴とする請求項2に記載のテコンドー型の認識及び昇段審査装置。
  5. 前記動作認識部は、確定された前記動作を格納するユーザー動作認識データベースを備えることを特徴とする請求項4に記載のテコンドー型の認識及び昇段審査装置。
  6. 前記判定部は、標準型動作データベースをさらに備え、前記深度カメラから受け取った座標を予め格納されている座標値と比較して正確度を測定することを特徴とする請求項4に記載のテコンドー型の認識及び昇段審査装置。
  7. 前記正確度の測定は、前記動作の開始点と前記動作の終点との間に必要な値を動的時間ワープアルゴリズムを用いて整列したデータを用いて求め、且つ、前記座標値及び前記整列したデータを用いて正確度を求めることにより行われることを特徴とする請求項6に記載のテコンドー型の認識及び昇段審査装置。
  8. 前記座標値は、前記オブジェクトのx、y、z軸の座標値であることを特徴とする請求項7に記載のテコンドー型の認識及び昇段審査装置。
  9. 深度カメラを用いた人体の骨格に基づくテコンドー型の認識及び昇段審査方法において、
    深度カメラから入力されたオブジェクトの特徴を取り出す特徴取出ステップと、
    前記オブジェクトの様々な動作を定義するための動作定義ステップと、
    前記特徴取出ステップ及び前記動作定義ステップにより得られた情報を用いて前記オブジェクトの行動を認識する動作認識ステップと、
    前記動作認識部において確定された前記オブジェクトの動作の正確度を判定する判定ステップと、
    を含むテコンドー型認識及び昇段審査方法。
  10. 前記深度カメラは、深度センサー及びビジュアルセンサーを備えることを特徴とする請求項9に記載のテコンドー型認識及び昇段審査方法。
  11. 前記動作は、単純な動作、複雑な動作、身体の複数の部分を用いた動作に区別され、前記動作定義ステップは、動作分解ステップをさらに含むことを特徴とする請求項9に記載のテコンドー型認識及び昇段審査方法。
  12. 前記動作認識ステップは、前記オブジェクトの動作を分類する動作分類ステップと、動作をマッチングする動作マッチングステップ及び前記オブジェクトの動作を確定する動作確定ステップを含むことを特徴とする請求項11に記載のテコンドー型認識及び昇段審査方法。
  13. 前記動作認識ステップは、確定された前記動作を格納するユーザー動作認識データベースを備えることを特徴とする請求項12に記載のテコンドー型認識及び昇段審査方法。
  14. 前記判定ステップは、標準型動作データベースをさらに備え、前記深度カメラから座標を受け取って予め格納されている座標値と比較して正確度を測定するステップと、テコンドー型の連続したシーケンスを比較して判断するステップ及び合格基準の充足有無を判断して通報するステップをさらに含むことを特徴とする請求項13に記載のテコンドー型認識及び昇段審査方法。
  15. 前記正確度を測定するステップにおいては、
    前記動作の開始点と前記動作の終点との間に必要な値を動的時間ワープアルゴリズムを用いて整列したデータを用いて求め、且つ、前記座標値及び前記整列したデータを用いて正確度を求めることを特徴とする請求項14に記載のテコンドー型認識及び昇段審査方法。
  16. 前記座標値は、前記オブジェクトのx、y、z軸の座標値であることを特徴とする請求項15に記載のテコンドー型認識及び昇段審査方法。
  17. 前記合格基準は、前記動作の正確度が60%〜100%であることを特徴とする請求項16に記載のテコンドー型認識及び昇段審査方法。
JP2015041146A 2014-10-14 2015-03-03 深度カメラを用いた人体の骨格に基づくテコンドープムセの認識及び昇段審査装置とその方法 Expired - Fee Related JP5986656B2 (ja)

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
KR10-2014-0138411 2014-10-14
KR20140138411 2014-10-14
KR10-2015-0006676 2015-01-14
KR1020150006676A KR101576106B1 (ko) 2014-10-14 2015-01-14 깊이 카메라를 이용한 인체골격 기반의 태권도 품새 인식 및 승단 심사 장치 와 그 방법

Publications (2)

Publication Number Publication Date
JP2016081504A true JP2016081504A (ja) 2016-05-16
JP5986656B2 JP5986656B2 (ja) 2016-09-06

Family

ID=54979200

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015041146A Expired - Fee Related JP5986656B2 (ja) 2014-10-14 2015-03-03 深度カメラを用いた人体の骨格に基づくテコンドープムセの認識及び昇段審査装置とその方法

Country Status (4)

Country Link
US (1) US20160104298A1 (ja)
EP (1) EP3009957A3 (ja)
JP (1) JP5986656B2 (ja)
KR (1) KR101576106B1 (ja)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2019049216A1 (ja) 2017-09-05 2019-03-14 富士通株式会社 採点方法、採点プログラムおよび採点装置
US11776134B2 (en) 2017-12-14 2023-10-03 Fujitsu Limited Non-transitory computer readable recording medium, element recognition method, and element recognition system
US11983962B2 (en) 2020-08-11 2024-05-14 Shosabi Inc. Information processing apparatus, and method

Families Citing this family (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101559972B1 (ko) * 2015-04-15 2015-10-14 김태오 태권도 품새 단련 시스템
KR101770525B1 (ko) * 2016-09-22 2017-08-23 우하성 태권도 승품 및 승단 심사 전산화 시스템 및 그 운용방법
JP6915701B2 (ja) 2017-12-27 2021-08-04 富士通株式会社 抽出プログラム、抽出方法および情報処理装置
KR102331890B1 (ko) * 2018-03-22 2021-11-29 한국전자통신연구원 무술 트레이닝 시스템 및 방법
KR102238085B1 (ko) * 2018-08-23 2021-04-08 한국전자기술연구원 동작분석 장치 및 방법
CN110098961B (zh) * 2019-04-25 2022-04-01 北京天融信网络安全技术有限公司 一种数据质量评估方法、装置及存储介质
KR102112236B1 (ko) 2019-09-26 2020-05-18 주식회사 홀로웍스 모션 디텍팅 기반의 가상 품새 에스티메이팅 시스템
CN111950485B (zh) * 2020-08-18 2022-06-17 中科人工智能创新技术研究院(青岛)有限公司 一种基于人体骨架的人体行为识别方法及系统
KR102304641B1 (ko) * 2020-12-15 2021-09-24 (주)나노아이티 인공지능형 태권도 품새 판독 및 교육 시스템
US11854305B2 (en) 2021-05-09 2023-12-26 International Business Machines Corporation Skeleton-based action recognition using bi-directional spatial-temporal transformer
KR102381907B1 (ko) * 2021-09-23 2022-04-04 최중구 태권도 동작에 대한 커리큘럼 기반의 학습 보조 방법 및 장치
KR102630828B1 (ko) 2023-02-06 2024-01-31 주식회사 에이아이태권도 인공지능을 이용한 태권도 단체 품새 동작 평가 방법 및 장치

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20030041034A (ko) * 2001-11-19 2003-05-23 쓰리에스휴먼 주식회사 동작비교를 통한 자세교정 운동 장치 및 동작비교 방법,이 동작비교 방법을 저장한 기록매체
JP2011090273A (ja) * 2009-10-23 2011-05-06 Tomonori Shiraishi ヴァーチャル対戦による段位認定システム
US20130113789A1 (en) * 2011-11-09 2013-05-09 Sony Corporation Information processing apparatus, display control method, and program

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100607046B1 (ko) * 2004-09-09 2006-08-01 주식회사 쿼터뷰 체감형 게임용 화상처리 방법 및 이를 이용한 게임 방법
US20140267611A1 (en) * 2013-03-14 2014-09-18 Microsoft Corporation Runtime engine for analyzing user motion in 3d images
KR101428922B1 (ko) * 2013-04-19 2014-08-11 한밭대학교 산학협력단 퍼지 시스템을 이용한 골프 스윙 분류 장치 및 방법
US9875664B2 (en) * 2014-06-02 2018-01-23 Xerox Corporation Virtual trainer optimizer method and system

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20030041034A (ko) * 2001-11-19 2003-05-23 쓰리에스휴먼 주식회사 동작비교를 통한 자세교정 운동 장치 및 동작비교 방법,이 동작비교 방법을 저장한 기록매체
JP2011090273A (ja) * 2009-10-23 2011-05-06 Tomonori Shiraishi ヴァーチャル対戦による段位認定システム
US20130113789A1 (en) * 2011-11-09 2013-05-09 Sony Corporation Information processing apparatus, display control method, and program
JP2013101529A (ja) * 2011-11-09 2013-05-23 Sony Corp 情報処理装置、表示制御方法、およびプログラム

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
JPN6015052266; Yunyoung Nam, et al.: 'Data modeling and query processing for distributed surveillance systems' New Review of Hypermedia and Multimedia, 2013, [online] Vol.19, Nos.3-4, 20131010, pages 299-327, Taylor & Francis *

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2019049216A1 (ja) 2017-09-05 2019-03-14 富士通株式会社 採点方法、採点プログラムおよび採点装置
US11645872B2 (en) 2017-09-05 2023-05-09 Fujitsu Limited Scoring method, scoring apparatus, and recording medium
US11776134B2 (en) 2017-12-14 2023-10-03 Fujitsu Limited Non-transitory computer readable recording medium, element recognition method, and element recognition system
US11983962B2 (en) 2020-08-11 2024-05-14 Shosabi Inc. Information processing apparatus, and method

Also Published As

Publication number Publication date
EP3009957A2 (en) 2016-04-20
JP5986656B2 (ja) 2016-09-06
EP3009957A3 (en) 2016-05-11
KR101576106B1 (ko) 2015-12-10
US20160104298A1 (en) 2016-04-14

Similar Documents

Publication Publication Date Title
JP5986656B2 (ja) 深度カメラを用いた人体の骨格に基づくテコンドープムセの認識及び昇段審査装置とその方法
KR102097190B1 (ko) 스마트 미러를 이용하여 실시간 운동 동작을 분석 및 디스플레이하기 위한 방법 및 이를 위한 스마트 미러
US10776423B2 (en) Motor task analysis system and method
EP3035164B1 (en) Wearable sensor for tracking articulated body-parts
US9898651B2 (en) Upper-body skeleton extraction from depth maps
KR102110811B1 (ko) Hci 시스템 및 방법
US8428306B2 (en) Information processor and information processing method for performing process adapted to user motion
CN110646938B (zh) 近眼显示器系统
KR20220028654A (ko) 미러 디스플레이를 이용하여 태권도 동작 코칭 서비스를 제공하는 장치 및 방법
CN106933343A (zh) 用于识别虚拟现实头戴装置中的手势的设备和方法
JP2017117341A (ja) 物体検出方法、装置、及びプログラム
US20150277570A1 (en) Providing Onscreen Visualizations of Gesture Movements
TWI521387B (zh) 三維空間中之可重置式虛擬觸控板
Dan et al. Survey on hand gesture recognition approaches
KR20160076488A (ko) 근골격계 질환의 발생가능성의 판단 장치 및 방법
CN103870814A (zh) 基于智能相机的非接触式实时眼动识别方法
Ye et al. Gait analysis using a single depth camera
KR20140140482A (ko) 오브젝트의 움직임을 이용하여 사용자 입력을 처리하는 장치 및 방법
JP6303918B2 (ja) ジェスチャ管理システム、ジェスチャ管理プログラム、ジェスチャ管理方法および指さし認識装置
JP2021099666A (ja) 学習モデルの生成方法
Albrektsen Using the Kinect Sensor for Social Robotics
US20120165084A1 (en) Method and apparatus for tracking locations using webcams
Moita et al. Development of interfaces for impaired users
Fan et al. 3D Gesture and Finger Interaction for Floating Handwriting Recognition
Muddassar et al. Bowling Action Analysis using Microsoft Kinect Xbox 360: December 2019

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20150303

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20160105

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20160216

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20160308

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20160608

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20160608

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20160712

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20160805

R150 Certificate of patent or registration of utility model

Ref document number: 5986656

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees