JP2021514512A - 動作の識別および動作情報を用いた規範的な分析の生成 - Google Patents
動作の識別および動作情報を用いた規範的な分析の生成 Download PDFInfo
- Publication number
- JP2021514512A JP2021514512A JP2020544594A JP2020544594A JP2021514512A JP 2021514512 A JP2021514512 A JP 2021514512A JP 2020544594 A JP2020544594 A JP 2020544594A JP 2020544594 A JP2020544594 A JP 2020544594A JP 2021514512 A JP2021514512 A JP 2021514512A
- Authority
- JP
- Japan
- Prior art keywords
- pixels
- pixel group
- active region
- region
- image
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 230000033001 locomotion Effects 0.000 title claims description 166
- 238000004458 analytical method Methods 0.000 title abstract description 173
- 230000009471 action Effects 0.000 claims abstract description 49
- 238000000034 method Methods 0.000 claims description 42
- 238000004422 calculation algorithm Methods 0.000 claims description 22
- 238000003860 storage Methods 0.000 claims description 17
- 238000004590 computer program Methods 0.000 claims description 3
- 210000002346 musculoskeletal system Anatomy 0.000 claims description 3
- 230000004931 aggregating effect Effects 0.000 claims 2
- 230000001747 exhibiting effect Effects 0.000 claims 1
- 230000002093 peripheral effect Effects 0.000 abstract description 6
- 230000006399 behavior Effects 0.000 description 74
- 230000006870 function Effects 0.000 description 33
- 230000003542 behavioural effect Effects 0.000 description 12
- 238000006243 chemical reaction Methods 0.000 description 11
- 230000006378 damage Effects 0.000 description 11
- 208000027418 Wounds and injury Diseases 0.000 description 10
- 208000014674 injury Diseases 0.000 description 10
- 238000013527 convolutional neural network Methods 0.000 description 9
- 230000009191 jumping Effects 0.000 description 9
- 230000008569 process Effects 0.000 description 8
- 230000009466 transformation Effects 0.000 description 7
- 238000013145 classification model Methods 0.000 description 6
- 210000003127 knee Anatomy 0.000 description 6
- 238000012549 training Methods 0.000 description 6
- 238000012800 visualization Methods 0.000 description 6
- 210000003423 ankle Anatomy 0.000 description 5
- 238000001514 detection method Methods 0.000 description 5
- 230000014509 gene expression Effects 0.000 description 5
- 238000010801 machine learning Methods 0.000 description 5
- 230000002265 prevention Effects 0.000 description 5
- 238000005516 engineering process Methods 0.000 description 4
- 239000006260 foam Substances 0.000 description 4
- 238000012545 processing Methods 0.000 description 4
- 230000003252 repetitive effect Effects 0.000 description 4
- 230000000007 visual effect Effects 0.000 description 4
- 230000008859 change Effects 0.000 description 3
- 238000010586 diagram Methods 0.000 description 3
- 210000001513 elbow Anatomy 0.000 description 3
- 210000002683 foot Anatomy 0.000 description 3
- 230000005021 gait Effects 0.000 description 3
- 210000001624 hip Anatomy 0.000 description 3
- 210000002414 leg Anatomy 0.000 description 3
- 230000003287 optical effect Effects 0.000 description 3
- 210000002832 shoulder Anatomy 0.000 description 3
- 230000002123 temporal effect Effects 0.000 description 3
- 230000001133 acceleration Effects 0.000 description 2
- 238000013459 approach Methods 0.000 description 2
- 238000004364 calculation method Methods 0.000 description 2
- 230000008602 contraction Effects 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 210000004247 hand Anatomy 0.000 description 2
- 238000003709 image segmentation Methods 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 230000004044 response Effects 0.000 description 2
- 210000003813 thumb Anatomy 0.000 description 2
- 230000002776 aggregation Effects 0.000 description 1
- 238000004220 aggregation Methods 0.000 description 1
- 210000003484 anatomy Anatomy 0.000 description 1
- 238000013528 artificial neural network Methods 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 230000008901 benefit Effects 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 210000002808 connective tissue Anatomy 0.000 description 1
- 239000000470 constituent Substances 0.000 description 1
- 230000008878 coupling Effects 0.000 description 1
- 238000010168 coupling process Methods 0.000 description 1
- 238000005859 coupling reaction Methods 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 201000010099 disease Diseases 0.000 description 1
- 208000037265 diseases, disorders, signs and symptoms Diseases 0.000 description 1
- 230000007274 generation of a signal involved in cell-cell signaling Effects 0.000 description 1
- 210000003128 head Anatomy 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 238000002372 labelling Methods 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 230000004807 localization Effects 0.000 description 1
- 238000013507 mapping Methods 0.000 description 1
- 210000003205 muscle Anatomy 0.000 description 1
- 230000009467 reduction Effects 0.000 description 1
- 230000002787 reinforcement Effects 0.000 description 1
- 230000011218 segmentation Effects 0.000 description 1
- 230000003068 static effect Effects 0.000 description 1
- 210000005010 torso Anatomy 0.000 description 1
- 238000012546 transfer Methods 0.000 description 1
- 230000004584 weight gain Effects 0.000 description 1
- 235000019786 weight gain Nutrition 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
- G06T7/246—Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
- G06T7/251—Analysis of motion using feature-based methods, e.g. the tracking of corners or segments involving models
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
- G06T7/73—Determining position or orientation of objects or cameras using feature-based methods
- G06T7/75—Determining position or orientation of objects or cameras using feature-based methods involving models
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/20—Movements or behaviour, e.g. gesture recognition
- G06V40/23—Recognition of whole body movements, e.g. for sport training
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30196—Human being; Person
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30221—Sports video; Sports image
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/20—Movements or behaviour, e.g. gesture recognition
Landscapes
- Engineering & Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Multimedia (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Psychiatry (AREA)
- Social Psychology (AREA)
- Human Computer Interaction (AREA)
- Image Analysis (AREA)
Abstract
Description
開示された構成は、アクティブ領域におけるユーザの動作を識別し、識別された動作の分析を生成するシステム(および方法および/または非一時的なコンピュータ可読記憶媒体)を含む。生成された分析は、以下でより詳細に説明するように記述的な分析および/または規範的な分析であってよい。
観察空間内の動作は、その観察空間から取得された画像のみを用いて正確に識別することが困難な問題である。現在の動作識別技術は、複雑な物理的、および電子システムを必要とし、動作を正確に識別し、これらの動作を記述的な分析を生成する。本明細書で説明されるように、システム、および方法は、動作を識別し、観察空間におけるその動作の分析を生成するために用いられる。システムは、観察空間の画像のグループを取得する観察システム150を含む。機械学習モデルのグループは、画像のピクセルにおける情報を利用し、動作を識別し、分析を生成する。
図1は、ユーザの一組のまたは規範的な分析を生成するシステム環境を図示する。システム環境100(「環境」)の実施形態において、クライアントシステム110は、規範的な分析のセットの要求を生成し、ネットワークシステム120は、それに応じて、分析を提供する。
上述のように、ネットワークシステム120は、動作を判断し、判断された動作の分析を生成するMIモジュール130を含む。図2は、1つの例示的な実施形態によって、MIモジュールのより詳細な例示を図示する。MIモジュール130は、領域識別モジュール210と、筋骨格識別モジュール220と、動作識別モジュール230と、規範的な分析モジュール240と、マップ生成モジュール250と、データストア260とを含む。モジュールは、観察空間の画像を用いて動作を識別することと連携して作動させ、識別された動作の動作分析を生成する。便宜上、説明の多くは、画像の中に含まれる観察空間の単一の画像のために提供される。しかしながら、MIモジュール130の機能は、画像バッチにおけるすべての画像152へ適用可能である。
領域識別モジュール210は、観察システム150によって取得された画像におけるアクティブ領域を識別する。アクティブ領域は、ユーザが動作を実行することが可能である領域である。アクティブ領域は、ピクセルのグループとして画像の中に表現される。アクティブ領域は、動作領域と周辺領域とを含む。動作領域は、動作が発生する領域、またはオブジェクトである。例えば、領域識別モジュール210は、ジムにおけるベンチプレスである動作領域、または人がキャリステニクスを行う領域を識別する。周辺領域は、動作領域を囲む領域である。例えば、領域識別モジュール210は、ユーザがキャリステニクスを行う領域を囲む空間のジムにおけるベンチプレスを囲む空間として、周辺領域を識別する。したがって、画像におけるアクティブ領域は、動作領域と周辺領域との両方を表現するピクセルが含む。動作領域、およびそれらに対応する周辺領域の他の例示は、可能である。
筋骨格(「MS」)識別モジュール220は、観察空間におけるユーザの筋骨格点(「キーポイント」)を識別する。キーポイントは、ユーザの筋骨格表現を生成することに用いられる1つまたは複数のポイントである。例えば、キーポイントは、ユーザの筋骨格構造を表現する足首、膝、肘、肩などを含むことができる。キーポイントは、例えば、5,10,18,30など、またはそれより多いさまざまな数のポイントを含むことが可能である。
動作識別モジュール230は、観察空間における動作、およびその動作の記述的な分析を識別する。繰り返しとなるが、動作は、ユーザが観察空間で取り得る任意のアクション、動作、運動などであり、記述的な分析は、それらの動作を記述する導出可能な経験則である。上述のように、MS識別モジュール220は、観察システム150によって取得された画像を用いて観察空間におけるユーザのキーポイントを識別する。しかしながら、時間内の一瞬を表現する画像から動作を判断することは可能ではない。そのため、動作識別モジュール230は、観察システム150によって取得された観察空間の一連の画像を活用する。
規範的な分析モジュール240は、観察空間における識別された動作の規範的な分析を生成する。規範的な分析は、ユーザが現在および/または将来の動作を通知するために利用することができる分析である。例示として、規範的な分析は、動作フォームの分析、過度および/または過少の運動、傷害の防止、休息の統計データ、ならびに運動の奨励を含むことが可能である。
以前の説明は、MIモジュール130が動作を識別すること、および単一の画像を用いて分析を生成することを説明しているが、MIモジュール130は、また、画像バッチにおける画像を用いて動作、および分析を識別するよう構成される。詳しく述べると、観察システム150は、観察空間の複数の画像152を取得する。それぞれの画像は、画像を取得したキャプチャデバイスの構成に応じて、異なる画像特性を持つ場合がある。さまざまな画像は、全体として、観察空間におけるユーザ、アクティブ領域および/または動作(全体として「項目」)を識別するために用いられる情報を含むことができる。ある実施形態において、MIモジュール130は、画像バッチにおける2次元画像を用いて、3次元空間における観察空間の単一の表現(「領域マップ」)を生成することができる。
本明細書で説明されるように、ネットワークシステム120のMIモジュール130は、動作を識別し、その動作の規範的な分析を生成する。例示的な一実施形態によって、図3は、動作を識別し、その動作の規範的な分析を生成する方法のフローチャートを図示する。方法300は、明確さを提供するために図4A〜図4Dを参照して説明されることとなる。さまざまな実施形態において、方法300は、追加、またはより少ないステップを含むことが可能であり、および/またはステップは別の順序で発生することができる。
重要なことに、本明細書で説明される方法、およびシステムは、他のシステム環境、および観察空間に適用することができる。特定の例示において、観察空間は、複数の従業員を含む倉庫である。それぞれの従業員は、倉庫の中を移動し、商品の注文を完了するとクライアントデバイスを操作する。商品の注文を完了させる間に、従業員は、しゃがむこと、持ち上げること、押すことなどのさまざまな動作を実行する。この例示において、倉庫は、倉庫における従業員の画像を取得するよう観察システム150で構成されている。ネットワークシステム120は、従業員の動きを識別し、それらの動きの分析を生成する。分析は、従業員および/または監督者にリアルタイムで提供することができる。
例示的な一実施形態によって、図8は、機械可読媒体から命令を読み取り、実行する例示的な機械の構成要素を図示するブロック図である。具体的には、図8は、コンピュータシステム800の例示的なフォームにおけるネットワークシステム120、およびクライアントシステム110の図表示を示す。コンピュータシステム800は、機械に本明細書に説明される方法論(またはプロセス)のうちのいずれか1つまたは複数を実行させるための命令824(例えば、プログラムコード、またはソフトウェア)を実行するために用いることが可能である。代替の実施形態において、機械は、スタンドアロンデバイス、または他の機械に接続する接続された(例えば、ネットワーク化された)デバイスとして動作する。ネットワーク化された展開において、機械は、サーバークライアントネットワーク環境におけるサーバーマシンもしくはクライアントマシンの能力、またはピアツーピア(もしくは分散)ネットワーク環境のおけるピアマシンとして動作することができる。
上述の説明において、説明の目的で、図示されたシステム、およびその動作の完全な理解を提供すべく、多くの特定な詳細が明記される。しかしながら、当業者にとって、これらの特定の詳細なくシステムを動作させることが可能であることは、明らかとなることであろう。他の実例において、システムを隠すことを回避すべく、構造、およびデバイスがブロック図の形式で図示されている。
Claims (20)
- 複数のピクセルを含む画像にアクセスするステップであって、それぞれのピクセルは、ピクセルを説明する情報セットを有し、前記複数のピクセルは、
領域内のアクティブ領域を表現する第1のピクセルのグループと、
前記領域内の人の複数の筋骨格のポイントを表現する第2のピクセルのグループとを含み、
前記第1のピクセルのグループの前記情報セットに基づいて、前記領域内の前記アクティブ領域のロケーションを判断するステップと、
前記第1のピクセルグループ、および前記第2のピクセルグループの前記情報セットに基づいて、前記人の前記筋骨格のポイントの閾値数が前記ロケーションでの前記アクティブ領域内にある場合に、前記人が前記アクティブ領域に入ったと判断するステップと、
前記第1のピクセルグループ、および前記第2のピクセルグループの前記情報セットを用いて、前記アクティブ領域における前記人の動作を判断するステップと、
前記動作を示すデータ構造をデータストアに格納するステップと
を備えたことを特徴とする方法。 - 前記画像にアクセスするステップは、さらに、
複数の画像センサーから前記領域の複数の画像を受信するステップと、
前記複数の画像を前記画像の中に含まれる前記複数のピクセルを集計するステップと、
前記複数のピクセルのそれぞれの情報セットを判断するステップとを含む、
請求項1に記載の方法。 - 前記画像における前記複数のピクセルは、複数の2次元画像から生成される前記領域の3次元表現である、
請求項1に記載の方法。 - ピクセルの前記情報セットは、
前記ピクセルのタイミング特性と、
前記ピクセルの座標と、
前記ピクセルのピクセル値のうちのいずれかを含む、
請求項1に記載の方法。 - 前記アクティブ領域の前記ロケーションを判断するステップは、さらに、
前記複数のピクセルのサブセットの前記情報セットを領域認識モデルへと入力するステップであって、前記領域モデルは、前記ピクセルのサブセットのうちの1つまたは複数の潜在情報を前記アクティブ領域を示すものとして識別し、前記1つまたは複数のピクセルを前記第1のピクセルグループとして選択する、ステップを含む、
請求項1に記載の方法。 - 前記複数のピクセルのサブセットの前記情報セットを領域モデルへと入力するステップは、さらに、
前記アクティブ領域を示すピクセルのサブセットを囲む境界ボックスを生成するステップであって、前記境界ボックスは、前記領域における前記アクティブ領域を囲む第3のピクセルグループを含む、ステップを含む、
請求項5に記載の方法。 - 前記1つまたは複数のピクセルを前記第1のピクセルグループとして選択するステップは、さらに、
前記第3のピクセルグループ、および前記アクティブ領域を示す前記ピクセルのサブセットに凸包アルゴリズムを適用するステップであって、前記凸包アルゴリズムは、1つまたは複数の前記第3のピクセルグループおよび前記アクティブ領域を示す前記ピクセルのサブセットを含む前記第1のピクセルグループを選択する、ステップを含む、
請求項6に記載の方法。 - 前記人が前記ロケーションに入ったと判断するステップは、さらに、
前記アクティブ領域を表現する前記第1のピクセルグループの前記情報セットにアクセスするステップと、
前記第1のピクセルグループの前記情報セットを用いて前記アクティブ領域を画定する1つまたは複数の座標を判断するステップと、
前記領域における前記人の前記複数の筋骨格のポイントを表現する前記第2のピクセルグループの前記情報セットにアクセスするステップと、
前記筋骨格のポイントの前記閾値数の前記座標が前記アクティブ領域を画定する1つまたは複数の前記座標内にあることを判断するステップとを含む、
請求項1に記載の方法。 - 前記人が前記ロケーションに入ったと判断するステップは、さらに、
前記第1のピクセルグループの前記情報セットを前記キーポイント認識モデルであるキーポイント認識モデルへと入力するステップであって、前記キーポイント認識モデルは、前記第1のピクセルグループにおける1つまたは複数の前記ピクセルの潜在情報を1つまたは複数の筋骨格のポイントを示すものとして識別し、前記1つまたは複数のピクセルを前記第2のピクセルグループとして選択する、ステップを含む、
請求項8に記載の方法。 - 前記アクティブ領域における前記人の動作を判断するステップは、さらに、
前記第1のピクセルグループおよび前記第2のピクセルグループの前記情報セットを前記動作認識モデルである動作認識モデルへと入力するステップであって、前記動作認識モデルは、前記第2のピクセルグループにおける1つまたは複数の前記ピクセルの潜在情報を前記人の1つまたは複数の動作を示すものとして識別し、前記第1のピクセルグループの前記情報セットに基づいて示される動作のタイプを識別し、1つまたは複数の動作を出力する、ステップを含む、
請求項1に記載の方法。 - 複数のピクセルを含む画像にアクセスすることであって、それぞれのピクセルは、ピクセルを説明する情報セットを有し、前記複数のピクセルは、
領域内のアクティブ領域を表現する第1のピクセルのグループと、
前記領域内の人の複数の筋骨格のポイントを表現する第2のピクセルのグループとを含み、
前記第1のピクセルのグループの前記情報セットに基づいて、前記領域内の前記アクティブ領域のロケーションを判断することと、
前記第1のピクセルグループ、および前記第2のピクセルグループの前記情報セットに基づいて、前記人が前記人の前記筋骨格のポイントの閾値数が前記ロケーションでの前記アクティブ領域内にある場合に、前記人が前記アクティブ領域に入ったと判断することと、
前記第1のピクセルグループ、および前記第2のピクセルグループの前記情報セットを用いて、前記アクティブ領域における前記人の動作を判断することと、
前記動作を示すデータ構造をデータストアに格納することとを備えたことを特徴とする、
プロセッサによって実行可能なコンピュータプログラム命令を格納する非一時的なコンピュータ可読記憶媒体。 - 前記画像にアクセスすることは、さらに、
複数の画像センサーから前記領域の複数の画像を受信することと、
前記複数の画像を前記画像の中に含まれる前記複数のピクセルを集計することと、
前記複数のピクセルのそれぞれに対する情報セットを判断することとを含む、
請求項11に記載の非一時的なコンピュータ可読記憶媒体。 - 前記画像における前記複数のピクセルは、複数の2次元画像から生成される前記領域の3次元表現である、
請求項11に記載の非一時的なコンピュータ可読記憶媒体。 - ピクセルに対する前記情報セットは、
前記ピクセルのタイミング特性と、
前記ピクセルに対する座標とのうちのいずれかを含む、
請求項11に記載の非一時的なコンピュータ可読記憶媒体。 - 前記アクティブ領域の前記ロケーションを判断することは、さらに、
前記複数のピクセルのサブセットに対する前記情報セットを前記領域認識モデルである領域モデルへと入力することと、
前記ピクセルのサブセットのうちの1つまたは複数の潜在情報を前記アクティブ領域を示すものとして識別することと、
1つまたは複数のピクセルを前記第1のピクセルグループとして選択することを含む、
請求項11に記載の非一時的コンピュータ可読記憶媒体。 - 前記複数のピクセルのサブセットに対する前記情報セットを領域モデルへと入力することは、さらに、
前記アクティブ領域を示すピクセルのサブセットを囲む境界ボックスを生成することを含み、
前記境界ボックスは、前記領域における前記アクティブ領域を囲む第3のピクセルグループを含む、
請求項15に記載の非一時的コンピュータ可読記憶媒体。 - 前記1つまたは複数のピクセルを前記第1のピクセルグループとして選択するステップは、さらに、
前記第3のピクセルグループ、および前記アクティブ領域を示す前記ピクセルのサブセットに凸包アルゴリズムを適用するステップを含み、
前記凸包アルゴリズムは、前記第3のピクセルグループおよび前記アクティブ領域を示す前記ピクセルのサブセットのうちの1つまたは複数を含む、
請求項16に記載の非一時的コンピュータ可読記憶媒体。 - 前記人が前記ロケーションに入ったと判断することは、さらに、
前記アクティブ領域を表現する前記第1のピクセルグループの前記情報セットにアクセスすることと、
前記第1のピクセルグループの前記情報セットを用いて前記アクティブ領域を画定する1つまたは複数の座標を判断することと、
前記領域における前記人の前記複数の筋骨格のポイントを表現する前記第2のピクセルグループの前記情報セットにアクセスすることと、
前記筋骨格のポイントの前記閾値数の前記座標が前記アクティブ領域を画定する1つまたは複数の前記座標内にあることを判断することとを含む、
請求項11に記載の非一時的コンピュータ可読記憶媒体。 - 前記人が前記ロケーションに入ったと判断することは、さらに、
前記第1のピクセルグループに対する前記情報セットを前記キーポイント認識モデルであるキーポイント認識モデルへと入力することと、
前記第1のピクセルグループにおける1つまたは複数の前記ピクセルの潜在情報を1つまたは複数の筋骨格のポイントを示すものとして識別することとを含む、
請求項18に記載の非一時的なコンピュータ可読記憶媒体。 - 前記アクティブ領域における前記人の動作を判断することは、さらに、
前記第1のピクセルグループおよび前記第2のピクセルグループに対する前記情報セットを前記動作認識モデルである動作認識モデルへと入力することと、
前記第2のピクセルグループにおける1つまたは複数の前記ピクセルの潜在情報を前記人の1つまたは複数の動作を示すものとして識別することと、
前記第1のピクセルグループに対する前記情報セットに基づいて示される動作のタイプと、
1つまたは複数の動作を出力することとを含む、
請求項11に記載の非一時的なコンピュータ可読記憶媒体。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US201862633045P | 2018-02-20 | 2018-02-20 | |
US62/633,045 | 2018-02-20 | ||
PCT/US2019/018824 WO2019164986A1 (en) | 2018-02-20 | 2019-02-20 | Identifying movements and generating prescriptive analytics using movement intelligence |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2021514512A true JP2021514512A (ja) | 2021-06-10 |
JP7160932B2 JP7160932B2 (ja) | 2022-10-25 |
Family
ID=67617966
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020544594A Active JP7160932B2 (ja) | 2018-02-20 | 2019-02-20 | 動作の識別および動作情報を用いた規範的な分析の生成 |
Country Status (4)
Country | Link |
---|---|
US (2) | US11003900B2 (ja) |
EP (1) | EP3756058A4 (ja) |
JP (1) | JP7160932B2 (ja) |
WO (1) | WO2019164986A1 (ja) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR102566211B1 (ko) * | 2022-12-15 | 2023-08-11 | 에버엑스 주식회사 | 인공 지능 자세 추정 모델 및 동작 분석 모델을 이용한 운동 치료 제공 방법, 그리고 시스템 |
WO2024128421A1 (ko) * | 2022-12-15 | 2024-06-20 | 에버엑스 주식회사 | 인공 지능 자세 추정 모델 및 동작 분석 모델을 이용한 운동 치료 제공 방법, 그리고 시스템 |
US12125576B2 (en) | 2022-12-15 | 2024-10-22 | Everex | Method and system for providing exercise therapy using artificial intelligence posture estimation model and motion analysis model |
Families Citing this family (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20200005027A1 (en) * | 2018-06-27 | 2020-01-02 | Johnson Health Tech Co., Ltd. | Weight training intelligence system |
US11010903B1 (en) * | 2018-08-09 | 2021-05-18 | Amazon Technologies, Inc. | Computer vision and machine learning techniques for item tracking |
US11468071B2 (en) | 2018-11-30 | 2022-10-11 | Rovi Guides, Inc. | Voice query refinement to embed context in a voice query |
US11620808B2 (en) * | 2019-09-25 | 2023-04-04 | VergeSense, Inc. | Method for detecting human occupancy and activity in a work area |
CN112699706B (zh) * | 2019-10-22 | 2024-07-26 | 广州弘度信息科技有限公司 | 跌倒检测方法、系统和存储介质 |
US11687778B2 (en) | 2020-01-06 | 2023-06-27 | The Research Foundation For The State University Of New York | Fakecatcher: detection of synthetic portrait videos using biological signals |
US11475669B2 (en) * | 2020-07-30 | 2022-10-18 | Ncr Corporation | Image/video analysis with activity signatures |
US20220262010A1 (en) * | 2021-02-17 | 2022-08-18 | Ember Tech LLC | Biomechanical tracking and feedback system |
CN112891922B (zh) * | 2021-03-18 | 2022-11-22 | 山东梦幻视界智能科技有限公司 | 一种虚拟现实体感交互方法 |
WO2022212921A1 (en) * | 2021-04-01 | 2022-10-06 | Exer Labs, Inc. | Continually learning audio feedback engine |
EP4176798A1 (en) * | 2021-11-05 | 2023-05-10 | Sony Group Corporation | Monitoring exercise activity in a gym environment |
US11694479B1 (en) * | 2022-10-14 | 2023-07-04 | Rs1Worklete Llc | Computerized systems and methods for continuous and real-time fatigue detection based on computer vision analysis |
US20240184796A1 (en) * | 2022-12-06 | 2024-06-06 | Uplift Labs, Inc. | Contextual coaching feedback based on received and historical musculoskeletal key-points |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2017148386A (ja) * | 2016-02-26 | 2017-08-31 | 大日本印刷株式会社 | 舌画像処理装置、舌画像処理方法及び舌画像処理用プログラム |
JP2017228100A (ja) * | 2016-06-23 | 2017-12-28 | コニカミノルタ株式会社 | 行動認識装置及び行動認識プログラム |
JP2018005663A (ja) * | 2016-07-05 | 2018-01-11 | 株式会社リコー | 情報処理装置、表示システム、プログラム |
WO2018012432A1 (ja) * | 2016-07-12 | 2018-01-18 | コニカミノルタ株式会社 | 行動判定装置及び行動判定方法 |
JP2018022484A (ja) * | 2016-08-02 | 2018-02-08 | 三菱電機株式会社 | 画像内の物体を検出する方法及び物体検出システム |
Family Cites Families (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8023726B2 (en) * | 2006-11-10 | 2011-09-20 | University Of Maryland | Method and system for markerless motion capture using multiple cameras |
US8411963B2 (en) * | 2008-08-08 | 2013-04-02 | The Nielsen Company (U.S.), Llc | Methods and apparatus to count persons in a monitored environment |
WO2013013082A1 (en) * | 2011-07-19 | 2013-01-24 | Utah State University Research Foundation | Systems, devices, and methods for multi-occupant tracking |
US9072929B1 (en) * | 2011-12-01 | 2015-07-07 | Nebraska Global Investment Company, LLC | Image capture system |
JP6518932B2 (ja) * | 2013-12-16 | 2019-05-29 | 国立大学法人大阪大学 | 運動解析装置及び運動解析プログラム |
US20190370537A1 (en) * | 2018-05-29 | 2019-12-05 | Umbo Cv Inc. | Keypoint detection to highlight subjects of interest |
US20200097732A1 (en) * | 2018-09-21 | 2020-03-26 | Cubic Corporation | Markerless Human Movement Tracking in Virtual Simulation |
-
2019
- 2019-02-20 US US16/280,949 patent/US11003900B2/en active Active
- 2019-02-20 WO PCT/US2019/018824 patent/WO2019164986A1/en unknown
- 2019-02-20 JP JP2020544594A patent/JP7160932B2/ja active Active
- 2019-02-20 EP EP19757105.2A patent/EP3756058A4/en not_active Withdrawn
-
2021
- 2021-04-15 US US17/232,085 patent/US12079998B2/en active Active
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2017148386A (ja) * | 2016-02-26 | 2017-08-31 | 大日本印刷株式会社 | 舌画像処理装置、舌画像処理方法及び舌画像処理用プログラム |
JP2017228100A (ja) * | 2016-06-23 | 2017-12-28 | コニカミノルタ株式会社 | 行動認識装置及び行動認識プログラム |
JP2018005663A (ja) * | 2016-07-05 | 2018-01-11 | 株式会社リコー | 情報処理装置、表示システム、プログラム |
WO2018012432A1 (ja) * | 2016-07-12 | 2018-01-18 | コニカミノルタ株式会社 | 行動判定装置及び行動判定方法 |
JP2018022484A (ja) * | 2016-08-02 | 2018-02-08 | 三菱電機株式会社 | 画像内の物体を検出する方法及び物体検出システム |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR102566211B1 (ko) * | 2022-12-15 | 2023-08-11 | 에버엑스 주식회사 | 인공 지능 자세 추정 모델 및 동작 분석 모델을 이용한 운동 치료 제공 방법, 그리고 시스템 |
WO2024128421A1 (ko) * | 2022-12-15 | 2024-06-20 | 에버엑스 주식회사 | 인공 지능 자세 추정 모델 및 동작 분석 모델을 이용한 운동 치료 제공 방법, 그리고 시스템 |
US12125576B2 (en) | 2022-12-15 | 2024-10-22 | Everex | Method and system for providing exercise therapy using artificial intelligence posture estimation model and motion analysis model |
Also Published As
Publication number | Publication date |
---|---|
US12079998B2 (en) | 2024-09-03 |
JP7160932B2 (ja) | 2022-10-25 |
US20190258851A1 (en) | 2019-08-22 |
EP3756058A1 (en) | 2020-12-30 |
US20220067352A1 (en) | 2022-03-03 |
EP3756058A4 (en) | 2021-11-24 |
WO2019164986A1 (en) | 2019-08-29 |
US11003900B2 (en) | 2021-05-11 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7160932B2 (ja) | 動作の識別および動作情報を用いた規範的な分析の生成 | |
CN105229666B (zh) | 3d图像中的运动分析 | |
Li et al. | A novel vision-based real-time method for evaluating postural risk factors associated with musculoskeletal disorders | |
US10334230B1 (en) | Image capture system | |
US11763603B2 (en) | Physical activity quantification and monitoring | |
US20210346761A1 (en) | Automated gait evaluation for retraining of running form using machine learning and digital video data | |
JP7057959B2 (ja) | 動作解析装置 | |
JP6369811B2 (ja) | 歩行解析システムおよび歩行解析プログラム | |
US11403882B2 (en) | Scoring metric for physical activity performance and tracking | |
Wilson et al. | Walking in place using the Microsoft Kinect to explore a large VE | |
JP2019096113A (ja) | キーポイントデータに関する加工装置、方法及びプログラム | |
KR20220028654A (ko) | 미러 디스플레이를 이용하여 태권도 동작 코칭 서비스를 제공하는 장치 및 방법 | |
CN104598012B (zh) | 一种互动型广告设备及其工作方法 | |
JP6381368B2 (ja) | 画像処理装置、画像処理方法、およびプログラム | |
CN113724378B (zh) | 三维建模方法和装置、计算机可读存储介质及计算机设备 | |
JP5478520B2 (ja) | 人数計測装置、人数計測方法、プログラム | |
KR20230010164A (ko) | 두경부 영상 이미지를 이용한 지방량 산출 방법 및 이를 위한 장치 | |
JP7482471B2 (ja) | 学習モデルの生成方法 | |
Acı et al. | Accuracy Detection in Some Sports Training Using Computer Vision and Deep Learning Techniques | |
WO2023162223A1 (ja) | 学習プログラム、生成プログラム、学習方法および生成方法 | |
US20240359081A1 (en) | Information processing apparatus, method, and non-transitory computer-readable program | |
JP2022037506A (ja) | 検出装置、処理装置、検出方法、及び処理プログラム | |
Avola et al. | Time-of-Flight camera based virtual reality interaction for balance rehabilitation purposes | |
CN116978110A (zh) | 一种舞姿动作评价方法、装置、电子设备及存储介质 | |
KR20240044810A (ko) | 직관적 강화학습을 이용한 진단 영상의 특징점 검출 장치 및 방법 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20201019 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20201019 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20211008 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20211102 |
|
A601 | Written request for extension of time |
Free format text: JAPANESE INTERMEDIATE CODE: A601 Effective date: 20220202 |
|
A601 | Written request for extension of time |
Free format text: JAPANESE INTERMEDIATE CODE: A601 Effective date: 20220404 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20220428 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20220913 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20221013 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7160932 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |