JP2022531828A - 手動作の対称性の認識方法及びシステム - Google Patents

手動作の対称性の認識方法及びシステム Download PDF

Info

Publication number
JP2022531828A
JP2022531828A JP2021555602A JP2021555602A JP2022531828A JP 2022531828 A JP2022531828 A JP 2022531828A JP 2021555602 A JP2021555602 A JP 2021555602A JP 2021555602 A JP2021555602 A JP 2021555602A JP 2022531828 A JP2022531828 A JP 2022531828A
Authority
JP
Japan
Prior art keywords
motion
class
data
estimated
classifier
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2021555602A
Other languages
English (en)
Other versions
JP7487224B2 (ja
Inventor
トルスティキン,アンドレイ
ブラウン,コリン
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Wrnch Inc
Original Assignee
Wrnch Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Wrnch Inc filed Critical Wrnch Inc
Publication of JP2022531828A publication Critical patent/JP2022531828A/ja
Application granted granted Critical
Publication of JP7487224B2 publication Critical patent/JP7487224B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/25Fusion techniques
    • G06F18/254Fusion techniques of classification results, e.g. of results related to same input data
    • G06F18/256Fusion techniques of classification results, e.g. of results related to same input data of results relating to different input data, e.g. multimodal recognition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/044Recurrent networks, e.g. Hopfield networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/774Generating sets of training patterns; Bootstrap methods, e.g. bagging or boosting
    • G06V10/7747Organisation of the process, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/107Static hand or arm
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/20Movements or behaviour, e.g. gesture recognition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • G06N20/10Machine learning using kernel methods, e.g. support vector machines [SVM]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/048Activation functions
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N5/00Computing arrangements using knowledge-based models
    • G06N5/01Dynamic search techniques; Heuristics; Dynamic trees; Branch-and-bound

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Evolutionary Computation (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Multimedia (AREA)
  • Artificial Intelligence (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Software Systems (AREA)
  • Computing Systems (AREA)
  • Data Mining & Analysis (AREA)
  • Human Computer Interaction (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • General Engineering & Computer Science (AREA)
  • Medical Informatics (AREA)
  • Databases & Information Systems (AREA)
  • Mathematical Physics (AREA)
  • Molecular Biology (AREA)
  • Computational Linguistics (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Psychiatry (AREA)
  • Social Psychology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Evolutionary Biology (AREA)
  • Image Analysis (AREA)

Abstract

本開示は、ほとんどの人体及び動物体に固有の対称性を利用する非対称(例えば、左手及び右手の)動作の動作認識システムについて記載する。具体的には1)手の動作のみを認識するが、2回推定を行い、うち1回は入力を反転させて、左右両方の手の動作を識別する人の動作認識システム、及び2)全ての訓練インスタンス(及び関連するラベル)を左手の動作にみえるよう反転させて、左右の手の動作間の訓練データセットの均衡をとる、前記システムの学習に基づく実装を行うための訓練方法について説明する。

Description

本開示は、コンピュータを使用した動作の認識システム及び方法に関する。具体的には、左右非対称動作の認識に関する。
映像データ中の人の動作(手を振る、走るなど)を検出する深層学習を用いた方法が提案されている。人の動作の多くは左右非対称(手を振る、ボールを蹴るなど)であるが、身体の両側で等しく行うことができる。左右の手が行う所与の動作を区別し、各々を別個のクラスとして判断することのできる動作の認識方法は、応用範囲が広い。例えば、サッカー分析への適用方法においては、左足又は右足でシュートするプレーヤーを区別することが重要であり得る。
さらに、この種の動作認識は、人以外の動物、ロボット又はあらゆる対称な動作主体により広く応用することができる。例えば、動物研究において、動物が主にその左側又は右側で行う非対称動作を区別することのできるシステムがあると有用であり得る。
しかしながら、動作認識システムに両手の動作を区別させると、予測可能なクラスの数が実質的に2倍となり、動作認識システム、さらには学習ベースのシステムの訓練データベース及び訓練手順が複雑化し、費用が増加し得る。
学習ベースのシステムについて生じている別の問題は、大方左利きの人と大方右利きの人の不均衡な人口分布に起因している。訓練された学習ベースの分類器は、データベース内のクラスの分布の影響を受け得る。しかしながら、公開データから大規模な訓練データセットをサンプリングするのは一般的に行われており、また、人口の大部分が右利きであることが分かっている。したがって、左右の手の動作が同程度の精度で認識されるのが望ましいものの、特にデータセットが公開データからサンプリングされている場合には、左右の手の動作事例が同数となっている訓練データセットを取得するのは困難なことがある。
したがって、対称動作及び非対称動作を認識する際の改善が望まれる。
本開示においては、殆どの人体及び動物体に固有の左右の鏡面対称性を利用した、(例えば、左右の手の)左右非対称動作の動作認識システムについて説明する。具体的には、1)一方の利き手動作(例えば、左手動作)のみを認識するが、2回推測を行い、うち1回は入力を左右反転させて左右の手の動作を識別する動作認識システムと、2)全ての訓練インスタンス(及び関連するラベル)を左手動作にみえるよう反転させて、左右の手の動作間の訓練データセットの均衡をとる、前述のシステムを学習に基づき実装するための訓練方法を説明する。
図1は、動作認識システムのブロック図である。 図2は、動作認識システムの使用事例の実施形態の概略図である。 図3は、左手動作分類器の実施形態の概略図である。
<動作認識システム>
動作認識システム10は、キャプチャ装置20、該キャプチャ装置の入力を左右反転させる変換モジュール30、手動作分類器40、及び左手動作分類器50から得られた動作クラス出力の左右反転を行うモジュールからなる。動作認識システムは、反転された入力及び反転されていない入力の両方から情報が与えられた最終的な1つ以上の動作クラスを決定するクラスアグリゲータコンポーネント60も含むことができる。
動作クラスは、ある時間的尺度(例えば、実行中の動作の静止画像、まばたきのような短時間のジェスチャー、ゴルフのような長時間の動作)における、ある行為主体(人や動物など)による、特定の動作又は複数の関連動作(例えば、「手を振る」は、様々な異なる速度のいずれかで及び/若しくは多くの異なる様式のいずれかで手を振ることをいう。)である。「なし」、「デフォルト」又は「休止」などの動作クラスは、関連動作がないことを示す。複数の有効な動作クラス及び動作クラスの表示は、動作認識システムの適用方法及び該システムの特定の実施形態により異なることがある。
動作クラスは、該動作が、通常、左右非対称に行われる場合には、(左又は右の)利き手と関連付けることができる。該動作は、片手又は身体の片側だけで行う必要はなく、左右対称に実施される動作と区別するために、身体の優位側又は利き側などにより、左利き又は右利きとして適切に分類される。左右対称に実施される動作を示す動作クラスは、左右の手の動作クラスが同一の動作又は複数の動作を示す非対称動作クラスの特別な場合であるとみなすことができる。例えば、頭をうなずくのは、左右の動作クラスが不要な動作であってもよい。同様に、分類器の適用方法の中には、左右いずれの手の動作であるかは問題とならないことがある。例えば、「自動車の運転」については、運転者が右手、左手又は両手のいずれでハンドルを握っているかは問題とはならないことがある。
キャプチャ装置20のデータは、動作クラス又は複数のクラス確率を推定することのできる手動作分類器40に送られ、その後、クラスアグリゲータモジュールに送信されて、出力された1つ以上の動作クラス60を決定する。キャプチャ装置のデータは、左右反転などの変換モジュール30に送信することもできる。キャプチャ装置20の動作データは、左右反転変換モジュール及び手動作分類器40に、同時に又は順次(順番を問わない。)送信されてもよい。変換モジュール30は、手動作分類器40が手動作クラス又は複数のクラス確率を推定する前に入力データについて左右反転変換を行うことができる。反転された入力データの1つ以上の動作クラスは、更に左右反転50(すなわち、左手クラスから右手クラスへ)が行われ、2つ目の入力としてクラスアグリゲータモジュール60に送信してもよく、これにより、2つの入力に与えられる最終動作クラス又は複数のクラスを決定することができる。
以下、これらの各構成要素について詳細に説明する。
キャプチャ装置20は、動作データにアクセスし、これを捕捉し又は受け取るためのシステム又は装置により具現化することができる。例えば、動作データには、画像、映像ファイル、ウェブカメラなどのライブ映像データ、ビデオストリーミングクライアント、人体ポーズ推定システム又は動作捕捉システムを含めることができる。動作データは、空間的にコヒーレントな方法で、人その他関連行為主体(例えば、動物やアンドロイド)を示すことができるのが好ましい。例として、動作データには、映像の1つ以上の画像フレーム、深度カメラの深度値の画像、及び/又は2D若しくは3D骨格/マーカポイントを含めることができる。該動作データは、一連のフレームのような時間的なものであってもよいし、単一フレームのような時間に影響されないものであってもよい。
変換モジュール30は、キャプチャ装置から入力データを受け取り、その後該データに対して左右(平行)反転変換を行うことができる。変換の正確な形式は、キャプチャ装置から提供されるデータ形式(例えば、画像データ 対 スケルトンデータ)により異なるが、結果として、動作データが左右に反転されて、該動作データ中の左側の事象や動作が右側に変換され、その逆も同様に行われる。
例えば、変換モジュール30は、対象者の骨格関節を示す一連のキーポイントを、0から1の範囲で正規化されたX座標及びY座標の配列として受け取ることができる。この場合、左右反転モジュールは、各関節のX座標を1-Xとして反転し、Y座標を変更せずにおいてもよい。動作データが映像又は画像である場合、左右反転モジュールは、鏡像変換によりデータを変換することができる。
入力データ及び訓練データにおいて他の予想される非対称性及び対称性を有する適用例では、別の変換を用いることができる。例えば、適用例により、垂直に対称な場合には、左右反転モジュールの代わりに、垂直反転モジュールを変換モジュールとして使用することができる。同様に、時間的動作データについては、変換モジュールは、適用例に順方向/逆方向の時間対称性がある場合、動作データを逆時間順に並べ替えることができる。変換モジュールは1つ以上の変換を行うことができ、適用例によっては、動作クラスにより多くの動作が含まれる場合、複数の変換モジュールを並列及び順番に使用することができる。たとえば、左右反転モジュールと垂直反転モジュールの両方を使用すると、動作は、左手動作として、かつ、上下逆に推測されることがある。
手動作分類器40は、反転された又は反転されていない入力動作データを受け取り、一方の利き手についての推定動作クラス又は複数のクラス確率を出力することができる。
手動作分類器40は、左手動作を識別することができ、又は右手動作も同様に識別することができる。上述したとおり、左手動作クラスは、必ずしも左手のみで行われた動作を示すものではなく、非対称的に実施され、右手動作と区別するために左手動作とみなされる動作もある。例えば、テニス映像の分析向けに設計された左手動作分類器は、プレーヤーの左手で行われたとみなされたときに限りフォアハンドストロークを認識し、それ以外の場合は、動作のないクラスを出力する。
単一の手動作分類器40が示されているが、実施形態において、第1分類器が非反転入力動作データを、第2分類器が反転入力動作データを受け取る2つの手動作分類器があってもよい。1つの手動作分類器を使用する場合、反転された入力動作データ及び反転されていない入力動作データの両方を同時、ただし別個に又は順番に処理して、反転された入力動作データ及び反転されていない入力動作データ各々の動作クラスを個別に推定することができる。一実施形態では、手動作分類器が一度メモリにロードされると、フレームは、一回は反転されずに、一回は反転されて分類器を通過する。
手動作分類器は、畳み込みニューラルネットワークを使用した分類器、決定木、サポートベクトルマシン又は自前の分類器などの分類器により実装してもよい。手動作分類器は、キャプチャ装置から入力データを受け取り、1つの動作クラス又は複数のクラス確率を出力することができる。分類器は、再帰型ニューラルネットワーク(RNN)を使用するなどにより、時間情報(ある場合。)を使用することができる。
図3を参照すると、例えば、左手動作分類器は、反転された及び反転されていないジョイント座標を入力として受け取り、一連の全結合層、活性化層(例えば、正規化線形ユニット層)、LSTM層及びソフトマックス層を含む長短期記憶(LSTM)RNNとして実装してもよい。
図3を参照すると、一実施形態では、左手動作分類器は、人の2D関節位置を入力として受け取り、推定動作クラスのone-hotベクトル表現を出力する長短期記憶(LSTM)ニューラルネットワークとして実装される。すなわち、出力ベクトルにおいて、出力ベクトル中の推定クラスに対応する1つの要素は高い値を有する。この実施形態の分類器では、入力2D関節位置は、先ず[0,1]座標空間320に正規化され、次に、出力クラス340を計算するソフトマックス層330に伝達される前に、一連の積み重ねられた全結合層、制限付き線形ユニット(ReLu)層及びLSTM層に伝達されてもよい。全結合層及びLSTM層は、分類された動作データのデータベース上で訓練により学習された訓練可能な重みによりパラメータ化され得る。
左右クラス反転モジュール50は、手動作分類器から、反転された入力データ上で推定された一方の利き手の動作クラス又は複数の動作クラス確率を受け取ることができ、反対の手の対応する動作クラス又は複数のクラス確率を生成することができる。一例として、左手動作分類器により推定された左手動作クラスが「左手を振る」の場合、左右クラス反転モジュール50は「右手を振る」を生成し、クラスアグリゲータモジュール60にこれを伝達することができる。左右クラス反転モジュールと呼ばれているが、クラス反転モジュール50は、適用例、及び変換モジュールにより行われる変換に応じて、クラスを垂直に、順方向/逆方向に、又はその他変換を反転させることができる。
クラスアグリゲータモジュール60は、反転された入力データ及び反転されていない入力データについて推定する動作分類器の結果から左右の手の動作クラス又はクラス確率を受け取ることができ、1つのクラス又は複数のクラス確率(例えば、いずれの入力によっても動作が認識されない場合には「なし」、いずれかの入力により認識される場合には「なし」ではないクラス、及びいずれの入力も「なし」ではない又は結合クラスである場合には何らかの規則により選択される1つの動作クラス)を生成することができる。例として、クラスアグリゲータモジュール60への入力が、反転されていない入力データについて「なし」であり、左右クラス反転モジュール50からは「右手を振る」の場合、クラスアグリゲータモジュール60は、出力クラスとして「左手を振る」を生成してもよい。同様に、クラスアグリゲータモジュール60への入力が、反転されていない入力データについて「左手を振る」であり、左右クラス反転モジュール50からは「なし」の場合、クラスアグリゲータモジュール60は、出力クラスとして「左手を振る」を生成してもよい。クラスアグリゲータモジュール60への入力が、反転されていない入力データについて「左手を振る」であり、反転された入力データについて「右手を振る」である場合、クラスアグリゲータモジュール60は、「両手を振る」などの1つのアグリゲートクラスを、又は使用事例の要件が片手クラスのみ、若しくは「左手を振る」や「右手を振る」などの複数のクラスの識別を要求する場合には、「右手を振る」などの1つのクラスを生成してもよい。
使用事例の要件に応じて、一実施形態では、クラスアグリゲータモジュール60が代わりに複数のクラスを生成してもよい。例えば、クラスアグリゲータは、「なし」ではない入力クラスを出力として生成するだけでよいため、入力に応じて様々な数の出力を出力することができる。
クラスアグリゲータへの入力が、手動作分類器40及び左右反転クラスモジュール50から得られた複数のクラス確率である場合、一実施形態では、出力は1つの最も蓋然性の高いクラス、又は左右両方のクラスの一連のクラス確率の組合わせとすることができる。
説明をした該システムモジュールは、別個のソフトウェアモジュール、別個のハードウェアユニット又は1つ以上のソフトウェア若しくはハードウェアコンポーネントの一部であってもよい。例えば、ソフトウェアモジュールは、Caffe、TensorFlow又はTorchのソフトウェアを使用して作成され、適切なモジュールを用いてPythonプログラミング言語、C++又はC#のようなコンピュータ言語で書かれた命令からなり、CPUやGPUのようなコンピュータハードウェア上で又はFPGA上に実装され、実行される。該システムは、デスクトップ、携帯電話その他ソフトウェアや動作データを保持するのに適したメモリを含む組込みシステムの一部などのプラットフォーム上で実行することができる。該システムは、キャプチャ装置と一体化させてもよく、又はこれに接続してもよい。
図2を参照すると、一例では、樹木210上の装飾品に手を伸ばしている人を映した映像のフレームが、キャプチャ装置により示されている。キャプチャ装置により提供され得る入力データの追加的形式又は代替形式の例として、関節及び骨格(青色)並びに当該者の手の周りの境界ボックス(赤紫色)が、フレーム上に重ねて表示されている。原フレーム画像210及び左右反転フレーム画像220は、左手動作分類器230に伝送される。左手動作分類器230は、当該者の左腕が伸びているようにみえる、反転入力における「伸長」動作クラス250を認識する。右腕が伸びているようにみえる原入力を用いて、左手動作分類器230は、「なし」動作クラス240を生成する。この例では、クラスアグリゲータ260は、「伸長」動作が反転入力においてのみ検出されたと仮定して、結果として得られる出力クラスは、「右手の伸長」であると判断する。
<訓練方法>
手動作分類器40が、ある機械学習を用いたモジュールとして実装される望ましい事例では、これを、動作データのクラス分けされたデータベース上で訓練する必要のある訓練可能な重みによりパラメータ化してもよい。この場合、訓練動作データは、キャプチャ装置により提供されるものと同じフォーマットである。
該実施形態では、以下の訓練手順を使用することができる。右手動作を示すクラスラベルを有する訓練インスタンスの場合、クラスラベルは、反転させて、対応する左手動作ラベル及びスケルトンデータや映像フレームデータなどの関連インスタンス動作データを示してもよく、また、左右に反転させて、右手動作が左手動作にみえるようにしてもよい。これら変換を実行すると、左手クラスラベル及び正しく対応するインスタンス動作データのみを有する訓練データセットが生成される。手動作分類器40は、該変換された訓練データセット上で訓練され、左手動作のみを認識するよう学習してもよい。
上記手順においては、左手動作のみでデータセットを生成する方法を説明しているが、同様の方法を用いて、右手動作のみでデータセットを作成することもできる。いずれの場合も、手動作分類器40は、一方の利き手の例示的な動作のみを含むデータセット上で訓練することができる。
訓練は、GPUハードウェア(又はCPUハードウェア、FPGAなど)といった適切なハードウェアを使用し、Caffe(又はTensorFlow、Torch)などの適切な訓練フレームワークにおいて、バックプロパゲーションアルゴリズム(又は他の適切な学習アルゴリズム)を用いて、公開されているデータセット(例えば、MPII、UFC101)その他訓練データセット(例えば、社内で捕捉された及び/又は注釈付きのデータセット)上で実行することができる。
上記の本発明の実施形態は例示にすぎない。本開示から逸脱することなく変更や修正を行い得ることは、当業者には明白である。本開示には、添付の特許請求の範囲に含まれる全ての変更及び修正が含まれる。

Claims (20)

  1. 動作データを捕捉するキャプチャ装置と、
    前記キャプチャ装置から前記動作データを受け取り、対称変換を使用して前記動作データを変換する変換モジュールと、
    受け取った特定の対称性のある動作データを使用して動作を識別し、推定動作クラス又は複数のクラス確率を出力する動作分類器と、
    前記変換モジュールにより変換された動作データを使用する前記動作分類器から推定動作クラス又はクラス確率を受け取り、対称変換に対応する変換を使用して動作クラスを反転させ、反転された推定動作クラスを生成するクラス反転モジュールと、
    前記反転された推定動作クラス、および、前記キャプチャ装置からの動作データを使用する動作分類器から推定動作クラスを受け取り、支配的である動作クラス、又は複数のクラス確率の組合わせに基づいて出力動作クラスを生成するクラスアグリゲータと、
    を備える動作分類器システム。
  2. 前記変換モジュールは、左右反転変換モジュールであり、前記クラス反転モジュールは、左右クラス反転モジュールである、請求項1に記載の動作分類器システム。
  3. 前記左右反転モジュールは、前記動作データの各x座標を反転させて前記動作データを変換する、請求項2に記載の動作分類器システム。
  4. 前記左右クラス反転モジュールは、右手動作を左手動作に及びその逆に反転させる、請求項2又は3に記載の動作分類器システム。
  5. 前記クラスアグリゲータは、前記動作クラス又は前記反転された推定動作クラスのクラス確率及び前記推定動作クラスの組合わせを含む出力を生成する、請求項1に記載の動作分類器システム。
  6. 前記クラスアグリゲータは、前記反転された推定動作クラスと、デフォルトクラス以外の推定動作クラスとの組合せを含む出力を生成する、請求項1に記載の動作分類器システム。
  7. 前記動作データは、人の骨格データである、請求項1から6までのいずれか1項に記載の動作分類器システム。
  8. 人の前記骨格データは、一定期間にわたる骨格関節のX座標及びY座標の配列を含む、請求項7に記載の動作分類器システム。
  9. 前記動作データは、骨格キーポイント、画像又は映像である、請求項1から6までのいずれか1項に記載の動作分類器システム。
  10. 動作を分類する方法であって、
    動作データを捕捉するステップと、
    対称変換を使用して前記動作データを変換するステップと、
    推定動作クラス又は特定の対称性を有する前記動作データから推定される複数のクラス確率を識別するステップと、
    推定動作クラス又は特定の対称性を有する変換された前記動作データから推定される複数のクラス確率を識別するステップと、
    前記対称変換に対応する変換を使用して、変換された前記動作データから得られた推定動作クラス又は複数のクラス確率を反転させて、反転された推定動作クラス又は複数のクラス確率を生成するステップと、
    前記動作データから得られた、前記反転された推定動作クラス又はクラス確率、及び前記推定動作クラス又はクラス確率を組み合わせて、複数の動作クラス又はクラス確率を生成するステップと、
    を含む方法。
  11. 対称変換を使用して動作を変換するステップには前記動作データを左右に反転するステップが含まれ、変換された前記動作データから得られた推定動作データを反転するステップには左右クラス識別子を反転するステップが含まれる、請求項10に記載の動作を分類する方法。
  12. 前記動作データを左右反転させるステップには、前記動作データの各x座標を反転させるステップが含まれる、請求項11に記載の動作を分類する方法。
  13. 前記反転された推定動作クラス又はクラス確率と、前記推定された動作クラス又は前記動作データから得られたクラス確率を組み合わせるステップには、前記反転された推定動作クラス及びデフォルトクラス以外の前記推定された動作クラスを組み合わせるステップが含まれる、請求項10に記載の動作を分類する方法。
  14. 前記動作データは、人の骨格データである、請求項10から13までのいずれか1項に記載の動作を分類する方法。
  15. 人の前記骨格データは、一定期間にわたる骨格関節のX座標及びY座標の配列を含む、請求項14に記載の動作を分類する方法。
  16. 前記動作データは、骨格キーポイント、画像又は映像である、請求項10から13までのいずれか1項に記載の動作を分類する方法。
  17. 一連の訓練インスタンスを使用して機械学習システムを訓練する方法であって、
    各訓練インスタンスはクラスラベル及び動作データを含み、
    最初の非対称性に関連付けられたラベルを有する訓練インスタンスを識別するステップと、
    識別された訓練インスタンスごとに、
    インスタンスに関連付けられたラベルを前記最初の非対称性の対となるラベルに変換し、
    前記最初の非対称性に関連付けられた変換を使用してインスタンスに関連する前記動作データを変換することにより、
    識別された訓練インスタンスを修正するステップと、
    訓練インスタンスが修正された結果、訓練インスタンスのいずれも、前記最初の非対称性のラベル付けがされていない場合に、修正された一連の訓練インスタンスを使用して機械学習システムを訓練するステップと、を含む方法。
  18. 前記最初の非対称性は左手であり、前記ラベルの変換は右手ラベルによる左手ラベルへの変換を含み、前記動作データの変換は前記動作データの左右反転を含む、請求項17に記載の方法。
  19. 前記最初の非対称性は右手であり、前記ラベルの変換は左手ラベルによる右手ラベルへの変換を含み、前記動作データの変換は前記動作データの左右反転を含む、請求項17に記載の方法。
  20. 前記動作データの左右反転は、前記動作データの各x座標の反転を含む、請求項18又は19に記載の方法。
JP2021555602A 2019-03-15 2020-03-12 手動作の対称性の認識方法及びシステム Active JP7487224B2 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
CA3036836A CA3036836A1 (en) 2019-03-15 2019-03-15 Method and system for symmetric recognition of handed activities
PCT/IB2020/052249 WO2020188424A1 (en) 2019-03-15 2020-03-12 Method and system for symmetric recognition of handed activities

Publications (2)

Publication Number Publication Date
JP2022531828A true JP2022531828A (ja) 2022-07-12
JP7487224B2 JP7487224B2 (ja) 2024-05-20

Family

ID=72519023

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021555602A Active JP7487224B2 (ja) 2019-03-15 2020-03-12 手動作の対称性の認識方法及びシステム

Country Status (5)

Country Link
US (3) US11657281B2 (ja)
EP (1) EP3938955A4 (ja)
JP (1) JP7487224B2 (ja)
CA (1) CA3036836A1 (ja)
WO (1) WO2020188424A1 (ja)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2023547443A (ja) * 2020-10-29 2023-11-10 ヒンジ ヘルス, インコーポレイテッド 2次元画像に基づく3次元メッシュ発生器
JP2023504319A (ja) * 2021-06-22 2023-02-03 センスタイム インターナショナル ピーティーイー.リミテッド 人体と人手を関連付ける方法、装置、機器及び記憶媒体

Family Cites Families (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4590010B1 (ja) * 2009-12-14 2010-12-01 エンパイア テクノロジー ディベロップメント エルエルシー 動作解析装置、および動作解析方法
JP4590018B1 (ja) * 2010-02-26 2010-12-01 エンパイア テクノロジー ディベロップメント エルエルシー 特徴量変換装置、および特徴量変換方法
US10482333B1 (en) * 2017-01-04 2019-11-19 Affectiva, Inc. Mental state analysis using blink rate within vehicles
US10575760B2 (en) * 2014-03-26 2020-03-03 GestureLogic Inc. Systems, methods and devices for activity recognition
US9782104B2 (en) 2014-03-26 2017-10-10 GestureLogic Inc. Systems, methods and devices for acquiring and processing physiological signals
US9770179B2 (en) 2014-03-26 2017-09-26 GestureLogic Inc. System, method and device for detecting heart rate
WO2016149830A1 (en) 2015-03-26 2016-09-29 GestureLogic Inc. System, method and device for detecting heart rate
WO2016149831A1 (en) 2015-03-26 2016-09-29 GestureLogic Inc. Systems, methods and devices for activity recognition
WO2016149832A1 (en) 2015-03-26 2016-09-29 GestureLogic Inc. Systems, methods and devices for exercise and activity metric computation
WO2016149829A1 (en) 2015-03-26 2016-09-29 GestureLogic Inc. Systems, methods and devices for acquiring and processing physiological signals
US10354129B2 (en) 2017-01-03 2019-07-16 Intel Corporation Hand gesture recognition for virtual reality and augmented reality devices
JP2019152927A (ja) 2018-02-28 2019-09-12 株式会社エクォス・リサーチ 画像データ生成装置、画像認識装置、画像データ生成プログラム、及び、画像認識プログラム
US20220080581A1 (en) * 2020-09-11 2022-03-17 Fanuc Corporation Dual arm robot teaching from dual hand human demonstration

Also Published As

Publication number Publication date
US20220148296A1 (en) 2022-05-12
EP3938955A4 (en) 2022-12-07
US20230274145A1 (en) 2023-08-31
WO2020188424A1 (en) 2020-09-24
CA3036836A1 (en) 2020-09-15
US20230267331A1 (en) 2023-08-24
JP7487224B2 (ja) 2024-05-20
EP3938955A1 (en) 2022-01-19
US11657281B2 (en) 2023-05-23

Similar Documents

Publication Publication Date Title
Boulahia et al. Early, intermediate and late fusion strategies for robust deep learning-based multimodal action recognition
Rangesh et al. Driver gaze estimation in the real world: Overcoming the eyeglass challenge
US20230267331A1 (en) Method and system for symmetric recognition of handed activities
Hamed et al. Arabic sign language alphabet recognition based on HOG-PCA using microsoft kinect in complex backgrounds
Núnez et al. Real-time human body tracking based on data fusion from multiple RGB-D sensors
Kirkland et al. SpikeSEG: Spiking segmentation via STDP saliency mapping
Martin et al. Dynamic interaction graphs for driver activity recognition
He et al. Facial action unit detection with multilayer fused multi-task and multi-label deep learning network
Zhang et al. EventMD: High-speed moving object detection based on event-based video frames
Lek et al. Academic Emotion Classification Using FER: A Systematic Review
Tur et al. Isolated sign recognition with a siamese neural network of RGB and depth streams
Vignolo et al. The complexity of biological motion
CN115862130A (zh) 基于人体姿态及其躯干运动场的行为识别方法
Campomanes-Álvarez et al. Automatic facial expression recognition for the interaction of individuals with multiple disabilities
WO2021217973A1 (zh) 情感信息识别方法、装置、存储介质及计算机设备
Puchała et al. Feature engineering techniques for skeleton-based two-person interaction classification in video
Mesbahi et al. Hand Gesture Recognition Based on Various Deep Learning YOLO Models
Huang et al. A hierarchical temporal memory based hand posture recognition method
Kemmou et al. Automatic facial expression recognition under partial occlusion based on motion reconstruction using a denoising autoencoder
KR20210026176A (ko) 딥 러닝을 위한 라벨링 이미지 생성 방법
Moreira et al. Fast and accurate gesture recognition based on motion shapes
Aivaliotis et al. Eye gaze analysis of students in educational systems
Sundaramoorthy et al. Deep Learning Based Hybrid Approach For Facial Emotion Detection
Pohlt et al. Weakly-Supervised Learning for Multimodal Human Activity Recognition in Human-Robot Collaboration Scenarios
CN111680550B (zh) 情感信息识别方法、装置、存储介质及计算机设备

Legal Events

Date Code Title Description
RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20210928

RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20221109

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20221129

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20230927

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20231017

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20240117

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20240409

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20240508

R150 Certificate of patent or registration of utility model

Ref document number: 7487224

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150