JP7367775B2 - 特徴学習システム、特徴学習方法およびプログラム - Google Patents
特徴学習システム、特徴学習方法およびプログラム Download PDFInfo
- Publication number
- JP7367775B2 JP7367775B2 JP2021566607A JP2021566607A JP7367775B2 JP 7367775 B2 JP7367775 B2 JP 7367775B2 JP 2021566607 A JP2021566607 A JP 2021566607A JP 2021566607 A JP2021566607 A JP 2021566607A JP 7367775 B2 JP7367775 B2 JP 7367775B2
- Authority
- JP
- Japan
- Prior art keywords
- feature
- similarity
- learning
- classes
- learning data
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims description 50
- 239000013598 vector Substances 0.000 claims description 75
- 230000006399 behavior Effects 0.000 claims description 66
- 238000012545 processing Methods 0.000 claims description 34
- 238000010801 machine learning Methods 0.000 claims description 20
- 238000004364 calculation method Methods 0.000 claims description 18
- 238000000513 principal component analysis Methods 0.000 claims description 11
- 210000003127 knee Anatomy 0.000 claims description 10
- 230000003542 behavioural effect Effects 0.000 description 116
- 230000009471 action Effects 0.000 description 20
- 238000010586 diagram Methods 0.000 description 20
- 239000000284 extract Substances 0.000 description 14
- 230000033001 locomotion Effects 0.000 description 9
- 230000010365 information processing Effects 0.000 description 6
- 230000008569 process Effects 0.000 description 6
- 238000007796 conventional method Methods 0.000 description 5
- 230000006870 function Effects 0.000 description 5
- 210000002683 foot Anatomy 0.000 description 4
- 230000009467 reduction Effects 0.000 description 4
- 230000008859 change Effects 0.000 description 3
- 238000004891 communication Methods 0.000 description 3
- 230000000694 effects Effects 0.000 description 3
- 238000011156 evaluation Methods 0.000 description 3
- 210000004394 hip joint Anatomy 0.000 description 3
- 210000000544 articulatio talocruralis Anatomy 0.000 description 2
- 238000006243 chemical reaction Methods 0.000 description 2
- 238000013135 deep learning Methods 0.000 description 2
- 210000002310 elbow joint Anatomy 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 210000003414 extremity Anatomy 0.000 description 2
- 230000005484 gravity Effects 0.000 description 2
- 210000000629 knee joint Anatomy 0.000 description 2
- 238000003909 pattern recognition Methods 0.000 description 2
- 238000007781 pre-processing Methods 0.000 description 2
- 210000000323 shoulder joint Anatomy 0.000 description 2
- 238000012935 Averaging Methods 0.000 description 1
- 230000002776 aggregation Effects 0.000 description 1
- 238000004220 aggregation Methods 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 230000037237 body shape Effects 0.000 description 1
- 239000000470 constituent Substances 0.000 description 1
- 238000013507 mapping Methods 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
- 238000012549 training Methods 0.000 description 1
- 230000009466 transformation Effects 0.000 description 1
- 238000000844 transformation Methods 0.000 description 1
- 230000001131 transforming effect Effects 0.000 description 1
- 238000002834 transmittance Methods 0.000 description 1
- 210000003857 wrist joint Anatomy 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/77—Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
- G06V10/776—Validation; Performance evaluation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N20/00—Machine learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/22—Matching criteria, e.g. proximity measures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/74—Image or video pattern matching; Proximity measures in feature spaces
- G06V10/75—Organisation of the matching processes, e.g. simultaneous or sequential comparisons of image or video features; Coarse-fine approaches, e.g. multi-scale approaches; using context analysis; Selection of dictionaries
- G06V10/76—Organisation of the matching processes, e.g. simultaneous or sequential comparisons of image or video features; Coarse-fine approaches, e.g. multi-scale approaches; using context analysis; Selection of dictionaries based on eigen-space representations, e.g. from pose or different illumination conditions; Shape manifolds
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/764—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/77—Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/82—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/103—Static body considered as a whole, e.g. static pedestrian or occupant recognition
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/107—Static hand or arm
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Evolutionary Computation (AREA)
- Artificial Intelligence (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Software Systems (AREA)
- Multimedia (AREA)
- Computing Systems (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Medical Informatics (AREA)
- Data Mining & Analysis (AREA)
- Databases & Information Systems (AREA)
- General Engineering & Computer Science (AREA)
- Life Sciences & Earth Sciences (AREA)
- Human Computer Interaction (AREA)
- Mathematical Physics (AREA)
- Evolutionary Biology (AREA)
- Bioinformatics & Computational Biology (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Molecular Biology (AREA)
- Image Analysis (AREA)
Description
2つの特徴ベクトルそれぞれに対応する2つのクラス間の類似度を定義する類似度定義手段と、
処理対象として取得した複数の特徴ベクトルのそれぞれが属するクラスの組み合わせに基づいて前記類似度を取得し、当該複数の特徴ベクトルと当該類似度とを含む学習用データを生成する学習用データ生成手段と、
前記学習用データを用いた機械学習を実施する学習手段と、
を備える。
コンピュータが、
2つの特徴ベクトルそれぞれに対応する2つのクラス間の類似度を定義し、
処理対象として取得した複数の特徴ベクトルのそれぞれが属するクラスの組み合わせに基づいて前記類似度を取得し、
当該複数の特徴ベクトルと当該類似度とを含む学習用データを生成し、
前記学習用データを用いた機械学習を実施する、
ことを含む。
(1.1 概要)
以下に本発明の実施形態を説明する。第1実施形態に係る特徴学習システムは、例えばセンサ情報から行動特徴を抽出したのち、学習させる行動特徴の組み合わせから類似度を判定する。行動特徴の組み合わせと類似度は、例えば、互いに関連付けた状態で学習用データベース(以下、「学習用DB」と表記)に格納される。特徴学習システムは、学習時にその類似度に基づいて学習を行う。これによれば、行動の異なる度合いに差がある行動特徴もその類似度を考慮して学習することができるため、より安定的に学習を進めることができる効果がある。
以下、図1を参照しながら、第1実施形態における特徴学習システムの概要を説明する。図1は、第1実施形態の特徴学習システム100の構成を例示する図である。
図9は、特徴学習システム100のハードウエア構成を例示するブロック図である。本図の例において、特徴学習システムの構成要素(類似度定義部101、学習用データ生成部102、学習部103)は、情報処理装置1000(コンピュータ)によって実現される。情報処理装置1000は、バス1010、プロセッサ1020、メモリ1030、ストレージデバイス1040、入出力インタフェース1050、及びネットワークインタフェース1060を有する。
以下、第1実施形態の特徴学習システムの処理の流れを、図10を参照しながら説明する。図10は、第1実施形態の特徴学習システム100の処理の流れを示すフローチャートである。
以上のように、本実施形態に係る特徴学習システム100は、人物の行動の識別に対して、識別の方法を従来と変えないまま、行動間の類似度を考慮しながら学習することを可能にする。これにより、「見た目が似ているが異なる行動」を学習することによる悪影響を抑えて安定的に学習を行うことができる。つまり、行動の差異の過剰な強調などを必要としない、安定した特徴空間を構築することができ、従来と同じ識別方法のままで、識別性能を向上させる効果が見込める。また、学習時に関しても、類似度を定める際に主成分分析や事前の学習・識別等による前処理が必要になる場合があるものの、一度類似度を定めてしまえばその後の学習ではその値を使い続けることができるし、人為的に類似度を定めるなどの前処理のない方法を採ることもできる。そのため、機械学習に用いる学習データを揃える際の労力を、従来技術よりも抑えることができる。
(2.1 システム構成)
本実施形態の特徴学習システムは、以下で説明する点を除き、第1実施形態と同様の構成を有する。図11は、第2実施形態の特徴学習システム100の構成を例示する図である。
以下、図を用いて、表示処理部104が出力する画面の具体例について説明する。
なお、前述の実施形態の構成は、組み合わせたり或いは一部の構成部分を入れ替えたりしてもよい。また、本発明の構成は前述の実施形態のみに限定されるものではなく、本発明の要旨を逸脱しない範囲内において種々変更を加えてもよい。
1.
2つの特徴ベクトルそれぞれに対応する2つのクラス間の類似度を定義する類似度定義手段と、
処理対象として取得した複数の特徴ベクトルのそれぞれが属するクラスの組み合わせに基づいて前記類似度を取得し、当該複数の特徴ベクトルと当該類似度とを含む学習用データを生成する学習用データ生成手段と、
前記学習用データを用いた機械学習を実施する学習手段と、
を備える特徴学習システム。
2.
前記類似度定義手段は、前記2つの特徴ベクトルに基づいて前記2つのクラス間の類似度を求める計算式を定義し、
前記学習用データ生成手段は、前記処理対象として取得した前記複数の特徴ベクトルのそれぞれが属するクラスの組み合わせに対応する類似度を求める計算式を取得し、当該複数の特徴ベクトルを当該計算式に代入して類似度を算出する、
1.に記載の特徴学習システム。
3.
前記類似度は、前記特徴ベクトルもしくは当該特徴ベクトルを次元削減したベクトルの差のノルムもしくは当該ベクトル同士のなす角に基づき算出される、
2.に記載の特徴学習システム。
4.
前記学習手段は、距離学習を用いる、
1.から3.のいずれか1つに記載の特徴学習システム。
5.
前記類似度は、前記特徴ベクトルが属するクラス毎に主成分分析を行うことで当該クラス毎に得られる第1主成分に対応する固有ベクトルのなす角に基づき算出される、
1.から4.のいずれか1つに記載の特徴学習システム。
6.
前記類似度は、前記特徴ベクトルを用いてクラスの識別を行った際の誤認識率に基づき算出される、
1.から4.のいずれか1つに記載の特徴学習システム。
7.
前記特徴ベクトルは、人物行動の特徴であり、
前記特徴ベクトルが属するクラスは、前記人物行動の特徴が属する行動の種類である、
1.から6.のいずれか1つに記載の特徴学習システム。
8.
前記人物行動の特徴は、可視光カメラ、赤外カメラ、デプスセンサのうち1つ以上のセンサ情報を含む、
7.に記載の特徴学習システム。
9.
前記人物行動の特徴は、人物骨格情報を含み、
当該人物骨格情報は、頭部、頸部、左肘、右肘、左手、右手、腰部、左膝、右膝、左足、および右足のうち1つ以上の位置情報を少なくとも含む、
7.に記載の特徴学習システム。
10.
前記類似度は、前記人物骨格情報の対応する部位同士の距離、もしくは部位間を連結する線分同士のなす角に基づき算出される、
9.に記載の特徴学習システム。
11.
コンピュータが、
2つの特徴ベクトルそれぞれに対応する2つのクラス間の類似度を定義し、
処理対象として取得した複数の特徴ベクトルのそれぞれが属するクラスの組み合わせに基づいて前記類似度を取得し、
当該複数の特徴ベクトルと当該類似度とを含む学習用データを生成し、
前記学習用データを用いた機械学習を実施する、
ことを含む特徴学習方法。
12.
前記コンピュータが、
前記2つの特徴ベクトルに基づいて前記2つのクラス間の類似度を求める計算式を定義し、
前記処理対象として取得した前記複数の特徴ベクトルのそれぞれが属するクラスの組み合わせに対応する類似度を求める計算式を取得し、当該複数の特徴ベクトルを当該計算式に代入して類似度を算出する、
ことを含む11.に記載の特徴学習方法。
13.
前記類似度は、前記特徴ベクトルもしくは当該特徴ベクトルを次元削減したベクトルの差のノルムもしくは当該ベクトル同士のなす角に基づき算出される、
12.に記載の特徴学習方法。
14.
前記コンピュータが、前記機械学習として距離学習を用いる、
ことを含む11.から13.のいずれか1つに記載の特徴学習方法。
15.
前記類似度は、前記特徴ベクトルが属するクラス毎に主成分分析を行うことで当該クラス毎に得られる第1主成分に対応する固有ベクトルのなす角に基づき算出される、
11.から14.のいずれか1つに記載の特徴学習方法。
16.
前記類似度は、前記特徴ベクトルを用いてクラスの識別を行った際の誤認識率に基づき算出される、
11.から14.のいずれか1つに記載の特徴学習方法。
17.
前記特徴ベクトルは、人物行動の特徴であり、
前記特徴ベクトルが属するクラスは、前記人物行動の特徴が属する行動の種類である、
11.から16.のいずれか1つに記載の特徴学習方法。
18.
前記人物行動の特徴は、可視光カメラ、赤外カメラ、デプスセンサのうち1つ以上のセンサ情報を含む、
17.に記載の特徴学習方法。
19.
前記人物行動の特徴は、人物骨格情報を含み、
当該人物骨格情報は、頭部、頸部、左肘、右肘、左手、右手、腰部、左膝、右膝、左足、および右足のうち1つ以上の位置情報を少なくとも含む、
17.に記載の特徴学習方法。
20.
前記類似度は、前記人物骨格情報の対応する部位同士の距離、もしくは部位間を連結する線分同士のなす角に基づき算出される、
19.に記載の特徴学習方法。
21.
コンピュータに、11.から20.のいずれか1つに記載の特徴学習方法を実行させるプログラム。
Claims (13)
- 2つの特徴ベクトルそれぞれに対応する2つのクラス間の類似度を定義する類似度定義手段と、
処理対象として取得した複数の特徴ベクトルのそれぞれが属するクラスの組み合わせに基づいて前記類似度を取得し、当該複数の特徴ベクトルと当該類似度とを含む学習用データを生成する学習用データ生成手段と、
前記学習用データを用いた機械学習を実施する学習手段と、
を備え、
前記類似度は、前記特徴ベクトルが属するクラス毎に主成分分析を行うことで当該クラス毎に得られる第1主成分に対応する固有ベクトルのなす角に基づき算出される、
特徴学習システム。 - 前記類似度定義手段は、前記2つの特徴ベクトルに基づいて前記2つのクラス間の類似度を求める計算式を定義し、
前記学習用データ生成手段は、前記処理対象として取得した前記複数の特徴ベクトルのそれぞれが属するクラスの組み合わせに対応する類似度を求める計算式を取得し、当該複数の特徴ベクトルを当該計算式に代入して類似度を算出する、
請求項1に記載の特徴学習システム。 - 前記類似度は、前記特徴ベクトルもしくは当該特徴ベクトルを次元削減したベクトルの差のノルムもしくは当該ベクトル同士のなす角に基づき算出される、
請求項2に記載の特徴学習システム。 - 前記学習手段は、距離学習を用いる、
請求項1から3のいずれか1項に記載の特徴学習システム。 - 前記類似度は、前記特徴ベクトルを用いてクラスの識別を行った際の誤認識率に基づき算出される、
請求項1から3のいずれか1項に記載の特徴学習システム。 - 前記特徴ベクトルは、人物行動の特徴であり、
前記特徴ベクトルが属するクラスは、前記人物行動の特徴が属する行動の種類である、
請求項1から5のいずれか1項に記載の特徴学習システム。 - 前記人物行動の特徴は、可視光カメラ、赤外カメラ、デプスセンサのうち1つ以上のセンサ情報を含む、
請求項6に記載の特徴学習システム。 - 前記人物行動の特徴は、人物骨格情報を含み、
当該人物骨格情報は、頭部、頸部、左肘、右肘、左手、右手、腰部、左膝、右膝、左足、および右足のうち1つ以上の位置情報を少なくとも含む、
請求項6に記載の特徴学習システム。 - 前記類似度は、前記人物骨格情報の対応する部位同士の距離、もしくは部位間を連結する線分同士のなす角に基づき算出される、
請求項8に記載の特徴学習システム。 - 2つの特徴ベクトルそれぞれに対応する2つのクラス間の類似度を定義する類似度定義手段と、
処理対象として取得した複数の特徴ベクトルのそれぞれが属するクラスの組み合わせに基づいて前記類似度を取得し、当該複数の特徴ベクトルと当該類似度とを含む学習用データを生成する学習用データ生成手段と、
前記学習用データを用いた機械学習を実施する学習手段と、
を備え、
前記特徴ベクトルは、人物行動の特徴であり、
前記特徴ベクトルが属するクラスは、前記人物行動の特徴が属する行動の種類であり、
前記人物行動の特徴は、人物骨格情報を含み、
当該人物骨格情報は、頭部、頸部、左肘、右肘、左手、右手、腰部、左膝、右膝、左足、および右足のうち1つ以上の位置情報を少なくとも含み、
前記類似度は、前記人物骨格情報の対応する部位同士の距離、もしくは部位間を連結する線分同士のなす角に基づき算出される、
特徴学習システム。 - コンピュータが、
2つの特徴ベクトルそれぞれに対応する2つのクラス間の類似度を定義し、
処理対象として取得した複数の特徴ベクトルのそれぞれが属するクラスの組み合わせに基づいて前記類似度を取得し、
当該複数の特徴ベクトルと当該類似度とを含む学習用データを生成し、
前記学習用データを用いた機械学習を実施する、
ことを含み、
前記類似度は、前記特徴ベクトルが属するクラス毎に主成分分析を行うことで当該クラス毎に得られる第1主成分に対応する固有ベクトルのなす角に基づき算出される、
特徴学習方法。 - コンピュータが、
2つの特徴ベクトルそれぞれに対応する2つのクラス間の類似度を定義し、
処理対象として取得した複数の特徴ベクトルのそれぞれが属するクラスの組み合わせに基づいて前記類似度を取得し、
当該複数の特徴ベクトルと当該類似度とを含む学習用データを生成し、
前記学習用データを用いた機械学習を実施する、
ことを含み、
前記特徴ベクトルは、人物行動の特徴であり、
前記特徴ベクトルが属するクラスは、前記人物行動の特徴が属する行動の種類であり、
前記人物行動の特徴は、人物骨格情報を含み、
当該人物骨格情報は、頭部、頸部、左肘、右肘、左手、右手、腰部、左膝、右膝、左足、および右足のうち1つ以上の位置情報を少なくとも含み、
前記類似度は、前記人物骨格情報の対応する部位同士の距離、もしくは部位間を連結する線分同士のなす角に基づき算出される、
特徴学習方法。 - コンピュータに、請求項11または12に記載の特徴学習方法を実行させるプログラム。
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
PCT/JP2019/050642 WO2021130864A1 (ja) | 2019-12-24 | 2019-12-24 | 特徴学習システム、特徴学習方法およびプログラム |
Publications (3)
Publication Number | Publication Date |
---|---|
JPWO2021130864A1 JPWO2021130864A1 (ja) | 2021-07-01 |
JPWO2021130864A5 JPWO2021130864A5 (ja) | 2022-07-21 |
JP7367775B2 true JP7367775B2 (ja) | 2023-10-24 |
Family
ID=76575800
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2021566607A Active JP7367775B2 (ja) | 2019-12-24 | 2019-12-24 | 特徴学習システム、特徴学習方法およびプログラム |
Country Status (3)
Country | Link |
---|---|
US (1) | US20230012026A1 (ja) |
JP (1) | JP7367775B2 (ja) |
WO (1) | WO2021130864A1 (ja) |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2011194073A (ja) | 2010-03-19 | 2011-10-06 | Konami Digital Entertainment Co Ltd | ゲーム装置、ゲーム装置の制御方法、及びプログラム |
JP2012174222A (ja) | 2011-02-24 | 2012-09-10 | Olympus Corp | 画像認識プログラム、方法及び装置 |
CN111144217A (zh) | 2019-11-28 | 2020-05-12 | 重庆邮电大学 | 一种基于人体三维关节点检测的动作评价方法 |
-
2019
- 2019-12-24 US US17/785,554 patent/US20230012026A1/en active Pending
- 2019-12-24 WO PCT/JP2019/050642 patent/WO2021130864A1/ja active Application Filing
- 2019-12-24 JP JP2021566607A patent/JP7367775B2/ja active Active
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2011194073A (ja) | 2010-03-19 | 2011-10-06 | Konami Digital Entertainment Co Ltd | ゲーム装置、ゲーム装置の制御方法、及びプログラム |
JP2012174222A (ja) | 2011-02-24 | 2012-09-10 | Olympus Corp | 画像認識プログラム、方法及び装置 |
CN111144217A (zh) | 2019-11-28 | 2020-05-12 | 重庆邮电大学 | 一种基于人体三维关节点检测的动作评价方法 |
Non-Patent Citations (4)
Title |
---|
HADSELL, Raia et al.,Dimensionality Reduction by Learning an Invariant Mapping,Proceedings of the 2006 IEEE Computer Society Conference on Computer Vision and Pattern Recognition,2006年12月31日,Volume II,ISSN 1063-6919 |
WANG, Jiang et al.,Learning Fine-grained Image Similarity with Deep Ranking,Proceedings of the 2014 IEEE Confetence on Computer Vision and Pattern Recognition,2014年12月31日,pp.1386-1393,ISSN 1063-6919 |
和泉潔ほか,マルチエージェントのためのデータ解析,初版第1刷,東京: 株式会社コロナ社,2017年08月16日,pp.27-39,ISBN 978-4-339-02812-6 |
白石達也ほか,知覚による口形素定義に基づくコーパスベース発話顔画像合成,日本音響学会2003年春季研究発表会講演論文集 -I-,2003年03月18日,pp.399-400,ISSN 1340-3168 |
Also Published As
Publication number | Publication date |
---|---|
US20230012026A1 (en) | 2023-01-12 |
WO2021130864A1 (ja) | 2021-07-01 |
JPWO2021130864A1 (ja) | 2021-07-01 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Zhang et al. | Ergonomic posture recognition using 3D view-invariant features from single ordinary camera | |
KR101588254B1 (ko) | 3차원 근거리 상호작용 | |
Hasan et al. | RETRACTED ARTICLE: Static hand gesture recognition using neural networks | |
Le et al. | Human posture recognition using human skeleton provided by Kinect | |
Ibraheem et al. | Survey on various gesture recognition technologies and techniques | |
JP6025845B2 (ja) | オブジェクト姿勢検索装置及び方法 | |
Nambiar et al. | Context-aware person re-identification in the wild via fusion of gait and anthropometric features | |
Luo et al. | Multi-set canonical correlation analysis for 3D abnormal gait behaviour recognition based on virtual sample generation | |
WO2022009301A1 (ja) | 画像処理装置、画像処理方法、及びプログラム | |
Amrutha et al. | Human Body Pose Estimation and Applications | |
JP7409499B2 (ja) | 画像処理装置、画像処理方法、及びプログラム | |
JP7501622B2 (ja) | 画像選択装置、画像選択方法、およびプログラム | |
JP7367775B2 (ja) | 特徴学習システム、特徴学習方法およびプログラム | |
Arunnehru et al. | Human pose estimation and activity classification using machine learning approach | |
JP7435781B2 (ja) | 画像選択装置、画像選択方法、及びプログラム | |
Kim et al. | Continuous gesture recognition using HLAC and low-dimensional space | |
JP7491380B2 (ja) | 画像選択装置、画像選択方法、及びプログラム | |
JP7364077B2 (ja) | 画像処理装置、画像処理方法、及びプログラム | |
Saykol et al. | Posture labeling based gesture classification for Turkish sign language using depth values | |
WO2022079794A1 (ja) | 画像選択装置、画像選択方法、及びプログラム | |
Ishrak et al. | Dynamic hand gesture recognition using sequence of human joint relative angles | |
WO2022249278A1 (ja) | 画像処理装置、画像処理方法、およびプログラム | |
WO2022249331A1 (ja) | 画像処理装置、画像処理方法、およびプログラム | |
JP7375921B2 (ja) | 画像分類装置、画像分類方法、およびプログラム | |
JP7435754B2 (ja) | 画像選択装置、画像選択方法、及びプログラム |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20220519 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20220519 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20230530 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20230731 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20230912 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20230925 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 7367775 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |