JP7419964B2 - 人体動作認識装置及び方法、電子機器 - Google Patents
人体動作認識装置及び方法、電子機器 Download PDFInfo
- Publication number
- JP7419964B2 JP7419964B2 JP2020086788A JP2020086788A JP7419964B2 JP 7419964 B2 JP7419964 B2 JP 7419964B2 JP 2020086788 A JP2020086788 A JP 2020086788A JP 2020086788 A JP2020086788 A JP 2020086788A JP 7419964 B2 JP7419964 B2 JP 7419964B2
- Authority
- JP
- Japan
- Prior art keywords
- human body
- motion
- detected
- key points
- recognition result
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 230000033001 locomotion Effects 0.000 title claims description 87
- 238000000034 method Methods 0.000 title claims description 29
- 238000001514 detection method Methods 0.000 claims description 84
- 238000013527 convolutional neural network Methods 0.000 claims description 14
- 238000004364 calculation method Methods 0.000 claims description 4
- 210000001364 upper extremity Anatomy 0.000 claims description 3
- 238000010586 diagram Methods 0.000 description 19
- 238000012545 processing Methods 0.000 description 12
- 238000013528 artificial neural network Methods 0.000 description 7
- 230000006870 function Effects 0.000 description 7
- 239000011324 bead Substances 0.000 description 4
- 238000013135 deep learning Methods 0.000 description 4
- 210000003423 ankle Anatomy 0.000 description 3
- 210000003127 knee Anatomy 0.000 description 3
- 210000004197 pelvis Anatomy 0.000 description 3
- 210000000707 wrist Anatomy 0.000 description 3
- 210000005069 ears Anatomy 0.000 description 2
- 210000003128 head Anatomy 0.000 description 2
- 238000012544 monitoring process Methods 0.000 description 2
- 238000012549 training Methods 0.000 description 2
- 210000000689 upper leg Anatomy 0.000 description 2
- 230000009286 beneficial effect Effects 0.000 description 1
- 238000004590 computer program Methods 0.000 description 1
- 238000013480 data collection Methods 0.000 description 1
- 210000002414 leg Anatomy 0.000 description 1
- 238000010801 machine learning Methods 0.000 description 1
- 238000012806 monitoring device Methods 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 238000011160 research Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/20—Movements or behaviour, e.g. gesture recognition
- G06V40/23—Recognition of whole body movements, e.g. for sport training
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Data Mining & Analysis (AREA)
- General Physics & Mathematics (AREA)
- Social Psychology (AREA)
- Artificial Intelligence (AREA)
- Health & Medical Sciences (AREA)
- Multimedia (AREA)
- Psychiatry (AREA)
- General Health & Medical Sciences (AREA)
- Life Sciences & Earth Sciences (AREA)
- Human Computer Interaction (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Evolutionary Biology (AREA)
- Evolutionary Computation (AREA)
- General Engineering & Computer Science (AREA)
- Image Analysis (AREA)
Description
入力画像における人体の境界枠を検出するターゲット検出ユニット;
検出された前記人体の境界枠において、前記人体のキーポイントに基づいて前記人体の特徴を計算し、そして、前記人体の特徴に基づいて前記人体の動作を検出し、第一認識結果を得る第一検出ユニット;
検出された前記人体の境界枠において、畳み込みニュラールネットワークに基づいて前記人体の動作を検出し、第二認識結果を得る第二検出ユニット;及び
前記第一検出ユニット及び前記第二検出ユニットのうちの少なくとも1つを選択して前記人体の動作を検出し、前記第一認識結果及び前記第二認識結果のうちの少なくとも1つを得る選択ユニットを含む。
入力画像における人体の境界枠を検出し;及び
以下の2種類の処理、即ち、
検出された前記人体の境界枠において、前記人体のキーポイントに基づいて前記人体の特徴を計算し、前記人体の特徴に基づいて前記人体の動作を検出し、第一認識結果を取得し;及び
検出された前記人体の境界枠において、畳み込みニュラールネットワークに基づいて前記人体の動作を検出し、第二認識結果を取得する
という2種類の処理のうち少なくとも1つを選択して実行することを含む、
本発明の有益な効果は、次の通りであり、即ち、まず、入力画像において人体の境界枠(border)を検出し、それから、検出された境界枠において選択的に人体のキーポイントに基づいて人体の動作を検出し及び/又は畳み込みニュラールネットワークに基づいて人体の動作を検出し、このように、段階的な検出方法を採用することで、処理の速度が速く且つ認識の正確度が高く、また、2種類の検出方法を組み合わせることで、異なる状況に基づいて異なる検出方法を選択することもでき、これにより、各種のシナリオ及びニーズに柔軟に対応することができる。
第一検出ユニット102:検出された人体の境界枠において、人体のキーポイントに基づいて人体の特徴を計算し、そして、人体の特徴に基づいて人体の動作を検出し、第一認識結果を取得し;
第二検出ユニット103:検出された人体の境界枠において、畳み込みニュラールネットワークに基づいて人体の動作を検出し、第二認識結果を取得し;及び
選択ユニット104:第一検出ユニット102及び第二検出ユニット103のうちの少なくとも1つを選択して人体の動作を検出し、第一認識結果及び第二認識結果のうちの少なくとも1つを取得する。
計算モジュール202:検出された人体のキーポイントに基づいて人体の特徴を計算し;及び
第二検出モジュール203:計算された人体の特徴に基づいて、分類器及び/又は所定のルールを用いて、人体の動作を検出することで、第一認識結果を得る。
図7に示すように、電子機器700は、中央処理器701及び記憶器702を含んでも良く、該記憶器702は、該中央処理器701に接続される。なお、該図は、例示に過ぎず、さらに、該構造に対して他の類型の構成結構を用いて補充又は代替を行い、電気通信機能又は他の機能を実現しても良い。
第2操作:検出された人体の境界枠において、前記人体のキーポイントに基づいて前記人体の特徴を計算し、そして、前記人体の特徴に基づいて前記人体の動作を検出し、第一認識結果を得る処理、及び、検出された人体の境界枠において、畳み込みニュラールネットワークに基づいて前記人体の動作を検出し、第二認識結果を得る処理、のうちの少なくとも1つの処理を行う。
ステップ802:次のような処理のうちの少なくとも1つを選択して実行し、即ち、検出された人体の境界枠において、前記人体のキーポイントに基づいて前記人体の特徴を計算し、そして、前記人体の特徴に基づいて前記人体の動作を検出し、第一認識結果を得る処理、及び、検出された人体の境界枠において、畳み込みニュラールネットワークに基づいて前記人体の動作を検出し、第二認識結果を得る処理である。
Claims (10)
- 人体の動作を認識する装置であって、
入力画像における人体の境界枠を検出するターゲット検出ユニット;
検出された前記人体の境界枠において、前記人体のキーポイントに基づいて前記人体の特徴を計算し、前記人体の特徴に基づいて前記人体の動作を検出し、第一認識結果を得る第一検出ユニット;
検出された前記人体の境界枠において、畳み込みニュラールネットワークに基づいて前記人体の動作を検出し、第二認識結果を得る第二検出ユニット;及び
前記第一検出ユニット及び前記第二検出ユニットのうちの少なくとも1つを選択して前記人体の動作を検出し、前記第一認識結果及び前記第二認識結果のうちの少なくとも1つを得る選択ユニットを含む、装置。 - 請求項1に記載の装置であって、
前記第一検出ユニットは、
検出された前記人体の境界枠において前記人体のキーポイントを検出する第一検出モジュール;
検出された前記人体のキーポイントに基づいて前記人体の特徴を計算する計算モジュール;及び
計算された前記人体の特徴に基づいて、分類器及び/又は所定のルールを用いて前記人体の動作を検出し、前記第一認識結果を得る第二検出モジュールを含む、装置。 - 請求項2に記載の装置であって、
前記人体のキーポイントは、前記人体の複数の部位の所在する位置をそれぞれ示す複数のポイントを含む、装置。 - 請求項2に記載の装置であって、
前記人体の特徴は、
前記人体の複数の部位の所在する位置をそれぞれ示す複数のポイントの2次元座標;及び
前記複数のポイントを結ぶラインの間の少なくとも1つの角度を含む、装置。 - 請求項2に記載の装置であって、
前記第一検出モジュールは、CPN(Cascaded Pyramid Network)に基づいて前記人体のキーポイントを検出する、装置。 - 請求項2に記載の装置であって、
前記分類器がMLP(Multi-Layer Perceptron)分類器である、装置。 - 請求項2に記載の装置であって、
前記第二検出モジュールは、計算された前記人体の特徴に基づいて、分類器を用いて前記人体の胴体の動作を検出し、また、所定のルールを用いて前記人体の頭部の動作及び上肢の動作を検出する、装置。 - 請求項1-7のうちの任意の1項に記載の装置を含む電子機器。
- 人体の動作を認識する方法であって、
入力画像における人体の境界枠を検出し;及び
検出された前記人体の境界枠において、前記人体のキーポイントに基づいて前記人体の特徴を計算し、前記人体の特徴に基づいて前記人体の動作を検出し、第一認識結果を取得する処理、及び、検出された前記人体の境界枠において、畳み込みニュラールネットワークに基づいて前記人体の動作を検出し、第二認識結果を取得する処理、のうちの少なくとも1つの処理を選択して実行することを含む、方法。 - 請求項9に記載の方法であって、
検出された前記人体の境界枠において、前記人体のキーポイントに基づいて前記人体の特徴を計算し、前記人体の特徴に基づいて前記人体の動作を検出し、第一認識結果を取得することは、
検出された前記人体の境界枠において前記人体のキーポイントを検出し;
検出された前記人体のキーポイントに基づいて前記人体の特徴を計算し;及び
計算された前記人体の特徴に基づいて、分類器及び/又は所定のルールを用いて前記人体の動作を検出し、前記第一認識結果を取得することを含む、方法。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910541727.3 | 2019-06-21 | ||
CN201910541727.3A CN112115746B (zh) | 2019-06-21 | 2019-06-21 | 人体动作识别装置及方法、电子设备 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2021002332A JP2021002332A (ja) | 2021-01-07 |
JP7419964B2 true JP7419964B2 (ja) | 2024-01-23 |
Family
ID=73796387
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020086788A Active JP7419964B2 (ja) | 2019-06-21 | 2020-05-18 | 人体動作認識装置及び方法、電子機器 |
Country Status (2)
Country | Link |
---|---|
JP (1) | JP7419964B2 (ja) |
CN (1) | CN112115746B (ja) |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20170316578A1 (en) | 2016-04-29 | 2017-11-02 | Ecole Polytechnique Federale De Lausanne (Epfl) | Method, System and Device for Direct Prediction of 3D Body Poses from Motion Compensated Sequence |
CN109145867A (zh) | 2018-09-07 | 2019-01-04 | 北京旷视科技有限公司 | 人体姿态估计方法、装置、系统、电子设备、存储介质 |
CN109214346A (zh) | 2018-09-18 | 2019-01-15 | 中山大学 | 基于层次信息传递的图片人体动作识别方法 |
CN109241829A (zh) | 2018-07-25 | 2019-01-18 | 中国科学院自动化研究所 | 基于时空注意卷积神经网络的行为识别方法及装置 |
WO2019100886A1 (zh) | 2017-11-21 | 2019-05-31 | 北京市商汤科技开发有限公司 | 用于确定目标对象的外接框的方法、装置、介质和设备 |
Family Cites Families (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN105590099B (zh) * | 2015-12-22 | 2019-02-01 | 中国石油大学(华东) | 一种基于改进卷积神经网络的多人行为识别方法 |
CN106778796B (zh) * | 2016-10-20 | 2020-04-21 | 江苏大学 | 基于混合式协同训练的人体动作识别方法及系统 |
CN106909887A (zh) * | 2017-01-19 | 2017-06-30 | 南京邮电大学盐城大数据研究院有限公司 | 一种基于cnn和svm的动作识别方法 |
CN107832708A (zh) * | 2017-11-09 | 2018-03-23 | 云丁网络技术(北京)有限公司 | 一种人体动作识别方法及装置 |
CN108197575A (zh) * | 2018-01-05 | 2018-06-22 | 中国电子科技集团公司电子科学研究院 | 一种基于目标检测和骨点检测的异常行为识别方法及装置 |
CN108960192B (zh) * | 2018-07-23 | 2022-03-25 | 北京旷视科技有限公司 | 动作识别方法及其神经网络生成方法、装置和电子设备 |
CN109101901B (zh) * | 2018-07-23 | 2020-10-27 | 北京旷视科技有限公司 | 人体动作识别及其神经网络生成方法、装置和电子设备 |
-
2019
- 2019-06-21 CN CN201910541727.3A patent/CN112115746B/zh active Active
-
2020
- 2020-05-18 JP JP2020086788A patent/JP7419964B2/ja active Active
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20170316578A1 (en) | 2016-04-29 | 2017-11-02 | Ecole Polytechnique Federale De Lausanne (Epfl) | Method, System and Device for Direct Prediction of 3D Body Poses from Motion Compensated Sequence |
WO2019100886A1 (zh) | 2017-11-21 | 2019-05-31 | 北京市商汤科技开发有限公司 | 用于确定目标对象的外接框的方法、装置、介质和设备 |
CN109241829A (zh) | 2018-07-25 | 2019-01-18 | 中国科学院自动化研究所 | 基于时空注意卷积神经网络的行为识别方法及装置 |
CN109145867A (zh) | 2018-09-07 | 2019-01-04 | 北京旷视科技有限公司 | 人体姿态估计方法、装置、系统、电子设备、存储介质 |
CN109214346A (zh) | 2018-09-18 | 2019-01-15 | 中山大学 | 基于层次信息传递的图片人体动作识别方法 |
Also Published As
Publication number | Publication date |
---|---|
CN112115746B (zh) | 2024-06-18 |
JP2021002332A (ja) | 2021-01-07 |
CN112115746A (zh) | 2020-12-22 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Doosti et al. | Hope-net: A graph-based model for hand-object pose estimation | |
Bazarevsky et al. | Blazepose: On-device real-time body pose tracking | |
WO2021129064A9 (zh) | 姿态获取方法、关键点坐标定位模型的训练方法和装置 | |
Du et al. | Articulated multi-instrument 2-D pose estimation using fully convolutional networks | |
EP3540574B1 (en) | Eye tracking method, electronic device, and non-transitory computer readable storage medium | |
JP7149202B2 (ja) | 行動分析装置および行動分析方法 | |
JP2021064367A (ja) | 動作認識方法、動作認識装置及び電子機器 | |
US11335025B2 (en) | Method and device for joint point detection | |
US11574416B2 (en) | Generating body pose information | |
CN113255522B (zh) | 基于时间一致性的个性化运动姿态估计与分析方法及系统 | |
CN112258555A (zh) | 实时姿态估计运动分析方法、系统、计算机设备及存储介质 | |
Gouidis et al. | Accurate hand keypoint localization on mobile devices | |
KR20140040527A (ko) | 영상으로부터 신체 골격 및 신체 부위 정보 검출 방법 및 장치 | |
US20180182094A1 (en) | Proprioception training method and apparatus | |
CN111476151A (zh) | 眼球检测方法、装置、设备及存储介质 | |
KR20230080938A (ko) | 컨볼루션 블록 어텐션 모듈을 이용한 동작 인식 및 분류 방법 및 장치 | |
JP7419964B2 (ja) | 人体動作認識装置及び方法、電子機器 | |
CN113297919A (zh) | 基于姿态识别的康复动作检测方法、装置、设备及介质 | |
Sun et al. | Visual hand tracking on depth image using 2-D matched filter | |
KR20230093191A (ko) | 오차 종류별 관절 인식 방법, 서버 | |
KR20220156062A (ko) | 역기구학에 기반한 관절 회전 추론들 | |
Usabiaga et al. | Global hand pose estimation by multiple camera ellipse tracking | |
Chatzitofis et al. | A low-cost & real-time motion capture system | |
Rodrigues et al. | Supervised classification of motor-rehabilitation body movements with rgb cameras and pose tracking data | |
Dutta et al. | A hand gesture-operated system for rehabilitation using an end-to-end detection framework |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20230209 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20231107 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20231129 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20231212 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20231225 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7419964 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |