JP2022510417A - 関節のある身体姿勢を検出するシステムおよび方法 - Google Patents
関節のある身体姿勢を検出するシステムおよび方法 Download PDFInfo
- Publication number
- JP2022510417A JP2022510417A JP2021531830A JP2021531830A JP2022510417A JP 2022510417 A JP2022510417 A JP 2022510417A JP 2021531830 A JP2021531830 A JP 2021531830A JP 2021531830 A JP2021531830 A JP 2021531830A JP 2022510417 A JP2022510417 A JP 2022510417A
- Authority
- JP
- Japan
- Prior art keywords
- map
- partial
- image content
- body posture
- joints
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims abstract description 47
- 238000003384 imaging method Methods 0.000 claims abstract description 13
- 238000010801 machine learning Methods 0.000 claims abstract description 10
- 238000012545 processing Methods 0.000 claims description 14
- 238000013527 convolutional neural network Methods 0.000 claims description 7
- 238000012549 training Methods 0.000 claims description 7
- 230000036544 posture Effects 0.000 description 71
- 238000013528 artificial neural network Methods 0.000 description 13
- 239000011159 matrix material Substances 0.000 description 10
- 238000010586 diagram Methods 0.000 description 8
- 208000009144 Pure autonomic failure Diseases 0.000 description 7
- 239000013312 porous aromatic framework Substances 0.000 description 7
- 238000001514 detection method Methods 0.000 description 6
- 210000002569 neuron Anatomy 0.000 description 6
- 230000000694 effects Effects 0.000 description 4
- 241001465754 Metazoa Species 0.000 description 3
- 210000000245 forearm Anatomy 0.000 description 3
- 241000282472 Canis lupus familiaris Species 0.000 description 2
- 241000282412 Homo Species 0.000 description 2
- 238000004458 analytical method Methods 0.000 description 2
- 230000037237 body shape Effects 0.000 description 2
- 238000010276 construction Methods 0.000 description 2
- 238000000605 extraction Methods 0.000 description 2
- 230000001537 neural effect Effects 0.000 description 2
- 239000012782 phase change material Substances 0.000 description 2
- 238000002135 phase contrast microscopy Methods 0.000 description 2
- 210000000707 wrist Anatomy 0.000 description 2
- 230000003190 augmentative effect Effects 0.000 description 1
- 239000002131 composite material Substances 0.000 description 1
- 238000004590 computer program Methods 0.000 description 1
- 210000001513 elbow Anatomy 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 230000014509 gene expression Effects 0.000 description 1
- 210000003127 knee Anatomy 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 230000002085 persistent effect Effects 0.000 description 1
- 238000000554 physical therapy Methods 0.000 description 1
- 238000011176 pooling Methods 0.000 description 1
- 230000001144 postural effect Effects 0.000 description 1
- 230000003252 repetitive effect Effects 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 210000002832 shoulder Anatomy 0.000 description 1
- 238000013519 translation Methods 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/103—Static body considered as a whole, e.g. static pedestrian or occupant recognition
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/22—Matching criteria, e.g. proximity measures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10016—Video; Image sequence
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20036—Morphological image processing
- G06T2207/20044—Skeletonization; Medial axis transform
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20084—Artificial neural networks [ANN]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30196—Human being; Person
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Data Mining & Analysis (AREA)
- Human Computer Interaction (AREA)
- Multimedia (AREA)
- Life Sciences & Earth Sciences (AREA)
- Artificial Intelligence (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Evolutionary Biology (AREA)
- Evolutionary Computation (AREA)
- General Engineering & Computer Science (AREA)
- Image Analysis (AREA)
- Image Processing (AREA)
- Manipulator (AREA)
- Studio Devices (AREA)
Abstract
Description
Claims (19)
- イメージコンテンツから関節のある身体姿勢を検出するシステムであって、
前記イメージコンテンツを取り込む撮像モジュールと、
前記撮像モジュールと通信可能に結合されたプロセッサであって、前記プロセッサは、
前記イメージコンテンツのトップダウンビューを取得し、
機械学習アルゴリズムを使用して、前記トップダウンビューを処理し、前記イメージコンテンツに対応する前記関節のある身体姿勢を検出することであって、前記関節のある身体姿勢は複数の関節を含むように動作可能であり、前記処理は、
前記関節のある身体姿勢の各関節に対応する部分信頼度マップを作成することと、
前記イメージコンテンツの前記トップダウンビューに前記部分信頼度マップを投影することによってヒートマップを生成することと、
前記関節のある身体姿勢の前記各関節に関連付けられた各身体部分に対応する部分親和性マップを作成することと、
前記イメージコンテンツの前記トップダウンビューに前記部分親和性マップを投影することによってベクトルマップを生成することと、
前記関節のある身体姿勢を検出するために、前記ヒートマップおよび前記ベクトルマップを使用して前記関節のある身体姿勢に対応する身体フレームワークを生成することと、
を含む、前記プロセッサと、
を備えた、システム。 - 前記撮像モジュールが、撮像デバイスと、プロセッサと、メモリとを含む、請求項1に記載のシステム。
- 前記イメージコンテンツは、画像、ビデオ、グラフィックス交換フォーマット(GIF)ベースのコンテンツの少なくとも1つを含む、請求項1に記載のシステム。
- 前記システムは、前記機械学習アルゴリズムのトレーニングをさらに備え、前記システムは、
前記撮像モジュールから定義された部分信頼度マップおよび定義された部分親和性マップを受信し、
複数のシグマ値に対する前記部分信頼度マップを作成し、
複数の閾値に対する前記部分親和性マップを作成し、
前記複数のシグマ値に対する前記部分信頼度マップを前記定義された部分信頼度マップと比較して、前記複数のシグマ値から真のシグマ値を選択し、
前記複数の閾値に対する前記部分親和性マップを前記定義された部分親和性マップと比較して、前記複数の閾値から真の閾値を選択し、
前記真のシグマ値の前記部分信頼度マップを使用して前記ヒートマップを生成し、および前記真の閾値の前記部分親和性マップを使用して前記ベクトルマップを生成し、
前記関節のある身体姿勢を検出するために、前記ヒートマップおよび前記ベクトルマップを使用して前記関節のある身体姿勢に対応する前記身体フレームワークを生成する、
ように動作可能である、請求項1に記載のシステム。 - 前記システムは、処理の前に、前記イメージコンテンツの前記トップダウンビューの解像度を下げることを備える、請求項1に記載のシステム。
- 前記トップダウンビューを取得することは、
前記トップダウンビューの形式で前記イメージコンテンツを受信すること、または、
前記イメージコンテンツの複数のビューを処理し、前記トップダウンビューを取得すること、
の1つを含む、請求項1に記載のシステム。 - 前記イメージコンテンツの前記複数のビューは、背面ビュー、正面ビュー、上面ビュー、下面ビュー、左側面ビュー、右側面ビュー、斜視ビューを含む、請求項6に記載のシステム。
- 前記システムは、前記検出された関節のある身体姿勢を見るためのディスプレイデバイスをさらに備える、請求項1に記載のシステム。
- イメージコンテンツから関節のある身体姿勢を検出する方法であって、
前記イメージコンテンツのトップダウンビューを取得すること、および
機械学習アルゴリズムを使用して、前記トップダウンビューを処理し、前記イメージコンテンツに対応する前記関節のある身体姿勢を検出することであって、前記関節のある身体姿勢は複数の関節を含み、前記処理は
前記関節のある身体姿勢の各関節に対応する部分信頼度マップを作成することと、
前記イメージコンテンツの前記トップダウンビューに前記部分信頼度マップを投影することによってヒートマップを生成することと、
前記関節のある身体姿勢の前記各関節に関連付けられた各身体部分に対応する部分親和性マップを作成することと、
前記イメージコンテンツの前記トップダウンビューに前記部分親和性マップを投影することによってベクトルマップを生成することと、
前記関節のある身体姿勢を検出するために、前記ヒートマップおよび前記ベクトルマップを使用して前記関節のある身体姿勢に対応する身体フレームワークを生成することと、
を含む、ことを備える方法。 - 前記方法は、畳み込みニューラルネットワークを利用して前記部分信頼度マップおよび前記部分親和性マップを作成することを備える、請求項9に記載の方法。
- 前記方法はさらに前記機械学習アルゴリズムのトレーニングを備え、前記方法は、
定義された部分信頼度マップおよび定義された部分親和性マップを受信することと、
複数のシグマ値に対する前記部分信頼度マップを作成することと、
複数の閾値に対する前記部分親和性マップを作成することと、
前記複数のシグマ値に対する前記部分信頼度マップを前記定義された部分信頼度マップと比較して、前記複数のシグマ値から真のシグマ値を選択することと、
前記複数の閾値に対する前記部分親和性マップを前記定義された部分親和性マップと比較して、前記複数の閾値から真の閾値を選択することと、
前記真のシグマ値の前記部分信頼度マップを使用して前記ヒートマップを、および前記真の閾値の前記部分親和性マップを使用して前記ベクトルマップを、生成することと、
前記関節のある身体姿勢を検出するために、前記ヒートマップおよび前記ベクトルマップを使用して前記関節のある身体姿勢に対応する前記身体フレームワークを生成することと、
を備える、請求項9に記載の方法。 - 前記方法は、処理の前に、前記イメージコンテンツの前記トップダウンビューの解像度を下げることを備える、請求項9に記載の方法。
- 前記トップダウンビューを取得することは、
前記トップダウンビューの形式で前記イメージコンテンツを受信すること、または、
前記イメージコンテンツの複数のビューを処理し、前記トップダウンビューを取得すること、
の1つを含む、請求項9に記載の方法。 - 前記イメージコンテンツの前記複数のビューは、背面ビュー、正面ビュー、上面ビュー、下面ビュー、左側面ビュー、右側面ビュー、斜視ビューを含む、請求項13に記載の方法。
- イメージコンテンツから関節のある身体姿勢を検出するコンピュータプログラム可能製品であって、前記コンピュータプログラム可能製品は、一連の命令を含み、前記一連の命令は、プロセッサによって実行されると、前記プロセッサに
前記イメージコンテンツのトップダウンビューを取得させ、および
機械学習アルゴリズムを使用して、前記トップダウンビューを処理させ、前記イメージコンテンツに対応する前記関節のある身体姿勢を検出させることであって、前記関節のある身体姿勢は複数の関節を含み、前記処理は
前記関節のある身体姿勢の各関節に対応する部分信頼度マップを作成することと、
前記イメージコンテンツの前記トップダウンビューに前記部分信頼度マップを投影することによってヒートマップを生成することと、
前記関節のある身体姿勢の前記各関節に関連付けられた各身体部分に対応する部分親和性マップを作成することと、
前記イメージコンテンツの前記トップダウンビューに前記部分親和性マップを投影することによってベクトルマップを生成することと、
前記関節のある身体姿勢を検出するために、前記ヒートマップおよび前記ベクトルマップを使用して前記関節のある身体姿勢に対応する身体フレームワークを生成することと、
を含む、ことをさせる、
コンピュータプログラム可能製品。 - 前記一連の命令がプロセッサによって実行されると、前記プロセッサに、畳み込みニューラルネットワークを利用して前記部分信頼度マップおよび前記部分親和性マップを作成させる、請求項15に記載のコンピュータプログラム可能製品。
- 前記一連の命令は、プロセッサによって実行されると、前記プロセッサに
定義された部分信頼度マップおよび定義された部分親和性マップを受信し、
複数のシグマ値に対する前記部分信頼度マップを作成させ、
複数の閾値に対する前記部分親和性マップを作成させ、
前記複数のシグマ値に対する前記部分信頼度マップを前記定義された部分信頼度マップと比較して、前記複数のシグマ値から真のシグマ値を選択させ、
前記複数の閾値に対する前記部分親和性マップを前記定義された部分親和性マップと比較して、前記複数の閾値から真の閾値を選択させ、
前記真のシグマ値の前記部分信頼度マップを使用して前記ヒートマップを、および前記真の閾値の前記部分親和性マップを使用して前記ベクトルマップを、生成させ、
前記関節のある身体姿勢を検出するために、前記ヒートマップおよび前記ベクトルマップを使用して前記関節のある身体姿勢に対応する前記身体フレームワークを生成させる、
請求項15に記載のコンピュータプログラム可能製品。 - 前記トップダウンビューを取得することは、
前記トップダウンビューの形式で前記イメージコンテンツを受信すること、または、
前記イメージコンテンツの複数のビューを処理し、前記トップダウンビューを取得すること、
の1つを含む、請求項15に記載のコンピュータプログラム可能製品。 - 前記イメージコンテンツの前記複数のビューは、背面ビュー、正面ビュー、上面ビュー、下面ビュー、左側面ビュー、右側面ビュー、斜視ビューを含む、請求項18に記載のコンピュータプログラム可能製品。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US16/207,296 | 2018-12-03 | ||
US16/207,296 US10937185B2 (en) | 2018-12-03 | 2018-12-03 | System and method to detect articulate body pose |
PCT/IB2019/058911 WO2020115579A1 (en) | 2018-12-03 | 2019-10-18 | System and method to detect articulate body pose |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2022510417A true JP2022510417A (ja) | 2022-01-26 |
JP7241876B2 JP7241876B2 (ja) | 2023-03-17 |
Family
ID=68343184
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2021531830A Active JP7241876B2 (ja) | 2018-12-03 | 2019-10-18 | 関節のある身体姿勢を検出するシステムおよび方法 |
Country Status (12)
Country | Link |
---|---|
US (1) | US10937185B2 (ja) |
EP (1) | EP3891651A1 (ja) |
JP (1) | JP7241876B2 (ja) |
KR (1) | KR102598762B1 (ja) |
CN (1) | CN113168521A (ja) |
AU (1) | AU2019394188B2 (ja) |
BR (1) | BR112021008816A2 (ja) |
CA (1) | CA3121119C (ja) |
CL (1) | CL2021001455A1 (ja) |
CO (1) | CO2021008155A2 (ja) |
MX (1) | MX2021006521A (ja) |
WO (1) | WO2020115579A1 (ja) |
Families Citing this family (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP6965803B2 (ja) * | 2018-03-20 | 2021-11-10 | 株式会社Jvcケンウッド | 認識装置、認識方法及び認識プログラム |
JP7201946B2 (ja) * | 2019-05-16 | 2023-01-11 | 日本電信電話株式会社 | 骨格情報判定装置、骨格情報判定方法及びコンピュータプログラム |
US20200394384A1 (en) * | 2019-06-14 | 2020-12-17 | Amarjot Singh | Real-time Aerial Suspicious Analysis (ASANA) System and Method for Identification of Suspicious individuals in public areas |
CN111489379B (zh) * | 2020-06-28 | 2020-10-02 | 中国科学院自动化研究所南京人工智能芯片创新研究院 | 一种引入运动学约束的3d网络进行手部姿态估计的方法及系统 |
EP4177770A4 (en) * | 2020-07-01 | 2023-06-07 | NEC Corporation | IMAGE PROCESSING DEVICE AND METHOD, AND PROGRAM |
US20220122360A1 (en) * | 2020-10-21 | 2022-04-21 | Amarjot Singh | Identification of suspicious individuals during night in public areas using a video brightening network system |
CN112418120B (zh) * | 2020-11-27 | 2021-09-28 | 湖南师范大学 | 基于峰值置信图的人群检测方法 |
CN112183506A (zh) * | 2020-11-30 | 2021-01-05 | 成都市谛视科技有限公司 | 一种人体姿态生成方法及其系统 |
CN113343762B (zh) * | 2021-05-07 | 2022-03-29 | 北京邮电大学 | 人体姿态估计分组模型训练方法、姿态估计方法及装置 |
CN113658235B (zh) * | 2021-08-06 | 2022-08-09 | 北京理工大学 | 基于vgg网络与高斯差分网络的光学遥感影像精确配准方法 |
WO2023214293A1 (en) | 2022-05-04 | 2023-11-09 | Everseen Limited | System and method for adaptive orchestrated process parallelization |
Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2013206259A (ja) * | 2012-03-29 | 2013-10-07 | Panasonic Corp | 部位推定装置、部位推定方法、および部位推定プログラム |
Family Cites Families (14)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP4332649B2 (ja) * | 1999-06-08 | 2009-09-16 | 独立行政法人情報通信研究機構 | 手の形状と姿勢の認識装置および手の形状と姿勢の認識方法並びに当該方法を実施するプログラムを記録した記録媒体 |
ES2790885T3 (es) * | 2005-03-29 | 2020-10-29 | Sportvu Ltd | Seguimiento de objetos en tiempo real y captura de movimiento en eventos deportivos |
US8131011B2 (en) * | 2006-09-25 | 2012-03-06 | University Of Southern California | Human detection and tracking system |
US9355305B2 (en) | 2010-10-08 | 2016-05-31 | Panasonic Corporation | Posture estimation device and posture estimation method |
US9477908B2 (en) * | 2014-04-10 | 2016-10-25 | Disney Enterprises, Inc. | Multi-level framework for object detection |
US9582718B1 (en) * | 2015-06-30 | 2017-02-28 | Disney Enterprises, Inc. | Method and device for multi-target tracking by coupling multiple detection sources |
GB201613138D0 (en) * | 2016-07-29 | 2016-09-14 | Unifai Holdings Ltd | Computer vision systems |
US10902243B2 (en) * | 2016-10-25 | 2021-01-26 | Deep North, Inc. | Vision based target tracking that distinguishes facial feature targets |
CN109154979A (zh) * | 2016-10-26 | 2019-01-04 | 奥康科技有限公司 | 用于分析图像和提供反馈的可佩戴设备和方法 |
CN110291788B (zh) * | 2017-02-20 | 2022-03-08 | 索尼公司 | 图像处理设备和图像处理方法 |
US10430966B2 (en) * | 2017-04-05 | 2019-10-01 | Intel Corporation | Estimating multi-person poses using greedy part assignment |
CN109918975B (zh) * | 2017-12-13 | 2022-10-21 | 腾讯科技(深圳)有限公司 | 一种增强现实的处理方法、对象识别的方法及终端 |
CN108038465A (zh) * | 2017-12-25 | 2018-05-15 | 深圳市唯特视科技有限公司 | 一种基于合成数据集的三维多人物姿态估计 |
US20200145623A1 (en) * | 2018-11-07 | 2020-05-07 | Avigilon Corporation | Method and System for Initiating a Video Stream |
-
2018
- 2018-12-03 US US16/207,296 patent/US10937185B2/en active Active
-
2019
- 2019-10-18 CN CN201980078393.9A patent/CN113168521A/zh active Pending
- 2019-10-18 JP JP2021531830A patent/JP7241876B2/ja active Active
- 2019-10-18 MX MX2021006521A patent/MX2021006521A/es unknown
- 2019-10-18 AU AU2019394188A patent/AU2019394188B2/en active Active
- 2019-10-18 WO PCT/IB2019/058911 patent/WO2020115579A1/en unknown
- 2019-10-18 KR KR1020217020502A patent/KR102598762B1/ko active IP Right Grant
- 2019-10-18 CA CA3121119A patent/CA3121119C/en active Active
- 2019-10-18 EP EP19794256.8A patent/EP3891651A1/en active Pending
- 2019-10-18 BR BR112021008816-4A patent/BR112021008816A2/pt not_active IP Right Cessation
-
2021
- 2021-06-03 CL CL2021001455A patent/CL2021001455A1/es unknown
- 2021-06-22 CO CONC2021/0008155A patent/CO2021008155A2/es unknown
Patent Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2013206259A (ja) * | 2012-03-29 | 2013-10-07 | Panasonic Corp | 部位推定装置、部位推定方法、および部位推定プログラム |
Non-Patent Citations (1)
Title |
---|
ZHE CAO ET AL.: "Realtime Multi-person 2D Pose Estimation Using Part Affinity Fields", 2017 IEEE CONFERENCE ON COMPUTER VISION AND PATTERN RECOGNITION (CVPR), JPN6022034545, 21 July 2017 (2017-07-21), US, pages 1302 - 1310, XP055707263, ISSN: 0004855193, DOI: 10.1109/CVPR.2017.143 * |
Also Published As
Publication number | Publication date |
---|---|
WO2020115579A1 (en) | 2020-06-11 |
KR102598762B1 (ko) | 2023-11-03 |
KR20210095941A (ko) | 2021-08-03 |
JP7241876B2 (ja) | 2023-03-17 |
MX2021006521A (es) | 2021-07-07 |
AU2019394188B2 (en) | 2022-06-02 |
US20200175713A1 (en) | 2020-06-04 |
CN113168521A (zh) | 2021-07-23 |
CA3121119C (en) | 2023-08-29 |
CA3121119A1 (en) | 2020-06-11 |
BR112021008816A2 (pt) | 2021-08-10 |
US10937185B2 (en) | 2021-03-02 |
CO2021008155A2 (es) | 2021-06-30 |
EP3891651A1 (en) | 2021-10-13 |
AU2019394188A1 (en) | 2021-06-03 |
CL2021001455A1 (es) | 2021-11-26 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7241876B2 (ja) | 関節のある身体姿勢を検出するシステムおよび方法 | |
Tapu et al. | A smartphone-based obstacle detection and classification system for assisting visually impaired people | |
Elmadany et al. | Information fusion for human action recognition via biset/multiset globality locality preserving canonical correlation analysis | |
Wang et al. | Lying pose recognition for elderly fall detection | |
Xiong et al. | S3D-CNN: skeleton-based 3D consecutive-low-pooling neural network for fall detection | |
WO2020225562A1 (en) | Processing captured images | |
Nishi et al. | Generation of human depth images with body part labels for complex human pose recognition | |
Chen et al. | Combining unsupervised learning and discrimination for 3D action recognition | |
Liu et al. | Driver pose estimation using recurrent lightweight network and virtual data augmented transfer learning | |
Abobakr et al. | Body joints regression using deep convolutional neural networks | |
Asif et al. | Sshfd: Single shot human fall detection with occluded joints resilience | |
Batool et al. | Telemonitoring of daily activities based on multi-sensors data fusion | |
Fei et al. | Flow-pose Net: An effective two-stream network for fall detection | |
CN114724251A (zh) | 一种在红外视频下基于骨架序列的老人行为识别方法 | |
Colantonio et al. | Object tracking in a stereo and infrared vision system | |
Park et al. | Understanding human interactions with track and body synergies (TBS) captured from multiple views | |
Yuan et al. | Thermal Infrared Target Tracking: A Comprehensive Review | |
Yu et al. | Applications of deep learning for top-view omnidirectional imaging: A survey | |
Uddin et al. | A thermal camera-based activity recognition using discriminant skeleton features and rnn | |
Ruget et al. | Real-time, low-cost multi-person 3D pose estimation | |
Ramanathan et al. | Combining pose-invariant kinematic features and object context features for rgb-d action recognition | |
Osigbesan et al. | Vision-based fall detection in aircraft maintenance environment with pose estimation | |
Mohamed et al. | Human motion analysis, recognition and understanding in computer vision: A review | |
Datta et al. | Linearized motion estimation for articulated planes | |
Yang et al. | Ego-downward and ambient video based person location association |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20210803 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20220808 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20220823 |
|
A601 | Written request for extension of time |
Free format text: JAPANESE INTERMEDIATE CODE: A601 Effective date: 20221124 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20230120 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20230207 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20230307 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7241876 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |