JP7241876B2 - 関節のある身体姿勢を検出するシステムおよび方法 - Google Patents
関節のある身体姿勢を検出するシステムおよび方法 Download PDFInfo
- Publication number
- JP7241876B2 JP7241876B2 JP2021531830A JP2021531830A JP7241876B2 JP 7241876 B2 JP7241876 B2 JP 7241876B2 JP 2021531830 A JP2021531830 A JP 2021531830A JP 2021531830 A JP2021531830 A JP 2021531830A JP 7241876 B2 JP7241876 B2 JP 7241876B2
- Authority
- JP
- Japan
- Prior art keywords
- image content
- map
- view
- down view
- partial
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims description 37
- 238000012545 processing Methods 0.000 claims description 33
- 238000003384 imaging method Methods 0.000 claims description 29
- 238000010801 machine learning Methods 0.000 claims description 13
- 238000013527 convolutional neural network Methods 0.000 claims description 7
- 238000012549 training Methods 0.000 claims description 7
- 238000013528 artificial neural network Methods 0.000 description 13
- 239000011159 matrix material Substances 0.000 description 8
- 238000001514 detection method Methods 0.000 description 6
- 210000002569 neuron Anatomy 0.000 description 6
- 238000010586 diagram Methods 0.000 description 5
- 241000282412 Homo Species 0.000 description 4
- 230000000694 effects Effects 0.000 description 4
- 238000010276 construction Methods 0.000 description 3
- 210000000245 forearm Anatomy 0.000 description 3
- 238000009877 rendering Methods 0.000 description 3
- 241000282472 Canis lupus familiaris Species 0.000 description 2
- 241001465754 Metazoa Species 0.000 description 2
- 238000004458 analytical method Methods 0.000 description 2
- 230000003190 augmentative effect Effects 0.000 description 2
- 238000000605 extraction Methods 0.000 description 2
- 230000001537 neural effect Effects 0.000 description 2
- 210000000707 wrist Anatomy 0.000 description 2
- 230000003416 augmentation Effects 0.000 description 1
- 230000037237 body shape Effects 0.000 description 1
- 238000004590 computer program Methods 0.000 description 1
- 239000003814 drug Substances 0.000 description 1
- 210000001513 elbow Anatomy 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 210000003127 knee Anatomy 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000010606 normalization Methods 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 230000002085 persistent effect Effects 0.000 description 1
- 238000000554 physical therapy Methods 0.000 description 1
- 238000011176 pooling Methods 0.000 description 1
- 230000003252 repetitive effect Effects 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 210000002832 shoulder Anatomy 0.000 description 1
- 238000013519 translation Methods 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/103—Static body considered as a whole, e.g. static pedestrian or occupant recognition
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/22—Matching criteria, e.g. proximity measures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10016—Video; Image sequence
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20036—Morphological image processing
- G06T2207/20044—Skeletonization; Medial axis transform
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20084—Artificial neural networks [ANN]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30196—Human being; Person
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Data Mining & Analysis (AREA)
- Human Computer Interaction (AREA)
- Multimedia (AREA)
- Life Sciences & Earth Sciences (AREA)
- Artificial Intelligence (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Evolutionary Biology (AREA)
- Evolutionary Computation (AREA)
- General Engineering & Computer Science (AREA)
- Image Analysis (AREA)
- Image Processing (AREA)
- Studio Devices (AREA)
- Manipulator (AREA)
Description
Claims (19)
- イメージコンテンツから、複数の関節を含む、関節のある身体姿勢を検出するシステムであって、前記システムは、
前記イメージコンテンツのトップダウンビューを取り込むために、垂直視線に焦点を合わせた高さに配置された撮像デバイスと、
前記撮像デバイスと通信可能に結合されたプロセッサと、
前記撮像デバイスおよび前記プロセッサと通信可能に結合されたメモリと、
を備え、前記プロセッサは、
前記撮像デバイスからの前記イメージコンテンツの前記トップダウンビューを取得し、
機械学習アルゴリズムと連携して、前記イメージコンテンツの前記トップダウンビューを処理するように動作可能であり、前記機械学習アルゴリズムは、
複数のシグマ値に対する、前記関節のある身体姿勢の各関節に対応する部分信頼度マップを作成することと、
複数の閾値に対する、前記関節のある身体姿勢の前記各関節に関連付けられた各身体部分に対応する部分親和性マップを作成することと、
前記メモリから定義された部分信頼度マップおよび定義された部分親和性マップを受信することと、
前記複数のシグマ値に対する前記部分信頼度マップを前記定義された部分信頼度マップと比較して、前記複数のシグマ値から真のシグマ値を選択することと、
前記複数の閾値に対する前記部分親和性マップを前記定義された部分親和性マップと比較して、前記複数の閾値から真の閾値を選択することと、
前記イメージコンテンツの前記トップダウンビューに、前記真のシグマ値の前記部分信頼度マップを投影することによって、ヒートマップを生成することと、
前記イメージコンテンツの前記トップダウンビューに、前記真の閾値の前記部分親和性マップを投影することによってベクトルマップを生成することと、
前記関節のある身体姿勢を検出するために、前記ヒートマップおよび前記ベクトルマップを使用して前記関節のある身体姿勢に対応する、骨格構造を含む身体フレームワークを生成することと、
によって、前記処理と並行してトレーニングされる、
システム。 - 前記撮像デバイスが、前記プロセッサと、前記メモリとを含む撮像モジュールの一部を形成する、請求項1に記載のシステム。
- 前記イメージコンテンツは、画像、ビデオ、グラフィックス交換フォーマット(GIF)ベースのコンテンツの少なくとも1つを含む、請求項1に記載のシステム。
- 前記機械学習アルゴリズムのトレーニングは、
前記イメージコンテンツと同様のイメージコンテンツを含む複数のデータセットを使用して、グラウンドトゥルース骨格を生成することと、
前記身体フレームワークの推定骨格を前記グラウンドトゥルース骨格と比較することと、
前記推定骨格と前記グラウンドトゥルース骨格との前記比較に基づいて、一致する関節点の数および一致する骨格の数を決定することと、
を含む、請求項1に記載のシステム。 - 前記システムは、処理の前に、前記イメージコンテンツの前記トップダウンビューの解像度を下げることを備える、請求項1に記載のシステム。
- 前記トップダウンビューを取得することは、
前記トップダウンビューの形式で前記イメージコンテンツを受信すること、または、
前記イメージコンテンツの複数のビューを処理し、前記トップダウンビューを取得すること、
の1つを含む、請求項1に記載のシステム。 - 前記イメージコンテンツの前記複数のビューは、背面ビュー、正面ビュー、上面ビュー、下面ビュー、左側面ビュー、右側面ビュー、斜視ビューを含む、請求項6に記載のシステム。
- 前記システムは、前記検出された関節のある身体姿勢を見るためのディスプレイデバイスをさらに備える、請求項1に記載のシステム。
- イメージコンテンツから、複数の関節を含む、関節のある身体姿勢を検出する方法であって、前記方法は、
撮像デバイスを使用して、前記イメージコンテンツのトップダウンビューを取り込むことであって、前記撮像デバイスは、前記イメージコンテンツの前記トップダウンビューを取り込むときに、垂直視線に焦点を合わせる高さに配置されている、ことと、
前記イメージコンテンツの前記トップダウンビューを取得することと、
機械学習アルゴリズムと連携して、前記イメージコンテンツの前記トップダウンビューを処理することと、を備え、前記機械学習アルゴリズムは、
複数のシグマ値に対する、前記関節のある身体姿勢の各関節に対応する部分信頼度マップを作成することと、
複数の閾値に対する、前記関節のある身体姿勢の前記各関節に関連付けられた各身体部分に対応する部分親和性マップを作成することと、
前記撮像デバイスと通信可能に結合されたメモリから定義された部分信頼度マップおよび定義された部分親和性マップを受信することと、
前記複数のシグマ値に対する前記部分信頼度マップを前記定義された部分信頼度マップと比較して、前記複数のシグマ値から真のシグマ値を選択することと、
前記複数の閾値に対する前記部分親和性マップを前記定義された部分親和性マップと比較して、前記複数の閾値から真の閾値を選択することと、
前記イメージコンテンツの前記トップダウンビューに、前記真のシグマ値の前記部分信頼度マップを投影することによって、ヒートマップを生成することと、
前記イメージコンテンツの前記トップダウンビューに、前記真の閾値の前記部分親和性マップを投影することによってベクトルマップを生成することと、
前記関節のある身体姿勢を検出するために、前記ヒートマップおよび前記ベクトルマップを使用して前記関節のある身体姿勢に対応する、骨格構造を含む身体フレームワークを生成することと、
によって、前記処理と並行してトレーニングされる、
方法。 - 前記方法は、畳み込みニューラルネットワークを利用して前記部分信頼度マップおよび前記部分親和性マップを作成することを備える、請求項9に記載の方法。
- 前記方法はさらに、
前記イメージコンテンツと同様のイメージコンテンツを含む複数のデータセットを使用して、グラウンドトゥルース骨格を生成することと、
前記身体フレームワークの推定骨格を前記グラウンドトゥルース骨格と比較することと、
前記推定骨格と前記グラウンドトゥルース骨格との前記比較に基づいて、一致する関節点の数および一致する骨格の数を決定することと、
による、前記機械学習アルゴリズムのトレーニングを備える、請求項9に記載の方法。 - 前記方法は、処理の前に、前記イメージコンテンツの前記トップダウンビューの解像度を下げることを備える、請求項9に記載の方法。
- 前記トップダウンビューを取得することは、
前記トップダウンビューの形式で前記イメージコンテンツを受信すること、または、
前記イメージコンテンツの複数のビューを処理し、前記トップダウンビューを取得すること、
の1つを含む、請求項9に記載の方法。 - 前記イメージコンテンツの前記複数のビューは、背面ビュー、正面ビュー、上面ビュー、下面ビュー、左側面ビュー、右側面ビュー、斜視ビューを含む、請求項13に記載の方法。
- イメージコンテンツから、複数の関節を含む、関節のある身体姿勢を検出する処理回路であって、前記処理回路は、
撮像デバイスを使用して、前記イメージコンテンツのトップダウンビューを取り込み、前記撮像デバイスは、前記イメージコンテンツの前記トップダウンビューを取り込むときに、垂直視線に焦点を合わせる高さに配置されており、
前記イメージコンテンツの前記トップダウンビューを取得し、
機械学習アルゴリズムと連携して、前記イメージコンテンツの前記トップダウンビューを処理する、ように構成されており、前記機械学習アルゴリズムは
複数のシグマ値に対する、前記関節のある身体姿勢の各関節に対応する部分信頼度マップを作成することと、
複数の閾値に対する、前記関節のある身体姿勢の前記各関節に関連付けられた各身体部分に対応する部分親和性マップを作成することと、
前記撮像デバイスと通信可能に結合されたメモリから定義された部分信頼度マップおよび定義された部分親和性マップを受信することと、
前記複数のシグマ値に対する前記部分信頼度マップを前記定義された部分信頼度マップと比較して、前記複数のシグマ値から真のシグマ値を選択することと、
前記複数の閾値に対する前記部分親和性マップを前記定義された部分親和性マップと比較して、前記複数の閾値から真の閾値を選択することと、
前記イメージコンテンツの前記トップダウンビューに、前記真のシグマ値の前記部分信頼度マップを投影することによって、ヒートマップを生成することと、
前記イメージコンテンツの前記トップダウンビューに、前記真の閾値の前記部分親和性マップを投影することによってベクトルマップを生成することと、
前記関節のある身体姿勢を検出するために、前記ヒートマップおよび前記ベクトルマップを使用して前記関節のある身体姿勢に対応する、骨格構造を含む身体フレームワークを生成することと、
によって、前記処理と並行してトレーニングされる、
処理回路。 - 畳み込みニューラルネットワークを利用して前記部分信頼度マップおよび前記部分親和性マップを作成する、請求項15に記載の処理回路。
- 前記イメージコンテンツと同様のイメージコンテンツを含む複数のデータセットを使用して、グラウンドトゥルース骨格を生成し、
前記身体フレームワークの推定骨格を前記グラウンドトゥルース骨格と比較し、
前記推定骨格と前記グラウンドトゥルース骨格との前記比較に基づいて、一致する関節点の数および一致する骨格の数を決定する、
ようにさらに構成されている、請求項15に記載の処理回路。 - 前記トップダウンビューの形式で前記イメージコンテンツを受信する、または、
前記イメージコンテンツの複数のビューを処理し、前記トップダウンビューを取得する、
ようにさらに構成されている、請求項15に記載の処理回路。 - 前記イメージコンテンツの前記複数のビューは、背面ビュー、正面ビュー、上面ビュー、下面ビュー、左側面ビュー、右側面ビュー、斜視ビューを含む、請求項18に記載の処理回路。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US16/207,296 | 2018-12-03 | ||
US16/207,296 US10937185B2 (en) | 2018-12-03 | 2018-12-03 | System and method to detect articulate body pose |
PCT/IB2019/058911 WO2020115579A1 (en) | 2018-12-03 | 2019-10-18 | System and method to detect articulate body pose |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2022510417A JP2022510417A (ja) | 2022-01-26 |
JP7241876B2 true JP7241876B2 (ja) | 2023-03-17 |
Family
ID=68343184
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2021531830A Active JP7241876B2 (ja) | 2018-12-03 | 2019-10-18 | 関節のある身体姿勢を検出するシステムおよび方法 |
Country Status (12)
Country | Link |
---|---|
US (1) | US10937185B2 (ja) |
EP (1) | EP3891651A1 (ja) |
JP (1) | JP7241876B2 (ja) |
KR (1) | KR102598762B1 (ja) |
CN (1) | CN113168521B (ja) |
AU (1) | AU2019394188B2 (ja) |
BR (1) | BR112021008816A2 (ja) |
CA (1) | CA3121119C (ja) |
CL (1) | CL2021001455A1 (ja) |
CO (1) | CO2021008155A2 (ja) |
MX (1) | MX2021006521A (ja) |
WO (1) | WO2020115579A1 (ja) |
Families Citing this family (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP6965803B2 (ja) * | 2018-03-20 | 2021-11-10 | 株式会社Jvcケンウッド | 認識装置、認識方法及び認識プログラム |
JP7201946B2 (ja) * | 2019-05-16 | 2023-01-11 | 日本電信電話株式会社 | 骨格情報判定装置、骨格情報判定方法及びコンピュータプログラム |
US20200394384A1 (en) * | 2019-06-14 | 2020-12-17 | Amarjot Singh | Real-time Aerial Suspicious Analysis (ASANA) System and Method for Identification of Suspicious individuals in public areas |
CN111489379B (zh) * | 2020-06-28 | 2020-10-02 | 中国科学院自动化研究所南京人工智能芯片创新研究院 | 一种引入运动学约束的3d网络进行手部姿态估计的方法及系统 |
US20230244713A1 (en) * | 2020-07-01 | 2023-08-03 | Nec Corporation | Image processing apparatus, image processing method, and non-transitory storage medium |
US20220122360A1 (en) * | 2020-10-21 | 2022-04-21 | Amarjot Singh | Identification of suspicious individuals during night in public areas using a video brightening network system |
CN112418120B (zh) * | 2020-11-27 | 2021-09-28 | 湖南师范大学 | 基于峰值置信图的人群检测方法 |
CN112183506A (zh) * | 2020-11-30 | 2021-01-05 | 成都市谛视科技有限公司 | 一种人体姿态生成方法及其系统 |
CN113343762B (zh) * | 2021-05-07 | 2022-03-29 | 北京邮电大学 | 人体姿态估计分组模型训练方法、姿态估计方法及装置 |
CN113658235B (zh) * | 2021-08-06 | 2022-08-09 | 北京理工大学 | 基于vgg网络与高斯差分网络的光学遥感影像精确配准方法 |
AU2023266209A1 (en) | 2022-05-04 | 2024-01-04 | Everseen Limited | System and method for adaptive orchestrated process parallelization |
Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2013206259A (ja) | 2012-03-29 | 2013-10-07 | Panasonic Corp | 部位推定装置、部位推定方法、および部位推定プログラム |
Family Cites Families (14)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP4332649B2 (ja) * | 1999-06-08 | 2009-09-16 | 独立行政法人情報通信研究機構 | 手の形状と姿勢の認識装置および手の形状と姿勢の認識方法並びに当該方法を実施するプログラムを記録した記録媒体 |
ES2790885T3 (es) * | 2005-03-29 | 2020-10-29 | Sportvu Ltd | Seguimiento de objetos en tiempo real y captura de movimiento en eventos deportivos |
US8131011B2 (en) * | 2006-09-25 | 2012-03-06 | University Of Southern California | Human detection and tracking system |
JP5820366B2 (ja) | 2010-10-08 | 2015-11-24 | パナソニック株式会社 | 姿勢推定装置及び姿勢推定方法 |
US9477908B2 (en) * | 2014-04-10 | 2016-10-25 | Disney Enterprises, Inc. | Multi-level framework for object detection |
US9582718B1 (en) * | 2015-06-30 | 2017-02-28 | Disney Enterprises, Inc. | Method and device for multi-target tracking by coupling multiple detection sources |
GB201613138D0 (en) * | 2016-07-29 | 2016-09-14 | Unifai Holdings Ltd | Computer vision systems |
US10902243B2 (en) * | 2016-10-25 | 2021-01-26 | Deep North, Inc. | Vision based target tracking that distinguishes facial feature targets |
CN109154979A (zh) * | 2016-10-26 | 2019-01-04 | 奥康科技有限公司 | 用于分析图像和提供反馈的可佩戴设备和方法 |
JP7200678B2 (ja) * | 2017-02-20 | 2023-01-10 | ソニーグループ株式会社 | 画像処理装置および画像処理方法 |
US10430966B2 (en) * | 2017-04-05 | 2019-10-01 | Intel Corporation | Estimating multi-person poses using greedy part assignment |
CN109918975B (zh) * | 2017-12-13 | 2022-10-21 | 腾讯科技(深圳)有限公司 | 一种增强现实的处理方法、对象识别的方法及终端 |
CN108038465A (zh) * | 2017-12-25 | 2018-05-15 | 深圳市唯特视科技有限公司 | 一种基于合成数据集的三维多人物姿态估计 |
US20200145623A1 (en) * | 2018-11-07 | 2020-05-07 | Avigilon Corporation | Method and System for Initiating a Video Stream |
-
2018
- 2018-12-03 US US16/207,296 patent/US10937185B2/en active Active
-
2019
- 2019-10-18 CN CN201980078393.9A patent/CN113168521B/zh active Active
- 2019-10-18 CA CA3121119A patent/CA3121119C/en active Active
- 2019-10-18 WO PCT/IB2019/058911 patent/WO2020115579A1/en unknown
- 2019-10-18 MX MX2021006521A patent/MX2021006521A/es unknown
- 2019-10-18 BR BR112021008816-4A patent/BR112021008816A2/pt not_active IP Right Cessation
- 2019-10-18 EP EP19794256.8A patent/EP3891651A1/en active Pending
- 2019-10-18 JP JP2021531830A patent/JP7241876B2/ja active Active
- 2019-10-18 AU AU2019394188A patent/AU2019394188B2/en active Active
- 2019-10-18 KR KR1020217020502A patent/KR102598762B1/ko active IP Right Grant
-
2021
- 2021-06-03 CL CL2021001455A patent/CL2021001455A1/es unknown
- 2021-06-22 CO CONC2021/0008155A patent/CO2021008155A2/es unknown
Patent Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2013206259A (ja) | 2012-03-29 | 2013-10-07 | Panasonic Corp | 部位推定装置、部位推定方法、および部位推定プログラム |
Non-Patent Citations (1)
Title |
---|
Zhe Cao et al.,Realtime Multi-person 2D Pose Estimation Using Part Affinity Fields,2017 IEEE Conference on Computer Vision and Pattern Recognition (CVPR),米国,IEEE,2017年07月21日,pp.1302-1310,https://ieeexplore.ieee.org/stamp/stamp.jsp?tp=&arnumber=8099626 |
Also Published As
Publication number | Publication date |
---|---|
JP2022510417A (ja) | 2022-01-26 |
AU2019394188B2 (en) | 2022-06-02 |
KR20210095941A (ko) | 2021-08-03 |
WO2020115579A1 (en) | 2020-06-11 |
US10937185B2 (en) | 2021-03-02 |
CA3121119A1 (en) | 2020-06-11 |
BR112021008816A2 (pt) | 2021-08-10 |
CN113168521A (zh) | 2021-07-23 |
CA3121119C (en) | 2023-08-29 |
EP3891651A1 (en) | 2021-10-13 |
CN113168521B (zh) | 2024-06-25 |
CO2021008155A2 (es) | 2021-06-30 |
US20200175713A1 (en) | 2020-06-04 |
CL2021001455A1 (es) | 2021-11-26 |
AU2019394188A1 (en) | 2021-06-03 |
MX2021006521A (es) | 2021-07-07 |
KR102598762B1 (ko) | 2023-11-03 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7241876B2 (ja) | 関節のある身体姿勢を検出するシステムおよび方法 | |
US11790682B2 (en) | Image analysis using neural networks for pose and action identification | |
Hong et al. | Multimodal face-pose estimation with multitask manifold deep learning | |
Sarikaya et al. | Detection and localization of robotic tools in robot-assisted surgery videos using deep neural networks for region proposal and detection | |
Zimmermann et al. | Learning to estimate 3d hand pose from single rgb images | |
Elmadany et al. | Information fusion for human action recognition via biset/multiset globality locality preserving canonical correlation analysis | |
Olagoke et al. | Literature survey on multi-camera system and its application | |
CN110427905A (zh) | 行人跟踪方法、装置以及终端 | |
WO2020225562A1 (en) | Processing captured images | |
Chen et al. | Combining unsupervised learning and discrimination for 3D action recognition | |
Elhayek et al. | Fully automatic multi-person human motion capture for vr applications | |
Yadav et al. | YogNet: A two-stream network for realtime multiperson yoga action recognition and posture correction | |
Iosifidis et al. | Multi-view human action recognition: A survey | |
Yuan et al. | Thermal infrared target tracking: A comprehensive review | |
CN114387679A (zh) | 基于递归卷积神经网络实现视线估计与注意力分析的系统及其方法 | |
Hsieh et al. | Online human action recognition using deep learning for indoor smart mobile robots | |
Park et al. | Understanding human interactions with track and body synergies (TBS) captured from multiple views | |
Yu et al. | Applications of deep learning for top-view omnidirectional imaging: A survey | |
Quan et al. | MAWKDN: A multimodal fusion wavelet knowledge distillation approach based on cross-view attention for action recognition | |
JP2021034015A (ja) | ターゲット検索装置及び方法、電子機器 | |
He et al. | High accuracy intelligent real-time framework for detecting infant drowning based on deep learning | |
Zha et al. | Self-supervised cross-modal distillation for thermal infrared tracking | |
Rostami et al. | Skeleton-based action recognition using spatio-temporal features with convolutional neural networks | |
Yang et al. | Ego-downward and ambient video based person location association | |
Jiang et al. | Real-time multiple people hand localization in 4d point clouds |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20210803 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20220808 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20220823 |
|
A601 | Written request for extension of time |
Free format text: JAPANESE INTERMEDIATE CODE: A601 Effective date: 20221124 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20230120 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20230207 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20230307 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7241876 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |