JP2022540069A - アクティビティ認識のための量子化された遷移変化の検出 - Google Patents
アクティビティ認識のための量子化された遷移変化の検出 Download PDFInfo
- Publication number
- JP2022540069A JP2022540069A JP2021578060A JP2021578060A JP2022540069A JP 2022540069 A JP2022540069 A JP 2022540069A JP 2021578060 A JP2021578060 A JP 2021578060A JP 2021578060 A JP2021578060 A JP 2021578060A JP 2022540069 A JP2022540069 A JP 2022540069A
- Authority
- JP
- Japan
- Prior art keywords
- image frames
- classes
- predefined
- video stream
- sequence
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 230000000694 effects Effects 0.000 title claims abstract description 50
- 230000007704 transition Effects 0.000 title claims abstract description 33
- 238000001514 detection method Methods 0.000 title claims description 8
- 239000013598 vector Substances 0.000 claims abstract description 46
- 230000009471 action Effects 0.000 claims abstract description 38
- 230000001419 dependent effect Effects 0.000 claims abstract description 14
- 238000001914 filtration Methods 0.000 claims abstract description 11
- 238000010276 construction Methods 0.000 claims abstract description 6
- 238000000034 method Methods 0.000 claims description 36
- 238000003384 imaging method Methods 0.000 claims description 14
- 238000013528 artificial neural network Methods 0.000 claims description 11
- 238000013527 convolutional neural network Methods 0.000 claims description 10
- 230000000306 recurrent effect Effects 0.000 claims description 5
- 239000000284 extract Substances 0.000 claims description 2
- 230000000875 corresponding effect Effects 0.000 description 12
- 230000037081 physical activity Effects 0.000 description 12
- 230000008569 process Effects 0.000 description 11
- 210000002569 neuron Anatomy 0.000 description 6
- 238000012545 processing Methods 0.000 description 5
- 238000004891 communication Methods 0.000 description 2
- 239000000203 mixture Substances 0.000 description 2
- 238000012544 monitoring process Methods 0.000 description 2
- 230000001537 neural effect Effects 0.000 description 2
- 238000013139 quantization Methods 0.000 description 2
- 238000012706 support-vector machine Methods 0.000 description 2
- 238000004458 analytical method Methods 0.000 description 1
- 238000013473 artificial intelligence Methods 0.000 description 1
- 238000013475 authorization Methods 0.000 description 1
- 230000006399 behavior Effects 0.000 description 1
- 239000003086 colorant Substances 0.000 description 1
- 230000002596 correlated effect Effects 0.000 description 1
- 238000013500 data storage Methods 0.000 description 1
- 239000003814 drug Substances 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 230000007613 environmental effect Effects 0.000 description 1
- 238000000605 extraction Methods 0.000 description 1
- 230000006870 function Effects 0.000 description 1
- 238000010801 machine learning Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000010606 normalization Methods 0.000 description 1
- 238000000554 physical therapy Methods 0.000 description 1
- 238000011176 pooling Methods 0.000 description 1
- 238000013179 statistical model Methods 0.000 description 1
- 238000001931 thermography Methods 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/20—Movements or behaviour, e.g. gesture recognition
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/211—Selection of the most significant subset of features
- G06F18/2113—Selection of the most significant subset of features by ranking or filtering the set of features, e.g. using a measure of variance or of feature cross-correlation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/217—Validation; Performance evaluation; Active pattern learning techniques
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/764—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/77—Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
- G06V10/771—Feature selection, e.g. selecting representative features from a multi-dimensional feature space
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/77—Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
- G06V10/776—Validation; Performance evaluation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/77—Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
- G06V10/778—Active pattern-learning, e.g. online learning of image or video features
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/82—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/40—Scenes; Scene-specific elements in video content
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/40—Scenes; Scene-specific elements in video content
- G06V20/41—Higher-level, semantic clustering, classification or understanding of video scenes, e.g. detection, labelling or Markovian modelling of sport events or news items
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Multimedia (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Evolutionary Computation (AREA)
- General Health & Medical Sciences (AREA)
- Software Systems (AREA)
- Health & Medical Sciences (AREA)
- Artificial Intelligence (AREA)
- Databases & Information Systems (AREA)
- Computing Systems (AREA)
- Medical Informatics (AREA)
- Data Mining & Analysis (AREA)
- Human Computer Interaction (AREA)
- Psychiatry (AREA)
- Social Psychology (AREA)
- Computational Linguistics (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Evolutionary Biology (AREA)
- General Engineering & Computer Science (AREA)
- Life Sciences & Earth Sciences (AREA)
- Image Analysis (AREA)
Abstract
Description
ここで、PHand=クラス「手」に分類される画像フレームの確率、
PHandObject=クラス「手の中にあるオブジェクト」に分類される画像フレームの確率、
PObject=クラス「オブジェクト」に分類される画像フレームの確率、
PBodyPart=クラス「身体部分」に分類される画像フレームの確率、
PEmptyScanner=クラス「空のスキャナ」に分類される画像フレームの確率
である。
Pv1={0.0,0.0,0.0,0.0,1.0}
Pv2={0.0,0.0,0.28,0.0,0.72}
Pv3={0.0,0.0,0.26,0.0,0.74}
Pv4={0.0,0.0,0.19,0.0,0.81}
Pv5={0.0,0.0,0.29,0.0,0.71}Pv6={0.0,0.45,0.14,0.0,0.41}
Pv1={0.0,0.0,0.28,0.0,0.72}
Pv2={0.0,0.0,0.28,0.0,0.72}
Pv3={0.0,0.0,0.01,0.27,0.72}
Pv4={0.0,0.0,0.28,0.0,0.72}
Pv5={0.0,0.0,0.28,0.0,0.72}
Pv6={0.0,0.0,0.28,0.0,0.72}
Pvf1={0.0,0.0,0.0,0.0,1.0}
Pvf2={0.0,0.0,0.28,0.0,0.72}
Pvf3={0.0,0.0,0.26,0.0,0.74}
Pvf4={0.0,0.0,0.39,0.0,0.71}
Pvf5={0.0,0.45,0.14,0.0,0.41}
対応する二値化された確率ベクトルPvbは、以下のように表され得る。
Pvb1={00001}
Pvb2={00101}
Pvb3={00101}
Pvb4={00101}
Pvb5={01001}
classHand up:H down:h
classHandObject up:Q down:q
classObject up:O down:o
classBodyPart up:B down:b
classEmptyScanner up:E down:e
Silence
OoE
Silence
OQoOqBobE
Silence
Pv={PHand,PHandObject,PObject,PBodyPart,PEmptyScanner}
ここで、PHand=クラス「手」に分類される画像フレームの確率、
PHandObject=クラス「手の中にあるオブジェクト」に分類される画像フレームの確率、
PObject=クラス「オブジェクト」に分類される画像フレームの確率、
PBodyPart=クラス「身体部分」に分類される画像フレームの確率、
PEmptyScanner=クラス「空のスキャナ」に分類される画像フレームの確率
である。
Claims (19)
- イメージングデバイスによってキャプチャされたビデオストリームから人間のアクティビティを認識するためのシステムであって、前記システムは、
1つまたは複数の命令を格納するためのメモリと、
前記1つまたは複数の命令を実行するために前記メモリに通信可能に結合されたプロセッサであって、前記プロセッサは、
前記イメージングデバイスに通信可能に結合された分類器であって、
前記ビデオストリームの画像フレームを、事前定義されたクラスのセットの1つまたは複数のクラスに分類し、前記画像フレームは、前記画像フレームの関心領域におけるユーザアクションに基づいて分類され、
前記分類に基づいて前記画像フレームに対してクラス確率ベクトルを生成し、前記クラス確率ベクトルは、各事前定義されたクラスにおける前記画像フレームの分類の確率のセットを含む、ように構成された分類器と、
事前定義された確率閾値に基づいて前記クラス確率ベクトルの各確率値をフィルタリングし、かつ二値化するように構成されたデータフィルタリングおよび二値化モジュールと、
圧縮単語構成モジュールであって、
対応する二値化された確率ベクトルに基づいて、前記ビデオストリームの1つまたは複数の連続する画像フレームにおける1つまたは複数のクラスの1つまたは複数の遷移を決定し、
前記1つまたは複数の連続する画像フレームにおける前記決定された1つまたは複数の遷移に基づいて、圧縮された単語のシーケンスを生成する、ように構成された圧縮単語構成モジュールと、
前記圧縮された単語のシーケンスを分析することによって1つまたは複数のユーザアクションを抽出し、そこから人間のアクティビティを認識するように構成されたシーケンス依存分類器と
を含むプロセッサと
を備えたシステム。 - 前記分類器は、畳み込みニューラルネットワークである、請求項1に記載のシステム。
- セルフチェックアウト(SCO)スキャンゾーンのための前記事前定義されたクラスのセットが、手、手の中にあるオブジェクト、オブジェクト、身体部分、および空のスキャナなどのクラスを含む、請求項1に記載のシステム。
- 前記データフィルタリングおよび二値化モジュールは、1つまたは複数の連続する画像フレームの前記クラス確率ベクトルにおける分類器エラーを排除するようにさらに動作可能である、請求項1に記載のシステム。
- 前記プロセッサは、サイレントインターバル検出モジュールをさらに備え、前記サイレントインターバル検出モジュールは、事前定義された閾値期間に前記関心領域におけるアクティビティ検出がないことに基づいて、前記ビデオストリーム内の1つまたは複数のサイレントインターバルを検出するように構成される、請求項1に記載のシステム。
- 圧縮された単語は、事前定義されたクラスの数の2倍に等しい数の文字を含むアルファベットの文字から形成される、請求項1に記載のシステム。
- 前記圧縮された単語のシーケンスの前記圧縮された単語のそれぞれが、それらの間に非アクティビティの少なくとも1つのフレームを含む、請求項1に記載のシステム。
- 前記シーケンス依存分類器は、リカレントニューラルネットワークである、請求項1に記載のシステム。
- ビデオストリームから人間のアクティビティを認識するための方法であって、前記方法は、
分類器によって、前記ビデオストリームの画像フレームを、事前定義されたクラスのセットの1つまたは複数のクラスに分類することであって、前記画像フレームは、前記画像フレームの関心領域におけるユーザアクションに基づいて分類されることと、
前記分類に基づいて前記画像フレームに対してクラス確率ベクトルを生成することであって、前記クラス確率ベクトルは、各事前定義されたクラスにおける前記画像フレームの分類の確率のセットを含むことと、
事前定義された確率閾値に基づいて前記クラス確率ベクトルの各確率値を二値化することと、
対応する二値化された確率ベクトルに基づいて、前記ビデオストリームの1つまたは複数の連続する画像フレームにおける1つまたは複数のクラスの1つまたは複数の遷移を決定することと、
前記1つまたは複数の連続する画像フレームにおいて前記決定された1つまたは複数の遷移に基づいて、圧縮された単語のシーケンスを生成することと、
シーケンス依存分類器によって前記圧縮された単語のシーケンスを分析し、そこから人間のアクティビティを認識することによって、1つまたは複数のユーザアクションを抽出することと
を含む方法。 - 前記分類器は、畳み込みニューラルネットワークである、請求項9に記載の方法。
- セルフチェックアウト(SCO)スキャンゾーンのための前記事前定義されたクラスのセットが、手、手の中にあるオブジェクト、オブジェクト、身体部分、および空のスキャナなどのクラスを含む、請求項9に記載の方法。
- 1つまたは複数の連続する画像フレームのクラス確率ベクトルにおける分類器エラーを排除することをさらに含む、請求項9に記載の方法。
- 事前定義された閾値期間に前記関心領域でのアクティビティ検出がないことに基づいて、前記ビデオストリーム内の1つまたは複数のサイレントインターバルを検出することをさらに含む、請求項9に記載の方法。
- 圧縮された単語は、事前定義されたクラスの数の2倍に等しい数の文字を含むアルファベットの文字から形成される、請求項9に記載の方法。
- 前記圧縮された単語のシーケンスの前記圧縮された単語のそれぞれが、それらの間に非アクティビティの少なくとも1つのフレームを含む、請求項9に記載の方法。
- 前記シーケンス依存分類器は、リカレントニューラルネットワークである、請求項9に記載の方法。
- ビデオストリームから人間のアクティビティを認識するためのコンピュータプログラム可能な製品であって、前記コンピュータプログラム可能な製品は、命令のセットを含み、前記命令のセットはプロセッサによって実行されると、前記プロセッサに、
前記ビデオストリームの画像フレームを、事前定義されたクラスのセットの1つまたは複数のクラスに分類させ、前記画像フレームは、前記画像フレームの関心領域におけるユーザアクションに基づいて分類され、
前記分類に基づいて前記画像フレームに対してクラス確率ベクトルを生成させ、前記クラス確率ベクトルは、各事前定義されたクラスにおける前記画像フレームの分類の確率のセットを含み、
事前定義された確率閾値に基づいて前記クラス確率ベクトルの各確率値を二値化させ、
対応する二値化された確率ベクトルに基づいて、前記ビデオストリームの1つまたは複数の連続する画像フレームにおける1つまたは複数のクラスの1つまたは複数の遷移を決定させ、
前記1つまたは複数の連続する画像フレームにおける前記決定された1つまたは複数の遷移に基づいて、圧縮された単語のシーケンスを生成させ、
前記圧縮された単語のシーケンスを分析し、そこから人間のアクティビティを認識することにより、1つまたは複数のユーザアクションを抽出させる、コンピュータプログラム可能な製品。 - 圧縮された単語は、事前定義されたクラスの数の2倍に等しい数の文字を含むアルファベットの文字から形成される、請求項17に記載のコンピュータプログラム可能な製品。
- 前記圧縮された単語のシーケンスの前記圧縮された単語のそれぞれが、それらの間に非アクティビティの少なくとも1つのフレームを含む、請求項17に記載のコンピュータプログラム可能な製品。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US16/458,288 | 2019-07-01 | ||
US16/458,288 US10902247B1 (en) | 2019-07-01 | 2019-07-01 | Quantized transition change detection for activity recognition |
PCT/IB2020/054488 WO2021001702A1 (en) | 2019-07-01 | 2020-05-12 | Quantized transition change detection for activity recognition |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2022540069A true JP2022540069A (ja) | 2022-09-14 |
JP7285973B2 JP7285973B2 (ja) | 2023-06-02 |
Family
ID=70740723
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2021578060A Active JP7285973B2 (ja) | 2019-07-01 | 2020-05-12 | アクティビティ認識のための量子化された遷移変化の検出 |
Country Status (11)
Country | Link |
---|---|
US (1) | US10902247B1 (ja) |
EP (1) | EP3994603A1 (ja) |
JP (1) | JP7285973B2 (ja) |
KR (1) | KR20220017506A (ja) |
CN (1) | CN114008693A (ja) |
AU (1) | AU2020298842B2 (ja) |
BR (1) | BR112021024260A2 (ja) |
CA (1) | CA3141958A1 (ja) |
CO (1) | CO2021016435A2 (ja) |
MX (1) | MX2021015584A (ja) |
WO (1) | WO2021001702A1 (ja) |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11776319B2 (en) * | 2020-07-14 | 2023-10-03 | Fotonation Limited | Methods and systems to predict activity in a sequence of images |
WO2023013879A1 (en) * | 2021-08-03 | 2023-02-09 | Samsung Electronics Co., Ltd. | A method and system for tracking at least one action of the user(s) for overcoming occlusion |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2012069103A (ja) * | 2010-08-31 | 2012-04-05 | Mitsubishi Electric Research Laboratories Inc | 圧縮された状態シーケンスを求めるための方法 |
US20120320199A1 (en) * | 2011-06-06 | 2012-12-20 | Malay Kundu | Notification system and methods for use in retail environments |
JP2013045433A (ja) * | 2011-08-26 | 2013-03-04 | Canon Inc | 学習装置、学習装置の制御方法、検出装置、検出装置の制御方法、およびプログラム |
US20140294360A1 (en) * | 2013-03-26 | 2014-10-02 | Disney Enterprises, Inc. | Methods and systems for action recognition using poselet keyframes |
Family Cites Families (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9477908B2 (en) * | 2014-04-10 | 2016-10-25 | Disney Enterprises, Inc. | Multi-level framework for object detection |
US20150379497A1 (en) * | 2014-06-27 | 2015-12-31 | Miguel Florez | System, device, and method for self-checkout shopping |
CA3019567A1 (en) * | 2016-03-30 | 2017-10-05 | Covenant Eyes, Inc. | Applications, systems and methods to monitor, filter and/or alter output of a computing device |
US11482082B2 (en) * | 2016-09-18 | 2022-10-25 | Ncr Corporation | Non-scan loss verification at self-checkout terminal |
EP3924919A1 (en) * | 2019-02-11 | 2021-12-22 | Everseen Limited | System and method for operating an sco surface area of a retail store |
-
2019
- 2019-07-01 US US16/458,288 patent/US10902247B1/en active Active
-
2020
- 2020-05-12 EP EP20726560.4A patent/EP3994603A1/en active Pending
- 2020-05-12 AU AU2020298842A patent/AU2020298842B2/en active Active
- 2020-05-12 KR KR1020227001315A patent/KR20220017506A/ko unknown
- 2020-05-12 BR BR112021024260A patent/BR112021024260A2/pt not_active Application Discontinuation
- 2020-05-12 CN CN202080046269.7A patent/CN114008693A/zh active Pending
- 2020-05-12 MX MX2021015584A patent/MX2021015584A/es unknown
- 2020-05-12 CA CA3141958A patent/CA3141958A1/en active Pending
- 2020-05-12 JP JP2021578060A patent/JP7285973B2/ja active Active
- 2020-05-12 WO PCT/IB2020/054488 patent/WO2021001702A1/en unknown
-
2021
- 2021-12-01 CO CONC2021/0016435A patent/CO2021016435A2/es unknown
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2012069103A (ja) * | 2010-08-31 | 2012-04-05 | Mitsubishi Electric Research Laboratories Inc | 圧縮された状態シーケンスを求めるための方法 |
US20120320199A1 (en) * | 2011-06-06 | 2012-12-20 | Malay Kundu | Notification system and methods for use in retail environments |
JP2013045433A (ja) * | 2011-08-26 | 2013-03-04 | Canon Inc | 学習装置、学習装置の制御方法、検出装置、検出装置の制御方法、およびプログラム |
US20140294360A1 (en) * | 2013-03-26 | 2014-10-02 | Disney Enterprises, Inc. | Methods and systems for action recognition using poselet keyframes |
Also Published As
Publication number | Publication date |
---|---|
AU2020298842A1 (en) | 2021-12-16 |
WO2021001702A1 (en) | 2021-01-07 |
CO2021016435A2 (es) | 2021-12-10 |
CA3141958A1 (en) | 2021-01-07 |
US10902247B1 (en) | 2021-01-26 |
AU2020298842B2 (en) | 2023-08-17 |
MX2021015584A (es) | 2022-01-31 |
KR20220017506A (ko) | 2022-02-11 |
EP3994603A1 (en) | 2022-05-11 |
CN114008693A (zh) | 2022-02-01 |
US20210004575A1 (en) | 2021-01-07 |
JP7285973B2 (ja) | 2023-06-02 |
BR112021024260A2 (pt) | 2022-01-11 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Dang et al. | Sensor-based and vision-based human activity recognition: A comprehensive survey | |
US8935195B2 (en) | Method of identification and devices thereof | |
Gu et al. | Multiple stream deep learning model for human action recognition | |
Huynh-The et al. | Learning 3D spatiotemporal gait feature by convolutional network for person identification | |
CN111523559B (zh) | 一种基于多特征融合的异常行为检测方法 | |
Sundaram et al. | High level activity recognition using low resolution wearable vision | |
JP7285973B2 (ja) | アクティビティ認識のための量子化された遷移変化の検出 | |
Ganguly et al. | Kinect Sensor Based Single Person Hand Gesture Recognition for Man–Machine Interaction | |
US11151412B2 (en) | Systems and methods for determining actions performed by objects within images | |
Aziz et al. | Bengali Sign Language Recognition using dynamic skin calibration and geometric hashing | |
Zhao et al. | A unified framework with a benchmark dataset for surveillance event detection | |
Cui et al. | AP-GAN: predicting skeletal activity to improve early activity recognition | |
CN115713806A (zh) | 基于视频分类的跌倒行为识别方法及电子设备 | |
Sharif et al. | Human gait recognition using deep learning: A comprehensive review | |
Huynh-The et al. | Visualizing inertial data for wearable sensor based daily life activity recognition using convolutional neural network | |
Mobsite et al. | A Deep Learning Dual-Stream Framework for Fall Detection | |
Zachariah et al. | Review on vision based human motion detection using deep learning | |
Bhaidasna et al. | A Survey on Different Deep Learning Model for Human Activity Recognition Based on Application | |
Harini et al. | A novel static and dynamic hand gesture recognition using self organizing map with deep convolutional neural network | |
Mobsite et al. | Activity Classification and Fall Detection Using Monocular Depth and Motion Analysis | |
Ming et al. | FaceLiveNet+: A Holistic Networks For Face Authentication Based On Dynamic Multi-task Convolutional Neural Networks | |
Merikapudi et al. | Domain Human Recognition Techniques using Deep Learning | |
Tyagi et al. | Hybrid classifier model with tuned weights for human activity recognition | |
Santhoshkumar et al. | Recognition of Emotions from Human Activity Using STIP Feature | |
Divya et al. | Fall detection using OpenPose |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20211228 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20230110 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20230410 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20230425 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20230523 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7285973 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |