JP6920771B2 - 3d畳み込みニューラルネットワークに基づく動作識別方法及び装置 - Google Patents
3d畳み込みニューラルネットワークに基づく動作識別方法及び装置 Download PDFInfo
- Publication number
- JP6920771B2 JP6920771B2 JP2020524869A JP2020524869A JP6920771B2 JP 6920771 B2 JP6920771 B2 JP 6920771B2 JP 2020524869 A JP2020524869 A JP 2020524869A JP 2020524869 A JP2020524869 A JP 2020524869A JP 6920771 B2 JP6920771 B2 JP 6920771B2
- Authority
- JP
- Japan
- Prior art keywords
- video
- identified
- motion
- neural network
- frame
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/20—Movements or behaviour, e.g. gesture recognition
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/40—Scenes; Scene-specific elements in video content
- G06V20/41—Higher-level, semantic clustering, classification or understanding of video scenes, e.g. detection, labelling or Markovian modelling of sport events or news items
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Multimedia (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Data Mining & Analysis (AREA)
- Health & Medical Sciences (AREA)
- Software Systems (AREA)
- Human Computer Interaction (AREA)
- Social Psychology (AREA)
- Computational Linguistics (AREA)
- Psychiatry (AREA)
- General Health & Medical Sciences (AREA)
- Bioinformatics & Cheminformatics (AREA)
- General Engineering & Computer Science (AREA)
- Evolutionary Computation (AREA)
- Evolutionary Biology (AREA)
- Bioinformatics & Computational Biology (AREA)
- Artificial Intelligence (AREA)
- Life Sciences & Earth Sciences (AREA)
- Image Analysis (AREA)
Description
前記識別すべきビデオの動作抽出結果に基づき、前記識別すべきビデオの動作実例検出結果を特定することと、
前記識別すべきビデオをトレーニングされた第2の3次元ニューラルネットワークモデルに入力して処理することで、前記識別すべきビデオの動作種別判別結果を取得することと、
前記識別すべきビデオの動作実例検出結果と動作種別判別結果とに基づき、前記識別すべきビデオの動作種別を特定することと、を含むニューラルネットワークに基づく動作識別方法を提供する。
前記識別すべきビデオにおける各フレーム画像が1つの動作実例内の1つの動作位置に属する第1の確率、および、
前記識別すべきビデオにおける動作開始フレームと動作終了フレーム、を含む。
前記識別すべきビデオにおける各フレーム画像の第1の確率、および、前記識別すべきビデオにおける動作開始フレームと動作終了フレームに基づき、各フレーム画像における動作検出枠を計算することと、
前記動作検出枠に基づき、各フレーム画像間の検出枠マッチング値を計算することと、
前記検出枠マッチング値に基づき、前記識別すべきビデオにおける動作実例検出枠を特定することと、を含む。
各フレーム画像におけるピクセルに対応する動作種別確率のうち、前記動作実例検出枠におけるピクセルに対応する動作種別を特定することと、
前記動作実例検出枠におけるピクセルに対応する動作種別に基づき、前記識別すべきビデオの動作種別を特定することと、を含む。
前記識別すべきビデオをトレーニングされた2次元ニューラルネットワークモデルに入力して、特徴値を取得することと、
前記特徴値をトレーニングされた第1の3次元ニューラルネットワークモデルに入力して処理することで、前記識別すべきビデオの動作抽出結果を取得することと、を含み、
前記識別すべきビデオを、トレーニングされた第2の3次元ニューラルネットワークモデルに入力して処理することで、前記識別すべきビデオの動作種別判別結果を取得することは、
前記識別すべきビデオを、トレーニングされた2次元ニューラルネットワークモデルに入力して、特徴値を取得することと、
前記特徴値をトレーニングされた第2の3次元ニューラルネットワークモデルに入力して処理することで、前記識別すべきビデオの動作種別判別結果を取得することと、を含む。
前記識別すべきビデオの動作抽出結果に基づき、前記識別すべきビデオの動作実例検出結果を特定する動作抽出結果処理モジュールと、
前記識別すべきビデオをトレーニングされた第2の3次元ニューラルネットワークモデルに入力して処理することで、前記識別すべきビデオの動作種別判別結果を取得する第2の3次元識別モジュールと、
前記識別すべきビデオの動作実例検出結果と動作種別判別結果とに基づき、前記識別すべきビデオの動作種別を特定する動作種別特定モジュールと、を備えたニューラルネットワークに基づく動作識別装置を提供する。
前記識別すべきビデオにおける各フレーム画像が1つの動作実例内の1つの動作位置に属する第1の確率、および、
前記識別すべきビデオにおける動作開始フレームと動作終了フレーム、を含む。
可能性のある実現方式において、前記動作抽出結果処理モジュールは、
前記識別すべきビデオにおける各フレーム画像の第1の確率、および、前記識別すべきビデオにおける動作開始フレームと動作終了フレームに基づき、各フレーム画像における動作検出枠を計算する動作検出枠計算サブモジュールと、
前記動作検出枠に基づき、各フレーム画像間の検出枠マッチング値を計算するマッチング値計算サブモジュールと、
前記検出枠マッチング値に基づき、前記識別すべきビデオにおける動作実例検出枠を特定する動作実例特定サブモジュールと、を備える。
各フレーム画像におけるピクセルに対応する動作種別確率のうち、前記動作実例検出枠におけるピクセルに対応する動作種別を特定する第1の動作種別特定サブモジュールと、
前記動作実例検出枠におけるピクセルに対応する動作種別に基づき、前記識別すべきビデオにおける動作種別を特定する第2の動作種別特定サブモジュールと、を備える。
前記識別すべきビデオをトレーニングされた2次元ニューラルネットワークモデルに入力して、特徴値を取得する第1の2次元識別サブモジュールと、
前記特徴値をトレーニングされた第1の3次元ニューラルネットワークモデルに入力して処理することで、前記識別すべきビデオの動作抽出結果を取得する第1の3次元識別サブモジュールと、を備え、
前記第2の3次元識別モジュールは、
前記識別すべきビデオを、トレーニングされた2次元ニューラルネットワークモデルに入力して、特徴値を取得する第2の2次元識別サブモジュールと、
前記特徴値をトレーニングされた第2の3次元ニューラルネットワークモデルに入力して処理することで、前記識別すべきビデオの動作種別判別結果を取得する第2の3次元識別サブモジュールと、を備える。
ステップS10における前記識別すべきビデオの動作抽出結果は、前記識別すべきビデオにおける各フレーム画像が1つの動作実例内の1つの動作位置に属する第1の確率、および、前記識別すべきビデオにおける動作開始フレームと動作終了フレーム、を含む。
ステップS41:各フレーム画像におけるピクセルに対応する動作種別確率のうち、前記動作実例検出枠におけるピクセルに対応する動作種別を特定することと、
ステップS42:前記動作実例検出枠におけるピクセルに対応する動作種別に基づき、前記識別すべきビデオの動作種別を特定することと、を含む。
ステップS10は、
ステップS101:前記識別すべきビデオを、トレーニングされた2次元ニューラルネットワークモデルに入力して、特徴値を取得することと、
ステップS102:前記特徴値をトレーニングされた第1の3次元ニューラルネットワークモデルに入力して処理することで、前記識別すべきビデオの動作抽出結果を取得することと、を含み、
ステップS30は、
ステップS301:前記識別すべきビデオを、トレーニングされた2次元ニューラルネットワークモデルに入力して、特徴値を取得することと、
ステップS302:前記特徴値をトレーニングされた第2の3次元ニューラルネットワークモデルに入力して処理することで、前記識別すべきビデオの動作種別判別結果を取得することと、を含む。
識別すべきビデオをトレーニングされた第1の3次元ニューラルネットワークモデルに入力して処理することで、前記識別すべきビデオの動作抽出結果を取得する第1の3次元識別モジュール41と、
前記識別すべきビデオの動作抽出結果に基づき、前記識別すべきビデオの動作実例検出結果を特定する動作抽出結果処理モジュール42と、
前記識別すべきビデオをトレーニングされた第2の3次元ニューラルネットワークモデルに入力して処理することで、前記識別すべきビデオの動作種別判別結果を取得する第2の3次元識別モジュール43と、
前記識別すべきビデオの動作実例検出結果と前記識別すべきビデオの動作種別判別結果とに基づき、前記識別すべきビデオの動作種別を特定する動作種別特定モジュール44と、を備える。
前記識別すべきビデオの動作抽出結果は、前記識別すべきビデオにおける各フレーム画像が1つの動作実例内の1つの動作位置に属する第1の確率、および、前記識別すべきビデオにおける動作開始フレームと動作終了フレーム、を含む。
前記識別すべきビデオにおける各フレーム画像の第1の確率、および、前記識別すべきビデオにおける動作開始フレームと動作終了フレームに基づき、各フレーム画像における動作検出枠を計算する動作検出枠計算サブモジュール421と、
前記動作検出枠に基づき、各フレーム画像間の検出枠マッチング値を計算するマッチング値計算サブモジュール422と、
前記検出枠マッチング値に基づき、前記識別すべきビデオにおける動作実例検出枠を特定する動作実例特定サブモジュール423と、を備える。
各フレーム画像におけるピクセルに対応する動作種別確率のうち、前記動作実例検出枠におけるピクセルに対応する動作種別を特定する第1の動作種別特定サブモジュール441と、
前記動作実例検出枠におけるピクセルに対応する動作種別に基づき、前記識別すべきビデオにおける動作種別を特定する第2の動作種別特定サブモジュール442と、を備える。
前記識別すべきビデオをトレーニングされた2次元ニューラルネットワークモデルに入力して、特徴値を取得する第1の2次元識別サブモジュール411と、
前記特徴値をトレーニングされた第1の3次元ニューラルネットワークモデルに入力して処理することで、前記識別すべきビデオの動作抽出結果を取得する第1の3次元識別サブモジュール412と、を備え、
前記第2の3次元識別モジュール43は、
前記識別すべきビデオを、トレーニングされた2次元ニューラルネットワークモデルに入力して、特徴値を取得する第2の2次元識別サブモジュール431と、
前記特徴値をトレーニングされた第2の3次元ニューラルネットワークモデルに入力して処理することで、前記識別すべきビデオの動作種別判別結果を取得する第2の3次元識別サブモジュール432と、を備える。
Claims (14)
- ニューラルネットワークに基づく動作識別方法であって、
識別すべきビデオをトレーニングされた第1の3次元ニューラルネットワークモデルに入力して処理することで、前記識別すべきビデオの動作抽出結果を取得することと、
前記識別すべきビデオの動作抽出結果に基づき、前記識別すべきビデオの動作実例検出結果を特定することと、
前記識別すべきビデオをトレーニングされた第2の3次元ニューラルネットワークモデルに入力して処理することで、前記識別すべきビデオの動作種別判別結果を取得することと、
前記識別すべきビデオの動作実例検出結果と動作種別判別結果とに基づき、前記識別すべきビデオの動作種別を特定することと、を含む、
ことを特徴とするニューラルネットワークに基づく動作識別方法。 - 前記識別すべきビデオの動作抽出結果は、
前記識別すべきビデオにおける各フレーム画像が1つの動作実例内の1つの動作位置に属する第1の確率、および、
前記識別すべきビデオにおける動作開始フレームと動作終了フレーム、を含むことを特徴とする請求項1に記載のニューラルネットワークに基づく動作識別方法。 - 前記識別すべきビデオの動作抽出結果に基づき、前記識別すべきビデオの動作実例検出結果を特定することは、
前記識別すべきビデオにおける各フレーム画像の第1の確率、および、前記識別すべきビデオにおける動作開始フレームと動作終了フレームに基づき、各フレーム画像における動作検出枠を計算することと、
前記動作検出枠に基づき、各フレーム画像間の検出枠マッチング値を計算することと、
前記検出枠マッチング値に基づき、前記識別すべきビデオにおける動作実例検出枠を特定することと、を含むことを特徴とする請求項2に記載のニューラルネットワークに基づく動作識別方法。 - 前記識別すべきビデオの動作種別判別結果は、
各フレーム画像におけるピクセルに対応する動作種別確率を含む、ことを特徴とする請求項3に記載のニューラルネットワークに基づく動作識別方法。 - 前記識別すべきビデオの動作実例検出結果と動作種別判別結果とに基づき、前記識別すべきビデオの動作種別を特定することは、
各フレーム画像におけるピクセルに対応する動作種別確率のうち、前記動作実例検出枠におけるピクセルに対応する動作種別を特定することと、
前記動作実例検出枠におけるピクセルに対応する動作種別に基づき、前記識別すべきビデオの動作種別を特定することと、を含む、ことを特徴とする請求項4に記載のニューラルネットワークに基づく動作識別方法。 - 前記識別すべきビデオをトレーニングされた第1の3次元ニューラルネットワークモデルに入力して処理することで、前記識別すべきビデオの動作抽出結果を取得することは、
前記識別すべきビデオをトレーニングされた2次元ニューラルネットワークモデルに入力して、特徴値を取得することと、
前記特徴値をトレーニングされた第1の3次元ニューラルネットワークモデルに入力して処理することで、前記識別すべきビデオの動作抽出結果を取得することと、を含み、
前記識別すべきビデオを、トレーニングされた第2の3次元ニューラルネットワークモデルに入力して処理することで、前記識別すべきビデオの動作種別判別結果を取得することは、
前記識別すべきビデオを、トレーニングされた2次元ニューラルネットワークモデルに入力して、特徴値を取得することと、
前記特徴値をトレーニングされた第2の3次元ニューラルネットワークモデルに入力して処理することで、前記識別すべきビデオの動作種別判別結果を取得することと、を含む、ことを特徴とする請求項1に記載のニューラルネットワークに基づく動作識別方法。 - ニューラルネットワークに基づく動作識別装置であって、
識別すべきビデオをトレーニングされた第1の3次元ニューラルネットワークモデルに入力して処理することで、前記識別すべきビデオの動作抽出結果を取得する第1の3次元識別モジュールと、
前記識別すべきビデオの動作抽出結果に基づき、前記識別すべきビデオの動作実例検出結果を特定する動作抽出結果処理モジュールと、
前記識別すべきビデオをトレーニングされた第2の3次元ニューラルネットワークモデルに入力して処理することで、前記識別すべきビデオの動作種別判別結果を取得する第2の3次元識別モジュールと、
前記識別すべきビデオの動作実例検出結果と動作種別判別結果とに基づき、前記識別すべきビデオの動作種別を特定する動作種別特定モジュールと、を備えたことを特徴とするニューラルネットワークに基づく動作識別装置。 - 前記識別すべきビデオの動作抽出結果は、
前記識別すべきビデオにおける各フレーム画像が1つの動作実例内の1つの動作位置に属する第1の確率、および、
前記識別すべきビデオにおける動作開始フレームと動作終了フレーム、を含むことを特徴とする請求項7に記載のニューラルネットワークに基づく動作識別装置。 - 前記動作抽出結果処理モジュールは、
前記識別すべきビデオにおける各フレーム画像の第1の確率、および、前記識別すべきビデオにおける動作開始フレームと動作終了フレームに基づき、各フレーム画像における動作検出枠を計算する動作検出枠計算サブモジュールと、
前記動作検出枠に基づき、各フレーム画像間の検出枠マッチング値を計算するマッチング値計算サブモジュールと、
前記検出枠マッチング値に基づき、前記識別すべきビデオにおける動作実例検出枠を特定する動作実例特定サブモジュールと、を備えたことを特徴とする請求項8に記載のニューラルネットワークに基づく動作識別装置。 - 前記識別すべきビデオの動作種別判別結果は、
各フレーム画像におけるピクセルに対応する動作種別確率を含む、ことを特徴とする請求項9に記載のニューラルネットワークに基づく動作識別装置。 - 前記動作種別特定モジュールは、
各フレーム画像におけるピクセルに対応する動作種別確率のうち、前記動作実例検出枠におけるピクセルに対応する動作種別を特定する第1の動作種別特定サブモジュールと、
前記動作実例検出枠におけるピクセルに対応する動作種別に基づき、前記識別すべきビデオにおける動作種別を特定する第2の動作種別特定サブモジュールと、を備えた、ことを特徴とする請求項10に記載のニューラルネットワークに基づく動作識別装置。 - 前記第1の3次元識別モジュールは、
前記識別すべきビデオをトレーニングされた2次元ニューラルネットワークモデルに入力して、特徴値を取得する第1の2次元識別サブモジュールと、
前記特徴値をトレーニングされた第1の3次元ニューラルネットワークモデルに入力して処理することで、前記識別すべきビデオの動作抽出結果を取得する第1の3次元識別サブモジュールと、を備え、
前記第2の3次元識別モジュールは、
前記識別すべきビデオを、トレーニングされた2次元ニューラルネットワークモデルに入力して、特徴値を取得する第2の2次元識別サブモジュールと、
前記特徴値をトレーニングされた第2の3次元ニューラルネットワークモデルに入力して処理することで、前記識別すべきビデオの動作種別判別結果を取得する第2の3次元識別サブモジュールと、を備えた、ことを特徴とする請求項7に記載のニューラルネットワークに基づく動作識別装置。 - 請求項1〜6のいずれか1項に記載の方法を実行するように配置されているプロセッサと、
プロセッサが実行可能な命令を記憶するためのメモリと、を含むことを特徴とするニューラルネットワークに基づく動作識別装置。 - コンピュータプログラム命令が記憶された不揮発性コンピュータ読取可能な記憶媒体であって、
前記コンピュータプログラム命令は、プロセッサによって実行された場合、請求項1〜6のいずれか1項に記載の方法を実現する、ことを特徴とする不揮発性コンピュータ読取可能な記憶媒体。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201711097227.2A CN107766839B (zh) | 2017-11-09 | 2017-11-09 | 基于3d卷积神经网络的动作识别方法和装置 |
CN201711097227.2 | 2017-11-09 | ||
PCT/CN2018/114487 WO2019091417A1 (zh) | 2017-11-09 | 2018-11-08 | 基于神经网络的识别方法与装置 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2021502638A JP2021502638A (ja) | 2021-01-28 |
JP6920771B2 true JP6920771B2 (ja) | 2021-08-18 |
Family
ID=61272228
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020524869A Active JP6920771B2 (ja) | 2017-11-09 | 2018-11-08 | 3d畳み込みニューラルネットワークに基づく動作識別方法及び装置 |
Country Status (3)
Country | Link |
---|---|
JP (1) | JP6920771B2 (ja) |
CN (1) | CN107766839B (ja) |
WO (1) | WO2019091417A1 (ja) |
Families Citing this family (23)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107766839B (zh) * | 2017-11-09 | 2020-01-14 | 清华大学 | 基于3d卷积神经网络的动作识别方法和装置 |
US20190279100A1 (en) * | 2018-03-09 | 2019-09-12 | Lattice Semiconductor Corporation | Low latency interrupt alerts for artificial neural network systems and methods |
CN108681690B (zh) * | 2018-04-04 | 2021-09-03 | 浙江大学 | 一种基于深度学习的流水线人员规范操作检测系统 |
CN108875601A (zh) * | 2018-05-31 | 2018-11-23 | 郑州云海信息技术有限公司 | 动作识别方法和lstm神经网络训练方法和相关装置 |
WO2020000383A1 (en) * | 2018-06-29 | 2020-01-02 | Baidu.Com Times Technology (Beijing) Co., Ltd. | Systems and methods for low-power, real-time object detection |
CN109086873B (zh) * | 2018-08-01 | 2021-05-04 | 北京旷视科技有限公司 | 递归神经网络的训练方法、识别方法、装置及处理设备 |
CN109344755B (zh) * | 2018-09-21 | 2024-02-13 | 广州市百果园信息技术有限公司 | 视频动作的识别方法、装置、设备及存储介质 |
CN111126115A (zh) * | 2018-11-01 | 2020-05-08 | 顺丰科技有限公司 | 暴力分拣行为识别方法和装置 |
CN111435422B (zh) * | 2019-01-11 | 2024-03-08 | 商汤集团有限公司 | 动作识别方法、控制方法及装置、电子设备和存储介质 |
CN111488773B (zh) * | 2019-01-29 | 2021-06-11 | 广州市百果园信息技术有限公司 | 一种动作识别方法、装置、设备及存储介质 |
US10902289B2 (en) * | 2019-03-22 | 2021-01-26 | Salesforce.Com, Inc. | Two-stage online detection of action start in untrimmed videos |
CN110427807B (zh) * | 2019-06-21 | 2022-11-15 | 诸暨思阔信息科技有限公司 | 一种时序事件动作检测方法 |
CN110516572B (zh) * | 2019-08-16 | 2022-06-28 | 咪咕文化科技有限公司 | 一种识别体育赛事视频片段的方法、电子设备及存储介质 |
CN110738101B (zh) * | 2019-09-04 | 2023-07-25 | 平安科技(深圳)有限公司 | 行为识别方法、装置及计算机可读存储介质 |
CN112949359A (zh) * | 2019-12-10 | 2021-06-11 | 清华大学 | 基于卷积神经网络的异常行为识别方法和装置 |
CN111291641B (zh) * | 2020-01-20 | 2024-02-27 | 上海依图网络科技有限公司 | 图像识别方法及其装置、计算机可读介质和系统 |
CN111444895B (zh) * | 2020-05-08 | 2024-04-19 | 商汤集团有限公司 | 视频处理方法、装置、电子设备及存储介质 |
CN111797745A (zh) * | 2020-06-28 | 2020-10-20 | 北京百度网讯科技有限公司 | 一种物体检测模型的训练及预测方法、装置、设备及介质 |
CN112115788A (zh) * | 2020-08-14 | 2020-12-22 | 咪咕文化科技有限公司 | 视频动作识别方法、装置、电子设备及存储介质 |
CN112587129B (zh) * | 2020-12-01 | 2024-02-02 | 上海影谱科技有限公司 | 一种人体动作识别方法及装置 |
CN112767534B (zh) * | 2020-12-31 | 2024-02-09 | 北京达佳互联信息技术有限公司 | 视频图像处理方法、装置、电子设备及存储介质 |
CN113657301A (zh) * | 2021-08-20 | 2021-11-16 | 北京百度网讯科技有限公司 | 基于视频流的动作类型识别方法、装置及穿戴设备 |
CN114333065A (zh) * | 2021-12-31 | 2022-04-12 | 济南博观智能科技有限公司 | 一种应用于监控视频的行为识别方法、系统及相关装置 |
Family Cites Families (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN104966104B (zh) * | 2015-06-30 | 2018-05-11 | 山东管理学院 | 一种基于三维卷积神经网络的视频分类方法 |
US10405739B2 (en) * | 2015-10-23 | 2019-09-10 | International Business Machines Corporation | Automatically detecting eye type in retinal fundus images |
CN105976400B (zh) * | 2016-05-10 | 2017-06-30 | 北京旷视科技有限公司 | 基于神经网络模型的目标跟踪方法及装置 |
CN106503659B (zh) * | 2016-10-24 | 2019-10-15 | 天津大学 | 基于稀疏编码张量分解的动作识别方法 |
CN106557165B (zh) * | 2016-11-14 | 2019-06-21 | 北京儒博科技有限公司 | 智能设备的动作模拟交互方法和装置及智能设备 |
CN106845411B (zh) * | 2017-01-19 | 2020-06-30 | 清华大学 | 一种基于深度学习和概率图模型的视频描述生成方法 |
CN107766839B (zh) * | 2017-11-09 | 2020-01-14 | 清华大学 | 基于3d卷积神经网络的动作识别方法和装置 |
-
2017
- 2017-11-09 CN CN201711097227.2A patent/CN107766839B/zh active Active
-
2018
- 2018-11-08 JP JP2020524869A patent/JP6920771B2/ja active Active
- 2018-11-08 WO PCT/CN2018/114487 patent/WO2019091417A1/zh active Application Filing
Also Published As
Publication number | Publication date |
---|---|
WO2019091417A1 (zh) | 2019-05-16 |
CN107766839B (zh) | 2020-01-14 |
CN107766839A (zh) | 2018-03-06 |
JP2021502638A (ja) | 2021-01-28 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6920771B2 (ja) | 3d畳み込みニューラルネットワークに基づく動作識別方法及び装置 | |
US10970854B2 (en) | Visual target tracking method and apparatus based on deep adversarial training | |
JP6458394B2 (ja) | 対象追跡方法及び対象追跡装置 | |
JP6755849B2 (ja) | 人工ニューラルネットワークのクラスに基づく枝刈り | |
KR102033050B1 (ko) | 시간차 모델을 위한 비지도 학습 기법 | |
JP6939111B2 (ja) | 画像認識装置および画像認識方法 | |
US10509957B2 (en) | System and method for human pose estimation in unconstrained video | |
JP6511986B2 (ja) | プログラム生成装置、プログラム生成方法および生成プログラム | |
CN109657539B (zh) | 人脸颜值评价方法、装置、可读存储介质及电子设备 | |
Kist et al. | Efficient biomedical image segmentation on EdgeTPUs at point of care | |
CN113901909B (zh) | 基于视频的目标检测方法、装置、电子设备和存储介质 | |
JP2020091543A (ja) | 学習装置、処理装置、ニューラルネットワーク、学習方法、及びプログラム | |
JP6942164B2 (ja) | 拡大現実のためのリアルタイムモーションフィードバック | |
Nardi et al. | Algorithmic performance-accuracy trade-off in 3d vision applications using hypermapper | |
WO2019114618A1 (zh) | 一种深度神经网络训练方法、装置及计算机设备 | |
US20180341856A1 (en) | Balancing memory consumption of multiple graphics processing units in deep learning | |
CN115082740B (zh) | 目标检测模型训练方法、目标检测方法、装置、电子设备 | |
JP2020504383A (ja) | 画像前景の検出装置、検出方法及び電子機器 | |
JP2021015479A (ja) | 行動認識装置、行動認識方法、及び行動認識プログラム | |
US11068796B2 (en) | Pruning process execution logs | |
CN116611491A (zh) | 目标检测模型的训练方法、装置、电子设备和存储介质 | |
JP7466702B2 (ja) | プロトタイプオプションの発見による解釈可能な模倣学習 | |
CN115249361A (zh) | 指示表达文本定位模型训练、装置、设备和介质 | |
Zhang et al. | Adversarial samples for deep monocular 6d object pose estimation | |
US20210312634A1 (en) | Image reconstruction based on edge loss |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20200519 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20210628 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20210713 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20210716 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6920771 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |