JP2022541712A - ニューラルネットワークのトレーニング方法、ビデオ認識方法及び装置 - Google Patents
ニューラルネットワークのトレーニング方法、ビデオ認識方法及び装置 Download PDFInfo
- Publication number
- JP2022541712A JP2022541712A JP2021570177A JP2021570177A JP2022541712A JP 2022541712 A JP2022541712 A JP 2022541712A JP 2021570177 A JP2021570177 A JP 2021570177A JP 2021570177 A JP2021570177 A JP 2021570177A JP 2022541712 A JP2022541712 A JP 2022541712A
- Authority
- JP
- Japan
- Prior art keywords
- neural network
- directed acyclic
- node
- feature map
- acyclic graph
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims abstract description 310
- 238000013528 artificial neural network Methods 0.000 title claims abstract description 268
- 238000012549 training Methods 0.000 title claims abstract description 118
- 125000002015 acyclic group Chemical group 0.000 claims abstract description 62
- 230000002123 temporal effect Effects 0.000 claims abstract description 48
- 238000011017 operating method Methods 0.000 claims description 38
- 238000005070 sampling Methods 0.000 claims description 30
- 238000000605 extraction Methods 0.000 claims description 21
- 238000012545 processing Methods 0.000 claims description 21
- 238000004590 computer program Methods 0.000 claims description 18
- 238000012217 deletion Methods 0.000 claims description 7
- 238000010276 construction Methods 0.000 claims description 5
- 230000037430 deletion Effects 0.000 claims description 5
- 230000008569 process Effects 0.000 description 28
- 238000010586 diagram Methods 0.000 description 16
- 238000011176 pooling Methods 0.000 description 9
- 238000005457 optimization Methods 0.000 description 6
- 230000006870 function Effects 0.000 description 4
- 230000006399 behavior Effects 0.000 description 3
- 230000008859 change Effects 0.000 description 3
- 238000004891 communication Methods 0.000 description 3
- 230000001360 synchronised effect Effects 0.000 description 3
- 238000004364 calculation method Methods 0.000 description 2
- 230000008878 coupling Effects 0.000 description 2
- 238000010168 coupling process Methods 0.000 description 2
- 238000005859 coupling reaction Methods 0.000 description 2
- 125000004122 cyclic group Chemical group 0.000 description 2
- 230000001537 neural effect Effects 0.000 description 2
- 238000003062 neural network model Methods 0.000 description 2
- 230000004913 activation Effects 0.000 description 1
- 230000007812 deficiency Effects 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 230000003993 interaction Effects 0.000 description 1
- 238000010606 normalization Methods 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 230000000717 retained effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/042—Knowledge-based neural networks; Logical representations of neural networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/047—Probabilistic or stochastic networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/62—Extraction of image or video features relating to a temporal dimension, e.g. time-based feature extraction; Pattern tracking
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/82—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/84—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using probabilistic graphical models from image or video features, e.g. Markov models or Bayesian networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/40—Scenes; Scene-specific elements in video content
- G06V20/41—Higher-level, semantic clustering, classification or understanding of video scenes, e.g. detection, labelling or Markovian modelling of sport events or news items
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/40—Scenes; Scene-specific elements in video content
- G06V20/46—Extracting features or characteristics from the video content, e.g. video fingerprints, representative shots or key frames
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/40—Scenes; Scene-specific elements in video content
- G06V20/44—Event detection
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Software Systems (AREA)
- Evolutionary Computation (AREA)
- Computing Systems (AREA)
- Health & Medical Sciences (AREA)
- Artificial Intelligence (AREA)
- General Health & Medical Sciences (AREA)
- Computational Linguistics (AREA)
- Biophysics (AREA)
- Molecular Biology (AREA)
- General Engineering & Computer Science (AREA)
- Data Mining & Analysis (AREA)
- Mathematical Physics (AREA)
- Biomedical Technology (AREA)
- Life Sciences & Earth Sciences (AREA)
- Multimedia (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Probability & Statistics with Applications (AREA)
- Databases & Information Systems (AREA)
- Medical Informatics (AREA)
- Image Analysis (AREA)
Abstract
Description
本願は、2020年06月19日に中国特許局に提出された、出願番号が202010567864.7であり、発明の名称が「ニューラルネットワークのトレーニング方法、ビデオ認識方法及び装置」である中国特許出願に基づいて提出されるものであり、当該中国特許出願の優先権を主張し、当該中国特許出願の全ての内容が参照により本願に組み込まれる。
認識されるビデオをニューラルネットワークに入力した後、まず、サンプリング層に入力して、サンプリング層は、認識されるビデオをサンプリングして、複数のサンプリングビデオフレームを取得し、次に、前記サンプリングビデオフレームに対して特徴抽出を実行して、サンプリングビデオフレームに対応する特徴マップを取得し、その後、特徴抽出層にサンプリングビデオフレームに対応する特徴マップを入力する。
特徴抽出層は、複数の、時間特徴を抽出するための有向非巡回グラフ及び空間特徴を抽出するための有向非巡回グラフを含み、各タイプの有向非巡回グラフの数、及び各タイプの有向非巡回グラフ内のノードの数はプリセットされている。時間特徴を抽出するための有向非巡回グラフと空間特徴を抽出するための有向非巡回グラフの違いは、以下の表1に示される通りである。
有向非巡回グラフの出力ノードに対応する特徴マップを完全接続層に入力した後、完全接続層は、入力された特徴マップに基づいて入力された認識される入力ビデオ内の複数のイベントの発生確率を決定することができる。ここで、認識されるビデオに対応する複数のイベントは、ニューラルネットワークをトレーニングするときに適用されるサンプルビデオに対応するイベントタグであり得る。
前記サンプルビデオと各前記サンプルビデオに対応するイベントタグに基づいて、前記ニューラルネットワークをトレーニングして、トレーニングされた重みパラメータを取得することと、
前記トレーニングされた重みパラメータに基づいて、前記複数の有向非巡回グラフの各エッジのために目標動作方法を選択して、トレーニングされたニューラルネットワークを取得することと、を含む。
例えば、本願は以下の項目を提供する。
(項目1)
ニューラルネットワークのトレーニング方法であって、
サンプルビデオを取得し、複数の有向非巡回グラフを含むニューラルネットワークを構築することであって、前記複数の有向非巡回グラフは、時間特徴を抽出するための少なくとも1つの有向非巡回グラフ、及び空間特徴を抽出するための少なくとも1つの有向非巡回グラフを含み、前記有向非巡回グラフの各エッジは、それぞれ複数の動作方法に対応し、各前記動作方法には、対応する重みパラメータがあることと、
前記サンプルビデオと各前記サンプルビデオに対応するイベントタグに基づいて、前記ニューラルネットワークをトレーニングして、トレーニングされた重みパラメータを取得することと、
前記トレーニングされた重みパラメータに基づいて、前記複数の有向非巡回グラフの各エッジのために目標動作方法を選択して、トレーニングされたニューラルネットワークを取得することと、を含む、前記ニューラルネットワークのトレーニング方法。
(項目2)
前記有向非巡回グラフは、2つの入力ノードを含み、前記ニューラルネットワークの各ノードは、1つの特徴マップに対応し、
前記複数の有向非巡回グラフを含むニューラルネットワークを構築することは、
N-1番目(Nは1より大きい整数)の有向非巡回グラフによって出力された特徴マップを、N+1番目の有向非巡回グラフの1つの入力ノードの特徴マップとして使用し、N番目の有向非巡回グラフによって出力された特徴マップを、前記N+1番目の有向非巡回グラフの別の入力ノードの特徴マップとして使用することを含み、
前記ニューラルネットワークの最初の有向非巡回グラフの目標入力ノードに対応する特徴マップは、サンプルビデオのサンプリングビデオフレームに対して特徴抽出を実行した後の特徴マップであり、前記目標入力ノードを除いた別の入力ノードは空であり、前記ニューラルネットワークの2番目の有向非巡回グラフの1つの入力ノードの特徴マップは、前記最初の有向非巡回グラフによって出力された特徴マップであり、別の入力ノードは空である、
項目1に記載のニューラルネットワークのトレーニング方法。
(項目3)
前記有向非巡回グラフの入力ノードを除いた他のノードに対応する特徴マップを直列接続し、直列接続した特徴マップを前記有向非巡回グラフによって出力された特徴マップとして使用することをさらに含む、
項目2に記載のニューラルネットワークのトレーニング方法。
(項目4)
前記時間特徴を抽出するための有向非巡回グラフの各エッジは、複数の第1動作方法に対応し、前記空間特徴を抽出するための有向非巡回グラフの各エッジは、複数の第2動作方法に対応し、前記複数の第1動作方法は、前記複数の第2動作方法及び各前記第2動作方法と異なる少なくとも1つの他の動作方法を含む、
項目1ないし3のいずれか一項に記載のニューラルネットワークのトレーニング方法。
(項目5)
前記ニューラルネットワークはさらに、最初の有向非巡回グラフに接続されたサンプリング層を含み、前記サンプリング層は、サンプルビデオをサンプリングして、サンプリングビデオフレームを取得し、前記サンプリングビデオフレームに対して特徴抽出を実行して、前記サンプリングビデオフレームに対応する特徴マップを取得し、最初の前記有向非巡回グラフの目標入力ノードに前記サンプリングビデオフレームに対応する特徴マップを入力するように構成され、
前記ニューラルネットワークはさらに、最後の有向非巡回グラフに接続された完全接続層を含み、前記完全接続層は、最後の有向非巡回グラフによって出力された特徴マップに基づいて、前記サンプルビデオに対応する複数のイベントの発生確率を決定するように構成され、
前記サンプルビデオと各前記サンプルビデオに対応するイベントタグに基づいて、前記ニューラルネットワークをトレーニングして、トレーニングされた重みパラメータを取得することは、
前記完全接続層によって計算された前記サンプルビデオに対応する複数のイベントの発生確率、及び各前記サンプルビデオに対応するイベントタグに基づいて、前記ニューラルネットワークをトレーニングして、トレーニングされた重みパラメータを取得することを含む、
項目1ないし4のいずれか一項に記載のニューラルネットワークのトレーニング方法。
(項目6)
前記ニューラルネットワークのトレーニング方法は、
現在のノードを指す各1レベル上位のノードに対応する特徴マップ、及び前記現在のノードと前記現在のノードを指す各1レベル上位のノードとの間のエッジに対応する前記動作方法の重みパラメータに従って、前記現在のノードに対応する特徴マップを生成することをさらに含む、
項目2ないし5のいずれか一項に記載のニューラルネットワークのトレーニング方法。
(項目7)
前記現在のノードを指す各1レベル上位のノードに対応する特徴マップ、及び前記現在のノードと前記現在のノードを指す各1レベル上位のノードとの間のエッジに対応する前記動作方法の重みパラメータに従って、前記現在のノードに対応する特徴マップを生成することは、
前記現在のノードと前記現在のノードを指す各1レベル上位のノードとの間の現在のエッジに対して、前記現在のエッジに対応する各前記動作方法に基づいて、前記現在のエッジに対応する1レベル上位のノードの特徴マップを処理して、前記現在のエッジに対応する各前記動作方法に対応する第1中間特徴マップを取得することと、
前記現在のエッジに対応する各前記動作方法に対応する第1中間特徴マップは、各前記動作方法に対応する重みパラメータに従って加重加算され、前記現在のエッジに対応する第2中間特徴マップを取得することと、
前記現在のノードと前記現在のノードを指す各1レベル上位のノードとの間の複数のエッジにそれぞれ対応する第2中間特徴マップを加算して、前記現在のノードに対応する特徴マップを取得することと、を含む、
項目6に記載のニューラルネットワークのトレーニング方法。
(項目8)
前記トレーニングされた重みパラメータに基づいて、前記複数の有向非巡回グラフの各エッジのために目標動作方法を選択することは、
前記有向非巡回グラフの各前記エッジに対して、各前記エッジに対応する重みパラメータが最大である動作方法を、各前記エッジに対応する目標動作方法として使用することを含む、
項目1ないし7のいずれか一項に記載のニューラルネットワークのトレーニング方法。
(項目9)
前記トレーニングされた重みパラメータに基づいて、前記複数の有向非巡回グラフの各エッジのために目標動作方法を選択して、トレーニングされたニューラルネットワークを取得することは、
各前記ノードに対して、前記ノードを指すエッジの数が目標の数より大きい場合、前記ノードを指す各エッジに対応する前記目標動作方法の重みパラメータを決定することと、
対応する前記重みパラメータの降順に応じて、前記ノードを指す各エッジを並べ替え、前のK位のエッジを除いた他のエッジを削除することであって、Kは前記目標の数であることと、
削除処理後のニューラルネットワークを、前記トレーニングされたニューラルネットワークとして使用することと、を含む、
項目8に記載のニューラルネットワークのトレーニング方法。
(項目10)
ビデオ認識方法であって、
認識されるビデオを取得することと、
項目1ないし9のいずれかに記載のニューラルネットワークのトレーニング方法に基づいてトレーニングされたニューラルネットワークに、前記認識されるビデオを入力して、前記認識されるビデオに対応する複数のイベントの発生確率を決定することと、
対応する発生確率がプリセット条件を満たすイベントを、前記認識されるビデオで発生するイベントとして使用することと、を含む、前記ビデオ認識方法。
(項目11)
ニューラルネットワークのトレーニング装置であって、
サンプルビデオを取得し、複数の有向非巡回グラフを含むニューラルネットワークを構築するように構成される構築部であって、前記複数の有向非巡回グラフは、時間特徴を抽出するための少なくとも1つの有向非巡回グラフ、及び空間特徴を抽出するための少なくとも1つの有向非巡回グラフを含み、前記有向非巡回グラフの各エッジは、それぞれ複数の動作方法に対応し、各前記動作方法には、対応する重みパラメータがある、構築部と、
前記サンプルビデオと各前記サンプルビデオに対応するイベントタグに基づいて、前記ニューラルネットワークをトレーニングして、トレーニングされた重みパラメータを取得するように構成される、トレーニング部と、
前記トレーニングされた重みパラメータに基づいて、前記複数の有向非巡回グラフの各エッジのために目標動作方法を選択して、トレーニングされたニューラルネットワークを取得するように構成される、選択部と、を備える、前記ニューラルネットワークのトレーニング装置。
(項目12)
前記構築部はさらに、N-1番目(Nは1より大きい整数)の有向非巡回グラフによって出力された特徴マップを、N+1番目の有向非巡回グラフの1つの入力ノードの特徴マップとして使用し、N番目の有向非巡回グラフによって出力された特徴マップを、前記N+1番目の有向非巡回グラフの別の入力ノードの特徴マップとして使用するように構成され、前記ニューラルネットワークの最初の有向非巡回グラフの目標入力ノードに対応する特徴マップは、サンプルビデオのサンプリングビデオフレームに対して特徴抽出を実行した後の特徴マップであり、前記目標入力ノードを除いた別の入力ノードは空であり、前記ニューラルネットワークの2番目の有向非巡回グラフの1つの入力ノードの特徴マップは、前記最初の有向非巡回グラフによって出力された特徴マップであり、別の入力ノードは空である、
項目11に記載のニューラルネットワークのトレーニング装置。
(項目13)
前記構築部はさらに、前記有向非巡回グラフの入力ノードを除いた他のノードに対応する特徴マップを直列接続し、直列接続した特徴マップを前記有向非巡回グラフによって出力された特徴マップとして使用するように構成される、
項目12に記載のニューラルネットワークのトレーニング装置。
(項目14)
前記時間特徴を抽出するための有向非巡回グラフの各エッジは、複数の第1動作方法に対応し、前記空間特徴を抽出するための有向非巡回グラフの各エッジは、複数の第2動作方法に対応し、前記複数の第1動作方法は、前記複数の第2動作方法及び各前記第2動作方法と異なる少なくとも1つの他の動作方法を含む、
項目11ないし13のいずれか一項に記載のニューラルネットワークのトレーニング装置。
(項目15)
前記ニューラルネットワークはさらに、最初の有向非巡回グラフに接続されたサンプリング層を含み、前記サンプリング層は、サンプルビデオをサンプリングして、サンプリングビデオフレームを取得し、前記サンプリングビデオフレームに対して特徴抽出を実行して、前記サンプリングビデオフレームに対応する特徴マップを取得し、最初の前記有向非巡回グラフの目標入力ノードに前記サンプリングビデオフレームに対応する特徴マップを入力するように構成され、前記ニューラルネットワークはさらに、最後の有向非巡回グラフに接続された完全接続層を含み、前記完全接続層は、最後の有向非巡回グラフによって出力された特徴マップに基づいて、前記サンプルビデオに対応する複数のイベントの発生確率を決定するように構成され、
前記トレーニング部はさらに、前記完全接続層によって計算された前記サンプルビデオに対応する複数のイベントの発生確率、及び各前記サンプルビデオに対応するイベントタグに基づいて、前記ニューラルネットワークをトレーニングして、トレーニングされた重みパラメータを取得するように構成される、
項目11ないし14のいずれか一項に記載のニューラルネットワークのトレーニング装置。
(項目16)
前記構築部はさらに、現在のノードを指す各1レベル上位のノードに対応する特徴マップ、及び前記現在のノードと前記現在のノードを指す各1レベル上位のノードとの間のエッジに対応する前記動作方法の重みパラメータに従って、前記現在のノードに対応する特徴マップを生成するように構成される、
項目12ないし15のいずれか一項に記載のニューラルネットワークのトレーニング装置。
(項目17)
前記構築部はさらに、前記現在のノードと前記現在のノードを指す各1レベル上位のノードとの間の現在のエッジに対して、前記現在のエッジに対応する各前記動作方法に基づいて、前記現在のエッジに対応する1レベル上位のノードの特徴マップを処理して、前記現在のエッジに対応する各前記動作方法に対応する第1中間特徴マップを取得し、前記現在のエッジに対応する各前記動作方法に対応する第1中間特徴マップは、各前記動作方法に対応する重みパラメータに従って加重加算され、前記現在のエッジに対応する第2中間特徴マップを取得し、前記現在のノードと前記現在のノードを指す各1レベル上位のノードとの間の複数のエッジにそれぞれ対応する第2中間特徴マップを加算して、前記現在のノードに対応する特徴マップを取得するように構成される、
項目16に記載のニューラルネットワークのトレーニング装置。
(項目18)
前記選択部はさらに、前記有向非巡回グラフの各前記エッジに対して、各前記エッジに対応する重みパラメータが最大である動作方法を、各前記エッジに対応する目標動作方法として使用するように構成される、
項目11ないし17のいずれか一項に記載のニューラルネットワークのトレーニング装置。
(項目19)
前記選択部はさらに、各前記ノードに対して、前記ノードを指すエッジの数が目標の数より大きい場合、前記ノードを指す各エッジに対応する前記目標動作方法の重みパラメータを決定し、対応する前記重みパラメータの降順に応じて、前記ノードを指す各エッジを並べ替え、前のK位のエッジを除いた他のエッジを削除し、Kは前記目標の数であり、削除処理後のニューラルネットワークを、前記トレーニングされたニューラルネットワークとして使用するように構成される、
項目18に記載のニューラルネットワークのトレーニング装置。
(項目20)
ビデオ認識装置であって、
認識されるビデオを取得するように構成される、取得部と、
項目1ないし9のいずれかに記載のニューラルネットワークのトレーニング方法に基づいてトレーニングされたニューラルネットワークに、前記認識されるビデオを入力して、前記認識されるビデオに対応する複数のイベントの発生確率を決定するように構成される、第1決定部と、
対応する発生確率がプリセット条件を満たすイベントを、前記認識されるビデオで発生するイベントとして使用するように構成される、第2決定部と、を備える、前記ビデオ認識装置。
(項目21)
プロセッサ、前記プロセッサによって実行可能な機械可読命令が記憶されたメモリ及びバスを備える、コンピュータ機器であって、前記コンピュータ機器が実行されるときに、前記プロセッサと前記メモリとは、バスを介して通信し、前記機械可読命令が前記プロセッサによって実行されるときに、項目1ないし9のいずれか一項に記載のニューラルネットワークのトレーニング方法のステップ、又は、項目10に記載のビデオ認識方法のステップを実行する、前記コンピュータ機器。
(項目22)
コンピュータプログラムが記憶された、コンピュータ可読記憶媒体であって、前記コンピュータプログラムがプロセッサによって実行されるときに、項目1ないし9のいずれか一項に記載のニューラルネットワークのトレーニング方法のステップ、又は、項目10に記載のビデオ認識方法のステップを実行する、前記コンピュータ可読記憶媒体。
(項目23)
コンピュータ可読コードを含む、コンピュータプログラムであって、前記コンピュータ可読コードが電子機器で実行されるときに、前記電子機器のプロセッサは、項目1ないし9のいずれか一項に記載のニューラルネットワークのトレーニング方法のステップ、又は、項目10に記載のビデオ認識方法のステップを実行する、前記コンピュータプログラム。
Claims (23)
- ニューラルネットワークのトレーニング方法であって、
サンプルビデオを取得し、複数の有向非巡回グラフを含むニューラルネットワークを構築することであって、前記複数の有向非巡回グラフは、時間特徴を抽出するための少なくとも1つの有向非巡回グラフ、及び空間特徴を抽出するための少なくとも1つの有向非巡回グラフを含み、前記有向非巡回グラフの各エッジは、それぞれ複数の動作方法に対応し、各前記動作方法には、対応する重みパラメータがあることと、
前記サンプルビデオと各前記サンプルビデオに対応するイベントタグに基づいて、前記ニューラルネットワークをトレーニングして、トレーニングされた重みパラメータを取得することと、
前記トレーニングされた重みパラメータに基づいて、前記複数の有向非巡回グラフの各エッジのために目標動作方法を選択して、トレーニングされたニューラルネットワークを取得することと、を含む、前記ニューラルネットワークのトレーニング方法。 - 前記有向非巡回グラフは、2つの入力ノードを含み、前記ニューラルネットワークの各ノードは、1つの特徴マップに対応し、
前記複数の有向非巡回グラフを含むニューラルネットワークを構築することは、
N-1番目(Nは1より大きい整数)の有向非巡回グラフによって出力された特徴マップを、N+1番目の有向非巡回グラフの1つの入力ノードの特徴マップとして使用し、N番目の有向非巡回グラフによって出力された特徴マップを、前記N+1番目の有向非巡回グラフの別の入力ノードの特徴マップとして使用することを含み、
前記ニューラルネットワークの最初の有向非巡回グラフの目標入力ノードに対応する特徴マップは、サンプルビデオのサンプリングビデオフレームに対して特徴抽出を実行した後の特徴マップであり、前記目標入力ノードを除いた別の入力ノードは空であり、前記ニューラルネットワークの2番目の有向非巡回グラフの1つの入力ノードの特徴マップは、前記最初の有向非巡回グラフによって出力された特徴マップであり、別の入力ノードは空である、
請求項1に記載のニューラルネットワークのトレーニング方法。 - 前記有向非巡回グラフの入力ノードを除いた他のノードに対応する特徴マップを直列接続し、直列接続した特徴マップを前記有向非巡回グラフによって出力された特徴マップとして使用することをさらに含む、
請求項2に記載のニューラルネットワークのトレーニング方法。 - 前記時間特徴を抽出するための有向非巡回グラフの各エッジは、複数の第1動作方法に対応し、前記空間特徴を抽出するための有向非巡回グラフの各エッジは、複数の第2動作方法に対応し、前記複数の第1動作方法は、前記複数の第2動作方法及び各前記第2動作方法と異なる少なくとも1つの他の動作方法を含む、
請求項1ないし3のいずれか一項に記載のニューラルネットワークのトレーニング方法。 - 前記ニューラルネットワークはさらに、最初の有向非巡回グラフに接続されたサンプリング層を含み、前記サンプリング層は、サンプルビデオをサンプリングして、サンプリングビデオフレームを取得し、前記サンプリングビデオフレームに対して特徴抽出を実行して、前記サンプリングビデオフレームに対応する特徴マップを取得し、最初の前記有向非巡回グラフの目標入力ノードに前記サンプリングビデオフレームに対応する特徴マップを入力するように構成され、
前記ニューラルネットワークはさらに、最後の有向非巡回グラフに接続された完全接続層を含み、前記完全接続層は、最後の有向非巡回グラフによって出力された特徴マップに基づいて、前記サンプルビデオに対応する複数のイベントの発生確率を決定するように構成され、
前記サンプルビデオと各前記サンプルビデオに対応するイベントタグに基づいて、前記ニューラルネットワークをトレーニングして、トレーニングされた重みパラメータを取得することは、
前記完全接続層によって計算された前記サンプルビデオに対応する複数のイベントの発生確率、及び各前記サンプルビデオに対応するイベントタグに基づいて、前記ニューラルネットワークをトレーニングして、トレーニングされた重みパラメータを取得することを含む、
請求項1ないし4のいずれか一項に記載のニューラルネットワークのトレーニング方法。 - 前記ニューラルネットワークのトレーニング方法は、
現在のノードを指す各1レベル上位のノードに対応する特徴マップ、及び前記現在のノードと前記現在のノードを指す各1レベル上位のノードとの間のエッジに対応する前記動作方法の重みパラメータに従って、前記現在のノードに対応する特徴マップを生成することをさらに含む、
請求項2ないし5のいずれか一項に記載のニューラルネットワークのトレーニング方法。 - 前記現在のノードを指す各1レベル上位のノードに対応する特徴マップ、及び前記現在のノードと前記現在のノードを指す各1レベル上位のノードとの間のエッジに対応する前記動作方法の重みパラメータに従って、前記現在のノードに対応する特徴マップを生成することは、
前記現在のノードと前記現在のノードを指す各1レベル上位のノードとの間の現在のエッジに対して、前記現在のエッジに対応する各前記動作方法に基づいて、前記現在のエッジに対応する1レベル上位のノードの特徴マップを処理して、前記現在のエッジに対応する各前記動作方法に対応する第1中間特徴マップを取得することと、
前記現在のエッジに対応する各前記動作方法に対応する第1中間特徴マップは、各前記動作方法に対応する重みパラメータに従って加重加算され、前記現在のエッジに対応する第2中間特徴マップを取得することと、
前記現在のノードと前記現在のノードを指す各1レベル上位のノードとの間の複数のエッジにそれぞれ対応する第2中間特徴マップを加算して、前記現在のノードに対応する特徴マップを取得することと、を含む、
請求項6に記載のニューラルネットワークのトレーニング方法。 - 前記トレーニングされた重みパラメータに基づいて、前記複数の有向非巡回グラフの各エッジのために目標動作方法を選択することは、
前記有向非巡回グラフの各前記エッジに対して、各前記エッジに対応する重みパラメータが最大である動作方法を、各前記エッジに対応する目標動作方法として使用することを含む、
請求項1ないし7のいずれか一項に記載のニューラルネットワークのトレーニング方法。 - 前記トレーニングされた重みパラメータに基づいて、前記複数の有向非巡回グラフの各エッジのために目標動作方法を選択して、トレーニングされたニューラルネットワークを取得することは、
各前記ノードに対して、前記ノードを指すエッジの数が目標の数より大きい場合、前記ノードを指す各エッジに対応する前記目標動作方法の重みパラメータを決定することと、
対応する前記重みパラメータの降順に応じて、前記ノードを指す各エッジを並べ替え、前のK位のエッジを除いた他のエッジを削除することであって、Kは前記目標の数であることと、
削除処理後のニューラルネットワークを、前記トレーニングされたニューラルネットワークとして使用することと、を含む、
請求項8に記載のニューラルネットワークのトレーニング方法。 - ビデオ認識方法であって、
認識されるビデオを取得することと、
請求項1ないし9のいずれかに記載のニューラルネットワークのトレーニング方法に基づいてトレーニングされたニューラルネットワークに、前記認識されるビデオを入力して、前記認識されるビデオに対応する複数のイベントの発生確率を決定することと、
対応する発生確率がプリセット条件を満たすイベントを、前記認識されるビデオで発生するイベントとして使用することと、を含む、前記ビデオ認識方法。 - ニューラルネットワークのトレーニング装置であって、
サンプルビデオを取得し、複数の有向非巡回グラフを含むニューラルネットワークを構築するように構成される構築部であって、前記複数の有向非巡回グラフは、時間特徴を抽出するための少なくとも1つの有向非巡回グラフ、及び空間特徴を抽出するための少なくとも1つの有向非巡回グラフを含み、前記有向非巡回グラフの各エッジは、それぞれ複数の動作方法に対応し、各前記動作方法には、対応する重みパラメータがある、構築部と、
前記サンプルビデオと各前記サンプルビデオに対応するイベントタグに基づいて、前記ニューラルネットワークをトレーニングして、トレーニングされた重みパラメータを取得するように構成される、トレーニング部と、
前記トレーニングされた重みパラメータに基づいて、前記複数の有向非巡回グラフの各エッジのために目標動作方法を選択して、トレーニングされたニューラルネットワークを取得するように構成される、選択部と、を備える、前記ニューラルネットワークのトレーニング装置。 - 前記構築部はさらに、N-1番目(Nは1より大きい整数)の有向非巡回グラフによって出力された特徴マップを、N+1番目の有向非巡回グラフの1つの入力ノードの特徴マップとして使用し、N番目の有向非巡回グラフによって出力された特徴マップを、前記N+1番目の有向非巡回グラフの別の入力ノードの特徴マップとして使用するように構成され、前記ニューラルネットワークの最初の有向非巡回グラフの目標入力ノードに対応する特徴マップは、サンプルビデオのサンプリングビデオフレームに対して特徴抽出を実行した後の特徴マップであり、前記目標入力ノードを除いた別の入力ノードは空であり、前記ニューラルネットワークの2番目の有向非巡回グラフの1つの入力ノードの特徴マップは、前記最初の有向非巡回グラフによって出力された特徴マップであり、別の入力ノードは空である、
請求項11に記載のニューラルネットワークのトレーニング装置。 - 前記構築部はさらに、前記有向非巡回グラフの入力ノードを除いた他のノードに対応する特徴マップを直列接続し、直列接続した特徴マップを前記有向非巡回グラフによって出力された特徴マップとして使用するように構成される、
請求項12に記載のニューラルネットワークのトレーニング装置。 - 前記時間特徴を抽出するための有向非巡回グラフの各エッジは、複数の第1動作方法に対応し、前記空間特徴を抽出するための有向非巡回グラフの各エッジは、複数の第2動作方法に対応し、前記複数の第1動作方法は、前記複数の第2動作方法及び各前記第2動作方法と異なる少なくとも1つの他の動作方法を含む、
請求項11ないし13のいずれか一項に記載のニューラルネットワークのトレーニング装置。 - 前記ニューラルネットワークはさらに、最初の有向非巡回グラフに接続されたサンプリング層を含み、前記サンプリング層は、サンプルビデオをサンプリングして、サンプリングビデオフレームを取得し、前記サンプリングビデオフレームに対して特徴抽出を実行して、前記サンプリングビデオフレームに対応する特徴マップを取得し、最初の前記有向非巡回グラフの目標入力ノードに前記サンプリングビデオフレームに対応する特徴マップを入力するように構成され、前記ニューラルネットワークはさらに、最後の有向非巡回グラフに接続された完全接続層を含み、前記完全接続層は、最後の有向非巡回グラフによって出力された特徴マップに基づいて、前記サンプルビデオに対応する複数のイベントの発生確率を決定するように構成され、
前記トレーニング部はさらに、前記完全接続層によって計算された前記サンプルビデオに対応する複数のイベントの発生確率、及び各前記サンプルビデオに対応するイベントタグに基づいて、前記ニューラルネットワークをトレーニングして、トレーニングされた重みパラメータを取得するように構成される、
請求項11ないし14のいずれか一項に記載のニューラルネットワークのトレーニング装置。 - 前記構築部はさらに、現在のノードを指す各1レベル上位のノードに対応する特徴マップ、及び前記現在のノードと前記現在のノードを指す各1レベル上位のノードとの間のエッジに対応する前記動作方法の重みパラメータに従って、前記現在のノードに対応する特徴マップを生成するように構成される、
請求項12ないし15のいずれか一項に記載のニューラルネットワークのトレーニング装置。 - 前記構築部はさらに、前記現在のノードと前記現在のノードを指す各1レベル上位のノードとの間の現在のエッジに対して、前記現在のエッジに対応する各前記動作方法に基づいて、前記現在のエッジに対応する1レベル上位のノードの特徴マップを処理して、前記現在のエッジに対応する各前記動作方法に対応する第1中間特徴マップを取得し、前記現在のエッジに対応する各前記動作方法に対応する第1中間特徴マップは、各前記動作方法に対応する重みパラメータに従って加重加算され、前記現在のエッジに対応する第2中間特徴マップを取得し、前記現在のノードと前記現在のノードを指す各1レベル上位のノードとの間の複数のエッジにそれぞれ対応する第2中間特徴マップを加算して、前記現在のノードに対応する特徴マップを取得するように構成される、
請求項16に記載のニューラルネットワークのトレーニング装置。 - 前記選択部はさらに、前記有向非巡回グラフの各前記エッジに対して、各前記エッジに対応する重みパラメータが最大である動作方法を、各前記エッジに対応する目標動作方法として使用するように構成される、
請求項11ないし17のいずれか一項に記載のニューラルネットワークのトレーニング装置。 - 前記選択部はさらに、各前記ノードに対して、前記ノードを指すエッジの数が目標の数より大きい場合、前記ノードを指す各エッジに対応する前記目標動作方法の重みパラメータを決定し、対応する前記重みパラメータの降順に応じて、前記ノードを指す各エッジを並べ替え、前のK位のエッジを除いた他のエッジを削除し、Kは前記目標の数であり、削除処理後のニューラルネットワークを、前記トレーニングされたニューラルネットワークとして使用するように構成される、
請求項18に記載のニューラルネットワークのトレーニング装置。 - ビデオ認識装置であって、
認識されるビデオを取得するように構成される、取得部と、
請求項1ないし9のいずれかに記載のニューラルネットワークのトレーニング方法に基づいてトレーニングされたニューラルネットワークに、前記認識されるビデオを入力して、前記認識されるビデオに対応する複数のイベントの発生確率を決定するように構成される、第1決定部と、
対応する発生確率がプリセット条件を満たすイベントを、前記認識されるビデオで発生するイベントとして使用するように構成される、第2決定部と、を備える、前記ビデオ認識装置。 - プロセッサ、前記プロセッサによって実行可能な機械可読命令が記憶されたメモリ及びバスを備える、コンピュータ機器であって、前記コンピュータ機器が実行されるときに、前記プロセッサと前記メモリとは、バスを介して通信し、前記機械可読命令が前記プロセッサによって実行されるときに、請求項1ないし9のいずれか一項に記載のニューラルネットワークのトレーニング方法のステップ、又は、請求項10に記載のビデオ認識方法のステップを実行する、前記コンピュータ機器。
- コンピュータプログラムが記憶された、コンピュータ可読記憶媒体であって、前記コンピュータプログラムがプロセッサによって実行されるときに、請求項1ないし9のいずれか一項に記載のニューラルネットワークのトレーニング方法のステップ、又は、請求項10に記載のビデオ認識方法のステップを実行する、前記コンピュータ可読記憶媒体。
- コンピュータ可読コードを含む、コンピュータプログラムであって、前記コンピュータ可読コードが電子機器で実行されるときに、前記電子機器のプロセッサは、請求項1ないし9のいずれか一項に記載のニューラルネットワークのトレーニング方法のステップ、又は、請求項10に記載のビデオ認識方法のステップを実行する、前記コンピュータプログラム。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010567864.7 | 2020-06-19 | ||
CN202010567864.7A CN111767985B (zh) | 2020-06-19 | 2020-06-19 | 一种神经网络的训练方法、视频识别方法及装置 |
PCT/CN2021/086199 WO2021253938A1 (zh) | 2020-06-19 | 2021-04-09 | 一种神经网络的训练方法、视频识别方法及装置 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2022541712A true JP2022541712A (ja) | 2022-09-27 |
JP7163515B2 JP7163515B2 (ja) | 2022-10-31 |
Family
ID=72721043
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2021570177A Active JP7163515B2 (ja) | 2020-06-19 | 2021-04-09 | ニューラルネットワークのトレーニング方法、ビデオ認識方法及び装置 |
Country Status (5)
Country | Link |
---|---|
JP (1) | JP7163515B2 (ja) |
KR (1) | KR20220011208A (ja) |
CN (1) | CN111767985B (ja) |
TW (1) | TWI770967B (ja) |
WO (1) | WO2021253938A1 (ja) |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111767985B (zh) * | 2020-06-19 | 2022-07-22 | 深圳市商汤科技有限公司 | 一种神经网络的训练方法、视频识别方法及装置 |
CN112598021A (zh) * | 2020-11-27 | 2021-04-02 | 西北工业大学 | 一种基于自动机器学习的图结构搜索方法 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2018520404A (ja) * | 2015-04-28 | 2018-07-26 | クゥアルコム・インコーポレイテッドQualcomm Incorporated | ニューラルネットワークのためのトレーニング基準としてのフィルタ特異性 |
JP2018170003A (ja) * | 2017-03-30 | 2018-11-01 | 富士通株式会社 | ビデオ中のイベントの検出装置、方法及び画像処理装置 |
JP2020052484A (ja) * | 2018-09-25 | 2020-04-02 | Awl株式会社 | 物体認識カメラシステム、再学習システム、及び物体認識プログラム |
Family Cites Families (14)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN104281853B (zh) * | 2014-09-02 | 2017-11-17 | 电子科技大学 | 一种基于3d卷积神经网络的行为识别方法 |
WO2017070656A1 (en) * | 2015-10-23 | 2017-04-27 | Hauptmann Alexander G | Video content retrieval system |
US10546211B2 (en) * | 2016-07-01 | 2020-01-28 | Google Llc | Convolutional neural network on programmable two dimensional image processor |
EP3306528B1 (en) * | 2016-10-04 | 2019-12-25 | Axis AB | Using image analysis algorithms for providing traning data to neural networks |
US11010658B2 (en) * | 2017-12-22 | 2021-05-18 | Intel Corporation | System and method for learning the structure of deep convolutional neural networks |
CN108228861B (zh) * | 2018-01-12 | 2020-09-01 | 第四范式(北京)技术有限公司 | 用于执行机器学习的特征工程的方法及系统 |
CN108334910B (zh) * | 2018-03-30 | 2020-11-03 | 国信优易数据股份有限公司 | 一种事件检测模型训练方法以及事件检测方法 |
CN108985259B (zh) * | 2018-08-03 | 2022-03-18 | 百度在线网络技术(北京)有限公司 | 人体动作识别方法和装置 |
CN109284820A (zh) * | 2018-10-26 | 2019-01-29 | 北京图森未来科技有限公司 | 一种深度神经网络的结构搜索方法及装置 |
US20200167659A1 (en) * | 2018-11-27 | 2020-05-28 | Electronics And Telecommunications Research Institute | Device and method for training neural network |
CN110598598A (zh) * | 2019-08-30 | 2019-12-20 | 西安理工大学 | 基于有限样本集的双流卷积神经网络人体行为识别方法 |
CN110705463A (zh) * | 2019-09-29 | 2020-01-17 | 山东大学 | 基于多模态双流3d网络的视频人体行为识别方法及系统 |
CN110852168A (zh) * | 2019-10-11 | 2020-02-28 | 西北大学 | 基于神经架构搜索的行人重识别模型构建方法及装置 |
CN111767985B (zh) * | 2020-06-19 | 2022-07-22 | 深圳市商汤科技有限公司 | 一种神经网络的训练方法、视频识别方法及装置 |
-
2020
- 2020-06-19 CN CN202010567864.7A patent/CN111767985B/zh active Active
-
2021
- 2021-04-09 KR KR1020227000769A patent/KR20220011208A/ko active Search and Examination
- 2021-04-09 JP JP2021570177A patent/JP7163515B2/ja active Active
- 2021-04-09 WO PCT/CN2021/086199 patent/WO2021253938A1/zh active Application Filing
- 2021-04-27 TW TW110115206A patent/TWI770967B/zh active
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2018520404A (ja) * | 2015-04-28 | 2018-07-26 | クゥアルコム・インコーポレイテッドQualcomm Incorporated | ニューラルネットワークのためのトレーニング基準としてのフィルタ特異性 |
JP2018170003A (ja) * | 2017-03-30 | 2018-11-01 | 富士通株式会社 | ビデオ中のイベントの検出装置、方法及び画像処理装置 |
JP2020052484A (ja) * | 2018-09-25 | 2020-04-02 | Awl株式会社 | 物体認識カメラシステム、再学習システム、及び物体認識プログラム |
Also Published As
Publication number | Publication date |
---|---|
CN111767985B (zh) | 2022-07-22 |
CN111767985A (zh) | 2020-10-13 |
JP7163515B2 (ja) | 2022-10-31 |
WO2021253938A1 (zh) | 2021-12-23 |
TW202201285A (zh) | 2022-01-01 |
TWI770967B (zh) | 2022-07-11 |
KR20220011208A (ko) | 2022-01-27 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11531889B2 (en) | Weight data storage method and neural network processor based on the method | |
Mishina et al. | Boosted random forest | |
Aljundi et al. | Expert gate: Lifelong learning with a network of experts | |
WO2021022521A1 (zh) | 数据处理的方法、训练神经网络模型的方法及设备 | |
CN114051615A (zh) | 动态处理元件阵列扩展 | |
WO2021057056A1 (zh) | 神经网络架构搜索方法、图像处理方法、装置和存储介质 | |
US20220108157A1 (en) | Hardware architecture for introducing activation sparsity in neural network | |
WO2022057262A1 (zh) | 图像识别方法、装置及计算机可读存储介质 | |
JP7163515B2 (ja) | ニューラルネットワークのトレーニング方法、ビデオ認識方法及び装置 | |
WO2021218517A1 (zh) | 获取神经网络模型的方法、图像处理方法及装置 | |
JP2019032808A (ja) | 機械学習方法および装置 | |
CN108364064A (zh) | 操作神经网络的方法、对应网络、装置、以及计算机程序产品 | |
CN111382868A (zh) | 神经网络结构搜索方法和神经网络结构搜索装置 | |
CN115129386A (zh) | 用于神经网络部署和执行的有效优化 | |
CN111260020A (zh) | 卷积神经网络计算的方法和装置 | |
WO2020236255A1 (en) | System and method for incremental learning using a grow-and-prune paradigm with neural networks | |
CN112381227A (zh) | 神经网络生成方法、装置、电子设备及存储介质 | |
WO2022063076A1 (zh) | 对抗样本的识别方法及装置 | |
Cai et al. | Soft and hard filter pruning via dimension reduction | |
CN115080139A (zh) | 用于神经网络部署和执行的有效量化 | |
CN114298289A (zh) | 一种数据处理的方法、数据处理设备及存储介质 | |
CN115080138A (zh) | 用于神经网络部署和执行的有效存储器使用优化 | |
CN113554145B (zh) | 确定神经网络的输出的方法、电子设备和计算机程序产品 | |
KR102227437B1 (ko) | 연산 가속화가 적용된 신경망 모델의 생성 및 활용을 위한 장치 및 방법 | |
KR20220083782A (ko) | 비디오 처리 방법, 장치, 전자 기기, 저장 매체 및 프로그램 제품 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20211125 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20211125 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20221012 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20221019 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7163515 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |