JP6875262B2 - モーションビデオにおいて事象を識別するための方法 - Google Patents
モーションビデオにおいて事象を識別するための方法 Download PDFInfo
- Publication number
- JP6875262B2 JP6875262B2 JP2017231462A JP2017231462A JP6875262B2 JP 6875262 B2 JP6875262 B2 JP 6875262B2 JP 2017231462 A JP2017231462 A JP 2017231462A JP 2017231462 A JP2017231462 A JP 2017231462A JP 6875262 B2 JP6875262 B2 JP 6875262B2
- Authority
- JP
- Japan
- Prior art keywords
- event
- camera
- neural network
- data
- motion video
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 230000033001 locomotion Effects 0.000 title claims description 83
- 238000000034 method Methods 0.000 claims description 131
- 238000012545 processing Methods 0.000 claims description 120
- 230000008569 process Effects 0.000 claims description 113
- 238000013528 artificial neural network Methods 0.000 claims description 57
- 230000007774 longterm Effects 0.000 claims description 32
- 238000012549 training Methods 0.000 claims description 29
- 230000009471 action Effects 0.000 claims description 28
- 230000015654 memory Effects 0.000 claims description 16
- 230000004044 response Effects 0.000 claims description 6
- 238000004891 communication Methods 0.000 claims description 5
- 230000006870 function Effects 0.000 claims description 5
- 230000008901 benefit Effects 0.000 description 8
- 238000001514 detection method Methods 0.000 description 8
- 238000012544 monitoring process Methods 0.000 description 5
- 230000001052 transient effect Effects 0.000 description 4
- 230000001419 dependent effect Effects 0.000 description 3
- 239000013598 vector Substances 0.000 description 3
- 230000006399 behavior Effects 0.000 description 2
- 230000006835 compression Effects 0.000 description 2
- 238000007906 compression Methods 0.000 description 2
- 238000013479 data entry Methods 0.000 description 2
- 238000010586 diagram Methods 0.000 description 2
- 230000000306 recurrent effect Effects 0.000 description 2
- 230000005540 biological transmission Effects 0.000 description 1
- 230000001413 cellular effect Effects 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 238000013527 convolutional neural network Methods 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 239000003517 fume Substances 0.000 description 1
- 230000008571 general function Effects 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000007781 pre-processing Methods 0.000 description 1
- 230000009467 reduction Effects 0.000 description 1
- 230000006641 stabilisation Effects 0.000 description 1
- 238000011105 stabilization Methods 0.000 description 1
- 230000002123 temporal effect Effects 0.000 description 1
- 230000001960 triggered effect Effects 0.000 description 1
- 230000003936 working memory Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/52—Surveillance or monitoring of activities, e.g. for recognising suspicious objects
-
- G—PHYSICS
- G08—SIGNALLING
- G08B—SIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
- G08B13/00—Burglar, theft or intruder alarms
- G08B13/18—Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength
- G08B13/189—Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems
- G08B13/194—Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems
- G08B13/196—Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems using television cameras
- G08B13/19602—Image analysis to detect motion of the intruder, e.g. by frame subtraction
- G08B13/19606—Discriminating between target movement or movement in an area of interest and other non-signicative movements, e.g. target movements induced by camera shake or movements of pets, falling leaves, rotating fan
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/217—Validation; Performance evaluation; Active pattern learning techniques
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/241—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
- G06F18/2413—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on distances to training or reference patterns
- G06F18/24133—Distances to prototypes
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/25—Fusion techniques
- G06F18/254—Fusion techniques of classification results, e.g. of results related to same input data
- G06F18/256—Fusion techniques of classification results, e.g. of results related to same input data of results relating to different input data, e.g. multimodal recognition
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/044—Recurrent networks, e.g. Hopfield networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/44—Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
- G06V10/443—Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components by matching or filtering
- G06V10/449—Biologically inspired filters, e.g. difference of Gaussians [DoG] or Gabor filters
- G06V10/451—Biologically inspired filters, e.g. difference of Gaussians [DoG] or Gabor filters with interaction between the filter responses, e.g. cortical complex cells
- G06V10/454—Integrating the filters into a hierarchical structure, e.g. convolutional neural networks [CNN]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/764—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/82—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/40—Scenes; Scene-specific elements in video content
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/40—Scenes; Scene-specific elements in video content
- G06V20/41—Higher-level, semantic clustering, classification or understanding of video scenes, e.g. detection, labelling or Markovian modelling of sport events or news items
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N7/00—Television systems
- H04N7/18—Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
- H04N7/181—Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast for receiving images from a plurality of remote sources
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/084—Backpropagation, e.g. using gradient descent
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/40—Scenes; Scene-specific elements in video content
- G06V20/44—Event detection
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N7/00—Television systems
- H04N7/18—Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
- H04N7/183—Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast for receiving images from a single remote source
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Evolutionary Computation (AREA)
- Artificial Intelligence (AREA)
- Data Mining & Analysis (AREA)
- Multimedia (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Life Sciences & Earth Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Health & Medical Sciences (AREA)
- General Engineering & Computer Science (AREA)
- Software Systems (AREA)
- Computing Systems (AREA)
- Biomedical Technology (AREA)
- Molecular Biology (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Evolutionary Biology (AREA)
- Computational Linguistics (AREA)
- Medical Informatics (AREA)
- Databases & Information Systems (AREA)
- Biophysics (AREA)
- Mathematical Physics (AREA)
- Biodiversity & Conservation Biology (AREA)
- Signal Processing (AREA)
- Image Analysis (AREA)
- Studio Devices (AREA)
- Alarm Systems (AREA)
Description
112 長期的識別プロセス
210 モーションビデオカメラ
212 処理デバイス
214 通信ネットワーク
216 レンズ
218 画像センサ
220 画像処理ユニット、画像プロセッサ、画像処理デバイス
222 中央処理ユニット
224 揮発性メモリ
226 不揮発性メモリ
228 カメラ処理データ登録モジュール
230 事象識別動作モジュール
232 ネットワークインターフェース
234 ネットワークインターフェース
236 不揮発性メモリ
238 揮発性メモリ
240 中央処理ユニット
242 ピクセルを基にした事象識別動作モジュール
244 事象識別動作トレーニングモジュール
Claims (24)
- 一時的識別プロセスおよび長期的識別プロセスを備える、モーションビデオカメラによって取り込まれた場面における事象を識別するための方法であって、
前記一時的識別プロセスが、
取り込まれた画像フレームからピクセルデータを分析することによって、前記取り込まれた場面における事象を識別することと、
前記事象の識別の対象となる前記画像フレームに関係するカメラ処理データを登録することであって、前記カメラ処理データは、カメラによって取り込まれた符号化されたビデオストリームのデータレート、オートフォーカス距離、オートホワイトバランス機能の設定、オート露出設定、シャッター時間、ゲイン、信号対ノイズ比、取り込まれたフレームにおけるコントラスト、ネットワークに送られるデータレート、中央処理装置(CPU)使用量、メモリ使用量、ジャイロまたは加速度計からのデータ、および前記カメラに接続されたパンチルトズーム(PTZ)ヘッドからの位置データのうちの少なくとも1つを含む、カメラ処理データを登録することと、
事象の前記識別の対象となる前記画像フレームに関係する前記登録されたカメラ処理データを、入力として使用し、前記識別された事象を、ニューラルネットワークを基にした事象識別動作から生じた事象の適正な分類として使用して、前記ニューラルネットワークを基にした事象識別動作をトレーニングすることと
を含み、
前記長期的識別プロセスが、
ピクセルデータの分析のために使用された前記画像フレームに引き続いて取り込まれた画像フレームに関係するカメラ処理データを登録することと、
ピクセルデータの前記分析のために使用された前記画像フレームに引き続いて取り込まれた画像フレームに関係する登録されたカメラ処理データを、前記トレーニングされたニューラルネットワークを基にした事象識別動作に入力することによって、前記取り込まれた場面における事象を識別することと
を含み、
前記一時的識別プロセスが、所定の時間期間の間に実行され、前記長期的識別プロセスが、前記所定の時間期間が終了した後に実行される、
方法。 - 前記ニューラルネットワークを基にした事象識別動作を前記トレーニングすることが、前記ニューラルネットワークを基にした事象識別動作のノードに属する重みを調整することを含み、前記ニューラルネットワークを基にした事象識別動作から生じた事象の分類が、前記取り込まれた画像フレームからのピクセルデータの前記分析によって識別された事象の分類に近くなるように、前記ニューラルネットワークを基にした事象識別動作の前記ノードの前記重みが調整される、請求項1に記載の方法。
- 前記重みが、前記一時的識別プロセスの間に、ネットワークを介して前記モーションビデオカメラに接続されたデバイスに記憶される、請求項2に記載の方法。
- 前記重みが、前記ネットワークを介して前記モーションビデオカメラに転送される、請求項3に記載の方法。
- 前記一時的識別プロセスが、要求により開始される、請求項1に記載の方法。
- 前記要求が、ユーザによって前記モーションビデオカメラに入力された命令である、請求項5に記載の方法。
- 前記一時的識別プロセスが、ネットワークを介して前記モーションビデオカメラに接続されたデバイスによって実行される、請求項1に記載の方法。
- 前記ニューラルネットワークを基にした事象識別動作の重みおよびコードが、前記長期的識別プロセスで、前記モーションビデオカメラにおいて実行される、請求項1に記載の方法。
- 前記長期的識別プロセスにおいて、前記ニューラルネットワークを基にした事象識別動作によって生成された信頼値が所定の閾値を下回ることに応答して、前記一時的識別プロセスを再開することをさらに備える、請求項1に記載の方法。
- 通信ネットワークを介して通信するように構成されたモーションビデオカメラと処理デバイスとを含むシステムであって、
前記処理デバイスは一時的識別プロセスを使用するように構成されており、前記処理デバイスは、
前記処理デバイスの中央処理装置(CPU)に動作可能に連結された前記処理デバイスのネットワークインターフェースであって、前記処理デバイスの前記ネットワークインターフェース及び前記処理デバイスの前記CPUは、取り込まれた画像フレームからピクセルデータを分析することによって、前記モーションビデオカメラによって取り込まれた場面における事象を識別するように構成されている、ネットワークインターフェース、及び
前記事象の識別の対象となる前記画像フレームに関係するカメラ処理データを登録するように構成された前記処理デバイスの前記CPUであって、前記カメラ処理データは、カメラによって取り込まれた符号化されたビデオストリームのデータレート、オートフォーカス距離、オートホワイトバランス機能の設定、オート露出設定、シャッター時間、ゲイン、信号対ノイズ比、取り込まれたフレームにおけるコントラスト、ネットワークに送られるデータレート、中央処理装置(CPU)使用量、メモリ使用量、ジャイロまたは加速度計からのデータ、および前記カメラに接続されたパンチルトズーム(PTZ)ヘッドからの位置データのうちの少なくとも1つを含む、前記CPU、及び
事象の前記識別の対象となる前記画像フレームに関係する前記登録されたカメラ処理データを、入力として使用し、前記識別された事象を、ニューラルネットワークを基にした事象識別動作から生じた事象の適正な分類として使用して、前記ニューラルネットワークを基にした事象識別動作をトレーニングするように構成された、前記CPU
を備え、
前記モーションビデオカメラは長期的識別プロセスを使用するように構成されており、前記モーションビデオカメラは、
ピクセルデータの分析のために使用された前記画像フレームに引き続いて取り込まれた画像フレームに関係するカメラ処理データを登録するように構成された、前記モーションビデオカメラのCPU、及び
前記モーションビデオカメラの前記CPUに動作可能に連結された前記モーションビデオカメラのネットワークインターフェースであって、前記モーションビデオカメラの前記ネットワークインターフェース及び前記モーションビデオカメラの前記CPUは、ピクセルデータの前記分析のために使用された前記画像フレームに引き続いて取り込まれた画像フレームに関係する登録されたカメラ処理データを、前記トレーニングされたニューラルネットワークを基にした事象識別動作に入力することによって、前記取り込まれた場面における事象を識別するように構成されている、ネットワークインターフェース
を備え、
前記一時的識別プロセスが、所定の時間期間の間に実行され、前記長期的識別プロセスが、前記所定の時間期間が終了した後に実行される、システム。 - 前記ニューラルネットワークを基にした事象識別動作をトレーニングすることが、前記ニューラルネットワークを基にした事象識別動作のノードに属する重みを調整することを含み、前記ニューラルネットワークを基にした事象識別動作から生じた事象の分類が、前記取り込まれた画像フレームからのピクセルデータの前記分析によって識別された事象の分類に近くなるように、前記ニューラルネットワークを基にした事象識別動作の前記ノードの前記重みが調整される、請求項10に記載のシステム。
- 前記一時的識別プロセスが、要求により開始される、請求項10に記載のシステム。
- 前記要求が、ユーザによって前記モーションビデオカメラに入力された命令である、請求項12に記載のシステム。
- 前記長期的識別プロセスにおいて、前記ニューラルネットワークを基にした事象識別動作によって生成された信頼値が所定の閾値を下回ることに応答して、前記一時的識別プロセスを再開するように構成された前記処理デバイスをさらに備える、請求項10に記載のシステム。
- モーションビデオカメラであって、
前記モーションビデオカメラは一時的識別プロセスを使用するように構成されており、前記モーションビデオカメラは、
中央処理装置(CPU)に動作可能に連結されたネットワークインターフェースであって、前記ネットワークインターフェース及び前記CPUは、取り込まれた画像フレームからピクセルデータを分析することによって、前記モーションビデオカメラによって取り込まれた場面における事象を識別するように構成されている、ネットワークインターフェース、
前記事象の識別の対象となる前記画像フレームに関係するカメラ処理データを登録するように構成された前記CPUであって、前記カメラ処理データは、カメラによって取り込まれた符号化されたビデオストリームのデータレート、オートフォーカス距離、オートホワイトバランス機能の設定、オート露出設定、シャッター時間、ゲイン、信号対ノイズ比、取り込まれたフレームにおけるコントラスト、ネットワークに送られるデータレート、中央処理装置(CPU)使用量、メモリ使用量、ジャイロまたは加速度計からのデータ、および前記カメラに接続されたパンチルトズーム(PTZ)ヘッドからの位置データのうちの少なくとも1つを含む、前記CPU、及び
事象の前記識別の対象となる前記画像フレームに関係する前記登録されたカメラ処理データを、入力として使用し、前記識別された事象を、ニューラルネットワークを基にした事象識別動作から生じた事象の適正な分類として使用して、前記ニューラルネットワークを基にした事象識別動作をトレーニングするように構成された、前記CPU
を備え、
前記モーションビデオカメラは長期的識別プロセスを使用するように構成されており、前記モーションビデオカメラはさらに、
ピクセルデータの分析のために使用された前記画像フレームに引き続いて取り込まれた画像フレームに関係するカメラ処理データを登録するように構成された、前記CPU、及び
ピクセルデータの前記分析のために使用された前記画像フレームに引き続いて取り込まれた画像フレームに関係する登録されたカメラ処理データを、前記トレーニングされたニューラルネットワークを基にした事象識別動作に入力することによって、前記取り込まれた場面における事象を識別するように構成された、前記ネットワークインターフェース及び前記CPU、
を備え、
前記一時的識別プロセスが、所定の時間期間の間に実行され、前記長期的識別プロセスが、前記所定の時間期間が終了した後に実行される、モーションビデオカメラ。 - 前記ニューラルネットワークを基にした事象識別動作をトレーニングすることが、前記ニューラルネットワークを基にした事象識別動作のノードに属する重みを調整することを含み、前記ニューラルネットワークを基にした事象識別動作から生じた事象の分類が、前記取り込まれた画像フレームからのピクセルデータの前記分析によって識別された事象の分類に近くなるように、前記ニューラルネットワークを基にした事象識別動作の前記ノードの前記重みが調整される、請求項15に記載のモーションビデオカメラ。
- 前記一時的識別プロセスが、要求により開始される、請求項15に記載のモーションビデオカメラ。
- 前記要求が、ユーザによって前記モーションビデオカメラに入力された命令である、請求項17に記載のモーションビデオカメラ。
- さらに、前記長期的識別プロセスにおいて、前記ニューラルネットワークを基にした事象識別動作によって生成された信頼値が所定の閾値を下回ることに応答して、前記一時的識別プロセスを再開するように構成されている、請求項15に記載のモーションビデオカメラ。
- 処理デバイスであって、
前記処理デバイスは一時的識別プロセスを使用するように構成されており、前記処理デバイスは、
中央処理装置(CPU)に動作可能に連結されたネットワークインターフェースであって、前記ネットワークインターフェース及び前記CPUは、取り込まれた画像フレームからピクセルデータを分析することによって、モーションビデオカメラによって取り込まれた場面における事象を識別するように構成されている、ネットワークインターフェース、
前記事象の識別の対象となる前記画像フレームに関係するカメラ処理データを登録するように構成された前記CPUであって、前記カメラ処理データは、カメラによって取り込まれた符号化されたビデオストリームのデータレート、オートフォーカス距離、オートホワイトバランス機能の設定、オート露出設定、シャッター時間、ゲイン、信号対ノイズ比、取り込まれたフレームにおけるコントラスト、ネットワークに送られるデータレート、中央処理装置(CPU)使用量、メモリ使用量、ジャイロまたは加速度計からのデータ、および前記カメラに接続されたパンチルトズーム(PTZ)ヘッドからの位置データのうちの少なくとも1つを含む、前記CPU、及び
事象の前記識別の対象となる前記画像フレームに関係する前記登録されたカメラ処理データを、入力として使用し、前記識別された事象を、ニューラルネットワークを基にした事象識別動作から生じた事象の適正な分類として使用して、前記ニューラルネットワークを基にした事象識別動作をトレーニングするように構成された、前記CPU
を備え、
前記処理デバイスは長期的識別プロセスを使用するように構成されており、前記処理デバイスはさらに、
ピクセルデータの分析のために使用された前記画像フレームに引き続いて取り込まれた画像フレームに関係するカメラ処理データを登録するように構成された、前記CPU、及び
ピクセルデータの前記分析のために使用された前記画像フレームに引き続いて取り込まれた画像フレームに関係する登録されたカメラ処理データを、前記トレーニングされたニューラルネットワークを基にした事象識別動作に入力することによって、前記取り込まれた場面における事象を識別するように構成された、前記ネットワークインターフェース及び前記CPU、
を備え、
前記一時的識別プロセスが、所定の時間期間の間に実行され、前記長期的識別プロセスが、前記所定の時間期間が終了した後に実行される、処理デバイス。 - 前記ニューラルネットワークを基にした事象識別動作をトレーニングすることが、前記ニューラルネットワークを基にした事象識別動作のノードに属する重みを調整することを含み、前記ニューラルネットワークを基にした事象識別動作から生じた事象の分類が、前記取り込まれた画像フレームからのピクセルデータの前記分析によって識別された事象の分類に近くなるように、前記ニューラルネットワークを基にした事象識別動作の前記ノードの前記重みが調整される、請求項20に記載の処理デバイス。
- 前記一時的識別プロセスが、要求により開始される、請求項20に記載の処理デバイス。
- 前記要求が、ユーザによって前記モーションビデオカメラに入力された命令である、請求項22に記載の処理デバイス。
- さらに、前記長期的識別プロセスにおいて、前記ニューラルネットワークを基にした事象識別動作によって生成された信頼値が所定の閾値を下回ることに応答して、前記一時的識別プロセスを再開するように構成されている、請求項20に記載の処理デバイス。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
EP16205865.5A EP3340103A1 (en) | 2016-12-21 | 2016-12-21 | Method for identifying events in a motion video |
EP16205865.5 | 2016-12-21 |
Publications (3)
Publication Number | Publication Date |
---|---|
JP2018142299A JP2018142299A (ja) | 2018-09-13 |
JP2018142299A5 JP2018142299A5 (ja) | 2021-01-21 |
JP6875262B2 true JP6875262B2 (ja) | 2021-05-19 |
Family
ID=57755011
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2017231462A Active JP6875262B2 (ja) | 2016-12-21 | 2017-12-01 | モーションビデオにおいて事象を識別するための方法 |
Country Status (6)
Country | Link |
---|---|
US (1) | US10824872B2 (ja) |
EP (1) | EP3340103A1 (ja) |
JP (1) | JP6875262B2 (ja) |
KR (1) | KR102264202B1 (ja) |
CN (1) | CN108229333B (ja) |
TW (1) | TWI713794B (ja) |
Families Citing this family (15)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11482256B2 (en) * | 2017-01-16 | 2022-10-25 | Zhejiang Dahua Technology Co., Ltd. | Systems and methods for video replaying |
US10354169B1 (en) * | 2017-12-22 | 2019-07-16 | Motorola Solutions, Inc. | Method, device, and system for adaptive training of machine learning models via detected in-field contextual sensor events and associated located and retrieved digital audio and/or video imaging |
CN110769279B (zh) * | 2018-07-27 | 2023-04-07 | 北京京东尚科信息技术有限公司 | 视频处理方法和装置 |
KR102134902B1 (ko) * | 2018-11-15 | 2020-07-17 | (주)지와이네트웍스 | 딥러닝 기반 음영영상의 시공간적 특성 분석을 활용한 폭력검출 프레임워킹 방법 |
CN109697815A (zh) * | 2019-01-24 | 2019-04-30 | 广州市天河区保安服务公司 | 防盗通讯网络报警方法、装置设备及存储介质 |
CN110274590B (zh) * | 2019-07-08 | 2022-10-28 | 哈尔滨工业大学 | 一种基于决策树的暴力动作检测方法及系统 |
EP4020963A4 (en) * | 2019-08-20 | 2022-08-10 | Sony Interactive Entertainment Inc. | IMAGE PROCESSING DEVICE, IMAGE PROCESSING METHOD AND PROGRAM |
EP3800581A1 (en) | 2019-10-03 | 2021-04-07 | Axis AB | A method and apparatus for generating an object classification for an object |
CN110749974B (zh) * | 2019-11-04 | 2021-06-01 | 中南大学 | 全载玻片成像扫描仪的自动聚焦方法及其图像获取方法 |
EP3905659B1 (en) * | 2020-04-28 | 2022-06-01 | Axis AB | Statistics-based electronics image stabilization |
CN111757175A (zh) * | 2020-06-08 | 2020-10-09 | 维沃移动通信有限公司 | 视频处理方法及装置 |
US11789542B2 (en) * | 2020-10-21 | 2023-10-17 | International Business Machines Corporation | Sensor agnostic gesture detection |
CN115119044B (zh) * | 2021-03-18 | 2024-01-05 | 阿里巴巴新加坡控股有限公司 | 视频处理方法、设备、系统及计算机存储介质 |
CN113537071B (zh) * | 2021-07-19 | 2023-08-11 | 深圳龙岗智能视听研究院 | 一种基于事件相机的静态和动态目标检测方法及设备 |
CN116402811B (zh) * | 2023-06-05 | 2023-08-18 | 长沙海信智能系统研究院有限公司 | 一种打架斗殴行为识别方法及电子设备 |
Family Cites Families (22)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US7481453B2 (en) * | 1991-07-09 | 2009-01-27 | Automotive Technologies International, Inc. | Inflator system |
ITRM20010045A1 (it) * | 2001-01-29 | 2002-07-29 | Consiglio Nazionale Ricerche | Sistema e metodo per la rilevazione della posizione relativa di un oggetto rispetto ad un punto di riferimento. |
US8948468B2 (en) * | 2003-06-26 | 2015-02-03 | Fotonation Limited | Modification of viewing parameters for digital images using face detection information |
CN101551732A (zh) * | 2009-03-24 | 2009-10-07 | 上海水晶石信息技术有限公司 | 带有交互功能的增强现实的方法及其系统 |
EP2407943B1 (en) * | 2010-07-16 | 2016-09-28 | Axis AB | Method for event initiated video capturing and a video camera for capture event initiated video |
US8918344B2 (en) * | 2011-05-11 | 2014-12-23 | Ari M. Frank | Habituation-compensated library of affective response |
GB2493956A (en) * | 2011-08-24 | 2013-02-27 | Inview Technology Ltd | Recommending audio-visual content based on user's personal preerences and the profiles of others |
CN102982336B (zh) * | 2011-09-02 | 2015-11-25 | 株式会社理光 | 识别模型生成方法和系统 |
CN102568026B (zh) * | 2011-12-12 | 2014-01-29 | 浙江大学 | 一种多视点自由立体显示的三维增强现实方法 |
EP2995079A4 (en) * | 2013-05-10 | 2017-08-23 | Robert Bosch GmbH | System and method for object and event identification using multiple cameras |
US9405377B2 (en) * | 2014-03-15 | 2016-08-02 | Microsoft Technology Licensing, Llc | Trainable sensor-based gesture recognition |
JP6471934B2 (ja) * | 2014-06-12 | 2019-02-20 | パナソニックIpマネジメント株式会社 | 画像認識方法、カメラシステム |
US9928708B2 (en) * | 2014-12-12 | 2018-03-27 | Hawxeye, Inc. | Real-time video analysis for security surveillance |
WO2016145379A1 (en) * | 2015-03-12 | 2016-09-15 | William Marsh Rice University | Automated Compilation of Probabilistic Task Description into Executable Neural Network Specification |
AU2015207945A1 (en) * | 2015-07-31 | 2017-02-16 | Canon Kabushiki Kaisha | Method for training an artificial neural network |
US20170161555A1 (en) * | 2015-12-04 | 2017-06-08 | Pilot Ai Labs, Inc. | System and method for improved virtual reality user interaction utilizing deep-learning |
US20170161607A1 (en) * | 2015-12-04 | 2017-06-08 | Pilot Ai Labs, Inc. | System and method for improved gesture recognition using neural networks |
US10242266B2 (en) * | 2016-03-02 | 2019-03-26 | Mitsubishi Electric Research Laboratories, Inc. | Method and system for detecting actions in videos |
US20170311095A1 (en) * | 2016-04-20 | 2017-10-26 | Starkey Laboratories, Inc. | Neural network-driven feedback cancellation |
US10019629B2 (en) * | 2016-05-31 | 2018-07-10 | Microsoft Technology Licensing, Llc | Skeleton-based action detection using recurrent neural network |
US10427645B2 (en) * | 2016-10-06 | 2019-10-01 | Ford Global Technologies, Llc | Multi-sensor precipitation-classification apparatus and method |
US10606885B2 (en) * | 2016-11-15 | 2020-03-31 | Evolv Technology Solutions, Inc. | Data object creation and recommendation using machine learning based online evolution |
-
2016
- 2016-12-21 EP EP16205865.5A patent/EP3340103A1/en not_active Ceased
-
2017
- 2017-10-23 TW TW106136281A patent/TWI713794B/zh active
- 2017-12-01 JP JP2017231462A patent/JP6875262B2/ja active Active
- 2017-12-11 CN CN201711306265.4A patent/CN108229333B/zh active Active
- 2017-12-15 KR KR1020170173401A patent/KR102264202B1/ko active IP Right Grant
- 2017-12-21 US US15/851,028 patent/US10824872B2/en active Active
Also Published As
Publication number | Publication date |
---|---|
US20180173956A1 (en) | 2018-06-21 |
TW201824085A (zh) | 2018-07-01 |
EP3340103A1 (en) | 2018-06-27 |
KR102264202B1 (ko) | 2021-06-11 |
CN108229333A (zh) | 2018-06-29 |
JP2018142299A (ja) | 2018-09-13 |
KR20180072563A (ko) | 2018-06-29 |
US10824872B2 (en) | 2020-11-03 |
CN108229333B (zh) | 2023-04-07 |
TWI713794B (zh) | 2020-12-21 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6875262B2 (ja) | モーションビデオにおいて事象を識別するための方法 | |
US10691949B2 (en) | Action recognition in a video sequence | |
CN109040709B (zh) | 视频监控方法及装置、监控服务器及视频监控系统 | |
JP2018142299A5 (ja) | ||
US9521377B2 (en) | Motion detection method and device using the same | |
CN112805996B (zh) | 一种用于生成慢动作视频片段的设备和方法 | |
US10769442B1 (en) | Scene change detection in image data | |
CN107809639B (zh) | 量化参数确定方法和图像捕获设备 | |
US7239720B2 (en) | Optical monitoring apparatus with image-based distance accommodation | |
CN108337534B (zh) | 视频管理系统和视频管理方法 | |
TWI521473B (zh) | 影像分析裝置、方法及電腦可讀取媒體 | |
JP7036579B2 (ja) | イベントを検出するための方法、および、イベントを検出するための装置 | |
JP4947936B2 (ja) | モニタリングシステムおよび管理装置 | |
JP6809114B2 (ja) | 情報処理装置、画像処理システム、プログラム | |
KR102077632B1 (ko) | 로컬 영상분석과 클라우드 서비스를 활용하는 하이브리드 지능형 침입감시 시스템 | |
JP2012257173A (ja) | 追尾装置、追尾方法及びプログラム | |
US10817727B2 (en) | Information processing apparatus and method of controlling an information processing apparatus that estimate a waiting time in a waiting line | |
KR102552071B1 (ko) | 감시용 카메라에 의해 촬영되는 영상을 네트워크를 통해 관리자단말에 전송하는 촬영영상 전송장치 및 그 촬영영상 전송방법 | |
KR20230069735A (ko) | 디지털 이미지 안정화를 위한 이미지 처리 장치 및 방법 | |
KR102527133B1 (ko) | 영상 분석 대상 판별 서버 및 그 제어방법 | |
US11683595B2 (en) | Wearable camera and a method for encoding video captured by the wearable camera | |
WO2024013936A1 (ja) | 映像処理システム、映像処理装置及び映像処理方法 | |
CN115037870A (zh) | 摄像装置控制方法、装置、电子设备及存储介质 | |
CN113906735A (zh) | 网络监控相机系统及其操作方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20201201 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20201201 |
|
A871 | Explanation of circumstances concerning accelerated examination |
Free format text: JAPANESE INTERMEDIATE CODE: A871 Effective date: 20201207 |
|
A975 | Report on accelerated examination |
Free format text: JAPANESE INTERMEDIATE CODE: A971005 Effective date: 20210113 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20210119 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20210316 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20210420 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20210422 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6875262 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |