TW201537516A - 基於小腦模型網路的移動物體偵測方法及其裝置 - Google Patents

基於小腦模型網路的移動物體偵測方法及其裝置 Download PDF

Info

Publication number
TW201537516A
TW201537516A TW103113425A TW103113425A TW201537516A TW 201537516 A TW201537516 A TW 201537516A TW 103113425 A TW103113425 A TW 103113425A TW 103113425 A TW103113425 A TW 103113425A TW 201537516 A TW201537516 A TW 201537516A
Authority
TW
Taiwan
Prior art keywords
pixel
current
moving object
block
space
Prior art date
Application number
TW103113425A
Other languages
English (en)
Other versions
TWI522967B (zh
Inventor
Bo-Hao Chen
Shih-Chia Huang
Original Assignee
Univ Nat Taipei Technology
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Univ Nat Taipei Technology filed Critical Univ Nat Taipei Technology
Publication of TW201537516A publication Critical patent/TW201537516A/zh
Application granted granted Critical
Publication of TWI522967B publication Critical patent/TWI522967B/zh

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/215Motion-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/136Segmentation; Edge detection involving thresholding
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/194Segmentation; Edge detection involving foreground-background segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/255Detecting or recognising potential candidate objects based on visual cues, e.g. shapes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/52Surveillance or monitoring of activities, e.g. for recognising suspicious objects
    • G06V20/54Surveillance or monitoring of activities, e.g. for recognising suspicious objects of traffic, e.g. cars on the road, trains or boats
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20021Dividing image into blocks, subimages or windows
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30232Surveillance
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30241Trajectory

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Image Analysis (AREA)

Abstract

一種基於小腦模型網路的移動物體偵測方法包括下列步驟:自網路接收一固定地點的一時間序列輸入畫面;根據上述時間序列輸入畫面,建立小腦模型網路,其中小腦模型網路包括輸入空間、連結記憶體空間、權重記憶體空間以及輸出空間;自網路接收目前畫面,並且將目前畫面分割為多個目前區塊;根據小腦模型網路,將各所述目前區塊區分為背景區塊或是移動物體區塊;以及根據小腦模型網路於輸出空間的輸出,判斷所述移動物體區塊的目標畫素為移動物體畫素或是背景畫素。

Description

基於小腦模型網路的移動物體偵測方法及其裝置
本揭露是有關於一種移動物體偵測方法及其裝置,且特別是有關於一種基於小腦模型網路的移動物體偵測方法及其裝置。
近年來,視訊影像偵測系統(Video Image Detection System)已用於辨識以及追蹤移動物體的多種應用,其中具有自動監測功能來偵測移動物體的無線視訊監控(Wireless Video Surveillance)為智慧型監控系統(Intelligent Surveillance Systems)管理的主要技術。以交通管理的領域為例,智慧型運輸系統(Intelligent Transportation System,ITS)即採用視訊影像偵測技術,以紓解交通阻塞、提升運輸安全以及最佳化交通流量。智慧型運輸系統可藉由精確地區別車輛以及背景物體來取得道路上目前的車流,或是偵測以及追蹤特定的車輛。
傳統的移動物體偵測方法可分為三種方式:連續影像相減法(Temporal Differencing)、光流法(Optical Flow)以及背景 相減法(Background Subtraction)。
連續影像相減法可藉由視訊串流中的連續畫面之間畫素 的差異來偵測移動的區域。然而,此種技術雖可適用於不同動態場景,但其對於移動物體,且特別是沒有明顯移動變化的移動物體,有無法擷取其完整形狀的傾向。
光流法可藉由視訊串流中的連續畫面之間畫素相對於時間以及空間上的偏微分來估算移動物體的流向量。然而,此種技術對於雜訊敏感度高,並且其所需的高運算量會造成交通方面的應用上效能低落。
背景相減法為常用於視訊監控與目標物辨識的技術。在背景相減法中,可藉由目前影像與前一張影像的參考背景模型來比對畫素的差異,以自靜態或是動態的背景場景分離出移動前景物體。此技術為移動偵測領域中最為理想的做法。
在理想網路頻寬的前提下,多種用以自視訊串流中偵測移動車輛的背景相減法之變化形式已相繼被提出。Sigma差值估計法(Sigma Difference Estimation,SDE)利用Sigma-Delta濾波(Σ-△ Filter)技術,根據畫素決策分析架構來估算視訊串流中每一畫素的二階時域統計資料。然而,在某些複雜環境下,此種方式不易偵測出完整的移動物體。為了解決上述問題,Sigma差值估計法已延伸為多Sigma差值估計法,其利用多個Sigma-Delta估計器(Σ-△ Estimator)來計算混合背景模型。除了Sigma-Delta濾波技術,高斯混合模型(Gaussian Mixture Model,GMM)亦常 用於建立背景模型。每一畫素皆可各自由一特定分布來建立模型。各所述畫素於下一畫面的分布可根據其是否屬於背景而決定。另一方面,根據簡單統計差分法(Simple Statistical Difference,SSD)而建立的簡單背景模型可利用時間平均以及主要準則來偵測移動物體。多時間差法(multiple temporal difference,MTD)可藉由保留前數張參考畫面來計算畫面間的差異,藉以縮小移動物體的差距。
然而,在現實網路頻寬的限制下,視訊通訊往往會受到網路壅塞以及頻寬不穩定的影響,特別是在無線視訊通訊系統下所傳輸的視訊資料會產生許多問題。在通訊網路資料流量阻塞的情況下,大多數的使用者較能忍受較低品質的視訊串流遠勝於延遲或是停滯的視訊。因此,利用視訊編碼工具的位元率控制機制來有效地控制視訊串流的位元率已被提出。為了分配可利用的網路頻寬以及產生可變位元率的視訊串流,位元率控制機制可搭配H.264/AVC來進行視訊編碼。藉由適當的分配視訊串流的位元率,可變位元率的視訊串流得以在無線視訊通訊系統下穩定地傳輸。
然而,位元率控制機制雖可以增加視訊串流於有限頻寬的網路下傳輸的效率,但其變動的位元率會造成移動物體偵測上的困難。因此,以可變位元率的視訊串流結合前述利用背景相減法的方式一般無法得到滿意的偵測結果。
舉例而言,圖1(a)以及圖1(b)為由攝影機所擷取並且由無線網路所傳輸的同一視訊串流。圖1(a)為編號550並且具有 1,000畫素/秒之位元率的畫面;圖1(b)為編號918並且具有2,000,000畫素/秒之位元率的畫面。圖1(a)繪示為編號550的畫面中位於道路上的樹的其中一畫素101;圖1(b)繪示為稍後編號918的畫面中位於同一道路上的樹的同一畫素102(同一畫素位置)。 圖1(c)繪示為同一畫素於不同時間上的強度(亮度值(Y))變化。 在此情境中,當網路頻寬足夠時,位元率控制機制往往會將低位元率的視訊串流提升至高位元率的視訊串流以符合網路頻寬。當使用一般的背景相減法來進行移動物體偵測,背景亮度值的變動103往往會被解讀為移動物體。
再以另一例說明,圖2(a)為編號55並且具有2,000,000 畫素/秒之位元率的畫面;圖2(b)為編號209並且具有1,000畫素/秒之位元率的畫面。圖2(a)繪示為編號55的畫面中位於道路上的樹的其中一畫素201;圖2(b)繪示為稍後編號209的畫面中位於同一道路上的移動車輛以及樹的同一畫素202(同一畫素位置)。圖2(c)繪示為同一畫素於不同時間上的強度(亮度值(Y))變化。 在此情境中,當高品質訊號切換至低品質訊號的位元率後,亮度值往往不會再變動。當使用一般的背景相減法來進行移動物體偵測,例如是移動車輛的移動物體203,其往往會被解讀為背景物體。
有鑒於上述不同品質的視訊串流傳輸而造成的錯誤辨 識,本揭露提出一種移動物體偵測方法,其可在變動位元率的視訊串流傳輸於有限網路頻寬下,提升影像偵測的精確度。
本揭露提供一種基於小腦模型(Cerebellar Model Articulation Controller,CMAC)網路的移動物體偵測方法及其裝置,其可在可變位元率的視訊串流中以低成本的數位實作方式有效率地辨識移動物體。
本揭露提供一種基於小腦模型網路的移動物體偵測方法,此方法包括下列步驟:自網路接收一固定地點的一時間序列輸入畫面,其中上述時間序列輸入畫面中具有相同像素座標的每一畫素分別組成一時間序列輸入畫素;根據上述時間序列輸入畫面,建立小腦模型網路,其中小腦模型網路包括輸入空間、連結記憶體空間、權重記憶體空間以及輸出空間,連結記憶體空間包括多個實體記憶體位址,各所述時間序列輸入畫素分別映射於所述實體記憶體位址其中之一者,權重記憶體空間包括多個權重記憶體元素列表,各所述權重記憶體元素列表中的每一權重記憶體元素分別關聯於一像素值;自網路接收一目前畫面,並且將目前畫面分割為多個目前區塊;根據小腦模型網路,將各所述目前區塊區分為背景區塊或是移動物體區塊;以及根據小腦模型網路於輸出空間的輸出,判斷所述移動物體區塊的目標畫素為移動物體畫素或是背景畫素。
在本揭露的一實施例中,根據上述時間序列輸入畫面,建立小腦模型網路的步驟包括:計算各所述像素值分別於各所述時間序列輸入畫素所出現的機率,以取得對應於各所述像素值的 pmf值;以及將各所述pmf值配置於對應的權重記憶體元素列表中所對應的權重記憶體元素。
在本揭露的一實施例中,根據上述時間序列輸入畫面,建立小腦模型網路的演算公式包括方程式(1)~方程式(2): 其中p t 為位於像素座標(x,y)的畫素,為各所述像素值出現於上述時間序列輸入畫面的多個輸入畫面I t 中位於像素座標(x,y)的數量,T為上述時間序列輸入畫面的所有輸入畫面的數量,pmf(p t )為位於像素座標(x,y)的各所述像素值所對應的pmf值, 其中pmf(n)為位於像素座標(x,y)並且具有像素值n所對應的pmf值,N0為自然數空間,M為所述像素值中的最大值,B(x,y) n 為pmf(n)所對應的權重記憶體元素。
在本揭露的一實施例中,上述根據小腦模型網路,區分各所述目前區塊為背景區塊或是移動物體區塊的步驟更包括下列步驟。將各所述目前區塊輸入至輸入空間;識別各所述目前區塊中的每一目前畫素於連結記憶體空間中的實體記憶體位址;將各所述目前區塊中的各所述目前畫素的實體記憶體位址連結於權重記憶體空間中所對應的權重記憶體元素列表;以及對於各所述目前區塊:根據目前區塊中各所述目前畫素所對應的實體記憶體位址以及權重記憶體元素列表,計算區塊總和;判斷區塊總和是否小於第一門檻值;若是,將目前區塊區分為移動物體區塊;若否, 將目前區塊區分為背景區塊。
在本揭露的一實施例中,上述根據小腦模型網路,將各所述目前區塊區分為背景區塊或是移動物體區塊的演算公式包括方程式(3)~方程式(5): 其中C Y(p t )為目前畫面中位於像素座標(x,y)的目前畫素所對應的實體記憶體位址,其中當j=p t 時,設定範圍r中的所述實體記憶體位 址為「1」,其中k為像素座標(x,y)的目前畫素所關聯於的 所述權重記憶體元素之數量,並且k為正整數, 其中p t 為目前區塊μ中的各所述目前畫素,M為所述像素值中的最大值,δ為目前區塊μ的區塊總和, 其中ε為第一門檻值並且為實數,並且當A為「1」時,目前區塊μ為移動物體區塊。
在本揭露的一實施例中,上述根據小腦模型網路於輸出空間的輸出,判斷所述移動物體區塊的目標畫素為移動物體畫素或是背景畫素的步驟包括:根據所述移動物體區塊的目標畫素所對應的實體記憶體位址以及權重記憶體元素列表,計算小腦模型網路的輸出;判斷小腦模型網路的輸出是否小於第二門檻值;若 是,將目標畫素判定為移動物體畫素;若否,將目標畫素判定為背景畫素。
在本揭露的一實施例中,上述根據小腦模型網路於輸出空間的輸出,判斷所述移動物體區塊的目標畫素為移動物體畫素或是背景畫素的演算公式包括方程式(6)~方程式(7): 其中C Y為目標畫素的實體記憶體位址,W為關聯於實體記憶體位址C Y的權重記憶體元素列表, 其中△為第二門檻值並且為實數,當Y(x,y)為「1」時,目標畫素(x,y)為移動物體畫素。
本揭露另提供一種移動物體偵測裝置,包括儲存單元以 及處理單元,其中處理單元耦接至儲存單元,並且用以執行下列步驟:自網路接收一固定地點的一時間序列輸入畫面,其中上述時間序列輸入畫面中具有相同像素座標的每一畫素分別組成一時間序列輸入畫素;根據上述時間序列輸入畫面,建立小腦模型網路,其中小腦模型網路包括輸入空間、連結記憶體空間、權重記憶體空間以及輸出空間,連結記憶體空間包括多個實體記憶體位址,各所述時間序列輸入畫素分別映射於所述實體記憶體位址其中之一者,權重記憶體空間包括多個權重記憶體元素列表,各所述權重記憶體元素列表中的每一權重記憶體元素分別關聯於一像 素值;自網路接收一目前畫面,並且將目前畫面分割為多個目前區塊;根據小腦模型網路,將各所述目前區塊區分為背景區塊或是移動物體區塊;以及根據小腦模型網路於輸出空間的輸出,判斷所述移動物體區塊的目標畫素為移動物體畫素或是背景畫素。
在本揭露的一實施例中,上述處理單元根據上述時間序列輸入畫面,建立小腦模型網路的執行步驟包括:計算各所述像素值分別於各所述時間序列輸入畫素所出現的機率,以取得對應於各所述像素值的pmf值;以及將各所述pmf值配置於對應的權重記憶體元素列表中所對應的權重記憶體元素。
在本揭露的一實施例中,上述處理單元根據上述時間序列輸入畫面,建立小腦模型網路的演算公式包括方程式(1)~方程式(2): 其中p t 為位於像素座標(x,y)的畫素,為各所述像素值出現於上述時間序列輸入畫面的多個輸入畫面I t 中位於像素座標(x,y)的數量,T為上述時間序列輸入畫面的所有輸入畫面的數量,pmf(p t )為位於像素座標(x,y)的各所述像素值所對應的pmf值, 其中pmf(n)為位於像素座標(x,y)並且具有像素值n所對應的pmf值,N0為自然數空間,M為所述像素值中的最大值,B(x,y) n 為pmf(n)所對應的權重記憶體元素。
在本揭露的一實施例中,上述處理單元根據小腦模型網 路,區分各所述目前區塊為背景區塊或是移動物體區塊的執行步驟包括下列步驟。將各所述目前區塊輸入至輸入空間;識別各所述目前區塊中的每一目前畫素於連結記憶體空間中的實體記憶體位址;將各所述目前區塊中的各所述目前畫素的實體記憶體位址連結於權重記憶體空間中所對應的權重記憶體元素列表;以及對於各所述目前區塊:根據目前區塊中各所述目前畫素所對應的實體記憶體位址以及權重記憶體元素列表,計算區塊總和;判斷區塊總和是否小於第一門檻值;若是,將目前區塊區分為移動物體區塊;若否,將目前區塊區分為背景區塊。
在本揭露的一實施例中,上述處理單元根據小腦模型網 路,將各所述目前區塊區分為背景區塊或是移動物體區塊的演算公式包括方程式(3)~方程式(5): 其中C Y(p t )為目前畫面中位於像素座標(x,y)的目前畫素所對應的實體記憶體位址,其中當j=p t 時,設定範圍r中的所述實體記憶體位 址為「1」,其中k為像素座標(x,y)的目前畫素所關聯於的 所述權重記憶體元素之數量,並且k為正整數, 其中p t 為目前區塊μ中的各所述目前畫素,M為所述像素值中的最大值,δ為目前區塊μ的區塊總和, 其中ε為第一門檻值並且為實數,並且當A為「1」時,目前區塊μ為移動物體區塊。
在本揭露的一實施例中,上述處理單元根據小腦模型網路於輸出空間的輸出,判斷所述移動物體區塊的目標畫素為移動物體畫素或是背景畫素的執行步驟包括:根據所述移動物體區塊的目標畫素所對應的實體記憶體位址以及權重記憶體元素列表,計算小腦模型網路的輸出;判斷小腦模型網路的輸出是否小於第二門檻值;若是,將目標畫素判定為移動物體畫素;若否,將目標畫素判定為背景畫素。
在本揭露的一實施例中,上述處理單元根據小腦模型網路於輸出空間的輸出,判斷所述移動物體區塊的目標畫素為移動物體畫素或是背景畫素的演算公式包括方程式(6)~方程式(7): 其中C Y為目標畫素的實體記憶體位址,W為關聯於實體記憶體位址C Y的權重記憶體元素列表, 其中△為第二門檻值並且為實數,當Y(x,y)為「1」時,目標畫素(x,y)為移動物體畫素。
基於上述,本揭露可利用小腦模型網路,自頻寬受限的 現實網路所傳輸的可變位元率的視訊串流中,以低成本的數位實作方式精確完整並且有效率地辨識移動物體。
為讓本發明的上述特徵和優點能更明顯易懂,下文特舉實施例,並配合所附圖式作詳細說明如下。
101、102、201、202‧‧‧畫素
103、203‧‧‧訊號
301‧‧‧視訊來源
302‧‧‧視訊編碼器
303‧‧‧位元率控制模組
304‧‧‧編碼緩衝器
305‧‧‧視訊解碼器
310‧‧‧移動物體偵測裝置
312‧‧‧處理單元
314‧‧‧儲存單元
320‧‧‧偵測結果
350‧‧‧記錄平台
351‧‧‧網路
352‧‧‧分析平台
S402~S410‧‧‧移動物體偵測方法的流程
500‧‧‧小腦模型網路
510‧‧‧輸入空間
520‧‧‧連結記憶體空間
530‧‧‧權重記憶體空間
532‧‧‧權重記憶體元素列表
540‧‧‧輸出空間
YY 0,Y 1,…Y 6‧‧‧輸入狀態
C Y C Y (1)‧‧‧實體記憶體位址
W 0,W 1,…,W 6,W M ‧‧‧權重記憶體元素
Σ‧‧‧區塊總和
F‧‧‧輸出值
Y 0,Y 1,…Y 6‧‧‧輸入狀態
701‧‧‧視訊序列
702‧‧‧小腦模型網路
710‧‧‧機率背景建構階段
711‧‧‧機率質量函數值計算
712‧‧‧機率背景模型建構
720‧‧‧移動物體偵測階段
721‧‧‧區塊選擇程序
722‧‧‧物體偵測程序
725‧‧‧區塊
727‧‧‧偵測結果
圖1(a)至圖1(c)繪示為同一畫素於低位元率的視訊串流切換至高位元率的視訊串流之強度變化。
圖2(a)至圖2(c)繪示為同一畫素於高位元率的視訊串流切換至低位元率的視訊串流之強度變化。
圖3繪示依據本揭露一實施例之利用移動物體偵測方法所提出的一種硬體系統架構。
圖4繪示依據本揭露一實施例之移動物體偵測方法的流程圖。
圖5繪示依據本揭露一實施例之小腦模型網路的架構。
圖6繪示據本揭露一實施例之小腦模型網路中實體記憶體位址的分配。
圖7繪示依據本揭露一實施例所繪示之移動物體偵測方法的功能方塊圖。
本揭露的部份實施例接下來將會配合附圖來詳細描述, 以下的描述所引用的元件符號,當不同附圖出現相同的元件符號將視為相同或相似的元件。這些實施例只是本揭露的一部份,並未揭示所有本揭露的可實施方式。更確切的說,這些實施例只是本揭露的專利申請範圍中的裝置與方法的範例。
圖3繪示依據本揭露一實施例之利用移動物體偵測方法所提出的一種硬體系統架構。此類偵測移動物體的系統可用於交通管理系統以偵測交通流量或特定的車輛,或是基於安全目的而設置於例如是機場或是購物中心。圖3中的系統包括記錄平台350以及分析平台352。記錄平台350包括視訊來源301,其可以例如是用以拍攝視訊或動態影像的一或多個監控攝影機等裝置。視訊來源301將拍攝畫面的原始檔輸出至視訊編碼器302,其中視訊編碼器302可由位元率控制模組303來控制。視訊編碼器302將編碼後的視訊輸出至編碼緩衝器304,其中編碼緩衝器304可與位元率控制模組303互動,據以控制視訊編碼器302。記錄平台350可藉由無線或有線傳輸的方式將編碼後的視訊輸出至網路351。網路351可以連結至一核心網路(Core Network)的3G或LTE網路、區域網路(Intranet)或是私有網路(Private Network),而編碼後的視訊可隨後由分析平台352所接收。分析平台352包括視訊解碼器305,其可藉由收發器自網路351接收編碼後的視訊進行解碼,並且將解碼後的視訊傳輸至移動物體偵測裝置310,進而輸出分析後的偵測結果320。
必須注意的是,移動物體偵測裝置310通常可視為記錄 平台350中視訊編碼器302的一部份。然而,本揭露較為傾向於將移動物體偵測裝置310設置於解碼器305之後,其優點在於動物體偵測方法將不受限於任何視訊的規格。移動物體偵測裝置310可以為包括處理單元312以及儲存單元314。處理單元312例如是中央處理單元(Central Processing Unit,CPU),或是其他可程式化之一般用途或特殊用途的微處理器(Microprocessor)、數位訊號處理器(Digital Signal Processor,DSP)、可程式化控制器、特殊應用積體電路(Application Specific Integrated Circuits,ASIC)、可程式化邏輯裝置(Programmable Logic Device,PLD)或其他類似裝置。儲存單元314例如是任意型式的固定式或可移動式隨機存取記憶體(Random Access Memory,RAM)、唯讀記憶體(Read-Only Memory,ROM)、快閃記憶體(Flash memory)、硬碟或其他類似裝置。處理單元312耦接至儲存單元314,其中處理單元312用以執行偵測移動物體方法,而儲存單元314用以提供分析平台352暫時地或是永久性地存放資料。
圖4繪示依據本揭露一實施例的移動物體偵測方法的流 程圖。本實施例所提出的方法可由圖3的移動物體偵測裝置310來執行。
請參照圖3以及圖4,移動物體偵測裝置310的處理單元 312接收一固定地點的一時間序列輸入畫面(步驟S402)。換言之,處理單元312將接收原始視訊畫面串流(亦即,自視訊解碼器305所取得之解碼後的視訊串流)。在此,假設對於同一特定地點所擷 取的連續影像具有固定的背景畫面。
在本實施例中,移動物體偵測方法是建立在支援大多數的數位視訊應用上的YCbCr色域中,其中亮度(luminance,Y)元素可用以表示上述時間序列輸入畫面中各個輸入畫面I t 的畫素之像素值。處理單元312可根據上述時間序列輸入畫面,建立小腦模型網路(Cerebellar Model Articulation Controller,CMAC)(步驟S404)。可變位元率的視訊串流的特性可被記憶於一個機率背景模型中,以建立小腦模型網路。因此,步驟S404可以定義為「機率背景建構階段」。
圖5繪示依據本揭露一實施例之小腦模型網路的架構。請參照圖5,小腦模型網路500包括輸入空間510、連結記憶體空間520、權重記憶體空間530以及輸出空間540。連結記憶體空間520包括多個實體記憶體位址。權重記憶體空間530包括多個權重記憶體元素列表,而各所述權重記憶體元素列表分別關聯於一實體記憶體位址。在本實施例中,為了方便說明,以下僅針對其中一個權重記憶體元素列表532進行描述。
處理單元312可先藉由一個時間序列輸入畫素的機率質量函數值(probability mass function evaluation,pmf evaluation)來定義權重記憶體元素列表中的各個權重記憶體元素,以建立小腦模型網路。必須說明的是,一個時間序列輸入畫素是由上述時間序列輸入畫面中具有相同像素座標的每一畫素所組成。各個時間序列輸入畫素則分別映射於連結記憶體空間520中的其中一個 實體記憶體位址。假設權重記憶體空間530中的權重記憶體元素列表532關聯於連結記憶體空間520中的實體記憶體位址C Y ,其中實體記憶體位址C Y 對應於具有像素座標(x,y)的時間序列輸入畫素(亦即,各個輸入畫面I t 中位於像素座標(x,y)的畫素,在此定義為「輸入狀態Y」)。
各個pmf值則是分別定義為各個像素值分別於前述各個時間序列輸入畫素所出現的機率。處理單元312可根據方程式(1)來計算pmf值: 其中p t 為位於像素座標(x,y)的畫素,為各所述像素值出現於前述時間序列輸入畫面的各個輸入畫面I t 中位於像素座標(x,y)的數量,T為前述時間序列輸入畫面的所有輸入畫面的數量,pmf(p t )為位於像素座標(x,y)的像素值所對應的pmf值。
接著,處理單元312可根據方程式(2)將各個pmf值配置於對應的權重記憶體元素列表532中所對應的權重記憶體元素W(x,y)0,...,W(x,y) M 其中pmf(n)為位於像素座標(x,y)並且具有像素值n所對應的pmf值,N0為自然數空間,M為所有像素值中的最大值,B(x,y) n 為pmf(n)所對應的權重記憶體元素,並且B(x,y) n 可被視為機率背景模型。此種機率背景建構階段為非監督式學習程序(unsupervised learning process)。當機率背景建構階段完成後,可於稍後的移動物體偵測 階段中精確地自高位元率或低位元率的視訊串流中偵測出移動物體。
請再參照圖4,當處理單元312在機率背景建構階段建立小腦模型網路後,可將一個目前畫面中位於YCbCr色域的各個畫素p t (x,y)傳輸至小腦模型網路的輸入空間。在本實施例中,目前畫面可以為前述時間序列輸入畫面的下一個畫面。必須注意的是,在目前部份已存在的移動物體偵測方法中,當低位元率切換至高位元率傳輸時,絕大部份的背景訊號在高位元率的情況下往往會被誤判成移動物體,繼而產生嚴重的假影(artifact)。為了解決此問題,在建立小腦模型網路後,處理單元312將接收目前畫面,並且將目前畫面分割為多個目前區塊(步驟S406)。
處理單元312可將目前輸入畫面分割為N×N目前區塊以濾除屬於背景類別的目前區塊,而在此的區塊大小N可設定為16。此時,處理單元312將可根據小腦模型網路區分各所述目前區塊為背景區塊或是移動物體區塊(步驟S408,在此定義為「區塊選擇程序」)。
在小腦模型網路中,由於各個權重記憶體元素將關聯於連結記憶體空間的其中一個實體記憶體位址,在各個畫素p t (x,y)進入輸入空間後,處理單元312可根據方程式(3)將所述目前區塊中的每一個目前畫素的實體記憶體位址與權重記憶體空間中所對應的權重記憶體元素列表相連結: 其中C Y(p t )為位於像素座標(x,y)的目前畫素所對應的實體記憶體位址。當j=p t 時,範圍r中的所述實體記憶體位址將被設定為「1」, 其中k為像素座標(x,y)的目前畫素所關聯於的所述權重記 憶體元素之數量,k為正整數。
舉例而言,圖6繪示依據本揭露一實施例之小腦模型網路中實體記憶體位址的分配。請參照圖6,假設對應於目前畫面中的畫素p t (x,y)之輸入狀態Y 1映射於集合C Y (1),其中集合C Y (1)為畫素p t (x,y)的實體記憶體位址並且關聯於3個權重記憶體元素,亦即j=1以及k=3。實體記憶體位址C Y (1)可被表示為[1 1 1 0 0 0 0 0]。因此,畫素p t (x,y)所關聯於的權重記憶體元素則為W(x,y)0W(x,y)1以及W(x,y)2
步驟S408的區塊選擇程序中,可利用方程式(4),根據各個目前區塊中各個目前畫素所對應的實體記憶體位址以及權重記憶體元素列表,計算區塊總和: 其中p t 為目前區塊μ中的各個目前畫素,M為所有像素值中的最大值,δ為目前區塊μ的區塊總和。以圖6中的集合C Y (1)為例,處理單元312可將權重記憶體元素W(x,y)0W(x,y)1以及W(x,y)2的數值進行加總。
接著,處理單元312可判斷各個目前區塊的區塊總和是否小於第一門檻值。若是,則處理單元312可判定對應的目前區 塊為移動物體區塊;若否,則處理單元312可判定對應的區塊為背景區塊。此決定法則可寫成方程式(5): 其中ε為第一門檻值並且為實數。當A為「1」時,目前區塊μ為移動物體區塊,也就是說目前區塊μ具有大量屬於移動物體的畫素。
當處理單元312於前述區塊選擇程序中濾除不必要的目前區塊後,可藉由物體偵測程序,於移動物體區塊內精確地在高位元率與低位元率的視訊串流中偵測出移動物體。因此,處理單元312可根據小腦模型網路的輸出,判斷前述移動物體區塊的目標畫素為移動物體畫素或是背景畫素(步驟S410,即為「物體偵測程序」)。
詳言之,小腦模型網路的輸出空間是用以計算移動偵測的二值遮罩結果。處理單元312可先根據所述移動物體區塊的目標畫素所對應的實體記憶體位址以及權重記憶體元素列表,計算小腦模型網路於輸出空間的輸出。換言之,處理單元312將對權重記憶體空間中被映射權重記憶體元素進行加總。小腦模型網路的輸出可表示為方程式(6): 其中C Y為目標畫素的實體記憶體位址,W為關聯於實體記憶體位址C Y的權重記憶體元素列表。
接著,處理單元312將判斷輸出空間的輸出是否小於第 二門檻值。若是,則處理單元312將判定目標畫素為移動物體畫素;若否,則處理單元312將判定目標畫素為背景畫素。此決定法則可以方程式(7)來表示: 其中△為第二門檻值並且為實數。當Y(x,y)為「1」時,目標畫素(x,y)為移動物體畫素。
前述的移動物體偵測方法可利用圖7依據本揭露一實施 例所繪示的功能方塊圖來進行總結。請參照圖7,移動物體偵測方法可以分為兩個階段:機率背景建構階段710以及移動物體偵測階段720。此方法會先接收視訊序列701。小腦模型網路702將於機率背景建構階段710建立,以記憶視訊串流的可變位元率的特性。此可將各個時間序列輸入畫素經由機率質量函數值計算711的步驟所得到的pmf值在機率背景模型建構712的步驟中傳遞至小腦模型網路702,以做為權重記憶體空間的權重記憶體元素,從而建構小腦模型網路。
在機率背景建構階段710建構小腦模型網路702後,可 在移動物體偵測階段720中完整地且精確地在偵測移動物體,其中移動物體偵測階段720包括區塊選擇程序721以及物體偵測程序722。在區塊選擇程序721中,可自輸入畫面中相等大小的區塊(亦即,目前區塊)中,藉由小腦模型網路702濾除被歸類為背景類別的不必要區塊。因此,在區塊選擇程序721濾除背景區塊 之後,可僅針對被歸類為移動物體類別的區塊725來進行移動物體的偵測,其可在物體偵測程序722,利用小腦模型網路702在可變動位元率的視訊串流中取得完整且精確的偵測結果727。
綜上所述,本揭露可利用小腦模型網路,自頻寬受限的現實網路所傳輸的可變位元率的視訊串流中,以低成本的數位實作方式精確完整並且有效率地辨識移動物體。
雖然本發明已以實施例揭露如上,然其並非用以限定本發明,任何所屬技術領域中具有通常知識者,在不脫離本發明的精神和範圍內,當可作些許的更動與潤飾,故本發明的保護範圍當視後附的申請專利範圍所界定者為準。
S402~S410‧‧‧移動物體偵測方法的流程

Claims (14)

  1. 一種基於小腦模型網路的移動物體偵測方法,包括:自一網路接收一固定地點的一時間序列輸入畫面,其中該時間序列輸入畫面中具有相同像素座標的每一畫素分別組成一時間序列輸入畫素;根據該時間序列輸入畫面,建立一小腦模型網路,其中該小腦模型網路包括一輸入空間、一連結記憶體空間、一權重記憶體空間以及一輸出空間,其中該連結記憶體空間包括多個實體記憶體位址,各所述時間序列輸入畫素分別映射於所述實體記憶體位址其中之一者,該權重記憶體空間包括多個權重記憶體元素列表,各所述權重記憶體元素列表中的每一權重記憶體元素分別關聯於一像素值;自該網路接收一目前畫面,並且分割該目前畫面為多個目前區塊;根據該小腦模型網路,區分各所述目前區塊為一背景區塊或是一移動物體區塊;以及根據該小腦模型網路於該輸出空間的一輸出,判斷所述移動物體區塊的一目標畫素為一移動物體畫素或是一背景畫素。
  2. 如申請專利範圍第1項所述的方法,其中根據該時間序列輸入畫面,建立該小腦模型網路的步驟包括:計算各所述像素值分別於各所述時間序列輸入畫素所出現的機率,以取得對應於各所述像素值的一pmf值;以及 配置各所述pmf值於對應的該權重記憶體元素列表中所對應的該權重記憶體元素。
  3. 如申請專利範圍第2項所述的方法,其中根據該時間序列輸入畫面,建立該小腦模型網路的演算公式包括方程式(1)~方程式(2): 其中p t 為位於像素座標(x,y)的畫素,為各所述像素值出現於該時間序列輸入畫面的多個輸入畫面I t 中位於像素座標(x,y)的數量,T為該時間序列輸入畫面的所述輸入畫面的數量,pmf(p t )為位於像素座標(x,y)的各所述像素值所對應的該pmf值, 其中pmf(n)為位於像素座標(x,y)並且具有像素值n所對應的該pmf值,N0為一自然數空間,M為所述像素值中的最大值,B(x,y) n 為pmf(n)所對應的該權重記憶體元素。
  4. 如申請專利範圍第1項所述的方法,其中根據該小腦模型網路,區分各所述目前區塊為該背景區塊或是該移動物體區塊的步驟包括:輸入各所述目前區塊至該輸入空間;識別各所述目前區塊中的每一目前畫素於該連結記憶體空間中的該實體記憶體位址;連結各所述目前區塊中的各所述目前畫素的該實體記憶體位址於該權重記憶體空間中所對應的該權重記憶體元素列表; 對於各所述目前區塊:根據該目前區塊中各所述目前畫素所對應的該實體記憶體位址以及該權重記憶體元素列表,計算一區塊總和;判斷該區塊總和是否小於一第一門檻值;若是,區分該目前區塊為該移動物體區塊;以及若否,區分該目前區塊為該背景區塊。
  5. 如申請專利範圍第4項所述的方法,其中根據該小腦模型網路,區分各所述目前區塊為該背景區塊或是該移動物體區塊的演算公式包括方程式(3)~方程式(5): 其中C Y(p t )為該目前畫面中位於像素座標(x,y)的一目前畫素所對應的該實體記憶體位址,其中當j=p t 時,設定一範圍r中的所述實體 記憶體位址為「1」,其中k為像素座標(x,y)的該目前畫素 所關聯於的所述權重記憶體元素之數量,並且k為正整數, 其中p t 為該目前區塊μ中的各所述目前畫素,M為所述像素值中的最大值,δ為該目前區塊μ的該區塊總和, 其中ε為該第一門檻值並且為實數,並且當A為「1」時,該目前區塊μ為該移動物體區塊。
  6. 如申請專利範圍第4項所述的方法,其中根據該小腦模型網路於該輸出空間的該輸出,判斷所述移動物體區塊的該目標畫素為該移動物體畫素或是該背景畫素的步驟包括:根據所述移動物體區塊的該目標畫素所對應的該實體記憶體位址以及該權重記憶體元素列表,計算該小腦模型網路的該輸出;判斷該小腦模型網路的該輸出是否小於一第二門檻值;若是,判定該目標畫素為該移動物體畫素;以及若否,判定該目標畫素為該背景畫素。
  7. 如申請專利範圍第6項所述的方法,其中根據該小腦模型網路於該輸出空間的該輸出,判斷所述移動物體區塊的該目標畫素為該移動物體畫素或是該背景畫素的演算公式包括方程式(6)~方程式(7): 其中C Y為該目標畫素的該實體記憶體位址,W為關聯於該實體記憶體位址C Y的該權重記憶體元素列表, 其中△為該第二門檻值並且為實數,當Y(x,y)為「1」時,該目標畫素(x,y)為該移動物體畫素。
  8. 一種移動物體偵測裝置,包括:一儲存單元;一處理單元,耦接至該儲存單元,並且執行下列步驟: 自一網路接收一固定地點的一時間序列輸入畫面,其中該時間序列輸入畫面中具有相同像素座標的每一畫素分別組成一時間序列輸入畫素;根據該時間序列輸入畫面,建立一小腦模型網路,其中該小腦模型網路包括一輸入空間、一連結記憶體空間、一權重記憶體空間以及一輸出空間,其中該連結記憶體空間包括多個實體記憶體位址,各所述時間序列輸入畫素分別映射於所述實體記憶體位址其中之一者,該權重記憶體空間包括多個權重記憶體元素列表,各所述權重記憶體元素列表中的每一權重記憶體元素分別關聯於一像素值;自該網路接收一目前畫面,並且分割該目前畫面為多個目前區塊;根據該小腦模型網路,區分各所述目前區塊為一背景區塊或是一移動物體區塊;以及根據該小腦模型網路於該輸出空間的一輸出,判斷所述移動物體區塊的一目標畫素為一移動物體畫素或是一背景畫素。
  9. 如申請專利範圍第8項所述的移動物體偵測裝置,其中該處理單元根據該時間序列輸入畫面,建立該小腦模型網路的執行步驟包括:計算各所述像素值分別於各所述時間序列輸入畫素所出現的機率,以取得對應於各所述像素值的一pmf值;以及配置各所述pmf值於對應的該權重記憶體元素列表中所對應 的該權重記憶體元素。
  10. 如申請專利範圍第9項所述的移動物體偵測裝置,其中該處理單元根據該時間序列輸入畫面,建立該小腦模型網路的演算公式包括方程式(1)~方程式(2): 其中p t 為位於像素座標(x,y)的畫素,為各所述像素值出現於該時間序列輸入畫面的多個輸入畫面I t 中位於像素座標(x,y)的數量,T為該時間序列輸入畫面的所述輸入畫面的數量,pmf(p t )為位於像素座標(x,y)的各所述像素值所對應的該pmf值, 其中pmf(n)為位於像素座標(x,y)並且具有像素值n所對應的該pmf值,N0為一自然數空間,M為所述像素值中的最大值,B(x,y) n 為pmf(n)所對應的該權重記憶體元素。
  11. 如申請專利範圍第8項所述的移動物體偵測裝置,其中該處理單元根據該小腦模型網路,區分各所述目前區塊為該背景區塊或是該移動物體區塊的執行步驟包括:輸入各所述目前區塊至該輸入空間;識別各所述目前區塊中的每一目前畫素於該連結記憶體空間中的該實體記憶體位址;連結各所述目前區塊中的各所述目前畫素的該實體記憶體位址於該權重記憶體空間中所對應的該權重記憶體元素列表;對於各所述目前區塊: 根據該目前區塊中各所述目前畫素所對應的該實體記憶體位址以及該權重記憶體元素列表,計算一區塊總和;判斷該區塊總和是否小於一第一門檻值;若是,區分該目前區塊為該移動物體區塊;以及若否,區分該目前區塊為該背景區塊。
  12. 如申請專利範圍第11項所述的移動物體偵測裝置,其中該處理單元根據該小腦模型網路,區分各所述目前區塊為該背景區塊或是該移動物體區塊的演算公式包括方程式(3)~方程式(5): 其中C Y(p t )為該目前畫面中位於像素座標(x,y)的一目前畫素所對應的該實體記憶體位址,其中當j=p t 時,設定一範圍r中的所述實體 記憶體位址為「1」,其中k為像素座標(x,y)的該目前畫素 所關聯於的所述權重記憶體元素之數量,並且k為正整數, 其中p t 為該目前區塊μ中的各所述目前畫素,M為所述像素值中的最大值,δ為該目前區塊μ的該區塊總和, 其中ε為該第一門檻值並且為實數,並且當A為「1」時,該目前區塊μ為該移動物體區塊。
  13. 如申請專利範圍第11項所述的移動物體偵測裝置,其中 該處理單元根據該小腦模型網路於該輸出空間的該輸出,判斷所述移動物體區塊的該目標畫素為該移動物體畫素或是該背景畫素的執行步驟包括:根據所述移動物體區塊的該目標畫素所對應的該實體記憶體位址以及該權重記憶體元素列表,計算該小腦模型網路的該輸出;判斷該小腦模型網路的該輸出是否小於一第二門檻值;若是,判定該目標畫素為該移動物體畫素;以及若否,判定該目標畫素為該背景畫素。
  14. 如申請專利範圍第13項所述的移動物體偵測裝置,其中該處理單元根據該小腦模型網路於該輸出空間的該輸出,判斷所述移動物體區塊的該目標畫素為該移動物體畫素或是該背景畫素的演算公式包括方程式(6)~方程式(7): 其中C Y為該目標畫素的該實體記憶體位址,W為關聯於該實體記憶體位址C Y的該權重記憶體元素列表, 其中△為該第二門檻值並且為實數,當Y(x,y)為「1」時,該目標畫素(x,y)為該移動物體畫素。
TW103113425A 2014-03-26 2014-04-11 基於小腦模型網路的移動物體偵測方法及其裝置 TWI522967B (zh)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
US14/225,442 US9123133B1 (en) 2014-03-26 2014-03-26 Method and apparatus for moving object detection based on cerebellar model articulation controller network

Publications (2)

Publication Number Publication Date
TW201537516A true TW201537516A (zh) 2015-10-01
TWI522967B TWI522967B (zh) 2016-02-21

Family

ID=53938928

Family Applications (1)

Application Number Title Priority Date Filing Date
TW103113425A TWI522967B (zh) 2014-03-26 2014-04-11 基於小腦模型網路的移動物體偵測方法及其裝置

Country Status (2)

Country Link
US (1) US9123133B1 (zh)
TW (1) TWI522967B (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112060082A (zh) * 2020-08-19 2020-12-11 大连理工大学 基于仿生强化学习型小脑模型的在线稳定控制仿人机器人

Families Citing this family (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107662872B (zh) * 2016-07-29 2021-03-12 奥的斯电梯公司 乘客运输机的监测系统及其监测方法
CN107316318B (zh) * 2017-05-26 2020-06-02 河北汉光重工有限责任公司 基于多子区域背景拟合的空中目标自动检测方法
US10460156B2 (en) 2018-03-06 2019-10-29 Sony Corporation Automated tracking and retaining of an articulated object in a sequence of image frames
CN109145805B (zh) * 2018-08-15 2021-05-14 深圳市豪恩汽车电子装备股份有限公司 车载环境下的移动目标检测方法及系统
CN112017214A (zh) * 2019-05-29 2020-12-01 多方科技(广州)有限公司 前景及背景影像判断方法
US20220207282A1 (en) * 2020-12-28 2022-06-30 Fortinet, Inc. Extracting regions of interest for object detection acceleration in surveillance systems
CN113759868B (zh) * 2021-08-16 2023-05-02 浙江运达风电股份有限公司 一种基于神经网络的工业以太网故障预测方法
CN116259110B (zh) * 2023-05-09 2023-08-08 杭州木兰科技有限公司 Atm防护舱的安全检测方法、装置、设备及存储介质

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8395365B2 (en) * 2005-11-11 2013-03-12 Maxim Integrated Products, Inc. Non-linear PWM controller
US7746048B2 (en) * 2005-11-11 2010-06-29 L&L Engineering, Llc Non-linear PWM controller for DC-to-DC converters
EP2173563A1 (en) * 2007-08-07 2010-04-14 Marvell World Trade Ltd. Positional data error correction

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112060082A (zh) * 2020-08-19 2020-12-11 大连理工大学 基于仿生强化学习型小脑模型的在线稳定控制仿人机器人

Also Published As

Publication number Publication date
TWI522967B (zh) 2016-02-21
US9123133B1 (en) 2015-09-01

Similar Documents

Publication Publication Date Title
TWI522967B (zh) 基於小腦模型網路的移動物體偵測方法及其裝置
US8558903B2 (en) Accelerometer / gyro-facilitated video stabilization
US9241094B2 (en) Capturing event information using a digital video camera
TWI539407B (zh) 移動物體偵測方法及移動物體偵測裝置
US9159137B2 (en) Probabilistic neural network based moving object detection method and an apparatus using the same
JP2020149704A (ja) ビデオデータを用いた活動モニタリングのためのシステム及び方法
US9235880B2 (en) Camera and method for optimizing the exposure of an image frame in a sequence of image frames capturing a scene based on level of motion in the scene
TWI512685B (zh) 移動物體偵測方法及其裝置
WO2021164216A1 (zh) 一种视频编码方法、装置、设备及介质
TWI620149B (zh) 預處理視訊串流以用於後續移動偵測處理之方法、裝置與系統
US9251423B2 (en) Estimating motion of an event captured using a digital video camera
US20210258588A1 (en) Method and system for characteristic-based video processing
KR102187376B1 (ko) 딥러닝 이미지 분석과 연동하는 신택스 기반의 선별 관제 제공 방법
CN105931189B (zh) 一种基于改进超分辨率参数化模型的视频超分辨率方法及装置
Fischer et al. On intra video coding and in-loop filtering for neural object detection networks
US9256789B2 (en) Estimating motion of an event captured using a digital video camera
TWI521473B (zh) 影像分析裝置、方法及電腦可讀取媒體
EP4139840A2 (en) Joint objects image signal processing in temporal domain
CN113158963B (zh) 一种高空抛物的检测方法及装置
Drajic et al. Adaptive fusion of multimodal surveillance image sequences in visual sensor networks
JP2020504383A (ja) 画像前景の検出装置、検出方法及び電子機器
JP2018197945A (ja) 障害物検出装置および障害物検出方法
KR102179077B1 (ko) 상용분류기 외부 연동 학습형 신경망을 이용한 압축영상에 대한 신택스 기반의 객체 분류 방법
KR101893677B1 (ko) 컬러 영상 내의 변화영역을 검출하는 방법 및 그 장치
CN105357494B (zh) 视频编解码方法、装置

Legal Events

Date Code Title Description
MM4A Annulment or lapse of patent due to non-payment of fees