TWI448992B - 視訊監控方法 - Google Patents

視訊監控方法 Download PDF

Info

Publication number
TWI448992B
TWI448992B TW100144262A TW100144262A TWI448992B TW I448992 B TWI448992 B TW I448992B TW 100144262 A TW100144262 A TW 100144262A TW 100144262 A TW100144262 A TW 100144262A TW I448992 B TWI448992 B TW I448992B
Authority
TW
Taiwan
Prior art keywords
edge point
edge
ratio
image
threshold
Prior art date
Application number
TW100144262A
Other languages
English (en)
Other versions
TW201324443A (zh
Inventor
Yi Ping Hung
Sheng Feng Hung
Chao Ching Shih
Kuan Wen Chen
Original Assignee
Univ Nat Chiao Tung
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Univ Nat Chiao Tung filed Critical Univ Nat Chiao Tung
Priority to TW100144262A priority Critical patent/TWI448992B/zh
Publication of TW201324443A publication Critical patent/TW201324443A/zh
Application granted granted Critical
Publication of TWI448992B publication Critical patent/TWI448992B/zh

Links

Landscapes

  • Closed-Circuit Television Systems (AREA)
  • Image Analysis (AREA)

Description

視訊監控方法
本發明是關於一種視訊監控方法,且特別是關於一種偵測攝影機篡改事件的視訊監控方法。
由於科技的進步,為了維護治安與預防犯罪行為的發生,人們會在各處設置許多攝影機,經由這些攝影機與其連線之電子設備所構成的視訊監控系統,減少監視人力的需求,當犯罪事件發生時,警方或保全會檢查攝影機的視訊畫面以找到犯罪嫌疑人。
通常在犯罪事件發生前,由於視訊監控系統的攝影機會成為犯罪證據的來源,因此容易遭受人為地蓄意破壞,使得攝影機無法有效的錄下犯罪事件發生經過。此外,就算不是被蓄意破壞,攝影機仍可能因為其他因素導致攝影視野改變或失效,這使得耗費龐大成本建置的視訊監控系統無法順利發揮其功效,對於犯罪的嚇阻效果大打折扣,更進而影響犯罪發生後的案件偵辦。
而現行的視訊監控系統試圖以影像辨識技術,經由判斷影像的變化來確認攝影機的視野是否遭受故意地人為篡改,這裡所謂的人為篡改(tampering)並非指人為地直接破壞攝影機或纜線,而是以遮蔽、移動等方式改變攝影機視野。前者的人為篡改已經有很多技術用於偵測攝影機裝置的人為破壞,但後者卻更為防不勝防,目前只有相當少量的文獻記載著偵測人為篡改的技術,例如美國專利公開號2008/0152232 A1揭露了一種偵測攝影機篡改事件的方法與裝置,但對於提昇監控準確度,減少假警報的效果仍嫌不足,導致實際運用在犯罪預防上反而增加不必要的人力耗損。
舉例來說,當大量人群經過、大型物體進入、場景配置改變或是開燈關燈等非屬惡意人為篡改的事件發生時,以往的視訊監控系統多半會造成誤判。這些層出不窮假警報會導致額外人力與時間的耗損,使得建構出來的視訊監控系統仍無法符合實際需要。此外,由於為了提高篡改事件的檢測準確度,必須要盡可能分析更多影像中的像素與特徵點,這使得系統本身需要耗費相當大的硬體成本來建構,使得系統造價過高且無法普及,因此,市場需要更準確,且更有效率的視訊監控方法,以解決上述先前技術的問題。
本案申請人鑑於習知技術中的不足,經過悉心試驗與研究,並一本鍥而不捨之精神,終構思出本案「視訊監控方法」,能夠克服先前技術的不足,以下為本案之簡要說明。
發明為了克服先前技術中的缺陷,提出一種視訊監控方法,採取二階段式偵測,能在複雜的環境下,偵測出是否有人為蓄意破壞,並能有效降低環境變化產生的誤報機率。
本發明的第一階段以取樣點方式代替整張影像作為差異比較與分析,可以明顯提升執行速度,並以適應性學習方式,使得取樣點能夠穩定且均勻分布於場景的邊緣上。藉由分析取樣點的灰階強度變化情形,判斷是否有異常事件發生。第二階段開發誤報事件偵測器,藉此過濾誤報事件,以降低誤報率。本發明特別針對實務上極易發生之開關燈誤報事件,提出一個有效的解決方法。此方法為利用影像結構相符程度來判斷該警報是否來自於光線變化所產生,而非真正的攝影機異常。由實驗結果,本方法能夠有效且即時偵測出攝影機遭到遮蔽、模糊和轉向等異常,且對於正常的環境光線變化、大型物件及大量人群經過等,皆比過去的方法不易產生誤報。
根據上述構想,本發明提供一種視訊監控方法,包括:從一影像獲得一第一邊緣點,將該第一邊緣點二值化以決定一第二邊緣點;計算該第二邊緣點之一亂度與一亂度閾值;根據該亂度閾值過濾該第二邊緣點中亂度高之邊緣點,以獲得一第三邊緣點,經由對該第三邊緣點取樣來構成一背景影像;根據該背景影像比對一新取樣邊緣點,以獲得一非背景比例;以及當該非背景比例大於預設之一第一閾值時,將一特定影像事件發生前後之二影像,各分割成由複數個邊緣區塊所構成之二結構影像,並計算該二結構影像之該些邊緣區塊之一一致比例,當該一致比例低於之一預設匹配閾值時,則發出一警報。
如本發明的上述步驟之視訊監控方法,其中該影像係持續一特定時間之一序列影像中之複數個影像,該第二邊緣點是以統計方式決定。
如本發明的上述步驟之視訊監控方法,更包括:以一邊緣強度偵測運算子來獲得該第一邊緣點;以二值化方式,處理該第一邊緣點強度並計算該亂度閾值;以一適應性演算模型從該第三邊緣點經由取樣一特定數量的點來建構成該背景影像;以及該二結構影像各具有由一特定像素組成的複數個重疊區塊,且相鄰的重疊區塊有複數個像素重疊,將該些重疊區塊中一邊緣像素數超過一閾值的該些重疊區塊設定為一邊緣區塊。
如本發明的上述步驟之視訊監控方法,更包括:當該非背景比例小於該第一預設閾值時,則根據該亂度閾值,獲得一不穩定邊緣點比例;當該不穩定邊緣點比例大於一第二預設閾值時,則留下穩定邊緣點,並重新取樣一新邊緣點來取代該不穩定邊緣點;以及當該不穩定邊緣點比例小於該第二預設閾值時或當該一致比例高於該匹配閾值時,則仍採用該非背景比例。
如本發明的上述步驟之視訊監控方法,更包括:劃分該影像為複數個取樣區塊,該些取樣區塊中之每一取樣區塊分配一特定數量之取樣點,並根據每一取樣區塊中之一穩定邊緣點比例,分配一額外數量之取樣點至穩定點較多之區塊。
又依據上述構想,本發明提供一種視訊監控方法,包括:從一序列影像中篩選一穩定邊緣點,以該穩定邊緣點建構一背景影像;比對該背景影像之該穩定邊緣點與一新影像之一新取樣邊緣點,以獲得一非背景比例;當該非背景比例大於一第一預設閾值時,將一特定影像事件發生前後之二影像,各分割成由複數個邊緣區塊所構成之二結構影像,並計算該二結構影像之該些邊緣區塊之一一致比例;以及當該一致比例低於一預設匹配閾值時,則發出一警報。
如本發明的上述步驟之視訊監控方法,更包括:以一邊緣強度偵測運算子來獲得一第一邊緣點;將該第一邊緣點強度以二值化方式處理,以統計方法決定一第二邊緣點;以該二值化方式計算該第二邊緣點之一亂度閾值;根據該亂度閾值過濾該第二邊緣點中亂度高之邊緣點,獲得該穩定邊緣點;以一適應性演算模型從該穩定邊緣點經由取樣一特定數量的點來建構成該背景影像;以及該二結構影像各具有由一特定像素組成的複數個重疊區塊,且相鄰的重疊區塊有複數個像素重疊,將該些重疊區塊中一邊緣像素數超過一閾值的該些重疊區塊設定為一邊緣區塊。
如本發明的上述步驟之視訊監控方法,更包括:當該非背景比例小於該第一預設閾值時,則根據該亂度閾值,獲得一不穩定邊緣點比例;當該不穩定邊緣點比例大於預設之一第二預設閾值時,則留下穩定邊緣點,並重新取樣一新邊緣點來取代不穩定邊緣點;以及當該不穩定邊緣點比例小於該第二預設閾值時或當該一致比例高於該預設匹配閾值時,則仍採用該非背景比例。
如本發明的上述步驟之視訊監控方法,更包括:劃分該序列影像為複數個取樣區塊,該些取樣區塊中之每一取樣區塊分配一特定數量之取樣點,並根據每一取樣區塊中之一穩定邊緣點比例,分配一額外數量之取樣點至穩定點較多之區塊。
又依據上述構想,本發明提供一種包括:從一序列影像中篩選一穩定特徵點;比對該穩定特徵點與一新取樣特徵點,以獲得一比對結果;根據該比對結果,確認是否發生一異常事件;以及若是,則發出一警報。
本案所提出之「視訊監控方法」將可由以下的實施例說明而得到充分瞭解,使得熟習本技藝之人士可以據以完成之,然而本案之實施並非可由下列實施例而被限制其實施型態,熟習本技藝之人士仍可依據除既揭露之實施例的精神推演出其他實施例,該等實施例皆當屬於本發明之範圍。
請參閱第一圖。第一圖為本發明之一實施例之視訊監控方法的流程圖。本發明之視訊監控方法分成兩階段來進行,第一階段是快速偵測階段(fast detection stage),其重點在於執行速度,確保所有篡改事件都能被檢測出來,且為了加快系統效率而使用取樣特徵點技術。為了避免漏掉任何篡改事件,在第一階段原則上採用較寬鬆的閾值,不可避免地,這會導致一些誤報事件也被檢測到。第二階段是檢查假警報階段,由於在第一階段的檢測,會有一些將非篡改事件誤認為篡改事件的情況,因此在第二階段就是要排除誤認的狀況。不同於第一階段只用一些取樣特徵點來判斷,第二階段則採用包括更多訊息的整張影像來判斷,以減少誤報。雖然第二階段需要更多的計算成本,但由於只有當第一階段認為可能有篡改事件發生,第二階段才會被執行。因此並不會造成系統的過大負荷。
在第一圖中,首先,本發明之視訊監控方法,會在特定時間內(例如3~5秒),從持續錄影100的影像中的影像序列(image sequence),經由特徵點取樣200(feature points sampling)、背景構形300(feature points modeling)等步驟,取樣一些穩定的邊緣點,然後進入第一階段的檢測,因此在進入第一階段前,本案有所謂的「初始階段」。在初始階段中該影像序列是由複數個影像(幀)所組成。在特徵點取樣步驟中,本發明是採用邊緣強度偵測運算子,來選取影像特徵點中的邊緣點,當然,本發明雖然實施例採用邊緣點,但實際上並不限於邊緣點,其他影像特徵也屬於本發明的範圍。該邊緣強度偵測運算子更包括:索貝爾運算子(Sobel operator)、夏爾運算子(Scharr operator)、羅伯特交叉運算子(Roberts Cross operator)、普利維特運算子(Prewitt operator)以及科斯特洛運算子(Costello operator)。由於在初始階段的步驟能找出具代表性的特徵點,可以使後續的偵測步驟不用針對整張影像進行所有特徵的分析比對,而是僅針對邊緣特徵點來比對,可以減少雜訊並提高效率。
關於本發明之實施例之特徵點取樣200,詳細來說,是以索貝爾運算子對一影像獲得一第一邊緣點,並獲得這些點的邊緣強度值(0~255)。然後根據大津法(Otsu's method),找出一強度閾值判斷該影像內的每個像素的強度是屬於邊緣或非邊緣,如第二(a)圖所示,也就是以二值化該第一邊緣點的邊緣強度值獲得一二值化強度值,重複這個步驟後,我們可以得到複數個影像之複數個邊緣點之二值化數值,然後,如第二(b)圖所示,以統計方法例如投票法(Voting method)來決定在該影像序列中,屬於邊緣且相對穩定的一第二邊緣點,過濾掉不屬於背景的特徵點影像。也就是說,經由索貝爾運算子和大津法得到的只是單一個幀(frame)的二元邊緣影像,並無法保證這個影像特徵是背景影像的特徵,因此才會用後面的投票法,觀察該特定時間內複數個幀的二元邊緣影像的每個邊緣點(或稱pixel)在該特定時間內屬於邊緣的比例,來決定是不是屬於背景的邊緣影像(意即:比例高者則投票決定為是背景邊緣)。
但是,即使經過上述運算子、大津法、投票法所得到的第二邊緣點,也有可能不夠穩定,因此我們再計算該第二邊緣點的亂度(熵,entropy)並以大津法計算亂度閾值,來過濾更多不穩定的點。因此,在本發明之實施例,為了量化穩定度,先計算該第二邊緣點的直方圖的邊緣強度,根據直方圖的強度分佈,以下列的亂度公式來測量邊緣點的穩定性。
其中Pk 是在初始階段(學習時間)灰階k(強度)的存在概率。對每一邊緣點計算穩定性後,再以大津法尋找閾值TS ,亂度低於閾值TS 則為穩定的點,進而將所有的該第二邊緣點分類成穩定和不穩定的點,而可以篩選出更穩定的一第三邊緣點。由於第三邊緣點數量多,因此從該第三邊緣點中取樣一特定數量的點。其中,該特定數量較佳為256個,但也不限於此,對本領域者來說仍可依不同需要對數量做出較佳的變更。
在本發明之實施例之背景構形300步驟,採用高斯混合模型(Gaussian mixture model)將該第三邊緣點構形成一背景影像,由於高斯混合模型是以統計的方法來建立背景影像,所以可以將光源的改變及背景物件的些微移動以統計的方式來將其判斷為是背景物件,而不會被誤判為是前景物件。當然,除了高斯混合模型之外,也可以採用其他適應性的演算模型,例如W4模型、LOTS模型、單高斯模型(single Gaussian model)、以及編碼書模型(codebook)等。當該背景影像建立完成後,等於在初始階段完成了系統的學習,之後新取樣的邊緣點就可以用來判斷是否屬於背景影像,所以可進入第一階段進行比對。
在本發明之實施例之第一階段,第一階段是快速偵測階段,主要步驟是分析邊緣一致性400,包括分析非背景比例410以及分析不穩定點比例420。在分析非背景比例的步驟中,原則上,是根據該背景影像比對一新取樣邊緣點(與前面同樣取256個點),來獲得一非背景比例。取樣邊緣點選取的條件是在不穩定的狀況下就會重新選取,是動態決定是否重新選取,所以並新取樣的動作沒有固定的次數,但每次取樣後點的總數都是固定的。其中,該「非背景比例」是指,非屬於背景影像的該新取樣邊緣點,在背景影像中所佔比例,換句話說,可以被視為攝影機視野中影像可能被篡改的比例,且若該非背景比例高於一第一預設閾值T1 持續了一段時間(不同場景可能需要判斷的時間也不同,因此該時間是依需要決定),則認為攝影機篡改事件可能發生,而進入第二階段做更詳細的結構比對,以防止誤判。其中T1 也可依場景不同或特殊需要來設定,例如較佳為0.55~0.65,但本實施例設為0.6,意即,當60%的邊緣點不屬於背景時,進入第二階段。
然而,許多移動物例如人群,可能會使大部分取樣點持續了一段時間不一致,但實際上攝影機並未受到人為篡改,這種情況容易產生誤報。也就是說,雖然穩定的取樣特徵點在初始階段被決定,但不能保證這些取樣點所建立的背景影像總是可靠,所以必須要減少包含移動物的取樣點數目來避免這種狀況。即,進一步地分析不穩定點比例,以便適應性地改變原本在初始階段建立的該背景影像。
因此,當該非背景比例小於該第一閾值T1 時,代表畫面可能未受到人為篡改,但需要檢測不穩定點比例,若比例過高則需要更新。本發明會在上述前提下,如第一圖所示,進行分析不穩定點比例420步驟,根據之前所獲得的該亂度閾值Ts,獲得一不穩定邊緣點比例。然後,當該不穩定邊緣點比例大於預設之一第二預設閾值T2 時(T2 的較佳值皆與T1 類似),則留下穩定邊緣點,並回到初始階段的特徵點取樣200步驟,但差別在於,這時不需要重新取樣所有邊緣點,只要重新取樣一新穩定邊緣點來取代不穩定邊緣點即可,然後建構一新背景影像。又,在分析不穩定點比例420步驟中,當該不穩定邊緣點比例小於該第二閾值T2 時,則代表目前的該背景影像仍可用,不需要重新取樣學習,所以要回到分析邊緣一致性的步驟,仍採用該非背景比例,進行分析非背景比例410,來分析該非背景比例是否大於第一預設閾值T1
又,如第三(a)圖所示,在本發明之實施例之所有關於取樣之步驟中,皆可劃分該影像為複數個取樣區塊(例如3X3),以便根據各取樣區塊的權重W,在該些取樣區塊中之每一取樣區塊各分配一特定數量之取樣點(basic point)。若區塊缺乏穩定點,則多餘的點會被均勻地分配給其他區塊。即,根據每一取樣區塊中之一穩定邊緣點比例,如第三(b)圖所示,可從一區塊分配一額外數量之取樣點(additional point)至穩定點較多之區塊。
接下來說明本發明的第二階段。第二階段是檢查假警報階段,在這個階段包含兩個步驟:影像量化500以及結構匹配600,是根據系統容易誤判的事件來建立偵測器,以偵測是否發生特定影像事件來排除假警報。不同於第一階段只比對邊緣點,第二階段則是針對整張影像的特徵進行比對。簡單來說,第二階段就是比對原始影像的結構與事件發生後的影像結構,當兩影像結構相似時,則篡改事件將被視為單純照度變化的結果,而不發出警報,否則,篡改報警將被觸發,並傳送訊息到指揮中心等處以便進一步處理。
在第一階段中的該非背景比例高於一第一預設閾值T1 時,由於代表有一特定影像事件發生,所以我們需要進一步釐清該特定影像事件究竟是必須要發出警報的人為篡改事件,或者是其他可能導致假警報的事件(例如照明變化事件、物體或人群進入事件等),因此,需要在第二階段更詳細地針對整張影像進行「結構分析」。在本發明之實施例之影像量化步驟,如第四(a)圖所示,首先,以索貝爾運算子和大津法,再次取樣並計算該影像異常事件發生前後之二影像之二值化邊緣點強度。然後,如第四(b)圖所示,將該二影像各分割成由複數個邊緣區塊所構成之二結構影像,其中該二結構影像係各具有由一特定像素(在本實施例為20X20)組成的複數個重疊區塊,且相鄰的重疊區塊有複數個像素(在本實施例為5)重疊,將該些重疊區塊中一邊緣像素數(邊緣點數)超過一預設邊緣點閾值的一重疊區塊設定為一邊緣區塊。又,如第五(a)圖所示,因邊緣易被忽略,該兩區塊可能不會被認定是邊緣區塊,因此需要有如第五(b)圖的重疊區塊做為輔助,則邊緣不易被忽略。換句話說,是在每個區塊計算邊緣點,如果邊緣點高於閾值,則此塊是認為是邊緣區塊,即S(X,Y)等於1。否則,它是一個非邊緣塊,即S(X,Y)等於0。S(X,Y)是量化的結構影像。因此量化後的結構影像是將影像劃分成複數個邊緣區塊而成之影像。至此完成影像量化500步驟,然後針對結構影像中的邊緣區塊進行結構匹配600。在本發明之實施例中,影像量化500步驟之所以要用重疊區塊,是因為非重疊塊有缺陷存在,當邊緣點(邊緣像素)在兩區塊的中心邊界時,不會有足夠的邊緣點在兩個區塊,導致判讀時,兩區塊都不會被認定是邊緣區塊,如此必然會提高誤判機率。
在結構匹配600步驟中,計算該二結構影像之該些邊緣區塊之一一致比例,當該一致比例低於預設之一匹配閾值時,則發出一警報700。在結構匹配600步驟中,可以整塊影像來計算該二結構影像之一致性(此方式稱為全域匹配)。本發明以下列全域匹配(Global Matching)之公式來計算兩結構的一致性,如下:
其中So和Sc分別是原始影像的結構影像與在事件發生後(例如照明光線變化)的結構影像。如果結構一致性高於閾值,照明變化被視為發生。又,也可以將該二結構影像再切成複數個區塊,以上述公式計算每個區塊中邊緣區塊的結構一致比例,然後選取60%最一致的區塊,將這些區塊的一致比例算出平均,以代表整塊影像的結構一致程度(此方式稱為區塊匹配,Block-Based Matching)。當一致性越高,代表該二結構影像的結構匹配,則視為例如開關燈事件發生,則不會發出警報,回到步驟400繼續分析邊緣一致性。
在步驟700中會發出一警報,該警報更可經由網路傳遞至例如指揮中心或其他終端裝置,以便即時應對可能發生的犯罪行為。
本發明可應用於視訊監控裝置或系統,例如數位視訊錄影機(Digital Video Recorder,DVR)、網路影像錄影機(Network Video Recorders)、影像伺服器(Video Server)、以及智慧型攝影機(Smart Camera)等。
本發明實屬難能的創新發明,深具產業價值,援依法提出申請。此外,本發明可以由本領域技術人員做任何修改,但不脫離如所附申請專利範圍所要保護的範圍。
100...持續錄影
200...特徵點取樣
300...背景構形
400...分析邊緣一致性
410...分析非背景比例
420...分析不穩定點比例
500...影像量化
600...結構匹配
700...發出警報
第一圖:本發明之實施例之視訊監控方法之流程圖。
第二圖:(a)以大津法獲得的二值化邊緣影像;(b)以投票法獲得相對穩定的邊緣影像。
第三圖:(a)依權重分配取樣點至各區塊的示意圖;(b)可分配額外取樣點至其他區塊之示意圖。
第四圖:(a)背景的二值邊緣影像;(b)將第四(a)圖量子化(quantization)的結構影像。
第五圖:(a)非重疊區塊示意圖;(b)重疊區塊示意圖。
100...持續錄影
200...特徵點取樣
300...背景構形
400...分析邊緣一致性
410...分析非背景比例
420...分析不穩定點比例
500...影像量化
600...結構匹配
700...發出警報

Claims (9)

  1. 一種視訊監控方法,包括:從一影像獲得一第一邊緣點,將該第一邊緣點二值化以決定一第二邊緣點;計算該第二邊緣點之一亂度與一亂度閾值;根據該亂度閾值過濾該第二邊緣點中亂度高之邊緣點,以獲得一第三邊緣點,經由對該第三邊緣點取樣來構成一背景影像;根據該背景影像比對一新取樣邊緣點,以獲得一非背景比例;以及當該非背景比例大於預設之一第一閾值時,將一特定影像事件發生前後之二影像,各分割成由複數個邊緣區塊所構成之二結構影像,並計算該二結構影像之該些邊緣區塊之一一致比例,當該一致比例低於之一預設匹配閾值時,則發出一警報。
  2. 如申請專利範圍第1項所述之視訊監控方法,其中該影像係持續一特定時間之一序列影像中之複數個影像,該第二邊緣點是以統計方式決定。
  3. 如申請專利範圍第1項所述之視訊監控方法,更包括:以一邊緣強度偵測運算子來獲得該第一邊緣點;以二值化方式,處理該第一邊緣點強度並計算該亂度閾值;以一適應性演算模型從該第三邊緣點經由取樣一特定數量的點來建構成該背景影像;以及該二結構影像各具有由一特定像素組成的複數個重疊區塊,且相鄰的重疊區塊有複數個像素重疊,將該些重疊區塊中一邊緣像素數超過一閾值的該些重疊區塊設定為一邊緣區塊。
  4. 如申請專利範圍第1項所述之視訊監控方法,更包括:當該非背景比例小於該第一預設閾值時,則根據該亂度閾值,獲得一不穩定邊緣點比例;當該不穩定邊緣點比例大於一第二預設閾值時,則留下穩定邊緣點,並重新取樣一新邊緣點來取代該不穩定邊緣點;以及當該不穩定邊緣點比例小於該第二預設閾值時或當該一致比例高於該匹配閾值時,則仍採用該非背景比例。
  5. 如申請專利範圍第1項所述之視訊監控方法,更包括:劃分該影像為複數個取樣區塊,該些取樣區塊中之每一取樣區塊分配一特定數量之取樣點,並根據每一取樣區塊中之一穩定邊緣點比例,分配一額外數量之取樣點至穩定點較多之區塊。
  6. 一種視訊監控方法,包括:從一序列影像中篩選一穩定邊緣點,以該穩定邊緣點建構一背景影像;比對該背景影像之該穩定邊緣點與一新影像之一新取樣邊緣點,以獲得一非背景比例;當該非背景比例大於一第一預設閾值時,將一特定影像事件發生前後之二影像,各分割成由複數個邊緣區塊所構成之二結構影像,並計算該二結構影像之該些邊緣區塊之一一致比例;以及當該一致比例低於一預設匹配閾值時,則發出一警報。
  7. 如申請專利範圍第6項所述之視訊監控方法,更包括:以一邊緣強度偵測運算子來獲得一第一邊緣點;將該第一邊緣點強度以二值化方式處理,並以統計方法決定一第二邊緣點;以該二值化方式計算該第二邊緣點之一亂度閾值;根據該亂度閾值過濾該第二邊緣點中亂度高之邊緣點,獲得該穩定邊緣點;以一適應性演算模型從該穩定邊緣點經由取樣一特定數量點來建構成該背景影像;以及該二結構影像各具有由一特定像素組成的複數個重疊區塊,且相鄰的重疊區塊有複數個像素重疊,將該些重疊區塊中一邊緣像素數超過一閾值的該些重疊區塊設定為一邊緣區塊。
  8. 如申請專利範圍第6項所述之視訊監控方法,更包括:當該非背景比例小於該第一預設閾值時,則根據該亂度閾值,獲得一不穩定邊緣點比例;當該不穩定邊緣點比例大於預設之一第二預設閾值時,則留下穩定邊緣點,並重新取樣一新邊緣點來取代不穩定邊緣點;以及當該不穩定邊緣點比例小於該第二預設閾值時或當該一致比例高於該預設匹配閾值時,則仍採用該非背景比例。
  9. 如申請專利範圍第6項所述之視訊監控方法,更包括:劃分該序列影像為複數個取樣區塊,該些取樣區塊中之每一取樣區塊分配一特定數量之取樣點,並根據每一取樣區塊中之一穩定邊緣點比例,分配一額外數量之取樣點至穩定點較多之區塊。
TW100144262A 2011-12-01 2011-12-01 視訊監控方法 TWI448992B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
TW100144262A TWI448992B (zh) 2011-12-01 2011-12-01 視訊監控方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
TW100144262A TWI448992B (zh) 2011-12-01 2011-12-01 視訊監控方法

Publications (2)

Publication Number Publication Date
TW201324443A TW201324443A (zh) 2013-06-16
TWI448992B true TWI448992B (zh) 2014-08-11

Family

ID=49033057

Family Applications (1)

Application Number Title Priority Date Filing Date
TW100144262A TWI448992B (zh) 2011-12-01 2011-12-01 視訊監控方法

Country Status (1)

Country Link
TW (1) TWI448992B (zh)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
TWI599222B (zh) * 2016-07-19 2017-09-11 Chunghwa Telecom Co Ltd Photographic device anomaly detection method

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP1672604A1 (de) * 2004-12-16 2006-06-21 Siemens Schweiz AG Verfahren und Einrichtung zur Detektion von Sabotage an einer Überwachungskamera
TW200830223A (en) * 2006-12-20 2008-07-16 Axis Aktiebolag Camera tampering detection
US20110064315A1 (en) * 2009-09-15 2011-03-17 Texas Instruments Incorporated Method and apparatus for image capturing tampering detection

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP1672604A1 (de) * 2004-12-16 2006-06-21 Siemens Schweiz AG Verfahren und Einrichtung zur Detektion von Sabotage an einer Überwachungskamera
TW200830223A (en) * 2006-12-20 2008-07-16 Axis Aktiebolag Camera tampering detection
US20110064315A1 (en) * 2009-09-15 2011-03-17 Texas Instruments Incorporated Method and apparatus for image capturing tampering detection

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
EP. Gil-Jiménez, R. López-Sastre, P. Siegmann, J. Acevedo-Rodríguez, S. Maldonado-Bascón, "Automatic Control of Video Surveillance Camera Sabotage", Nature Inspired Problem-Solving Methods in Knowledge Engineering Lecture Notes in Computer Science Volume 4528, 2007, pp 222-231. *
Harasse, S. , LIS, St. Martin d''Heres, France, Bonnaud, L. , Caplier, A. ; Desvignes, M. "Automated camera dysfunctions detection", 6th IEEE Southwest Symposium on Image Analysis and Interpretation, pp. 36 - 40, 2004. *

Also Published As

Publication number Publication date
TW201324443A (zh) 2013-06-16

Similar Documents

Publication Publication Date Title
US9390333B2 (en) System and method for robust motion detection
US10657783B2 (en) Video surveillance method based on object detection and system thereof
AU2011349259B2 (en) Stopped object detection
US7868772B2 (en) Flame detecting method and device
US20200175692A9 (en) Low-complexity motion detection based on image edges
WO2009049314A2 (en) Video processing system employing behavior subtraction between reference and observed video image sequences
CN108376246A (zh) 一种多人脸识别及跟踪系统及方法
JP2010204860A (ja) 映像監視システム
CN111582166B (zh) 基于高斯建模和YoLo V3目标检测的遗留物检测方法
Tao et al. A three-stage framework for smoky vehicle detection in traffic surveillance videos
Lin et al. Real-time active tampering detection of surveillance camera and implementation on digital signal processor
CN113947744A (zh) 基于视频的火灾图像检测方法、系统、设备及存储介质
CN109583396A (zh) 一种基于cnn两阶段人体检测的区域防范方法、系统以及终端
TK et al. An experiment analysis on tracking and detecting the vehicle speed using machine learning and iot
TWI448992B (zh) 視訊監控方法
KR20040018586A (ko) 얼굴특징을 이용한 움직임 검출장치 및 이를 적용한감시시스템
Lin et al. Airborne moving vehicle detection for urban traffic surveillance
US10194072B2 (en) Method and apparatus for remote detection of focus hunt
WO2014038924A2 (en) A method for producing a background model
TWI706381B (zh) 影像物件偵測方法及系統
Vujović et al. Traffic video surveillance in different weather conditions
Zhao et al. Research on vehicle detection and vehicle type recognition under cloud computer vision
CN111225178A (zh) 基于对象检测的视频监控方法及其系统
Eliazer et al. Smart CCTV camera surveillance system
TWI599222B (zh) Photographic device anomaly detection method