TW201514867A - 光流追蹤方法和裝置 - Google Patents

光流追蹤方法和裝置 Download PDF

Info

Publication number
TW201514867A
TW201514867A TW103126165A TW103126165A TW201514867A TW 201514867 A TW201514867 A TW 201514867A TW 103126165 A TW103126165 A TW 103126165A TW 103126165 A TW103126165 A TW 103126165A TW 201514867 A TW201514867 A TW 201514867A
Authority
TW
Taiwan
Prior art keywords
random structure
image
tracked
optical flow
structural
Prior art date
Application number
TW103126165A
Other languages
English (en)
Other versions
TWI520078B (zh
Inventor
顏國雄
Original Assignee
華為技術有限公司
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 華為技術有限公司 filed Critical 華為技術有限公司
Publication of TW201514867A publication Critical patent/TW201514867A/zh
Application granted granted Critical
Publication of TWI520078B publication Critical patent/TWI520078B/zh

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/246Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
    • G06T7/251Analysis of motion using feature-based methods, e.g. the tracking of corners or segments involving models
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • G06T11/20Drawing from basic elements, e.g. lines or circles
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/269Analysis of motion using gradient-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20016Hierarchical, coarse-to-fine, multiscale or multiresolution image processing; Pyramid transform
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30232Surveillance

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Image Analysis (AREA)
  • Studio Devices (AREA)

Abstract

本發明提供一種光流追蹤方法和裝置,包括:根據影像上的待追蹤物體生成隨機結構,隨機結構包括相對位置固定的至少兩個結構塊,各結構塊中包含待追蹤物體的至少一個特徵點;採用光流追蹤演算法對隨機結構中所有結構塊進行追蹤,以得到隨機結構的位置偏移量;根據隨機結構的位置偏移量,估計待追蹤物體的目標位置。本發明實施例提供的光流追蹤方法和裝置,通過獲取影像上待追蹤物體的特徵點,並將各特徵點生成隨機結構,對各個隨機結構進行追蹤獲得隨機結構的位置偏移,從而估計待追蹤物體的位置,減少了追蹤錯誤,有效提高了追蹤精度。

Description

光流追蹤方法和裝置 【0001】
本發明涉及資訊技術領域,尤其涉及一種光流追蹤方法和裝置。
【0002】
在視頻監控領域,一般通過目標檢測與追蹤技術來檢測和追蹤人臉、行人或車輛的運動,在視訊壓縮、機器人導航領域,也需要對目標的運動資訊進行分析。因此運動分析的應用場景豐富且具有重要價值。運動分析是為了得到物體位置偏移,從而追蹤到物體。目前常使用光流法來進行運動分析,通過光流計算可以確定影像點上的運動方向和運動速率。它要求在相鄰影像之間的時間間隔非常小,並且在兩幅相鄰影像之間不發生顯著的變化。
【0003】
現有技術中,使用光流法追蹤目標,首先要在影像上待追蹤的物體上確定特徵點,然後使用金字塔光流演算法逐個追蹤各特徵點,再使用一定的準則排除追蹤錯誤的特徵點,統計剩餘特徵點的位置偏移量資訊,並對位置偏移量進行計算得到待追蹤物體的目標位置。
【0004】
然而,由於不同的追蹤點很容易具有多義性,從而出現追蹤錯誤,從而導致追蹤精度不夠高。
【0005】
本發明提供一種光流追蹤方法和裝置,用以在不增加運算複雜度的情況下,提高目標追蹤的精度和即時性。
【0006】
第一方面,本發明實施例提供一種光流追蹤方法,包括:根據影像上的待追蹤物體生成隨機結構,所述隨機結構包括相對位置固定的至少兩個結構塊,各所述結構塊中包含所述待追蹤物體的至少一個特徵點;採用光流追蹤演算法對所述隨機結構中所有結構塊進行追蹤,以得到所述隨機結構的位置偏移量;根據所述隨機結構的位置偏移量,估計所述待追蹤物體的目標位置。
【0007】
在第一方面的第一種可能的實現方式中,所述根據影像上的待追蹤物體生成隨機結構,具體包括:根據所述待追蹤物體在所述影像中的起始位置和大小,生成所述待追蹤物體所在的所述影像的梯度圖像;掃描所述梯度圖像得到所述梯度圖像的梯度長條圖,根據所述梯度長條圖,確定平均梯度大於第一設定值的特徵點;確定所述隨機結構包括的所述結構塊的數目,在平均梯度大於第一設定值的特徵點中選擇至少一個特徵點;根據所選擇的特徵點在所述影像中的位置,所述結構塊的數目,設定結構塊之間的距離範圍,確定所述隨機結構中所有結構塊對應的特徵點;根據所述隨機結構中所有結構塊對應的特徵點生成所述隨機結構。
【0008】
根據第一方面的第一種可能的實現方式,在第二種可能的實現方式中,所述採用光流追蹤演算法對所述隨機結構中所有結構塊進行追蹤,以得到所述隨機結構的位置偏移量,具體包括:
【0009】
採用光流追蹤演算法
 
,確定所述隨機結構中所有結構塊的位移殘差之和,所述隨機結構中所有結構塊的位移殘差之和作為所述隨機結構的位置偏移量;
【0010】
其中:ε(d)為所述隨機結構中所有結構塊的位移殘差之和,d為所述結構塊的位移,dx 為所述結構塊在x方向的位移,dy 為所述結構塊在y方向的位移,dx為所述隨機結構中包括的特徵點在x方向的位移,dy為所述隨機結構中包括的特徵點在y方向的位移,x為所述隨機結構中包括的特徵點在所述影像中的起始位置的橫坐標,y為所述隨機結構中包括的特徵點在所述影像中的起始位置的縱坐標,Ix (x,y)為所述隨機結構中包括的特徵點在所述影像中的起始位置;Jn (x+dx,y+dy)為所述隨機結構中包括的特徵點在所述影像中的目標位置,px 為所述隨機結構中所述結構塊的中點的橫坐標,py 為所述隨機結構中所述結構塊的中點的縱坐標,wx 為所述結構塊的橫坐標中點距所述結構塊邊緣距離的點數,wy 為所述結構塊的縱坐標中點距所述結構塊邊緣距離的點數,N為所述隨機結構中所述結構塊的數目。
【0011】
根據第一方面、第一方面的第一種和第二種可能的實現方式的任意一種,在第三種可能的實現方式中,所述根據影像上的待追蹤物體生成隨機結構之後,還包括:濾除所述隨機結構中所有結構塊中包括的誤差超過第二設定值的第一誤差特徵點,得到一次濾除誤差後的隨機結構;所述採用光流追蹤演算法對所述隨機結構中所有結構塊進行追蹤,具體包括:所述採用光流追蹤演算法對一次濾除誤差後的隨機結構中所有結構塊進行追蹤。
【0012】
根據第一方面的第三種可能的實現方式,在第四種可能的實現方式中,所述濾除所述隨機結構中所有結構塊中包括的誤差超過第二設定值的第一誤差特徵點,得到一次濾除誤差後的隨機結構之後,還包括:採用歸一化相關係數NCC方法,在所述一次濾除誤差後的隨機結構中所有結構塊中包括的特徵點中濾除第二誤差特徵點,得到二次濾除誤差後的隨機結構;
【0013】
所述採用光流追蹤演算法對所述隨機結構中所有結構塊進行追蹤,具體包括:所述採用光流追蹤演算法對所述二次濾除誤差後的隨機結構中所有結構塊進行追蹤。
【0014】
根據第一方面的第四種可能的實現方式,在第五種可能的實現方式中,所述根據所述隨機結構的位置偏移量,估計所述待追蹤物體的目標位置,具體包括:將所述隨機結構的位置偏移量的平均值或中間值,確定為所述待追蹤物體的位置偏移量;將所述待追蹤物體的位置偏移量與所述待追蹤物體的起始位置相加,得到所述待追蹤物體的目標位置。
【0015】
第二方面,本發明實施例提供一種光流追蹤裝置,包括:隨機結構生成模組,用於根據影像上的待追蹤物體生成隨機結構,所述隨機結構包括相對位置固定的至少兩個結構塊,各所述結構塊中包含所述待追蹤物體的至少一個特徵點;光流追蹤模組,用於採用光流追蹤演算法對所述隨機結構中所有結構塊進行追蹤,以得到所述隨機結構的位置偏移量;位置估計模組,用於根據所述隨機結構的位置偏移量,估計所述待追蹤物體的目標位置。
【0016】
在第二方面的第一種可能的實現方式中,所述隨機結構生成模組具體用於:根據所述待追蹤物體在所述影像中的起始位置和大小,生成所述待追蹤物體所在的所述影像的梯度圖像;掃描所述梯度圖像得到所述梯度圖像的梯度長條圖,根據所述梯度長條圖,確定平均梯度大於第一設定值的特徵點;確定所述隨機結構包括的所述結構塊的數目,在平均梯度大於第一設定值的特徵點中選擇至少一個特徵點;根據所選擇的特徵點在所述影像中的位置,所述結構塊的數目,設定結構塊之間的距離範圍,確定所述隨機結構中所有結構塊對應的特徵點;根據所述隨機結構中所有結構塊對應的特徵點生成所述隨機結構。
【0017】
根據第二方面的第一種可能的實現方式,在第二種可能的實現方式中,所述光流追蹤模組具體用於:採用光流追蹤演算法

,確定所述隨機結構中所有結構塊的位移殘差之和,所述隨機結構中所有結構塊的位移殘差之和作為所述隨機結構的位置偏移量;
【0018】
其中:ε(d)為所述隨機結構中所有結構塊的位移殘差之和,d為所述結構塊的位移,dx 為所述結構塊在x方向的位移,dy 為所述結構塊在y方向的位移,dx為所述隨機結構中包括的特徵點在x方向的位移,dy為所述隨機結構中包括的特徵點在y方向的位移,x為所述隨機結構中包括的特徵點在所述影像中的起始位置的橫坐標,y為所述隨機結構中包括的特徵點在所述影像中的起始位置的縱坐標,In (x,y)為所述隨機結構中包括的特徵點在所述影像中的起始位置;Jn (x+dx,y+dy)為所述隨機結構中包括的特徵點在所述影像中的目標位置,px 為所述隨機結構中所述結構塊的中點的橫坐標,py 為所述隨機結構中所述結構塊的中點的縱坐標,wx 為所述結構塊的橫坐標中點距所述結構塊邊緣距離的點數,wy 為所述結構塊的縱坐標中點距所述結構塊邊緣距離的點數,N為所述隨機結構中所述結構塊的數目。
【0019】
根據第二方面、第二方面的第一種和第二種可能的實現方式的任意一種,在第三種可能的實現方式中,所述裝置還包括:誤差濾除模組,用於濾除所述隨機結構中所有結構塊中包括的誤差超過第三設定值的第一誤差特徵點,得到一次濾除誤差後的隨機結構;所述光流追蹤模組具體用於:採用光流追蹤演算法對所述一次濾除誤差後的隨機結構中所有結構塊進行追蹤。
【0020】
根據第二方面的第三種可能的實現方式,在第四種可能的實現方式中,所述誤差濾除模組還用於:採用歸一化相關系統NCC方法,在所述一次濾除誤差後的隨機結構中所有結構塊中包括的特徵點中濾除第二誤差特徵點,得到二次濾除誤差後的隨機結構;所述光流追蹤模組具體用於:採用光流追蹤演算法對二次濾除誤差後的隨機結構中所有結構塊進行追蹤。
【0021】
根據第二方面的第四種可能的實現方式,在第五種可能的實現方式中,所述位置估計模組具體用於:將所述隨機結構的位置偏移量的平均值或中間值,確定為所述待追蹤物體的位置偏移量;將所述待追蹤物體的位置偏移量與所述待追蹤物體的起始位置相加,得到所述待追蹤物體的目標位置。
【0022】
本發明實施例提供的光流追蹤方法和裝置,通過獲取影像上待追蹤物體的特徵點,並將各特徵點生成隨機結構,對各隨機結構進行追蹤獲得隨機結構的位置偏移,從而估計待追蹤物體的位置,相比於現有技術中逐個追蹤特徵點的方式,本發明實施例的追蹤方法通過結構約束,減少了追蹤錯誤,有效提高了追蹤精度。
【0091】
401‧‧‧隨機結構生成模組
402‧‧‧光流追蹤模組
403‧‧‧位置估計模組
404‧‧‧誤差濾除模組
601‧‧‧記憶體
602‧‧‧處理器
101~103‧‧‧流程
201~208‧‧‧流程
【0023】
為了更清楚地說明本發明實施例或現有技術中的技術方案,下面將對實施例或現有技術描述中所需要使用的附圖做一簡單地介紹,顯而易見地,下面描述中的附圖是本發明的一些實施例,對於所屬技術領域具有通常知識者來講,在不付出進步性勞動的前提下,還可以根據這些附圖獲得其他的附圖。
第1圖為本發明實施例一提供的光流追蹤方法的流程圖;
第2圖為本發明實施例二提供的光流追蹤方法的流程圖;
第3圖為本發明實施例二生成的可能的隨機結構示意圖;
第4圖為本發明實施例三提供的光流追蹤裝置的結構示意圖;
第5圖為本發明實施例四提供的光流追蹤裝置的結構示意圖;
第6圖為本發明實施例五提供的光流追蹤裝置的結構示意圖。
【0024】
為使本發明實施例的目的、技術方案和優點更加清楚,下面將結合本發明實施例中的附圖,對本發明實施例中的技術方案進行清楚、完整地描述,顯然,所描述的實施例是本發明一部分實施例,而不是全部的實施例。基於本發明中的實施例,所屬技術領域具有通常知識者在沒有做出進步性勞動前提下所獲得的所有其他實施例,都屬於本發明保護的範圍。
【0025】
第1圖為本發明實施例一提供的光流追蹤方法的流程圖。本實施例的方法適用於視頻監控領域、機器人導航等各個涉及到影像中物體追蹤的領域。以下步驟的執行主體可以為具備影像處理功能的設備,例如:電腦,PAD,手機等。如第1圖所示,本實施例的方法可以包括如下步驟:
【0026】
101:根據影像上的待追蹤物體生成隨機結構,所述隨機結構包括相對位置固定的至少兩個結構塊,各所述結構塊中包含待追蹤物體的至少一個特徵點。
【0027】
其中,各影像都可以劃分為複數個局部區域區塊,特徵點則是對影像的各局部區域區塊的描述,具體包括局部區域區塊的位置描述與局部區域區塊的特定特徵的描述。位置描述可以用局部區域中各特徵點的座標表示,局部區域區塊的特定特徵的描述可以包括影像局部區域區塊的顏色特徵、紋理特徵、空間關係特徵等特徵中的一種或多種,本發明在此不作特別限制。各隨機結構中可以包括至少兩個結構塊,且各結構塊中包含至少一個待追蹤物體的特徵點。其中,各隨機結構中的結構塊的選擇是隨機的,可以在某一個具體的距離範圍內,選擇某幾個結構塊作為一個隨機結構,隨機結構的形狀也是隨意的,並無特定的要求。各結構塊所包含的特徵點並不限於一個,也可以包括相距較近的某幾個特徵點。
【0028】
102:採用光流追蹤演算法對所述隨機結構中所有結構塊進行追蹤,以得到所述隨機結構的位置偏移量。
【0029】
在本步驟中,對隨機結構中所有結構塊進行光流追蹤具體可以為,將每一個隨機結構作為一個整體,利用光流追蹤法,對隨機結構中的複數個結構塊同時進行追蹤,以此來獲得各隨機結構的位置偏移量。複數個結構塊的同時追蹤,可有效避免單個特徵點追蹤時出現的多義性,減少追蹤錯誤。
【0030】
具體地,在進行光流追蹤時,可以使用金字塔光流追蹤演算法,從影像最高層開始,對每一層進行反覆運算計算,獲得最終的位置偏移量。其中,金字塔光流追蹤演算法的基本思想如下:首先構造影像金字塔;然後,令位置偏移量的初始值為零,並從金字塔的最高層開始對位置偏移量進行估計,一致反覆運算到最底層,最終的反覆運算結果即為隨機結構的位置偏移量。
【0031】
具體的影像的金字塔構造過程如下:原圖形作為金字塔的底層,可記為F=0,將原始影像減採樣至原尺寸的1/22N 獲得F=1層影像,其中,N一般取值為1,若過大則會導致影像資訊的嚴重丟失。由此,該F=1層相鄰幀間的目標圖元運動距離變為D/2N ,其中,D為原圖中相鄰幀間的目標圖元運動的距離,亦即特徵點的位移。按照此規則,當F達到一定的值,一般為 時,最高層相鄰幀間的目標運動尺度變為亞圖元級。由此可以滿足光流追蹤演算法在應用時需要的小運動的約束條件,進行精確的光流估計。
【0032】
103:根據隨機結構的位置偏移量,估計待追蹤物體的目標位置。
【0033】
需要說明的是,本發明中涉及的待追蹤物體在影像中的起始位置是指,在進行影像追蹤之前,即待追蹤物體在影像中的位置未變化之前待追蹤物體在影像中所在的位置,目標位置是指影像追蹤之後,即待追蹤物體在影像中的位置變化之後待追蹤物體在影像中所在的位置。目標位置和起始位置之間的差值即為位置偏移量,也就是說,待追蹤物體在影像追蹤過程中所產生的位移即為位置偏移量。一般來說,在影像追蹤可以以幀為單位,即可以對後一幀影像中待追蹤物體相對前一幀影像待追蹤物體的位置變化進行追蹤,在本發明實施例中,起始位置、目標位置均可以用座標值表示,也可用向量、向量等其它表示方式,本發明不做特別限定。
【0034】
根據所獲得的各個隨機結構的位置偏移量,進行相關的計算,如求所有位置偏移量的平均值或取所有隨機結構的位置偏移量的中值,得到追蹤目標物體的位置偏移量。然後,可以將該位置偏移量與所追蹤物體在原始影像中的位置相加,得到所追蹤物體的目標位置。
【0035】
本發明實施例提供的光流追蹤方法,通過獲取影像上待追蹤物體的特徵點,並將各特徵點生成隨機結構,對各隨機結構進行追蹤獲得隨機結構的位置偏移,從而估計待追蹤物體的位置,相比於現有技術中逐一追蹤特徵點的方式,本發明實施例的追蹤方法通過結構約束,減少了追蹤錯誤,有效提高了追蹤精度。
【0036】
第2圖為本發明實施例二提供的光流追蹤方法的流程圖。本實施例的方法適用於視頻監控領域、機器人導航等各個涉及到影像中物體追蹤的領域。結合第1圖和第2圖所示,在上述實施例一的基礎上,在本發明實施例提供了光流追蹤方法的具體過程:
【0037】
201:根據待追蹤物體在影像中的起始位置和大小,生成待追蹤物體所在影像的梯度圖像。
【0038】
具體地,在視頻監控等領域,要對目標物體進行追蹤的時候,首先需要獲得待追蹤物體在影像中的起始位置和大小,以使得在追蹤的時候能盡可能正確地追蹤到目標物體,減少錯誤追蹤。在獲得待追蹤物體在影像中的起始位置和大小後,可以對影像進行一些計算,生成待追蹤物體所在影像的梯度圖像。其中,梯度值是指影像灰度值的顯著變化的地方,若把影像看成二維離散函數,則圖像梯度就是對這個二維離散函數的求導。因此,梯度圖像指的是就是對影像求梯度值後得到的影像。梯度圖像能夠很好地反映影像中物體的特徵。具體在生成梯度圖像的時候,可以直接對影像進行二維函數的求導,或者採用線性濾波方法中的幾種經典的估計方法,如Sobel運算元、Prewitt運算元、Roberts運算元等方法。以Sobel運算元為例,它是提供了兩組3*3矩陣,分別計算水準梯度圖像和豎直梯度圖像,並將得到的水準梯度圖像和豎直梯度圖像進行卷積,進而獲得梯度圖像的。
【0039】
在生成的待追蹤物體所在影像的梯度圖像後,可選擇在梯度圖像中待追蹤物體區域中梯度幅值大於一定設定值的點作為待追蹤物體的特徵點,且這些特徵點能夠很好地體現待追蹤物體的特徵。具體可以通過對影像生成梯度圖像,並掃描獲得目的地區域梯度幅值大的點集,將這些點集作為特徵點;或者也可以利用一些傳統的特徵提取演算法,如Sobel運算元、Roberts運算元等來對影像進行邊緣檢測,將所檢測到的邊緣特徵點作為待追蹤物體的特徵點。其中,該設定值可以根據具體的梯度圖像來設定,不同的梯度圖像可能會有不同的設定值,而設定值大小設定的依據則是大於設定值的點能夠較好地反映待追蹤物體的特徵。具體的設定,可以的根據先驗知識獲得,或者也可以在梯度值的可能的範圍內預估一個值,如可以選擇所有梯度值的中間值以作為設定值。
【0040】
202:掃描梯度圖像得到梯度圖像的梯度長條圖,根據梯度長條圖,確定平均梯度大於第一設定值的特徵點。
【0041】
具體地,對生成的梯度圖像可以進行掃描,比如可以採用3*3模版等掃描梯度圖像,得到該影像的梯度長條圖,並確定記錄該梯度長條圖中平均梯度大於第一設定值的待追蹤物體的特徵點。其中,3*3範本為一預處理範本,該範本可以用於計算影像中各個局部區域的最大梯度或者平均梯度,從而統計出梯度圖像中各圖元的梯度長條圖。平均梯度指影像的邊界或影線兩側附近灰度差異的大小,即灰度變化率的大小,平均梯度又稱為清晰度,它可以描述影像的清晰程度,反映影像中微小細節反差程度和紋理變化特徵,一般平均梯度值越大,表明影像越清晰。例如,平均梯度可以指,某一個圖元點與其相鄰圖元點之間梯度的平均值,如水準梯度中,某一圖元與其左側圖元的梯度和該圖元與其右側圖元的梯度的平均值。需要說明的是,第一設定值低於上述確定待追蹤物體特徵點中涉及的設定值,即提取到的所有的待追蹤影像的特徵點的位置都是確定被記錄的,所有的梯度長條圖中平均梯度大於第一設定值的位置會被記錄,並保存在梯度陣列中。
【0042】
203:選擇隨機結構包括的結構塊的數目,在平均梯度大於第一設定值的特徵點中選擇至少一個特徵點。
【0043】
可以在特徵點中提取隨機結構,使得後續的追蹤可以以隨機結構為單位來進行追蹤,減小對單個特徵點進行追蹤時出現的多義性。具體地,結構塊的數目可以隨機選擇。結構塊之間的距離,以及各結構塊的大小的範圍可以根據具體需求預先設定,如可以限制隨機結構中各結構塊的大小為範圍[3*3,12*12],結構塊的數目範圍為(1,4),結構塊之間的距離範圍為(1,target size)等,並在平均梯度大於第一設定值的特徵點中選擇任意至少一個特徵點。一般情況下,可以在平均梯度大於第一設定值的特徵點中選擇一個特徵點。
【0044】
204:根據所選擇的特徵點在影像中的位置,結構塊的數目,設定結構塊之間的距離範圍,確定隨機結構中所有結構塊對應的特徵點。
【0045】
具體地,根據所選擇的結構塊的數目、結構塊之間的距離範圍和相關位置等,確定隨機結構中所有結構塊對應的特徵點,並到梯度陣列中查找到這些特徵點所對應的位置。
【0046】
205:根據隨機結構中所有結構塊對應的特徵點生成隨機結構。
【0047】
具體地,根據上述步驟中所獲得的結構塊對應的特徵點生成隨機結構,以各個隨機結構為單元,可以實現對目標物體的追蹤。第3圖為本發明實施例二生成的可能的隨機結構示意圖。如第3圖可示,本實施例生成的隨機結構,結構塊的大小、結構塊的數目以及各結構塊之間的距離並沒有一定的限制,只要符合預先設置的範圍就可以。
【0048】
進一步地,具體的:
【0049】
206:採用光流追蹤演算法
,(1)
【0050】
確定所述隨機結構中所有結構塊的位移殘差之和,所述隨機結構中所有結構塊的位移殘差之和作為所述隨機結構的位置偏移量。
【0051】
其中:ε(d)為所述隨機結構中所有結構塊的位移殘差之和,d為結構塊的位移,dx 為結構塊在x方向的位移,dy 為結構塊在y方向的位移,dx為隨機結構中包括的特徵點在x方向的位移,dy為隨機結構中包括的特徵點在y方向的位移,x為所述隨機結構中包括的特徵點在所述影像中的起始位置的橫坐標,y為所述隨機結構中包括的特徵點在所述影像中的起始位置的縱坐標,In (x,y)為所述隨機結構中包括的特徵點在所述影像中的起始位置;Jn (x+dx,y+dy)為所述隨機結構中包括的特徵點在所述影像中的目標位置,px 為隨機結構中結構塊的中點的橫坐標,py 為隨機結構中結構塊的中點的縱坐標,wx 為結構塊的橫坐標中點距結構塊邊緣距離的點數,wy 為結構塊的縱坐標中點距結構塊邊緣距離的點數,N為隨機結構中結構塊的數目。
【0052】
具體地,在對步驟206中所獲取到的隨機結構進行追蹤,是以隨機結構為單位,分別對每一個隨機結構進行金字塔光流追蹤。具體地,使用金字塔光流追蹤演算法對每一個隨機結構進行追蹤時,可以依據公式(1),來對金字塔的每一層來從最高層向最底層來反覆運算,最終獲得各隨機結構的位移。在具體在計算中,需要使得ε(d)最小,即就要求得最小的d。設d= 然後,可以令公式(1)為零,即
(2)
【0053】
然後求使得該公式(2)成立的位移的值。具體地,對該公式(2)求導數,可得到:
(3)
【0054】
其中,G和 分別為
【0055】
Inx 和Iny 分別為第n個結構塊中某個特徵點的x方向梯度和y方向梯度,δIn 代表結構塊中的某個特徵點在原始影像和待追蹤影像中的位移,px 為隨機結構中結構塊的中點的橫坐標,py 為隨機結構中結構塊的中點的縱坐標,wx 為結構塊的橫坐標中點距結構塊邊緣距離的點數,wy 為結構塊的縱坐標中點距結構塊邊緣距離的點數,N為隨機結構中結構塊的數目,且。
【0056】
進一步計算,得求得:
(4)
【0057】
上述的實施例中,通過根據待追蹤物體生成各種隨機結構,利用金字塔光流追蹤演算法,以各隨機結構為單位,對待追蹤物體進行追蹤,避免了追蹤過程中的多義性,有效提高了追蹤的精度。
【0058】
需要說明的是,在上述實施例的基礎上,S205之後還可以執行以下操作:濾除隨機結構中所有結構塊中包括的誤差超過第二設定值的第一誤差特徵點,得到一次濾除誤差後的隨機結構。相應的,S206中可以採用光流追蹤演算法對一次濾除誤差後的隨機結構中所有結構塊進行追蹤。
【0059】
較佳的,根據S206中的描述可以看出,由於在使用金字塔光流追蹤演算法對隨機結構進行追蹤涉及反覆運算過程,因此,可以在反覆運算過程中所出現的誤差進行統計。當某一個隨機結構塊在追蹤過程中出現的誤差大於第二設定值時,則認為該隨機結構塊出現了追蹤錯誤。此時,可以對這個隨機結構中所包括的特徵點進行標記,並不再對包括這些特徵點的隨機結構進行追蹤。在進行金字塔光流追蹤的過程中,不斷對誤差大於第二設定值的隨機結構進行濾除,得到一次濾除誤差後的隨機結構。其中,第二設定值為針對隨機結構追蹤過程中出現的追蹤錯誤所設定的誤差值,可以為針對反覆運算中的收斂狀況設定的值,如為當反覆運算到一定次數後,位移值收斂的數值大於某一個特定的值,則認為出現了追蹤錯誤。此時,該特定的值即為第二設定值。
【0060】
進一步地,在得到一次濾除誤差後的隨機結構的基礎上,還可以執行以下操作:採用歸一化相關係數NCC方法,在一次濾除誤差後的隨機結構中所有結構塊中包括的特徵點中濾除第二誤差特徵點,得到二次濾除誤差後的隨機結構。相應的,在S206中可以採用光流追蹤演算法對二次濾除誤差後的隨機結構中所有結構塊進行追蹤。
【0061】
較佳的,在金字塔光流追蹤演算法計算結束後,可以採用歸一化相關係數(Normalized Correlation Coefficient,簡稱NCC)或其他的錯誤衡量方法,來對獲取到的一次濾除誤差後的隨機結構中所有結構塊中包括的特徵點中存在的較大誤差的特徵點進行濾除,如可以根據特徵點的顏色、亮度等特徵來確定錯誤的追蹤點並進行濾除,也即濾除第二誤差特徵點,來得到二次濾除誤差後的隨機結構。其中,NCC方法具體可以是分別對每組結構塊計算NCC相關係數,即面積歸一化後的誤差係數。計算得到所有的NCC相關係數後,基於統計分析,例如求平均值的方法,濾除誤差大於平均值一個NCC係數對應的結構塊。
【0062】
207:將隨機結構的位置偏移量的平均值或中間值,確定為所述待追蹤物體的位置偏移量。
【0063】
208:將所述待追蹤物體的位置偏移量與所述待追蹤物體的起始位置相加,得到所述待追蹤物體的目標位置。
【0064】
具體地,可將隨機結構的位置偏移量進行整合計算,例如可求取這些位置偏移量的平均值或中間值等,並將該平均值或中間值等作為待追蹤物體的位置偏移量。
【0065】
進一步地,在獲得該待追蹤物體的位移後,還可以將待追蹤物體的位置偏移量與待追蹤物體的的起始位置相加,確定為待追蹤物體的目標位置。需要說明的是,這裡的偏移位置量與起始位置均可以用向量或座標表示,兩者的加法運算並不是通常意義上的數位相加,而是向量運算。
【0066】
本發明實施例提供的光流追蹤方法,通過獲取影像上待追蹤物體的特徵點,並將各特徵點生成隨機結構,對各隨機結構進行追蹤獲得隨機結構的位置偏移,從而估計待追蹤物體的位置,將所述待追蹤物體的位置偏移量與所述待追蹤物體的起始位置相加,得到所述待追蹤物體的目標位置。減少了追蹤錯誤,有效提高了追蹤精度。
【0067】
第4圖為本發明實施例三提供的光流追蹤裝置的結構示意圖。如第4圖所示,本發明實施例的光流追蹤裝置包括:
【0068】
隨機結構生成模組401,用於根據影像上的待追蹤物體生成隨機結構,隨機結構包括相對位置固定的至少兩個結構塊,各結構塊中包含待追蹤物體的至少一個特徵點;
【0069】
光流追蹤模組402,用於採用光流追蹤演算法對隨機結構中所有結構塊進行追蹤,以得到隨機結構的位置偏移量;
【0070】
位置估計模組403,用於根據隨機結構的位置偏移量,估計待追蹤物體的目標位置。
【0071】
較佳的,隨機結構生成模組401可以具體用於:根據待追蹤物體在影像中的起始位置和大小,生成待追蹤物體所在的影像的梯度圖像;掃描梯度圖像得到梯度圖像的梯度長條圖,根據梯度長條圖,確定平均梯度大於第一設定值的特徵點;確定隨機結構包括的結構塊的數目,在平均梯度大於第一設定值的特徵點中選擇至少一個特徵點;根據所選擇的特徵點在影像中的位置,結構塊的數目,設定結構塊之間的距離範圍,確定隨機結構中所有結構塊對應的特徵點;根據隨機結構中所有結構塊對應的特徵點生成隨機結構。
【0072】
較佳的,光流追蹤模組402可以具體用於:採用光流追蹤演算法

,確定隨機結構中所有結構塊的位移殘差之和,隨機結構中所有結構塊的位移殘差之和作為隨機結構的位置偏移量;
【0073】
其中:ε(d)為隨機結構中所有結構塊的位移殘差之和,d為結構塊的位移,dx 為結構塊在x方向的位移,dy 為結構塊在y方向的位移,dx為隨機結構中包括的特徵點在x方向的位移,dy為隨機結構中包括的特徵點在y方向的位移,x為隨機結構中包括的特徵點在影像中的起始位置的橫坐標,y為隨機結構中包括的特徵點在影像中的起始位置的縱坐標,In (x,y)為隨機結構中包括的特徵點在影像中的起始位置;Jn (x+dx,y+dy)為隨機結構中包括的特徵點在影像中的目標位置,px 為隨機結構中結構塊的中點的橫坐標,py 為隨機結構中結構塊的中點的縱坐標,wx 為結構塊的橫坐標中點距結構塊邊緣距離的點數,wy 為結構塊的縱坐標中點距結構塊邊緣距離的點數,N為隨機結構中結構塊的數目。
【0074】
第5圖為本發明實施例四提供的光流追蹤裝置的結構示意圖,在第4圖所示實施例的基礎上,較佳的,該裝置還可以包括:誤差濾除模組404,用於濾除隨機結構中所有結構塊中包括的誤差超過第三設定值的第一誤差特徵點,得到一次濾除誤差後的隨機結構;相應的,光流追蹤模組402可以具體用於:採用光流追蹤演算法對所述一次濾除誤差後的隨機結構中所有結構塊進行追蹤。
【0075】
較佳的,誤差濾除模組404還可以用於:採用歸一化相關系統NCC方法,在一次濾除誤差後的隨機結構中所有結構塊中包括的特徵點中濾除第二誤差特徵點,得到二次濾除誤差後的隨機結構;相應的,光流追蹤模組402可以具體用於:採用光流追蹤演算法對二次濾除誤差後的隨機結構中所有結構塊進行追蹤。
【0076】
較佳的,位置估計模組403可以具體用於:將隨機結構的位置偏移量的平均值或中間值,確定為待追蹤物體的位置偏移量;將待追蹤物體的位置偏移量與待追蹤物體的起始位置相加,得到待追蹤物體的目標位置。需要說明的是,這裡的偏移位置量與起始位置均可以用向量或座標表示,兩者的加法運算並不是通常意義上的數位相加,而是向量運算。
【0077】
本實施例的光流追蹤裝置,可以用於執行上述任一方法實施例的技術方案,其包含的功能模組的具體實現原理可參照前述方法實施例,此處不再贅述。
【0078】
本發明實施例提供的光流追蹤裝置,通過獲取影像上待追蹤物體的特徵點,並將各特徵點生成隨機結構,對各隨機結構進行追蹤獲得隨機結構的位置偏移,從而估計待追蹤物體的位置,相比於現有技術中逐個追蹤特徵點的方式,本發明實施例的追蹤方法通過結構約束,減少了追蹤錯誤,有效提高了追蹤精度。
【0079】
第6圖為本發明實施例五提供的光流追蹤裝置的結構示意圖,如第6圖所示,該光流追蹤裝置可以包括:記憶體601以及與記憶體601通信的處理器602,其中,記憶體601中存儲一組程式碼,且處理器602用於調用記憶體中存儲的程式碼,執行如下方法:根據影像上的待追蹤物體生成隨機結構,隨機結構包括相對位置固定的至少兩個結構塊,各結構塊中包含待追蹤物體的至少一個特徵點;採用光流追蹤演算法對隨機結構中所有結構塊進行追蹤,以得到隨機結構的位置偏移量;根據隨機結構的位置偏移量,估計待追蹤物體的目標位置。
【0080】
較佳的,處理器602執行根據影像上的待追蹤物體生成隨機結構,可以具體為:根據待追蹤物體在影像中的起始位置和大小,生成待追蹤物體所在的影像的梯度圖像;掃描梯度圖像得到梯度圖像的梯度長條圖,根據梯度長條圖,確定平均梯度大於第一設定值的特徵點;確定隨機結構包括的結構塊的數目,在平均梯度大於第一設定值的特徵點中選擇至少一個特徵點;根據所選擇的特徵點在影像中的位置,所選擇的結構塊的數目,設定結構塊之間的距離範圍,確定隨機結構中所有結構塊對應的特徵點;根據隨機結構中所有結構塊對應的特徵點生成隨機結構。
【0081】
較佳的,處理器602執行採用光流追蹤演算法對隨機結構中所有結構塊進行追蹤,以得到隨機結構的位置偏移量,可以具體為:採用光流追蹤演算法

,確定隨機結構中所有結構塊的位移殘差之和,隨機結構中所有結構塊的位移殘差之和作為隨機結構的位置偏移量;
【0082】
其中:ε(d)為隨機結構中所有結構塊的位移殘差之和,d為結構塊的位移,dx 為結構塊在x方向的位移,dy 為結構塊在y方向的位移,dx為隨機結構中包括的特徵點在x方向的位移,dy為隨機結構中包括的特徵點在y方向的位移,x為隨機結構中包括的特徵點在影像中的起始位置的橫坐標,y為隨機結構中包括的特徵點在影像中的起始位置的縱坐標,In (x,y)為隨機結構中包括的特徵點在影像中的起始位置;Jn (x+dx,y+dy)為隨機結構中包括的特徵點在影像中的目標位置,px 為隨機結構中結構塊的中點的橫坐標,py 為隨機結構中結構塊的中點的縱坐標,wx 為結構塊的橫坐標中點距結構塊邊緣距離的點數,wy 為結構塊的縱坐標中點距結構塊邊緣距離的點數,N為隨機結構中結構塊的數目。
【0083】
較佳的,處理器602執行根據影像上的待追蹤物體生成隨機結構之後,還可以進一步執行:濾除隨機結構中所有結構塊中包括的誤差超過第二設定值的第一誤差特徵點,得到一次濾除誤差後的隨機結構。
【0084】
相應的,處理器602執行的採用光流追蹤演算法對隨機結構中所有結構塊進行追蹤,具體包括:採用光流追蹤演算法對一次濾除誤差後的隨機結構中所有結構塊進行追蹤。
【0085】
較佳的,處理器602執行濾除隨機結構中所有結構塊中包括的誤差超過第二設定值的第一誤差特徵點,得到一次濾除誤差後的隨機結構之後,還可以進一步執行:採用歸一化相關系統NCC方法,在一次濾除誤差後的隨機結構中所有結構塊中包括的特徵點中濾除第二誤差特徵點,得到二次濾除誤差後的隨機結構。
【0086】
相應的,處理器602執行的採用光流追蹤演算法對隨機結構中所有結構塊進行追蹤,具體包括:採用光流追蹤演算法對二次濾除誤差後的隨機結構中所有結構塊進行追蹤。較佳的,處理器602執行根據隨機結構的位置偏移量,估計待追蹤物體的位置,具體為:將隨機結構的位置偏移量的平均值或中間值,確定為待追蹤物體的位置偏移量;將待追蹤物體的位置偏移量與待追蹤物體的起始位置相加,得到待追蹤物體的目標位置。
【0087】
需要說明的是,本實施例提供的光流追蹤裝置,其具體可以是各種類型的終端設備,例如PC機,PAD,手機等。其中的處理器具體可以是中央處理單元(Central Processing Unit,CPU),圖形處理器(Graphic Processing Unit,GPU)或數位訊號處理器(Digital Signal Processor,DSP)等具有資料處理功能的器件。
【0088】
本實施例的光流追蹤裝置,可以用於執行上述任一方法實施例的技術方案,其實現原理和技術效果類似,此處不再贅述。
【0089】
所屬技術領域具有通常知識者可以理解:實現上述各方法實施例的全部或部分步驟可以通過程式指令相關的硬體來完成。前述的程式可以存儲於一電腦可讀取存儲介質中。該程式在執行時,執行包括上述各方法實施例的步驟;而前述的存儲介質包括:ROM、RAM、磁碟或者光碟等各種可以存儲程式碼的介質。
【0090】
最後應說明的是:以上各實施例僅用以說明本發明的技術方案,而非對其限制;儘管參照前述各實施例對本發明進行了詳細的說明,所屬技術領域具有通常知識者應當理解:其依然可以對前述各實施例所記載的技術方案進行修改,或者對其中部分或者全部技術特徵進行等同替換;而這些修改或者替換,並不使相應技術方案的本質脫離本發明各實施例技術方案的範圍。
國內寄存資訊【請依寄存機構、日期、號碼順序註記】
國外寄存資訊【請依寄存國家、機構、日期、號碼順序註記】
101~103‧‧‧流程

Claims (12)

  1. 【第1項】
    一種光流追蹤方法,其中,包括:
    根據一影像上的一待追蹤物體生成一隨機結構,該隨機結構包括相對位置固定的至少兩個結構塊,各該結構塊中包含該待追蹤物體的至少一個特徵點;
    採用一光流追蹤演算法對該隨機結構中所有該結構塊進行追蹤,以得到該隨機結構的位置偏移量;
    根據該隨機結構的位置偏移量,估計該待追蹤物體的目標位置。
  2. 【第2項】
    如申請專利範圍第1項所述的光流追蹤方法,其中,所述根據該影像上的該待追蹤物體生成該隨機結構,具體包括:
    根據該待追蹤物體在該影像中的起始位置和大小,生成該待追蹤物體所在的該影像的一梯度圖像;
    掃描該梯度圖像得到該梯度圖像的一梯度長條圖,根據該梯度長條圖,確定平均梯度大於第一設定值的特徵點;
    確定該隨機結構包括的該結構塊的數目,在平均梯度大於第一設定值的特徵點中選擇至少一個特徵點;
    根據所選擇的特徵點在該影像中的位置,該結構塊的數目,設定該結構塊之間的距離範圍,確定該隨機結構中所有該結構塊對應的特徵點;
    根據該隨機結構中所有該結構塊對應的特徵點生成該隨機結構。
  3. 【第3項】
    如申請專利範圍第1或2項所述的光流追蹤方法,其中,所述採用該光流追蹤演算法對該隨機結構中所有該結構塊進行追蹤,以得到該隨機結構的位置偏移量,具體包括:
    採用該光流追蹤演算法


    ,確定該隨機結構中所有該結構塊的位移殘差之和,該隨機結構中所有該結構塊的位移殘差之和作為該隨機結構的位置偏移量;
    其中:ε(d)為該隨機結構中所有該結構塊的位移殘差之和d為該隨機塊的位移dx 為該結構塊在x方向的位移,dy 為該結構塊在y方向的位移,dx為該隨機結構中包括的特徵點在x方向的位移,dy為該隨機結構中包括的特徵點在y方向的位移,x為該隨機結構中包括的特徵點在該影像中的起始位置的橫坐標,y為該隨機結構中包括的特徵點在該影像中的起始位置的縱坐標,In(x,y)為該隨機結構中包括的特徵點在該影像中的起始位置;Jn (x+dx,y+dy)為該隨機結構中包括的特徵點在該影像中的目標位置,px 為該隨機結構中該結構塊的中點的橫坐標,py 為該隨機結構中該結構塊的中點的縱坐標,wx 為該結構塊的橫坐標中點距該結構塊邊緣距離的點數,wy 為該結構塊的縱坐標中點距該結構塊邊緣距離的點數,N為該隨機結構中該結構塊的數目。
  4. 【第4項】
    如申請專利範圍第3項所述的光流追蹤方法,其中,所述根據該影像上的該待追蹤物體生成該隨機結構之後,還包括:
    濾除該隨機結構中所有該結構塊中包括的誤差超過第二設定值的第一誤差特徵點;
    所述採用該光流追蹤演算法對該隨機結構中所有該結構塊進行追蹤,具體包括:
    該採用光流追蹤演算法對一次濾除誤差後的該隨機結構中所有該結構塊進行追蹤。
  5. 【第5項】
    如申請專利範圍第4項所述的光流追蹤方法,其中,在濾除該隨機結構中所有該結構塊中包括的誤差超過第二設定值的第一誤差特徵點,得到一次濾除誤差後的 該隨機結構之後,還包括:
    採用歸一化相關系統NCC方法,在一次濾除誤差後的該隨機結構中所有該結構塊中包括的特徵點中濾除第二誤差特徵點,得到二次濾除誤差後的隨機結構;
    所述採用該光流追蹤演算法對該隨機結構中所有該結構塊進行追蹤,具體包括:
    該採用光流追蹤演算法對二次濾除誤差後的該隨機結構中所有該結構塊進行追蹤。
  6. 【第6項】
    如申請專利範圍第1或2項所述的光流追蹤方法,其中,所述根據該隨機結構的位置偏移量,估計該待追蹤物體的位置,包括:
    將該隨機結構的位置偏移量的平均值或中間值,確定為該待追蹤物體的位置偏移量;
    將該待追蹤物體的位置偏移量與該待追蹤物體的起始位置相加,得到該待追蹤物體的目標位置。
  7. 【第7項】
    一種光流追蹤裝置,其中,包括:
    一隨機結構生成模組,用於根據一影像上的一待追蹤物體生成一隨機結構,該隨機結構包括相對位置固定的至少兩個結構塊,各該結構塊中包含該待追蹤物體的至少一個特徵點;
    一光流追蹤模組,用於採用一光流追蹤演算法對該隨機結構中所有該結構塊進行追蹤,以得到該隨機結構的位置偏移量;
    一位置估計模組,用於根據該隨機結構的位置偏移量,估計該待追蹤物體的目標位置。
  8. 【第8項】
    如申請專利範圍第7項所述的光流追蹤裝置,其中,該隨機結構生成模組具體用於:根據該待追蹤物體在該影像中的起始位置和大小,生成該待追蹤物體所在的該影像的一梯度圖像;掃描該梯度圖像得到該梯度圖像的一梯度長條圖,根據該梯度長條圖,確定平均梯度大於第一設定值的特徵點;確定該隨機結構包括的該結構塊的數目,在平均梯度大於第一設定值的特徵點中選擇至少一個特徵點;根據所選擇的特徵點在該影像中的位置,該結構塊的數目,設定該結構塊之間的距離範圍,確定該隨機結構中所有該結構塊對應的特徵點;根據該隨機結構中所有該結構塊對應的特徵點生成該隨機結構。
  9. 【第9項】
    如申請專利範圍第7或8項所述的光流追蹤裝置,其中,該光流追蹤模組具體用於:採用該光流追蹤演算法


    ,確定該隨機結構中所有該結構塊的位移殘差之和,該隨機結構中所有該結構塊的位移殘差之和作為該隨機結構的位置偏移量;
    其中:ε(d)為該隨機結構中所有該結構塊的位移殘差之和,d為該結構塊的位移,dx 為該結構塊在x方向的位移,dy 為該結構塊在y方向的位移,dx為該隨機結構中包括的特徵點在x方向的位移,dy為該隨機結構中包括的特徵點在y方向的位移,x為該隨機結構中包括的特徵點在該影像中的起始位置的橫坐標,y為該隨機結構中包括的特徵點在該影像中的起始位置的縱坐標,In (x,y)為該隨機結構中包括的特徵點在該影像中的起始位置;Jn (x+dx,y+dy)為該隨機結構中包括的特徵點在該影像中的目標位置,px 為該隨機結構中該結構塊的中點的橫坐標,py 為該隨機結構中該結構塊的中點的縱坐標,wx 為該結構塊的橫坐標中點距該結構塊邊緣距離的點數,xy 為該結構塊的縱坐標中點距該結構塊邊緣距離的點數,N為該隨機結構中該結構塊的數目。
  10. 【第10項】
    如申請專利範圍第9項所述的光流追蹤裝置,其中,該裝置還包括:一誤差濾除模組,用於濾除該隨機結構中所有該結構塊中包括的誤差超過第三設定值的第一誤差特徵點,得到一次濾除誤差後的該隨機結構;
    該光流追蹤模組具體用於:採用該光流追蹤演算法對一次濾除誤差後的該隨機結構中所有該結構塊進行追蹤。
  11. 【第11項】
    如申請專利範圍第10項所述的光流追蹤裝置,其中,該誤差濾除模組還用於:採用歸一化相關系統NCC方法,在一次濾除誤差後的該隨機結構中所有該結構塊中包括的特徵點中濾除第二誤差特徵點,得到二次濾除誤差後的該隨機結構;
    該光流追蹤模組具體用於:採用該光流追蹤演算法對二次濾除誤差後的該隨機結構中所有該結構塊進行追蹤。
  12. 【第12項】
    如申請專利範圍第7或8項所述的光流追蹤裝置,其中,該位置估計模組具體用於:將該隨機結構的位置偏移量的平均值或中間值,確定為該待追蹤物體的位置偏移量;將該待追蹤物體的位置偏移量與該待追蹤物體的起始位置相加,得到該待追蹤物體的目標位置。
TW103126165A 2013-08-01 2014-07-31 Optical flow tracking method and device TWI520078B (zh)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201310331742.8A CN103426184B (zh) 2013-08-01 2013-08-01 一种光流跟踪方法和装置

Publications (2)

Publication Number Publication Date
TW201514867A true TW201514867A (zh) 2015-04-16
TWI520078B TWI520078B (zh) 2016-02-01

Family

ID=49650874

Family Applications (1)

Application Number Title Priority Date Filing Date
TW103126165A TWI520078B (zh) 2013-08-01 2014-07-31 Optical flow tracking method and device

Country Status (6)

Country Link
US (1) US9536147B2 (zh)
EP (1) EP2860696A4 (zh)
KR (1) KR101643672B1 (zh)
CN (1) CN103426184B (zh)
TW (1) TWI520078B (zh)
WO (1) WO2015014111A1 (zh)

Families Citing this family (21)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103426184B (zh) 2013-08-01 2016-08-10 华为技术有限公司 一种光流跟踪方法和装置
CN105023278B (zh) * 2015-07-01 2019-03-05 中国矿业大学 一种基于光流法的运动目标跟踪方法及系统
US10586102B2 (en) 2015-08-18 2020-03-10 Qualcomm Incorporated Systems and methods for object tracking
CN105261042A (zh) * 2015-10-19 2016-01-20 华为技术有限公司 光流估计的方法及装置
CN106204484B (zh) * 2016-07-11 2020-07-24 徐州工程学院 一种基于光流和局部不变特征的交通目标跟踪方法
CN106251317B (zh) * 2016-09-13 2018-12-18 野拾(北京)电子商务有限公司 空间摄影防抖处理方法及装置
CN106875419B (zh) * 2016-12-29 2020-03-17 北京理工雷科电子信息技术有限公司 基于ncc匹配帧差的弱小动目标跟踪丢失重检方法
US10482609B2 (en) 2017-04-04 2019-11-19 General Electric Company Optical flow determination system
WO2018195819A1 (zh) * 2017-04-26 2018-11-01 深圳市大疆创新科技有限公司 图像处理方法和设备
CN108875460B (zh) * 2017-05-15 2023-06-20 腾讯科技(深圳)有限公司 增强现实处理方法及装置、显示终端及计算机存储介质
CN108475426A (zh) * 2017-06-30 2018-08-31 深圳市大疆创新科技有限公司 光流跟踪装置和方法
CN109214245B (zh) * 2017-07-03 2022-02-18 株式会社理光 一种目标跟踪方法、装置、设备及计算机可读存储介质
KR102545642B1 (ko) * 2018-04-24 2023-06-21 스냅 인코포레이티드 효율적인 병렬 광학 흐름 알고리즘 및 gpu 구현
CN109063545B (zh) * 2018-06-13 2021-11-12 五邑大学 一种疲劳驾驶检测方法及装置
KR102186983B1 (ko) * 2019-09-17 2020-12-04 한성대학교 산학협력단 사용자 영상 단말의 이동거리 측정 방법 및 장치
CN112784652B (zh) * 2019-11-11 2024-08-13 中强光电股份有限公司 图像识别方法及装置
CN111402292B (zh) * 2020-03-10 2023-04-07 南昌航空大学 基于特征变形误差遮挡检测的图像序列光流计算方法
CN112991386A (zh) * 2021-02-20 2021-06-18 浙江欣奕华智能科技有限公司 光流跟踪装置
CN113033552B (zh) * 2021-03-19 2024-02-02 北京字跳网络技术有限公司 文本识别方法、装置和电子设备
US11640668B2 (en) 2021-06-10 2023-05-02 Qualcomm Incorporated Volumetric sampling with correlative characterization for dense estimation
CN114171203A (zh) * 2021-11-29 2022-03-11 浙江大学 基于行为特征深度学习心脏骤停动物模型预测方法及系统

Family Cites Families (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7356172B2 (en) * 2002-09-26 2008-04-08 Siemens Medical Solutions Usa, Inc. Methods and systems for motion tracking
US8081820B2 (en) * 2003-07-22 2011-12-20 Cognex Technology And Investment Corporation Method for partitioning a pattern into optimized sub-patterns
JP4595733B2 (ja) 2005-08-02 2010-12-08 カシオ計算機株式会社 画像処理装置
JP4686663B2 (ja) * 2006-07-10 2011-05-25 国立大学法人京都大学 歩行者トラッキング方法及び歩行者トラッキング装置
WO2008099399A2 (en) * 2007-02-14 2008-08-21 Technion Research And Development Foundation Ltd. Over-parameterized variational optical flow method
JP4955616B2 (ja) * 2008-06-27 2012-06-20 富士フイルム株式会社 画像処理装置、画像処理方法及び画像処理プログラム
CN101770568A (zh) * 2008-12-31 2010-07-07 南京理工大学 基于仿射不变点及光流计算的目标自动识别和跟踪方法
CN101923717B (zh) 2009-06-10 2012-09-05 新奥特(北京)视频技术有限公司 一种对快速运动目标的特征点准确跟踪的方法
CN101923719B (zh) * 2009-06-12 2013-03-06 新奥特(北京)视频技术有限公司 一种基于粒子滤波和光流矢量的视频目标跟踪方法
CN101714256B (zh) * 2009-11-13 2011-12-14 河北工业大学 基于全方位视觉的动态目标识别和定位方法
TWI393074B (zh) 2009-12-10 2013-04-11 Ind Tech Res Inst 移動物體偵測裝置與方法
CN101789125B (zh) * 2010-01-26 2013-10-30 北京航空航天大学 一种无标记单目视频人体骨架运动跟踪方法
CN102609708B (zh) * 2012-01-15 2014-04-09 北京工业大学 一种计算杠铃中心点平移矢量和旋转参数的方法
CN102800106A (zh) * 2012-06-29 2012-11-28 刘怡光 基于光流场估计的自适应均值漂移目标跟踪方法
CN103426184B (zh) * 2013-08-01 2016-08-10 华为技术有限公司 一种光流跟踪方法和装置

Also Published As

Publication number Publication date
TWI520078B (zh) 2016-02-01
EP2860696A4 (en) 2015-08-05
WO2015014111A1 (zh) 2015-02-05
KR20150027291A (ko) 2015-03-11
KR101643672B1 (ko) 2016-07-28
AU2014285593A1 (en) 2015-02-19
CN103426184A (zh) 2013-12-04
EP2860696A1 (en) 2015-04-15
AU2014285593B2 (en) 2016-05-19
AU2014285593A8 (en) 2016-09-29
US9536147B2 (en) 2017-01-03
CN103426184B (zh) 2016-08-10
US20150154450A1 (en) 2015-06-04

Similar Documents

Publication Publication Date Title
TWI520078B (zh) Optical flow tracking method and device
US8447099B2 (en) Forming 3D models using two images
US8452081B2 (en) Forming 3D models using multiple images
JP5294343B2 (ja) 画像位置合わせ処理装置、領域拡張処理装置及び画質改善処理装置
Hulik et al. Continuous plane detection in point-cloud data based on 3D Hough Transform
KR101532864B1 (ko) 모바일 디바이스들에 대한 평면 맵핑 및 트래킹
US8199977B2 (en) System and method for extraction of features from a 3-D point cloud
JP5132832B1 (ja) 計測装置および情報処理装置
CN107369159B (zh) 基于多因素二维灰度直方图的阈值分割方法
JP2005037378A (ja) 奥行計測方法と奥行計測装置
US8396285B2 (en) Estimating vanishing points in images
JP2016508652A (ja) 画像シーケンスにおける物体のオクルージョンの決定
CN101923717B (zh) 一种对快速运动目标的特征点准确跟踪的方法
JP2005128619A (ja) 物体計測装置、物体計測方法、およびプログラム
Lo et al. Joint trilateral filtering for depth map super-resolution
CN105894521A (zh) 基于高斯拟合的亚像素边缘检测方法
KR20150114950A (ko) 이미지 스트림의 프레임 레이트 증가
JP4836065B2 (ja) エッジトラッキング方法及びそのコンピュータプログラム
JP2019120590A (ja) 視差値算出装置、視差値算出方法及びプログラム
CN117367404A (zh) 基于动态场景下slam的视觉定位建图方法及系统
JP2005339535A (ja) 相違度の計算
Haque et al. Robust feature-preserving denoising of 3D point clouds
KR102175021B1 (ko) 웨이퍼 노치 검출
CN114066980A (zh) 对象检测方法、装置、电子设备及自动驾驶车辆
JP6061631B2 (ja) 計測装置、情報処理装置、計測方法、情報処理方法、および、プログラム