TW201300734A - 應用複數攝影裝置之物件定位方法 - Google Patents

應用複數攝影裝置之物件定位方法 Download PDF

Info

Publication number
TW201300734A
TW201300734A TW101121928A TW101121928A TW201300734A TW 201300734 A TW201300734 A TW 201300734A TW 101121928 A TW101121928 A TW 101121928A TW 101121928 A TW101121928 A TW 101121928A TW 201300734 A TW201300734 A TW 201300734A
Authority
TW
Taiwan
Prior art keywords
dimensional
dimensional sampling
sampling lines
foreground
photographic
Prior art date
Application number
TW101121928A
Other languages
English (en)
Other versions
TWI491849B (zh
Inventor
Kuo-Hua Lo
Jen-Hui Chuang
Horng-Horng Lin
Original Assignee
Univ Nat Chiao Tung
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Univ Nat Chiao Tung filed Critical Univ Nat Chiao Tung
Publication of TW201300734A publication Critical patent/TW201300734A/zh
Application granted granted Critical
Publication of TWI491849B publication Critical patent/TWI491849B/zh

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras
    • H04N13/243Image signal generators using stereoscopic image cameras using three or more 2D image sensors
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/55Depth or shape recovery from multiple images
    • G06T7/564Depth or shape recovery from multiple images from contours
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras
    • H04N13/246Calibration of cameras

Abstract

一種應用複數攝影裝置之物件定位方法,包含:於複數攝影畫面中任一者產生至少一二維取樣線,其中各攝影畫面具有消失點以及至少一前景區域,二維取樣線由消失點所射出,並通過前景區域;建構複數三維取樣線,其中各三維取樣線是根據攝影畫面之任二者中任一組成對之二維取樣線,於複數三維參考平面其中之一上建構;以及將由攝影裝置所建構出的三維取樣線,透過計算進行物件群組區分程序以取得物件群組數目,以根據物件群組數目決定前景視訊物件之三維位置。

Description

應用複數攝影裝置之物件定位方法
本揭示內容是有關於一種影像處理方法,且特別是有關於一種應用複數攝影裝置之視訊物件定位方法。
近年來,視覺(vision-based)定位及追蹤已經從單一攝影裝置的方法進展至多攝影裝置的技術,導因於在多攝影裝置(multi-camera)配置下,人們可獲得更多不同視角的影像資訊,以解決物件間遮蔽的問題。然而這類多攝影視訊分析技術,多採用以前景像素為計算單位,以進行三維(three-dimensional;3D)物件的定位計算,由於這類方法需要對所有攝影畫面中的所有前景像素,進行大量的座標轉換運算,因而相當耗時,以即時(real-time)分析的應用面來說,十分有改善的必要。
因此,業界亟需一個新的三維物件定位方法,以大幅降低在許多攝影畫面間進行座標轉換的計算量。
本揭示內容之一態樣,是在提供一種應用複數攝影裝置之物件定位方法,包含:於複數攝影畫面中產生二維取樣線,其中各攝影畫面具有消失點以及至少一前景(foreground)區域,二維取樣線由消失點所射出,並通過前景區域;建構複數三維取樣線,其中各三維取樣線是根據攝影畫面之任二者中任一組成對之二維取樣線,於複數 三維參考平面其中之一上建構;以及將由攝影裝置所建構出的三維取樣線,透過計算進行物件群組區分程序以取得物件群組數目,以根據物件群組數目決定前景視訊物件之三維位置。。
本揭示內容之優點,係在於藉由上述以取樣線為基礎之物件定位方法,可大幅減少前景像素作座標轉換的運算量,快速地藉由攝影畫面中的二維取樣線,建構空間中的三維取樣線,並進一步決定出前景視訊物件於空間中的三維位置,而輕易地達到物件定位之目的。
近年來,視覺(vision-based)定位及追蹤已經從單一攝影裝置的方法進展至多攝影裝置的技術,導因於在多攝影裝置(multi-camera)配置下,人們可獲得更多不同視角的影像資訊,有助於解決物件間遮蔽的問題。在多攝影機的視訊分析技術中,前景像素資訊經常被用來計算不同攝影畫面中的物件(如人物)對應關係,進而達到物件定位或追蹤的目的。舉例來說,S.M.Khan及M.Shah所著的“Tracking multiple occluding people by localizing on multiple scene planes,”(IEEE Trans.Pattern Analysis and Machine Intelligence,vol.31,no.3,pp.505-519,2009),揭露了一種多攝影裝置的視訊分析技術,以前景像素資訊為基礎作運算,以追蹤場景中的前景人物,並將其定位於數個三維參考平面上。
上述多攝影裝置的計算方法,在定位影像中有遮蔽的 人物時,有良好的效果。但由於這類的方法,需要對所有攝影畫面中的所有前景像素,進行大量的座標轉換計算,因而相當耗時,並不適合即時的應用。為增加效率,本揭示內容提供一個應用複數攝影裝置之視訊物件定位方法,以大幅降低在許多攝影畫面間進行像素座標轉換的計算量。
於本揭示內容提供的物件定位方法中,包含兩個主要的流程:(1)三維物件定位流程;以及(2)攝影裝置校正流程。以下實施例將先敘述三維物件定位流程,並於其後敘述攝影裝置校正流程。
三維物件定位流程
於本揭示內容所述的三維物件定位流程,是以各攝影畫面中預先計算出的消失點,配合畫面中的前景區域,產生的二維取樣線,以代表前景物體。其中,各攝影畫面中的前景區域,乃是透過背景相減法所得出,再透過畫面中預設的消失點,射出交疊於前景區域的二維取樣線。所有攝影畫面中的二維取樣線,將藉由平面轉換(homography transformation),被投影到數個不同高度的三維參考平面上,以計算產生三維取樣線。再將三維取樣線作雜訊濾除,並將剩餘的三維取樣線進行叢集(clustering)運算,以找出複數物件群組後,即可由這些物件群組得到視訊物件的定位結果。由於此三維物件定位方法,是根據消失點產生的二維取樣線進行處理,因此相較其他根據前景像素點進行處理的定位方法,具有較快的運算速度,且不會因而喪失定位的精確度。
物軸為基礎之(axis-based)視訊物件定位
為了便於瞭解本揭示內容中,基於取樣線的三維物件定位流程,我們在此將先敘述如何依據單一前景物件的二維主軸線以進行定位;然而,實際上影像物件的二維主軸估測,可能由於物件遮蔽而無法精確估計出來,因此,在本揭示內容中,乃是以消失點發出的射線,疊合於前景區域進行線條取樣,替代物件二維主軸線估測。採用以消失點為基礎的線條取樣過程,將確保視訊物件定位的精確度及效率。
(i)找尋視訊物件的三維主軸
如第1圖所示,我們可由背景相減法(background subtraction)獲得一個人物的前景區域,再藉由主成份分析(principal component analysis)方法來估測其二維主軸。進一步假設在兩個攝影畫面中,同一物件的二維主軸均為已知,則人物的三維主軸將可被重建出來。舉例來說,如第2圖所示,於攝影畫面1及攝影畫面2中,同一個人物的二維主軸標示為L 1L 2,可分別藉由平面轉換矩陣H H 投影至參考平面π,對應在參考平面π上的投影線段分別標示為,這兩個投影線段在參考平面π的投影交點可表示為。同理,我們可透過類似的平面轉換計算,可進一步得出L 1L 2在不同高度之參考平面上的數個投影交點,而後,將這些位在不同參考平面的投影交點串接起來,即可得出該人物的三維主軸。如第2圖所示視訊物件11的三維主軸即可形成,其中,由攝影畫面1及攝影畫面2計算出的三維主軸,可以表示為複數個投影交點的軸集 合A,即。其中h b h t 分別代表三維主軸中,位在底部及頂部參考平面的投影交點。
(ii)找尋多個視訊物件的三維主軸
在以上述的方法,估測單一視訊物件的三維主軸後,可進一步將此三維主軸的估測,推展到多視訊物件主軸估測。如第2圖所示,由攝影畫面1中的第i個二維主軸及攝影畫面2中的第j個二維主軸所計算得到的三維主軸可表示為: 給定攝影畫面1中的M個二維主軸,以及攝影畫面2中的N個二維主軸,由於實際上此二攝影畫面中二維主軸的對應關係尚未知,因此我們可計算出MN個三維主軸;接著,藉由濾除程序(將描述於後)將錯誤的三維主軸移除。第2圖繪示出兩個藉由濾除程序移除的錯誤三維主軸15及17,剩餘兩個三維主軸將對應到場景中的物件。
以消失點為基礎之線條取樣
考量前述的影像物件主軸估計,在實際的情形下,可能會有許多物件同時間出現在一個場景中,而使影像上每個前景區域包含一個以上的前景物件。在物件遮蔽情況下,每個前景物件的二維主軸將難以正確地被偵測出。因此,本揭示內容的方法將不採用估測前景物件之二維主軸的方式,而以前景區域的二維取樣線來建立三維取樣線。接著,藉由將三維取樣線作叢集運算,使得三維取樣線區分為數個物件群組,進而推導出前景物件的三維位置。
(i)由消失點產生二維取樣線
由於欲觀察的物件如人物,在監視場景中經常是垂直於地面,因此在影像上,這些物件可由源自特定消失點的二維取樣線表示,其中,此一特定消失點,是對應於場景中的諸多三維垂直線段,投影於二維影像上的交點。在各影像裝置的畫面中,對應於三維垂直線段的消失點,可由稍後敘述之攝像裝置校正過程決定。
第3A圖及第3B圖分別繪示出兩個攝影畫面3及3’中,前述之二維取樣線的範例,這些二維取樣線源自消失點30及30’,並穿過前景區域,用以代表前景的景物。
(ii)產生三維取樣線
接著如第3A圖及第3B圖中,各攝影畫面中的二維取樣線將被用以建構三維取樣線,所建構出的三維取樣線如第3C圖所示。其三維取樣線建構方法如第4圖所示,由攝影畫面41及43中,任取一對二維取樣線411及413,可分別藉由平面轉換投影至四個不同高度的參考平面40、42、44及46,並形成四個投影線段交點400、420、440及460;在連接參考平面上共線的各投影交點後,可建構出一條三維取樣線。需注意的是,僅有共線的投影交點才可形成一條三維取樣線,如果這些投影交點並未共線(意即沿著垂直線),則這些交點將不會被認定為三維取樣線。
於本揭示內容另一實施例中,三維取樣線亦可藉由計算兩個不同攝影畫面中,由一對二維取樣線導出的兩個三維平面的交線而得到。第5圖繪示分別位於兩個攝影畫面51及53中的一對二維取樣線510及530,藉由平面轉換計算,我們可將二維取樣線510(530)投影至參考平面後, 得到投影線520(540);由投影線520及攝影裝置中心52,可建構出一個三維平面,而另一個對應至投影線540及攝影裝置中心54的三維平面,亦可由此算出,接著對兩個三維平面的交線求解後,可得到三維取樣線50。
由上述可知,在給定兩個不同攝影畫面的各對二維取樣線後,我們可以推導出對應的三維取樣線。利用上述以消失點為基礎之線條取樣技巧,將可大幅減少在物件定位時,對所有攝影畫面的所有前景像素,做座標轉換的大量計算。
由於各三維取樣線是僅由兩個攝影畫面的一組二維取樣線所建構,因此部份錯誤的三維取樣線可能被推導出,因而需要加以濾除。對此,我們藉由三維取樣線濾除程序,移除除錯誤三維取樣線。於一實施例中,可透過下列的濾除規則濾除錯誤的三維取樣線:
1.當三維取樣線的長度|h t -h b |小於T len ,其中h t h b 分別代表三維取樣線的頂部及底部。
2.當三維取樣線的底部h b 高度高於T bot
3.當三維取樣線由其取樣點投影回至各攝影畫面的前景覆蓋率小於T fg
由於前兩個規則較為直覺,因此我們在此僅對第三條規則進一步敘述。為檢驗三維取樣線的前景覆蓋率,三維取樣線段上的點將被投影回所有的攝影畫面,對場景中實際存在的物件來說,這些投影回所有攝影畫面的點,將落在前景區域所覆蓋的地方;如果這些點在所有攝影畫面中都是落在前景區域中,則三維取樣線的平均前景覆蓋率 (average foreground coverage rate;AFCR)將被定義為100%。當平均前景覆蓋率低於一個特定的臨界值T fg ,該三維取樣線將被濾除。第3D圖為本揭示內容一實施例中,對第3C圖的三維取樣線進行濾除程序後的結果示意圖。其中,各個人物可以較清楚地被分辨出來。
(iii)計算三維物件位置
在完成三維取樣線濾除程序後,剩餘的三維取樣線,於一實施例中將藉由廣度優先搜尋(breadth first search)的方式,進行叢集計算,以進行物件群組區分程序,區分為數個三維取樣線群組並取得物件群組之數目,這些三維取樣線群組將可代表場景中的視訊物件。詳細來說,當兩個三維取樣線間,由場景的頂視方向觀察其距離小於一個臨界值T conn 時,我們將以無向圖(undirected graph)形式,建立兩個三維取樣線的連線,以無向圖形式表示三維取樣線作叢集運算的結果。第6A圖為本揭示內容一實施例中,繪示源自一個攝影裝置所拍攝的攝影畫面,第6B圖則繪示經由廣度優先搜尋後的叢集結果,其中,每個無向圖上的點,表示頂視畫面中的一條三維取樣線,而無向圖上的連線,則連接了同一群組的三維取樣線。於第6B圖中,經過廣度優先搜尋後,可區分出對應至六個人物的六個取樣線群組(物件群組數目為六)。計算各個群組的中心及平均三維取樣線高度(可藉由不同的平均法),我們可估測出物件中心位置及其高度。
第6C圖繪示依據S.M.Khan及M.Shah所著的“Tracking multiple occluding people by localizing on multiple scene planes,”(IEEE Trans.Pattern Analysis and Machine Intelligence,vol.31,no.3,pp.505-519,2009)中,用以表示物件定位結果的定位疊合圖(synergy map),由第6B圖及第6C圖相比可知,於第6B圖中依本揭示內容之方法建構出的物件群組,與第6C圖的比較方法的結果相近,驗證了本揭示內容之基於取樣線的定位方法,與基於像素計算的定位方法,其功效相似。
運算效率的比較上來說,本揭示內容之方法對第6A圖所示的影像序列作定位計算,在Windows® 7、4GB記憶體及2.4G Intel® Core2 Duo處理器的電腦中進行實驗,較S.M.Khan及M.Shah的方法快了二十五倍以上。
攝影裝置校正流程
於一實施例中,可在三維物件定位流程前,對各攝影裝置進行攝影裝置校正流程;透過事先於監控場景中,放置數個垂直校正柱以估測(1)各攝影畫面之一個特定的消失點;以及(2)由攝影畫面轉換至場景中數個不同高度之三維參考平面的平面轉換關係。
舉例來說,我們可利用四個垂直於場景的地面的校正柱做為標記,以計算各個攝影畫面中,對應於場景垂直線的消失點位置,我們可在估測四個校正柱於一個攝影畫面中的投影線的交點後,決定出此攝影畫面的消失點位置。
利用此四個校正柱,我們可進一步用以估測攝影畫面轉換至場景中數個不同高度之三維參考平面的平面轉換矩陣;如R.Eshel及Y.Moses所著論文“Tracking in a Dense Crowd Using Multiple Cameras,”(International Journal of Computer Vision,vol.88,no.1,pp.129-143,2010)所描述,可利用四個置於場景中的垂直校正柱,並各於其上標記三個已知的高度,來建立一攝影畫面轉換至任意高度的三維參考平面間的平面轉換矩陣關係,其計算原理乃是由於影像的校正柱,柱上任意高度的新參考點,均可藉由校正柱已知標記點的交比(cross-ratio)計算所得出,因此攝影畫面與任意高度的參考平面間的平面轉換矩陣關係均可被校正出來。需注意的是,此處所推導出的平面轉換矩陣,亦可在需要時用來藉由反矩陣的計算,將三維參考平面上的點投影回至攝影畫面中。
物件定位方法流程
第7圖為本揭示內容一實施例中,物件定位方法700之流程圖。物件定位方法700包含下列步驟。
於步驟701,對各攝影裝置中攝得的畫面進行背景相減法,以取得前景區域。
於步驟702,產生對應各攝影畫面中之前景區域的二維取樣線,其中二維取樣線是根據攝影畫面中之一預先校正而得的消失點所射出。
於步驟703,藉由預先校正而得的平面轉換關係,自多攝影畫面中的二維取樣線,建立攝像場景中的三維取樣線。
於步驟704,執行三維取樣線濾除程序,以濾除複數錯誤三維取樣線。
於步驟705,將剩餘的三維取樣線進行叢集計算,進行物件群組區分程序,以取得物件群組數目據以決定前景 視訊物件之三維位置。
利用攝影畫面的二維取樣線進行物件定位,可避免複雜的前景物件主軸分析,並可有效地處理部份遮蔽效應產生的問題。更進一步地,本揭示內容的方法由於在座標轉換的計算上,僅處理部份取樣的前景像素,因而提升了物件定位的計算效率。
雖然本揭示內容已以實施方式揭露如上,然其並非用以限定本揭示內容,任何熟習此技藝者,在不脫離本揭示內容之精神和範圍內,當可作各種之更動與潤飾,因此本揭示內容之保護範圍當視後附之申請專利範圍所界定者為準。
1、2‧‧‧攝影畫面
11‧‧‧視訊物件
15、17‧‧‧三維主軸
3、3’‧‧‧攝影畫面
30、30’‧‧‧消失點
40、42、44、46‧‧‧參考平面
400、420、440、460‧‧‧交點
41、43‧‧‧攝影畫面
411、413‧‧‧二維取樣線
51、53‧‧‧攝影畫面
510、530‧‧‧二維取樣線
52、54‧‧‧攝影裝置中心
520、540‧‧‧投影線
550‧‧‧三維取樣線
700‧‧‧物件定位方法
701-705‧‧‧步驟
為讓本揭示內容之上述和其他目的、特徵、優點與實施例能更明顯易懂,所附圖式之說明如下:第1圖繪示本揭示內容一實施例中,一個攝影畫面中的前景物件及其二維主軸,其中二維主軸是藉由主成份分析法估測;第2圖繪示本揭示內容之主要概念之示意圖;第3A圖及第3B圖分別繪示本揭示內容一實施例中,對應所觀察的場景的兩個影像畫面以,及所產生的二維取樣線;第3C圖繪示本揭示內容一實施例中,由二維取樣線所建構出的三維取樣線;第3D圖繪示本揭示內容一實施例中,由第3C圖的三 維取樣線進行濾除與叢集計算後,區分出的六個物件;第4圖繪示本揭示內容一實施例中,由三維參考平面中的四個投影交點,產生一條三維取樣線;第5圖繪示本揭示內容一實施例中,由兩個三維平面的相交產生的三維取樣線;第6A圖及第6B圖為本揭示內容一實施例中,分別繪示源自一個攝影裝置所拍攝的二維攝影畫面,以及對應的三維取樣線叢集結果;第6C圖繪示依據S.M.Khan及M.Shah所著的“Tracking multiple occluding people by localizing on multiple scene planes”中描述的方法所建立的定位疊合圖;以及第7圖為本揭示內容一實施例中,三維物件定位方法之流程圖。
700‧‧‧物件定位方法
701-705‧‧‧步驟

Claims (10)

  1. 一種應用複數攝影裝置之物件定位方法,包含:於複數攝影畫面中任一者產生至少一二維取樣線(line sample),其中各該等攝影畫面具有一消失點以及至少一前景(foreground)區域,該二維取樣線由該消失點所射出,並通過該前景區域;建構複數三維取樣線,其中各該等三維取樣線是根據該等攝影畫面之任二者中任一組成對之該二維取樣線,於複數三維參考平面其中之一上建構;以及將由該等攝影裝置所建構出的該等三維取樣線,透過計算進行一物件群組區分程序以取得一物件群組數目,以根據該物件群組數目決定一前景視訊物件之一三維位置。
  2. 如請求項1所述之物件定位方法,其中該消失點根據一攝像場景中,互相平行之複數校正柱決定。
  3. 如請求項1所述之物件定位方法,其中該三維參考平面為一攝像場景中具有一預設高度之一平面。
  4. 如請求項1所述之物件定位方法,其中根據該等攝影畫面之任二者中任一組成對之該二維取樣線,建構各該等三維取樣線之步驟更包含:投射該等攝影畫面中之其中之二者中之一組成對之該二維取樣線,至一攝像場景之該等三維參考平面,以產生複數投影交點;以及 根據該等交點中實質上共線(collinear)者,建構該等三維取樣線其中之一。
  5. 如請求項1所述之物件定位方法,其中根據該等攝影畫面之任二者中之任一組成對之該二維取樣線,建構各該等三維取樣線之步驟更包含:投射該等攝影畫面其中之二之一組成對之該二維取樣線,至一攝像場景之該等三維參考平面其中之一,以產生二投影線段;計算該二投影線段與對應之一攝影裝置中心所形成的二個三維平面;以及決定該二個三維平面之一交線以建構該等三維取樣線其中之一。
  6. 如請求項1所述之物件定位方法,更包含一濾除程序,以濾除任一錯誤三維取樣線。
  7. 如請求項6所述之物件定位方法,其中該濾除程序更包含濾除該等三維取樣線任一長度小於一特定值者。
  8. 如請求項6所述之物件定位方法,其中該濾除程序更包含濾除該等三維取樣線任一底部高度小於一特定值者。
  9. 如請求項6所述之物件定位方法,其中該濾除程序更包含濾除該等三維取樣線任一前景覆蓋率小於一特定值者,其中該前景覆蓋率,係根據該等三維取樣線投影回該等攝影畫面中之一前景像素數計算。
  10. 如請求項1所述之物件定位方法,其中由該等攝影裝置所建構出的該等三維取樣線,透過計算進行該物件群組區分程序以取得該物件群組數目,以根據該物件群組數目決定該前景視訊物件之該三維位置更包含根據該等物件群組之該等三維取樣線,決定對應各該前景視訊物件之一主軸(major axis)。
TW101121928A 2011-06-20 2012-06-19 應用複數攝影裝置之物件定位方法 TWI491849B (zh)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US201161498619P 2011-06-20 2011-06-20
US13/487,264 US9191650B2 (en) 2011-06-20 2012-06-04 Video object localization method using multiple cameras

Publications (2)

Publication Number Publication Date
TW201300734A true TW201300734A (zh) 2013-01-01
TWI491849B TWI491849B (zh) 2015-07-11

Family

ID=47353371

Family Applications (1)

Application Number Title Priority Date Filing Date
TW101121928A TWI491849B (zh) 2011-06-20 2012-06-19 應用複數攝影裝置之物件定位方法

Country Status (2)

Country Link
US (1) US9191650B2 (zh)
TW (1) TWI491849B (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9747680B2 (en) 2013-11-27 2017-08-29 Industrial Technology Research Institute Inspection apparatus, method, and computer program product for machine vision inspection

Families Citing this family (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9183635B2 (en) * 2013-05-20 2015-11-10 Mitsubishi Electric Research Laboratories, Inc. Method for reconstructing 3D lines from 2D lines in an image
CN103824278B (zh) * 2013-12-10 2016-09-21 清华大学 监控摄像机的标定方法和系统
CN104933436B (zh) * 2014-03-19 2018-09-14 通用汽车环球科技运作有限责任公司 具有动态完整性评分的基于视觉的多摄像头工厂监测
CN104933392A (zh) * 2014-03-19 2015-09-23 通用汽车环球科技运作有限责任公司 使用多视图融合的概率性人追踪
US20150294496A1 (en) * 2014-04-14 2015-10-15 GM Global Technology Operations LLC Probabilistic person-tracking using multi-view fusion
CN105741261B (zh) * 2014-12-11 2020-06-09 北京大唐高鸿数据网络技术有限公司 一种基于四摄像头的平面多目标定位方法
CN106203458B (zh) * 2015-04-29 2020-03-06 杭州海康威视数字技术股份有限公司 人群视频分析方法及系统
CN105678748B (zh) * 2015-12-30 2019-01-15 清华大学 三维监控系统中基于三维重构的交互式标定方法和装置
JP6732522B2 (ja) * 2016-05-02 2020-07-29 キヤノン株式会社 画像処理装置、画像処理方法およびプログラム
JP7122815B2 (ja) * 2017-11-15 2022-08-22 キヤノン株式会社 画像処理装置、画像処理方法、及びプログラム
CN112131904B (zh) * 2019-06-24 2024-03-15 曜科智能科技(上海)有限公司 基于图匹配的多目标跨镜追踪方法、装置、设备和介质
EP3836085A1 (en) * 2019-12-13 2021-06-16 Sony Corporation Multi-view three-dimensional positioning
US20230230374A1 (en) * 2020-05-15 2023-07-20 Beijing Xiaomi Mobile Software Co., Ltd. Method and device for positioning internet of things devices

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4406381B2 (ja) * 2004-07-13 2010-01-27 株式会社東芝 障害物検出装置及び方法
US8363926B2 (en) * 2008-02-06 2013-01-29 University Of Central Florida Research Foundation, Inc. Systems and methods for modeling three-dimensional objects from two-dimensional images
TW201005673A (en) * 2008-07-18 2010-02-01 Ind Tech Res Inst Example-based two-dimensional to three-dimensional image conversion method, computer readable medium therefor, and system
JP5245937B2 (ja) * 2009-03-12 2013-07-24 オムロン株式会社 3次元計測処理のパラメータの導出方法および3次元視覚センサ
CN101888563B (zh) * 2009-05-12 2012-04-18 华映视讯(吴江)有限公司 多层景深立体显示器影像处理方法
CN101894366B (zh) * 2009-05-21 2014-01-29 北京中星微电子有限公司 一种获取标定参数的方法、装置及一种视频监控系统
US20110007072A1 (en) 2009-07-09 2011-01-13 University Of Central Florida Research Foundation, Inc. Systems and methods for three-dimensionally modeling moving objects

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9747680B2 (en) 2013-11-27 2017-08-29 Industrial Technology Research Institute Inspection apparatus, method, and computer program product for machine vision inspection

Also Published As

Publication number Publication date
US9191650B2 (en) 2015-11-17
US20120320162A1 (en) 2012-12-20
TWI491849B (zh) 2015-07-11

Similar Documents

Publication Publication Date Title
TWI491849B (zh) 應用複數攝影裝置之物件定位方法
JP7300438B2 (ja) Rgbdカメラ姿勢のラージスケール判定のための方法およびシステム
JP5306652B2 (ja) 集積された画像プロセッサ
US8447099B2 (en) Forming 3D models using two images
US11521311B1 (en) Collaborative disparity decomposition
CN111066065A (zh) 用于混合深度正则化的系统和方法
JP6121776B2 (ja) 画像処理装置及び画像処理方法
US20160042515A1 (en) Method and device for camera calibration
TWI587241B (zh) Method, device and system for generating two - dimensional floor plan
WO2018040982A1 (zh) 一种用于增强现实的实时图像叠加方法及装置
Liu et al. Robust autocalibration for a surveillance camera network
CN105005964A (zh) 基于视频序列影像的地理场景全景图快速生成方法
WO2015124066A1 (zh) 视觉导航方法和装置以及机器人
WO2022127181A1 (zh) 客流的监测方法、装置、电子设备及存储介质
CN111996883A (zh) 一种检测公路路面宽度的方法
CN110443228B (zh) 一种行人匹配方法、装置、电子设备及存储介质
Deng et al. Binocular video-based 3D reconstruction and length quantification of cracks in concrete structures
US20160035107A1 (en) Moving object detection
Tao et al. Weakly supervised monocular 3d object detection using multi-view projection and direction consistency
CN115880643B (zh) 一种基于目标检测算法的社交距离监测方法和装置
WO2020237675A1 (zh) 目标检测方法、目标检测装置和无人机
Jung et al. Human height analysis using multiple uncalibrated cameras
Wang et al. An improved method of refining relative orientation in global structure from motion with a focus on repetitive structure and very short baselines
KR101980899B1 (ko) 직교 소실점을 이용한 단일 영상의 내벽 구조 검출 장치 및 방법
Chen et al. Stereo with zooming