TWI657407B - 利用遞歸神經網路的三維點雲追蹤裝置及方法 - Google Patents

利用遞歸神經網路的三維點雲追蹤裝置及方法 Download PDF

Info

Publication number
TWI657407B
TWI657407B TW106143026A TW106143026A TWI657407B TW I657407 B TWI657407 B TW I657407B TW 106143026 A TW106143026 A TW 106143026A TW 106143026 A TW106143026 A TW 106143026A TW I657407 B TWI657407 B TW I657407B
Authority
TW
Taiwan
Prior art keywords
point cloud
dimensional point
memory
environment
sparse convolution
Prior art date
Application number
TW106143026A
Other languages
English (en)
Other versions
TW201926258A (zh
Inventor
王志維
蔡岳廷
Original Assignee
財團法人資訊工業策進會
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 財團法人資訊工業策進會 filed Critical 財團法人資訊工業策進會
Priority to TW106143026A priority Critical patent/TWI657407B/zh
Priority to CN201810043041.7A priority patent/CN109901189B/zh
Application granted granted Critical
Publication of TWI657407B publication Critical patent/TWI657407B/zh
Publication of TW201926258A publication Critical patent/TW201926258A/zh

Links

Classifications

    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02ATECHNOLOGIES FOR ADAPTATION TO CLIMATE CHANGE
    • Y02A90/00Technologies having an indirect contribution to adaptation to climate change
    • Y02A90/10Information and communication technologies [ICT] supporting adaptation to climate change, e.g. for weather forecasting or climate simulation

Abstract

本發明實施例提供一種利用遞歸神經網路的三維點雲追蹤裝置及方法。所述三維點雲追蹤裝置及方法,可以是對整個環境的三維點雲進行追蹤,並且透過使用了遞歸神經網路模型來對整個環境進行建模,因此,所述三維點雲追蹤裝置及方法可用來重建整個環境在目前時刻下的三維點雲外,還可用來預測整個環境在後續時刻下的三維點雲。

Description

利用遞歸神經網路的三維點雲追蹤裝置及方法
本發明是有關於一種點雲(point cloud)追蹤裝置及方法,且特別是一種利用遞歸神經網路(Recurrent Neural Network,RNN)的三維(three-dimensional,3D)點雲追蹤裝置及方法。
「點雲」是指透過三維雷射掃描器所取得到的資料形式。現今中,三維雷射掃描器又可稱作為「光達(LiDAR)」,它是主要利用感測反射的雷射光束而來快速獲得到大量密佈於掃描物體表面上的多個點,並且因為這些點皆可包含有三維座標,所以光達便能建立起有關此掃描物體的三維點雲,以用來描述此掃描物體的表面形狀。
因此,近年來光達則通常被用於自駕車系統或道路感測系統中,以作為避障或追蹤車輛之用途。然而,當此掃描物體因被遮蔽或在光達視野死角時,現有技術即無法能夠建立起有關此掃描物體的三維點雲,進而也就失去了以上用途。有鑑於此,本領域亟需一種能夠用來重建並預測三維點雲的方式。
本發明之目的在於提供一種利用遞歸神經網路的三維點雲追蹤裝置及方法,並且為了因應具有多移動目標的複雜環境,所以本發明是以整個環境的三維點雲來作為追蹤對象。也就是說,本發明是用來重建並預測整個環境的三維點雲。
為達上述目的,本發明實施例提供一種利用遞歸神經網路的三維點雲追蹤裝置。所述三維點雲追蹤裝置包括輸入/輸出介面、儲存器以及處理器。輸入/輸出介面用來接收環境在不同時刻下的不同觀測三維點雲,且這些觀測三維點雲係由至少一光達所掃描取得。儲存器用來儲存有關環境的至少一記憶三維點雲。處理器則分別與輸入/輸出介面及儲存器電性連接,用來接收這些觀測三維點雲及記憶三維點雲,並且當收到環境在第一時刻下的觀測三維點雲時,處理器利用至少一遞歸神經網路模型,來對觀測三維點雲及記憶三維點雲進行環境重建運算,以得到環境在此第一時刻下的重建三維點雲,並且再利用遞歸神經網路模型,來對記憶三維點雲及空白三維點雲進行環境預測運算,以得到環境在第二時刻下的預測三維點雲。其中,所述第二時刻係晚於第一時刻。
除此之外,本發明實施例另提供一種利用遞歸神經網路的三維點雲追蹤方法,執行於前述三維點雲追蹤裝置中。所述三維點雲追蹤方法包括如下步驟。令輸入/輸出介面接收環境在不同時刻下的不同觀測三維點雲,其中這些觀測三維點雲係由至少一光達所掃描取得。令儲存器儲存有關環境的至少一記憶三維點雲。令處理器接收這些觀測三維點雲及記憶三維點雲,並且當收到環境在第一時刻下的觀測三維點雲時,令處理器利用至少一遞歸神經網路模型,來對觀測三維點雲及記憶三維點雲進行環境重建運算,以得到環境在此第一時刻下的重建三維點雲,並且令處理器再利用遞歸神經網路模型,來對記憶三維點雲及空白三維點雲進行環境預測運算,以得到環境在第二時刻下的預測三維點雲。其中,所述第二時刻係晚於第一時刻。
為使能更進一步瞭解本發明之特徵及技術內容,請參閱以下有關本發明之詳細說明與附圖,但是此等說明與所附圖式僅係用來說明本發明,而非對本發明的權利範圍作任何的限制。
在下文中,將藉由圖式說明本發明之各種實施例來詳細描述本發明。然而,本發明概念可能以許多不同形式來體現,且不應解釋為限於本文中所闡述之例示性實施例。此外,在圖式中相同參考數字可用以表示類似的元件。
請參閱圖1,圖1是本發明實施例所提供的利用遞歸神經網路的三維點雲追蹤裝置的功能方塊示意圖。三維點雲追蹤裝置1包括輸入/輸出介面11、處理器13以及儲存器15。值得一提的是,上述各元件可以是透過純硬件電路來實現,或者是透過硬件電路搭配固件或軟件來實現,但本發明皆不以此為限制。除此之外,上述各元件可以是整合或是分開設置,且本發明亦不以此為限制。總而言之,本發明並不限制三維點雲追蹤裝置1的具體實現方式。
在本實施例中,輸入/輸出介面11是用來接收環境(未繪示)在不同時刻下的不同觀測三維點雲S,且這些觀測三維點雲S係由至少一光達(未繪示)所掃描取得。由於光達的掃描原理已為本技術領域中具有通常知識者所習知,因此有關上述觀測三維點雲S的細部內容於此就不再多加贅述。另外,儲存器15是用來儲存有關環境的至少一記憶三維點雲M。有關於記憶三維點雲M的具體內容,將會於下文中藉由其他實施例而作詳盡說明,故於此就先不再多加贅述。處理器13則分別與輸入/輸出介面11及儲存器15電性連接,並用來接收這些觀測三維點雲S及記憶三維點雲M。
請一併參閱圖2,圖2係將用以來解釋圖1中的處理器13的具體運作方式。如圖2所示,當收到環境在某第一時刻(例如,時刻t)下的觀測三維點雲S(t)時,處理器13則利用至少一遞歸神經網路模型17,來對觀測三維點雲S(t)及記憶三維點雲M進行環境重建運算,以得到環境在此第一時刻下的重建三維點雲R(t),並且再利用遞歸神經網路模型17,來對記憶三維點雲M及一個空白三維點雲(未繪示)進行環境預測運算,以得到環境在第二時刻(例如,時刻t+1)下的預測三維點雲P(t+1)。對此,應當理解的是,所述第二時刻係晚於第一時刻。
然而,為了方便以下說明,本實施例的第一及第二時刻則是僅先採用時刻t及時刻t+1的例子來進行說明,但其並非用以限制本發明。同樣地,為了方便以下說明,圖2中的遞歸神經網路模型17則也是僅先採用數量為1的例子來進行說明,但其亦非用以限制本發明。也就是說,圖2中所分別進行環境重建運算或環境預測運算的遞歸神經網路模型17,可以指的是同一個遞歸神經網路模型17,或是不同的遞歸神經網路模型17,但本發明皆不以此為限制。
另外,有關圖2的遞歸神經網路模型17中進行環境重建運算,或進行環境預測運算的具體運作方式,將會於下文中藉由其他實施例而作詳盡說明,故於此就先不再多加贅述。需要說明的是,雖然圖2只用了再一次的遞歸神經網路模型17而來獲得到環境在時刻t+1下的預測三維點雲P(t+1),但本發明卻不以此為限制。也就是說,只要是能夠在處理時間及計算能力充足的條件下,本發明實施例都能夠是依照預測的下一時刻遠近(亦即,第二與第一時刻間的時距)而來自行決定是否使用遞迴數次的遞歸神經網路模型17,以來進而取得到環境在其他第二時刻(例如,時刻t+2)下的預測三維點雲。
總而言之,根據以上內容的教示,本技術領域中具有通常知識者應可以理解到,因為本發明特別是以整個環境的三維點雲來作為追蹤對象,所以當此環境在目前時刻(例如,第一時刻t)下卻有著因某移動物體被遮蔽而未能獲得到此環境的部分區域三維點雲時,本發明是將能夠利用過去所儲存的此環境的記憶三維點雲而來估測出此移動物體的三維點雲資訊,以進而對目前未能獲知的上述部分區域三維點雲進行補充。也就是說,正確地重建起此環境在目前時刻下的三維點雲。
另一方面,對於上述被遮蔽的移動物體來說,因為現有技術通常僅能夠以等速度運動的方式而來預測此移動物體的未來變化,所以當此移動物體是以非等速度方式運動,或是此移動物體被遮蔽的時間過長時,現有技術都將容易失去了對此移動物體的追蹤。但因為本發明是利用了遞歸神經網路模型來對整個環境的三維點雲進行編碼,所以即使是在此環境內的某移動物體的運動方式較為複雜,或者是在此移動物體被遮蔽的時間過長時,本發明是都將能夠仍預測得到此環境在後續時刻下的三維點雲。也就是說,準確地追蹤到此環境內的移動物體的未來變化。
接著,請一併參閱圖3A,圖3A係將用以來解釋圖2的遞歸神經網路模型17中進行環境重建運算的具體運作方式。值得一提的是,為了方便以下說明,圖3A中的記憶三維點雲M則是採用數量為2的例子來進行說明。也就是說,記憶三維點雲M可包括第一記憶三維點雲M1及第二記憶三維點雲M2,但其亦非用以限制本發明。
如圖3A所示,遞歸神經網路模型17是會先對觀測三維點雲S(t)進行第一稀疏捲積(sparse convolution)運算,以得到經此第一稀疏捲積SP1後的運算三維點雲Q1(t)。然後,遞歸神經網路模型17是將運算三維點雲Q1(t)與第一記憶三維點雲M1進行第二稀疏捲積運算,以得到經此第二稀疏捲積SP2後的運算三維點雲Q2(t),並且以運算三維點雲Q2(t)更新(update)第一記憶三維點雲M1。最後,遞歸神經網路模型17是再將運算三維點雲Q2(t)與第二記憶三維點雲M2進行第三稀疏捲積運算,以得到環境在此時刻t(亦即,第一時刻)下的重建三維點雲R(t),並且以重建三維點雲R(t)更新第二記憶三維點雲M2。
從上述內容可知,因為圖3A是可以用到了稀疏捲積的運算特性,所以本實施例的三維點雲追蹤裝置1是將能夠在合理的時間及計算能力上處理複雜的三維點雲資訊。然而,由於稀疏捲積的運算原理已為本技術領域中具有通常知識者所習知,因此有關稀疏捲積SP1~SP3的細部內容於此就不再多加贅述。需要說明的是,圖3A所使用的三層稀疏捲積方式(亦即,稀疏捲積SP1~SP3)在此僅只是舉例,其並非用以限制本發明。換句話說,本技術領域中具有通常知識者應可依據實際需求或應用來進行不同層級數目的稀疏捲積設計。
另外,在其中一種應用中,遞歸神經網路模型17是可以僅將部分的稀疏捲積運算結果用於下一層的稀疏捲積運算或輸出,並且將另一部分的稀疏捲積運算結果用於更新記憶三維點雲。舉例來說,在圖3A的稀疏捲積SP2後,遞歸神經網路模型17是可以僅將部分的運算三維點雲Q2(t)用於下一層的稀疏捲積運算(亦即,稀疏捲積SP3),並且將另一部分的運算三維點雲Q2(t)用於更新第一記憶三維點雲M1。
然而,因為經第二稀疏捲積SP2後的運算三維點雲Q2(t)的捲積核數目可以分為數個特徵(或稱,頻道),所以上述這兩部分的運算三維點雲Q2(t)可以是指包含有不同頻道的數據。也就是說,上述這兩部分的運算三維點雲Q2(t)的數據可以是完全沒有重疊。總而言之,本發明並不限制進行稀疏捲積運算或更新記憶三維點雲時的具體實現方式。
另一方面,若考量到第一或第二記憶三維點雲M1、M2並不是只能夠完全用運算三維點雲Q2(t)或重建三維點雲R(t)來作取代,因此,在其中一種應用中,處理器13更可用以定義至少一權重自定函數 f、至少一第一稀疏捲積核K1以及至少一第二稀疏捲積核K2。值得一提的是,上述權重自定函數 f、第一稀疏捲積核K1及第二稀疏捲積核K2可以是經由三維點雲追蹤裝置1在進行完一訓練模式後所定義,但本發明並不以此為限制。
舉例來說,所述訓練模式可以是利用遞歸神經網路模型17來對已知的三維點雲(未繪示)進行環境重建運算,以獲得到其所重建後的三維點雲,並且可藉由比對已知的三維點雲及其所重建後的三維點雲間的誤差關係,來進而制定出遞歸神經網路模型17中的各項特徵參數(例如,權重自定函數 f、第一稀疏捲積核K1及第二稀疏捲積核K2等,又或者是,稀疏捲積SP1~SP3內的各捲積核參數)。
另外,在所述訓練模式中,遞歸神經網路模型17還可以通過使用線性損失函數(linear hinge loss)並加入L1懲罰(L1 penalty),以提升稀疏捲積的稀疏程度。由於訓練模式的原理已皆為本技術領域中具有通常知識者所習知,因此上述內容將僅是做為示意,以下即不再多做說明。總而言之,本發明並不限制三維點雲追蹤裝置1進行訓練模式時的具體實現方式,故本技術領域中具有通常知識者應可依據實際需求或應用來進行相關設計。
更進一步來說,在以運算三維點雲Q2(t)更新第一記憶三維點雲M1的一較佳實施中,遞歸神經網路模型17是會利用權重自定函數 f,來由第一記憶三維點雲M1、運算三維點雲Q2(t)、第一稀疏捲積核K1及第二稀疏捲積核K2中,決定一個權重向量p,並且將第一記憶三維點雲M1更新為第一記憶三維點雲M1、運算三維點雲Q2(t)及權重向量p代入一權重方程式後的結果。
類似地,在以重建三維點雲R(t)更新第二記憶三維點雲M2的一較佳實施中,遞歸神經網路模型17則是會利用權重自定函數 f,來由第二記憶三維點雲M2、重建三維點雲R(t)、第一稀疏捲積核K1及第二稀疏捲積核K2中,決定權重向量p,並且將第二記憶三維點雲M2更新為第二記憶三維點雲M2、重建三維點雲R(t)及權重向量p代入前述權重方程式後的結果。
因此,應當理解的是,在上述更新第一及第二記憶三維點雲M1、M2的這兩較佳實施例中,每一較佳實施例所能用到的權重自定函數 f、第一及第二稀疏捲積核K1、K2即可是互不相同的。總而言之,本發明亦不限制權重自定函數 f、第一及第二稀疏捲積核K1、K2的具體實現方式。接著,請一併參閱圖3B,圖3B係將用以來解釋圖3A的環境重建運算中更新第一或第二記憶三維點雲的一較佳實施例下的具體運作方式。在圖3B中,權重方程式即為p*C1+(1-p)*C2,且權重向量p則表示為:p= f(C1*K1+C2*K2),而C1及C2則分別為第一記憶三維點雲M1與運算三維點雲Q2(t),或第二記憶三維點雲M2與重建三維點雲R(t)。
根據以上內容的教示,應當亦理解的是,權重向量p的分量係介於0至1之間。也就是說,假設在權重向量p全為0的情況下,遞歸神經網路模型17就會是只利用運算三維點雲Q2(t)或重建三維點雲R(t) (亦即,C2)來取代目前的第一或第二記憶三維點雲M1、M2,以此類推,假設在權重向量p全為1的情況下,遞歸神經網路模型17也就會是只利用原先的第一或第二記憶三維點雲M1、M2(亦即,C1)來維持作為目前的第一或第二記憶三維點雲M1、M2,而不會是利用到運算三維點雲Q2(t)或重建三維點雲R(t)來更新目前的第一或第二記憶三維點雲M1、M2。總而言之,圖3B所使用更新第一或第二記憶三維點雲M1、M2的具體實現方式在此亦僅只是舉例,其並非用以限制本發明。
更進一步來說,從上述內容可知,圖1中的儲存器15所儲存的記憶三維點雲M(亦即,包括第一及第二記憶三維點雲M1、M2)並非只是輸入/輸出介面11所收到的不同時刻下的這些觀測三維點雲S,而是這些觀測三維點雲S所經由數次捲積及更新處理(例如,圖3A)後的數據結果。也就是說,圖2中的記憶三維點雲M即為過去收到的觀測三維點雲S(t-1)(未繪示)所經由數次捲積及更新處理後的數據結果。因此,在其中一種應用中,記憶三維點雲M更可以是在當三維點雲追蹤裝置1所開始探測此環境後才產生,而非是一開始就預先儲存在儲存器15中。另外,假設觀測三維點雲S(t)即為最一開始的觀測數據時,儲存器15所儲存的記憶三維點雲M則可以是由空白三維點雲經數次捲積及更新處理後所產生。總而言之,本發明亦不限制記憶三維點雲M的具體實現方式。
再者,請一併參閱圖3C,圖3C係將用以來解釋圖2的遞歸神經網路模型17中進行環境預測運算的具體運作方式。如圖3C所示,遞歸神經網路模型17是會先將一個空白三維點雲(未繪示)與第一記憶三維點雲M1進行第四稀疏捲積運算,以得到經此第四稀疏捲積SP4後的運算三維點雲Q3(t)。然後,遞歸神經網路模型17是會再將運算三維點雲Q3(t)與第二記憶三維點雲M2進行第五稀疏捲積運算,以得到環境在時刻t+1(亦即,第二時刻)下的預測三維點雲P(t+1)。由於圖3C中的部分技術原理與圖3A相同,故於此也就不再多加贅述。總而言之,圖3C所使用到的環境預測運算的具體實現方式在此也僅只是舉例,其並非用以限制本發明。
最後,為了更進一步說明關於三維點雲追蹤裝置1的運作流程,本發明進一步提供其三維點雲追蹤方法的一種實施方式。請參閱圖4,圖4是本發明實施例所提供的利用遞歸神經網路的三維點雲追蹤方法的流程示意圖。其中,圖4的三維點雲追蹤方法是可以執行於圖1的三維點雲追蹤裝置1中,但本發明並不限制圖4的三維點雲追蹤方法僅能夠執行於圖1的三維點雲追蹤裝置1中。另外,詳細步驟流程如前述實施例所述,於此僅作概述而不再多加冗述。
如圖4所示,首先,在步驟S410中,令輸入/輸出介面接收環境在不同時刻下的不同觀測三維點雲,其中這些觀測三維點雲係由至少一光達所掃描取得。其次,在步驟S420中,令儲存器儲存有關環境的至少一記憶三維點雲。接著,在步驟S430中,令處理器接收這些觀測三維點雲及記憶三維點雲,並且當收到環境在第一時刻下的觀測三維點雲時,則進行步驟S440至步驟S450。
在步驟S440中,令處理器利用至少一遞歸神經網路模型,來對觀測三維點雲及記憶三維點雲進行環境重建運算,以得到環境在此第一時刻下的重建三維點雲,並且在步驟S450中,令處理器再利用遞歸神經網路模型,來對記憶三維點雲及空白三維點雲進行環境預測運算,以得到環境在第二時刻下的預測三維點雲。其中,所述第二時刻係晚於第一時刻。
根據以上內容的教示,本技術領域中具有通常知識者應可以理解到,步驟S410、步驟S420及步驟S430應該為並行執行而未衝突之步驟。另外,以下為了更進一步說明關於步驟S440的實現細節,本發明進一步提供其步驟S440的一種實施方式。請參閱圖5A,圖5A是圖4的三維點雲追蹤方法中利用遞歸神經網路模型進行環境重建運算的流程示意圖。其中,圖5A中部分與圖4相同之流程步驟以相同之圖號標示,故於此便不再多加詳述其細節。
在圖5A的實施例中,步驟S440更可以包括有步驟S441至步驟S445。首先,在步驟S441中,遞歸神經網路模型是會先對觀測三維點雲進行第一稀疏捲積運算,以得到經第一稀疏捲積後的第一運算三維點雲。接著,在步驟S443中,遞歸神經網路模型是將第一運算三維點雲與儲存器所儲存的第一記憶三維點雲進行第二稀疏捲積運算,以得到經第二稀疏捲積後的第二運算三維點雲,並且以第二運算三維點雲更新第一記憶三維點雲。
然後,在步驟S445中,遞歸神經網路模型是再將第二運算三維點雲與儲存器所儲存的第二記憶三維點雲進行第三稀疏捲積運算,以得到環境在第一時刻下的重建三維點雲,並且以重建三維點雲更新第二記憶三維點雲。值得注意的是,圖5A所採用的實施方式在此僅是用以舉例,其並非用以限制本發明。另外,圖5A中更新第一或第二記憶三維點雲的一較佳實施方式,可請參閱到圖3B所示,故於此便不再多加贅述。
另外,以下為了更進一步說明關於步驟S450的實現細節,本發明進一步提供其步驟S450的一種實施方式。請參閱圖5B,圖5B是圖4的三維點雲追蹤方法中利用遞歸神經網路模型進行環境預測運算的流程示意圖。其中,圖5B中部分與圖4相同之流程步驟以相同之圖號標示,故於此便不再多加詳述其細節。
在圖5B的實施例中,步驟S450更可以包括有步驟S451至步驟S453。首先,在步驟S451中,遞歸神經網路模型是會先將一個空白三維點雲與儲存器所儲存的第一記憶三維點雲進行第四稀疏捲積運算,以得到經第四稀疏捲積後的第三運算三維點雲。然後,在步驟S453中,遞歸神經網路模型是會再將第三運算三維點雲與儲存器所儲存的第二記憶三維點雲進行第五稀疏捲積運算,以得到環境在第二時刻下的預測三維點雲。由於詳細步驟流程如前述實施例所述,故於此也就不再多加詳述其細節。
綜上所述,本發明實施例所提供的利用遞歸神經網路的三維點雲追蹤裝置及方法,不僅可以是用來重建整個環境的三維點雲,還可以是用來預測整個環境在後續時刻下的三維點雲。特別地是,因為本發明是以整個環境的三維點雲來作為追蹤對象,所以在重建的過程中,本發明是可以利用過去的點雲資訊,來對此環境目前所因某移動物體被遮蔽而未能探測的部分區域點雲進行補充,以藉此正確地重建起此環境在目前時刻下的三維點雲,並且在預測的過程中,本發明是可以通過利用遞歸神經網路模型來對整個環境進行建模(亦即,編碼)的方式,以進而預測出此環境在後續時刻下的三維點雲,並藉此準確地追蹤到此環境內的某移動物體的未來變化。除此之外,本發明還可以是運用到了稀疏捲積的運算特性,因此在合理的時間及計算能力上,本發明是能夠有效地處理複雜的三維點雲資訊,以進而實踐上述重建及預測的最佳效果。
以上所述僅為本發明之實施例,其並非用以侷限本發明之專利範圍。
1‧‧‧三維點雲追蹤裝置
11‧‧‧輸入/輸出介面
13‧‧‧處理器
15‧‧‧儲存器
S、S(t)‧‧‧觀測三維點雲
M‧‧‧記憶三維點雲
17‧‧‧遞歸神經網路模型
R(t)‧‧‧重建三維點雲
P(t+1)‧‧‧預測三維點雲
M1‧‧‧第一記憶三維點雲
M2‧‧‧第二記憶三維點雲
SP1~SP5‧‧‧稀疏捲積
Q1(t)~Q3(t)‧‧‧運算三維點雲
C1、C2‧‧‧三維點雲
K1‧‧‧第一稀疏捲積核
K2‧‧‧第二稀疏捲積核
f‧‧‧權重自定函數
p‧‧‧權重向量
S410~S450、S441~S445、S451~S453‧‧‧流程步驟
圖1是本發明實施例所提供的利用遞歸神經網路的三維點雲追蹤裝置的功能方塊示意圖。 圖2是圖1的三維點雲追蹤裝置中的處理器的運作示意圖。 圖3A是圖2的遞歸神經網路模型中進行環境重建運算的運作示意圖。 圖3B是圖3A的環境重建運算中更新第一或第二記憶三維點雲的一較佳實施例下的運作示意圖。 圖3C是圖2的遞歸神經網路模型中進行環境預測運算的運作示意圖。 圖4是本發明實施例所提供的利用遞歸神經網路的三維點雲追蹤方法的流程示意圖。 圖5A是圖4的三維點雲追蹤方法中利用遞歸神經網路模型進行環境重建運算的流程示意圖。 圖5B是圖4的三維點雲追蹤方法中利用遞歸神經網路模型進行環境預測運算的流程示意圖。

Claims (12)

  1. 一種利用遞歸神經網路的三維點雲追蹤裝置,包括:一輸入/輸出介面,用來接收一環境在不同時刻下的不同觀測三維點雲,其中該些觀測三維點雲係由至少一光達所掃描取得;一儲存器,用來儲存有關該環境的至少一記憶三維點雲;以及一處理器,分別與該輸入/輸出介面及該儲存器電性連接,用來接收該些觀測三維點雲及該至少一記憶三維點雲,並且當收到該環境在一第一時刻下的該觀測三維點雲時,該處理器利用至少一遞歸神經網路模型,來對該觀測三維點雲及該至少一記憶三維點雲進行環境重建運算,以得到該環境在該第一時刻下的一重建三維點雲,並且再利用該遞歸神經網路模型,來對該至少一記憶三維點雲及一空白三維點雲進行環境預測運算,以得到該環境在一第二時刻下的一預測三維點雲,其中該第二時刻係晚於該第一時刻;其中該至少一記憶三維點雲包括一第一記憶三維點雲及一第二記憶三維點雲,並且在利用該遞歸神經網路模型,來對該觀測三維點雲及該至少一記憶三維點雲進行該環境重建運算,以得到該環境在該第一時刻下的該重建三維點雲的步驟中,包括:對該觀測三維點雲進行一第一稀疏捲積運算,以得到一第一運算三維點雲; 將該第一運算三維點雲與該第一記憶三維點雲進行一第二稀疏捲積運算,以得到一第二運算三維點雲,並且以該第二運算三維點雲更新該第一記憶三維點雲;以及將該第二運算三維點雲與該第二記憶三維點雲進行一第三稀疏捲積運算,以得到該環境在該第一時刻下的該重建三維點雲,並且以該重建三維點雲更新該第二記憶三維點雲。
  2. 如請求項第1項所述的三維點雲追蹤裝置,其中在利用該遞歸神經網路模型,來對該至少一記憶三維點雲及該空白三維點雲進行環境預測運算,以得到該環境在該第二時刻下的該預測三維點雲的步驟中,包括:將該空白三維點雲與該第一記憶三維點雲進行一第四稀疏捲積運算,以得到一第三運算三維點雲;以及將該第三運算三維點雲與該第二記憶三維點雲進行一第五稀疏捲積運算,以得到該環境在該第二時刻下的該預測三維點雲。
  3. 如請求項第2項所述的三維點雲追蹤裝置,其中該處理器更用以定義至少一權重自定函數、至少一第一稀疏捲積核及至少一第二稀疏捲積核,並且在以該第二運算三維點雲更新該第一記憶三維點雲的步驟中,更包括:利用該權重自定函數,來由該第一記憶三維點雲、該第二運算三維點雲、該第一稀疏捲積核及該第二稀疏捲積核中,決定一權重向量,並且將該第一記憶三維點雲更新為該第一記憶三維點雲、該第二運算三維點雲及該權重向量代入一權重方程式後的結果。
  4. 如請求項第3項所述的三維點雲追蹤裝置,其中在以該重建三維點雲更新該第二記憶三維點雲的步驟中,更包括:利用該權重自定函數,來由該第二記憶三維點雲、該重建三維點雲、該第一稀疏捲積核及該第二稀疏捲積核中,決定該權重向量,並且將該第二記憶三維點雲更新為該第二記憶三維點雲、該重建三維點雲及該權重向量代入該權重方程式後的結果。
  5. 如請求項第4項所述的三維點雲追蹤裝置,其中該權重自定函數、該第一稀疏捲積核及該第二稀疏捲積核係經由該三維點雲追蹤裝置在進行完一訓練模式後所定義,且該權重向量的分量係介於0至1之間。
  6. 如請求項第5項所述的三維點雲追蹤裝置,其中該權重方程式為p*C1+(1-p)*C2,其中p為該權重向量,且C1及C2分別為該第一記憶三維點雲及該第二運算三維點雲,或該第二記憶三維點雲及該重建三維點雲。
  7. 一種利用遞歸神經網路的三維點雲追蹤方法,執行於一三維點雲追蹤裝置中,該三維點雲追蹤裝置包括一輸入/輸出介面、一儲存器以及一處理器,該三維點雲追蹤方法包括:令該輸入/輸出介面接收一環境在不同時刻下的不同觀測三維點雲,其中該些觀測三維點雲係由至少一光達所掃描取得;令該儲存器儲存有關該環境的至少一記憶三維點雲;以及令該處理器接收該些觀測三維點雲及該至少一記憶三維點雲,並且當收到該環境在一第一時刻下的該觀測三維點雲時,令該處理器利用至少一遞歸神經網路模型,來對該觀測三維點雲及該至少一記憶三維點雲進行環境重建運算,以得到該環境在該第一時刻下的一重建三維點雲,並且令該處理器再利用該 遞歸神經網路模型,來對該至少一記憶三維點雲及一空白三維點雲進行環境預測運算,以得到該環境在第二時刻下的一預測三維點雲,其中該第二時刻係晚於該第一時刻;其中該至少一記憶三維點雲包括一第一記憶三維點雲及一第二記憶三維點雲,並且在利用該遞歸神經網路模型,來對該觀測三維點雲及該至少一記憶三維點雲進行該環境重建運算,以得到該環境在該第一時刻下的該重建三維點雲的步驟中,包括:對該觀測三維點雲進行一第一稀疏捲積運算,以得到一第一運算三維點雲;將該第一運算三維點雲與該第一記憶三維點雲進行一第二稀疏捲積運算,以得到一第二運算三維點雲,並且以該第二運算三維點雲更新該第一記憶三維點雲;以及將該第二運算三維點雲與該第二記憶三維點雲進行一第三稀疏捲積運算,以得到該環境在該第一時刻下的該重建三維點雲,並且以該重建三維點雲更新該第二記憶三維點雲。
  8. 如請求項第7項所述的三維點雲追蹤方法,其中在利用該遞歸神經網路模型,來對該至少一記憶三維點雲及該空白三維點雲進行環境預測運算,以得到該環境在該第二時刻下的該預測三維點雲的步驟中,包括:將該空白三維點雲與該第一記憶三維點雲進行一第四稀疏捲積運算,以得到一第三運算三維點雲;以及 將該第三運算三維點雲與該第二記憶三維點雲進行一第五稀疏捲積運算,以得到該環境在該第二時刻下的該預測三維點雲。
  9. 如請求項第8項所述的三維點雲追蹤方法,其中該處理器更用以定義至少一權重自定函數、至少一第一稀疏捲積核及至少一第二稀疏捲積核,並且在以該第二運算三維點雲更新該第一記憶三維點雲的步驟中,更包括:利用該權重自定函數,來由該第一記憶三維點雲、該第二運算三維點雲、該第一稀疏捲積核及該第二稀疏捲積核中,決定一權重向量,並且將該第一記憶三維點雲更新為該第一記憶三維點雲、該第二運算三維點雲及該權重向量代入一權重方程式後的結果。
  10. 如請求項第9項所述的三維點雲追蹤方法,其中在以該重建三維點雲更新該第二記憶三維點雲的步驟中,更包括:利用該權重自定函數,來由該第二記憶三維點雲、該重建三維點雲、該第一稀疏捲積核及該第二稀疏捲積核中,決定該權重向量,並且將該第二記憶三維點雲更新為該第二記憶三維點雲、該重建三維點雲及該權重向量代入該權重方程式後的結果。
  11. 如請求項第10項所述的三維點雲追蹤方法,其中該權重自定函數、該第一稀疏捲積核及該第二稀疏捲積核係經由該三維點雲追蹤裝置在進行完一訓練模式後所定義,且該權重向量的分量係介於0至1之間。
  12. 如請求項第11項所述的三維點雲追蹤方法,其中該權重方程式為p*C1+(1-p)*C2,其中p為該權重向量,且C1及C2分別為該第一記憶 三維點雲及該第二運算三維點雲,或該第二記憶三維點雲及該重建三維點雲。
TW106143026A 2017-12-07 2017-12-07 利用遞歸神經網路的三維點雲追蹤裝置及方法 TWI657407B (zh)

Priority Applications (2)

Application Number Priority Date Filing Date Title
TW106143026A TWI657407B (zh) 2017-12-07 2017-12-07 利用遞歸神經網路的三維點雲追蹤裝置及方法
CN201810043041.7A CN109901189B (zh) 2017-12-07 2018-01-17 利用递归神经网络的三维点云跟踪装置及方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
TW106143026A TWI657407B (zh) 2017-12-07 2017-12-07 利用遞歸神經網路的三維點雲追蹤裝置及方法

Publications (2)

Publication Number Publication Date
TWI657407B true TWI657407B (zh) 2019-04-21
TW201926258A TW201926258A (zh) 2019-07-01

Family

ID=66943202

Family Applications (1)

Application Number Title Priority Date Filing Date
TW106143026A TWI657407B (zh) 2017-12-07 2017-12-07 利用遞歸神經網路的三維點雲追蹤裝置及方法

Country Status (2)

Country Link
CN (1) CN109901189B (zh)
TW (1) TWI657407B (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11100702B2 (en) 2019-12-27 2021-08-24 Industrial Technology Research Institute 3D image labeling method based on labeling information of 2D image and 3D image labeling device

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112623027A (zh) * 2020-12-26 2021-04-09 浙江天行健智能科技有限公司 一种基于bp神经网络的路感模拟方法

Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
TW201237806A (en) * 2011-02-14 2012-09-16 Mitsubishi Electric Corp Method for representing a shape of an object represented by a set of points
CN104123730A (zh) * 2014-07-31 2014-10-29 武汉大学 基于道路特征的遥感影像与激光点云配准方法及系统
US9285805B1 (en) * 2015-07-02 2016-03-15 Geodigital International Inc. Attributed roadway trajectories for self-driving vehicles
CN105678689A (zh) * 2015-12-31 2016-06-15 百度在线网络技术(北京)有限公司 高精地图数据配准关系确定方法及装置
CN106097334A (zh) * 2016-06-08 2016-11-09 北京航空航天大学 基于深度学习的点云配准方法
US20170039436A1 (en) * 2015-08-03 2017-02-09 Nokia Technologies Oy Fusion of RGB Images and Lidar Data for Lane Classification
CN106951847A (zh) * 2017-03-13 2017-07-14 百度在线网络技术(北京)有限公司 障碍物检测方法、装置、设备及存储介质
CN107226087A (zh) * 2017-05-26 2017-10-03 西安电子科技大学 一种结构化道路自动驾驶运输车及控制方法
CN107423679A (zh) * 2017-05-31 2017-12-01 深圳市鸿逸达科技有限公司 一种行人意图检测方法和系统
CN206691107U (zh) * 2017-03-08 2017-12-01 深圳市速腾聚创科技有限公司 无人驾驶汽车系统及汽车

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20020164067A1 (en) * 2001-05-02 2002-11-07 Synapix Nearest neighbor edge selection from feature tracking
CN101833786B (zh) * 2010-04-06 2011-12-28 清华大学 三维模型的捕捉及重建方法和系统
CN107025642B (zh) * 2016-01-27 2018-06-22 百度在线网络技术(北京)有限公司 基于点云数据的车辆轮廓检测方法和装置
US9836853B1 (en) * 2016-09-06 2017-12-05 Gopro, Inc. Three-dimensional convolutional neural networks for video highlight detection

Patent Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
TW201237806A (en) * 2011-02-14 2012-09-16 Mitsubishi Electric Corp Method for representing a shape of an object represented by a set of points
CN104123730A (zh) * 2014-07-31 2014-10-29 武汉大学 基于道路特征的遥感影像与激光点云配准方法及系统
US9285805B1 (en) * 2015-07-02 2016-03-15 Geodigital International Inc. Attributed roadway trajectories for self-driving vehicles
US20170039436A1 (en) * 2015-08-03 2017-02-09 Nokia Technologies Oy Fusion of RGB Images and Lidar Data for Lane Classification
CN105678689A (zh) * 2015-12-31 2016-06-15 百度在线网络技术(北京)有限公司 高精地图数据配准关系确定方法及装置
CN106097334A (zh) * 2016-06-08 2016-11-09 北京航空航天大学 基于深度学习的点云配准方法
CN206691107U (zh) * 2017-03-08 2017-12-01 深圳市速腾聚创科技有限公司 无人驾驶汽车系统及汽车
CN106951847A (zh) * 2017-03-13 2017-07-14 百度在线网络技术(北京)有限公司 障碍物检测方法、装置、设备及存储介质
CN107226087A (zh) * 2017-05-26 2017-10-03 西安电子科技大学 一种结构化道路自动驾驶运输车及控制方法
CN107423679A (zh) * 2017-05-31 2017-12-01 深圳市鸿逸达科技有限公司 一种行人意图检测方法和系统

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11100702B2 (en) 2019-12-27 2021-08-24 Industrial Technology Research Institute 3D image labeling method based on labeling information of 2D image and 3D image labeling device

Also Published As

Publication number Publication date
CN109901189A (zh) 2019-06-18
TW201926258A (zh) 2019-07-01
CN109901189B (zh) 2023-07-07

Similar Documents

Publication Publication Date Title
US10705216B2 (en) Three-dimensional point cloud tracking apparatus and method using recurrent neural network
US10984545B2 (en) Estimating depth for a video stream captured with a monocular rgb camera
EP3427008B1 (en) Laser scanner with real-time, online ego-motion estimation
Dong et al. Towards real-time monocular depth estimation for robotics: A survey
US9193075B1 (en) Apparatus and methods for object detection via optical flow cancellation
US20160239706A1 (en) Convolution matrix multiply with callback for deep tiling for deep convolutional neural networks
Sless et al. Road scene understanding by occupancy grid learning from sparse radar clusters using semantic segmentation
US20210096241A1 (en) Perception system
Liu et al. Fg-net: A fast and accurate framework for large-scale lidar point cloud understanding
US11074438B2 (en) Disentangling human dynamics for pedestrian locomotion forecasting with noisy supervision
JP2021532373A (ja) 測位システム、測位方法及び記憶媒体
CN108367436B (zh) 针对三维空间中的对象位置和范围的主动相机移动确定
Henson et al. Attitude-trajectory estimation for forward-looking multibeam sonar based on acoustic image registration
US11822621B2 (en) Systems and methods for training a machine-learning-based monocular depth estimator
CN111739066B (zh) 一种基于高斯过程的视觉定位方法、系统及存储介质
US20200265294A1 (en) Object Animation Using Generative Neural Networks
JP7332238B2 (ja) タスク固有のデータ利用のための物理学により誘導されたディープマルチモーダル埋め込みのための方法及び装置
CN114222986A (zh) 使用社交图网络进行的随机轨迹预测
TWI657407B (zh) 利用遞歸神經網路的三維點雲追蹤裝置及方法
CN115855022A (zh) 使用深度神经网络执行自主路径导航
CN114586078A (zh) 手部姿态估计方法、装置、设备以及计算机存储介质
WO2020213099A1 (ja) オブジェクト検出・追跡装置、方法、およびプログラム記録媒体
KR102150794B1 (ko) 손 자세 인식 및 적응적 공간 탐색을 활용한 손 관절 추적 방법 및 그 장치
Abdulaaty et al. Real-time depth completion using radar and camera
JP7310927B2 (ja) 物体追跡装置、物体追跡方法及び記録媒体