TWI692648B - 感測器位置判定技術 - Google Patents
感測器位置判定技術 Download PDFInfo
- Publication number
- TWI692648B TWI692648B TW107121145A TW107121145A TWI692648B TW I692648 B TWI692648 B TW I692648B TW 107121145 A TW107121145 A TW 107121145A TW 107121145 A TW107121145 A TW 107121145A TW I692648 B TWI692648 B TW I692648B
- Authority
- TW
- Taiwan
- Prior art keywords
- sensor
- presentation
- data
- dimensional object
- calibration
- Prior art date
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
- G06T7/73—Determining position or orientation of objects or cameras using feature-based methods
- G06T7/75—Determining position or orientation of objects or cameras using feature-based methods involving models
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2200/00—Indexing scheme for image data processing or generation, in general
- G06T2200/04—Indexing scheme for image data processing or generation, in general involving 3D image data
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10028—Range image; Depth image; 3D point clouds
Abstract
在一範例中,一設備包括一第一感測器、一第二感測器、及一控制器。第一感測器收集描述在一場景中被置於一不變位置的一三維物件的一第一組資料。第二感應器收集描述三維物件的一第二組資料。第一感測器在此場景中具有一第一位置,同時第二感測器在此場景中具有一第二位置。控制器自第一組資料產生三維物件的一第一呈現及自第二組資料產生三維物件的一第二呈現。控制器亦基於第一呈現的及第二呈現與三維物件的一三維模型之一校準而判定第一位置及第二位置。
Description
發明領域 本發明大致係有關感測器位置判定技術。
發明背景 一三維(3D)掃描系統收集一3D物件或環境的物理特性(例如:形狀、大小、重量、及/或沿)方面的資料。被收集的資料可接著被用來建構此物件或環境的一數位3D模型。舉例來說一3D掃描系統可由一執法機構用來記錄一犯罪現場、由一電子遊戲開發者用來呈現一數位物件或角色、由一房地產仲介用來建構一出售物件的一「虛擬遊覽」、由一考古學家用來複製一文化物品、以及其他的應用。
發明概要 依據本發明之一可行實施例,係特地提出一種
較佳實施例之詳細說明 本發明廣泛的描述用以在一三維(3D)掃描系統中判定感測器位置的一設備、方法及非暫時性電腦可讀媒體。如同上述,一3D掃描系統使用複數個感測器以收集一3D物件或環境的物理特性(例如:形狀、大小、重量、及/或沿)方面的資料。所收集的資料可接著被用來建構此物件或環境的一數位3D模型。3D模型的精確性部分的取決於感測器的相對位置(亦即:位址及/或方位)上的資訊,其允許藉由不同感測器收集的資料被合併進一單一模型,此模型係此3D物件或環境的一真實3D代表。
本發明的範例使用具有已知幾何結構、維度、及/或顏色的依單一3D校正物件來判定在一3D掃描系統中複數個感測器的各別及/或相對位置。在一範例中,一3D模型係在掃描前由3D校正物件產生。此3D校正物件接著定位於3D掃描系統中。3D掃描系統的各個感測器掃描3D校正物件,而透過掃描收集的資料允許一控制器自個別感測器的各別觀點產生校正物件的呈現(其中任何給定的呈現可或可不包括整個3D校正模型)。此3D模型接著校準至各個呈現,而感測器的各別位置(例如:位址及/或方位)透過多組轉換參數被導出。已知各個感測器的位置時,複數個感測器可一起被使用以產生3D物件的精確3D模型。
在本發明的上下文中,感測器的「位置」係被理解為指示在一3D掃描系統中此感測器的位址及/或方位。感測器的「位址」可指在一3D空間中此感測器的線性位置。感測器的「方位」可指在一3D空間中此感測器的角度位置。
圖1描繪一範例三維掃描系統100的一高階方塊圖,其用以透過一三維物件判定三維掃描系統的感測器之位置。如圖1所示,電子裝置或系統100大致包含一控制器102及複數個感測器,包含一第一感測器1041
及一第二感測器1042
(下文共同稱為「複數個感測器104」)。
儘管描繪了兩個感測器104,系統100可包括任何數量的感測器。如同上述的,複數個感測器104收集一3D目標(例如:一物件或環境)的物理特性(例如:形狀、大小、重量、及/或沿)方面的資料。複數個感測器104可包括不同類型的感測器,諸如3D攝影機、彩色攝影機、感熱攝影機、深度感測器、壓力板、及/或其他類型的感測器。舉例來說,系統100被使用來設計客製矯正器,則感測器可包括壓力板以測量腳壓(例如:以量化平坦度、重量分布、或腳的其他特徵)以及3D攝影機以測量腳的大小及幾何結構。複數個感測器104的個別視野可重疊或非重疊。
控制器102通信的耦合至複數個感測器104及使用複數個感測器104所收集的資料以產生3D目標的3D模型。在一些範例中,控制器102亦可發送信號至複數個感測器104以控制複數個感測器104的位置,以改善資料收集程序。在3D目標被掃描前,在一範例中控制器102判定各個複數個感測器104的位置(例如:位址及/或方位)。知悉複數個感測器104的相對位置幫助控制器102將收集自複數個感測器104的資料合併成一單一、精確的3D目標的3D模型。
在一範例中,複數個感測器104的位置系透過使用具有已知幾何結構及維度的一3D校正物件110的一校正程序來判定。3D校正物件110的已知幾何結構及維度可在可由控制器102存取的一3D模型108中被描述。此外,3D校正物件110可具有設計來協助判定特定類型的感測器的位置之特定物理特徵。舉例來說,一紅外線反射校正物件可被用來判定一紅外線攝影機的位置、一經加重校正物件可被用來判定一壓力板的位置、一粗糙化校正物件可被用來判定一色彩感測器的位置…等等。
3D校正物件110可被放置於場景中一不變或固定的位置,例如:如此一來3D校正物件110的位址或方位不會改變,直到校正程序完成。3D校正物件110被置於其不變位置時,第一感測器1041
自場景中的一第一位置掃描3D校正物件110,同時第二感測器1042
自場景中的一第二位置掃描3D校正物件。第一感測器1041
及第二感測器1042
發送藉由控制器102的掃描而獲得的資料。基於此資料,控制器102產生自第一感測器1041
的觀點描繪3D校正物件110之物理特性的一第一呈現1061
及自第二感測器1042
的觀點描繪3D校正物件110之物理特性的一第二呈現1062
。第一感測器1041
及第二感測器1042
可同時地操作以掃描3D校正物件110,或第一感測器1041
及第二感測器1042
可一個一個單獨的操作(例如:第二感測器1042
不開始掃描直到第一感測器1041
完成掃描)。
第一呈現1061
及第二呈現1062
兩者皆由控制器102與3D校正物件110的3D模型108一起使用來判定複數個感測器104的位置。用於使用此資訊判定複數個感測器104的位置的一方法的範例係參考圖2而更詳加的描述。
圖2描繪在一三維掃描系統上的一範例操作方法200之流程圖,其用以判定三維掃描系統的感測器的位置。舉例來說方法200可由圖1的控制器102執行。如此一來,可就討論方法200對比圖1的3D掃描系統100的組件而作為參考。然而,此等參考係為示例而產生,而非意為具限制性。
方法200於方塊202開始。在方塊204中,獲得一3D物件的一3D模型,例如:一3D校正物件。此3D模型描述3D校正物件的幾何結構及維度,以及3D校正物件潛在的其他物理特性(例如:顏色、重量…等等)。3D模型可透過精確製造(例如:自針對3D校正物件的電腦輔助設計)、透過藉由一經校正3D掃描系統對3D校正物件的3D掃描、或透過其他可靠的方法獲得。
在方塊206,3D校正物件的一第一呈現自描述3D校正物件的一第一組資料(例如:描述3D校正物件的一物理特性)產生。此第一組資料可藉由一第一感測器收集。第一感測器在一3D掃描系統中具有一第一位置,其中3D校正物件係被放置於一不變的位置(例如:在3D掃描系統中具有一便利原點的一些位置)。自此第一位置,第一感測器具有允許其偵測及掃描至少部分3D校正物件的物理特性的一第一視野。由第一感測器偵測的物理特性的類型是取決於此第一感測器的類型。舉例來說第一感測器可包含一3D攝影機、一彩色攝影機、一感熱攝影機、一深度感測器、一壓力板、及/或其他類型的感測器。
在方塊208中,3D校正物件的一第二呈現自描述3D校正物件的一第二組資料(例如:描述3D校正物件的一物理特性)產生。此第二組資料可藉由一第二感測器收集。第二感測器在一3D掃描系統中具有一第二位置,其中3D校正物件被放置。自此第二位置,第二感測器具有允許其偵測及掃描至少部分3D校正物件的物理特性的一第二視野。此第二視野可能會也可能不會與第一視野重疊。由第二感測器偵測的物理特性的類型是取決於此第二感測器的類型。舉例來說,像第一感測器一樣,第二感測器可包含一3D攝影機、一彩色攝影機、一感熱攝影機、一深度感測器、一壓力板、及/或其他類型的感測器。在一範例中,第一感測器及第二感測器可包含不同類型的感測器。舉例來說第一感測器可包含一3D攝影機,而第二感測器可包含一壓力感測器。在一個範例中,第一組資料及第二組資料係藉由第一感測器及第二感測器同時地被收集;然而,在另一個例子中,第一組資料及第二組資料係在不同時間獲得。儘管如此,3D校正物件的位置維持不變且不在藉由第一感測器及第二感測器收集/掃描的資料間改變。
在方塊210中,第一呈現及第二呈現係校準於3D校正物件的3D模型。舉例來說第一呈現可校準於其最接近匹配的3D模型的一第一部份,而第二呈現可校準於其最接近匹配的3D模型的一第二部份。在一個範例中第一呈現及第二呈現可重疊。也就是說3D校正物件的特定部分可皆被第一呈現及第二呈現兩者描述。在一個範例中,此校準係包括一第一大略、全域校準(例如:使用一四點一致集合演算法(4-points congruent sets algorithm)、一超級四點一致集合演算法(super 4-points congruent sets algorithm)、或一光束法平差演算法(bundle adjustment algorithm))接著一第二、更精確校準(例如:使用一最近鄰點迭代演算法(iterative closest point algorithm)或一光束法平差演算法)的一二階段程序。
在方塊212中,第一感測器的位置係基於第一呈現對3D校正物件的3D模型的校準而被識別。舉例來說,第一呈現對3D模型的校準可允許第一組轉換參數被導出,其中第一組轉換參數描述第一感測器相對於3D模型的位置。舉例來說第一組轉換參數可包含齊性轉換矩陣(例如:用來同時代表旋轉及位移的一4乘4矩陣)、一組直角座標,或其他相似物。
在方塊214中,第二感測器的位置係基於第二呈現對3D校正物件的3D模型的校準而被識別。舉例來說,第二呈現對3D模型的校準可允許第二組轉換參數被導出,其中第二組轉換參數描述第二感測器相對於3D模型的位置。舉例來說第二組轉換參數可包含齊性轉換矩陣、一組直角座標,或其他相似物。
在方塊216中,第一感測器及第二感測器的位置被儲存。在一個範例中,感測器位置的儲存涉及儲存描述感測器位置(例如:位址及/或方位)的座標。感測器位置的儲存亦可涉及儲存關聯於感測器位置的一組轉換參數,因而此組轉換參數可用於少晚的時間,例如:為了修正藉由感測器所收集關於一新的將被模型化的3D目標物件的資料。
方法200在方塊218結束。
感測器的位置被判定時,3D掃描系統可準備好掃描新的3D目標物件。知道3D掃描系統內感測器的各別位置允許3D掃描系統適當的將由感測器收集的資料合併進3D目標物件的精確3D模型。舉例來說各個感測器的轉換參數可被用來導引收集自此等感測器的資料的結合(例如:以改正資料的位置或二或更多資料被合併的方式)。
個別感測器的轉換參數被導出時,此等感測器之間的轉換可亦被導出。舉例來說,知道第一感測器的第一組轉換參數及第二感測器的第二組轉換參數可允許其判定第一感測器相對於第二感測器的位置。
應注意的是儘管未明確的規定,上述方法200的一些方塊、功能、或操作可包括針對一特定應用的儲存、顯示、及/或輸出。換句話說,任何在方法200中被描述的資料、紀錄、場、及/或中間的結果可取決於此特定應用而被儲存、顯示、及/或輸出至另一裝置。更進一步的,圖2中計載一判定操作、或涉及一決定的方塊、功能、或操作並不暗示判定操作的兩個分支皆被執行。判定操作的換句話說,分支的其中之一可不被執行,其取決於判定操作的結果。
圖3描繪一範例電子裝置300的一高階方塊圖,其用以透過一三維物件判定三維掃描系統的感測器之位置。舉例來說圖1描繪的控制器102可以一相似於電子裝置300的方式組配。如此一來電子裝置300可被實現為一電子裝置或系統的一控制器,諸如一三維掃描系統。
如圖3所描述,電子裝置300包含一硬體處理器元件302,例如:一中央處理單元(CPU)、一微處理器、或一多核心處理器,一記憶體304,例如:隨機存取記憶體(RAM)及/或唯讀記憶體(ROM),用以判定在一3D掃描系統中的感測器之位置的一模組305,及各種輸入/輸出裝置306,例如:儲存裝置,包括但不限於一磁帶驅動器、軟碟機、一硬碟或一光碟機、一接收器、一發送機(transmitter)、一顯示器、一輸出埠、一輸入埠、及一使用者輸入裝置,諸如一鍵盤、一鍵板(keypad)、一滑鼠、一麥克風,及相似裝置。
儘管顯示了一個處理器元件,應注意的是電子裝置300可施用複數個處理器元件。更進一步的,儘管電子裝置300被顯示在此圖中,如果上述的(複數個)方法針對一定的繪是範例而被以一分散或平行的方式實施,亦即:上述(複數個)方法的方塊或整個(複數個)方法係橫跨複數個或平行電子裝置而被實現,而後此圖的電子裝置300係意圖代表這些複數個電子裝置的每一者。
應注意的是本發明可藉由機器可讀指令及/或由機器可讀指令結合硬體來實現,例如:使用特定應用積體電路(ASIC)、一可程式邏輯陣列(PLA)、包括一現場可程式閘陣列(FPGA)、或在一硬體裝置上採用的狀態機、一一般用途電腦或任何其他硬體同等設備、例如關於上述(複數個)方法的電腦可讀指令可被用以組配一硬體處理器以執行上述(複數個)方法的方塊、功能及/或操作。
在一個範例中,針對用於判定在一3D掃描系統中的感測器位置之本模組或程序305的指令或資料,例如:機器可讀指令可被載入進記憶體304及藉由硬體處理器元件302執行以實現上述與方法200相連結的方塊、功能或操作。舉例來說模組305可包括複數個程式碼組件、包括一校準組件308及一轉換組件310。舉例來說,這些程式碼組件可被包括在一3D掃描系統的一控制器中,諸如圖1的控制器102。
校準組件308可被組配來將基於由一感測器收集的資料產生的一3D校正物件的一呈現與3D校正物件的一3D模型校準。舉例來說校準組件308可被組配來執行方法200的方塊210的全部或部分動作。
轉換組件310可被組配來識別在一3D掃描系統中的一感測器的一方位,例如:藉由導出描述感測器相對於一3D校正物件的方位之一組轉換參數。舉例來說轉換參數310可被組配來執行方法200的方塊212至214的全部或部分動作。
更進一步的,當一硬體處理器執行指令以執行「操作」時,此可包括硬體處理器直接的執行此操作及/或便利於另一硬體裝置或組件,例如:一共處理器極其相似物,引導另一硬體裝置或組件、或與另一硬體裝置或組件合作,以執行此操作。
執行關於上述(複數個)方法的機器可讀指令的處理器可被視為一經程式編碼處理器或一經特別化處理器。據此,本發明用於判定在一3D掃描系統中的感測器的位置的現行模組305可被儲存在一有形的或實體的(廣泛來說非暫時性)電腦可讀儲存裝置或媒體,例如:依電性記憶體、非依電性記憶體、ROM記憶體、RAM記憶體、磁性或光學驅動器、裝置或磁片及其相似物。更精確地說,電腦可讀儲存裝置可包含提供資訊,諸如資料及/或指令,的儲存能力之任何實體裝置,此等資訊係欲被一處理器或一電子裝置,諸如一3D掃描系統的一電腦或一控制器,存取的。
將被理解的是上述揭露的變體及其其他特徵及功能或替代可被結合進多個其他不同系統或應用。各種其中現行未能想到或未經預測的替代、修正、或變化可接著被實現,而其亦係被意圖包含於下列申請專利範圍中。
100‧‧‧三維(3D)掃描系統、系統102‧‧‧控制器104‧‧‧感測器1041‧‧‧第一感測器1042‧‧‧第二感測器1061‧‧‧第一呈現1062‧‧‧第二呈現108‧‧‧3D模型110‧‧‧3D校正物件200‧‧‧方法202、204、206、208、210、212、214、216、218‧‧‧方塊300‧‧‧電子裝置302‧‧‧硬體處理器元件304‧‧‧記憶體305‧‧‧模組、程序306‧‧‧輸入/輸出裝置308‧‧‧校準組件310‧‧‧轉換組件
圖1描繪一範例三維掃描系統的一高階方塊圖,其用以透過一三維物件判定三維掃描系統的感測器之位置;
圖2描繪在一三維掃描系統上的一範例操作方法之流程圖,其用以判定三維掃描系統的感測器的位置;及
圖3描繪一範例電子裝置的一高階方塊圖,其用以透過一三維物件判定三維掃描系統的感測器之位置。
100‧‧‧三維(3D)掃描系統、系統
102‧‧‧控制器
104‧‧‧感測器
1041‧‧‧第一感測器
1042‧‧‧第二感測器
1061‧‧‧第一呈現
1062‧‧‧第二呈現
108‧‧‧3D模型
110‧‧‧3D校正物件
Claims (15)
- 一種用於感測之設備,其包含:一第一感測器,其用以收集描述放置於一場景中的一不變位置上的一個三維物件之一第一組資料,其中該第一感測器在該場景中具有一第一位置;一第二感測器,其用以收集描述該三維物件之一第二組資料,其中該第二感測器在該場景中具有一第二位置;以及一控制器,其用以自該第一組資料產生該三維物件的一第一呈現、用以自該第二組資料產生該三維物件的一第二呈現、及用以基於該第一呈現及該第二呈現與該三維物件的一個三維模型的一校準來判定該第一位置及該第二位置。
- 如請求項1之設備,其中該第一感測器相較於該第二感測器係一不同類型的感測器。
- 如請求項1之設備,其中該第一感測器的一視野及該第二感測器的一視野係非重疊的。
- 如請求項1之設備,其中該第一位置指出該第一感測器的一位址及該第一感測器的一方位,以及該第二位置指出該第二感測器的一位址及該第二感測器的一方位。
- 一種非暫時性機器可讀儲存媒體,其編碼有可藉由一電子裝置的一控制器執行的指令,該機器可讀儲存媒體包含: 用以將一個三維物件的一個三維模型校準於該三維物件的一第一呈現之指令,該第一呈現係基於一第一組資料產生,該第一組資料係藉由在一場景中具有一第一位置的該電子裝置的一第一感測器所收集;用以將該三維模型校準於該三維物件的一第二呈現之指令,該第二呈現係基於一第二組資料產生,該第二組資料係藉由在該場景中具有一第二位置的該電子裝置的一第二感測器而收集,其中該場景中該三維物件的一位置係在該第一組資料及該第二組資料的收集期間維持不變;基於該三維模型對該第一呈現之校準,識別該第一位置之指令;及基於該三維模型對該第二呈現之校準,識別該第二位置之指令。
- 如請求項5之非暫時性機器可讀儲存媒體,其中該第一感測器相較於該第二感測器係一不同類型的感測器。
- 如請求項5之非暫時性機器可讀儲存媒體,其中該第一感測器的一視野及該第二感測器的一視野係非重疊的。
- 如請求項5之非暫時性機器可讀儲存媒體,其中該第一位置指出該第一感測器的一位址及該第一感測器的一方位,以及該第二位置指出該第二感測器的一位址及該第二感測器的一方位。
- 如請求項5之非暫時性機器可讀儲存媒體,其中該第一組資料及該第二組資料係同時藉由該第一感測器及該第二感測器收集。
- 如請求項5之非暫時性機器可讀儲存媒體,其中用以將一個三維物件的該三維模型校準於該第一呈現的指令包含:用以執行該三維物件的該三維模型對該第一呈現的一全域校準的指令;及繼執行該全域校準之後,用以執行該三維模型對該第一呈現的一更精細的校準的指令。
- 如請求項5之非暫時性機器可讀儲存媒體,其中用以識別該第一位置的該等指令包含用以導出描述該第一感測器相對於該三維物件的一位置的一第一組轉換參數的指令。
- 如請求項11之非暫時性機器可讀儲存媒體,其中該第一組轉換參數包含一齊性轉換矩陣。
- 如請求項11之非暫時性機器可讀儲存媒體,其中該第一組轉換參數包含一組直角坐標(Cartesian coordinates)。
- 一種用於感測器位置判定之方法,其包含:藉由一電子裝置的一控制器將一個三維物件的一個三維模型校準於該三維物件的一第一呈現,而該第一呈現係基於藉由在一場景中具有一第一位置的該電子裝置的一 第一感測器所收集的一第一組資料;藉由該控制器將該三維物件的該三維模型校準於該三維物件的一第二呈現,而該第二呈現係基於藉由在該場景中具有一第二位置的該電子裝置的一第二感測器所收集的一第二組資料,其中該場景中該三維物件的一位置在該第一組資料及該第二組資料的收集期間維持不變;基於該三維模型對該第一呈現之校準藉由該控制器識別該第一位置;及基於該三維模型對該第二呈現之校準藉由該控制器識別該第二位置。
- 如請求項14之方法,其中該第一感測器的一視野及該第二感測器的一視野係非重疊的。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
WOPCT/US17/38270 | 2017-06-20 | ||
??PCT/US17/38270 | 2017-06-20 | ||
PCT/US2017/038270 WO2018236347A1 (en) | 2017-06-20 | 2017-06-20 | DETERMINATIONS OF SENSOR POSITIONS |
Publications (2)
Publication Number | Publication Date |
---|---|
TW201905492A TW201905492A (zh) | 2019-02-01 |
TWI692648B true TWI692648B (zh) | 2020-05-01 |
Family
ID=64737848
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
TW107121145A TWI692648B (zh) | 2017-06-20 | 2018-06-20 | 感測器位置判定技術 |
Country Status (5)
Country | Link |
---|---|
US (1) | US11263779B2 (zh) |
EP (1) | EP3642798A4 (zh) |
CN (1) | CN111052187B (zh) |
TW (1) | TWI692648B (zh) |
WO (1) | WO2018236347A1 (zh) |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2007322351A (ja) * | 2006-06-05 | 2007-12-13 | Mitsubishi Electric Corp | 3次元物体照合装置 |
JP2009128075A (ja) * | 2007-11-20 | 2009-06-11 | Ihi Corp | 物体認識方法 |
US8264546B2 (en) * | 2008-11-28 | 2012-09-11 | Sony Corporation | Image processing system for estimating camera parameters |
CN103302666A (zh) * | 2012-03-09 | 2013-09-18 | 佳能株式会社 | 信息处理设备和信息处理方法 |
US20140184496A1 (en) * | 2013-01-03 | 2014-07-03 | Meta Company | Extramissive spatial imaging digital eye glass apparatuses, methods and systems for virtual or augmediated vision, manipulation, creation, or interaction with objects, materials, or other entities |
Family Cites Families (24)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20020169586A1 (en) | 2001-03-20 | 2002-11-14 | Rankin James Stewart | Automated CAD guided sensor planning process |
US8547437B2 (en) * | 2002-11-12 | 2013-10-01 | Sensormatic Electronics, LLC | Method and system for tracking and behavioral monitoring of multiple objects moving through multiple fields-of-view |
JP5314428B2 (ja) | 2005-12-23 | 2013-10-16 | ジーコデール システムズ アクチボラゲット | 測位用パターン |
US8009932B2 (en) * | 2006-09-13 | 2011-08-30 | Providence Engineering and Environmental Group LLC | Automatic alignment of video frames for image processing |
US8179393B2 (en) * | 2009-02-13 | 2012-05-15 | Harris Corporation | Fusion of a 2D electro-optical image and 3D point cloud data for scene interpretation and registration performance assessment |
EP2399242A1 (en) | 2009-02-19 | 2011-12-28 | Dimensional Perception Technologies Ltd. | System and method for geometric modeling using multiple data acquisition means |
US9393694B2 (en) | 2010-05-14 | 2016-07-19 | Cognex Corporation | System and method for robust calibration between a machine vision system and a robot |
US9171079B2 (en) | 2011-01-28 | 2015-10-27 | Cisco Technology, Inc. | Searching sensor data |
JP5812665B2 (ja) * | 2011-04-22 | 2015-11-17 | 任天堂株式会社 | 情報処理システム、情報処理装置、情報処理方法及び情報処理プログラム |
JP5708202B2 (ja) | 2011-04-25 | 2015-04-30 | 富士電機株式会社 | Dc−dcコンバータの制御方法およびdc−dcコンバータの制御回路 |
EP3241455A1 (en) * | 2011-06-08 | 2017-11-08 | Amazon Technologies, Inc. | Internal measurement collection system and method of using same |
KR101139849B1 (ko) * | 2011-07-04 | 2012-05-02 | (주)와이앤지 | 3차원 광학 트랙 패드 장치 및 이를 이용하는 방법 |
US9886552B2 (en) * | 2011-08-12 | 2018-02-06 | Help Lighting, Inc. | System and method for image registration of multiple video streams |
RU2479039C1 (ru) | 2012-03-26 | 2013-04-10 | Закрытое акционерное общество "БОУ Лабораториз" | Способ улучшения плотной и разреженной карт диспарантности, точности реконструируемой трехмерной модели и устройство для реализации способа |
US10114492B2 (en) * | 2012-05-07 | 2018-10-30 | Sony Corporation | Information processing device, information processing method, and program |
WO2014127431A1 (en) | 2013-02-25 | 2014-08-28 | Commonwealth Scientific And Industrial Research Organisation | 3d imaging method and system |
KR101803164B1 (ko) | 2013-03-15 | 2017-12-28 | 우버 테크놀로지스, 인크. | 로봇 공학용 다중 감지 스테레오 비전 방법, 시스템 및 장치 |
WO2015006224A1 (en) | 2013-07-08 | 2015-01-15 | Vangogh Imaging, Inc. | Real-time 3d computer vision processing engine for object recognition, reconstruction, and analysis |
KR101577015B1 (ko) * | 2014-05-02 | 2015-12-15 | 경북대학교 산학협력단 | 상태 기반 3d 렌더링을 이용한 기기 모니터링 장치, 방법 및 시스템 |
US11051000B2 (en) | 2014-07-14 | 2021-06-29 | Mitsubishi Electric Research Laboratories, Inc. | Method for calibrating cameras with non-overlapping views |
US9658693B2 (en) * | 2014-12-19 | 2017-05-23 | Immersion Corporation | Systems and methods for haptically-enabled interactions with objects |
US20170094227A1 (en) * | 2015-09-25 | 2017-03-30 | Northrop Grumman Systems Corporation | Three-dimensional spatial-awareness vision system |
CN105291435B (zh) * | 2015-11-09 | 2019-01-01 | 珠海天威飞马打印耗材有限公司 | 三维打印平台调整方法和三维打印机 |
US20180121713A1 (en) * | 2016-10-28 | 2018-05-03 | Qualcomm Incorporated | Systems and methods for verifying a face |
-
2017
- 2017-06-20 CN CN201780094113.4A patent/CN111052187B/zh active Active
- 2017-06-20 EP EP17914192.4A patent/EP3642798A4/en active Pending
- 2017-06-20 US US16/075,893 patent/US11263779B2/en active Active
- 2017-06-20 WO PCT/US2017/038270 patent/WO2018236347A1/en unknown
-
2018
- 2018-06-20 TW TW107121145A patent/TWI692648B/zh active
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2007322351A (ja) * | 2006-06-05 | 2007-12-13 | Mitsubishi Electric Corp | 3次元物体照合装置 |
JP2009128075A (ja) * | 2007-11-20 | 2009-06-11 | Ihi Corp | 物体認識方法 |
US8264546B2 (en) * | 2008-11-28 | 2012-09-11 | Sony Corporation | Image processing system for estimating camera parameters |
CN103302666A (zh) * | 2012-03-09 | 2013-09-18 | 佳能株式会社 | 信息处理设备和信息处理方法 |
US20140184496A1 (en) * | 2013-01-03 | 2014-07-03 | Meta Company | Extramissive spatial imaging digital eye glass apparatuses, methods and systems for virtual or augmediated vision, manipulation, creation, or interaction with objects, materials, or other entities |
Also Published As
Publication number | Publication date |
---|---|
EP3642798A1 (en) | 2020-04-29 |
US20210209795A1 (en) | 2021-07-08 |
CN111052187A (zh) | 2020-04-21 |
TW201905492A (zh) | 2019-02-01 |
EP3642798A4 (en) | 2020-12-16 |
WO2018236347A1 (en) | 2018-12-27 |
CN111052187B (zh) | 2024-01-30 |
US11263779B2 (en) | 2022-03-01 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5746477B2 (ja) | モデル生成装置、3次元計測装置、それらの制御方法及びプログラム | |
Teichman et al. | Unsupervised Intrinsic Calibration of Depth Sensors via SLAM. | |
US9519968B2 (en) | Calibrating visual sensors using homography operators | |
JP2016103230A (ja) | 画像処理装置、画像処理方法、及びプログラム | |
US10771776B2 (en) | Apparatus and method for generating a camera model for an imaging system | |
JP2013539147A5 (zh) | ||
EP3033875A1 (en) | Image processing apparatus, image processing system, image processing method, and computer program | |
JP2008224454A (ja) | 情報処理装置、情報処理方法 | |
CN111028205B (zh) | 一种基于双目测距的眼睛瞳孔定位方法及装置 | |
WO2020208686A1 (ja) | カメラ校正装置、カメラ校正方法、及びプログラムが格納された非一時的なコンピュータ可読媒体 | |
JP6340315B2 (ja) | 画像処理方法 | |
JP5704909B2 (ja) | 注目領域検出方法、注目領域検出装置、及びプログラム | |
JP6573196B2 (ja) | 距離情報補正装置、距離情報補正方法及び距離情報補正プログラム | |
JP7136737B2 (ja) | 三次元位置計測装置、三次元位置計測方法及びプログラム | |
TWI692648B (zh) | 感測器位置判定技術 | |
CN112669392A (zh) | 一种应用于室内视频监控系统的地图定位方法及系统 | |
Bingwei et al. | Accurate geometric camera calibration technique using multi-views of a non-metric planar grid | |
Sebar et al. | A trustable 3D photogrammetry approach for cultural heritage | |
JP2020034525A (ja) | 情報処理装置及びその方法及びコンピュータプログラム | |
Karan | Accuracy improvements of consumer-grade 3D sensors for robotic applications | |
Li et al. | Absolute pose estimation using multiple forms of correspondences from RGB-D frames | |
JP6872324B2 (ja) | 計測システム、計測方法および計測プログラム | |
Cheng et al. | A linear approach for depth and colour camera calibration using hybrid parameters | |
CN111145268A (zh) | 一种视频注册方法及装置 | |
CN113167568A (zh) | 坐标计算装置、坐标计算方法和计算机可读记录介质 |