TWI483215B - 根據相關3d點雲端資料強化影像資料 - Google Patents

根據相關3d點雲端資料強化影像資料 Download PDF

Info

Publication number
TWI483215B
TWI483215B TW100133479A TW100133479A TWI483215B TW I483215 B TWI483215 B TW I483215B TW 100133479 A TW100133479 A TW 100133479A TW 100133479 A TW100133479 A TW 100133479A TW I483215 B TWI483215 B TW I483215B
Authority
TW
Taiwan
Prior art keywords
data
image data
point cloud
target
image
Prior art date
Application number
TW100133479A
Other languages
English (en)
Other versions
TW201229962A (en
Inventor
Maha El Choubassi
Igor V Kozintsev
Yi Wu
Yoram Gat
Horst W Haussecker
Original Assignee
Intel Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Intel Corp filed Critical Intel Corp
Publication of TW201229962A publication Critical patent/TW201229962A/zh
Application granted granted Critical
Publication of TWI483215B publication Critical patent/TWI483215B/zh

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10028Range image; Depth image; 3D point clouds
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2210/00Indexing scheme for image generation or computer graphics
    • G06T2210/56Particle system, point based geometry or rendering

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Graphics (AREA)
  • Geometry (AREA)
  • Software Systems (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Processing Or Creating Images (AREA)
  • Image Processing (AREA)
  • User Interface Of Digital Computer (AREA)

Description

根據相關3D點雲端資料強化影像資料
本發明之實施例大致屬於行動計算裝置,更明確地說,有關於被捕捉影像的相關內容的強化。
行動計算裝置典型包含攝影機、位置及指向感應器、及更強的計算資源。行動計算裝置也能建立高頻寬連接,以利用雲端計算基礎結構及服務提供者。
包含在行動計算裝置中之顯示器可以被使用為一現場取景器,允許裝置使用者以捕捉即時影像資料(例如圖片、視訊);然而,多數應用未能利用為行動計算裝置可用之計算資源,以提供使用者有關於該現場影像顯示(即取景器)內的額外資訊。有若干應用想要加強現場視圖,但係被限制於被顯示之基本資訊,例如使用者於某一位置間之距離,或有關使用者周圍的基本資訊(例如在現場視圖內的生意類型)。
以下說明包含以例示方式實施本發明實施例之圖式的討論。該圖式應可以了解為例示性,並不是用以限制。如於此所用,表示一或更多“實施例”係被了解為描述一包含在本發明至少一實施法中之特定特性、結構或特徵。因此,在此所出現的例如“在一實施例”或“在另一實施例”的用語描述本發明之各種實施例及實施法,並不必然整個表示相同實施例。然而,它們也並不然互相排斥。
【發明內容與實施方式】
以下包含圖式的說明之某些細節及實施法的說明,描述了以下所述部份或全部實施例及於此所述之發明概念的其他可能實施例或實施法。本發明之實施例概述將提供如下,其係隨後有參考附圖的更詳細說明。
本發明實施例相關於提供影像資料的系統、設備及方法,該影像資料被以相關資料強化予以被顯示在行動計算裝置中。本發明之實施例處理第一影像資料及3D點雲端資料,以由該3D點雲端資料抽出第一平坦片段。此第一平坦片段係相關於包含於第一影像資料中的目標。第二影像資料係被接收(例如經由包含在行動計算裝置中之影像感應器所捕獲),該第二影像資料包含在被捕獲於第一影像資料中之目標。產生相關於該目標的第二平坦片段,其中該第二平坦片段係幾何對稱於被捕捉的第二影像資料中的目標。如下所述,此平坦片段係至少部份根據第二影像資料、第一影像資料及第一平坦片段加以產生。
本發明之實施例可以更強化第二影像資料,以相關於該目標的內容(例如文字、影像或視訊、或部份3D結構)。此強化內容可以被例如顯示於包含在該行動計算裝置中的顯示器上,其中內容係被顯示以幾何對稱於第二平坦片段。
圖1顯示依據本發明一實施例顯示在行動計算裝置的強化3D視圖例。行動計算裝置100包含顯示器110。該裝置100可以為任何攜帶式計算系統,例如,膝上型電腦、平板電腦、智慧手機、手持計算裝置、及車輛計算系統等等。
在此例子中,顯示器110包含經由包含在裝置100(未示出)中之影像感應器(例如攝影機)的使用者周遭的即時視圖120。可以了解的是,藉由顯示即時視圖120,裝置100可操作為顯示影像資料(例如照片、視訊)的取景器,以允許使用者觀察裝置的影像感應器的目標。
在此實施例中,即時視圖120係以平坦片段130、140、及150強化。平坦片段130、140及150係對應於在視圖120內指明的目標。在此例子中,平坦片段130、140及150對應於在視圖120內的建築131、141及151。
平坦片段130、140及150係透過下述程序由相關於視圖120的3D資訊抽出。各個平坦片段係幾何對稱在即時視圖120中的其個別目標的表面平面(在此例子中,對稱於顯示器110所示之建築131、141及151之前側)。
在此實施例中,平坦片段130、140及150包含有關於即時視圖120中之個別目標的資料。平坦片段130包含有關於該建築的影像(在此例子中,在建築131中的使用者照片)。平坦片段140包含有關於在行動計算裝置的顯示器上的至少一個平坦片段內的建築內的相關於生意操作的文字資料。在此例子中,該文字資料指明包含在建築141內的生意。平坦片段150包含在建築151內捕捉的視訊資料。包含在各個平坦片段內的強化內容係幾何對稱其個別平坦片段(即幾何對稱於即時視圖120中的各別目標的表面平面)。該強化內容可以例如被包含在裝置100的記憶體儲存內,或經由網路連接(例如無線網際網路連接)由資料庫取得。
圖2為依據本發明實施例之程序的流程圖。於此所述之流程圖提供各種程序動作的順序例子。雖然以特定序向或順序顯示,但除非特別指明,動作的順序係可以被修改。因此,所示實施法可以被了解只作例示作用,及所示程序可以以不同順序執行,及部份動作可以平行執行。另外,一或更多動作可以在本發明之各種實施例省略;因此,在每一實施法中並非所有動作均需要。其他程序流程也有可能。
影像資料(於此也稱為“預儲存”影像資料,以與為行動計算裝置所捕獲的影像資料的資料有所區別)及對應於影像資料的3D點雲端資料係被處理以抽出至少一平坦片段200。在部份實施例中,如下所述,此3D點雲端資料係被預處理,以使得該資料更適於後續操作(例如,資料係根據捕獲影像資料的解析度或在行動計算系統上可得之計算資源加以下取樣(downsampled))。
在一實施例中,預儲存影像資料為至少一目標的照片。該抽出平坦片段係相關於該目標。例如,如上所述,預儲存影像資料可以包含一建築的影像,及該抽出平坦片段將為該建築的一平面。
該目標的影像資料係經由包含在行動計算裝置中之影像感應器加以捕獲(步驟210)。應了解,該捕獲影像資料可以包含靜態照片、視訊資料或影像感應器的目標之即時顯示資料(例如,圖1的現場視圖)。
第二平坦片段係被產生,該第二平坦片段係相關於該捕獲影像的目標(步驟220)。此平坦片段係幾何對稱於當其出現在捕捉影像資料的目標(例如,包含在捕捉現場視圖中之建築的一側,如圖1所述)。第二平坦片段可以至少部份根據捕捉影像資料產生在操作200中所述之預儲存影像資料,及操作200中所述之至少一平坦片段。
第二平坦片段係整合(或於此稱為對準)於所捕捉影像資料(步驟230)。在一實施例中,捕捉影像資料係相關於行動計算裝置的現場視圖,及因此,至少一平坦片段係整合該現場視圖。
捕捉影像資料係被以在第二平坦片段內的額外內容加以強化(步驟240)。該額外內容係相關於為該至少一平坦片段所代表之個別目標。應了解的是,該額外內容將顯示於強化影像內,幾何地對稱於第二平坦片段(步驟250)。
圖3顯示影像資料,3D點雲端資料及平坦片段可以為本發明之實施例所處理。3D點雲端350對應於建築305的預儲存2D影像300。在雲端350中之各個3D點代表影像300的一像素的實際3D位置。在影像300中之部份像素可能不具有一對應3D點,例如在天空的像素。
在部份實施例中,3D點雲端資料350係被轉換為一更適合於後續處理的座標系統。例如,如果3D點雲端資料350係以“緯度、經度及高度”的形式,則更有用以轉換該格式為區域座標系統,例如,東、北、及上(ENU),使得座標的值更小(即,相較於以地球的中心為原點的系統座標)。此轉換可以更佳表達3D點雲端資料350的垂直及水平取向。
在部份實施例中,3D點雲端資料350係由一較大組的3D點雲端資料次取樣所造成,以使得計算更快。此可以藉由下取樣預儲存影像或對應3D點雲端加以完成。例如,對於300×500影像,對應3D點雲端資料的大小可以由至多150,000點構成。藉由在水平及垂直尺度,以10的速率取樣該影像,該3D點的數量可以降低至1,500點。
為了自3D點雲端資料350抽出平面,本發明之實施例可以採用一隨機取樣一致(RANSAC)法及組合預儲存影像300及3D點雲端資料350,以導引在RANSAC中取樣處理,而不是任意取樣3D點雲端資料。圖4係為流程圖,用以依據本發明一實施例處理3D點雲端資料及抽出平坦片段。
來自一影像的Nref像素係被隨機選擇(步驟410)。一連串操作係被執行於每一像素上(即,參考像素被選擇(步驟420))。這些操作係說明如下。
在一區域附近,即,在參考像素旁的W×W視窗,兩個其他像素係被隨機選擇,使得三個像素係為非共線性(步驟430)。在IR3中之法線Nref至由對應三個像素的3D點形成之平面(Pref)係被計算為向量積(步驟440)。為了此運算,其可以假設對應於鄰近像素的3D點係更幾乎置放於相同平面。因此,可以更了解的是,藉由施加此區域侷限,以檢測共平面3D點,依據實施例的處理收斂至主要平面較任意取樣3D點雲端資料為快。
對於每一3D點(以下稱為在IR3中之點M),決定是否其置放於平面(Pref)上及其於平面上的投影誤差(Pref:E=[nref.(M-Mref)]2)係被計算,其中Mref為對應參考像素的3D點(步驟450)。如果誤差E係低於公差臨限ε,即E<ε,則點M係被假設置於平面(Pref)(步驟460)。
平面(Pref)的得分然後被計算,當3D點的法線數量“屬於”scoreref=|{(Pref)中之M}|/N,其中N為在3D點雲端資料中之點數量(步驟470)。
在Nref取得之得分間選出最大得分(步驟480)。如果其大於臨限值L,即scoreref>L,平面(Pref)係被選擇為“抽出”平面,及其法線向量的最小平方估計及偏壓係被取得(步驟490)。所有“屬於”抽出面的點M,即對此平面的投影誤差係低於其來自3D點雲端的公差ε的點M可以由後續處理消除。
一旦所有平面已經被抽出,及假設一個以上的平面已經被抽出,本發明之實施例可以更精化該抽出面。圖5為一處理以依據本發明實施例精化抽出面的流程圖。
有關於預儲存影像的資料可以被使用以決定濾出不正確平面的準則(步驟500)。例如,在都市區域,典型上建築為主要結構。因此,為了取得粗3D模型的目的,如果預儲存影像係被得知為都市區域,則多數平面可以被假設似乎為垂直或水平。
不符合過濾準則的平面被消除(步驟510)。因此,在此例子中,非垂直或水平的抽出平面被消除,及屬於它們的3D點並未被指定給任何平面。
各個未消除平面也可以相較於類似處理平面,即,具有類似法線向量及偏壓的平面,及只有具有最大數量點的抽出平面被保持(步驟520)。
如果沒有剩餘平面需要被處理(步驟525),則未被指定至任何平面的剩餘3D點係被處理(步驟530)。對於,各個剩餘未指定3D點,其至每一精化抽出面的投影誤差係被計算,及最小投影誤差及對應平面(Pmin)係被選擇(步驟540)。公差臨限可以由ε增加至ε’=因數×ε。如果最小投影誤差係小於ε’(步驟545),則3D點被指定為對應平面(Pmin)(步驟550)。否則,其被丟棄(步驟555)。例如,用於3D點雲端資料350的所得抽出面將為平面390、391及392。
因此,為圖5所描述之例示處理的結果可以為3D點雲端資料的遮罩,其映圖每一3D點及其對應像素至一平面。此遮罩也可以使用以建立更小型及更高階所捕獲的影像資料表示。在圖3中,多數建築305的右壁的3D點/像素係為相同顏色(例如,綠色,雖然於圖中未顯示顏色)。不同於儲存此資料為3D點/像素的資料及對應平面指標,本發明之實施例可以指明為在右壁上的綠編碼像素所佔用整個區域(例如決定包圍多角形)。再者,彼此分開很遠及在相同平面的區域可以被叢集。有關於建築305的更高位準資訊可以被取得,以適當地叢集平面。例如,相同顏色像素可以被叢集為分開叢集,對應於建築305的右壁的兩不同部,如圖6所示。
在此實施例中,3D點雲端資料350包含叢集600及610,對應於建築350的右壁(如圖3所示)。高階資訊可以被用以決定在該壁面有一廣告板。本發明之實施例可以因此依據壁的每一片段叢集平坦片段,即,叢集600成長為平坦片段620(對應於該壁面)及叢集610成長為平坦片段630(對應於廣告板)。
對於建築時,想要的最終結果可能為一組建築壁的結合矩形。如果3D點雲端資料及預儲存影像係有關於都市區域,則假設屬於垂直平面的多數3D點對應於建築的壁面。因此,以矩形近似垂直平坦片段的目標被證明。
在本發明之一實施例中,在影像及3D點雲端資料中的資訊係藉由使用在3D點雲端中成長的區域被善加利用至叢集平面。此在兩3D點間之類似性距離為該對應像素間之像素間之距離。處理操作可以迭代於每一平面上,選出數量n的種子,及在其旁成長平坦片段。
圖7為依據本發明實施例之結合平坦片段的程序的流程圖。程序700係如上所述之相關於都市設定的叢集執行該等片段。持續應用本發明實施例至已知都市設定影像為例,(步驟710)係選擇垂直片段。對於每一垂直片段,兩具有最大及最小垂直座標的極端3D點係被找到(步驟720)。因此,結合盒的上及下水平邊緣被取得,及共平面方向可以根據這些點加以取得(步驟730)。在該片段內之水平方向中之具有最大及最小座標的另兩極端3D點也被找出(步驟740)。使用這些極端點及共平面方向,此片段的結合盒的兩垂直緣可以被決定(步驟750)。
在部份實施例中,各視角的場景或目標的多2D影像可以與由不同視角看到的對應3D點雲端資料組一起預儲存在一起。這些點雲端資料組可以重疊。在這些實施例中,所有點雲端資料可以合併以改良抽出平坦片段的準確度。為了指明重疊區域,點雲端資料組可以限制為區域鄰居,及相關點雲端資訊可以合併。
應了解的是,各種抽出平面、組合點雲端資料、及雜訊移除的工作可以經由不同程序以不同順序加以執行。在一實施例中,各個點雲端資料組係被模型化為實際3D點的一組吵雜量測值(雜訊源可以包含量測點的不確定性、其指向、感應器雜訊等等)。然後,可以取得雜訊統計及在重疊區域中原始3D點的評估值。這些雜訊統計可以被利用以取得用於所有點雲端資料組的更好3D點的評估值,以抽出該等平面。可以了解的是,在重疊區中之3D點具有最準確評估值,因此,這些點可以對它們所屬的平面評估給出優先權(例如,加權最小平方可以被使用用於具有更多加權指定至這些點的平面參數的評估值)。
在另一實施例中,平面抽出係針對各個3D點雲端資料組分開執行。重疊平面可以根據其法線向量類似性及其區域接近性加以指明。對於各組重疊平面,屬於它們的所有3D點雲端資料可以收集,以根據此等點的較大收集,作出平面的新(即更準確)的評估值。
在一實施例中,相關於3D點雲端資料的信賴度/可靠性資訊被接收。此額外資訊可以以3D點雲端資料加以利用,以推出3D點量測值的可靠性。例如,上述平面抽出演算法可以藉由允許3D點具有更高可靠度加以採用,以對平面的評估作出更多貢獻。在RANSAC中之取樣方法可以偏倚,以由更可靠3D點取樣更多。再者,不光是最小平方可用以評估平面參數,也可以利用加權最小平方。該等加權將成比例於該3D點的可靠度得分或為其增加函數。
在一實施例中,顏色資訊可以被使用以更準確地自3D點雲端資料抽出平面。例如,顏色資訊與像素距離可以被組合以形成上述區域成長程序的類似性距離。在此實施例中,在相同平面中之3D點係在像素距離中接近並具有類似顏色(即,對應在預儲存影像中之相同顏色像素),並將傾向被指定為相同平面片段。
應了解的是,由該3D點雲端資料抽出的平面片段形成該預儲存影像資料的粗略3D模型。此資料可以被利用以由捕獲的影像資料抽出平面片段。因此,在該3D模型中之平坦片段可以被處理(即整合)捕獲影像資料及預儲存影像資料,藉以使之可能將捕獲影像資料對準粗略3D模型。
該粗略3D模型的對準允許多數應用以投影資料於個別平面片段(即靜態影像及視訊)內。換句話說,使用者可以以行動計算裝置取得一影像並將之對準於行動計算裝置或桌上型電腦中的模型中之正確透視圖。同樣地,具有視訊影像資料,對準的現場視圖可以以即時方式以額外資訊加以強化,例如文字、影像或視訊,或一些3D結構加入正確透視圖(例如,圖1中所述者)。
在一實施例中,一行動計算裝置利用系統元件及應用(例如全球定位系統(GPS)感應器、蜂巢或WiFi網路連接,指向感應器),以縮小裝置的位置及其影像感應器的視角。在該粗略3D模型側上,位置及指向資訊與該鄰近位置(其視圖接近近似圖)之相關預儲存影像資料(即參考模型),這些視圖可以被利用以由這些影像抽出視覺特性。因此,上述處理產生平坦片段,具有對應視覺特性,即,參考模型予以為對準程序所使用。
在一實施例中,視覺特性係由該影像或在行動裝置上的視訊框抽出並被匹配至在參考模型(即,預儲存影像)中的視覺特性中。圖8顯示此類型的匹配。
多數單應性810係由在捕獲影像890中的目標800之預儲存影像830之點對應性820評估(在此例子中,目標800為在牆壁上的畫作)。在此例子中,因為平坦結構被假設在目標800的景象中,所以,單應性轉換的假設有效。再者,各個單應矩陣係被分解為影像感應器旋轉及平移參數。這些個別參數可以組合,以取得一較少雜訊版的旋轉及平移參數,以產生匹配平坦目標830。
因此,目標800,及為影像感應器所捕獲透視圖,可以被指明。相關影像資料可以顯示在對應於目標(即上述圖示、文字資料、影像資料)的平坦片段850內。
圖9為一系統方塊圖,其可以包含本發明之一實施例。系統900可以包含預處理模組910,以執行涉及預儲存影像及3D點雲端資料的運算,以產生如上所述之平坦片段。系統900可以更包含影像感應器920,以捕獲影像資料,如上所述。
平面抽出模組930可以處理該預儲存影像、該被捕捉影像及其相關平坦片段,以抽出有關一目標的平面,如上所述。對準模組940可以如上所述以在該抽出平坦片段中之相關內容強化所捕獲影像資料。強化後的影像資料可以被顯示在顯示器950上。
在此實施例中,模組910、930及940係經由處理器960加以執行。上述系統900的所有元件可以經由匯流排970可操作地耦接在一起。可以了解的是,在圖9中所述之各種模組可以全部包含在一行動計算裝置中,或分開於各種位置(即,圖9中之任一或所有模組可以包含在一伺服器中,該伺服器係與行動電腦裝置作成介面,以提供“後端處理”)。再者,應了解的是,有關於所述模組的操作係只為一例示實施例,以及,上述任一操作可以經由多數可操作耦接在一起的裝置執行。
上述所述的各種元件之稱為程序、伺服器或工具者可以為執行所述功能的手段。於此所述之各種元件包含軟體或硬體、或其組合。各個及所有元件可以被實施為軟體模組、硬體模組、特殊目的硬體(例如特殊應用硬體、ASIC、DSP等等)、內藏控制器、硬接線電路、硬體邏輯等等。軟體內容(例如,資料、指令、組態)可以經由包含非暫時、可觸及電腦或機器可讀取儲存媒體的製造物體加以設置,其提供內容,以代表可以被執行之指令。該等內容可以造成電腦執行各種於此所述之功能/操作。電腦可讀取儲存媒體包含任一機制,其以電腦(例如計算裝置、電子系統等等)可存取之形式提供(即儲存及/或傳送)資訊,例如可記錄/非可記錄媒體(例如唯讀記憶體(ROM)、隨機存取記憶體(RAM)、磁碟儲存媒體、光學儲存媒體、快閃記憶體裝置等等)。內容可以直接可執行(“目標”或“可執行”形式)、原始碼、或不同碼(“Δ”或“補丁”碼)。電腦可讀取儲存媒體也可以包含儲存器或資料庫,內容可以由該處下載。一電腦可讀取媒體也可以包含一裝置或一產品,其在販買或輸送時,具有內容儲存於其中。因此,輸送具有儲存內容的裝置,或於通訊媒體上提供內容以供下載於均可以被視為提供一種製造物品,其具有於此所述之內容。
100...行動計算裝置
110...顯示器
120...即時視圖
130...平坦片段
131...建築
140...平坦片段
141...建築
150...平坦片段
151...建築
300...影像
305...建築
350...雲端
390...平面
391...平面
392...平面
600...叢集
610...叢集
620...平坦片段
630...平坦片段
800...目標
810...單應性
820...點對應性
830...預儲存影像
850...平坦片段
890...捕獲影像
900...系統
910...模組
920...影像感應器
930...平面抽出模組
940...對準模組
950...顯示器
960...處理器
970...匯流排
圖1為依據顯示本發明實施例之行動計算裝置中之強化3D點的例子。
圖2顯示依據本發明實施例之流程的流程圖。
圖3顯示可以為本發明實施例所處理的影像資料、3D點雲端資料及平面片段。
圖4為一流程圖,用以依據本發明實施例處理3D點雲端資料及抽出平面片段。
圖5為一流程圖,用以依據本發明實施例處理精化抽出平面。
圖6顯示依據本發明實施例之叢集平面片段。
圖7顯示依據本發明實施例處理結合平坦片段的流程圖。
圖8顯示依據本發明實施例視覺特性匹配及平坦片段抽取。
圖9顯示可以包含依據本發明實施例的系統之方塊圖。

Claims (20)

  1. 一種強化影像資料的設備,包含:用以處理第一影像資料及在該第一影像資料中的目標之3D點雲端資料,以由該3D點雲端資料抽出包含在該第一影像資料中的一目標之3D資料遮罩的機構,其中該3D資料遮罩包含比包含在該第一影像資料中的該些目標之該3D點雲端資料還少的資料;產生機構,用以至少部份根據第二影像資料、該第一影像資料及該3D資料遮罩,產生相關於來自該目標之即時視野的該第二影像資料中所捕獲的該目標的平坦片段,該第二影像資料係經由包含在行動計算裝置中的影像感應器捕獲,該第二影像資料具有該目標,如同顯示在該第二影像資料中一般,該平坦片段為幾何對稱且在該些目標內,且包含複數個叢集,該複數個叢集包括對應該目標的第一叢集以及對應第二共平面目標的第二叢集;及強化機構,幾何對稱該平坦片段且在該第一叢集內,用以利用相關於該目標的內容,來強化該目標之該即時視野,該內容包括靜態影像資料或視訊影像資料。
  2. 如申請專利範圍第1項所述之設備,其中該用以處理該第一影像資料與該3D點雲端資料以抽出該3D資料遮罩的機構包含決定機構,用以根據相關於該第一影像資料的元資料,決定該3D資料遮罩的形狀及指向,該元資料具有該第一影像資料的地理資訊或相關於在該第一影像資料中捕獲的該目標的資料。
  3. 如申請專利範圍第1項所述之設備,其中產生相關於如在該第二影像資料中所捕獲的該目標的該平坦片段更包含根據在該第一影像資料中捕獲的該目標的顏色資料,匹配該平坦片段與在該第二影像資料中捕獲的該目標。
  4. 如申請專利範圍第1項所述之設備,其中用以處理該3D點雲端資料以抽出該3D資料遮罩的機構包含下取樣該3D點雲端資料的機構。
  5. 如申請專利範圍第1項所述之設備,其中處理該第一影像資料及該3D點雲端資料以自該3D點雲端資料抽出該3D資料遮罩係進一步根據相關於該3D點雲端資料的資料點的可靠度資料。
  6. 如申請專利範圍第1項所述之設備,其中該3D點雲端資料包含:由第一視點捕獲的第一組3D點雲端資料;及由第二視點捕獲的第二組3D點雲端資料,且其中用以處理該第一影像資料與該3D點雲端資料以自該3D點雲端資料抽出該3D資料遮罩的機構包含:用以處理該第一組3D點雲端資料及該第一影像資料,以抽出第一起始平坦片段的機構;用以處理該第二組3D點雲端資料及該第一影像資料,以抽出第二起始平坦片段的機構;及組合機構,用以組合該第一及該第二起始平坦片段,以形成該3D資料遮罩。
  7. 一種用以強化影像資料的系統,包含: 至少一處理器;顯示器;經由該處理器執行之軟體,用以處理第一影像資料及包含在該第一影像資料中的目標之3D點雲端資料,以由該3D點雲端資料抽出包含在該第一影像資料中的一目標之3D資料遮罩,其中該3D資料遮罩包含比包含於該第一影像資料中的該些目標之該3D點雲端資料還少的資料,至少部份根據第二影像資料、該第一影像資料及該3D資料遮罩,產生相關於來自該目標之即時視野的該第二影像資料中捕獲的該目標的平坦片段,如同顯示在該第二影像資料中一般,該平坦片段為幾何對稱且在該些目標內,且包含複數個叢集,該複數個叢集包括對應該目標的第一叢集以及對應第二共平面目標的第二叢集,幾何地對稱於該平坦片段且在該第一叢集內,利用相關於該目標的內容來強化該目標之該即時視野,該內容包括靜態影像資料或視訊影像資料,顯示具有相關於該目標的該強化內容的該目標之該即時視野於該顯示器上;及影像感應器,用以捕獲該目標之該即時視野,包含具有該目標的該第二影像資料。
  8. 如申請專利範圍第7項所述之系統,其中處理該第一影像資料及該3D點雲端資料以抽出該3D資料遮罩包含根據與該第一影像資料相關的元資料,決定該3D資料 遮罩的形狀及指向,該元資料包含該第一影像資料的地理資訊或相關於在該第一影像資料中捕獲的該目標的資料。
  9. 如申請專利範圍第7項所述之系統,其中產生該平坦片段更包含根據在該第一影像資料中捕獲的該目標的顏色資料,匹配該平坦片段與在該第二影像資料中捕獲的該目標。
  10. 如申請專利範圍第7項所述之系統,其中處理該3D點雲端資料以抽出該3D資料遮罩更包含下取樣該3D點雲端資料。
  11. 如申請專利範圍第7項所述之系統,其中處理該第一影像資料及該3D點雲端資料以由該3D點雲端資料抽出該3D資料遮罩係進一步根據相關於該3D點雲端資料的資料點的可靠度資料。
  12. 如申請專利範圍第7項所述之系統,其中該3D點雲端資料包含:由第一視點所捕獲的第一組3D點雲端資料;及由第二視點所捕獲的第二組3D點雲端資料,且,其中處理該第一影像資料及該3D點雲端資料以由該3D點雲端資料抽出該3D資料遮罩包含:處理該第一組3D點雲端資料及該第一影像資料,以抽出第一起始平坦片段;處理該第二組3D點雲端資料及該第一影像資料,以抽出第二起始平坦片段;及組合該第一及第二起始平坦片段以形成該3D資料遮 罩。
  13. 一種強化影像資料的方法,包含:處理第一影像資料及包含在該第一影像資料中的目標之3D點雲端資料,以由該3D點雲端資料抽出包含在該第一影像資料中的一目標之3D資料遮罩,其中該3D資料遮罩包含比包含於該第一影像資料中的該些目標之該3D點雲端資料還少的資料;從經由包含在行動計算裝置中之影像感應器補獲的該目標之即時視野,接收第二影像資料,該第二影像資料包含該目標;至少部份根據該第二影像資料、該第一影像資料及該3D資料遮罩,產生相關於來自該目標之即時視野的該第二影像資料中捕獲的該目標的平坦片段,如同顯示在該第二影像資料中一般,該平坦片段為幾何對稱且在該些目標內,且包含複數個叢集,該複數個叢集包括對應該目標的第一叢集以及對應第二共平面目標的第二叢;及幾何對稱該平坦片段且在該第一叢集內,利用與該目標相關的內容來強化該目標之該即時視野,該內容包括靜態影像資料或視訊影像資料。
  14. 如申請專利範圍第13項所述之方法,其中處理該第一影像資料及該3D點雲端資料以抽出該3D資料遮罩包含根據與該第一影像資料相關的元資料,決定該3D資料遮罩的形狀及指向,該元資料包含該第一影像資料的地理資訊或相關於在該第一影像資料中捕獲的該目標的資 料。
  15. 如申請專利範圍第13項所述之方法,其中產生相關於在該第二影像資料中所捕獲的該目標的該平坦片段更包含根據在該第一影像資料中捕獲的該目標的顏色資料,將該平坦片段匹配至在該第二影像資料中捕獲的該目標。
  16. 如申請專利範圍第13項所述之方法,其中處理該3D點雲端資料以抽出該3D資料遮罩更包含下取樣該3D點雲端資料。
  17. 如申請專利範圍第13項所述之方法,其中處理該第一影像資料與該3D點雲端資料以由該3D點雲端資料抽出該3D資料遮罩係進一步根據相關於該3D點雲端資料的資料點的可靠度資料。
  18. 如申請專利範圍第13項所述之方法,其中該3D點雲端資料包含:由第一視點所捕獲的第一組3D點雲端資料;及由第二視點所捕獲的第二組3D點雲端資料,且其中處理該第一影像資料及該3D點雲端資料以由該3D點雲端資料抽出該3D資料遮罩包含:處理該第一組3D點雲端資料及該第一影像資料,以抽出第一起始平坦片段;處理該第二組3D點雲端資料及該第一影像資料,以抽出第二起始平坦片段;及組合該第一及第二起始平坦片段,以形成該3D資料遮罩。
  19. 如申請專利範圍第14項所述之方法,其中產生相關於如在該第二影像資料中所捕獲的該目標的該平坦片段包含:從該第一影像資料以及從該第一影像資料的地理資訊,決定該目標包含建築物;以及產生非矩形平面片段作為矩形片段以回應決定該目標包含建築物。
  20. 如申請專利範圍第19項所述之方法,其中該3D資料遮罩係只包含水平面或垂直面以回應決定該目標包含建築物。
TW100133479A 2010-09-24 2011-09-16 根據相關3d點雲端資料強化影像資料 TWI483215B (zh)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
US12/890,251 US8872851B2 (en) 2010-09-24 2010-09-24 Augmenting image data based on related 3D point cloud data

Publications (2)

Publication Number Publication Date
TW201229962A TW201229962A (en) 2012-07-16
TWI483215B true TWI483215B (zh) 2015-05-01

Family

ID=45870201

Family Applications (1)

Application Number Title Priority Date Filing Date
TW100133479A TWI483215B (zh) 2010-09-24 2011-09-16 根據相關3d點雲端資料強化影像資料

Country Status (5)

Country Link
US (1) US8872851B2 (zh)
CN (1) CN102959946B (zh)
DE (1) DE112011103221T5 (zh)
TW (1) TWI483215B (zh)
WO (1) WO2012040709A2 (zh)

Families Citing this family (83)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10019812B2 (en) 2011-03-04 2018-07-10 General Electric Company Graphic overlay for measuring dimensions of features using a video inspection device
US10157495B2 (en) * 2011-03-04 2018-12-18 General Electric Company Method and device for displaying a two-dimensional image of a viewed object simultaneously with an image depicting the three-dimensional geometry of the viewed object
US10586341B2 (en) 2011-03-04 2020-03-10 General Electric Company Method and device for measuring features on or near an object
US8810598B2 (en) 2011-04-08 2014-08-19 Nant Holdings Ip, Llc Interference based augmented reality hosting platforms
WO2012141235A1 (ja) * 2011-04-13 2012-10-18 株式会社トプコン 三次元点群位置データ処理装置、三次元点群位置データ処理システム、三次元点群位置データ処理方法およびプログラム
KR101907081B1 (ko) * 2011-08-22 2018-10-11 삼성전자주식회사 3차원 점군의 물체 분리 방법
EP2602588A1 (en) * 2011-12-06 2013-06-12 Hexagon Technology Center GmbH Position and Orientation Determination in 6-DOF
WO2013095248A1 (en) * 2011-12-22 2013-06-27 Telefonaktiebolaget L M Ericsson (Publ) Method and processor for 3d scene representation
WO2014160198A1 (en) * 2013-03-13 2014-10-02 Build-A-Bear Workshop, Inc. Systems and methods for computer recognition of plush toys
US9582516B2 (en) * 2013-10-17 2017-02-28 Nant Holdings Ip, Llc Wide area augmented reality location-based services
US9547901B2 (en) * 2013-11-05 2017-01-17 Samsung Electronics Co., Ltd. Method and apparatus for detecting point of interest (POI) in three-dimensional (3D) point clouds
CN104616278B (zh) * 2013-11-05 2020-03-17 北京三星通信技术研究有限公司 三维点云兴趣点检测方法和系统
US9704055B2 (en) * 2013-11-07 2017-07-11 Autodesk, Inc. Occlusion render mechanism for point clouds
EP3123399A4 (en) * 2014-03-27 2017-10-04 Hrl Laboratories, Llc System for filtering, segmenting and recognizing objects in unconstrained environments
US9723109B2 (en) 2014-05-28 2017-08-01 Alexander Hertel Platform for constructing and consuming realm and object feature clouds
US9600892B2 (en) * 2014-11-06 2017-03-21 Symbol Technologies, Llc Non-parametric method of and system for estimating dimensions of objects of arbitrary shape
US9396554B2 (en) 2014-12-05 2016-07-19 Symbol Technologies, Llc Apparatus for and method of estimating dimensions of an object associated with a code in automatic response to reading the code
CN104715120B (zh) * 2015-03-30 2019-08-23 英华达(上海)科技有限公司 3d模型的扩充方法
US10033941B2 (en) * 2015-05-11 2018-07-24 Google Llc Privacy filtering of area description file prior to upload
CN105261061B (zh) * 2015-09-07 2018-10-26 深圳市易尚展示股份有限公司 一种识别冗余数据的方法及装置
CN114863059A (zh) 2015-09-25 2022-08-05 奇跃公司 用于在3d重建中检测和组合结构特征的方法和系统
TWI578269B (zh) 2015-12-14 2017-04-11 財團法人工業技術研究院 三維座標縫合方法及應用其之三維座標資訊縫合裝置
US10352689B2 (en) 2016-01-28 2019-07-16 Symbol Technologies, Llc Methods and systems for high precision locationing with depth values
US10145955B2 (en) 2016-02-04 2018-12-04 Symbol Technologies, Llc Methods and systems for processing point-cloud data with a line scanner
US10721451B2 (en) 2016-03-23 2020-07-21 Symbol Technologies, Llc Arrangement for, and method of, loading freight into a shipping container
US9805240B1 (en) 2016-04-18 2017-10-31 Symbol Technologies, Llc Barcode scanning and dimensioning
GB201607639D0 (en) 2016-05-02 2016-06-15 Univ Leuven Kath Sensing method
US10776661B2 (en) 2016-08-19 2020-09-15 Symbol Technologies, Llc Methods, systems and apparatus for segmenting and dimensioning objects
US11042161B2 (en) 2016-11-16 2021-06-22 Symbol Technologies, Llc Navigation control method and apparatus in a mobile automation system
US10451405B2 (en) 2016-11-22 2019-10-22 Symbol Technologies, Llc Dimensioning system for, and method of, dimensioning freight in motion along an unconstrained path in a venue
US10354411B2 (en) 2016-12-20 2019-07-16 Symbol Technologies, Llc Methods, systems and apparatus for segmenting objects
US10726273B2 (en) 2017-05-01 2020-07-28 Symbol Technologies, Llc Method and apparatus for shelf feature and object placement detection from shelf images
US11367092B2 (en) 2017-05-01 2022-06-21 Symbol Technologies, Llc Method and apparatus for extracting and processing price text from an image set
AU2018261257B2 (en) 2017-05-01 2020-10-08 Symbol Technologies, Llc Method and apparatus for object status detection
WO2018204342A1 (en) 2017-05-01 2018-11-08 Symbol Technologies, Llc Product status detection system
US10949798B2 (en) 2017-05-01 2021-03-16 Symbol Technologies, Llc Multimodal localization and mapping for a mobile automation apparatus
US10663590B2 (en) 2017-05-01 2020-05-26 Symbol Technologies, Llc Device and method for merging lidar data
US11449059B2 (en) 2017-05-01 2022-09-20 Symbol Technologies, Llc Obstacle detection for a mobile automation apparatus
US10591918B2 (en) 2017-05-01 2020-03-17 Symbol Technologies, Llc Fixed segmented lattice planning for a mobile automation apparatus
WO2018201423A1 (en) 2017-05-05 2018-11-08 Symbol Technologies, Llc Method and apparatus for detecting and interpreting price label text
JP6845106B2 (ja) * 2017-07-21 2021-03-17 株式会社タダノ 点群データのクラスタリング方法、ガイド情報表示装置およびクレーン
JP6907061B2 (ja) * 2017-07-21 2021-07-21 株式会社タダノ 測定対象物の上面推定方法、ガイド情報表示装置およびクレーン
US10572763B2 (en) 2017-09-07 2020-02-25 Symbol Technologies, Llc Method and apparatus for support surface edge detection
US10521914B2 (en) 2017-09-07 2019-12-31 Symbol Technologies, Llc Multi-sensor object recognition system and method
CN116385505A (zh) 2017-10-20 2023-07-04 阿里巴巴集团控股有限公司 数据处理方法、装置、系统和存储介质
WO2019140282A1 (en) * 2018-01-11 2019-07-18 Youar Inc. Cross-device supervisory computer vision system
US11327504B2 (en) 2018-04-05 2022-05-10 Symbol Technologies, Llc Method, system and apparatus for mobile automation apparatus localization
US10740911B2 (en) 2018-04-05 2020-08-11 Symbol Technologies, Llc Method, system and apparatus for correcting translucency artifacts in data representing a support structure
US10809078B2 (en) 2018-04-05 2020-10-20 Symbol Technologies, Llc Method, system and apparatus for dynamic path generation
US10823572B2 (en) 2018-04-05 2020-11-03 Symbol Technologies, Llc Method, system and apparatus for generating navigational data
US10832436B2 (en) 2018-04-05 2020-11-10 Symbol Technologies, Llc Method, system and apparatus for recovering label positions
US10853946B2 (en) 2018-05-18 2020-12-01 Ebay Inc. Physical object boundary detection techniques and systems
US10679367B2 (en) * 2018-08-13 2020-06-09 Hand Held Products, Inc. Methods, systems, and apparatuses for computing dimensions of an object using angular estimates
CN109241978B (zh) * 2018-08-23 2021-09-07 中科光绘(上海)科技有限公司 地基三维激光点云中平面片的快速提取方法
US11506483B2 (en) 2018-10-05 2022-11-22 Zebra Technologies Corporation Method, system and apparatus for support structure depth determination
US11010920B2 (en) 2018-10-05 2021-05-18 Zebra Technologies Corporation Method, system and apparatus for object detection in point clouds
CN112955851A (zh) * 2018-10-09 2021-06-11 谷歌有限责任公司 基于场境线索选择增强现实对象以供显示
US11090811B2 (en) 2018-11-13 2021-08-17 Zebra Technologies Corporation Method and apparatus for labeling of support structures
US11003188B2 (en) 2018-11-13 2021-05-11 Zebra Technologies Corporation Method, system and apparatus for obstacle handling in navigational path generation
US11416000B2 (en) 2018-12-07 2022-08-16 Zebra Technologies Corporation Method and apparatus for navigational ray tracing
US11079240B2 (en) 2018-12-07 2021-08-03 Zebra Technologies Corporation Method, system and apparatus for adaptive particle filter localization
US11100303B2 (en) 2018-12-10 2021-08-24 Zebra Technologies Corporation Method, system and apparatus for auxiliary label detection and association
US11015938B2 (en) 2018-12-12 2021-05-25 Zebra Technologies Corporation Method, system and apparatus for navigational assistance
US10731970B2 (en) 2018-12-13 2020-08-04 Zebra Technologies Corporation Method, system and apparatus for support structure detection
CA3028708A1 (en) 2018-12-28 2020-06-28 Zih Corp. Method, system and apparatus for dynamic loop closure in mapping trajectories
US11662739B2 (en) 2019-06-03 2023-05-30 Zebra Technologies Corporation Method, system and apparatus for adaptive ceiling-based localization
US11151743B2 (en) 2019-06-03 2021-10-19 Zebra Technologies Corporation Method, system and apparatus for end of aisle detection
US11402846B2 (en) 2019-06-03 2022-08-02 Zebra Technologies Corporation Method, system and apparatus for mitigating data capture light leakage
US11960286B2 (en) 2019-06-03 2024-04-16 Zebra Technologies Corporation Method, system and apparatus for dynamic task sequencing
US11341663B2 (en) 2019-06-03 2022-05-24 Zebra Technologies Corporation Method, system and apparatus for detecting support structure obstructions
US11200677B2 (en) 2019-06-03 2021-12-14 Zebra Technologies Corporation Method, system and apparatus for shelf edge detection
US11080566B2 (en) 2019-06-03 2021-08-03 Zebra Technologies Corporation Method, system and apparatus for gap detection in support structures with peg regions
US11281917B2 (en) * 2019-10-31 2022-03-22 Aptiv Technologies Limited Multi-domain neighborhood embedding and weighting of point cloud data
US11507103B2 (en) 2019-12-04 2022-11-22 Zebra Technologies Corporation Method, system and apparatus for localization-based historical obstacle handling
US11107238B2 (en) 2019-12-13 2021-08-31 Zebra Technologies Corporation Method, system and apparatus for detecting item facings
CN113021333A (zh) * 2019-12-25 2021-06-25 沈阳新松机器人自动化股份有限公司 一种物体的抓取方法、系统及终端设备
US11822333B2 (en) 2020-03-30 2023-11-21 Zebra Technologies Corporation Method, system and apparatus for data capture illumination control
US11450024B2 (en) 2020-07-17 2022-09-20 Zebra Technologies Corporation Mixed depth object detection
US11593915B2 (en) 2020-10-21 2023-02-28 Zebra Technologies Corporation Parallax-tolerant panoramic image generation
US11392891B2 (en) 2020-11-03 2022-07-19 Zebra Technologies Corporation Item placement detection and optimization in material handling systems
US11847832B2 (en) 2020-11-11 2023-12-19 Zebra Technologies Corporation Object classification for autonomous navigation systems
US11954882B2 (en) 2021-06-17 2024-04-09 Zebra Technologies Corporation Feature-based georegistration for mobile computing devices
EP4386678A1 (en) * 2022-12-14 2024-06-19 Koninklijke Philips N.V. Novel view generation using point clouds

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
TW200838316A (en) * 2007-01-23 2008-09-16 Euclid Discoveries Llc Computer method and apparatus for processing image data
US20090237546A1 (en) * 2008-03-24 2009-09-24 Sony Ericsson Mobile Communications Ab Mobile Device with Image Recognition Processing Capability
TW201005673A (en) * 2008-07-18 2010-02-01 Ind Tech Res Inst Example-based two-dimensional to three-dimensional image conversion method, computer readable medium therefor, and system
WO2010086866A1 (en) * 2009-02-02 2010-08-05 Eyesight Mobile Technologies Ltd. System and method for object recognition and tracking in a video stream

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4185052B2 (ja) * 2002-10-15 2008-11-19 ユニバーシティ オブ サザン カリフォルニア 拡張仮想環境
US20080259073A1 (en) 2004-09-23 2008-10-23 Conversion Works, Inc. System and method for processing video images
US7860301B2 (en) 2005-02-11 2010-12-28 Macdonald Dettwiler And Associates Inc. 3D imaging system
DK2401575T3 (da) 2009-02-25 2020-03-30 Dental Imaging Technologies Corp Fremgangsmåde og apparatur til generering af en fremvisning af en tredimensional overflade
US8340400B2 (en) * 2009-05-06 2012-12-25 Honeywell International Inc. Systems and methods for extracting planar features, matching the planar features, and estimating motion from the planar features
US20110279445A1 (en) * 2010-05-16 2011-11-17 Nokia Corporation Method and apparatus for presenting location-based content

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
TW200838316A (en) * 2007-01-23 2008-09-16 Euclid Discoveries Llc Computer method and apparatus for processing image data
US20090237546A1 (en) * 2008-03-24 2009-09-24 Sony Ericsson Mobile Communications Ab Mobile Device with Image Recognition Processing Capability
TW201005673A (en) * 2008-07-18 2010-02-01 Ind Tech Res Inst Example-based two-dimensional to three-dimensional image conversion method, computer readable medium therefor, and system
WO2010086866A1 (en) * 2009-02-02 2010-08-05 Eyesight Mobile Technologies Ltd. System and method for object recognition and tracking in a video stream

Non-Patent Citations (4)

* Cited by examiner, † Cited by third party
Title
Gausemeier et al., DeVelopment of a Real Time lmage Based Object Recognition Method for Mobile AR-Devices, Proceedings of the 2nd International Conference on Computer Graphics, Virtual Reality, Visualisation and Interaction in Africa, 2003, pages133-139 *
Leotta et al., Plausible Physics in Augmented lmages, ACM SIGGRAPH 2005 Posters, Article NO.53, 2005 *
Takacs et al., outdoors Augmented Reality on Mobile Phone Using Loxel-Based Visual Feature organization, Proceedings of the 1st ACM International Conference on Multimedia Information Retrieval,2008,pages427-434 *
Wendt et al., Markerless Outdoor Localisation Based on SIFT Descriptors for Mobile Applications, ICISP 2008,Lecture Notes in Computer Science 5099,2008,pages439-446 *

Also Published As

Publication number Publication date
CN102959946A (zh) 2013-03-06
DE112011103221T5 (de) 2013-09-19
US20120075342A1 (en) 2012-03-29
CN102959946B (zh) 2016-11-16
WO2012040709A2 (en) 2012-03-29
US8872851B2 (en) 2014-10-28
TW201229962A (en) 2012-07-16
WO2012040709A3 (en) 2012-07-05

Similar Documents

Publication Publication Date Title
TWI483215B (zh) 根據相關3d點雲端資料強化影像資料
US11393173B2 (en) Mobile augmented reality system
CN109074667B (zh) 基于预测器-校正器的位姿检测
US9799139B2 (en) Accurate image alignment to a 3D model
US9530235B2 (en) Aligning panoramic imagery and aerial imagery
US20150243073A1 (en) Systems and Methods for Refining an Aerial Image
US20130300899A1 (en) Information processing device, information processing method, and program
US9232128B2 (en) Image capture position and image capture direction estimation device, image capture device, image capture position and image capture direction estimation method and program
Burkhard et al. Stereovision mobile mapping: System design and performance evaluation
KR20100060472A (ko) 위치 측정 방법 및 이를 이용한 휴대 단말기
US20220215576A1 (en) Information processing device, information processing method, and computer program product
CN109034214B (zh) 用于生成标记的方法和装置
JP4896762B2 (ja) 画像処理装置および画像処理プログラム
US20160086339A1 (en) Method of providing cartograic information of an eletrical component in a power network
CN110617800A (zh) 基于民航客机的应急遥感监测方法、系统及存储介质
JP7075090B1 (ja) 情報処理システム、及び、情報処理方法
US11776148B1 (en) Multi-view height estimation from satellite images
Ulvi et al. A New Technology for Documentation Cultural Heritage with Fast, Practical, and Cost-Effective Methods IPAD Pro LiDAR and Data Fusion
CN117057086A (zh) 基于目标识别与模型匹配的三维重建方法、装置及设备
Lemaire et al. High precision object geo-localization and visualization in sensor networks
CN115527044A (zh) 多特征视觉定位方法
Buyuksalih et al. Geometric and mapping potential of WorldView-1 images

Legal Events

Date Code Title Description
MM4A Annulment or lapse of patent due to non-payment of fees