TW201520975A - 產生場景深度圖之方法及裝置 - Google Patents

產生場景深度圖之方法及裝置 Download PDF

Info

Publication number
TW201520975A
TW201520975A TW103136555A TW103136555A TW201520975A TW 201520975 A TW201520975 A TW 201520975A TW 103136555 A TW103136555 A TW 103136555A TW 103136555 A TW103136555 A TW 103136555A TW 201520975 A TW201520975 A TW 201520975A
Authority
TW
Taiwan
Prior art keywords
scene
depth
light pattern
density
depth map
Prior art date
Application number
TW103136555A
Other languages
English (en)
Inventor
Pierrick Jouet
Vincent Alleaume
Caroline Baillard
Original Assignee
Thomson Licensing
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Thomson Licensing filed Critical Thomson Licensing
Publication of TW201520975A publication Critical patent/TW201520975A/zh

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/271Image signal generators wherein the generated image signals comprise depth maps or disparity maps
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/521Depth or shape recovery from laser ranging, e.g. using interferometry; from the projection of structured light
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/50Lighting effects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10028Range image; Depth image; 3D point clouds
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10141Special mode during image acquisition
    • G06T2207/10152Varying illumination
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N2013/0074Stereoscopic image analysis
    • H04N2013/0081Depth or disparity estimation from stereoscopic image signals

Abstract

本發明係一種產生一場景深度圖之方法及裝置,該方法包括步驟為:將一具有同質密度之結構化光圖樣投射至該場景上,以得到一第一深度圖;根據第一深度圖中之深度資訊將該場景分段成至少一區;及藉由將該光圖樣之密度調適至該場景之至少一區,將一具有異質密度之結構化光圖樣投射至該場景上,以得到該場景之第二深度圖。

Description

產生場景深度圖之方法及裝置
本發明一般相關3D電腦繪圖,本發明特別相關產生場景深度圖的方法及裝置。
在3D電腦繪圖中,深度圖係一影像,其包含深度資訊係相關一場景中物件表面與一觀測點的距離,深度圖通常係2D(平面)影像,其具有對應到距離的像素值,如較亮值是指較短距離,反之亦然。
包含在深度圖中的深度資訊可具有數個用途,例如可用以模擬場景內的均勻濃密半透明媒體效果如霧或煙。
微軟公司的Kinect系統曾建議使用一結構化光來建立一場景深度圖,該結構化光方法是指將一已知像素圖樣(常是格柵或水平條)投射在場景上的過程,光圖樣在撞擊場景表面時變形的方式容許一視覺系統用以算出場景中點或物件的深度資訊。
明確地說,在Kinect系統的結構化光步驟中有一光源將特別設計的2D圖樣投射到一場景上,Kinect系統通常使用一IR(紅外線)點投射,該投射可僅是點的偽隨機布局,導致場景的各區由一獨特點的布局圖樣照亮。圖1係以一示範圖顯示照明到一場景上的紅外線(IR)點投射圖樣,照明下的場景將由一影像感測器加以捕捉,在上述使用IR點投射作為光源的情形中,影像感測器可係IR捕捉感測器(例如IR攝影機)。將透過IR捕捉感測器獨特地識別出各獨特圖樣,即使是來自場景區中的深度變化有改變的情形,接著透過三角法原則藉由投射圖樣與捕捉圖樣之間的位移量測量出深度資訊。在Kinect系統的IR點投射範例中,有遊戲者的場景由非可見IR光撞擊,所有受影響表面將反射此照射的一部分,反射的IR照射量(參照至IR攝影機)取決於物件的距離,用於較遠物件的紅外線照射反射量會較少,對照之下,用於靠近物件的紅外線照射的反射量會是重大的。因此,IR攝影機將根據強度來測量與物件相隔的距離。
現今廣泛使用到該結構化光步驟,特別在電影領域中。
在產生場景深度圖的傳統結構光步驟中,係由具有同質密度的結構化光照明場景,例如,利用具有相同密度的圖樣投射出場景的背景及前景中的物件,接著如上述,測出的變形容許一深度圖的計算。
然而,在傳統結構化光步驟中將具有同質密度的一結構化光圖樣投射在一場景上,這表示不管物件到一觀測點的距離如何,場景的所有點或物件將使用相同光圖樣,其密度可關聯到一已知場景的點或物件數。這類結構化光步驟的問題中有一者係最遠物件失去精確度,可了解的是以同質密度投射下最遠物件的解析度就已經比最近物件的解析度糟。
有鑑於上述傳統技術問題,本發明涉及一種產生場景深度圖的方法及裝置,其使用具有同質密度的一結構化光圖樣投射在場景上。光圖樣的密度係動態地調適到場景的至少一區,除以一深度分段作為該至少一區深度值的函數。本發明可提供相關期望深度精確度的可控圖樣投射,及在產生一場景深度圖期間容許更詳細的分析。
根據本發明的一方面,提供一種產生場景深度圖的方法,該方法包括以下步驟:將具有同質密度的一結構化光圖樣投射到一場景上,用以得到一第一深度圖;根據第一深度圖中的深度資訊將該場景分段成至少一區;及藉由將光圖樣的密度調適到該場景的至少一區,將具有一異質密度的一結構化光圖樣投射到該場景上,用以得到該場景的一第二深度圖。
根據本發明的一方面,提供一種產生場景深度圖的裝置,該裝置包括:一圖樣投射器,用以朝向一場景投射一結構化光圖樣;一影像感測器,在該投射結構化光圖樣的照明下用以捕捉該場景的一影像;一深度資訊單元,藉由投射結構化光圖樣與影像感測器捕捉的光圖樣之間的變形測量,用以得到場景深度資訊,為產生該場景的一深度圖;及一控制單元,用以將投射結構化光圖樣的密度調適到該場景的個別區,作為該等區深度均值的函數。
應瞭解的是在本發明以下詳細說明中將發現本發明更多方面及有利點。
201‧‧‧得到第一深度圖的投射步驟
202‧‧‧分段步驟
203‧‧‧得到第二深度圖的投射步驟
601,602,603,604‧‧‧密度
700‧‧‧裝置
701‧‧‧圖樣投射器
702‧‧‧影像感測器
703‧‧‧深度資訊單元
704‧‧‧控制單元
以下配合附圖說明本發明該等實施例的原則,俾進一步了解該等實施例,本發明並未侷限於該等實施例。圖中:圖1係以示範圖顯示照明到場景上的紅外線(IR)點投射圖樣;圖2係根據本發明的一實施例以流程圖說明產生場景深度圖的方法;圖3係以示範圖顯示具有同質密度的結構化光圖樣;圖4係以示範圖顯示具有矩形定界框的深度分段輸出;圖5係以示範圖顯示具有調適密度的光圖樣;圖6(a)、(b)及(c)係以示範圖顯示產生特定場景深度圖的過程;及圖7係根據本發明的一實施例以方塊圖顯示產生場景深度圖的裝置。
茲將配合附圖詳細說明本發明的一實施例,為求簡潔,在以下說明中會省略一些習知功能及配置的詳細說明。
圖2係根據本發明的一實施例以流程圖顯示產生場景深度圖的方法。
在步驟201,將具有同質密度的一結構化光圖樣投射在場景上,用以得到一第一深度圖。
在此步驟中,可使用一圖樣投射器朝向場景投射一結構化光圖樣,任何適當光源可用於該圖樣投射器,包含但不限於上述IR(紅外線)投射器。在此情形中,了解到從該圖樣投射器入射的光係一IR(紅外線),如上述,投射的圖樣可係點布局。圖3係一示範圖顯示可用在步驟201中具有同質密度的結構化光圖樣,但可了解到該圖樣可包括其他預設形狀。
可由一影像取得單元測量投射的結構化光在撞擊場景的反射表面時的變形,該影像取得單元可係一影像感測器,例如攝影機,在此例中係使用一IR(紅外線)捕捉感測器。藉由投射的結構化光圖樣與影像取得單元捕捉的圖樣之間的變形或位移量的測量,可求出場景的深度資 訊,根據求出的深度資訊可產生一第一深度圖。當然可使用習知三角演算法用以根據捕捉的變形求出深度資訊,在此方面將不再提供任何進一步細節。
在步驟202,根據第一深度圖中的深度資訊將場景分段成至少一區。
該深度資訊可係場景中數個點的深度值,在此例中,執行步驟202(以下可稱之為深度分段),可根據第一深度圖提供的場景點深度值,將該等場景點分組成複數個群集(cluster),具有相同或相似深度值的一組點可組成一群集。
場景點之間的歐幾里德(Euclidian)距離可用於上述目的,即為將具有相同或相似深度值的場景點組成數個群集。歐幾里德距離的準則係用以建立一群集,以具有最近距離(di +/- δ(雙+/-差量))的點建成。此過程可受到鄰近者限制用以獲得一同質群集。可了解到歐幾里德距離以外的其他準則亦可用於該等場景點的聚類(clustering)。
可根據場景的複雜度判定待分段的區數,可由使用者設定相關場景複雜度的一參數,場景的複雜度可相關場景中物件的數目及大小及此等物件之間的距離差異,例如,認為在不同距離具有許多物件的場景係複雜的,及認為具有小物件的場景亦係複雜的,可將較複雜場景分段成較多區數。
例如,可了解到一場景根據深度值的基本分段結果係場景的背景區及前景區。
圖4係以示範圖顯示一範例,具有矩形定界框的深度分段結果,如圖4所示,根據第一深度圖提供的深度資訊,可將一場景分段成三區,其指出為前景平面、背景平面及中間平面。可根據第一深度圖提供的此等點的深度值,藉由將場景的該等點聚類來執行該分段,將具有相同或相似深度值的點組成一群集,即用於前景平面、背景平面與中間平面的數區中的一者。在圖4中,場景分段成矩形定界框所界定的數區,矩形定界形狀係用於深度分段的一簡單類型定界框,但熟諳此藝者可了解,亦可使用其他形狀。
為管理邊界區,可放大作為結果的前景區域,用以具有一 安全容限,以便能避免振盪。
例如,可在分段的二進制大物件(blob)周圍建立矩形定界框,或可執行分段深度影像的形態侵蝕。
在步驟203,藉由將該光圖樣的密度調適到該場景的至少一區,將具有一異質密度的一結構化光圖樣投射到該場景上,用以得到該場景的一第二深度圖。
可了解到深度圖的準確度係取決於光圖樣的密度,稠密圖樣將比稀疏圖樣提供較高準確度。
根據本發明的實施例,可根據該場景個別分段區的深度值,將投射光圖樣的密度區域地調適到該等區,上述用於調適的深度值可係一區的全部點或部分點的平均值。
圖5係一示範圖顯示具有調適密度的一光圖樣用於圖4所示分段區,如圖5所示,根據第一深度圖中此等分段區的深度均值,將投射光圖樣的密度調適到該等區(在此例中,即前景平面、背景平面及中間平面)。
可了解到,與一場景區中具有較大深度均值的物件相比,在一場景區中具有較小深度均值的物件需要較佳準確度,此外,一場景的背景區將具有最大深度均值,及該場景的前景區將具有最小深度均值。因此,根據本發明的一實施例,可增加投射光圖樣的密度以用於背景區之上具有較小深度均值的任一或全部分段區(認為該等區係較靠近觀測點)。在一較特定實施例中,可僅增加投射光圖樣的密度以用於該等分段區中具有最小深度均值的一分段區(認為此區係最靠近觀測點的一區)。
如圖5所示,由於前景平面及中間平面具有較小深度均值(意即較靠近觀測點),因此各別增加投射光圖樣的密度以用此二區。用於背景平面,投射光圖樣的密度可仍在初始光圖樣密度上保持不變。可了解圖5只顯示密度調適的一範例,亦可應用其他調適,例如,亦可能只增加投射光圖樣的密度以用於前景平面,其係最靠近區。
在一些情境中,會需要有場景的同質掃描,在此類情形中,可在上述範例之上相互地執行密度調適,明確地,將投射光圖樣的密度各別地增加以用於前景區之上具有較大深度均值的任一或所有分段區 (認為該等區係較遠離觀測點),及各別地減少以用於背景區之上具有較小深度均值的任一或所有分段區(認為該等區係較靠近觀測點)。較明確地,用於圖4所示的深度分段結果,投射光圖樣的密度將增加以用於背景平面,及減少以用於前景平面。利用這類深度調適,(在裝置的極限內)可在背景中及在前景中達成相似準確度。
在本發明實施例的方法中,可在每一訊框更新深度分段步驟202,及據以調適光圖樣的密度。
用於場景中的移動物件,藉由一追蹤過程可控制分段區的位置。
可能會有新元素進入或離開該捕捉區,在此情形中,可檢測到一不連續性,及接著可據以更新點聚類,及檢視光圖樣的密度,使想要的密度維持不變。
接下來,將參照至圖6(a)、6(b)及6(c)描述一示範場景的深度圖的產生過程。
圖6(a)顯示將產生深度圖的一示範場景,該場景顯示客廳的一部分,其中在牆壁前放置有一立燈、一沙發及一咖啡桌,牆上亦釘有一畫框。
根據本發明上述實施例的方法,首先藉由將具有同質密度的一結構化光圖樣投射在場景上,產生場景的一第一深度圖,接著,根據第一深度圖的深度資訊,將場景分段成數區。圖6(b)顯示場景的深度分段,如圖6(b)所示,例如由該等場景點的聚類作為該等場景點可由第一深度圖取得的深度值的函數,將場景分段成四區,其基本上分別對應到立燈、沙發、咖啡桌及背景平面。由於牆上的畫框具有相似牆壁的深度值,因此不另分段,兩者皆分段成背景平面。
接著,藉由將光圖樣的密度調適到場景的四分段區,如根據其深度值,將具有一異質密度的一結構化光圖樣投射到場景上,藉此得到場景的一第二深度圖。圖6(c)係以示範圖顯示光圖樣的密度調適用於場景的分段區,如圖6(c)所示,投射光圖樣的密度係區域地調適到場景的四分段區,如上述範例所述,可使投射光圖樣的密度601、602及603增加以用於具有較小深度均值的三分段區中的任一者或全部(背景區除外),用 以達成深度圖的較佳準確度。或者,可增加投射光圖樣的密度604以用於背景區,及減少密度601以用於前景區(咖啡桌),用以達成場景中背景中及前景中的相似準確度。
利用根據本發明實施例的方法,可增加靠近物件的深度圖精確度,或者可使整個場景之上的深度準確度同質化,此外,與具有高密度圖樣的傳統步驟相比,該深度圖的計算較為容易,將減低運算時間。
圖7係根據本發明的一實施例以方塊圖顯示一裝置用以實施產生場景深度圖的方法。
如圖7所示,裝置700包括一圖樣投射器701,用以朝向一場景投射一結構化光圖樣,如上述,該圖樣投射器可照明任何適當光,包含但不限於一IR(紅外線)光。
裝置700包括一影像感測器702,在投射結構化光圖樣的照明下,用以捕捉場景的一影像。
裝置700尚包括一深度資訊單元703,藉由投射的結構化光圖樣與影像感測器702捕捉的光圖樣之間的變形測量,用以得到該場景的深度資訊,為產生該場景的一深度圖。
如圖7所示,裝置700包括一控制單元704,用以實施本發明上述實施例的方法,將投射的結構化光圖樣的密度調適到場景的個別區,作為該等區深度值的函數。明確地,在控制單元704的控制下,圖樣投射器701會首先將具有同質密度的一結構化光圖樣投射到場景上,由深度資訊單元703藉由投射結構化光圖樣與影像感測器702捕捉的光圖樣之間的變形測量,產生一第一深度圖。控制單元704根據第一深度圖的深度資訊將場景分段成至少一區,及指示圖樣投射器701將具有一異質密度的結構化光圖樣投射到場景上,該光圖樣調適到場景的至少一區作為該深度值的函數。深度資訊單元703將藉由投射的新結構化光圖樣與影像感測器702捕捉的光圖樣之間的變形測量,產生一第二深度圖。
應瞭解,本發明可實施在各種不同形式的硬體、軟體、韌體、特殊目的處理器,或其組合中,例如在系統中的複數個3D顯示裝置的任一者或數者或其個別驅動元件內,及/或利用一分開的伺服器或工作站。此外,該軟體較佳實施為有形具體化在程式儲存裝置上的應用程式, 該應用程式可上載到包括有任何合適架構的機器並由該機器執行。較佳該機器實施在一電腦平台上,該電腦平台包括有硬體如一或多個中央處理單元(CPU)、一隨機存取記憶體(RAM)及(數個)輸入/輸出(I/O)介面。該電腦平台亦包含一作業系統及微指令碼,本文所述不同過程及功用可係該微指令碼的一部分或該應用程式的一部分(或其組合),其係經由該作業系統執行。此外,可將各種不同周邊裝置連接到該電腦平台,如一外加資料儲存裝置及一列印裝置。
尚應了解,因附圖中描繪的一些組成系統元件及方法步驟較佳實施在軟體中,因此取決於本發明程式化的方式,系統元件(或方法步驟)之間的實際連接會不同。透過本文中的教示,熟諳相關技藝者將能仔細考慮本發明的此等及相似實施或配置。
201‧‧‧得到第一深度圖的投射步驟
202‧‧‧分段步驟
203‧‧‧得到第二深度圖的投射步驟

Claims (15)

  1. 一種產生一場景之深度圖之方法,包括:將一具有一第一密度之結構化光圖樣投射(201)至該場景上,以得到一第一深度圖;根據第一深度圖中之深度資訊,將該場景分段(202)成至少一區;及藉由將該光圖樣之密度調適至該場景之至少一區,將一具有一第二密度之結構化光圖樣投射(203)至該場景上,以得到該場景之一第二深度圖。
  2. 如申請專利範圍第1項所述之方法,其中第一密度係同質的,及第二密度係異質的。
  3. 如申請專利範圍第1項所述之方法,其中深度資訊係該場景中一點之深度值。
  4. 如申請專利範圍第3項所述之方法,其中分段包括將該場景之該等點分組成數個叢集,各具有一相同或類似深度值。
  5. 如申請專利範圍第4項所述之方法,其中分組係根據該場景中數個點之深度值間之歐幾里德(Euclidian)距離。
  6. 如申請專利範圍第1項所述之方法,其中調整光圖樣之密度作為該至少一區之深度均值之函數。
  7. 如申請專利範圍第6項所述之方法,其中增加光圖樣之密度以用於該至少一區中之任一者或全部,全場景最遠離一觀測點具有最大平均深度值之區域除外。
  8. 如申請專利範圍第7項所述之方法,增加光圖樣之密度以只用於該至少一區中全場景最靠近該觀測點具有最小平均深度值之一者。
  9. 如申請專利範圍第6項所述之方法,使投射光圖樣之密度增加以用於該至少一區中全場景最遠離一觀測點具有最大平均深度值之一者,及減少以用於該至少一區中全場景最靠近該觀測點具有最小平均深度值之一者。
  10. 如申請專利範圍第1項所述之方法,其中將該場景分段成數區,其由數個矩形定界框定出界限。
  11. 如申請專利範圍第1項所述之方法,其中根據該場景之複雜度設 定分段區數目。
  12. 如申請專利範圍第11項所述之方法,該場景之複雜度相關該場景中該等物件之數目及大小,及該等物件間之距離差。
  13. 一種產生一場景之深度圖之裝置,包括:一圖樣投射器(701),將一結構化光圖樣朝向一場景投射;一影像感測器(702),在投射之結構化光圖樣照明下,用以捕捉該場景之一影像;一深度資訊單元(703),藉由投射之結構化光圖樣與影像感測器(702)所捕捉光圖樣間之變形測量,以得到該場景之深度資訊,產生一場景深度圖;及一控制單元(704),用以將投射之結構化光圖樣調適至該場景之個別區,作為該等區之深度均值之函數。
  14. 如申請專利範圍第13項所述之裝置,在控制單元(704)之控制下,又包括:圖樣投射器(701)將一具有同質密度之結構化光圖樣投射在該場景上,以得到一第一深度圖;在投射之結構化光圖樣照明下,影像感測器(702)捕捉該場景之一影像;深度資訊單元(703)得到該場景之深度資訊,以產生該場景之第一深度圖;控制單元(704)根據第一深度圖之深度資訊將該場景分段成至少一區,及將該光圖樣之密度調適到該場景之至少一區,作為該深度值之函數;圖樣投射器(701)將具有一調適密度之結構化光圖樣投射(203)至該場景上;在調適之結構化光圖樣照明下,影像感測器(702)捕捉該場景之一影像;及深度資訊單元(703)得到該場景之深度資訊,以產生該場景之一第二深度圖。
  15. 如申請專利範圍第13項所述之裝置,其中圖樣投射器(701)係一IR(紅外線)投射器,及影像感測器(702)係一IR(紅外線)攝影機。
TW103136555A 2013-10-29 2014-10-23 產生場景深度圖之方法及裝置 TW201520975A (zh)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
EP20130290259 EP2869263A1 (en) 2013-10-29 2013-10-29 Method and apparatus for generating depth map of a scene

Publications (1)

Publication Number Publication Date
TW201520975A true TW201520975A (zh) 2015-06-01

Family

ID=49641691

Family Applications (1)

Application Number Title Priority Date Filing Date
TW103136555A TW201520975A (zh) 2013-10-29 2014-10-23 產生場景深度圖之方法及裝置

Country Status (9)

Country Link
US (1) US20150116460A1 (zh)
EP (2) EP2869263A1 (zh)
JP (1) JP2015087393A (zh)
KR (1) KR20150050450A (zh)
CN (1) CN104581124B (zh)
AU (1) AU2014246614A1 (zh)
BR (1) BR102014027057A2 (zh)
HK (1) HK1210308A1 (zh)
TW (1) TW201520975A (zh)

Families Citing this family (22)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8982182B2 (en) 2010-03-01 2015-03-17 Apple Inc. Non-uniform spatial resource allocation for depth mapping
KR20170124559A (ko) * 2015-02-25 2017-11-10 페이스북, 인크. 물체에 의해 반사된 광의 특성에 기반한 볼륨 내 물체의 식별
KR102114969B1 (ko) * 2015-06-08 2020-06-08 삼성전자주식회사 광학 장치 및 깊이 정보 생성 방법
US11054664B2 (en) * 2015-06-18 2021-07-06 Apple Inc. Monitoring DOE performance using software scene evaluation
CN106576159B (zh) * 2015-06-23 2018-12-25 华为技术有限公司 一种获取深度信息的拍照设备和方法
US10282591B2 (en) 2015-08-24 2019-05-07 Qualcomm Incorporated Systems and methods for depth map sampling
CN105357515B (zh) * 2015-12-18 2017-05-03 天津中科智能识别产业技术研究院有限公司 一种基于结构光和光场成像的彩色深度成像方法及其装置
TWI672677B (zh) 2017-03-31 2019-09-21 鈺立微電子股份有限公司 用以融合多深度圖的深度圖產生裝置
CN106997603B (zh) * 2017-05-19 2020-04-17 深圳奥比中光科技有限公司 基于vcsel阵列光源的深度相机
CN107483845B (zh) * 2017-07-31 2019-09-06 Oppo广东移动通信有限公司 拍照方法及其装置
CN109661683B (zh) * 2017-12-15 2020-09-15 深圳配天智能技术研究院有限公司 基于图像内容的投射结构光方法、深度检测方法及结构光投射装置
US20190188513A1 (en) * 2017-12-20 2019-06-20 Datalogic Usa Inc. Systems and methods for object deskewing using stereovision or structured light
EP3803266A4 (en) * 2018-06-06 2022-03-09 Magik Eye Inc. DISTANCE MEASUREMENT USING HIGH DENSITY PROJECTION PATTERNS
WO2020150131A1 (en) 2019-01-20 2020-07-23 Magik Eye Inc. Three-dimensional sensor including bandpass filter having multiple passbands
US11474209B2 (en) * 2019-03-25 2022-10-18 Magik Eye Inc. Distance measurement using high density projection patterns
CN110430406A (zh) * 2019-08-05 2019-11-08 歌尔股份有限公司 深度图像生成方法、装置、设备及计算机可读存储介质
US11435215B2 (en) * 2019-11-14 2022-09-06 Pixart Imaging Inc. Electric pot and liquid level determining method which can determine liquid level and solid height by light with different wave lengths
WO2021112292A1 (ko) * 2019-12-05 2021-06-10 엘지전자 주식회사 이동 단말기
CN113096154B (zh) * 2020-01-08 2023-02-21 浙江光珀智能科技有限公司 一种基于斜装深度相机的目标检测与跟踪方法及系统
CN111951376B (zh) * 2020-07-28 2023-04-07 中国科学院深圳先进技术研究院 融合结构光和光度学的三维对象重建方法及终端设备
CN111932537B (zh) * 2020-10-09 2021-01-15 腾讯科技(深圳)有限公司 对象形变检测方法、装置、计算机设备和存储介质
KR20220083059A (ko) 2020-12-11 2022-06-20 삼성전자주식회사 Tof 카메라 장치와 그 구동방법

Family Cites Families (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7203356B2 (en) * 2002-04-11 2007-04-10 Canesta, Inc. Subject segmentation and tracking using 3D sensing technology for video compression in multimedia applications
CA2670214A1 (en) * 2006-11-21 2008-05-29 Mantisvision Ltd. 3d geometric modeling and 3d video content creation
CN100563552C (zh) * 2007-03-14 2009-12-02 中国科学院自动化研究所 一种基于s形光子密度调整的目标检测装置
CN101655347B (zh) * 2009-08-20 2011-05-25 浙江工业大学 基于激光二极管光源的主动三维立体全方位视觉传感器
JP5460341B2 (ja) * 2010-01-06 2014-04-02 キヤノン株式会社 3次元計測装置及びその制御方法
US20120056982A1 (en) * 2010-09-08 2012-03-08 Microsoft Corporation Depth camera based on structured light and stereo vision
JP5798318B2 (ja) * 2010-12-15 2015-10-21 キヤノン株式会社 距離データ生成装置、位置姿勢計測装置、距離データ生成装置の制御方法およびプログラム
JP5746529B2 (ja) * 2011-03-16 2015-07-08 キヤノン株式会社 三次元距離計測装置、三次元距離計測方法、およびプログラム
EP2611169A1 (fr) * 2011-12-27 2013-07-03 Thomson Licensing Dispositif d'acquisition d'images stereoscopiques
JP2014009997A (ja) * 2012-06-28 2014-01-20 Ricoh Co Ltd 測距装置
WO2015006790A1 (en) * 2013-07-18 2015-01-22 A.Tron3D Gmbh Method of capturing three-dimensional (3d) information on a structure

Also Published As

Publication number Publication date
CN104581124A (zh) 2015-04-29
BR102014027057A2 (pt) 2016-08-02
EP2869263A1 (en) 2015-05-06
AU2014246614A1 (en) 2015-05-14
KR20150050450A (ko) 2015-05-08
JP2015087393A (ja) 2015-05-07
US20150116460A1 (en) 2015-04-30
CN104581124B (zh) 2018-05-22
HK1210308A1 (zh) 2016-04-15
EP2869266A1 (en) 2015-05-06
EP2869266B1 (en) 2017-10-18

Similar Documents

Publication Publication Date Title
TW201520975A (zh) 產生場景深度圖之方法及裝置
US11115633B2 (en) Method and system for projector calibration
EP2824923B1 (en) Apparatus, system and method for projecting images onto predefined portions of objects
US9392262B2 (en) System and method for 3D reconstruction using multiple multi-channel cameras
JP6320051B2 (ja) 三次元形状計測装置、三次元形状計測方法
US20120176478A1 (en) Forming range maps using periodic illumination patterns
US20120176380A1 (en) Forming 3d models using periodic illumination patterns
US10440349B2 (en) 3-D 360 degrees depth projector
CN107018392B (zh) 投影仪优化方法和系统
TW201421074A (zh) 藉由所關注之物體之可調適照射之深度成像方法及裝置
JP5633058B1 (ja) 3次元計測装置及び3次元計測方法
US9049369B2 (en) Apparatus, system and method for projecting images onto predefined portions of objects
US10240913B2 (en) Three-dimensional coordinate measuring apparatus and three-dimensional coordinate measuring method
US9171393B2 (en) Three-dimensional texture reprojection
WO2020075252A1 (ja) 情報処理装置、プログラム及び情報処理方法
TWI728026B (zh) 使用頻域為基礎之處理之三維成像
JP2016109671A (ja) 三次元計測装置およびその制御方法
JP2011064617A (ja) 三次元情報計測装置および三次元情報計測方法
JP2010243478A (ja) 環境内の3d物体の3d姿勢を推定する方法及び装置
US20200234458A1 (en) Apparatus and method for encoding in structured depth camera system
TW202407383A (zh) 立體感測系統與方法
CA2847118A1 (en) Depth imaging method and apparatus with adaptive illumination of an object of interest