TW201510554A - 用於同深度攝影機使用的光學模組 - Google Patents

用於同深度攝影機使用的光學模組 Download PDF

Info

Publication number
TW201510554A
TW201510554A TW103127313A TW103127313A TW201510554A TW 201510554 A TW201510554 A TW 201510554A TW 103127313 A TW103127313 A TW 103127313A TW 103127313 A TW103127313 A TW 103127313A TW 201510554 A TW201510554 A TW 201510554A
Authority
TW
Taiwan
Prior art keywords
laser beam
horizontal
vertical divergence
optical
divergence angle
Prior art date
Application number
TW103127313A
Other languages
English (en)
Inventor
Joshua Hudman
Prafulla Masalkar
Original Assignee
Microsoft Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Microsoft Corp filed Critical Microsoft Corp
Publication of TW201510554A publication Critical patent/TW201510554A/zh

Links

Classifications

    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/20Input arrangements for video game devices
    • A63F13/21Input arrangements for video game devices characterised by their sensors, purposes or types
    • A63F13/213Input arrangements for video game devices characterised by their sensors, purposes or types comprising photodetecting means, e.g. cameras, photodiodes or infrared cells
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/02Systems using the reflection of electromagnetic waves other than radio waves
    • G01S17/06Systems determining position data of a target
    • G01S17/08Systems determining position data of a target for measuring distance only
    • G01S17/32Systems determining position data of a target for measuring distance only using transmission of continuous waves, whether amplitude-, frequency-, or phase-modulated, or unmodulated
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/66Tracking systems using electromagnetic waves other than radio waves
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/48Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
    • G01S7/481Constructional features, e.g. arrangements of optical elements
    • G01S7/4814Constructional features, e.g. arrangements of optical elements of transmitters alone
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B19/00Condensers, e.g. light collectors or similar non-imaging optics
    • G02B19/0033Condensers, e.g. light collectors or similar non-imaging optics characterised by the use
    • G02B19/0047Condensers, e.g. light collectors or similar non-imaging optics characterised by the use for use with a light source
    • G02B19/0061Condensers, e.g. light collectors or similar non-imaging optics characterised by the use for use with a light source the light source comprising a LED
    • G02B19/0066Condensers, e.g. light collectors or similar non-imaging optics characterised by the use for use with a light source the light source comprising a LED in the form of an LED array
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/09Beam shaping, e.g. changing the cross-sectional area, not otherwise provided for
    • G02B27/0927Systems for changing the beam intensity distribution, e.g. Gaussian to top-hat
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/09Beam shaping, e.g. changing the cross-sectional area, not otherwise provided for
    • G02B27/0938Using specific optical elements
    • G02B27/0944Diffractive optical elements, e.g. gratings, holograms
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/09Beam shaping, e.g. changing the cross-sectional area, not otherwise provided for
    • G02B27/0938Using specific optical elements
    • G02B27/095Refractive optical elements
    • G02B27/0955Lenses
    • G02B27/0961Lens arrays
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/02Systems using the reflection of electromagnetic waves other than radio waves
    • G01S17/06Systems determining position data of a target
    • G01S17/08Systems determining position data of a target for measuring distance only
    • G01S17/10Systems determining position data of a target for measuring distance only using transmission of interrupted, pulse-modulated waves
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/02Systems using the reflection of electromagnetic waves other than radio waves
    • G01S17/06Systems determining position data of a target
    • G01S17/46Indirect determination of position data

Landscapes

  • Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Optics & Photonics (AREA)
  • Electromagnetism (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Multimedia (AREA)
  • Human Computer Interaction (AREA)
  • Processing Or Creating Images (AREA)

Abstract

本文中所揭露的是用於同深度攝影機使用的光學模組,以及包括深度攝影機的系統。光學模組展開雷射光束(由光學模組的雷射源所輸出),以便由光學模組所輸出的雷射光束看起來不亮,且因此不會引起對於雷射光的注意。這樣的光學模組可包括光學結構,該光學結構修改雷射光束,以便雷射光束的水平及垂直發散角度實質等於所需的水平及垂直發散角度,且以便雷射光束的照明外形實質等於所需的照明外形。這是有益的,因為為了讓深度攝影機獲得高解析度深度影像,場景應由具有預定所需之水平及垂直發散角度以及預定所需之照明外形的光所照明。

Description

用於同深度攝影機使用的光學模組
此發明係關於用於同深度攝影機使用的光學模組。
深度攝影機可獲得深度影像,該等深度影像包括關於實體空間中之人體或其他物體之位置的資訊。深度影像可對於各式各樣的應用由計算系統中之應用程式所使用。許多應用是可能的,例如用於軍事、娛樂、運動及醫療用途。例如,包括關於人體之資訊的深度影像可映射至三度(3D)人體骨架模型且用以產生動畫人物或化身。
為了獲得深度影像,深度攝影機一般將光投射至攝影機之視野中之物體上。光線反射離開物體並回到攝影機(在該攝影機處,光線係入射於攝影機之像素偵測器陣列上),且係處理光線以決定深度影像。
由深度攝影機所投射之光線可為高頻調變雷射光束,該高頻雷射光束是使用輸出紅外(IR)雷射光束的雷射源所產生的。雖然行經空氣的IR雷射光束對於人眼是不可見的,深度攝影機所從以輸出IR雷射光束的點可能看起來非常亮且引起對於雷射光的注意。這可為令人分心的,且因此是 不理想的。
本科技的某些實施例係關於用於同深度攝影機使用之光學模組,及包括深度攝影機的系統(其可稱為深度攝影機系統)。這樣的光學模組係用以展開由光學模組之雷射源所輸出之雷射光束,以便由光學模組所輸出之雷射光束看起來不亮,且因此不引起對於雷射光的注意。更具體而言,這樣的光學模組包括光學結構,該光學結構修改雷射光束,以便該雷射光束之水平及垂直發散角度實質等於所需之水平及垂直發散角度,且以便該雷射光束之照明外形實質等於所需之照明外形。這是有益的,因為為了使深度攝影機獲得高解析度的深度影像,場景應由具有預定所需之水平及垂直發散角度及預定所需之照明外形的光所照明。
依據實施例,深度攝影機系統包括雷射源、光學結構及影像像素偵測器陣列。雷射源輸出雷射光束。光學結構接收由雷射源所輸出之雷射光束,且以至少兩個階段展開由雷射源所輸出之雷射光束,以便自光學結構輸出之雷射光束具有實質等於所需之水平及垂直發散角度之水平及垂直發散角度。光學結構亦達成實質等於所需之照明外形的照明外形。影像像素偵測器陣列偵測由光學結構所輸出之雷射光束之部分,雷射光束之該部分係已反射離開深度攝影機之視野內之物體且係入射於影像像素偵測器陣列上。這樣的深度攝影機系統亦可包括一或更多個處理器,該等一或更多個處理器取決於影像像素偵器陣列之輸出來產生深度影像,且基於 深度影像來更新應用程式。
在特定實施例中,光學模組的光學結構包括由微透鏡陣列所跟隨之凹凸透鏡。凹凸透鏡執行光束的某些初始開展,且接著微透鏡陣列執行光束的進一步開展且亦用以達成實質等於所需之照明外形的照明外形。凹凸透鏡包括由凸透鏡表面所跟隨之凹透鏡表面,其中之各者調整雷射光束之水平及垂直發散角度。據此,凹凸透鏡可說是執行光束開展的第一階段,且光學性下游的微透鏡陣列可說是執行光束開展的第二階段。
在替代性實施例中,第一階段的光束開展可由微透鏡陣列、繞射光學構件或梯度折射率透鏡來執行,而非由凹凸透鏡來執行。凡第一及第二光束開展由第一及第二微透鏡陣列所執行,則光學結構可為雙側微透鏡陣列。在其他實施例中,第二階段光束開展係由繞射光學構件或光學發散器來執行,而非由微透鏡陣列來執行。
係提供此發明內容以使用簡化形式來介紹一系列概念,該等概念係在實施方式中進一步描述於以下。此發明內容係不意欲識別所申請之標的之關鍵特徵或必要特徵,且也不意欲用為在判定所申請之標的範圍時的輔助。此外,所申請的標的係不限於解決在此揭露之任何部分中所指出之任何或所有缺點之實施。
100‧‧‧追蹤系統
112‧‧‧計算系統
116‧‧‧視聽裝置
118‧‧‧使用者
120‧‧‧捕捉裝置
138‧‧‧拳擊對手
140‧‧‧玩家化身
222‧‧‧影像攝影機元件
224‧‧‧紅外(IR)光元件
226‧‧‧三度(3D)攝影機
228‧‧‧RGB攝影機
230‧‧‧麥克風
232‧‧‧處理器
234‧‧‧記憶體元件
236‧‧‧通訊連結
240‧‧‧手勢庫
242‧‧‧結構資料
244‧‧‧深度影像處理及物體回報模組
246‧‧‧應用程式
250‧‧‧雷射源
252‧‧‧光學結構
256‧‧‧光學模組
260‧‧‧驅動器
262‧‧‧時脈訊號產生器
264‧‧‧微處理器
266‧‧‧記憶體
268‧‧‧影像像素偵測器陣列
270‧‧‧讀出電路系統
272‧‧‧光圈場光闌及透鏡的統稱
300‧‧‧多媒體主控台
301‧‧‧中央處理單元
302‧‧‧等級1快取記憶體
304‧‧‧等級2快取記憶體
306‧‧‧ROM
308‧‧‧圖形處理單元
310‧‧‧記憶體控制器
312‧‧‧記憶體
314‧‧‧視訊編碼器/視訊解編碼器
318‧‧‧模組
320‧‧‧I/O控制器
322‧‧‧系統管理控制器
323‧‧‧音訊處理單元
324‧‧‧網路介面
326‧‧‧第一USB主機控制器
328‧‧‧第二USB控制器
330‧‧‧前端面板子組件
332‧‧‧音訊編解碼器
336‧‧‧系統電源供應模組
338‧‧‧風扇
340‧‧‧A/V接口
343‧‧‧系統記憶體
344‧‧‧媒體驅動器
342(1)‧‧‧周邊控制器
342(2)‧‧‧周邊控制器
346‧‧‧外部記憶體裝置
348‧‧‧無線轉接器
350‧‧‧電源按鈕
352‧‧‧彈出按鈕
420‧‧‧計算系統
422‧‧‧系統記憶體
423‧‧‧ROM
424‧‧‧基本輸入/輸出系統
425‧‧‧作業系統
426‧‧‧應用程式
427‧‧‧其他程式模組
428‧‧‧程式資料
429‧‧‧GPU
430‧‧‧視訊記憶體
431‧‧‧圖形介面
432‧‧‧視訊介面
433‧‧‧輸出周邊介面
434‧‧‧非可移除式記憶體介面
435‧‧‧可移除式記憶體介面
436‧‧‧使用者輸入介面
437‧‧‧網路介面
438‧‧‧硬碟驅動器
439‧‧‧磁碟驅動器
440‧‧‧光碟驅動器
441‧‧‧電腦
442‧‧‧監視器
443‧‧‧印表機
444‧‧‧喇叭
445‧‧‧本地區域網路
446‧‧‧遠端電腦
447‧‧‧記憶體存儲裝置
448‧‧‧應用程式
449‧‧‧廣域網路
450‧‧‧數據機
451‧‧‧鍵盤
452‧‧‧指向裝置
453‧‧‧可移除式、非依電性光碟
454‧‧‧可移除式、非依電性磁碟
455‧‧‧程式資料
456‧‧‧其他程式模組
457‧‧‧應用程式
458‧‧‧作業系統
459‧‧‧處理單元
460‧‧‧RAM
702‧‧‧光學模組
712‧‧‧雷射源
722‧‧‧光學結構
724‧‧‧第一光學構件
726‧‧‧第二光學構件
728‧‧‧凹凸透鏡
730‧‧‧第三光學構件
802‧‧‧光學模組
812‧‧‧雷射源
822‧‧‧光學結構
824‧‧‧第一光學構件
826‧‧‧第二光學構件
902‧‧‧步驟
904‧‧‧步驟
906‧‧‧步驟
908‧‧‧步驟
910‧‧‧步驟
912‧‧‧步驟
1002‧‧‧覆蓋區
1004‧‧‧覆蓋區
圖1A及1B繪示具有玩遊戲之使用者的追蹤系統的示例實施例。
圖2A繪示可用作追蹤系統之部分之捕捉裝置的示例實施例。
圖2B繪示可為圖2A之捕捉裝置之部分之深度攝影機的示例性實施例。
圖3繪示可用以追蹤使用者行為且基於使用者行為來更新應用程式之計算系統的示例實施例。
圖4繪示用以追蹤使用者行為且基於所追蹤之使用者行為來更新應用程式之計算系統的另一示例實施例。
圖5繪示示例性深度影像。
圖6描繪示例性深度影像中的示例性資料。
依據本科技之實施例,圖7繪示用於同深度攝影機使用的光學模組。
依據本科技之另一實施例,圖8繪示用於同深度攝影機使用的光學模組。
圖9為高層級流程圖,係用以概述依據本科技之各種實施例的方法。
圖10繪示本科技之實施例的光學結構是如何可用以在相對短的路徑長度上顯著增加雷射光束的覆蓋區。
圖11繪示示例性的所需照明外形。
本文中所揭露之本科技的某些實施例係關於用於同深度攝影機使用的光學模組,以及包括深度攝影機的系統,其可稱為深度攝影機系統。在提供本科技之這樣實施例的額外細節之前,將首先描述本科技之實施例可同以使用之較大 系統的示例性細節。
圖1A及1B繪示具有遊玩拳擊視訊遊戲之使用者118之追蹤系統100的示例實施例。在示例實施例中,追蹤系統100可用以辨識、分析及/或追蹤在追蹤系統100之範圍內之人體目標(例如使用者118)或其他物體。如圖1A中所示,追蹤系統100包括計算系統112及捕捉裝置120。如將於以下更詳細描述的,捕捉裝置120可用以獲得深度影像及色彩影像(亦熟知為RGB影像),該等影像可由計算系統112所使用以識別一或更多個使用者或其他物體以及追蹤運動及/或其他使用者行為。所追蹤的運動及/或其他使用者行為可用以更新應用程式。因此,使用者可藉由使用使用者身體及/或使用者周圍物體的移動來操縱遊戲人物或應用程式的其他態樣,而不是使用控制器、遙控器、鍵盤、滑鼠或類似物來操縱遊戲人物或應用程式的其他態樣,或是除了藉由使用控制器、遙控器、鍵盤、滑鼠或類似物之外,使用者可藉由使用使用者身體及/或使用者周圍物體的移動來操縱遊戲人物或應用程式的其他態樣。例如,視訊遊戲系統可基於物體的新位置來更新顯示於視訊遊戲中之影像的位置或基於使用者的運動來更新化身。
計算系統112可為電腦、遊戲系統或主控台或類似物。依據示例實施例,計算系統112可包括硬體元件及/或軟體元件,使得計算系統112可用以執行應用程式(例如遊戲應用程式、非遊戲應用程式或類似物)。在一個實施例中,計算系統112可包括處理器(例如標準化處理器、特殊化處 理器、微處理器或類似物),該處理器可對於執行本文中所描述的處理而執行儲存於處理器可讀取存儲裝置上之指令。
同將於以下更詳細描述的,捕捉裝置120可包括(例如)可用以視覺地監測一或更多個使用者(例如使用者118)的攝影機,使得可捕捉、分析及追蹤由一或更多個使用者所執行之手勢及/或移動,以執行應用程式內的一或更多個控制或動作及/或動畫化化身或螢幕上人物。
依據一個實施例,追蹤系統100可連接至視聽裝置116(例如電視、監視器、高清晰度電視(HDTV)或類似物),該視聽裝置116可向使用者(例如使用者118)提供遊戲或應用程式視覺元素及/或音訊。例如,計算系統112可包括視訊配接器(例如圖形卡)及/或音訊配接器(例如音效卡),可提供與遊戲應用程式、非遊戲應用程式或類似物相關聯的視聽訊號。視聽裝置116可自計算系統112接收視聽訊號且可接著向使用者118輸出與視聽訊號相關聯之遊戲或應用程式視覺元素及/或音訊。依據一個實施例,視聽裝置16可透過(例如)S視訊電纜、同軸電纜、HDMI電纜、DVI電纜、VGA電纜、元件視訊電纜或類似物來連接至計算系統112。
如圖1A及1B中所示,追蹤系統100可用以辨識、分析及/或追蹤人體目標(例如使用者118)。例如,可使用捕捉裝置120來追蹤使用者118,使得可捕捉使用者118的手勢及/或移動以動畫化化身或螢幕上人物,及/或可將使用者118的手勢及/或移動解譯為用以影響正由計算系統112所執行之應用程式的控制。因此,依據一個實施例,使用者118 可移動他或她的身體以控制應用程式及/或動畫化化身或螢幕上人物。
在圖1A及1B中所描繪的示例中,正在計算系統112上執行的應用程式可為使用者118正在玩的拳擊遊戲。例如,計算系統112可使用視聽裝置116以向使用者118提供拳擊對手138的視覺表示。計算系統112亦可使用視聽裝置116以提供玩家化身140的視覺表示,使用者118可使用他或她的移動來控制化身140。例如,如圖1B中所示,使用者118可在實體空間中揮出一拳以造成玩家化身140在遊戲空間中揮出一拳。因此,依據示例實施例,電腦系統112及捕捉裝置120辨識及分析實體空間中使用者118的揮拳,使得可將揮拳解譯為遊戲空間中玩家化身140的遊戲控制及/或揮拳的運動可用以在遊戲空間中動畫化玩家化身140。
亦可將由使用者118所進行的其他移動解譯為其他控制或動作及/或用以動畫化玩家化身,例如用以急速扭頭(bob)、閃身(weave)、滑步(shuffle)、格擋(block)、刺拳(jab)或揮出各式各樣不同力量的拳頭的控制。並且,某些移動可解譯為可相對應至控制玩家化身140以外之動作的控制。例如,在一個實施例中,玩家可使用移動來終止、暫停或儲存遊戲、選擇等級、檢視高分、與朋友通訊…等等。依據另一實施例,玩家可使用移動來從主要使用者介面選擇遊戲或其他應用程式。因此,在示例實施例中,可以任何合適的方式來取得、使用及分析使用者118全範圍的運動以與應用程式互動。
在示例實施例中,人體目標(例如使用者118)可具有物體。在這樣的實施例中,電子遊戲的使用者可能正持有該物體,使得使用者及該物體的運動可用以調整及/或控制遊戲的參數。例如,可為了在電子運動遊戲中控制螢幕上的球拍而追蹤及利用持有球拍之玩家的運動。在另一示例實施例中,可為了在電子戰鬥遊戲中控制螢幕上的武器而追蹤及利用持有物體之玩家的運動。亦可追蹤不被使用者所持有的物體(例如由使用者(或不同使用者)所拋出、推開或滾動的物體以及自我推動的物體)。除了拳擊之外,亦可實施其他遊戲。
依據其他示例實施例,追蹤系統100可進一步用以將目標移動解譯為在遊戲領域外面的作業系統及/或應用程式之控制。例如,實際上,任何作業系統及/或應用程式的可控制態樣可由目標(例如使用者118)的移動所控制。
圖2A繪示可用於追蹤系統100中之捕捉裝置120的示例實施例。依據示例實施例,捕捉裝置120可經配置以捕捉具有包括深度影像之深度資訊之視訊,該深度影像可透過任何合適的技術(例如包括飛行時間法、結構光、立體影像或類似物)來包括深度值。依據一個實施例,捕捉裝置120可將深度資訊組織成「Z層」或可垂直於Z軸的層,該Z軸沿深度攝影機的視線自深度攝影機延伸。
如圖2A中所示,捕捉裝置120可包括影像攝影機元件222。依據示例實施例,影像攝影機元件222可為可捕捉場景之深度影像的深度攝影機。深度影像可包括所捕捉場景 之二度(2D)像素區域,在該像素區域處,2D像素區域中的各像素可代表深度值(例如以公分、公厘或類似物表示之所捕捉場景中之物體距攝影機的距離)。
如圖2A中所示,依據示例實施例,影像攝影機元件222可包括可用以捕捉場景之深度影像的紅外(IR)光元件224、三度(3D)攝影機226及RGB攝影機228。例如,在飛行時間法(TOF)分析中,捕捉裝置120的IR光元件224可將紅外光發射至場景上且可接著使用感測器(未具體圖示於圖2A中)以使用(例如)3D攝影機226及/或RGB攝影機228來偵測自場景中之一或更多個目標及物體之表面反向散射的光。在某些實施例中,可使用脈衝式IR光,使得出射的光脈衝及相對應的入射的光脈衝間之時間可被測量且被用以決定自捕捉裝置120至場景中之目標或物體上之特定位置的實體距離。附加地或替代性地,可對入射光波相位比較出射光波的相位以決定相位偏移。相位偏移可接著用以決定自捕捉裝置至目標或物體上之特定位置之實體距離。示例性TOF類型的3D攝影機226(其亦可稱為深度攝影機)的額外細節係參照圖2B而於以下描述。
依據另一示例實施例,TOF分析可用以藉由透過各種技術(例如包括斷續光脈衝成像)來隨時間分析反射光束的強度,來間接決定自捕捉裝置120至目標或物體上之特定位置的實體距離。
在另一示例實施例中,捕捉裝置120可使用結構光以捕捉深度資訊。在這樣的分析中,圖型化光(也就是顯示 為已知圖型(例如格狀圖型、條紋圖型或不同圖型)的光)可透過(例如)IR光元件224來投射至場景上。回應於當在場景中觸擊一或更多個目標或物件的表面時,圖型可能變得變形。這樣的圖型變形可由(例如)3D攝影機226及/或RGB攝影機228所捕捉且可接著被分析以決定自捕捉裝置至目標或物體上之特定位置的實體距離。在某些實施中,IR光元件224係自攝影機226及228移置,所以可使用三角定位法以決定距攝影機226及228的距離。在某些實施中,捕捉裝置120將包括專用IR感測器以感測IR光。
依據另一實施例,捕捉裝置120可包括二或更多個實體上分離的攝影機,可自不同角度檢視場景以獲得可經解析以產生深度資訊的視覺立體資料。亦可使用其他類型的深度影像感測器以產生深度影像。
捕捉裝置120可進一步包括麥克風230。麥克風230可包括可接收及將聲音轉換成電子訊號的傳感器或感測器。依據一個實施例,麥克風230可用以在目標辨識、分析及追蹤系統100中降低捕捉裝置120及計算系統112間之反饋。此外,麥克風230可用以接收音訊訊號(例如語音指令),該等音訊訊號亦可由使用者所提供以控制可由計算系統112所執行之應用程式(例如遊戲應用程式、非遊戲應用程式或類似物)。
在示例實施例中,捕捉裝置120可進一步包括可與影像攝影機元件222進行操作性通訊的處理器232。處理器232可包括可執行指令(例如包括用於接收深度影像、產生適 當資料格式(例如訊框)以及向計算系統112傳送資料的指令)的標準化處理器、特殊化處理器、微處理器或類似物。
捕捉裝置120可進一步包括可儲存可由處理器232所執行的指令、由3D攝影機及/或RGB攝影機所捕捉之影像或影像之訊框或任何其他合適資訊、影像或類似物的記憶體元件234。依據示例實施例,記憶體元件234可包括隨機存取記憶體(RAM)、唯讀記憶體(ROM)、快取記憶體、快閃記憶體、硬碟或任何其他合適的存儲元件。如圖2A中所示,在一個實施例中,記憶體元件234可為與影像捕捉元件222及處理器232通訊之分離元件。依據另一實施例,記憶體元件234可整合進處理器232及/或影像捕捉元件222。
如圖2A所示,捕捉裝置120可透過通訊連結236來與計算系統212通訊。通訊連結236可為有線連接(例如包括USB連接、火線連接、乙太網路電纜連接或類似物)及/或無線連接(例如無線802.11b、g、a或n連接)。依據一個實施例,計算系統112可透過通訊連結236來向捕捉裝置120提供時脈,該時脈可用以決定何時捕捉(例如)場景。此外,捕捉裝置120透過通訊連結236來向計算系統112提供由(例如)3D攝影機226及/或RGB攝影機228所捕捉之深度影像及色彩影像。在一個實施例中,深度影像及色彩影像係以每秒30個訊框來傳送。計算系統112可接著使用模型、深度資訊及引捕捉的影像來(例如)控制應用程式(例如遊戲或文字處理器)及/或動畫化化身或螢幕上人物。
計算系統112包括手勢庫240、結構資料242、深度 影像處理及物體回報模組224及應用程式246。深度影像處理及物體回報模組244使用深度影像來追蹤物體(例如使用者及其他物體)的運動。為了協助追蹤物體,深度影像處理及物體回報模組244使用手勢庫240及結構資料242。
結構資料242包括關於可被追蹤之物體的結構資訊。例如,可儲存人體的骨架模型以幫助瞭解使用者的移動及辨識身體部位。亦可儲存關於無生命物體的結構性資訊以幫助辨識那些物體及幫助瞭解移動。
手勢庫240可包括一系列的手勢過濾器,各者包括關於(當使用者移動時)可由骨架模型所執行之手勢資訊。可向手勢庫240中的手勢過濾器比較由攝影機226、228及捕捉裝置120以骨架模型及與骨架模型相關聯之移動的形式所捕捉的資料,以識別使用者(當由骨架模型所表示時)何時已執行了一或更多個手勢。那些手勢可關聯於應用程式的各種控制。因此,計算系統112可使用手勢庫240來解譯骨架模型的移動及基於該等移動來控制應用程式246。如此,手勢庫可由深度影像處理及物體回報模組244及應用程式246所使用。
應用程式246可為視訊遊戲、生產性應用程式…等等。在一個實施例中,深度影像處理及物體回報模組244將對於每一訊框向應用程式246回報所偵測之各物體的識別及物體的位置。應用程式246將使用那資訊來更新顯示器中之化身或其他影像的位置或移動。
圖2B繪示3D攝影機226(其亦可稱為深度攝影機 226)的示例實施例。深度攝影機226係圖示為包括驅動光學模組256之雷射源250的驅動器260。雷射源250可為(例如)圖2A中所示之IR光元件224。更具體而言,雷射源250可包括一或更多個雷射發射構件,例如(但不限於)邊緣發射雷射二極體或垂直空腔表面發射雷射(vertical-cavity surface-emitting laser,VCSEL)。雖然可能的是,這樣的雷射發射構件發射IR光,替代性波長的光可替代性地由雷射發射構件所發射。
深度攝影機226亦圖示為包括時脈訊號產生器262,該時脈訊號產生器262產生提供至驅動器260的時脈訊號。此外,深度攝影機226係圖示為包括微處理器264,該微處理器264可控制時脈訊號產生器262及/或驅動器260。深度攝影機226亦圖示為包括影像像素偵測器陣列268、讀出電路系統270及記憶體266。影像像素偵測器陣列268可包括(例如)320×240影像像素偵測器,但不限於此。各影像像素測器可為(例如)互補式金氧半導體(CMOS)感測器或電荷耦合裝置(CCD)感測器,但不限於此。取決於實施,各影像像素偵測器可具有其自己的專用讀出電路,或讀出電路系統可由許多影像像素偵測器所共享。依據某些實施例,方塊280內所示之深度攝影機226的元件係以單一集成電路(IC)(其亦可稱為單晶片)來實施。
依據實施例,驅動器260取決於自時脈訊號產生器262所接收之時脈訊號來產生高頻(HF)調變驅動訊號。據此,驅動器260可包括(例如)一或更多個緩衝器、放大器 及/或調變器,但不限於此。時脈訊號產生器262可包括(例如)一或更多個參考時脈及/或由電壓所控制的振盪器,但不限於此。微處理器264(其可為微控制器單元之部分)可用以控制時脈訊號產生器262及/或驅動器260。例如,為了產生HF調變驅動訊號,微處理器264可存取儲存於記憶體266中之波形資訊。深度攝影機226可包括其自己的記憶體266及微處理器264,如圖2B中所示。替代性地,或附加地,捕捉裝置120的處理器232及/或記憶體234可用以控制深度攝影機226的態樣。
回應於被HF調變驅訊號所驅動,雷射源250發射HF調變雷射光束(其更常被稱為雷射光束)。例如,HF調變驅動訊號及HF調變雷射光束的載波頻率可在從約30MHz至數百MHz的範圍中,但為了說明的目的將假設約為100MHz。由雷射源250所發射的雷射光束係朝向目標物體(例如使用者118)通過光學結構252來傳送,該光學結構252可包括一或更多個透鏡及/或其他光學構件(或多個其他光學構件)。雷射源250及光學結構252可統稱為光學模組256。依據本科技的某些實施例(參照圖7-9而於以下討論),光學結構252進行以下步驟:(1)接收由雷射源250所輸出的雷射光束;(2)以至少兩個階段展開雷射光束,以便自光學結構252輸出的雷射光束具有實質等於所需之水平及垂直之發散角度之水平及垂直發散角度;及(3)修改雷射光束的照明外形,以便自光學結構252輸出之雷射光束的照明外形實質等於所需的照明外形。
假設,在深度攝影機的視野內有一目標物體,雷射光束的一部分反射離開目標物體、通過光圈場光闌(aperture field stop)及透鏡(統稱272)及入射於影像像素偵測器陣列268上,影像係形成於該影像像素偵測器陣列268處。在某些實施中,陣列268之各個個別的影像像素偵測器產生積分值,該積分值代表所偵測之源自光學模組256之HF調變雷射光束的量值及相位,該HF調變雷射光束已反射離開物體且入射影像像素偵測器。這樣的積分值(或更常是飛行時間(TOF)資訊)使得能夠決定距離(Z),且共同使得能夠產生深度影像。在某些實施例中,來自光源250及所偵測之光學能量訊號的光學能量係彼此同步化,使得可自各影像像素偵測器測量相位差(且因此可測量距離Z)。讀出電路系統270將由影像像素偵測器陣列268所產生的類比積分值轉換成數位讀出訊號,該等數位讀出訊號係提供至微處理器264及/或記憶體266,且該等數位讀出訊號可用以產生深度影像。
圖3繪示計算系統的示例實施例,該計算系統可為圖1A-2B中所示的計算系統112,用以追蹤運動及/或動畫化(或要不就更新)由應用程式所顯示之化身或其他的螢幕上物體。計算系統(例如對於圖1A-2於以上所描述的計算系統112)可為多媒體主控台(例如遊戲主控台)。如圖3中所示,多媒體主控台300具有中央處理單元(CPU)301,該CPU 301具有等級1快取記憶體302、等級2快取記憶體304及快閃ROM(唯讀記憶體)306。等級1快取記憶體302及等級2快取記憶體304暫時性地儲存資料且因此降低記憶體存取週期 的數量,藉此改進處理速度及吞吐量。可將CPU 301提供為具有多於一個核心,且因此具有額外的等級1及等級2快取記憶體302及304。快閃ROM 306可儲存可執行代碼,該等可執行代碼係當多媒體主控台300開啟電源時,在開機程序的初始階段期間載入。
圖形處理單元(GPU)308及視訊編碼器/視訊編解碼器(編碼器/解碼器)314形成用於高速及高解析度圖形處理的視訊處理管路。資料係透過匯流排自圖形處理單元308送至視訊編碼器/視訊解編碼器314。視訊處理管道為了傳輸至電視或其他顯示器向A/V(音訊/視訊)接口340輸出資料。記憶體控制器310係連接至GPU 308以促進處理器存取各種類型的記憶體312(例如(但不限於)RAM(隨機存取記憶體))。
多媒體主控台300包括較佳地實施於模組318上之I/O控制器320、系統管理控制器322、音訊處理單元323、網路介面324、第一USB主機控制器326、第二USB控制器328及前端面板子組件330。USB控制器326及328用作用於周邊控制器342(1)-342(2)、無線轉接器348及外部記憶體裝置346(例如快閃記憶體、外部CD/DVD ROM驅動器、可移除式媒體…等等)的主機。網路介面324及/或無線轉接器348提供對網路(例如網際網路、家用網路…等等)的存取且可為任何各式各樣的各種有線或無線轉接器元件(包括乙太網路卡、數據機、藍芽模組、電纜數據機及類似物)。
係提供系統記憶體343以儲存在開機程序期間載入 的應用程式資料。係提供媒體驅動器344,且其可包括DVD/CD驅動器、藍光驅動器、硬碟驅動器或其他可移除式媒體驅動器…等等。媒體驅動器344對於多媒體主控台300可為內部或外部的。應用程式資料可藉由多媒體主控台300,對於執行、播放…等等而透過媒體驅動器344來存取。媒體驅動器344係透過匯流排(例如序列ATA匯流排或其他高速連接(例如IEEE 1394))連接至I/O控制器320。
系統管理控制器322提供關於保證多媒體主控台300之可取得性的各式各樣的服務功能。音訊處理單元323及音訊編解碼器332形成具有高保真度及立體聲處理之相對應的音訊處理管路。音訊資料係透過通訊連結在音訊處理單元323及音訊編解碼器332之間傳送。音訊處理管路為了藉由具有音訊性能的外部音訊播放器或裝置進行再現,向A/V接口340輸出資料。
前端面板I/O子組件330支援電源按鈕350及彈出按鈕352以及暴露於多媒體主控台300之外表面上之任何LED(光發射二極體)或其他指示器之功能性。系統電源供應模組336向多媒體主控台300的元件提供電力。風扇338冷卻多媒體主控台300內之電路系統。
多媒體主控台300內的CPU 301、GPU 308、記憶體控制器310及各種其他元件係透過一或更多個匯流排(包括使用任何各式各樣的匯流排架構之串列及平行匯流排、記憶體匯流排、周邊匯流排及處理器或本地匯流排)來互連。藉由示例的方式,這樣的架構可包括周邊元件互聯(Peripheral Component Interconnect,PCI)匯流排、PCI-Express匯流排...等等。
當多媒體主控台300開啟電源時,應用程式資料可自系統記憶體343載入進記憶體312及/或快取記憶體302、304及執行於CPU 301上。應用程式可呈現圖形使用者介面,該圖形使用者介面當導航至多媒體主控台300上可取得之不同媒體類型時提供一致的使用者體驗。在操作中,包含於媒體驅動器344內之應用程式及/或其他媒體可自媒體驅動器344啟動或播放以向多媒體主控台300提供額外的功能性。
多媒體主控台300可只需藉由將系統連接至電視或其他顯示器來操作為獨立操作的系統。在此獨立操作的模式中,多媒體主控台300允許一或更多個使用者與系統互動、觀看電影或聽音樂。然而,有了通過網路介面324或無線轉接器348而使其為可取得之寬頻連接性的整合,多媒體主控台300可進一步操作為較大的網路社群中之參與者。
當多媒體主控台300開啟電源時,係藉由多媒體主控台作業系統保留定量的硬體資源給系統使用。這些資源可包括保留的記憶體(例如16MB)、CPU及GPU週期(例如5%)、網路頻寬(例如8Kbps)…等等。因為這些資源是在系統開機時間被保留,從應用程式的觀點而言,所保留的資源並不存在。
特別是,記憶體保留較佳地是足夠大的,以包含啟動核心、並行系統應用程式及驅動程式。CPU保留較佳地為定值,使得若所保留的CPU使用沒有由系統應用程式所使 用,閒置執行緒將消耗任何未使用的循環。
關於GPU保留,由系統應用程式所產生的輕量信息(例如彈出視窗)係藉由使用GPU中斷以排程代碼以將彈出視窗呈現進覆蓋層來顯示。對於覆蓋層所需之記憶體的量取決於覆蓋層區域尺寸,且覆蓋層較佳地同螢幕解析度尺度化。凡全使用者介面由並行式系統應用程式所使用,較佳的是使用獨立於應用程式解析度的解析度。可使用換算器以設定此解析度,使得消除了改變頻率及使TV重新同步的需求。
在多媒體主控台300開機且保留系統資源之後,並行系統應用程式執行以提供系統功能性。系統功能性係封裝在一組系統應用程式中,該組系統應用程式在如上所述的所保留之系統資源內執行。作業系統核心識別執行緒,該等執行緒係系統應用程式執行緒對比(versus)遊戲應用程式執行緒。為了向應用程式提供一致的系統資源觀點,系統應用程式較佳地係經排程以在預定的時間及時段運行於CPU 301上。排程步驟是為了對於運行於主控台上之遊戲應用程式最小化快取記憶體破壞。
當並行系統應用程式需要音訊時,由於時間敏感性,音訊處理步驟係異步地排程至遊戲應用程式。當系統應用程式為有效時,多媒體主控台應用程式管理器(描述於下)控制遊戲應用程式音訊能級(例如靜音、衰減)。
輸入裝置(例如控制器342(1)及342(2))係由遊戲應用程式及系統應用程式所共享。輸入裝置並非所保留的資源,但是要在系統應用程式及遊戲應用程式之間切換,使得 各應用程式將具有該裝置的焦點。應用程式管理器較佳地控制輸入串流的切換而無遊戲應用程式知識的知識,且驅動器維護關於焦點切換之狀態資訊。攝影機226、228及捕捉裝置120可透過USB控制器326或其他介面來定義用於主控台300的額外輸入裝置。
圖4繪示計算系統420的另一示例實施例,該計算系統420可為圖1A-2B中所示的計算系統112,用以追蹤運動及/或動畫化(或要不就更新)由應用程式所顯示之化身或其他螢幕上物體。計算系統420僅為合適計算系統的一個示例且不意欲暗示對於目前所揭露之標的之使用或功能性之範圍的任何限制。計算系統420不應被解讀為具有關於示例性計算系統420中所繪示之元件中之任一者抑或組合之任何依賴性或需求。在某些實施例中,所描繪的各種計算構件可包括級配置以樣例化本揭露之特定態樣的電路系統。例如,用於本揭露中之電路系統的用詞可包括經配置以藉由韌體或開關來執行功能(或多個功能)的特殊化硬體元件。在其他示例實施例中,電路系統的用詞可包括藉由軟體指令所配置的一般用途處理單元、記憶體…等等,該等軟體指令包括可操作以執行功能(或多個功能)之邏輯。在電路系統包括硬體及軟體之組合的示例實施例中,實施者可寫入包括邏輯的源代碼,且源代碼可編碼成可由一般用途處理單元所處理的機器可讀取代碼。因為發明領域中具技藝者可理解的是,該技藝的狀態已進化到硬體、軟體或硬體/軟體之組合間之差異非常小的程度,用以有效化特定功能的硬體對軟體的選擇是留 給實施者的設計選擇。更具體而言,發明領域中具技藝者可理解的是,軟體程序可轉換成對等的硬體結構,且硬體結構可自己轉換成對等的軟體程序。因此,硬體實施對軟體實施的選擇是設計選擇中之一者且留給實施者。
計算系統420包括電腦441,其一般包括各式各樣的電腦可讀取媒體。電腦可讀取媒體可為可由電腦441所存取之任何可取得的媒體且包括依電性及非依電性媒體、可移除式及非可移除式媒體兩者。系統記憶體422包括依電性及/或非依電性記憶體(例如唯讀記憶體(ROM)423及隨機存取記憶體(RAM)460)形式之電腦存儲媒體。基本輸入/輸出系統424(BIOS)(包含幫助在電腦441內之構件之間傳輸資訊的基本常式)係(例如在啟動期間)一般儲存於ROM 423中。RAM 460一般包含可立刻由處理單元459存取及/或目前操作於處理單元459上的資料及/或程式模組。藉由示例而非限制的方式,圖4繪示作業系統425、應用程式426、其他程式模組427及程式資料428。
電腦441亦可包括其他可移除式/非可移除式、依電性/非依電性電腦存儲媒體。僅藉由示例的方式,圖4繪示自/向非可移除式、非依電性磁式媒體讀取/寫入的硬碟驅動器438、自/向可移除式、非依電性磁碟454讀取/寫入的磁碟驅動器439以及自/向可移除式、非依電性光碟453(例如CD ROM或其他光學媒體)讀取/寫入的光碟驅動器440。可用於示例性作業環境中的其他可移除式/非可移除式、依電性/非依電性電腦存儲媒體包括(但不限於)磁帶盒、快閃記憶卡、 數位多功能光碟、數位錄影帶、固態RAM、固態ROM及類似物。硬碟驅動器438一般通過非可移除式記憶體介面(例如介面434)連接至系統匯流排421,而磁碟驅動器439及光碟驅動器440一般藉由可移除式記憶體介面(例如介面435)連接至系統匯流排421。
以上所討論的及繪示於圖4中之驅動器及它們相關的存儲媒體,提供了用於電腦441之電腦可讀取指令、資料結構、程式模組及其他資料的存儲。在圖4中,例如,硬碟驅動器438係繪示為儲存作業系統458、應用程式457、其他程式模組456及程式資料455。要注意的是,這些元件可相同於(抑或不同於)作業系統425、應用程式426、其他程式模組427及程式資料428。於此處係給予作業系統458、應用程式457、其他程式模組456及程式資料455不同的標號以(至少)繪示它們是不同的複製品。使用者可通過輸入裝置(例如鍵盤451及指向裝置452(一般稱為滑鼠)、軌跡球或觸控板)將指令及資訊輸入進電腦441。其他輸入裝置(未圖示)可包括麥克風、搖桿、遊戲板、衛星盤、掃描器或類似物。這些及其他的輸入裝置通常通過耦合至系統匯流排之使用者輸入介面436來連接至處理單元459,但這些及其他的輸入裝置可由其他介面及匯流排結構(例如平行接口、遊戲接口或通用序列匯流排(USB))來連接。攝影機226、228及捕捉裝置120可對計算系統420定義額外的輸入裝置,該等額外的輸入裝置係透過使用者輸入介面436來連接。監視器442或其他類型的顯示裝置亦透過介面(例如視訊介面432)連接 至系統匯流排421。除了監視器之外,電腦亦可包括其他周邊輸出裝置(例如喇叭444及印表機443),該等其他周邊輸出裝置可通過輸出周邊介面433來連接。捕捉裝置120可透過輸出周邊介面433、網路介面437或其他介面來連接至計算系統420。
電腦441可使用對一或更多個遠端電腦(例如遠端電腦446)的邏輯性連接來操作於聯網的環境中。雖然在圖4中僅繪示了記憶體存儲裝置447,遠端電腦446可為個人電腦、伺服器、路由器、網路PC、同級(peer)裝置或其他通用網路節點,且一般包括以上相對於電腦441所討論之構件中之許多者或全部。所描繪的邏輯性連接包括本地區域網路(LAN)445及廣域網路(WAN)449,但亦可包括其他網路。這樣的聯網環境在辦公室、企業級電腦網路、內部網路及網際網路中是普遍的。
當使用於LAN聯網環境中時,電腦441係通過網路介面437連接至LAN 445。當使用於WAN聯網環境中時,電腦441一般包括用於在WAN 449(例如網際網路)上建立通訊的數據機450或其他構件。數據機450(其可為內部的或外部的)可透過使用者輸入介面436(或其他適當機制)連接至系統匯流排421。在聯網環境中,相對於電腦441所描繪的程式模組(或其部分)可儲存於遠端記憶體存儲裝置中。藉由示例且非限制的方式,圖4將應用程式448繪示為常駐於記憶體裝置447上。將理解的是,所示的網路連接為示例性的,且可使用在電腦之間建立通訊連結的其他構件。
如上所解釋的,捕捉裝置120向計算系統112提供RGB影像(亦熟知為色彩影像)及深度影像。深度影像可為複數個經觀察的像素,其中各經觀察的像素具有經觀察的深度值。例如,深度影像可包括所捕捉場景的二度(2D)像素區域,其中2D像素區域中的各像素可具有深度值(例如,以(例如)公分、公厘或類似物表示之所捕捉場景中之物體距捕捉裝置的長度或距離)。
圖5繪示深度影像的示例實施例,該深度影像可自捕捉裝置120在計算系統112處被接收。依據示例實施例,深度影像可為由(例如)以上對於圖2A所描述之捕捉裝置120之3D攝影機226及/或RGB攝影機228所捕捉之場景的影像及/或訊框。如圖5中所示,深度影像可包括所捕捉場景中之相對應於(例如)使用者(例如以上對於圖1A及1B所描述之使用者118)的人體目標及一或更多個非人體目標(例如牆、桌子、監視器或類似物)。深度影像可包括複數個經觀察的像素,其中各經觀察的像素具有與該經觀察的像素相關聯之經觀察的深度值。例如,深度影像可包括所捕捉場景之二度(2D)像素區域,其中在2D像素區域中之特定x值及y值處的各像素可具有深度值(例如,以(例如)公分、公厘或類似物表示之所捕捉場景中之目標或物體距捕捉裝置的長度或距離)。換句話說,深度影像(對於深度影像中之像素中之各者)可指定像素位置及像素深度。接續分割程序,深度影像中之各像素亦可具有與該像素相關聯的分割值。像素位置可由x位置值(也就是水平值)及y位置值(也就是垂 直值)來指示。像素深度可由z位置值(亦稱為深度值)來指示,其代表用以獲得深度影像之捕捉裝置(例如120)及由該像素所表示之使用者部分之間的距離。分割值係用以指示像素是否對應於特定使用者,或不對應於使用者。
在一個實施例中,深度影像可被色彩化或灰階化,使得深度影像之不同色彩或色調的像素對應至及/或實際上描繪目標距捕捉裝置120的不同距離。在接收影像時,可自深度影像移除及/或平滑化一或更多個高方差及/或嘈雜的深度值;缺失及/或經移除之深度資訊的部分可被填充及/或重建;及/或可在所接收之深度影像上執行任何其他合適的處理。
圖6提供深度影像的另一視圖/表示(非對應至相同於圖5的示例)。圖6的視圖將各像素之深度資料對於該像素圖示為代表目標至捕捉裝置120之距離的整數。圖6的示例深度影像圖示24x24像素;然而,可能的是,會使用較大解析度的深度影像。
用於展開雷射光束及藉此增加雷射覆蓋區的技術
如上所述,由深度攝影機所投射的光可為使用輸出IR雷射光束之雷射源所產生之高頻(HF)調變雷射光束。雖經過空氣的IR雷射光束對於人眼是不可見的,IR雷射光束所從以自深度攝影機輸出的點可能看起來非常亮且引起了對於雷射光的注意。這可是令人分心的,且因此是不理想的。本科技的某些實施例(係於下描述)係針一光學模組,該光學模組展開雷射光束(由雷射源所輸出),以便由光學模組所 輸出之雷射光束看起來不亮,且因此不引起對於雷射光的注意。進一步地,這樣的實施例亦修改雷射光束,以便該雷射光的水平及垂直發散角度實質相等於所需之水平及垂直發散角度,且以便該雷射光的照明外形實質相等於所需之照明外形。這是有益的,因為為了使深度攝影機獲得高解析度深度影像,場景應由具有預定所需之水平及垂直發散角度及預定所需之照明外形的光所照明。
依據本科技之實施例,圖7繪示用於同深度攝影機使用的光學模組702。光學模組702係圖示為包括雷射源712及光學結構722。參照回至圖2B,可如同圖2B中之光學模組256來使用圖7中之光學模組702(在此案例中,可如同圖2B中之雷射源250來使用圖7中之雷射源712),且可如同圖2B中之光學結構252來使用圖7中之光學結構722。
雷射源712(其可包括一或更多個雷射發射構件,例如(但不限於)邊緣發射雷射二極體或垂直腔表面發射雷射(VCSEL))輸出具有第一水平及垂直發散角度的雷射光束。例如,由雷射源702所輸出之雷射光束的水平發散角度可為18度,且由雷射源702所輸出之雷射光束的垂直發散角度可為7度。換種方式來說,第一水平及垂直發散角度可分別為18度及7度。光學結構722接收由雷射源702所輸出的雷射光束及修改雷射光束之水平及垂直發散角度及照明外形。照明外形(如本文中所使用的用詞)係跨視野之光強度的映射。
依據特定實施例,光學結構722以至少兩個階段展 開由雷射源712所輸出之雷射光束,以便自光學結構722輸出之雷射光束具有實質等於所需之水平及垂直發散角度的水平及垂直發散角度。此外,光學結構722修改由雷射源712所輸出之雷射光束的照明外形,以便自光學結構722輸出之雷射光束之照明外形實質相等於所需之照明外形。可對於要由雷射光束所照明之場景最佳化所需之水平及垂直發散角度,這可取決於(例如)場景的寬度及高度以及所要照明之場景中之光學結構及物體(例如人)之間的預期距離。亦可對於要由雷射光束所照明之場景最佳化所需之照明外形,其可類似地取決於(例如)場景的寬度及高度以及所要照明之場景中之光學結構及物體(例如人)之間的預期距離。
依據實施例,光學結構722包括第一透鏡表面724(其可更常稱為第一光學構件),該第一透鏡表面724接收具有第一水平及垂直發散角度的雷射光束且將雷射光束之第一水平及垂直發散角度增加至第二水平及垂直發散角度。在圖7中,第一透鏡表面724係圖示為凹透鏡表面。第二水平及垂直發散角度可分別為(例如)38度及24度。
光學結構722亦包括第二透鏡表面726(其可更常稱為第二光學構件),該第二透鏡表面726接收具有第二水平及垂直發散角度的雷射光束且將雷射光束之第二水平及垂直發散角度降低至第三水平及垂直發散角度。在圖7中,第二透鏡726係圖示為凸透鏡表面。第三水平及垂直發散角度可分別為(例如)24度及15度。依據實施例,第一透鏡表面724(且更常是第一光學構件)及第二透鏡表面726(且更常 是第二光學構件)間之距離是夠大的,以達到需要發生在這兩個透鏡表面/光學構件之間的展開光束量,但較佳地不大於必要的距離,使得允許整體光學結構722盡可能地小。
光學結構722亦包括第三光學構件730,該第三光學構件730接收具有第三水平及垂直發散角度之雷射光束,將雷射光束之第三水平及垂直發散角度增加至實質等於所需之水平及垂直發散角度的第四水平及垂直發散角度,及修改雷射光束之照明外形,以便離開第三光學構件730之雷射光束的照明外形實質等於所需之照明外形。
在圖7中,第一及第二光學構件724、726為凹凸透鏡728之透鏡表面。更具體而言,凹透鏡表面724及凸透鏡表面726是凹凸透鏡728的相對表面。在替代性實施例中,第一光學構件724可為薄凹透鏡的表面,且第二光學構件726可為分離之薄凸透鏡的表面。換句話說,相對於單一凹凸透鏡728,第一及第二光學構件724、726可使用兩個分離透鏡來實施。依據實施例,凹凸透鏡728(或更常是凹透鏡表面724及凸透鏡表面726的共同光功率)的光功率接近於零,意指凹凸透鏡具有0.0001mm-1至0.05mm-1範圍內的屈光度。使用接近於零功率之凹凸透鏡的優點是,位置公差(positional tolerance)是輕微的且透鏡中之缺陷對於造成的照明外形將具有非常輕微的影響。
在其他實施例中,第一及第二光學構件724及726中之一或更多個可由梯度折射率(gradient-index)的透鏡來實施。對於特定的示例而言,第一及第二光學構件724及726 可由雙側梯度折射率透鏡的相對表面來實施。對於另一示例而言,第一光學構件724可由第一梯度折射率透鏡來實施,且第二光學構件726可由第二梯度折射率透鏡來實施。
又在其他實施例中,一或更多個第一及第二光學構件724及726可由繞射光學構件來實施。對於特定的示例而言,第一及第二光學構件724及726可由雙側繞射光學構件的相對表面來實施。對於另一示例而言,第一光學構件724可由第一繞射光學構件來實施,且第二光學構件726可由第二繞射光學構件來實施。
依據某些實施例,第三光學構件730為微透鏡陣列。在替代性實施例中,第三光學構件730為繞射光學構件。又在另一實施例中,第三光學構件730為光學散射器。無論實施例,第三光學構件730應被配置以輸出實質相似於預定所需之照明外形的照明外形。此外,第三光學構件應被配置,使得離開第三光學構件的雷射光束應具有實質等於所需之水平及垂直發散角度的水平及垂直發散角度。示例性所需之水平及垂直發散角度分別為70度及60度。圖11包括示例性圖表,繪示示例性所需之照明外形。這僅為一個示例,其並不意指為限制,但反而是為了說明的目的而已經包括此示例。
上述實施例的各種組合亦在本科技之實施例的範圍內。例如,第一光學構件724可使用凹透鏡、梯度折射率透鏡或繞射光學構件中之任一者來實施;第二光學構件726可使用凸透鏡、梯度折射率透鏡或繞射光學構件中之任一者來實施;且第三光學構件730可由微透鏡陣列、繞射光學構件 或光學散射器中之任一者來實施。
依據本科技的另一實施例,圖8繪示用於同深度攝影機使用的光學模組802。光學模組802係圖示為包括雷射源812及光學結構822。參照回圖2B,可如同圖2B中之光學模組256來使用圖7中之光學模組802,在此案例中,可如同圖2B中之雷射源250來使用圖8中之雷射源812,且可如同圖2B中之光學結構252來使用圖8中之光學結構822。雷射源812的示例性細節係相同於以上參照圖7中之雷射源712所討論的那些。如同具有光學結構722的案例,光學結構822以至少兩個階段展開由雷射源812所輸出之雷射光束,以便自光學結構822輸出之雷射光束具有實質等於所需之水平及垂直發散角度之水平及垂直發散角度。此外,光學結構822修改由雷射源812所輸出之雷射光束的照明外形,以便自光學結構822輸出之雷射光束的照明外形實質等於所需之照明外形。
依據實施例,光學結構822包括第一光學構件824及第二光學構件826。光學結構822接收由雷射源802所輸出之雷射光束且修改雷射光束之水平及垂直發散角度及照明外形。第一光學構件824接收具有第一水平及垂直發散角度的雷射光束且將雷射光束的第一水平及垂直發散角度增加至第二水平及垂直發散角度。例如,由雷射源802所輸出之雷射光束的水平發散角度可為18度,且由雷射源802所輸出之雷射光束的垂直發散角度可為7度。以另一方式來說,第一水平及垂直發散角度可分別為18度及7度。第二水平及垂直發 散角度可分別為(例如)40度及44度。
第二光學構件826接收具有第二水平及垂直發散角度之雷射光束,將雷射光束之第二水平及垂直發散角度增加至實質等於所需之水平及垂直發散角度的第三水平及垂直發散角度,且修改雷射光束的照明外形,以便離開第二光學構件826之雷射光束之照明外形實質等於所需之照明外形。第三水平及垂直發散角度可分別為(例如)70度及60度,其實質等於示例性所需之水平及垂直發散角度。
依據實施例,第一光學構件824為第一微透鏡陣列且第二光學構件826為第二微透鏡陣列。在特定實施例中,光學結構822係使用雙側微透鏡陣列來實施,在此案例中,第一光學構件824係使用雙側微透鏡陣之第一側來實施,且第二光學構件826係使用雙側微透鏡陣列之第二側來實施。這樣的實施例係圖示於圖8中。
在替代性實施例中,第一光學構件824係使用繞射光學構件來實施。亦可能的是,第二光學構件826係使用繞射光學構件來實施。據此,在特定實施例中,光學結構822係使用雙側繞射光學構件來實施,在此案例中,第一光學構件824係使用雙側繞射光學構件之第一側來實施,且第二光學構件826係使用雙側繞射光學構件之第二側來實施。
又在另一實施例中,第二光學構件826係使用光學散射器來實施。上述實施例的各種組合亦在本科技之實施例之範圍內。例如,第一光學構件824可使用微透鏡陣列或繞射光學構件中之任一者來實施;且第二光學構件826可使用 微透鏡陣、繞射光學構件或光學散射器中之任一者來實施。
圖9為高層級流程圖,係用以概述依據本科技之各種實施例的方法。這樣的方法係用於同深度攝影機使用,尤其是基於飛行時間(TOF)測量來產生深度影像的深度攝影機。
參照圖9,在步驟902處,產生雷射光束。如在步驟904處所指示的,雷射光束係以至少兩個階段展開,當用以照明深度攝影機之視野內之物體時,具有實質等於所需之水平及垂直發散角度之水平及垂直發散角度。如在步驟906處所指示的,雷射光束的照明外形係經修改,以便雷射光束的照明外形,當用以照明深度攝影機之視野內之物體時,實質等於所需之照明外形。步驟906的至少一部分有可能與步驟904的至少一部分同時執行。換句話說,流程圖不意欲暗示,步驟904是在步驟906開始之前完成。在一個實施例中,步驟904及906係同步執行。
如以上所解釋的,步驟902可由雷射源執行,其示例性細節係討論於上。亦如以上所解釋的,步驟904及906可由光學結構來執行,其細節係參照圖7及8而討論於上。例如,光學結構可包括由微透鏡陣列所跟隨的凹凸透鏡,如以上參照圖7所討論的。凹凸透鏡執行光束的某些初始開展,且接著微透鏡陣列執行光束的進一步開展且亦用以達成實質等於所需之照明外形的照明外形。凹凸透鏡包括由凸透鏡表面所跟隨之凹透鏡表面,其中之各者調整雷射光束的水平及垂直發散角度。據此,凹凸透鏡可以說是執行第一階段的光束開展,且光學性下游的微透鏡陣列可以說是執行光束開展 的第二階段。依據實施例,凹透鏡表面(且更常是第一透鏡表面或第一光學構件724)及凸透鏡表面(且更常是第二透鏡表面或第二光學構件726)之間的距離是足夠大的,以達成所需之光束開展之第一階段,但較佳地不大於必要的距離,以便允許整體光學結構盡可能地小。在替代性的實施例中,第一階段的光束開展可由微透鏡陣列、繞射光學構件或梯度折射率透鏡來執行,而不是由凹凸透鏡來執行。在其他實施例中,第二階段的光束開展係由繞射光學構件或光學發散器來執行,而不是由微透鏡陣列來執行。可藉由以上圖7及8的討論來理解步驟902、904及906的額外細節。
又參照至圖9,在步驟908處,偵測到已反射離開深度攝影機之視野內之物體之雷射光束的一部分。如可藉由以上圖2B之討論所理解的,影像像素偵測陣列(例如圖2B中的268)可用以執行步驟908。在步驟910處,深度影像係基於於步驟908所偵測到之雷射光束之部分來產生。在步驟912處,應用程式係基於深度影像來更新。例如,深度影像可用以改變遊戲人物之位置或其他態樣,或用以控制非遊戲應用程式之態樣,但不限於此。本科技之實施例之方法的額外細節可從以上圖1A-8的討論來理解。
本科技的實施例(其係描述於上)可用以在產生雷射光束之雷射源以及光學結構間之相對短的路徑長度上增加雷射光束的覆蓋區,該光學結構展開雷射光束且達成實質等於所需之照明外形的照明外形。例如,自圖7中之光學源區塊712之右側至微透鏡陣列730之右側之路徑長度可小於 20mm,且更具體而言,可為約15mm。然而,圖7中之光學結構722可用以顯著增加雷射光束的覆蓋區。例如,參照圖10,覆蓋區1002係代表離開雷射源702之雷射光束的覆蓋區,且覆蓋區1004係代表自微透鏡陣列730輸出之雷射光束的覆蓋區。圖8中之光學結構822可用以在相對短的路徑長度上在雷射光束的覆蓋區上達成類似的增加。
雖已經以特定於結構特徵及/或方法學動作的語言來描述標的,要瞭解的是,隨附請求項中所定義之標的不一定限於上述之特定特徵或動作。寧可,上述之特定特徵及動作係揭露為實施請求項之示例形式。意欲的是,本科技的範圍是由隨附於此之請求項來定義。
702‧‧‧光學模組
712‧‧‧雷射源
722‧‧‧光學結構
724‧‧‧第一光學構件
726‧‧‧第二光學構件
728‧‧‧凹凸透鏡
730‧‧‧第三光學構件

Claims (20)

  1. 一種光學模組,用於同一深度攝影機使用,該光學模組包括:一雷射源,輸出一雷射光束;及一光學結構,接收由該雷射源所輸出之該雷射光束,以至少兩個階段展開由該雷射源所輸出之該雷射光束,以便自該光學結構輸出之該雷射光束具有實質等於所需之水平及垂直發散角度的水平及垂直發散角度,及修改該雷射光束之一照明外形,以便自該光學結構輸出之該雷射光束的該照明外形實質等於一所需之照明外形。
  2. 如請求項1所述之光學模組,其中:由該雷射源所輸出之該雷射光束具有第一水平及垂直發散角度;及該光學結構包括:一第一光學構件,接收具有該第一水平及垂直發散角度之該雷射光束,且將該雷射光束之該第一水平及垂直發散角度增加至第二水平及垂直發散角度;一第二光學構件,接收具有該第二水平及垂直發散角度之該雷射光束,且將該雷射光束之該第二水平及垂直發散角度降低至第三水平及垂直發散角度;及一第三光學構件,接收具有該第三水平及垂直發散角度之該雷射光束,將該雷射光束之該第三水平及垂直發散角度增加至實質等於該所需之水平及垂直發散角度之第 四水平及垂直發散角度,及修改該雷射光束之一照明外形,以便離開該第三光學構件之雷射光束之該照明外形實質等於該所需之照明外形。
  3. 如請求項2所述之光學模組,其中:該第一光學構件包括一凹透鏡表面;該第二光學構件包括一凸透鏡表面;及該第三光學構件包括一微透鏡陣列、一繞射光學構件或一光學發散器中之一者。
  4. 如請求項3所述之光學模組,其中:該凹透鏡表面及該凸透鏡表面係一凹凸透鏡之相對表面。
  5. 如請求項4所述之光學模組,其中:該凹凸透鏡具有在0.0001mm-1至0.05mm-1之一範圍內之一屈光度。
  6. 如請求項2所述之光學模組,其中:該第一光學構件及第二光學構件係一雙側梯度折射率透鏡之相對表面;及該第三光學構件包括一微透鏡陣列、一繞射光學構件或一光學發散器中之一者。
  7. 如請求項1所述之光學模組,其中:由該雷射源所輸出之該雷射光束具有第一水平及垂直發散角度;及該光學結構包括:一第一光學構件,接收具有該第一水平及垂直發散角度之該雷射光束,且將該雷射光束之該第一水平及垂直發散角度增加至第二水平及垂直發散角度;及一第二光學構件,接收具有該第二水平及垂直發散角度之該雷射光束,將該雷射光束之該第二水平及垂直發散角度增加至實質等於該所需之水平及垂直發散角度之第三水平及垂直發散角度,及修改該雷射光束之一照明外形,以便離開該第二光學構件之該雷射光束之該照明外形實質等於該所需之照明外形。
  8. 如請求項7所述之光學模組,其中:該第一光學構件包括一微透鏡陣列或一繞射光學構件中之一者;及該第二光學構件包括一微透鏡陣列、一繞射光學構件或一光學發散器中之一者。
  9. 如請求項1所述之光學模組,其中該雷射源包括一或更多個雷射二極體,各該等一或更多個雷射二極體包括一或更多個邊緣發射雷射。
  10. 如請求項1所述之光學模組,其中該雷射源包括垂直腔表面發射雷射之一二元陣列。
  11. 一種用於同一深度攝影機使用之方法,包括下列步驟:產生一雷射光束;以至少兩個階段展開該雷射光束,以便該雷射光束,當用以照明該深度攝影機之一視野內之一物體時,具有實質等於所需之水平及垂直發散角度之水平及垂直發散角度;及修改該雷射光束之一照明外形,以便該雷射光束之該照明外形,當用以照明該深度攝影機之一視野內之一物體時,實質等於一所需之照明外形。
  12. 如請求項11所述之方法,其中:產生一雷射光束之該步驟包括以下步驟:使用一雷射源以產生一雷射光束;以至少兩個階段展開該雷射光束之該步驟包括以下步驟:以至少兩個階段來使用一光學結構以展開由該雷射源所產生之該雷射光束,以便自該光學結構輸出之該雷射光束具有實質等於所需之水平及垂直發散角度之水平及垂直發散角度;及修改一照明外形之該步驟包括以下步驟:使用該光學結構以修改由該雷射源所產生之該雷射光束之一照明外形,以便自該光學結構輸出之該雷射光束之該照明外形實質等於一所需之照明外形。
  13. 如請求項12所述之方法,其中:由該雷射源所輸出之該雷射光束具有第一水平及垂直發散角度;及該光學結構包括:一第一光學構件,接收具有該第一水平及垂直發散角度之該雷射光束,且將該雷射光束之該第一水平及垂直發散角度增加至第二水平及垂直發散角度;一第二光學構件,接收具有該第二水平及垂直發散角度之該雷射光束,且將該雷射光束之該第二水平及垂直發散角度降低至第三水平及垂發散角度;及一第三光學構件,接收具有該第三水平及垂直發散角度之該雷射光束,將該雷射光束之該第三水平及垂直發散角度增加至實質等於該所需之水平及垂直發散角度之第四水平及垂直發散角度,且修改該雷射光束之一照明外形,以便離開該第三光學構件之該雷射光束之該照明外形實質等於該所需之照明外形。
  14. 如請求項13所述之方法,其中:該第一光學構件包括一凹凸透鏡之一凹透鏡表面;該第二光學構件包括該凹凸透鏡之一凸透鏡表面;及該第三光學構件包括一微透鏡陣列、一繞射光學構件或一光學發散器中之一者。
  15. 如請求項12所述之方法,其中:由該雷射源所輸出之該雷射光束具有第一水平及垂直發散角度;及該光學結構包括:一第一光學構件,接收具有該第一水平及垂直發散角度之該雷射光束,且將該雷射光束之該第一水平及垂直發散角度增加至第二水平及垂直發散角度;及一第二光學構件,接收具有該第二水平及垂直發散角度之該雷射光束,將該雷射光束之該第二水平及垂直發散角度增加至實質等於該所需之水平及垂直發散角度之第三水平及垂直發散角度,及修改該雷射光束之一照明外形,以便離開該第二光學構件之該雷射光束之該照明外形實質等於該所需之照明外形。
  16. 如請求項11所述之方法,更包括以下步驟:偵測已反射離開該深度攝影機之一視野內之一物體之該雷射光束的一部分;及基於該雷射光束之該所偵測之部分來產生一深度影像;及基於該深度影像來更新一應用程式。
  17. 一種深度攝影機系統,包括:一雷射源,輸出一雷射光束; 一光學結構,接收由該雷射源所輸出之該雷射光束,以至少兩個階段展開由該雷射源所輸出之該雷射光束,以便自該光學結構輸出之該雷射光束具有實質等於所需之水平及垂直發散角度之水平及垂直發散角度,及修改該雷射光束之一照明外形,以便自該光學結構輸出之該雷射光束之該照明外形實質等於一所需之照明外形;及一影像像素偵測器陣列,偵測由該光學結構所輸出之該雷射光束之一部分,該雷射光束之該部分係已反射離開該深度攝影機之一視野內之一物體且係入射於該影像像素偵測器陣列上。
  18. 如請求項17所述之深度攝影機系統,更包括:一或更多個處理器,取決於該影像像素偵測器陣列之輸出來產生深度影像,其中該等一或更多個處理器基於該深度影像來更新一應用程式。
  19. 如請求項17所述之深度攝影機系統,其中:由該雷射源所輸出之該雷射光束具有第一水平及垂直發散角度;及該光學結構包括:一第一光學構件,接收具有該第一水平及垂直發散角度之該雷射光束,且將該雷射光束之該第一水平及垂直發散角度增加至第二水平及垂直發散角度。 一第二光學構件,接收具有該第二水平及垂直發散角度之該雷射光束,且將該雷射光束之該第二水平及垂直發散角度降低至第三水平及垂直發散角度;及一第三光學構件,接收具有該第三水平及垂直發散角度之該雷射光束,將該雷射光束之該第三水平及垂直發散角度增加至實質等於該所需之水平及垂直發散角度之第四水平及垂直發散角度,且修改該雷射光束之一照明外形,以便離開該第三光學構件之該雷射光束之該照明外形實質等於該所需之照明外形。
  20. 如請求項17所述之深度攝影機系統,其中:由該雷射源所輸出之該雷射光束具有第一水平及垂直發散角度;及該光學結構包括:一第一光學構件,接收具有該第一水平及垂直發散角度之該雷射光束,且將該雷射光束之該第一水平及垂直發散角度增加至第二水平及垂直發散角度;及一第二光學構件,接收具有該第二水平及垂直發散角度之該雷射光束,將該雷射光束之該第二水平及垂直發散角度增加至實質等於該所需之水平及垂直發散角度之第三水平及垂直發散角度,且修改該雷射光束之一照明外形,以便離開該第二光學構件之該雷射光束之該照明外形實質等於該所需之照明外形。
TW103127313A 2013-09-11 2014-08-08 用於同深度攝影機使用的光學模組 TW201510554A (zh)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
US14/023,990 US20150070489A1 (en) 2013-09-11 2013-09-11 Optical modules for use with depth cameras

Publications (1)

Publication Number Publication Date
TW201510554A true TW201510554A (zh) 2015-03-16

Family

ID=51656055

Family Applications (1)

Application Number Title Priority Date Filing Date
TW103127313A TW201510554A (zh) 2013-09-11 2014-08-08 用於同深度攝影機使用的光學模組

Country Status (3)

Country Link
US (1) US20150070489A1 (zh)
TW (1) TW201510554A (zh)
WO (1) WO2015038443A1 (zh)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
TWI576609B (zh) * 2015-08-07 2017-04-01 高準精密工業股份有限公司 發光裝置
TWI581008B (zh) * 2015-08-07 2017-05-01 高準精密工業股份有限公司 縮放結構光圖案的方法以及應用該方法的光學裝置
TWI728307B (zh) * 2019-01-24 2021-05-21 奇景光電股份有限公司 光學裝置
US11137246B2 (en) 2019-01-31 2021-10-05 Himax Technologies Limited Optical device

Families Citing this family (39)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9779546B2 (en) 2012-05-04 2017-10-03 Intermec Ip Corp. Volume dimensioning systems and methods
US10007858B2 (en) 2012-05-15 2018-06-26 Honeywell International Inc. Terminals and methods for dimensioning objects
US10321127B2 (en) 2012-08-20 2019-06-11 Intermec Ip Corp. Volume dimensioning system calibration systems and methods
US9841311B2 (en) 2012-10-16 2017-12-12 Hand Held Products, Inc. Dimensioning system
US10228452B2 (en) 2013-06-07 2019-03-12 Hand Held Products, Inc. Method of error correction for 3D imaging device
US9823059B2 (en) 2014-08-06 2017-11-21 Hand Held Products, Inc. Dimensioning system with guided alignment
US10775165B2 (en) 2014-10-10 2020-09-15 Hand Held Products, Inc. Methods for improving the accuracy of dimensioning-system measurements
US10810715B2 (en) 2014-10-10 2020-10-20 Hand Held Products, Inc System and method for picking validation
US9897434B2 (en) 2014-10-21 2018-02-20 Hand Held Products, Inc. Handheld dimensioning system with measurement-conformance feedback
US9752864B2 (en) 2014-10-21 2017-09-05 Hand Held Products, Inc. Handheld dimensioning system with feedback
US9786101B2 (en) 2015-05-19 2017-10-10 Hand Held Products, Inc. Evaluating image values
US20160377414A1 (en) 2015-06-23 2016-12-29 Hand Held Products, Inc. Optical pattern projector
US9835486B2 (en) 2015-07-07 2017-12-05 Hand Held Products, Inc. Mobile dimensioner apparatus for use in commerce
US20170017301A1 (en) 2015-07-16 2017-01-19 Hand Held Products, Inc. Adjusting dimensioning results using augmented reality
US10249030B2 (en) 2015-10-30 2019-04-02 Hand Held Products, Inc. Image transformation for indicia reading
US10547830B2 (en) 2015-11-16 2020-01-28 Samsung Electronics Co., Ltd Apparatus for and method of illumination control for acquiring image information and depth information simultaneously
US10225544B2 (en) 2015-11-19 2019-03-05 Hand Held Products, Inc. High resolution dot pattern
US10025314B2 (en) 2016-01-27 2018-07-17 Hand Held Products, Inc. Vehicle positioning and object avoidance
US10339352B2 (en) 2016-06-03 2019-07-02 Hand Held Products, Inc. Wearable metrological apparatus
US10241244B2 (en) 2016-07-29 2019-03-26 Lumentum Operations Llc Thin film total internal reflection diffraction grating for single polarization or dual polarization
US10451714B2 (en) 2016-12-06 2019-10-22 Sony Corporation Optical micromesh for computerized devices
US10536684B2 (en) * 2016-12-07 2020-01-14 Sony Corporation Color noise reduction in 3D depth map
US10909708B2 (en) 2016-12-09 2021-02-02 Hand Held Products, Inc. Calibrating a dimensioner using ratios of measurable parameters of optic ally-perceptible geometric elements
US10495735B2 (en) 2017-02-14 2019-12-03 Sony Corporation Using micro mirrors to improve the field of view of a 3D depth map
IT201700021559A1 (it) * 2017-02-27 2018-08-27 St Microelectronics Srl Procedimento per il controllo di raggi laser, dispositivo, apparecchiatura e prodotto informatico corrispondenti
CN106873159A (zh) * 2017-02-27 2017-06-20 阿里巴巴集团控股有限公司 虚拟现实头戴设备
US10795022B2 (en) 2017-03-02 2020-10-06 Sony Corporation 3D depth map
US11047672B2 (en) 2017-03-28 2021-06-29 Hand Held Products, Inc. System for optically dimensioning
US10979687B2 (en) 2017-04-03 2021-04-13 Sony Corporation Using super imposition to render a 3D depth map
TWI621868B (zh) * 2017-06-21 2018-04-21 Univ Kun Shan System and method for guiding brain waves to blind people
US10733748B2 (en) * 2017-07-24 2020-08-04 Hand Held Products, Inc. Dual-pattern optical 3D dimensioning
US10484667B2 (en) 2017-10-31 2019-11-19 Sony Corporation Generating 3D depth map using parallax
US10584962B2 (en) 2018-05-01 2020-03-10 Hand Held Products, Inc System and method for validating physical-item security
TWI664573B (zh) 2018-05-11 2019-07-01 國立交通大學 動作計算裝置、機器人系統及機器人控制方法
US10549186B2 (en) 2018-06-26 2020-02-04 Sony Interactive Entertainment Inc. Multipoint SLAM capture
CN109379454B (zh) * 2018-09-17 2020-04-17 深圳奥比中光科技有限公司 电子设备
US20200192106A1 (en) * 2018-12-12 2020-06-18 Continental Automotive Systems, Inc. Laser system with increased laser energy while maintaining low laser classification
US11639846B2 (en) 2019-09-27 2023-05-02 Honeywell International Inc. Dual-pattern optical 3D dimensioning
GB2602966A (en) * 2021-01-18 2022-07-27 Aptiv Tech Ltd Infrared-laser source device

Family Cites Families (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4753521A (en) * 1984-09-19 1988-06-28 Siemens Aktiengesellschaft Lens system for focussing a divergent laser beam
US6478452B1 (en) * 2000-01-19 2002-11-12 Coherent, Inc. Diode-laser line-illuminating system
US6819402B2 (en) * 2001-10-18 2004-11-16 Asml Holding N.V. System and method for laser beam expansion
SE524401C2 (sv) * 2002-05-17 2004-08-03 Cobolt Ab Arrangemang och metod för tillverkning av Grin-linser
US7418016B2 (en) * 2003-02-13 2008-08-26 Avago Technologies Ecbu Ip (Singapore) Pte. Ltd. Method and apparatus for modifying the spread of a laser beam
US7387954B2 (en) * 2004-10-04 2008-06-17 Semiconductor Energy Laboratory Co., Ltd. Beam homogenizer, laser irradiation apparatus, and method for manufacturing semiconductor device
US8506087B2 (en) * 2005-01-19 2013-08-13 William R. Benner, Jr. Laser projector having safety lens for audience scanning
US8085388B2 (en) * 2005-02-01 2011-12-27 Laser Projection Technologies, Inc. Laser radar projection with object feature detection and ranging
US8493496B2 (en) * 2007-04-02 2013-07-23 Primesense Ltd. Depth mapping using projected patterns
US8384997B2 (en) * 2008-01-21 2013-02-26 Primesense Ltd Optical pattern projection
US8471895B2 (en) * 2008-11-25 2013-06-25 Paul S. Banks Systems and methods of high resolution three-dimensional imaging
US8279418B2 (en) * 2010-03-17 2012-10-02 Microsoft Corporation Raster scanning for depth detection
WO2012135579A2 (en) * 2011-04-01 2012-10-04 Lensar, Inc. System and method for laser generated corneal and crystalline lens incisions using a variable f/# optical system with aspheric contact interface to the cornea or rotating and adaptive optics

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
TWI576609B (zh) * 2015-08-07 2017-04-01 高準精密工業股份有限公司 發光裝置
TWI581008B (zh) * 2015-08-07 2017-05-01 高準精密工業股份有限公司 縮放結構光圖案的方法以及應用該方法的光學裝置
TWI728307B (zh) * 2019-01-24 2021-05-21 奇景光電股份有限公司 光學裝置
US11137246B2 (en) 2019-01-31 2021-10-05 Himax Technologies Limited Optical device

Also Published As

Publication number Publication date
US20150070489A1 (en) 2015-03-12
WO2015038443A1 (en) 2015-03-19

Similar Documents

Publication Publication Date Title
TW201510554A (zh) 用於同深度攝影機使用的光學模組
TWI628465B (zh) 發射結構光的照明模組
US10024968B2 (en) Optical modules that reduce speckle contrast and diffraction artifacts
US9529566B2 (en) Interactive content creation
US9442186B2 (en) Interference reduction for TOF systems
RU2580450C2 (ru) Системы и способы применения отслеживания модели для захвата движений
US9557574B2 (en) Depth illumination and detection optics
US8983233B2 (en) Time-of-flight depth imaging
US8351652B2 (en) Systems and methods for tracking a model
US20100302365A1 (en) Depth Image Noise Reduction
US8605205B2 (en) Display as lighting for photos or video
US9390487B2 (en) Scene exposure auto-compensation for differential image comparisons
CN105164617A (zh) 自主nui设备的自发现