TWI535265B - 手持裝置、物件定位方法與電腦可讀取的記錄媒體 - Google Patents

手持裝置、物件定位方法與電腦可讀取的記錄媒體 Download PDF

Info

Publication number
TWI535265B
TWI535265B TW104122353A TW104122353A TWI535265B TW I535265 B TWI535265 B TW I535265B TW 104122353 A TW104122353 A TW 104122353A TW 104122353 A TW104122353 A TW 104122353A TW I535265 B TWI535265 B TW I535265B
Authority
TW
Taiwan
Prior art keywords
depth
image
objects
echo
positioning method
Prior art date
Application number
TW104122353A
Other languages
English (en)
Other versions
TW201701659A (zh
Inventor
吳俊熠
浦大鈞
郭彥良
Original Assignee
宏達國際電子股份有限公司
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 宏達國際電子股份有限公司 filed Critical 宏達國際電子股份有限公司
Application granted granted Critical
Publication of TWI535265B publication Critical patent/TWI535265B/zh
Publication of TW201701659A publication Critical patent/TW201701659A/zh

Links

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/86Combinations of radar systems with non-radar systems, e.g. sonar, direction finder
    • G01S13/867Combination of radar systems with cameras
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/02Systems using reflection of radio waves, e.g. primary radar systems; Analogous systems
    • G01S13/06Systems determining position data of a target
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/02Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S13/00
    • G01S7/41Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S13/00 using analysis of echo signal for target characterisation; Target signature; Target cross-section
    • G01S7/411Identification of targets based on measurements of radar reflectivity
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/02Systems using reflection of radio waves, e.g. primary radar systems; Analogous systems
    • G01S13/06Systems determining position data of a target
    • G01S13/08Systems for measuring distance only
    • G01S13/10Systems for measuring distance only using transmission of interrupted, pulse modulated waves

Landscapes

  • Engineering & Computer Science (AREA)
  • Remote Sensing (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Physics & Mathematics (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • General Physics & Mathematics (AREA)
  • Radar Systems Or Details Thereof (AREA)
  • Measurement Of Velocity Or Position Using Acoustic Or Ultrasonic Waves (AREA)
  • Electromagnetism (AREA)

Description

手持裝置、物件定位方法與電腦可讀取的記錄媒體
本發明是有關於一種定位技術,且特別是有關於一種手持裝置、物件定位方法與電腦可讀取的記錄媒體。
現在有許多三維場景的應用,例如虛擬實境(virtual reality)或照片中的多個物件之間的重新聚焦(refocus),這些應用已經逐漸普及到智慧型手機之類的手持裝置,而這些應用都需要偵測或計算多個物件在三維空間中的位置。
雷達可用來偵測物件在三維空間中的位置,但是在單一指向性天線的雷達偵測系統中,僅可以透過雷達返回時間(TOA:time of arrival)推算天線有效照射角度內的特定物件的相對位置。若欲得到三維空間的特定物件的位置,例如人、車、建築…等,則必需採用陣列式天線進行波束掃描。此方式無論在天線設計或是後端演算處理上,均難以在手持裝置上實現。
有些高階手持裝置具有兩個影像感測器,可模擬人類的 雙眼拍攝立體影像(stereo images)。這些手持裝置能用影像處理演算法分析立體影像而推估三維空間的概況。但此方法若是在複雜環境時,例如影像內容出現太多相似物件,或拍攝到太單調的無特徵畫面,或因為視角差異而造成其中一幅影像中待比對之特徵物件被遮蔽時,就難以得到正確的估測結果。
本發明提供一種手持裝置、物件定位方法與電腦可讀取的記錄媒體。本發明可在手持裝置上實現一個或多個物件的完整而準確的三維空間定位。
本發明的手持裝置至少包括雷達感測器、影像感測器和控制單元。雷達感測器發射探測波,並接收至少一物件反射探測波而產生的至少一回波。每一上述物件產生上述回波其中之一。影像感測器擷取影像,此影像包括上述物件的一個子集合。控制單元耦接雷達感測器與影像感測器。控制單元萃取每一個回波的波形特徵(signature),並分別在時域(time domain)和頻域(frequency domain)識別波形特徵以判斷每一物件的第一種類,根據回波取得每一物件的第一位置,根據影像取得每一物件的第二種類和第二位置,並根據每一物件的第一種類、第二種類、第一位置和第二位置進行比對以結合或比較上述物件的第一位置和第二位置。
本發明的物件定位方法包括以下步驟:發射探測波,並接收至少一物件反射探測波而產生的至少一回波,其中每一物件 產生上述回波其中之一;擷取影像,此影像包括上述物件的一個子集合;萃取每一回波的波形特徵並分別在時域和頻域識別波形特徵以判斷每一物件的第一種類;根據上述回波取得每一物件的第一位置;根據影像取得每一物件的第二種類和第二位置;以及根據每一物件的第一種類、第二種類、第一位置和第二位置進行比對以結合或比較上述物件的第一位置和第二位置。
本發明的電腦可讀取的記錄媒體儲存電腦程式,當手持裝置載入並執行此電腦程式後,可完成上述的物件定位方法。
基於上述,本發明使用簡單的雷達感測器和影像感測器互相輔助,所以能在手持裝置上實現一個或多個物件的完整而準確的三維空間定位。
為讓本發明的上述特徵和優點能更明顯易懂,下文特舉實施例,並配合所附圖式作詳細說明如下。
100‧‧‧手持裝置
120‧‧‧雷達感測器
125‧‧‧探測波
140‧‧‧影像感測器
160‧‧‧控制單元
201~204‧‧‧物件
305~360、405~450、505~565‧‧‧方法步驟
D1~D4‧‧‧物件的深度
θ1~θ4‧‧‧物件的方位角度
圖1是依照本發明的一實施例的一種手持裝置的示意圖。
圖2是依照本發明的一實施例的多個物件的深度與方位角度的示意圖。
圖3至圖5是依照本發明的多個實施例的一種物件定位方法的流程圖。
圖1是依照本發明的一實施例的一種手持裝置100的示意圖。手持裝置100可以是智慧型手機或平板電腦之類的手持式電子裝置。手持裝置100包括雷達感測器120、影像感測器140、以及控制單元160。控制單元160耦接雷達感測器120和影像感測器140。
雷達感測器120可發射探測波,例如以連續脈衝序列125的形式發射探測波。探測波可以是電磁波或超音波。手持裝置100周圍可以有一個或多個物件。雷達感測器120可接收上述物件反射探測波而產生的至少一個回波(reflected wave)。每一個物件可產生一個回波。如果手持裝置100是智慧型手機,則雷達感測器120可用手持裝置100的天線實現。
影像感測器140可擷取影像,這個影像可包括上述物件的一個子集合。由於影像感測器的可視區(FOV:field of view)的限制,這個子集合可能包括上述的全部物件,或包括上述的部分物件,或沒有任何物件。
控制單元160可根據上述物件的回波取得每一物件的第一種類T1和第一位置P1。控制單元160也可根據影像感測器140所擷取的影像取得每一物件的第二種類T2和第二位置P2。然後,控制單元160可進行物件比對(object mapping)。所謂物件比對,就是根據每一物件的第一種類T1、第二種類T2、第一位置P1和第二位置P2進行比對,以結合或比較上述物件的第一位置P1和第二 位置P2
舉例而言,第一位置P1可以是物件相對於手持裝置100的深度(也就是距離),第二位置P2可以是物件相對於手持裝置100的方位角度。圖2是依照本發明的一實施例的手持裝置100前方的物件201~204的俯視圖,物件201~204分別具有深度D1~D4與方位角度θ1~θ4。
手持裝置100可包含一個波形特徵資料庫。此波形特徵資料庫儲存多種波形特徵和每一種波形特徵對應的物件種類。控制單元160可萃取每一物件的回波的波形特徵,藉由波形特徵資料庫,分別在時域和頻域識別此波形特徵,以判斷每一物件的第一種類T1。第一種類T1可以是人類、車輛或建築等種類。另外,控制單元160可根據每一物件的回波的返回時間計算產生每一物件的深度P1。如此取得的第一種類T1和深度P1如下表所示。
手持裝置100也可包含一個影像特徵資料庫。此影像特徵資料庫儲存多種影像特徵和每一種影像特徵對應的物件種類。控制單元160可對影像中的每一物件進行二值化(thresholding)與邊緣偵測(edge detection)以萃取每一物件的影像特徵。然後控制單元160可藉由影像特徵資料庫,識別此影像特徵,以判斷每一物件的第二種類T2。第二種類T2可以是人類、車輛或建築等種類。 另外,控制單元160可根據每一物件在影像中的位置,以取得每一物件的方位角度P2。如此取得的第二種類T2和方位角度P2如下表所示。
如果每一個物件的第一種類T1和第二種類T2的判斷結果相同,就可以進行物件比對來結合每一物件的深度P1和方位角度P2,以獲得每一物件的完整空間位置,如下表所示。
圖3是依照本發明的一實施例的一種物件定位方法的流程圖。本實施例中,每一物件的第一位置P1是該物件相對於手持裝置100的深度,每一物件的第二位置P2是該物件相對於手持裝置100的方位角度。雷達感測器120在步驟305發射探測波,並接收物件的回波。控制單元160在步驟310萃取每一物件的回波的波形特徵。控制單元160在步驟315藉由波形特徵資料庫識別此波形特徵,以判斷每一物件的第一種類T1。控制單元160在步驟320根據每一物件的回波的返回時間,計算產生每一物件的深度。
另一方面,影像感測器140在步驟325擷取影像。控制 單元160在步驟330校正(rectify)影像,也就是修正拍攝角度所造成的影像歪斜。控制單元160在步驟335進行物件辨識,也就是萃取物件的影像特徵,然後藉由影像特徵資料庫識別此影像特徵,以判斷物件的第二種類T2。控制單元160在步驟340根據物件是否在上述影像中而決定物件的方位角度。本實施例的方位角度只有兩種,分別對應物件是否存在於影像中。
接下來,控制單元160在步驟345進行物件比對,以類似圖2實施例的方式結合物件的深度和方位角度。控制單元160在步驟350檢查是否物件的第一種類T1和第二種類T2都是一個特定種類,而且物件的深度和方位角度都在一個特定範圍內。上述的特定種類可以是人類或其他具有呼吸與心跳等生理動作的動物。上述的特定範圍是指物件在影像中而且物件的深度在一個適合量測生理動作的預設範圍中(例如1.3~1.7公尺)。
當步驟350的檢查得到否定結果,則流程分別返回步驟305和325。當步驟350的檢查得到肯定結果,則控制單元160在步驟355控制雷達感測器120發射另一個探測波並接收物件的回波。步驟305和步驟355的探測波都包括多個脈衝,步驟305的探測波的脈衝間隔大於步驟355的探測波的脈衝間隔。例如在步驟305發射脈衝間隔為1毫秒(millisecond)的探測波,在步驟355則發射脈衝間隔為0.1毫秒的探測波。步驟305的探測波可用於確定物件位置。然後控制單元160可在步驟360利用步驟355的探測波偵測物件的呼吸或心跳等細微的生理動作。本實施例可應用 於老人、嬰兒、傷患或病患的醫療監護。
圖4是依照本發明的一實施例的一種物件定位方法的流程圖。本實施例中,每一物件的第一位置P1是該物件相對於手持裝置100的深度,每一物件的第二位置P2是該物件相對於手持裝置100的方位角度。步驟405~420和步驟305~320相同。步驟425、430分別與步驟325、330相同。步驟435和440如同圖2的實施例。
接下來,控制單元160在步驟445根據影像感測器140擷取的影像取得每一物件的方位角度。更詳細的說,控制單元160可將影像劃分為多個區域,為每一區域指定一個對應的方位角度,然後將每一物件的方位角度設定為上述多個區域中包括該物件的該區域所對應的方位角度。以上的方位角度可以是一維或二維的方位角度。
接下來,控制單元160在步驟450進行物件比對以結合每一物件的深度和方位角度。如此可取得每一物件在三維空間的完整位置,以應用於建立三維影像或虛擬實境場景,或多個物件之間的重新聚焦。
圖5是依照本發明的一實施例的一種物件定位方法的流程圖。本實施例中,每一物件的第一位置P1和第二位置P2都是該物件相對於手持裝置100的深度,這兩個深度分別來自雷達感測器120和影像感測器140。本實施例的影像感測器140可以模仿人眼同時擷取兩個影像,分別對應左眼和右眼,所以物件會同時出 現在這兩個影像中。
步驟505~520和步驟305~320相同。影像感測器140在步驟525擷取上述的兩個影像。控制單元160在步驟530分別校正上述兩個影像,在步驟535則是萃取物件在兩個影像中的影像特徵,在步驟540利用影像特徵資料庫來識別影像特徵以判斷每一物件的第二種類T2。控制單元160在步驟545利用這兩個影像之間的影像特徵匹配以求取視差值(disparity),並將此視差值換算成物件的深度。
接下來,控制單元160在步驟550進行物件比對,以比較上述物件的根據雷達回波計算的深度和根據影像計算的深度,然後在步驟555檢查這兩種深度是否一致。如果這兩種深度一致,則控制單元160在步驟560根據這兩種深度產生上述物件的深度資訊。此深度資訊可用於建立三維影像或虛擬實境場景,或多個物件之間的重新聚焦。
如果上述兩種深度不一致,則控制單元160在步驟565調整上述物件的影像特徵,然後流程返回步驟545以重新計算來自影像特徵的物件深度,並重新進行步驟550的物件比對。步驟565的調整可以是忽略不一致的深度所對應的影像特徵,或重新選擇不一致的深度所對應的物件的影像特徵。
本實施例是用雷達做為輔助以取得正確的物件深度。當影像太複雜或太單調的時候,僅根據影像估算的深度可能有誤,但若加上雷達偵測所產生的深度一起作比對就能解決此問題。
本發明也提供一種電腦可讀取的記錄媒體,此記錄媒體可以是記憶體、磁碟或光碟之類的實體儲存裝置。此記錄媒體可儲存電腦程式。當手持裝置載入並執行此電腦程式後,可完成如上所述的物件定位方法。
綜上所述,本發明採用雷達感測器以及影像感測器同時進行物件的深度和方位角度的估算,而獲得完整的物件位置。本發明也利用雷達感測器和影像感測器之間的配合與比對,而獲得正確的物件深度與物件位置等資訊。如此可達成正確的影像處理,可得到更佳的三維影像應用效果。
雖然本發明已以實施例揭露如上,然其並非用以限定本發明,任何所屬技術領域中具有通常知識者,在不脫離本發明的精神和範圍內,當可作些許的更動與潤飾,故本發明的保護範圍當視後附的申請專利範圍所界定者為準。
100‧‧‧手持裝置
120‧‧‧雷達感測器
125‧‧‧探測波
140‧‧‧影像感測器
160‧‧‧控制單元

Claims (21)

  1. 一種手持裝置,包括:一雷達感測器,發射一第一探測波,並接收至少一物件反射該第一探測波而產生的至少一回波,其中每一上述物件產生該至少一回波其中之一;一影像感測器,擷取一第一影像,其中該第一影像包括該至少一物件的一子集合;以及一控制單元,耦接該雷達感測器與該影像感測器,萃取每一上述回波的一波形特徵,並分別在時域和頻域識別該波形特徵以判斷每一上述物件的一第一種類,根據該至少一回波取得每一上述物件的一第一位置,根據該第一影像取得每一上述物件的一第二種類和一第二位置,並根據每一上述物件的該第一種類、該第二種類、該第一位置和該第二位置進行比對以結合或比較該第一位置和該第二位置。
  2. 如申請專利範圍第1項所述的手持裝置,其中該控制單元萃取每一上述物件在該第一影像中的一影像特徵,並識別該影像特徵以判斷每一上述物件的該第二種類。
  3. 如申請專利範圍第1項所述的手持裝置,其中每一上述物件的該第一位置為根據該物件的該回波的返回時間所計算產生的一深度,每一上述物件的該第二位置為根據該物件是否在該第一影像中而決定的該物件的一方位角度,該控制單元進行上述比對以結合每一上述物件的該深度和該方位角度。
  4. 如申請專利範圍第3項所述的手持裝置,其中當該至少一物件的該第一種類和該第二種類皆為一特定種類,而且該至少一物件的該深度和該方位角度皆在一特定範圍內時,則該控制單元控制該雷達感測器發射一第二探測波以偵測該至少一物件的一生理動作。
  5. 如申請專利範圍第4項所述的手持裝置,其中該第一探測波包括多個脈衝,該第二探測波亦包括多個脈衝,該第一探測波的脈衝間隔大於該第二探測波的脈衝間隔。
  6. 如申請專利範圍第1項所述的手持裝置,其中每一上述物件的該第一位置為根據該物件的該回波的返回時間所計算產生的一深度,該第一影像包括多個區域,每一上述區域對應一方位角度,每一上述物件的該第二位置為上述多個區域中包括該物件的該區域所對應的該方位角度,該控制單元進行上述比對以結合每一上述物件的該深度和該方位角度。
  7. 如申請專利範圍第1項所述的手持裝置,其中每一上述物件的該第一位置為根據該物件的該回波的返回時間所計算產生的一第一深度,該影像感測器更擷取一第二影像,該第一影像和該第二影像皆包括該至少一物件,每一上述物件的該第二位置為根據該物件在該第一影像和該第二影像中的一影像特徵所計算的一第二深度,該控制單元進行上述比對以比較該至少一物件的該第一深度和該第二深度。
  8. 如申請專利範圍第7項所述的手持裝置,其中當該至少一 物件的該第一深度和該第二深度一致時,該控制單元根據該第一深度和該第二深度產生該至少一物件的深度資訊。
  9. 如申請專利範圍第7項所述的手持裝置,其中當該至少一物件的該第一深度和該第二深度不一致時,該控制單元忽略不一致的深度所對應的上述該影像特徵,重新計算該第二深度,並重新進行上述比對。
  10. 如申請專利範圍第7項所述的手持裝置,其中當該至少一物件的該第一深度和該第二深度不一致時,該控制單元重新選擇不一致的深度所對應的上述物件的上述該影像特徵,重新計算該第二深度,並重新進行上述比對。
  11. 一種物件定位方法,包括:發射一第一探測波,並接收至少一物件反射該第一探測波而產生的至少一回波,其中每一上述物件產生該至少一回波其中之一;擷取一第一影像,其中該第一影像包括該至少一物件的一子集合;萃取每一上述回波的一波形特徵,並分別在時域和頻域識別該波形特徵以判斷每一上述物件的一第一種類;根據該至少一回波取得每一上述物件的一第一位置;根據該第一影像取得每一上述物件的一第二種類和一第二位置;以及根據每一上述物件的該第一種類、該第二種類、該第一位置 和該第二位置進行比對以結合或比較該第一位置和該第二位置。
  12. 如申請專利範圍第11項所述的物件定位方法,更包括:萃取每一上述物件在該第一影像中的一影像特徵,並識別該影像特徵以判斷每一上述物件的該第二種類。
  13. 如申請專利範圍第11項所述的物件定位方法,其中每一上述物件的該第一位置為根據該物件的該回波的返回時間所計算產生的一深度,每一上述物件的該第二位置為根據該物件是否在該第一影像中而決定的該物件的一方位角度,上述比對結合每一上述物件的該深度和該方位角度。
  14. 如申請專利範圍第13項所述的物件定位方法,更包括:當該至少一物件的該第一種類和該第二種類皆為一特定種類,而且該至少一物件的該深度和該方位角度皆在一特定範圍內時,則發射一第二探測波以偵測該至少一物件的生理動作。
  15. 如申請專利範圍第14項所述的物件定位方法,其中該第一探測波包括多個脈衝,該第二探測波亦包括多個脈衝,該第一探測波的脈衝間隔大於該第二探測波的脈衝間隔。
  16. 如申請專利範圍第11項所述的物件定位方法,其中每一上述物件的該第一位置為根據該物件的該回波的返回時間所計算產生的一深度,該第一影像包括多個區域,每一上述區域對應一方位角度,每一上述物件的該第二位置為上述多個區域中包括該物件的該區域所對應的該方位角度,上述比對結合每一上述物件的該深度和該方位角度。
  17. 如申請專利範圍第11項所述的物件定位方法,其中每一上述物件的該第一位置為根據該物件的該回波的返回時間所計算產生的一第一深度,而且該物件定位方法更包括:擷取一第二影像,其中該第一影像和該第二影像皆包括該至少一物件,每一上述物件的該第二位置為根據該物件在該第一影像和該第二影像中的一影像特徵所計算的一第二深度,上述比對比較該至少一物件的該第一深度和該第二深度。
  18. 如申請專利範圍第17項所述的物件定位方法,更包括:當該至少一物件的該第一深度和該第二深度一致時,根據該第一深度和該第二深度產生該至少一物件的深度資訊。
  19. 如申請專利範圍第17項所述的物件定位方法,更包括:當該至少一物件的該第一深度和該第二深度不一致時,忽略不一致的深度所對應的上述該影像特徵,重新計算該第二深度,並重新進行上述比對。
  20. 如申請專利範圍第17項所述的物件定位方法,更包括:當該至少一物件的該第一深度和該第二深度不一致時,重新選擇不一致的深度所對應的上述物件的上述該影像特徵,重新計算該第二深度,並重新進行上述比對。
  21. 一種電腦可讀取的記錄媒體,儲存一電腦程式,當一手持裝置載入並執行該電腦程式後,可完成如申請專利範圍第11項所述的物件定位方法。
TW104122353A 2015-06-24 2015-07-09 手持裝置、物件定位方法與電腦可讀取的記錄媒體 TWI535265B (zh)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
US14/749,617 US9778353B2 (en) 2015-06-24 2015-06-24 Handheld device, object positioning method and computer-readable recording medium

Publications (2)

Publication Number Publication Date
TWI535265B true TWI535265B (zh) 2016-05-21
TW201701659A TW201701659A (zh) 2017-01-01

Family

ID=56509424

Family Applications (1)

Application Number Title Priority Date Filing Date
TW104122353A TWI535265B (zh) 2015-06-24 2015-07-09 手持裝置、物件定位方法與電腦可讀取的記錄媒體

Country Status (4)

Country Link
US (1) US9778353B2 (zh)
CN (1) CN106291523B (zh)
DE (1) DE102016105891B4 (zh)
TW (1) TWI535265B (zh)

Families Citing this family (22)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9575560B2 (en) 2014-06-03 2017-02-21 Google Inc. Radar-based gesture-recognition through a wearable device
US9811164B2 (en) 2014-08-07 2017-11-07 Google Inc. Radar-based gesture sensing and data transmission
US10268321B2 (en) 2014-08-15 2019-04-23 Google Llc Interactive textiles within hard objects
US11169988B2 (en) 2014-08-22 2021-11-09 Google Llc Radar recognition-aided search
US9778749B2 (en) 2014-08-22 2017-10-03 Google Inc. Occluded gesture recognition
US9600080B2 (en) 2014-10-02 2017-03-21 Google Inc. Non-line-of-sight radar-based gesture recognition
KR102236958B1 (ko) 2015-04-30 2021-04-05 구글 엘엘씨 제스처 추적 및 인식을 위한 rf―기반 마이크로―모션 추적
US10139916B2 (en) 2015-04-30 2018-11-27 Google Llc Wide-field radar-based gesture recognition
KR102327044B1 (ko) 2015-04-30 2021-11-15 구글 엘엘씨 타입-애그노스틱 rf 신호 표현들
US10088908B1 (en) 2015-05-27 2018-10-02 Google Llc Gesture detection and interactions
US9693592B2 (en) 2015-05-27 2017-07-04 Google Inc. Attaching electronic components to interactive textiles
US20170016986A1 (en) * 2015-07-17 2017-01-19 Thales-Raytheon Systems Company Llc System and method for providing remote target identification using optical tagging
WO2017020077A1 (en) * 2015-08-03 2017-02-09 Commonwealth Scientific And Industrial Research Organisation Monitoring systems and methods
US10817065B1 (en) 2015-10-06 2020-10-27 Google Llc Gesture recognition using multiple antenna
WO2017192167A1 (en) 2016-05-03 2017-11-09 Google Llc Connecting an electronic component to an interactive textile
WO2017200949A1 (en) 2016-05-16 2017-11-23 Google Llc Interactive fabric
WO2017200570A1 (en) 2016-05-16 2017-11-23 Google Llc Interactive object with multiple electronics modules
US10579150B2 (en) 2016-12-05 2020-03-03 Google Llc Concurrent detection of absolute distance and relative movement for sensing action gestures
EP3612858A4 (en) * 2017-04-21 2021-05-26 TLC Millimeter Wave Products, Inc. ADVANCED MILLIMETER WAVE SYSTEM NETWORK FOR THREAT DETECTION
TWI641857B (zh) 2018-02-09 2018-11-21 宏碁股份有限公司 電子裝置以及定位方法
CN110609274B (zh) * 2018-06-15 2022-07-01 杭州海康威视数字技术股份有限公司 一种测距方法、装置及系统
US12093470B2 (en) * 2021-08-31 2024-09-17 Htc Corporation Virtual image display system and calibration method for pointing direction of controller thereof

Family Cites Families (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
IL134518A0 (en) * 2000-02-13 2001-04-30 Hexagon System Engineering Ltd Integrated radar and communication system
JP4426436B2 (ja) 2004-12-27 2010-03-03 株式会社日立製作所 車両検知装置
US7990308B2 (en) 2009-02-20 2011-08-02 Raytheon Company Mirror image target detection and recognition
JP4858574B2 (ja) * 2009-05-19 2012-01-18 トヨタ自動車株式会社 物体検出装置
CN104251993B (zh) * 2010-03-17 2017-04-12 本田技研工业株式会社 车辆周围监测装置
CN102542843A (zh) * 2010-12-07 2012-07-04 比亚迪股份有限公司 防止车辆碰撞的预警方法及装置
CN102114809A (zh) * 2011-03-11 2011-07-06 同致电子科技(厦门)有限公司 一体式视觉化倒车雷达影像辅助系统及信号的叠加方法
CN102508246B (zh) * 2011-10-13 2013-04-17 吉林大学 车辆前方障碍物检测跟踪方法
US9830523B2 (en) 2012-05-31 2017-11-28 Korea Institute Of Science And Technology Method and apparatus for recognizing object material using spatial image and spatial radar information
US9429650B2 (en) * 2012-08-01 2016-08-30 Gm Global Technology Operations Fusion of obstacle detection using radar and camera
DE102013113054B4 (de) * 2012-12-03 2022-01-27 Denso Corporation Zielerfassungsvorrichtung zum Vermeiden einer Kollision zwischen einem Fahrzeug und einem durch einen an dem Fahrzeug montierten Sensor erfassten Ziel

Also Published As

Publication number Publication date
US20160377712A1 (en) 2016-12-29
US9778353B2 (en) 2017-10-03
CN106291523B (zh) 2019-04-05
TW201701659A (zh) 2017-01-01
DE102016105891B4 (de) 2021-06-24
DE102016105891A1 (de) 2016-12-29
CN106291523A (zh) 2017-01-04

Similar Documents

Publication Publication Date Title
TWI535265B (zh) 手持裝置、物件定位方法與電腦可讀取的記錄媒體
JP6295645B2 (ja) 物体検出方法及び物体検出装置
Nguyen et al. 3D reconstruction with time-of-flight depth camera and multiple mirrors
KR101901586B1 (ko) 로봇 위치 추정 장치 및 그 방법
AU2012307095B2 (en) System and method for three-dimensional surface imaging
US9830523B2 (en) Method and apparatus for recognizing object material using spatial image and spatial radar information
CN108628306B (zh) 机器人行走障碍检测方法、装置、计算机设备和存储介质
US20140200080A1 (en) 3d device and 3d game device using a virtual touch
US9151841B2 (en) Providing an ultrasound spatial compound image based on center lines of ultrasound images in an ultrasound system
JP2015125685A (ja) 空間構造推定装置、空間構造推定方法及び空間構造推定プログラム
Steckel et al. Spatial sampling strategy for a 3D sonar sensor supporting BatSLAM
US20120108962A1 (en) Providing a body mark in an ultrasound system
KR101432679B1 (ko) 객체의 재질 인식 장치 및 방법
李诗锐 et al. Real-time accurate 3D reconstruction based on Kinect v2
KR101546697B1 (ko) 표적 식별 정보 데이터베이스 구축 장치 및 방법
CN117178293A (zh) 识别装置、识别方法以及程序
KR20160022576A (ko) 알지비 센서 및 깊이 센서 기반 3차원 인체 관절 좌표 정합 장치 및 방법
WO2019047841A1 (zh) 一种解决3d视觉设备之间相互干扰的方法及装置
US20240249432A1 (en) Plane estimation using object detection
US20230154041A1 (en) Metric lifting of 3d human pose using sound
He et al. Automatic orientation estimation of multiple images with respect to laser data
Teja et al. Stereo Vision
JP2017532146A5 (zh)
KR20240077350A (ko) 센서 융합 장치 및 방법
Ravì Kinect: the next generation of motion control