TWI553508B - 物件感測裝置與方法 - Google Patents

物件感測裝置與方法 Download PDF

Info

Publication number
TWI553508B
TWI553508B TW104106646A TW104106646A TWI553508B TW I553508 B TWI553508 B TW I553508B TW 104106646 A TW104106646 A TW 104106646A TW 104106646 A TW104106646 A TW 104106646A TW I553508 B TWI553508 B TW I553508B
Authority
TW
Taiwan
Prior art keywords
depth
sensing
identification module
virtual
location information
Prior art date
Application number
TW104106646A
Other languages
English (en)
Other versions
TW201633061A (zh
Inventor
侯嘉昌
陳裕彥
黃博亮
Original Assignee
緯創資通股份有限公司
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 緯創資通股份有限公司 filed Critical 緯創資通股份有限公司
Priority to TW104106646A priority Critical patent/TWI553508B/zh
Priority to CN201510104015.7A priority patent/CN106033250B/zh
Priority to US14/740,289 priority patent/US10627917B2/en
Publication of TW201633061A publication Critical patent/TW201633061A/zh
Application granted granted Critical
Publication of TWI553508B publication Critical patent/TWI553508B/zh

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/0304Detection arrangements using opto-electronic means
    • G06F3/0325Detection arrangements using opto-electronic means using a plurality of light emitters or reflectors or a plurality of detectors forming a reference frame from which to derive the orientation of the object, e.g. by triangulation or on the basis of reference deformation in the picked up image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/1615Constructional details or arrangements for portable computers with several enclosures having relative motions, each enclosure supporting at least one I/O or computing function
    • G06F1/1616Constructional details or arrangements for portable computers with several enclosures having relative motions, each enclosure supporting at least one I/O or computing function with folding flat displays, e.g. laptop computers or notebooks having a clamshell configuration, with body parts pivoting to an open position around an axis parallel to the plane they define in closed position
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/1633Constructional details or arrangements of portable computers not specific to the type of enclosures covered by groups G06F1/1615 - G06F1/1626
    • G06F1/1684Constructional details or arrangements related to integrated I/O peripherals not covered by groups G06F1/1635 - G06F1/1675
    • G06F1/169Constructional details or arrangements related to integrated I/O peripherals not covered by groups G06F1/1635 - G06F1/1675 the I/O peripheral being an integrated pointing device, e.g. trackball in the palm rest area, mini-joystick integrated between keyboard keys, touch pads or touch stripes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Hardware Design (AREA)
  • Mathematical Physics (AREA)
  • Position Input By Displaying (AREA)
  • User Interface Of Digital Computer (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Image Processing (AREA)

Description

物件感測裝置與方法
本發明是有關於一種電子設備的感測技術,且特別是有關於一種可產生虛擬感測空間以精確感應物件位置的物件感測裝置與方法。
消費型電子設備的人機互動介面通常為滑鼠、鍵盤和搖桿。隨著科技發展日新月異,近年來觸控裝置、體感裝置也廣為應用於各項電子產品中以作為人機介面。為了使人機互動可以更人性化,體感裝置提供了一種全新的非接觸式人機互動系統(即,三維互動系統)。相較於傳統的互動介面或二維的觸控裝置而言,三維互動系統可提供更加符合使用者日常生活感受或動作的體感操作,進而令使用者獲得較佳的操控感受。
三維互動系統通常會利用單組深度辨識模組來判斷其感測範圍中的物件的動作或位置資訊。藉此,三維互動系統得以根據其感測範圍中使用者的動作來執行對應的操作,以達到空間三維互動(spatial 3D interaction)的目的。
然而,由於使用者無法確切得知由兩個鏡頭所組成的深度辨識模組的感測範圍,僅能以使用經驗且依據使用者的手跟深度辨識模組之間的距離來判斷感測範圍。故當使用者的手過於靠近深度辨識模組或未處於感測範圍時,即無法對三維互動系統進行操作。也就是說,由於使用者無法知道深度辨識模組確切的感測範圍,使得使用者的動作容易超出深度辨識模組所能感測的範圍,造成使用上的不便。
本發明提供一種物件感測裝置與方法,其可產生與裝置主體有相對應大小的虛擬感測空間,藉此讓使用者能藉由裝置主體來易於判斷此虛擬感測空間,從而精確地使用物件感測功能。
本發明提出一種物件感測裝置,此物件感測裝置包括具有第一深度辨識模組的第一主體、具有第二深度辨識模組的第二主體以及處理單元。其中第二主體的第一邊連接於第一主體的第一邊,且第一深度辨識模組配置於第一主體中與第一主體的第一邊相對的第二邊,其第一深度辨識模組的感測範圍至少涵蓋第二主體的一部分。第二深度辨識模組配置於第二主體中與第二主體的第一邊相對的第二邊,其中第二深度辨識模組的感測範圍至少涵蓋第一主體的一部分。其中此第一深度辨識模組與此第二深度辨識模組的感測範圍交集形成一虛擬感測空間,且此第一深度辨識模組與此第二深度辨識模組感測位於此虛擬感測空間中的一物 件以產生多個包含深度的位置資訊。處理單元耦接第一深度辨識模組及第二深度辨識模組以接收此些位置資訊,並根據此些位置資訊產生此物件位於虛擬感測空間中的空間位置信息。
從另一角度而言,本發明提出一種物件感測方法,其適用於上述物件感測裝置,此物件感測方法包括根據第一深度辨識模組與第二深度辨識模組的感測範圍形成一虛擬感測空間,並根據此第一及第二深度辨識模組感測位於此虛擬感測空間中的一物件所產生的多個位置資訊,產生此物件位於虛擬感測空間中的空間位置信息。
基於上述,本發明實施例所述的物件感測裝置由多組深度辨識模組所構成,並藉由將這些深度辨識模組設置在物件感測裝置中第一主體與第二主體的特定位置,以讓使用者能藉由裝置主體來易於判斷此虛擬感測空間。藉此,使用者可透過裝置主體來得知是否會被深度辨識模組所感應,從而精確地使用此物件感測裝置中的物件感測功能。
為讓本發明的上述特徵和優點能更明顯易懂,下文特舉實施例,並配合所附圖式作詳細說明如下。
100‧‧‧筆記型電腦
10‧‧‧第一主體的第一邊
12‧‧‧第二主體的第一邊
14‧‧‧第一主體的第二邊
16‧‧‧第二主體的第二邊
18‧‧‧第二主體的第三邊
20‧‧‧第二主體的第四邊
110‧‧‧第一主體
120‧‧‧第二主體
101‧‧‧第一深度辨識模組
103‧‧‧顯示單元
105‧‧‧第二深度辨識模組
107‧‧‧第三深度辨識模組
200‧‧‧深度辨識模組
201‧‧‧感測範圍
203、205、207‧‧‧盲區
210、220‧‧‧鏡頭
301a‧‧‧第一深度辨識模組的感測範圍
301b、302b、303b‧‧‧盲區
302a‧‧‧第二深度辨識模組的感測範圍
303a‧‧‧第三深度辨識模組的感測範圍
401‧‧‧第一虛擬面
402‧‧‧第二虛擬面
403‧‧‧第三虛擬面
404‧‧‧第四虛擬面
405‧‧‧第五虛擬面
406‧‧‧第六虛擬面
2、4、6、8‧‧‧頂點
30‧‧‧使用者
1000‧‧‧虛擬感測空間
50‧‧‧使用者的手
52‧‧‧物件座標
S601、S603、S605、S607、S609、S611‧‧‧步驟
圖1為根據本發明一實施例所繪示的物件感測裝置的示意圖。
圖2為根據本發明一實施例所繪示的一般深度辨識模組的有效感測範圍以及盲區的示意圖。
圖3A~圖3F為根據本發明一實施例所繪示的配置深度辨識模組的感測範圍的示意圖。
圖4A~圖4B為根據本發明一實施例所繪示的虛擬感測空間的示意圖。
圖5為根據本發明一實施例所繪示的物件感測方法的應用的示意圖。
圖6為根據本發明一實施例所繪示的物件感測方法的方法流程圖。
本發明實施例提出一種物件感測裝置與方法。在所述物件感測裝置中,配置至少兩個深度辨識模組於兩個主體的特定位置,並藉由該些深度辨識模組的感測範圍交集形成一虛擬感測空間,使得使用者藉由感測裝置的主體可以明確判斷虛擬感測空間的範圍及大小,且所述物件感測裝置可有效地偵測使用者在虛擬感測空間內任一位置的位置資訊。
圖1為根據本發明一實施例所繪示的物件感測裝置的示意圖。在本實施例中,物件感測裝置為筆記型電腦100。然而必須了解的是,本發明不限於此,在本發明另一實施例中,物件感測裝置可以是藉由分別位於兩個主體或平面上的至少兩個深度辨識 模組以產生如本案所述虛擬感測空間的任何裝置。
請參照圖1,筆記型電腦100包括第一主體110與第二主體120。第一主體110透過樞接構件(未繪示)將第一主體110的第一邊10連接於第二主體120的第一邊12,且第一主體110與第二主機120透過樞接構件而可以為開啟狀態或閉合狀態。
第一主體110包括第一深度辨識模組101及顯示單元103。第二主體120包括第二深度辨識模組105及處理單元(未繪示)。在本實施例中,筆記型電腦100更包括配置或鄰近於樞接構件(即,連接處)的第三深度辨識模組107。
其中,第一深度辨識模組101、第二深度辨識模組105、第三深度辨識模組107及顯示單元103分別耦接於第二主體120中的處理單元,該處理單元用以完成本發明所述的物件感測方法,並將結果對應顯示於顯示單元103的顯示畫面中。在本實施例中,處理單元為中央處理單元(Central Processing Unit,CPU)。然而,本發明不限於此,處理單元更可以是圖形處理單元(Graphics Processing Unit,GPU),或是其他可程式化之微處理器(Microprocessor)等裝置。再者,在本實施例中,顯示單元103為平面顯示器。然而在另一實施例中,顯示單元103更可以是投影顯示器或軟性顯示器(flexible display)、液晶顯示器(Liquid Crystal Display,LCD)或發光二極體顯示器(Light Emitting Diode Display,LED Display)等任一類型的顯示器。此外,在本實施例中,第一深度辨識模組101、第二深度辨識模組105及第三深度辨 識模組107是具有雙鏡頭的深度攝影機(depth camera)。然而在另一實施例中,第一深度辨識模組101、第二深度辨識模組105及第三深度辨識模組107更可以是具有多鏡頭的立體攝影機、用以建構三維影像的多個攝影機的組合或其他可偵測三維空間資訊的影像感測器。
第一深度辨識模組101配置於第一主體110中與第一主體110的第一邊10相對的第一主體110的第二邊14,且第一深度辨識模組101的有效感測範圍較佳者涵蓋第二主體120(或至少涵蓋大部分之第二主體120),用以感測該有效感測範圍內一物件包含深度的位置資訊。
第二深度辨識模組105配置於第二主體120中與第二主體120的第一邊12相對的第二主體120的第二邊16,且第二深度辨識模組105的有效感測範圍較佳者涵蓋第一主體110(或至少涵蓋大部分之第一主體110),用以感測該有效感測範圍內一物件包含深度的位置資訊。
第三深度辨識模組107配置於或鄰近於筆記型電腦100的樞接構件(例如,配置於第二主體120之第一邊處或第一主體110之第一邊處),且第三深度辨識模組107的感測範圍可以不涵蓋第一主體110及第二主體120(但在其它實施例中也可以涵蓋部份之第一主體110及第二主體120),用以感測該有效感測範圍內一物件包含深度的位置資訊。
本發明所述的物件感測裝置根據第一深度辨識模組 101、第二深度辨識模組105及第三深度辨識模組107的感測範圍交集形成一虛擬感測空間,使用者可以藉由物件感測裝置的主體來易於判斷此虛擬感測空間的範圍。第一深度辨識模組101、第二深度辨識模組105與第三深度辨識模組107分別感測位於該虛擬感測空間中的一物件(例如,使用者的手指)以產生多個位置資訊。處理單元接收該些位置資訊後,根據該些位置資訊以產生該物件位於虛擬感測空間中的空間位置信息,並對應顯示單元103的顯示畫面的內容產生一物件空間位置信息,以執行對應該顯示畫面的內容的操作。
圖2為根據本發明一實施例所繪示的一般深度辨識模組的有效感測範圍以及盲區的示意圖。
請參照圖2。一般的深度辨識模組200由兩個鏡頭所組成,其分別為鏡頭210與鏡頭220。其中深度辨識模組200有效的感測範圍201為鏡頭210與鏡頭220的視野範圍交集所呈的區域。其他非處於鏡頭210與鏡頭220的感測範圍201的區域,如盲區203、205、207,其為深度辨識模組200所無法正確感測或無法感測的區域。
圖3A~圖3F為根據本發明一實施例所繪示的配置深度辨識模組的感測範圍的示意圖。必需要了解的是,圖3A~圖3F為二維的示意圖,其僅用以便於描述本發明,並非用於限定本發明。
請參照圖3A與圖3B。圖3A為第一深度辨識模組101的感測範圍的側視圖,圖3B為第一深度辨識模組101的感測範圍 的俯試圖。第一深度辨識模組101的感測範圍301a為有效的感測區域,盲區301b為無效的感測區域。其中第一深度辨識模組101的感測範圍301a涵蓋第二主體120,如圖3A與圖3B所示。特別提及的是,為了強調盲區與感測範圍301a之間的差異,在圖3B中的第一深度辨識模組101的感測範圍301a略為縮小。但圖3B中的感測範圍301a僅為示意,實際的感測範圍301a應大於盲區,並且第一深度辨識模組101的感測範圍301a為涵蓋第二主體120。圖3D、圖3F中的感測範圍302a、303a也僅為示意,實際的感測範圍301a應大於盲區。
請參照圖3C與圖3D。圖3C為第二深度辨識模組105的感測範圍的側視圖,圖3D為第二深度辨識模組105的感測範圍的俯試圖。第二深度辨識模組105的感測範圍302a為有效的感測區域,盲區302b為無效的感測區域。其中第二深度辨識模組105的感測範圍302a涵蓋第一主體110,如圖3C與圖3D所示。必須暸解的是,圖3D中的第二深度辨識模組105的感測範圍302a僅為示意圖,第二深度辨識模組105的感測範圍302a為涵蓋第一主體110。
藉由圖3A與圖3C可知,第一深度辨識模組101的盲區301b位於第二深度辨識模組105的感測範圍302a中,且第二深度辨識模組105的盲區302b位於第一深度辨識模組101的感測範圍301a中。也就是說,藉由配置第一深度辨識模組101及第二深度辨識模組105即可使本發明所述的虛擬感測空間中任一位置處於 第一深度辨識模組101或第二深度辨識模組105其中之一的有效的感測範圍,使得物件在該虛擬感測空間中的所有位置都可以被感測而產生位置資訊。
請參照圖3E與圖3F。圖3E為第三深度辨識模組107的感測範圍的側視圖,圖3F為第三深度辨識模組107的感測範圍的俯試圖。第三深度辨識模組107的感測範圍303a為有效的感測區域,盲區303b為無效的感測區域。其中第三深度辨識模組107的感測範圍303a並不涵蓋第一主體110及第二主體120,如圖3E與圖3F所示。必須暸解的是,圖3F中的第三深度辨識模組107的感測範圍303a僅為示意圖,第三深度辨識模組107的感測範圍303a為不涵蓋第一主體110及第二主體120。
在本範例實施例中,配置第三深度辨識模組107用以搭配第一深度辨識模組101及第二深度辨識模組105,以提高虛擬感測空間中感測物件位置的準確度。並且當第一深度辨識模組101、第二深度辨識模組105及第三深度辨識模組107其中之一無法感測位於虛擬感測空間中的物件時(即,該物件位於第一深度辨識模組101、第二深度辨識模組105及第三深度辨識模組107其中之一的盲區),該處理單元依據該第一深度辨識模組101、第二深度辨識模組105及第三深度辨識模組107之另外兩個所感測的該些位置資訊來產生該物件的空間位置信息;或者,亦可以透過處理單元預先設置各個深度辨識模組的盲區所對應可感測該盲區的深度辨識模組來進行感測。基此,藉由配置三個深度辨識模組可以更 有效提高物件感測的準確度。
圖4A~圖4B為根據本發明一實施例所繪示的虛擬感測空間的示意圖。
請同時參照圖1與圖4A至圖4B。其中,圖4A與圖4B中虛線所構成的範圍為由第一深度辨識模組101、第二深度辨識模組105及第三深度辨識模組107的感測範圍所交集形成的虛擬感測空間1000。為方便於了解,圖4A與圖4B分開繪示與標記虛擬感測空間1000中的第一虛擬面401至第六虛擬面406,其中圖4A僅繪示與標記虛擬感測空間1000中的第一虛擬面401、第三虛擬面403、第四虛擬面404、第六虛擬面406;而圖4B僅繪示與標記虛擬感測空間1000中的第二虛擬面402以及第五虛擬面405。應用本實施例者應能夠從圖4A至圖4B中了解到這些虛擬面401~406所在的位置,且。於本實施例中,虛擬感測空間1000的範圍介於一第一虛擬面401、一第二虛擬面402、一第三虛擬面403、一第四虛擬面404所框圍形成之空間,其中該第一虛擬面401係指第一深度辨識模組101設置於第一主體所在的平面,該第二虛擬面402係指第二深度辨識模組105設置於第二主體120所在的平面,第三虛擬面403係指與第二主體120平行且通過該第一主體110的第二邊14的平面,第四虛擬面404係指與第二主體120垂直且通過第二主體120的第二邊16的平面。
具體來說,當筆記形電腦100呈開啟狀態時(亦即,第一主體110與第二主體120兩者呈一角度時),處理單元可根據筆記 型電腦100的開啟角度調整第一深度辨識模組101、第二深度辨識模組105及第三深度辨識模組107的照射角度,以呈如上述第一深度辨識模組101的有效感測範圍涵蓋第二主體120、第二深度辨識模組105的有效感測範圍涵蓋第一主體110及第三深度辨識模組107的感測範圍不涵蓋第一主體110的狀態,換言之,該虛擬感測空間1000之高度將可隨著第一主體110相對於第二主體120之開合角度不同而對應地變化。其中筆記型電腦100的開合角度可藉由機構的方式或配置一加速感應器(G-Sensor)於第一主體110中來量測。
接著,根據第一深度辨識模組101、第二深度辨識模組105及第三深度辨識模組107的感測範圍定義出虛擬感測空間1000的頂點6與頂點8。頂點6與頂點8皆位於第一深度辨識模組101、第二深度辨識模組105及第三深度辨識模組107三者的感測範圍中。其中,頂點6與頂點8為分別藉由定義第二主體120的頂點2與頂點4往垂直於第二主體120的法線方向延伸且交會於第三虛擬面403所呈的兩個點,而分別形成有垂直於第二虛擬面402與第四虛擬面404之一第五虛擬面405與一第六虛擬面406。其中頂點2可定義為第二主體120之第三邊18與第四虛擬面404所相交之點,而頂點4可定義為第二主體120之第四邊20與第四虛擬面404所相交之點。藉由第一至第六虛擬面即可定義出一位於筆記型電腦100上的矩形塊狀或楔形塊狀立體空間,並可藉由處理單元調整第一深度辨識模組101、第二深度辨識模組 105及第三深度辨識模組107的有效感測範圍使該立體空間呈如圖4A與圖4B所示的虛擬感測空間1000。也就是說,如圖4B所示,藉由定義出虛擬感測空間1000,使用者30可以藉由第一主體110與第二主體120為基準,明確地知道虛擬感測空間1000的有效範圍與大小。並且處理單元可以根據第一深度辨識模組101、第二深度辨識模組105及第三深度辨識模組107分別感測使用者30的位置資訊,藉由三角定位方法依據該第一深度辨識模組101、第二深度辨識模組105及第三深度辨識模組107的固定位置以及該些位置資訊來產生一空間位置信息,以對應操作顯示單元103的顯示畫面的內容。其中所述三角定位方法為本領域技術人員的習知技術,在此便不贅述。
圖5為根據本發明一實施例所繪示的物件感測方法的應用的示意圖。
請參照圖5。在本發明實施例中,當使用者的手50位於本發明所述的物件感測裝置的虛擬感測空間內時,處理單元將第一、第二、第三深度辨識模組所感測的多個位置資訊轉換為一物件空間位置信息,並對應輸出物件座標52於顯示單元的顯示畫面中,並將手指轉換為對應的骨架。倘若物件座標52與顯示畫面中一使用者介面物件的物件座標距離為0時,處理單元將視為使用者觸碰該物件。此外,當處理單元視為使用者觸碰該物件時,倘若有至少兩個手指的骨架點與該物件距離為0,則處理單元視為使用者抓取該物件;倘若此時移動手部,顯示畫面中的該物件會跟 著骨架與物件座標52移動;且倘若顯示畫面中的該物件跟著骨架與物件座標52移動時,當觸碰該物件的兩個骨架點的直線距離大於該物件的大小時,該處理單元將視為使用者放開該物件,此時該物件停止跟隨物件座標52移動。然而,本發明不限於此,本發明所述的物件感測裝置的應用更可以包括其他應用方式。
圖6為根據本發明一實施例所繪示的物件感測方法的方法流程圖。
請參照圖6。在步驟S601中,根據本發明上述的物件感測裝置的配置方式,配置第一深度辨識模組、第二深度辨識模組與第三深度辨識模組。在步驟S603中,物件感測裝置根據第一深度辨識模組、第二深度辨識模組與第三深度辨識模組的感測範圍產生一虛擬感測空間。在步驟S605中,第一深度辨識模組、第二深度辨識模組與第三深度辨識模組分別感測進入該虛擬感測空間的一物件,以產生該物件的多個位置資訊。在步驟S607中,處理單元依據該些位置資訊產生該物件位於該虛擬感測空間中的空間位置信息。在步驟S609中,當該物件位於第一深度辨識模組、第二深度辨識模組與第三深度辨識模組其中之一的盲區時,進行個別深度辨識模組的盲區處理。最後,在步驟S611中,處理單元產生對應顯示畫面中的內容的一物件空間位置信息於顯示畫面中。
綜上所述,本發明實施例所述的物件感測裝置由多組深度辨識模組所構成,並藉由將這些深度辨識模組設置在物件感測裝置中第一主體與第二主體的特定位置,以讓使用者能藉由裝置 主體來易於判斷此虛擬感測空間。藉此,使用者可透過裝置主體來得知是否會被深度辨識模組所感應,從而精確地使用此物件感測裝置中的物件感測功能。
雖然本發明已以實施例揭露如上,然其並非用以限定本發明,任何所屬技術領域中具有通常知識者,在不脫離本發明的精神和範圍內,當可作些許的更動與潤飾,故本發明的保護範圍當視後附的申請專利範圍所界定者為準。
100‧‧‧筆記型電腦
1000‧‧‧虛擬感測空間
2、4、6、8‧‧‧頂點
401、403、404、406‧‧‧虛擬面

Claims (14)

  1. 一種物件感測裝置,包括:一第一主體及一第二主體,其中該第二主體的一第一邊連接於該第一主體的一第一邊;一第一深度辨識模組,配置於該第一主體中與該第一主體的該第一邊相對的一第二邊,其中該第一深度辨識模組的感測範圍至少涵蓋該第二主體之一部分;一第二深度辨識模組,配置於該第二主體中與該第二主體的該第一邊相對的一第二邊,其中該第二深度辨識模組的感測範圍至少涵蓋該第一主體之一部分,該第一深度辨識模組與該第二深度辨識模組的感測範圍交集形成一虛擬感測空間,且該第一深度辨識模組與該第二深度辨識模組分別感測位於該虛擬感測空間中的一物件以產生多個包含深度的位置資訊,其中該些包含深度的位置資訊包括該第一深度辨識模組所感測的一包含深度的第一位置資訊以及該第二深度辨識模組所感測的一包含深度的第二位置資訊;以及一處理單元,耦接該第一深度辨識模組及該第二深度辨識模組,接收該些位置資訊,並根據該些位置資訊以產生該物件位於該虛擬感測空間中的一空間位置信息。
  2. 如申請專利範圍第1項所述之物件感測裝置,其更可以包括:一第三深度辨識模組,配置於或鄰近於該第一主體的該第一 邊與該第二主體的該第一邊的連接處並耦接該處理單元,並且,該第一、該第二及該第三深度辨識模組的感測範圍交集形成該虛擬感測空間,且該第一深度辨識模組、該第二深度辨識模組與該第三深度辨識模組感測位於該虛擬感測空間中的該物件以產生多個位置資訊,該處理單元接收該些位置資訊,並根據該些位置資訊以產生該物件位於該虛擬感測空間中的該空間位置信息。
  3. 如申請專利範圍第1項所述之物件感測裝置,其中該虛擬感測空間是由該第一主體所形成的一第一虛擬面、該第二主體所形成的一第二虛擬面、與該第二主體平行且通過該第一主體的該第二邊的一第三虛擬面以及與該第二主體垂直且通過該第二主體的該第二邊的一第四虛擬面所形成的空間。
  4. 如申請專利範圍第1項所述之物件感測裝置,其中該第一主體更包括一顯示單元,該顯示單元耦接至該處理單元並用以顯示一顯示畫面,該處理單元根據該空間位置信息以產生對應該顯-示畫面的一內容的一物件空間位置信息。
  5. 如申請專利範圍第2項所述之物件感測裝置,其中當該第一、該第二及該第三深度辨識模組其中之一無法正確感測位於該虛擬感測空間中的該物件時,該處理單元依據該第一、該第二及該第三深度辨識模組之另外兩個所感測的該些位置資訊來產生該物件的該空間位置信息。
  6. 如申請專利範圍第2項所述之物件感測裝置,其中該處理單元藉由三角定位法並依據該第一、該第二及該第三深度辨識模 組的固定位置以及該些位置資訊來產生該物件的該空間位置信息。
  7. 如申請專利範圍第2項所述之物件感測裝置,其中該第一、該第二及該第三深度辨識模組其中之任一包括兩個影像擷取單元,該些影像擷取單元用以感測該物件的該些包含深度的位置資訊。
  8. 一種物件感測方法,適用於具備一第一主體及一第二主體的一裝置,所述物件感測方法包括:根據一第一深度辨識模組與一第二深度辨識模組的感測範圍交集形成一虛擬感測空間,其中該第二主體的一第一邊連接於該第一主體的一第一邊,該第一深度辨識模組配置在該第一主體中與該第一主體的該第一邊相對的一第二邊,該第一深度辨識模組的感測範圍至少涵蓋該第二主體之一部分,該第二深度辨識模組配置在該第二主體中與該第二主體的該第一邊相對的一第二邊,該第二深度辨識模組的感測範圍至少涵蓋該第一主體之一部分;以及根據該第一及該第二深度辨識模組分別感測位於該虛擬感測空間中的一物件所產生的多個包含深度的位置資訊,以產生該物件位於該虛擬感測空間中的一空間位置信息,其中該些包含深度的位置資訊包括該第一深度辨識模組所感測的一包含深度的第一位置資訊以及該第二深度辨識模組所感測的一包含深度的第二位置資訊。
  9. 如申請專利範圍第8項所述之物件感測方法,其中該第一主體的該第一邊與該第二主體的該第一邊的連接處或鄰近該連接處配置有一第三深度辨識模組,根據該第一、該第二及該第三深度辨識模組的感測範圍交集形成該虛擬感測空間,根據該第一、該第二及該第三深度辨識模組感測位於該虛擬感測空間中的該物件所產生的多個位置資訊,以產生該物件位於該虛擬感測空間中的該空間位置信息。
  10. 如申請專利範圍第8項所述之物件感測方法,其中該虛擬感測空間是由該第一主體所形成的一第一虛擬面、該第二主體所形成的一第二虛擬面、與該第二主體平行且通過該第一主體的該第二邊的一第三虛擬面以及與該第二主體垂直且通過該第二主體的該第二邊的一第四虛擬面所形成的空間。
  11. 如申請專利範圍第8項所述之物件感測方法,其中該第一主體更包括一顯示單元,該顯示單元耦接至一處理單元並用以顯示一顯示畫面,該處理單元根據該空間位置信息以產生對應該顯示畫面的一內容的一物件空間位置信息。
  12. 如申請專利範圍第9項所述之物件感測方法,更包括:當該第一、該第二及該第三深度辨識模組其中之一無法正確感測位於該虛擬感測空間中的該物件時,依據該第一、該第二及該第三深度辨識模組之另外兩個所感測的該些位置資訊來產生該物件的該空間位置信息。
  13. 如申請專利範圍第9項所述之物件感測方法,其中所述產生該物件位於該虛擬感測空間中的該空間位置信息的方法為藉由三角定位法並依據該第一、該第二及該第三深度辨識模組的固定位置以及該些位置資訊來產生。
  14. 如申請專利範圍第9項所述之物件感測方法,其中該第一、該第二及該第三深度辨識模組其中之任一包括兩個影像擷取單元,該些影像擷取單元用以感測該物件的該些包含深度的位置資訊。
TW104106646A 2015-03-03 2015-03-03 物件感測裝置與方法 TWI553508B (zh)

Priority Applications (3)

Application Number Priority Date Filing Date Title
TW104106646A TWI553508B (zh) 2015-03-03 2015-03-03 物件感測裝置與方法
CN201510104015.7A CN106033250B (zh) 2015-03-03 2015-03-10 物件感测装置与方法
US14/740,289 US10627917B2 (en) 2015-03-03 2015-06-16 Object-sensing apparatus and object-sensing method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
TW104106646A TWI553508B (zh) 2015-03-03 2015-03-03 物件感測裝置與方法

Publications (2)

Publication Number Publication Date
TW201633061A TW201633061A (zh) 2016-09-16
TWI553508B true TWI553508B (zh) 2016-10-11

Family

ID=56849859

Family Applications (1)

Application Number Title Priority Date Filing Date
TW104106646A TWI553508B (zh) 2015-03-03 2015-03-03 物件感測裝置與方法

Country Status (3)

Country Link
US (1) US10627917B2 (zh)
CN (1) CN106033250B (zh)
TW (1) TWI553508B (zh)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
TWI780816B (zh) * 2020-07-16 2022-10-11 仁寶電腦工業股份有限公司 電子裝置以及操作方法
TWI794995B (zh) * 2021-09-24 2023-03-01 美商海盜船記憶體股份有限公司 具有複數向量偵測模組的滑鼠裝置

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11287874B2 (en) 2018-11-17 2022-03-29 Novarad Corporation Using optical codes with augmented reality displays
US11237627B2 (en) 2020-01-16 2022-02-01 Novarad Corporation Alignment of medical images in augmented reality displays
US11727719B2 (en) 2020-08-28 2023-08-15 Stmicroelectronics, Inc. System and method for detecting human presence based on depth sensing and inertial measurement
US12016633B2 (en) 2020-12-30 2024-06-25 Novarad Corporation Alignment of medical images in augmented reality displays
US11948265B2 (en) 2021-11-27 2024-04-02 Novarad Corporation Image data set alignment for an AR headset using anatomic structures and data fitting
EP4400944A1 (en) * 2023-01-12 2024-07-17 ameria AG Touchless user interface control method, system, computer program and computer-readable medium, based on a mobile device
WO2024149713A1 (en) * 2023-01-12 2024-07-18 Ameria Ag Touchless user interface control method based on a handheld device

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
TW201118690A (en) * 2009-11-24 2011-06-01 Pixart Imaging Inc Optical touch device and locating method thereof
TW201337511A (zh) * 2011-12-02 2013-09-16 Intel Corp 用於筆記型電腦轉樞感測器之技術
US20130293477A1 (en) * 2012-05-03 2013-11-07 Compal Electronics, Inc. Electronic apparatus and method for operating the same
CN103729054A (zh) * 2012-10-10 2014-04-16 三星电子株式会社 多显示设备及其控制方法

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9213365B2 (en) * 2010-10-01 2015-12-15 Z124 Method and system for viewing stacked screen displays using gestures
WO2005091117A1 (ja) * 2004-03-22 2005-09-29 Nintendo Co., Ltd. 情報処理装置、情報処理プログラム、情報処理プログラムを記憶した記憶媒体およびウインドウ制御方法
US8305363B2 (en) 2008-10-10 2012-11-06 Pixart Imaging Sensing system and locating method thereof
US9189068B2 (en) * 2011-03-14 2015-11-17 Lg Electronics Inc. Apparatus and a method for gesture recognition

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
TW201118690A (en) * 2009-11-24 2011-06-01 Pixart Imaging Inc Optical touch device and locating method thereof
TW201337511A (zh) * 2011-12-02 2013-09-16 Intel Corp 用於筆記型電腦轉樞感測器之技術
US20130293477A1 (en) * 2012-05-03 2013-11-07 Compal Electronics, Inc. Electronic apparatus and method for operating the same
CN103729054A (zh) * 2012-10-10 2014-04-16 三星电子株式会社 多显示设备及其控制方法

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
TWI780816B (zh) * 2020-07-16 2022-10-11 仁寶電腦工業股份有限公司 電子裝置以及操作方法
TWI794995B (zh) * 2021-09-24 2023-03-01 美商海盜船記憶體股份有限公司 具有複數向量偵測模組的滑鼠裝置

Also Published As

Publication number Publication date
TW201633061A (zh) 2016-09-16
US20160259428A1 (en) 2016-09-08
CN106033250B (zh) 2019-08-02
CN106033250A (zh) 2016-10-19
US10627917B2 (en) 2020-04-21

Similar Documents

Publication Publication Date Title
TWI553508B (zh) 物件感測裝置與方法
US20190235636A1 (en) Systems and Methods of Creating a Realistic Displacement of a Virtual Object in Virtual Reality/Augmented Reality Environments
TWI492146B (zh) 以組合資料爲基礎之虛擬手
TWI454968B (zh) 三維互動裝置及其操控方法
US8933882B2 (en) User centric interface for interaction with visual display that recognizes user intentions
Murugappan et al. Extended multitouch: recovering touch posture and differentiating users using a depth camera
JP6539816B2 (ja) 1つのシングル・センシング・システムを使用したマルチ・モーダル・ジェスチャー・ベースの対話型のシステム及び方法
KR101524575B1 (ko) 웨어러블 디바이스
US9367951B1 (en) Creating realistic three-dimensional effects
US20140354602A1 (en) Interactive input system and method
US20150220158A1 (en) Methods and Apparatus for Mapping of Arbitrary Human Motion Within an Arbitrary Space Bounded by a User's Range of Motion
US20080244468A1 (en) Gesture Recognition Interface System with Vertical Display
WO2011146070A1 (en) System and method for reporting data in a computer vision system
US20170177077A1 (en) Three-dimension interactive system and method for virtual reality
US11640198B2 (en) System and method for human interaction with virtual objects
Nguyen et al. 3DTouch: A wearable 3D input device for 3D applications
US9377866B1 (en) Depth-based position mapping
TWI533179B (zh) 光學觸控系統、觸控偵測方法及電腦程式產品
TWM485448U (zh) 影像式虛擬互動裝置
TWI471757B (zh) 懸浮及點擊手勢偵測裝置
TWI493382B (zh) 懸浮及點擊手勢偵測裝置
KR101535738B1 (ko) 비접촉 동작 제어가 가능한 스마트 디바이스 및 이를 이용한 비접촉 동작 제어 방법
Zhang et al. Near-field touch interface using time-of-flight camera
TWI444875B (zh) 多點觸碰輸入裝置及其使用單點觸控感應板與影像感測器之資料融合之介面方法
TWI446214B (zh) Remote control system based on user action and its method