TWI697810B - 具備手勢感測功能之三維顯示器 - Google Patents
具備手勢感測功能之三維顯示器 Download PDFInfo
- Publication number
- TWI697810B TWI697810B TW107115893A TW107115893A TWI697810B TW I697810 B TWI697810 B TW I697810B TW 107115893 A TW107115893 A TW 107115893A TW 107115893 A TW107115893 A TW 107115893A TW I697810 B TWI697810 B TW I697810B
- Authority
- TW
- Taiwan
- Prior art keywords
- gesture
- infrared sensors
- groups
- screen
- centroid
- Prior art date
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/017—Gesture based interaction, e.g. based on a set of recognized hand gestures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/0304—Detection arrangements using opto-electronic means
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0481—Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
- G06F3/04815—Interaction with a metaphor-based environment or interaction object displayed as three-dimensional, e.g. changing the user viewpoint with respect to the environment or object
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T19/00—Manipulating 3D models or images for computer graphics
- G06T19/20—Editing of 3D images, e.g. changing shapes or colours, aligning objects or positioning parts
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/50—Depth or shape recovery
- G06T7/521—Depth or shape recovery from laser ranging, e.g. using interferometry; from the projection of structured light
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/20—Movements or behaviour, e.g. gesture recognition
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10048—Infrared image
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2219/00—Indexing scheme for manipulating 3D models or images for computer graphics
- G06T2219/20—Indexing scheme for editing of 3D models
- G06T2219/2016—Rotation, translation, scaling
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Human Computer Interaction (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Multimedia (AREA)
- Architecture (AREA)
- Computer Graphics (AREA)
- Computer Hardware Design (AREA)
- Software Systems (AREA)
- Optics & Photonics (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Psychiatry (AREA)
- Social Psychology (AREA)
- User Interface Of Digital Computer (AREA)
Abstract
三維顯示器包含螢幕、第一和第二偵測單元,以及處理電路。第一偵測單元包含多組第一紅外線感測器,設置於螢幕之上方。第二偵測單元包含多組第二紅外線感測器,設置於螢幕之下方。處理電路接收多組第一和第二紅外線感測器之光學訊號以提供第一和第二偵測單元之掃描區域所得之資料、依據第一和第二偵測單元之掃描區域所得之資料判斷是否偵測到一手勢、計算手勢之一個或多個形心的位置、依據一個或多個形心之移動資訊來辨識出手勢類型,且依據手勢之類型指示螢幕以對應手勢之方式顯示三維物件。
Description
本發明相關於一種具備手勢感測功能之三維顯示器,尤指一種低成本、低耗能且體積小的具備手勢感測功能之三維顯示器。
目前遠距感測技術使用非接觸式的量測顯像,常見的有微波(microwave)、聲波(acoustic Wave)、紅外線(Infrared)、雷射(lLaser)、立體視覺法(stereoscopic)等,這些大都屬於三角測距(triangulation)的應用。三維(3D)顯示器搭配手勢感測的互動概念雖然早已提出,但一直無法大量販售,主要原因之一在於手勢感測的攝影機感測元件體積龐大,耗電量大,且往往價格昂貴,不適合安裝在一般的筆記型電腦、桌上型電腦,或可攜式電子裝置上。
因此,需要一種低成本、低耗能且體積小的具備手勢感測功能之3D顯示器。
本發明提供一種能具備手勢感測功能之三維顯示器,其包含一螢幕、一第一偵測單元、一第二偵測單元,以及一處理電路。該螢幕用來顯示一三維物件。該第一偵測單元包含M組第一紅外線感測器,設置於該螢幕之上方,
其中M為大於1之整數。該第二偵測單元包含N組第二紅外線感測器,設置於該螢幕之下方,其中M為大於1之整數。該處理電路用來接收該M組第一紅外線感測器和該N組第二紅外線感測器之光學訊號,進而提供該M組第一紅外線感測器之掃描區域所得之資料和該N組第二紅外線感測器之掃描區域所得之資料、依據該M組第一紅外線感測器之掃描區域所得之資料和該N組第二紅外線感測器之掃描區域所得之資料判斷是否偵測到一手勢、計算該手勢之一個或多個形心的位置、依據該一個或多個形心之移動資訊來辨識出該手勢之類型,且依據該手勢之類型指示該螢幕以對應該手勢之方式顯示該三維物件。
10:第一偵測單元
20:第二偵測單元
30:螢幕
40:處理電路
50:掃描區域
80:手掌
100:3D顯示器
A~H:掃描區域
A1~H1:有效掃描範圍
A0~H0:濾除掃描範圍
S1~S16:子區域
P1~P4、Q1~Q3:形心座標
SRU1~SRUM、SRD1~SRDN:紅外線感測器
第1圖為本發明實施例中一種具備手勢感測功能之3D顯示器的功能方塊圖。
第2圖為本發明實施例中3D顯示器的示意圖。
第3A~3D圖顯示了本發明實施例中第一偵測單元運作時之示意圖。
第4A~4D圖為本發明實施例中第二偵測單元運作時之示意圖。
第5圖為本發明實施例中第一偵測單元和第二偵測單元之掃描區域的示意圖。
第6圖和第7圖為本發明實施例中第一偵測單元和第二偵測單元之掃描方式的示意圖。
第8圖為本發明實施例中第一偵測單元和第二偵測單元運作時之示意圖。
第9A~9D圖為本發明實施例中第一偵測單元和第二偵測單元偵測手勢時之示意圖。
第10A~10D圖為本發明實施例中第一偵測單元和第二偵測單元偵測手勢時之示意圖。
第11A~11D圖為本發明實施例中第一偵測單元和第二偵測單元偵測手勢時之示
意圖。
第1圖為本發明實施例中一種具備手勢感測功能之3D顯示器100的功能方塊圖。3D顯示器100包含一第一偵測單元10、一第二偵測單元20、一螢幕30,以及一處理電路40。第一偵測單元10包含複數組紅外線感測器(IR sensor)SRU1~SRUM,第二偵測單元20包含複數組紅外線感測器SRD1~SRDN,其中M和N為大於1之整數。處理電路40可依據第一偵測單元10之掃描區域所得之資料和第一偵測單元10之掃描區域所得之資料判斷是否偵測到一手勢、判斷手勢的類型,再依此指示螢幕30以對應手勢之方式顯示物件。
在本發明中,3D顯示器100可為筆記型電腦、桌上型電腦、電視,或可攜式電子裝置等具備顯示功能之裝置。然而,3D顯示器100之種類並不限定本發明之範疇。
在本發明中,處理電路40可以採用處理器或特殊應用積體電路(application-specific integrated circuit,ASIC)等電路元件來實施。然而,處理電路30之實施方式並不限定本發明之範疇。
第2圖為本發明實施例中3D顯示器100的示意圖。為了說明目的,第2圖顯示了M=N=4時之實施例,然而M和N之值並不限定本發明之範疇。在第2圖所示之3D顯示器100中,第一偵測單元10之紅外線感測器SRU1~SRU4設置於螢幕30之上方,第二偵測單元20之紅外線感測器SRD1~SRD4設置於螢幕30之下方。
本發明之3D顯示器100採用時差測距之技術來提供手勢感測功能。由第一偵測單元10之和第二偵測單元20內之紅外線感測器發射紅外線光束,紅外線光束打到物體表面後反射,再接收訊號並記錄時間。由於光速為一已知條件,紅外線光束訊號往返一趟的時間即可換算為訊號所行走的距離,進而得知物體的位置。
第3A~3D圖顯示了本發明實施例中第一偵測單元10運作時之示意圖。第3A圖之左方顯示了第一偵測單元10中紅外線感測器SRU1之掃描區域A的正視圖,而第3A圖之右方顯示了第一偵測單元10中紅外線感測器SRU1之掃描區域A的上視圖。第3B圖之左方顯示了第一偵測單元10中紅外線感測器SRU2之掃描區域B的正視圖,而第3B圖之右方顯示了第一偵測單元10中紅外線感測器SRU2之掃描區域B的上視圖。第3C圖之左方顯示了第一偵測單元10中紅外線感測器SRU3之掃描區域C的正視圖,而第3C圖之右方顯示了第一偵測單元10中紅外線感測器SRU3之掃描區域C的上視圖。第3D圖之左方顯示了第一偵測單元10中紅外線感測器SRU4之掃描區域D的正視圖,而第3D圖之右方顯示了第一偵測單元10中紅外線感測器SRU4之掃描區域D的上視圖。在第3A~3D圖所示之實施例中,掃描區域A~D為螢幕30前之方錐範圍,然而掃描區域A~D之形狀並不限定本發明之範疇。
在本發明中,處理電路40可將第一偵測單元10中每一紅外線感測器之掃描區域所得之資料分別濾除預設區域內之資料,以分別得到每一紅外線感測器之感測區域影像。更詳細地說,紅外線感測器SRU1之掃描區域A包含一有效掃描範圍A1和一濾除掃描範圍A0,紅外線感測器SRU2之掃描區域B包含一有效掃描範圍B1和一濾除掃描範圍B0,紅外線感測器SRU3之掃描區域C包含一有效掃描範圍C1和一濾除掃描範圍C0,而紅外線感測器SRU4之掃描區域D包含一有效
掃描範圍D1和一濾除掃描範圍D0。紅外線感測器SRU1~SRU4之感測區域影像分別為有效掃描範圍A1~D1內所得之資料。在本發明一實施例中,有效掃描範圍A1~D1彼此之間並未有交集。
第4A~4D圖顯示了本發明實施例中第二偵測單元20運作時之示意圖。第4A圖之左方顯示了第二偵測單元20中紅外線感測器SRD1之掃描區域E的後視圖,而第4A圖之右方顯示了第二偵測單元20中紅外線感測器SRD1之掃描區域E的上視圖。第4B圖之左方顯示了第二偵測單元20中紅外線感測器SRD2之掃描區域F的後視圖,而第4B圖之右方顯示了第二偵測單元20中紅外線感測器SRD2之掃描區域F的上視圖。第4C圖之左方顯示了第二偵測單元20中紅外線感測器SRD3之掃描區域G的後視圖,而第4C圖之右方顯示了第二偵測單元20中紅外線感測器SRD3之掃描區域G的上視圖。第4D圖之左方顯示了第二偵測單元20中紅外線感測器SRD4之掃描區域H的後視圖,而第4D圖之右方顯示了第二偵測單元20中紅外線感測器SRD4之掃描區域H的上視圖。在第4A~4D圖所示之實施例中,掃描區域E~H為螢幕30前之方錐範圍,然而掃描區域E~H之形狀並不限定本發明之範疇。
在本發明中,處理電路40可將第二偵測單元20中每一紅外線感測器之掃描區域所得之資料分別濾除預設區域內之資料,以分別得到每一紅外線感測器之感測區域影像。更詳細地說,紅外線感測器SRD1之掃描區域E包含一有效掃描範圍E1和一濾除掃描範圍E0,紅外線感測器SRD2之掃描區域F包含一有效掃描範圍F1和一濾除掃描範圍F0,紅外線感測器SRD3之掃描區域G包含一有效掃描範圍G1和一濾除掃描範圍G0,而紅外線感測器SRD4之掃描區域H包含一有效掃描範圍H1和一濾除掃描範圍H0。紅外線感測器SRD1~SRD4之感測區域影像分別為有效掃描範圍E1~H1內所得之資料。在本發明一實施例中,有效掃描範圍E1~H1
彼此之間並未有交集。
在本發明中,每一掃描區域之有效掃描範圍和濾除掃描範圍的大小可由M和N之值來決定。第5圖顯示了第一偵測單元10和第二偵測單元20之掃描區域50,其面積相關於顯示器30之面積。針對上述M=N=4時之實施例,掃描區域50包含16個子區域S1~S16,其中每一子區域內為第一偵測單元10中一紅外線感測器之感測區域影像和第二偵測單元20中一紅外線感測器之感測區域影像之聯集。換句話說,當處理電路40依據第一偵測單元10和第二偵測單元20之所得之資料判斷偵測到一手勢時,手勢的形心移動可由第一偵測單元10中一相對應紅外線感測器和第二偵測單元20中一相對應紅外線感測器來偵測。舉例來說,子區域S4內之形心移動資訊係由第一偵測單元10之紅外線感測器SRU1和第二偵測單元20之紅外線感測器SRD4來監控,子區域S11內形心移動資訊係由第一偵測單元10之紅外線感測器SRU2和第二偵測單元20之紅外線感測器SRD2來監控。
第6圖和第7圖為本發明實施例中第一偵測單元10和第二偵測單元20掃描方式之示意圖。在第6圖所示之實施例中,圖框1內第一偵測單元10之紅外線感測器SRU1取得有效掃描範圍A1內之資料而第二偵測單元20之紅外線感測器SRD1取得有效掃描範圍E1內之資料,圖框2內第一偵測單元10之紅外線感測器SRU2取得有效掃描範圍B1內之資料而第二偵測單元20之紅外線感測器SRD2取得有效掃描範圍F1內之資料,圖框3內第一偵測單元10之紅外線感測器SRU3取得有效掃描範圍C1內之資料而第二偵測單元20之紅外線感測器SRD3取得有效掃描範圍E1內之資料,圖框4內第一偵測單元10之紅外線感測器SRU4取得有效掃描範圍D1內之資料而第二偵測單元20之紅外線感測器SRD4取得有效掃描範圍H1內之資料。在第7圖所示之實施例中,圖框1內第一偵測單元10之紅外線感測器
SRU1~SRU4會分別取得有效掃描範圍A1、B1、C1和D1之資料,而圖框2內第二偵測單元20之紅外線感測器SRD1~SRD4會分別取得有效掃描範圍E1、F1、G1和H1之資料。然而,第一偵測單元10和第二偵測單元20之掃描方式並不限定本發明之範疇。
第8圖為本發明實施例中第一偵測單元10和第二偵測單元20運作時之示意圖。假設在使用者的手掌80出現在掃描區域50內,第一偵測單元10和第二偵測單元20可偵測到4個形心座標P1~P4,其中位於子區域S4內之形心座標P1是來自第一偵測單元10之紅外線感測器SRU1之效掃描範圍A1資料和第二偵測單元20之紅外線感測器SRD4之有效掃描範圍H1資料,位於子區域S8內之形心座標P2是來自第一偵測單元10之紅外線感測器SRU1之效掃描範圍A1資料和第二偵測單元20之紅外線感測器SRD3有效掃描範圍G1資料,位於子區域7內之形心座標P3是來自第一偵測單元10之紅外線感測器SRU2之效掃描範圍B1資料和第二偵測單元20之紅外線感測器SRD3之有效掃描範圍G1資料,而位於子區域S11內之形心座標P4是來自第一偵測單元10之紅外線感測器SRU2之效掃描範圍B1資料和第二偵測單元20之紅外線感測器SRD2之有效掃描範圍F1資料。
第9A~9D圖為本發明實施例中第一偵測單元10和第二偵測單元20偵測手勢時之示意圖。第9A和9B圖依序顯示了使用者手掌80在下達抓取手勢時的過程,其中在第9A圖所示的初始狀態下第一偵測單元10和第二偵測單元20偵測到第一至第三形心之座標P1~P3,而在第9B圖所示的結束狀態下第一偵測單元10和第二偵測單元20偵測到第一至第三形心之座標Q1~Q3。依據形心座標P1~P3和Q1~Q3之位置變化,處理電路40可判斷出各形心之移動方向,其中第一形心和第二形心彼此接近,而第三形心遠離螢幕30移動,如第9C圖中之箭頭所示。依據
各形心之移動方向,處理電路40可判斷出使用者手掌80在下達抓取手勢,進而依此指示螢幕30相對地顯示物件被抓取時的按壓狀態,如第9D圖所示。
第10A~10D圖為本發明實施例中第一偵測單元10和第二偵測單元20偵測手勢時之示意圖。第10A和10B圖依序顯示了使用者手掌80在下達轉動手勢時的過程,其中在第10A圖所示的初始狀態下第一偵測單元10和第二偵測單元20偵測到第一和第二形心之座標座標P1~P2,而在第10B圖所示的結束狀態下第一偵測單元10和第二偵測單元20偵測到第一和第二形心之座標Q1~Q2。依據形心座標P1~P2和Q1~Q2之位置變化,處理電路40可判斷出各形心之移動方向,其中第一形心和第二形心彼此之間的距離不變,第一形心遠離螢幕30移動,且第二形心接近螢幕30移動,如第10C圖中之箭頭所示。依據各形心之移動方向,處理電路40可判斷出使用者手掌80在下達轉動手勢,進而依此指示螢幕30顯示物件依手勢方向M1被旋轉的狀態,如第10D圖所示。
第11A~11D圖為本發明實施例中第一偵測單元10和第二偵測單元20偵測手勢時之示意圖。第11A~11B圖依序顯示了使用者手掌80在下達移動手勢時的過程,其中在第11A圖所示的初始狀態下第一偵測單元10和第二偵測單元20偵測到第一形心之座標P1,而在第11B圖所示的結束狀態下第一偵測單元10和第二偵測單元20偵測到第一形心之座標Q1。依據形心座標P1和Q1之位置變化,處理電路40可判斷出各形心之移動方向,其中第一形心和螢幕30之間的距離不變,但由螢幕30之一側移至另一側,如第11C圖中之箭頭所示。依據各形心之移動方向,處理電路40可判斷出使用者手掌80在下達移動手勢,進而依此指示螢幕30顯示物件依手勢方向M1被移動的狀態,如第11D圖所示。
綜上所述,本發明之3D顯示器使用低成本、低耗能且體積小的紅外線感測器來偵測手勢的位置,再搭配複數組紅外線感測器之位置和分時掃描的設計,將相關於顯示器面積之掃描區域分為複數個子區域以辨識手勢的移動資訊,進而判斷出手勢種類以指示螢幕以對應手勢之方式顯示物件。
以上所述僅為本發明之較佳實施例,凡依本發明申請專利範圍所做之均等變化與修飾,皆應屬本發明之涵蓋範圍。
10:第一偵測單元
20:第二偵測單元
30:螢幕
100:3D顯示器
SRU1~SRU4、SRD1~SRD4:紅外線感測器
Claims (8)
- 一種能具備手勢感測功能之三維顯示器,其包含:一螢幕,用來顯示一三維物件;一第一偵測單元,其包含M組第一紅外線感測器,設置於該螢幕之上方,其中M為大於1之整數,且該M組第一紅外線感測器之掃描區域為該螢幕前之一第一方錐範圍;一第二偵測單元,其包含N組第二紅外線感測器,設置於該螢幕之下方,其中N為大於1之整數,且該N組第二紅外線感測器之掃描區域為該螢幕前之一第二方錐範圍;以及一處理電路,用來:接收該M組第一紅外線感測器和該N組第二紅外線感測器之光學訊號,進而提供該M組第一紅外線感測器之掃描區域所得之資料和該N組第二紅外線感測器之掃描區域所得之資料;依據該M組第一紅外線感測器之掃描區域所得之資料和該N組第二紅外線感測器之掃描區域所得之資料判斷是否偵測到一手勢;計算該手勢之一個或多個形心的位置;依據該一個或多個形心之移動資訊來辨識出該手勢之類型;且依據該手勢之類型指示該螢幕以對應該手勢之方式顯示該三維物件。
- 一種能具備手勢感測功能之三維顯示器,其包含:一螢幕,用來顯示一三維物件;一第一偵測單元,其包含M組第一紅外線感測器,設置於該螢幕之上方,其中M為大於1之整數;一第二偵測單元,其包含N組第二紅外線感測器,設置於該螢幕之下方,其 中N為大於1之整數;以及一處理電路,用來:接收該M組第一紅外線感測器和該N組第二紅外線感測器之光學訊號,進而提供該M組第一紅外線感測器之掃描區域所得之資料和該N組第二紅外線感測器之掃描區域所得之資料;依據該M組第一紅外線感測器之掃描區域所得之資料和該N組第二紅外線感測器之掃描區域所得之資料判斷是否偵測到一手勢;將該M組第一紅外線感測器之掃描區域所得之資料分別濾除M個預設區域內之資料以分別得到該M組第一紅外線感測器之M個感測區域影像;將該N組第二紅外線感測器之掃描區域所得之資料分別濾除N個預設區域內之資料以分別得到該N組第二紅外線感測器之N個感測區域影像;取得該M組第一紅外線感測器中每一第一紅外線感測器之感測區域影像和該N組第二紅外線感測器中每一第二紅外線感測器之感測區域影像之聯集以得到MxN個子區域;當偵測到該手勢時,依據該手勢出現在該MxN個子區域中的一個或多個子區域以計算出該一個或多個形心的位置;依據該一個或多個形心之移動資訊來辨識出該手勢之類型;以及依據該手勢之類型指示該螢幕以對應該手勢之方式顯示該三維物件。
- 如請求項2所述之三維顯示器,其中該M組第一紅外線感測器之M個感測區域影像彼此之間並未有交集,且該N組第二紅外線感測器之N個感測區域影像彼此之間並未有交集。
- 一種能具備手勢感測功能之三維顯示器,其包含:一螢幕,用來顯示一三維物件;一第一偵測單元,其包含M組第一紅外線感測器,設置於該螢幕之上方,其中M為大於1之整數,而該M組第一紅外線感測器係在一第一圖框內進行掃描;一第二偵測單元,其包含N組第二紅外線感測器,設置於該螢幕之下方,其中N為大於1之整數,而該N組第二紅外線感測器係在一第二圖框內進行掃描;以及一處理電路,用來:接收該M組第一紅外線感測器和該N組第二紅外線感測器之光學訊號,進而提供該M組第一紅外線感測器之掃描區域所得之資料和該N組第二紅外線感測器之掃描區域所得之資料;依據該M組第一紅外線感測器之掃描區域所得之資料和該N組第二紅外線感測器之掃描區域所得之資料判斷是否偵測到一手勢;計算該手勢之一個或多個形心的位置;依據該一個或多個形心之移動資訊來辨識出該手勢之類型;且依據該手勢之類型指示該螢幕以對應該手勢之方式顯示該三維物件。
- 一種能具備手勢感測功能之三維顯示器,其包含:一螢幕,用來顯示一三維物件;一第一偵測單元,其包含M組第一紅外線感測器,設置於該螢幕之上方,其中M為大於1之整數,而該M組第一紅外線感測器係依序在一第一圖框至一第M圖框內進行掃描; 一第二偵測單元,其包含N組第二紅外線感測器,設置於該螢幕之下方,其中N為大於1之整數,該N組第二紅外線感測器係依序在一第一圖框至一第N圖框內進行掃描,且M=N;以及一處理電路,用來:接收該M組第一紅外線感測器和該N組第二紅外線感測器之光學訊號,進而提供該M組第一紅外線感測器之掃描區域所得之資料和該N組第二紅外線感測器之掃描區域所得之資料;依據該M組第一紅外線感測器之掃描區域所得之資料和該N組第二紅外線感測器之掃描區域所得之資料判斷是否偵測到一手勢;計算該手勢之一個或多個形心的位置;依據該一個或多個形心之移動資訊來辨識出該手勢之類型;且依據該手勢之類型指示該螢幕以對應該手勢之方式顯示該三維物件。
- 如請求項1至5中任一項所述之三維顯示器,其中:當偵測到該手勢且計算出該手勢之一第一形心、一第二形心和一第三形心之位置時,判斷該第一形心、該第二形心和該第三形心之移動方向;當判斷該第一形心和該第三形心彼此接近,且該第二形心遠離該螢幕移動時,判斷該手勢為一抓取手勢;且該第二型心之位置位於該第一形心和該第三形心之間。
- 如請求項1至5中任一項所述之三維顯示器,其中:當偵測到該手勢且計算出該手勢之一第一形心和一第二形心之位置時,判斷該第一形心和該第二形心之移動方向;且當判斷該第一形心和該第二形心彼此之間的距離不變,該第一形心遠離該 螢幕移動,且該第二形心接近該螢幕移動時,判斷該手勢為一旋轉手勢。
- 如請求項1至5中任一項所述之三維顯示器,其中:當偵測到該手勢且計算出該手勢之一第一形心之位置時,判斷該第一形心之移動方向;且當判斷該第一形心和該螢幕之間的距離不變,但由該螢幕之一側移至另一側時,判斷該手勢為一移動手勢。
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
TW107115893A TWI697810B (zh) | 2018-05-10 | 2018-05-10 | 具備手勢感測功能之三維顯示器 |
US16/034,363 US10444853B1 (en) | 2018-05-10 | 2018-07-13 | 3D display with gesture recognition function |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
TW107115893A TWI697810B (zh) | 2018-05-10 | 2018-05-10 | 具備手勢感測功能之三維顯示器 |
Publications (2)
Publication Number | Publication Date |
---|---|
TW201947356A TW201947356A (zh) | 2019-12-16 |
TWI697810B true TWI697810B (zh) | 2020-07-01 |
Family
ID=68165184
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
TW107115893A TWI697810B (zh) | 2018-05-10 | 2018-05-10 | 具備手勢感測功能之三維顯示器 |
Country Status (2)
Country | Link |
---|---|
US (1) | US10444853B1 (zh) |
TW (1) | TWI697810B (zh) |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20100225584A1 (en) * | 2008-06-08 | 2010-09-09 | John Cauchi | Silent or loud 3d infrared futuristic computer mice and keyboard design for a mice&keyboard less computer |
US20100295772A1 (en) * | 2009-05-22 | 2010-11-25 | Alameh Rachid M | Electronic Device with Sensing Assembly and Method for Detecting Gestures of Geometric Shapes |
US20100295773A1 (en) * | 2009-05-22 | 2010-11-25 | Rachid Alameh | Electronic device with sensing assembly and method for interpreting offset gestures |
TW201344597A (zh) * | 2012-04-23 | 2013-11-01 | O2Micro Inc | 顯示裝置控制方法、控制器及多媒體系統 |
TW201610750A (zh) * | 2014-09-03 | 2016-03-16 | Liquid3D Solutions Ltd | 可與3d影像互動之手勢控制系統 |
TWI552021B (zh) * | 2011-12-23 | 2016-10-01 | 英特爾股份有限公司 | 使用三維操控命令手勢的運算系統 |
TWI619045B (zh) * | 2013-07-10 | 2018-03-21 | 惠普發展公司有限責任合夥企業 | 判定相對位置的感測器及標籤 |
Family Cites Families (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US7928654B2 (en) | 2003-08-29 | 2011-04-19 | Semiconductor Energy Laboratory Co., Ltd. | Display device and method for manufacturing the same |
US20140078318A1 (en) * | 2009-05-22 | 2014-03-20 | Motorola Mobility Llc | Electronic Device with Sensing Assembly and Method for Interpreting Consecutive Gestures |
US9886116B2 (en) * | 2012-07-26 | 2018-02-06 | Apple Inc. | Gesture and touch input detection through force sensing |
KR102173110B1 (ko) * | 2014-05-07 | 2020-11-02 | 삼성전자주식회사 | 웨어러블 디바이스 및 그 제어 방법 |
-
2018
- 2018-05-10 TW TW107115893A patent/TWI697810B/zh active
- 2018-07-13 US US16/034,363 patent/US10444853B1/en active Active
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20100225584A1 (en) * | 2008-06-08 | 2010-09-09 | John Cauchi | Silent or loud 3d infrared futuristic computer mice and keyboard design for a mice&keyboard less computer |
US20100295772A1 (en) * | 2009-05-22 | 2010-11-25 | Alameh Rachid M | Electronic Device with Sensing Assembly and Method for Detecting Gestures of Geometric Shapes |
US20100295773A1 (en) * | 2009-05-22 | 2010-11-25 | Rachid Alameh | Electronic device with sensing assembly and method for interpreting offset gestures |
TWI552021B (zh) * | 2011-12-23 | 2016-10-01 | 英特爾股份有限公司 | 使用三維操控命令手勢的運算系統 |
TW201344597A (zh) * | 2012-04-23 | 2013-11-01 | O2Micro Inc | 顯示裝置控制方法、控制器及多媒體系統 |
TWI619045B (zh) * | 2013-07-10 | 2018-03-21 | 惠普發展公司有限責任合夥企業 | 判定相對位置的感測器及標籤 |
TW201610750A (zh) * | 2014-09-03 | 2016-03-16 | Liquid3D Solutions Ltd | 可與3d影像互動之手勢控制系統 |
Also Published As
Publication number | Publication date |
---|---|
US10444853B1 (en) | 2019-10-15 |
TW201947356A (zh) | 2019-12-16 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US8971565B2 (en) | Human interface electronic device | |
KR102335132B1 (ko) | 하나의 단일 감지 시스템을 이용하는 멀티 모드 제스처 기반의 상호작용 시스템 및 방법 | |
US8415958B2 (en) | Single layer capacitive image sensing | |
WO2018126682A1 (zh) | 用于在虚拟现实系统中提供触觉反馈的方法及装置 | |
US8902202B2 (en) | Method and apparatus for sensing an input object relative to a sensing region of an ultrasound sensor device | |
US20110199335A1 (en) | Determining a Position of an Object Using a Single Camera | |
US8508508B2 (en) | Touch screen signal processing with single-point calibration | |
US20150015528A1 (en) | Hybrid capacitive image determination and use | |
CN102741782A (zh) | 用于位置探测的方法和系统 | |
US20120319945A1 (en) | System and method for reporting data in a computer vision system | |
US9772725B2 (en) | Hybrid sensing to reduce latency | |
US20240144727A1 (en) | Multiview depth-sensing wearable device | |
KR101105872B1 (ko) | 적외선 카메라와 모니터를 이용한 손 인식 방법 및 장치 | |
US10521052B2 (en) | 3D interactive system | |
TWI697810B (zh) | 具備手勢感測功能之三維顯示器 | |
TWI454653B (zh) | 三維絕對座標偵測系統、互動三維顯示系統以及辨識物體之三維座標的方法 | |
JP5658618B2 (ja) | 操作入力装置、プログラム | |
CN110502095B (zh) | 具备手势感测功能的三维显示器 | |
JP6643825B2 (ja) | 装置及び方法 | |
TWI444875B (zh) | 多點觸碰輸入裝置及其使用單點觸控感應板與影像感測器之資料融合之介面方法 | |
TWI543047B (zh) | 光學式觸控面板 | |
TW201419087A (zh) | 微體感偵測模組及其微體感偵測方法 | |
CN202404557U (zh) | 一种基于图像处理技术的虚拟触摸屏系统 | |
Stodle et al. | Tech-note: Device-free interaction spaces | |
Pullan et al. | High Resolution Touch Screen Module |