TW201500968A - 三維互動系統及其互動感測方法 - Google Patents

三維互動系統及其互動感測方法 Download PDF

Info

Publication number
TW201500968A
TW201500968A TW102122212A TW102122212A TW201500968A TW 201500968 A TW201500968 A TW 201500968A TW 102122212 A TW102122212 A TW 102122212A TW 102122212 A TW102122212 A TW 102122212A TW 201500968 A TW201500968 A TW 201500968A
Authority
TW
Taiwan
Prior art keywords
area
sensing
display
image information
processing unit
Prior art date
Application number
TW102122212A
Other languages
English (en)
Inventor
Yi-Wen Chen
Chieh-Yu Lin
Original Assignee
Utechzone Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Utechzone Co Ltd filed Critical Utechzone Co Ltd
Priority to TW102122212A priority Critical patent/TW201500968A/zh
Priority to CN201310334578.6A priority patent/CN104238734A/zh
Priority to US14/155,362 priority patent/US20140375777A1/en
Priority to KR1020140019856A priority patent/KR20140148288A/ko
Publication of TW201500968A publication Critical patent/TW201500968A/zh

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/14Digital output to display device ; Cooperation and interconnection of the display device with other functional units
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/042Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/041Indexing scheme relating to G06F3/041 - G06F3/045
    • G06F2203/041012.5D-digitiser, i.e. digitiser detecting the X/Y position of the input means, finger or stylus, also when it does not touch, but is proximate to the digitiser's interaction surface and also measures the distance of the input means within a short range in the Z direction, possibly with a separate measurement setup

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • User Interface Of Digital Computer (AREA)
  • Position Input By Displaying (AREA)
  • Processing Or Creating Images (AREA)

Abstract

一種三維互動系統及其互動感測方法。所述三維互動系統包括顯示單元、取像單元以及處理單元。顯示單元用以在顯示區域上顯示畫面,其中顯示區域位於顯示面上。取像單元配置於顯示區域的周邊。取像單元沿第一方向擷取影像,並據以產生影像資訊,其中第一方向與顯示面的法線方向不互相平行。處理單元依據影像資訊來偵測物件位於感測空間的位置,並且依據所偵測到的位置執行操作功能來控制畫面的顯示內容。

Description

三維互動系統及其互動感測方法
本發明是有關於一種互動感測技術,且特別是有關於一種三維互動系統及其互動感測方法。
近年來非接觸式人機互動系統(即,三維互動系統)研究成長十分快速。相較於二維的觸控裝置而言,三維互動系統可提供更加符合使用者日常生活感受或動作的體感操作,進而令使用者可獲得較佳的操控感受。
一般而言,三維互動系統會利用深度攝影機(depth camera)或立體攝影機來擷取帶有深度資訊的影像,以藉由所擷取的深度資訊來建立三維的感測空間,因此三維互動系統得以透過偵測使用者在感測空間中的動作來執行對應的操作,以達到空間三維互動(spatial 3D interaction)的目的。
就現行的三維互動系統來說,深度攝影機或立體攝影機一般僅能以正對使用者的方向配置(即沿著顯示器的顯示方向),以使所偵測到的動作位置可與顯示畫面的位置相互對應。然而, 由於深度攝影機或立體攝影機皆有其影像擷取的最大範圍,因此使用者僅能在深度攝影機前方的特定區域內進行操控的動作。換言之,在現行的三維互動系統中,使用者無法在鄰近於顯示器的區域內進行操控的動作。
本發明提供一種三維互動系統及其互動感測方法,其可偵測使用者在鄰近於顯示區域的區域內的操控動作。
本發明的三維互動系統用於控制顯示單元的畫面的顯示內容,其中顯示單元包括用以顯示畫面的顯示區域,且顯示區域位於顯示面上。此三維互動系統包括取像單元以及處理單元。取像單元配置於顯示區域的周邊。取像單元沿第一方向擷取影像,並據以產生影像資訊,其中第一方向與顯示面的法線方向不互相平行。處理單元耦接顯示單元與取像單元,用以依據影像資訊來偵測物件位於感測空間的位置,並且依據所偵測到的位置來執行操作功能以控制畫面的顯示內容。
在本發明的一實施例中,上述第一方向與上述法線方向之間的夾角介於一角度範圍內,其中上述角度範圍是基於取像單元的鏡頭種類而決定。例如,上述角度範圍為45度至135度。
在本發明的一實施例中,上述處理單元依據校正資訊定義出關聯於顯示區域的尺寸的感測空間,其中感測空間沿顯示面的法線方向分為第一感應區以及第二感應區。
在本發明的一實施例中,上述處理單元依據影像資訊偵測物件是否進入感測空間,並且基於進入感測空間的物件獲得特徵區塊(Connected Blob)。
在本發明的一實施例中,上述處理單元判斷特徵區塊的面積是否大於預設面積,若處理單元判斷特徵區塊的面積大於預設面積,處理單元計算特徵區塊的代表座標,並且將代表座標轉換為物件相對於顯示區域的顯示座標。
在本發明的一實施例中,上述處理單元依據代表座標判斷物件位於第一感應區或該第二感應區,藉此執行對應的該操作功能。
在本發明的一實施例中,上述處理單元依據背景影像來過濾影像資訊中的非操作區域部分,並且依據過濾後的影像資訊來獲得感測空間。
在本發明的一實施例中,上述取像單元例如為深度攝影機,而所獲得的影像資訊例如為灰階圖。而處理單元會在影像資訊中判斷是否存在一漸層區塊,以將此漸層區塊濾除,並且依據過濾後的影像資訊來獲得感測空間。
本發明的互動感測方法包括以下步驟:沿第一方向連續擷取多張影像,並據以產生各影像的影像資訊,其中第一方向與一顯示面的法線方向不互相平行,且一顯示區域位於上述顯示面上以顯示一畫面;依據影像資訊偵測物件位於感測空間的位置;以及依據所偵測到的位置執行操作功能來控制畫面的顯示內容。
在本發明的一實施例中,上述第一方向與上述法線方向之間的夾角介於一角度範圍內,其中上述角度範圍是基於取像單元的鏡頭種類而決定。例如,上述角度範圍為45度至135度。
在本發明的一實施例中,在偵測物件位於感測空間的位置之前,可先依據校正資訊定義關聯於顯示區域的尺寸的感測空間,其中感測空間沿顯示面的法線方向分為第一感應區以及第二感應區。另外,在偵測物件位於感測空間的位置的步驟中,可依據影像資訊來偵測物件是否進入感測空間。並且,在偵測到物件進入感測空間時,基於進入感測空間的物件獲得特徵區塊,並判斷特徵區塊的面積是否大於預設面積。若判斷為是,計算特徵區塊的代表座標,並將代表座標轉換為物件相對於顯示區域的顯示座標。
在本發明的一實施例中,在計算特徵區塊的代表座標之後,還可依據代表座標判斷物件位於第一感應區或第二感應區,藉此執行對應的操作功能。
在本發明的一實施例中,在依據影像資訊偵測物件位於感測空間的位置之前,還包括:在獲得最初始的影像資訊之後,過濾影像資訊中的非操作區域部分,而依據過濾後的影像資訊獲得感測空間。
在本發明的一實施例中,若上述取像單元為深度攝影機,則所獲得的影像資訊為灰階圖,而在過濾影像資訊中的非操作區域部分的步驟中,可判斷是否存在漸層區塊(即,非操作區 域部分),以將漸層區塊濾除。
基於上述,本發明實施例提出一種三維互動系統及其互動感測方法。在所述三維互動系統中,其利用在顯示區域的周邊設置取像單元來擷取顯示區域附近的影像,並據以偵測物件的位置。藉此,所述三維互動系統可有效地偵測到使用者在接近顯示區域的區域內的操控動作,進而改善傳統三維互動系統之操控距離的限制,使得整體操控性得以進一步地提升。
為讓本發明的上述特徵和優點能更明顯易懂,下文特舉實施例,並配合所附圖式作詳細說明如下。
100‧‧‧三維互動系統
110‧‧‧顯示單元
120‧‧‧取像單元
130‧‧‧處理單元
40‧‧‧區塊
410‧‧‧座標選取區域
420‧‧‧點
AG‧‧‧夾角
CB‧‧‧特徵區塊
D1‧‧‧第一方向
DA‧‧‧顯示區域
DP‧‧‧顯示面
F‧‧‧物件
ND‧‧‧法線方向
SP‧‧‧感測空間
SR1‧‧‧第一感應區
SR2‧‧‧第二感應區
RC‧‧‧代表座標
RC'‧‧‧顯示座標
V‧‧‧邊界位置
S220~S240‧‧‧互動感測方法的各步驟
圖1A為本發明一實施例的三維互動系統的功能方塊示意圖。
圖1B為本發明一實施例的三維互動系統的配置示意圖。
圖2為本發明一實施例的互動感測方法的方法流程圖。
圖3為本發明另一實施例的互動感測方法的方法流程圖。
圖4A與4F為本發明一實施例的三維互動系統的操作示意圖。
本發明實施例提出一種三維互動系統及其互動感測方法。在所述三維互動系統中,其是沿顯示面之法線方向的垂直方 向擷取影像並據以偵測物件的位置,使得所述三維互動系統可有效地偵測到使用者在接近顯示畫面的區域內的操控動作。為了使本揭露之內容可以被更容易明瞭,以下特舉實施例作為本揭露確實能夠據以實施的範例。另外,凡可能之處,在圖式及實施方式中使用相同標號的元件/構件/步驟,係代表相同或類似部件。
圖1A為本發明一實施例之三維互動系統的功能方塊示意圖。圖1B為本發明一實施例之三維互動系統的配置示意圖。
在圖1A中,三維互動系統100包括取像單元120以及處理單元130。利用三維互動系統100來控制如圖1B所示的顯示單元110中的畫面顯示。顯示單元110用以在顯示區域DA上顯示畫面。上述顯示區域DA位於顯示面DP上。在本實施例中,顯示單元110可為任一類型的顯示器,例如為平面顯示器、投影顯示器或軟性顯示器(soft display)等。倘若顯示單元110為液晶顯示器(Liquid Crystal Display,LCD)或發光二極管(Light Emitting Diode,LED)等平面顯示器,則顯示面DP例如為對應於顯示器上的顯示區(display area)之平面。若顯示單元110為投影顯示器,則顯示面DP例如為對應投影畫面之投影平面。另外,若顯示單元110為軟性顯示器,則顯示面DP則會隨著顯示單元110被撓曲而成為一曲面。
取像單元120配置於顯示區域DA的周邊。取像單元120沿第一方向D1擷取影像,並據以產生影像資訊給處理單元130。而第一方向D1與顯示面DP的法線方向ND不互相平行。在此, 第一方向D1與法線方向ND之間的夾角介於一角度範圍內,其中上述角度範圍是基於取像單元120的鏡頭種類而決定。角度範圍例如為90°±θ,上述θ是根據取像單元120的鏡頭種類而決定。例如,鏡頭的廣角越大,則上述θ越大。例如,上述角度範圍為90°±45°,即,45°~135°;或者上述角度範圍為90°±30°,即60°~120°。另,第一方向D1與法線方向ND之間的夾角較佳為90度。
在本實施例中,第一方向D1實質上垂直於顯示面DP的法線方向ND。即,第一方向D1與法線方向ND的夾角AG實質上呈90度。而取像單元120例如可以是深度攝影機(depth camera)、具有多鏡頭的立體攝影機、用以建構三維影像的多個攝影機的組合或其他可偵測三維空間資訊的影像感測器。
處理單元130耦接顯示單元110與取像單元120,其中處理單元130依據取像單元120所產生的影像資訊進行影像處理與分析,藉以偵測物件F(例如手指或其他觸控媒介)的位置,並且根據物件F的位置來控制顯示單元110的畫面顯示。在本實施例中,處理單元130例如為中央處理單元(Central Processing Unit,CPU)、圖形處理單元(Graphics Processing Unit,GPU),或是其他可程式化之微處理器(Microprocessor)等裝置。
更具體地說,在圖1B實施例中,取像單元120是以配置於顯示區域DA之下側,並且沿y軸由下往上(即第一方向D1)擷取影像的配置方式為例,但本發明不以此為限。在其他實施例 中,取像單元120可配置於顯示區域DA之上側(此時是沿y軸由上往下擷取影像)、左側(此時是沿z軸由前往後擷取影像)、右側(此時是沿z軸由後往前擷取影像)或其他位於顯示區域DA周邊的位置,在此並不限制。
此外,在圖1B實施例中,第一方向D1雖然是以與顯示 面DP的法線方向ND相互垂直的方向為例,但不以此為限。例如,在其他實施例中,取像單元120可沿任何可行且與顯示面DP的法線方向ND不互相平行的第一方向D1擷取影像。舉例來說,第一方向D1可為令夾角AG呈60度至90度之區間內的任一方向。
在本實施例中,處理單元130例如是與取像單元120共同設置在同一個裝置中。由處理單元130來分析與處理取像單元120所產生的影像資訊,進而獲得物件位於感測空間的座標。之後,由上述裝置透過有線或無線傳輸的方式,將物件位於感測空間的座標傳送至與顯示單元110搭配使用的主機,而由此主機將物件位於感測空間的座標轉換為顯示單元110的座標,進而來控制顯示單元110的畫面。
而在其他實施例中,處理單元130亦可以是設置在與顯示單元110搭配使用的主機中。在取像單元120獲得影像資訊之後,透過有線或無線傳輸的方式將影像資訊傳送至主機,而由主機來分析與處理取像單元120所產生的影像資訊,進而獲得物件位於感測空間的座標,並將其轉換為顯示單元110的座標,進而來控制顯示單元110的畫面。
底下即搭配上述系統來說明互動感測方法的各步驟。圖2為本發明一實施例之互動感測方法的方法流程圖。請同時參照圖1A、圖1B及圖2。取像單元120沿第一方向D1連續擷取多張影像,並據以產生各影像的影像資訊(步驟S220)。上述第一方向D1與顯示面DP的法線方向ND不互相平行。在本實施例中,以第一方向D1垂直於顯示面DP的法線方向ND來進行說明。
接著,處理單元130會依據影像資訊偵測物件F位於感測空間的位置(步驟S230),並且,依據所偵測的位置來執行操作功能,以控制顯示於顯示區域DA上的畫面的顯示內容(步驟S240)。
底下再舉實施例來進一步說明。圖3為本發明另一實施例的互動感測方法的方法流程圖。圖4A與4F為本發明一實施例的三維互動系統的操作示意圖。在本實施例中,上述依據影像資訊偵測物件F的位置的步驟(步驟S230)可進一步地利用圖3的步驟S231~S236來實現。此外,在後述實施例中,物件F皆係以手指為例,但並不以此為限。在其他實施例中亦可以筆或其他物品來作為物件F。
在取像單元120產生影像資訊(步驟S220)之後,處理單元130可先依據校正資訊定義關聯於顯示區域DA的尺寸的感測空間SP(步驟S231),其中處理單元130所定義出的感測空間SP如圖4A與4B所示。
另外在依據影像資訊偵測物件F位於感測空間SP的位置 之前的感測空間SP的定義步驟中,處理單元130在獲得初始的影像資訊之後,可先過濾影像資訊中的非操作區域部分,再依據過濾後的影像資訊並搭配校正資訊來獲得感測空間。在此,所述非操作區域部分例如為用以配置顯示單元110或用以投影顯示畫面的牆面或支撐架等無法為使用者所使用的區域。
例如,以取像單元120為深度攝影機而言,其所獲得的 影像資訊為灰階圖。因此,處理單元130可在影像資訊中判斷是否存在一漸層區塊(即,非操作區域部分),以將此漸層區塊濾除,並且依據過濾後的影像資訊與校正資訊來定義感測空間。這是因為由於牆面、支撐架或螢幕等遮蔽物會在深度攝影機中造成一處由淺至深的漸層區塊。
另外,在其他實施例中,處理單元130也可使用去背的方法來濾除掉非操作區域部分。例如,處理單元130依據一背景影像(可事先建立於三維互動系統中)來過濾影像資訊中的非操作區域部分。上述背影影像為不包括物件F影像亦不包括牆面、支撐架或螢幕等遮蔽物的影像資訊。在過濾掉影像資訊中的非操作區域部分後,處理單元130便能夠進一步地依據校正資訊來定義出感測空間SP及其第一感應區SR1與第二感應區SR2。
在本實施例中,第二感應區SR2比第一感應區SR1還靠近顯示面DP。並且,使用者可在第一感應區SR1中執行上、下、左、右的揮動,在第二感應區SR2執行點擊(click)動作。然,在此僅為舉例說明,並不以此為限。
在一範例實施例中,所述校正資訊可例如為儲存於儲存單元(配置於三維互動系統100中,未繪示)中的預設校正資訊。 使用者可預先地根據顯示區域DA的尺寸而選擇對應的校正資訊來定義出具有對應尺寸的感測空間SP。
在另一範例實施例中,所述校正資訊亦可由使用者依據顯示區域DA的尺寸而手動地設定。例如,使用者可透過點擊顯示區域DA的四個角落的方式,而令處理單元130獲取包含四個角落位置的影像資訊,並且以這些影像資訊作為校正資訊來定義出具有對應尺寸的感測空間SP。在圖4A與圖4B中,感測空間SP與顯示單元110之間有著一小段的間距,而在其他實施例中,感測空間SP與顯示單元110之間亦可相鄰而不存在任何間距。
在定義出感測空間SP之後,處理單元130會進一步地判斷物件F是否進入感測空間SP(步驟S232)。也就是說,取像單元120持續地擷取影像,並將影像資訊傳送至處理單元130進行判斷是否有物件F進入。若處理單元130判斷有物件F進入感測空間SP,則進一步基於進入感測空間SP的物件F來獲得特徵區塊CB(步驟S233)。例如,處理單元130以區塊偵測(blob detect)演算法來找出特徵區塊CB。
在此,為了方便說明,圖4C是以取像單元120由下往上的的視角而繪示的示意圖,而圖4C並非為實際所獲得的影像資訊。請參照圖4C,在本實施例中,處理單元130並不限定僅可獲得單一特徵區塊CB。當有多個物件F(例如多根手指)同時進入 感測空間時,處理單元130亦可在影像資訊中進一步判斷是否存在有多個特徵區塊CB,藉以實現多點操控的應用。
在獲得特徵區塊CB之後,為了避免誤判斷的情形產生,處理單元130會判斷特徵區塊CB的面積是否大於預設面積(步驟S234)。在處理單元130判斷特徵區塊CB的面積大於預設面積的情況下,處理單元130會認定使用者要進行操控動作,則進一步地計算特徵區塊CB的代表座標(步驟S235)。反之,若特徵區塊CB的面積小於預設面積,則會認定使用者並未進行操控動作,則回到步驟S232,藉以避免誤動作。
詳細而言,請參照圖4D,圖4D所繪示為圖4C中的區塊40的放大圖。在一範例實施例中,處理單元130可依據影像資訊而偵測出特徵區塊CB的一邊界位置V(在此以特徵區塊CB最前端的位置為例),並且以邊界位置V為起點朝向特徵區塊CB根部處選取一定面積比例(例如特徵區塊CB面積的3%)的區域作為座標選取區域410。在圖4D中,以斜線繪示的方式來表示座標選取區域410。接著,處理單元130計算座標選取區域410的中心點座標來作為特徵區塊CB的代表座標RC。應注意的是,本發明實施例不僅限於利用上述計算方法來代表座標RC。例如,亦可以座標選取區域410中的各個座標位置的平均值的位置作為代表座標。
之後,處理單元130將代表座標RC轉換為物件F相對於顯示區域的顯示座標(步驟S236)。並且,依據所偵測的位置來執行操作功能(步驟S240)。即,以物件相對於顯示區域的顯示座標 來執行相對應的操作功能。
另外,在計算特徵區塊CB的代表座標RC之後,處理單元130還可依據代表座標RC來判斷物件F位於第一感應區SR1或第二感應區SR2。請參照圖4E,圖4E為使用者在感測空間SP進行操作的示意圖。在此,以點420作為物件F在影像資訊中的代表座標。以第二感應區SR2為點擊區為例,在偵測到點420(即,代表座標)進入第二感應區SR2,並在一預設時間內離開第二感應區SR2時,執行點擊動作。
另一方面,在圖4F中,三維空間的座標系統CS1是以取像單元120為座標軸心,以法線方向ND為Z軸,以第一方向D1為Y軸以及以同時垂直法線方向ND與第一方向D1的方向為X軸而定義出的座標系統。以圖1B的設置為例,取樣單元120為由下往上進行影像的擷取,也就是說會獲得XZ平面上的影像資訊。處理單元130可利用下述公式(1)、(2)將XZ平面上的代表座標RC(X1,Z1)轉換為相對於顯示區域DA的XY平面的顯示座標RC'(X2,Y2)。
Y2=(Z1-K1)×F1 (1)
X2=Z1×F2-K2 (2)
其中,F1、F2、K1及K2為常數。例如,可由上述校正資料來計算獲得。
經過上式轉換後,處理單元130便可得到代表座標RC在顯示區域DA上所對應的顯示座標RC'。另外,當使用者沿一特定 方向劃出一拖曳手勢時,處理單元130亦可藉由偵測顯示座標RC'的移動軌跡而據以控制畫面中對應的功能區塊隨著使用者的拖曳而移動。
另外,在實際的應用中,為了提高物件F位置偵測的準 確度,處理單元130還可依據畫面週期(frame period)的影像資訊來校正代表座標RC的移動軌跡。例如,處理單元130對一連串的代表座標RC進行優化及穩定處理,藉以提高處理單元130判斷的準確度。上述穩定處理例如為平滑化(smooth)處理。舉例來說,在由於環境光線影響等而早成前後張影像產生劇烈抖動時,進行平滑化處理,讓前後影像中的物件的軌跡更為平滑且穩定。
綜上所述,於上述實施例中,利用在顯示區域的周邊設置取像單元來擷取顯示區域附近的影像,並據以偵測物件的位置。據此,所述三維互動系統可有效地偵測到使用者在接近顯示區域的區域內的操控動作,改善了傳統三維互動系統之操控距離的限制,使得整體操控性得以進一步地提升。
雖然本發明已以實施例揭露如上,然其並非用以限定本發明,任何所屬技術領域中具有通常知識者,在不脫離本發明的精神和範圍內,當可作些許的更動與潤飾,故本發明的保護範圍當視後附的申請專利範圍所界定者為準。
S220~S240‧‧‧互動感測方法的各步驟

Claims (17)

  1. 一種三維互動系統,用於控制一顯示單元的一畫面的顯示內容,其中該顯示單元包括用以顯示該畫面的一顯示區域,且該顯示區域位於一顯示面上,該三維互動系統包括:一取像單元,配置於該顯示區域的周邊,沿一第一方向連續擷取多張影像,並據以分別產生每一該些影像的一影像資訊,其中該第一方向與該顯示面的法線方向不互相平行;以及一處理單元,耦接該顯示單元與該取像單元,依據該影像資訊來偵測一物件位於一感測空間的一位置,依據所偵測到的該位置執行一操作功能來控制該顯示內容。
  2. 如申請專利範圍第1項所述的三維互動系統,其中該處理單元依據一校正資訊定義出關聯於該顯示區域的尺寸的該感測空間,其中該感測空間沿該顯示面的法線方向分為一第一感應區以及一第二感應區。
  3. 如申請專利範圍第2項所述的三維互動系統,其中該處理單元依據該影像資訊偵測該物件是否進入該感測空間,並且基於進入該感測空間的該物件獲得一特徵區塊。
  4. 如申請專利範圍第3項所述的三維互動系統,其中該處理單元判斷該特徵區塊的面積是否大於一預設面積,若該處理單元判斷該特徵區塊的面積大於該預設面積,該處理單元計算該特徵區塊的一代表座標,並且將該代表座標轉換為該物件相對於該顯示區域的一顯示座標。
  5. 如申請專利範圍第4項所述的三維互動系統,其中該處理單元依據該代表座標判斷該物件位於該第一感應區或該第二感應區,藉此執行對應的該操作功能。
  6. 如申請專利範圍第1項所述的三維互動系統,其中該處理單元依據一背景影像來過濾該影像資訊中的一非操作區域部分,並且依據過濾後的該影像資訊來獲得該感測空間。
  7. 如申請專利範圍第1項所述的三維互動系統,其中該取像單元為一深度攝影機,而該影像資訊為一灰階圖,其中,該處理單元在該影像資訊中判斷是否存在一漸層區塊,以將該漸層區塊濾除,並且依據過濾後的該影像資訊獲得該感測空間。
  8. 如申請專利範圍第1項所述的三維互動系統,其中該第一方向與該法線方向之間的夾角介於一角度範圍內,其中該角度範圍是基於該取像單元的一鏡頭種類而決定。
  9. 如申請專利範圍第8項所述的三維互動系統,其中該角度範圍為45度至135度。
  10. 一種互動感測方法,包括:沿一第一方向連續擷取多張影像,並據以產生每一該些影像的一影像資訊,其中該第一方向與一顯示面的法線方向不互相平行,且一顯示區域位於該顯示面上以顯示一畫面;依據該影像資訊偵測一物件位於一感測空間的一位置;以及依據所偵測到的該位置執行一操作功能來控制該畫面的顯示 內容。
  11. 如申請專利範圍第10項所述的互動感測方法,其中在依據該影像資訊偵測該物件位於該感測空間的該位置的步驟之前,更包括:在獲得該影像資訊之後,依據一校正資訊定義關聯於該顯示區域的尺寸的該感測空間,其中該感測空間沿該顯示面的法線方向分為一第一感應區以及一第二感應區。
  12. 如申請專利範圍第11項所述的互動感測方法,其中依據該影像資訊偵測該物件位於該感測空間的該位置的步驟包括:依據該影像資訊偵測該物件是否進入該感測空間;在偵測到該物件進入該感測空間時,基於進入該感測空間的該物件獲得一特徵區塊;判斷該特徵區塊的面積是否大於一預設面積;若該特徵區塊的面積大於該預設面積,計算該特徵區塊的一代表座標;以及將該代表座標轉換為該物件相對於該顯示區域的一顯示座標。
  13. 如申請專利範圍第12項所述的互動感測方法,其中在計算該特徵區塊的該代表座標的步驟之後,更包括:依據該代表座標判斷該物件位於該第一感應區或該第二感應區,藉此執行對應的該操作功能。
  14. 如申請專利範圍第10項所述的互動感測方法,其中在依 據該影像資訊偵測該物件位於該感測空間的該位置的步驟之前,更包括:在獲得該影像資訊之後,過濾該影像資訊中的一非操作區域部分;以及依據過濾後的影像資訊獲得該感測空間。
  15. 如申請專利範圍第14項所述的互動感測方法,其中該取像單元為一深度攝影機,而該影像資訊為一灰階圖,其中,在過濾該影像資訊中的該非操作區域部分的步驟包括:判斷是否存在一漸層區塊,以將該漸層區塊濾除。
  16. 如申請專利範圍第10項所述的互動感測方法,其中該第一方向與該法線方向之間的夾角介於一角度範圍內,其中該角度範圍是基於該取像單元的一鏡頭種類而決定。
  17. 如申請專利範圍第16項所述的互動感測方法,其中該角度範圍為45度至135度。
TW102122212A 2013-06-21 2013-06-21 三維互動系統及其互動感測方法 TW201500968A (zh)

Priority Applications (4)

Application Number Priority Date Filing Date Title
TW102122212A TW201500968A (zh) 2013-06-21 2013-06-21 三維互動系統及其互動感測方法
CN201310334578.6A CN104238734A (zh) 2013-06-21 2013-08-02 三维交互系统及其交互感测方法
US14/155,362 US20140375777A1 (en) 2013-06-21 2014-01-15 Three-dimensional interactive system and interactive sensing method thereof
KR1020140019856A KR20140148288A (ko) 2013-06-21 2014-02-20 3차원 인터액티브 시스템 및 그 3차원 인터액티브 시스템의 인터액티브 감지 방법

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
TW102122212A TW201500968A (zh) 2013-06-21 2013-06-21 三維互動系統及其互動感測方法

Publications (1)

Publication Number Publication Date
TW201500968A true TW201500968A (zh) 2015-01-01

Family

ID=52110590

Family Applications (1)

Application Number Title Priority Date Filing Date
TW102122212A TW201500968A (zh) 2013-06-21 2013-06-21 三維互動系統及其互動感測方法

Country Status (4)

Country Link
US (1) US20140375777A1 (zh)
KR (1) KR20140148288A (zh)
CN (1) CN104238734A (zh)
TW (1) TW201500968A (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
TWI757941B (zh) * 2020-10-30 2022-03-11 幻景啟動股份有限公司 影像處理系統以及影像處理裝置

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102449838B1 (ko) 2015-09-01 2022-09-30 삼성전자주식회사 사용자의 인터랙션에 기초하여 3차원 오브젝트를 처리하는 방법 및 장치

Family Cites Families (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6710770B2 (en) * 2000-02-11 2004-03-23 Canesta, Inc. Quasi-three-dimensional method and apparatus to detect and localize interaction of user-object and virtual transfer device
TWI226784B (en) * 2003-10-20 2005-01-11 Ind Tech Res Inst Multi-trails spot click-event detection method
AR064377A1 (es) * 2007-12-17 2009-04-01 Rovere Victor Manuel Suarez Dispositivo para sensar multiples areas de contacto contra objetos en forma simultanea
JP4318056B1 (ja) * 2008-06-03 2009-08-19 島根県 画像認識装置および操作判定方法
US8564534B2 (en) * 2009-10-07 2013-10-22 Microsoft Corporation Human tracking system
US8416189B2 (en) * 2010-06-04 2013-04-09 Acer Incorporated Manual human machine interface operation system and method thereof
US8749557B2 (en) * 2010-06-11 2014-06-10 Microsoft Corporation Interacting with user interface via avatar
US20120176341A1 (en) * 2011-01-11 2012-07-12 Texas Instruments Incorporated Method and apparatus for camera projector system for enabling an interactive surface
US8860688B2 (en) * 2011-03-02 2014-10-14 Smart Technologies Ulc 3D interactive input system and method
US8963883B2 (en) * 2011-03-17 2015-02-24 Symbol Technologies, Inc. Touchless interactive display system
US20120249468A1 (en) * 2011-04-04 2012-10-04 Microsoft Corporation Virtual Touchpad Using a Depth Camera
TWI544350B (zh) * 2011-11-22 2016-08-01 Inst Information Industry Input method and system for searching by way of circle
US8497841B1 (en) * 2012-08-23 2013-07-30 Celluon, Inc. System and method for a virtual keyboard
US20140201685A1 (en) * 2013-01-14 2014-07-17 Darren Lim User input determination

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
TWI757941B (zh) * 2020-10-30 2022-03-11 幻景啟動股份有限公司 影像處理系統以及影像處理裝置

Also Published As

Publication number Publication date
US20140375777A1 (en) 2014-12-25
CN104238734A (zh) 2014-12-24
KR20140148288A (ko) 2014-12-31

Similar Documents

Publication Publication Date Title
TWI464640B (zh) 手勢感測裝置及具有手勢輸入功能的電子系統
US9696859B1 (en) Detecting tap-based user input on a mobile device based on motion sensor data
US10887546B2 (en) Display apparatus and control methods thereof
US9207773B1 (en) Two-dimensional method and system enabling three-dimensional user interaction with a device
US8723789B1 (en) Two-dimensional method and system enabling three-dimensional user interaction with a device
US9367951B1 (en) Creating realistic three-dimensional effects
JP6090140B2 (ja) 情報処理装置、情報処理方法及びプログラム
US9619105B1 (en) Systems and methods for gesture based interaction with viewpoint dependent user interfaces
CN104067209B (zh) 交互式输入系统及方法
US9501138B2 (en) Systems and methods for remapping three-dimensional gestures onto a finite-size two-dimensional surface
CN103970264B (zh) 手势辨识与控制方法及其装置
US9454260B2 (en) System and method for enabling multi-display input
US20190266798A1 (en) Apparatus and method for performing real object detection and control using a virtual reality head mounted display system
US8462110B2 (en) User input by pointing
US10152953B2 (en) Information processing apparatus and information processing method
CN107797648B (zh) 虚拟触摸系统和图像识别定位方法、计算机可读存储介质
WO2022242011A1 (zh) 书写笔迹的呈现方法、装置、交互平板及存储介质
TWI486815B (zh) 顯示設備及其控制系統和方法
TW201500968A (zh) 三維互動系統及其互動感測方法
US9489077B2 (en) Optical touch panel system, optical sensing module, and operation method thereof
EP3088991B1 (en) Wearable device and method for enabling user interaction
US9841823B2 (en) Physical object for intuitive navigation in a three-dimensional space
US20140168165A1 (en) Electronic device with virtual touch function and instant adjusting method for virtual touch
TWI448918B (zh) 光學觸控系統
CN109816723A (zh) 投影控制方法、装置、投影交互系统及存储介质