TWI486820B - 用於互動系統之座標轉換方法及電腦系統 - Google Patents

用於互動系統之座標轉換方法及電腦系統 Download PDF

Info

Publication number
TWI486820B
TWI486820B TW101151014A TW101151014A TWI486820B TW I486820 B TWI486820 B TW I486820B TW 101151014 A TW101151014 A TW 101151014A TW 101151014 A TW101151014 A TW 101151014A TW I486820 B TWI486820 B TW I486820B
Authority
TW
Taiwan
Prior art keywords
coordinate
angle
axis
conversion
instruction object
Prior art date
Application number
TW101151014A
Other languages
English (en)
Other versions
TW201426416A (zh
Inventor
Chih Hsuan Lee
Shou Te Wei
Chia Te Chou
Original Assignee
Wistron Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Wistron Corp filed Critical Wistron Corp
Priority to TW101151014A priority Critical patent/TWI486820B/zh
Priority to CN201310019644.0A priority patent/CN103914133B/zh
Priority to US14/047,036 priority patent/US9189063B2/en
Publication of TW201426416A publication Critical patent/TW201426416A/zh
Application granted granted Critical
Publication of TWI486820B publication Critical patent/TWI486820B/zh

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/012Head tracking input arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/042Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/107Static hand or arm
    • G06V40/11Hand-related biometrics; Hand pose recognition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/161Detection; Localisation; Normalisation

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Position Input By Displaying (AREA)
  • Processing Or Creating Images (AREA)
  • User Interface Of Digital Computer (AREA)

Description

用於互動系統之座標轉換方法及電腦系統
本發明係指一種用於一互動系統之座標轉換方法及電腦系統,尤指一種根據一臉部座標以及一偵測模組之一座標,以判斷一指令物件之深度變化之座標轉換方法及電腦系統。
在習知技術中,使用者可透過有線/無線傳輸之控制模組,例如一鍵盤或一滑鼠等,控制一電子裝置。然而,隨著影像處理的進步,電子裝置已可透過特定之偵側模組,偵測使用者之一肢體動作,例如使用者之一手臂上下擺動,進而判斷使用者所欲進行之一操作指令。
請參考第1A、1B圖,第1A、1B圖係為習知一互動系統10判斷使用者操作指令之示意圖。如第1A、1B圖所示,互動系統10包含有一偵測模組100,而一使用者12大致位於互動系統10之偵測模組100的正前方,並於第1A、1B圖中僅簡單繪示出使用者12之一頭部120與一手部122。此外,互動系統10已預設有複數個預設指令,且每一預設指令係對應為不同手部122之變化情形,俾使偵測模組100可偵測手部122之前後位置的變化情形,進而判斷使用者12所欲下達之預設指令。請再參考第2A、2B圖,第2A、2B圖分別對應為第1A、1B圖中偵測模組100之偵測結果之示意圖,其中大圓係代表頭部120之影像,而小圓係代表手部122之影像。如第1A~2B圖所示,由於使用者12大致位於偵測模組100的正前 方,當使用者12將手部122從第1A圖所示位置向前移動到第1B圖所示位置時,於偵測模組100所偵測到的偵測結果中,頭部120所代表大圓之影像CB1、CB2或手部122所代表之影像CS1、CS2並未於XY平面上發生位置偏移,而僅有手部122所代表之影像CS1、CS2產生前後位置變化,即於Z軸方向上產生深度變化。在此情況下,使用者可根據手部122於Z軸方向上之深度變化,正確下達預設指令來控制互動系統10。
請再參考第3A、3B圖,第3A、3B圖係為第1A、1B圖中互動系統10判斷使用者操作指令之示意圖。相較於第1A、1B圖所示之實施例,第3A、3B圖中的使用者12非位於偵測模組100的正前方,而是位於偵測模組100之斜前方。同時,請再參考第4A、4B圖,第4A、4B圖係分別對應為第3A、3B圖中偵測模組100之偵測結果之示意圖,同樣地,大圓亦代表頭部120之影像而小圓係代表手部122之影像。如第3A~4B圖所示,由於使用者12並非位於偵測模組100的正前方,因此當使用者12係將手部122從第3A圖所示位置向前移動到第3B圖所示位置時,頭部120所代表大圓之影像CB3、CB4並未發生位置偏移,但手部122所代表之影像CS3、CS4將同時於XY平面上以及Z軸方向上產生位置變化。在此情況下,手部122產生的深度變化可能無法對應互動系統10所預設之複數個預設指令,據以產生錯誤的預設指令而致無法控制互動系統10。
因此,提供另一種用於一互動系統之座標轉換方法及電腦系統,可適性地判斷一指令物件之深度變化,據以產生正確的控制指 令,已成為本領域之重要課題。
因此,本發明之主要目的即在於提供一互動系統之座標轉換方法及電腦系統,同時參考一臉部座標以及一偵測模組之一座標,以判斷一指令物件之深度變化,據以產生正確的控制指令。
本發明揭露一種用於一互動系統與一使用者間之座標轉換方法,該互動系統包含有一偵測模組,該座標轉換方法包含有藉由該偵測模組,判斷該使用者之一臉部資料以及一指令物件,以對應取得一臉部座標以及一指令物件座標;根據該偵測模組之一座標,轉換該臉部座標為一轉換臉部座標;根據該轉換臉部座標以及該偵測模組之該座標間之一連線,取得該連線與一光軸射線間之一夾角;根據該夾角以及該指令物件座標,取得一轉換指令物件座標;以及根據該轉換指令物件座標,判斷該指令物件之一深度變化,以建立該互動系統與該使用者間之一互動操作。
本發明另揭露用於一種電腦系統,耦接有一互動系統,其中該互動系統包含有一偵測模組,該電腦系統包含有一中央處理器;一儲存裝置,儲存有一程式碼,該程式碼用來指示該一種用於一互動系統與一使用者間之座標轉換方法,該座標轉換方法包含有藉由該偵測模組,判斷該使用者之一臉部資料以及一指令物件,以對應取得一臉部座標以及一指令物件座標;根據該偵測模組之一座標,轉換該臉部座標為一轉換臉部座標;根據該轉換臉部座標以及該偵測模組之該座標間之一連線,取得該連線與一光軸射線間之一夾角;根據該夾角以及該指令物件座標,取得一轉換指令物件座標;以及 根據該轉換指令物件座標,判斷該指令物件之一深度變化,以建立該互動系統與該使用者間之一互動操作。
在說明書及後續的申請專利範圍當中使用了某些詞彙來指稱特定的元件。所屬領域中具有通常知識者應可理解,製造商可能會用不同的名詞來稱呼同樣的元件。本說明書及後續的申請專利範圍並不以名稱的差異來作為區別元件的方式,而是以元件在功能上的差異來作為區別的基準。在通篇說明書及後續的請求項當中所提及的「包含」係為一開放式的用語,故應解釋成「包含但不限定於」。此外,「耦接」一詞在此係包含任何直接及間接的電氣連接手段。因此,若文中描述一第一裝置耦接於一第二裝置,則代表該第一裝置可直接連接於該第二裝置,或透過其他裝置或連接手段間接地連接至該第二裝置。
請參考第5圖,第5圖係為本發明實施例一電腦系統50之示意圖。電腦系統50耦接有一互動系統52,且包含有一中央處理器500以及一儲存裝置502。儲存裝置502儲存有一程式碼CD以及複數個預設指令來對應複數個深度變化,而程式碼CD係用來指示用於互動系統52與一使用者(圖中未示)間之座標轉換方法。互動系統52包含有一偵測模組520,且於本實施例中偵測模組520係為一二維偵測單元或一三維偵測單元,當然亦可同時包含有二維偵測單元及三維偵測單元,使偵測模組520係可分別擷取一二維偵測影像及/或一三維偵測影像,其中二維偵測單元及三維偵測單元皆包含有至少一光學鏡頭及其對應之一鏡頭焦距來對應擷取影像,至於電腦系 統50與互動系統52間係透過一有線/無線傳輸方式,俾使電腦系統50可適性地操作互動系統52與偵測模組520,而互動系統52則可對應傳回二維偵測影像及/或三維偵測影像至電腦系統50,然非用以限制本發明之範疇。
較佳地,於本實施例中,偵測模組520係預設有一通用座標系(包含有一通用原點)以及一光軸射線(即一光線若沿光軸射線前進時,將不產生偏折現象),且二維偵測影像及/或三維偵測影像係於電腦系統50中,藉由中央處理器500參考通用座標系之計算模擬,進而判斷二維偵測影像及/或三維偵測影像中不同位置相對於通用原點之座標值,其中前述之計算模擬係可預先編譯為程式碼CD,以儲存於儲存裝置502中。當然,本領域具通常知識者亦可利用互動系統52之一處理單元(圖中未示),於互動系統52內計算二維偵測影像及/或三維偵測影像中不同位置相對於通用原點之座標值後,再回傳座標值至電腦系統50,以為後續相關操作,此亦為本發明之範疇。再者,本實施例並未限制偵測模組520與互動系統52間之設置方式,只要偵測模組520能適性地判斷是否有使用者接近互動系統52,進而由使用者之一肢體變化來操作互動系統52者,皆為本發明之範疇。
更進一步,本實施例利用電腦系統50來控制互動系統52所適用之一座標轉換方法,可進一步歸納為一座標轉換流程60且被編譯為程式碼CD,如第6圖所示。座標轉換流程60包含以下步驟:
步驟600:開始。
步驟602:藉由偵測模組520,判斷使用者之一臉部資料以及一 指令物件,以對應取得一臉部座標以及一指令物件座標。
步驟604:根據偵測模組520之一座標,轉換臉部座標為一轉換臉部座標。
步驟606:根據轉換臉部座標以及偵測模組520之座標間之一連線,取得連線與一光軸射線間之一夾角。
步驟608:根據夾角以及指令物件座標,取得一轉換指令物件座標。
步驟610:根據轉換指令物件座標,判斷指令物件之一深度變化,以建立互動系統52與使用者間之一互動操作。
步驟612:結束。
於步驟602中,互動系統52係藉由偵測模組520,判斷使用者之臉部資料以及指令物件,以對應取得臉部座標以及指令物件座標。較佳地,偵測模組520可結合一人臉追蹤(Face tracking)技術,首先判斷位於偵測模組520之一偵測範圍內是否有類似使用者之一臉部影像。若有,則偵測模組520將對應擷取臉部影像之一二維(或三維)影像,並利用前述通用座標系與其相關計算模擬,透過電腦系統50(或互動系統52之處理單元)對應取得臉部座標。在此同時,於偵測模組520取得臉部影像之二維(或三維)影像後,偵測模組520將再判斷是否有另一最接近偵測模組520之指令物件,且其大小係小於臉部影像所對應之二維(或三維)影像。若有,則偵測模組520係判斷指令物件為使用者之一手部影像,例如為一手指或一手掌,並運用類似通用座標系與其相關之計算模擬,由電腦系 統50(或互動系統52之處理單元)對應取得手部座標(即指令物件座標)。
值得注意地,由於使用者之臉部資料以及指令物件皆非一單點,因此,本實施例係可適性地於臉部資料以及指令物件所對應之二維(或三維)影像中,挑選單一(或複數個)單點之座標來作為臉部座標以及指令物件座標,或者依據不同精確度要求,進一步平均複數個單點之座標來作為臉部座標以及指令物件座標者,皆為本發明之範疇。
於步驟604中,電腦系統50係可判斷偵測模組520於通用座標系之座標以及偵測模組之鏡頭焦距,在此情況下,中央處理器500再利用一第一矩陣對臉部座標進行一旋轉操作,以轉換臉部座標為轉換臉部座標,其中第一矩陣係為,且f係為該鏡頭焦距。 換句話說,上述的旋轉操作可視為電腦系統50將通用座標系轉換為一修正通用座標系,使偵測模組520恰位於修正通用座標系之一修正通用原點上,並對應取得臉部座標相對於修正通用原點之座標來形成轉換臉部座標,其中修正通用座標系包含有一修正通用X軸、一修正通用Y軸以及一修正通用Z軸,且光軸射線係重疊於修正通用Z軸上。
於步驟606中,偵測模組520亦視為一單點,據此,中央處理器500將連接轉換臉部座標以及偵測模組520所對應之座標,以形成連線,同時參考光軸射線之一射線延伸方向,進而取得連線與光 軸射線間之夾角。較佳地,夾角係為連線與修正通用X軸、修正通用Y軸或修正通用Z軸間之一夾角,且分別對應為夾角ω、φ或κ。
於步驟608中,中央處理器500將根據夾角以及指令物件座標(即手部座標),取得轉換指令物件座標。較佳地,經過步驟604與步驟606之操作後,轉換臉部座標係位於修正通用座標系之修正通用Z軸上,使指令物件座標係可參考相對於光軸射線之夾角,取得指令物件座標相較於修正通用X軸、修正通用Y軸或修正通用Z軸間之夾角ω、φ或κ,進而產生一第二矩陣,以對指令物件座標進行另一旋轉操作,據以形成轉換指令物件座標。
請再參考第7圖,第7圖係為本發明實施例中指令物件座標(X,Y,Z)位於修正通用座標系之示意圖。如第7圖所示,當指令物件座標與修正通用X軸之夾角係為ω時,第二矩陣係為;當指令物件座標與修正通用Y軸之夾角係為φ時,第二矩陣係為;當指令物件座標與修正通用Z軸之夾角係為κ時,第二矩陣係為。據此,指令物件座標(X,Y,Z)可對應依序進行相較於修正通用X軸、修正通用Y軸或修正通用Z軸間之旋轉操作,即將指令物件座標(X, Y,Z)分別先後乘以乘法矩陣,據以獲得轉換指令物件座標,並使轉換指令物件座標位於修正通用Z軸上。值得注意地,進行對應於夾角ω、φ或κ之複數個矩陣乘法之操作並未限制一定的先後乘法順序,即只要滿足矩陣乘法之交換法則而可任意先後進行矩陣乘法操作,且當夾角ω、φ或κ中之一者係為零時,則中央處理器500可省略該夾角所對應之旋轉操作。舉例來說,當夾角φ為零時,係代表偵測模組520與使用者之高度相同,故所對應之旋轉操作的矩陣乘法係可忽略而不計算。在此情況下,經過步驟608後,轉換指令物件座標係恰好位於修正通用Z軸上,使中央處理器500可輕易取得轉換指令物件座標所對應之一Z軸座標(即相對於偵測模組520之一深度值)。
最後,於步驟610中,中央處理器500係記錄複數個時間點之轉換指令物件座標所對應之複數個深度值,例如於一第一時間點取得一第一轉換指令物件深度值,經過一預設時間後,再於一第二時間點取得一第二轉換指令物件深度值。在此情況下,中央處理器500計算第一轉換指令物件深度值與第二轉換指令物件深度值間之一深度變化,並根據儲存裝置502中複數個預設指令所對應之複數個深 度變化,對應取得使用者所欲進行之預設指令,進而產生正確的預設指令回傳至互動系統52,並精準地控制互動系統52之操作。較佳地,本實施例亦可由中央處理器500回傳複數個深度變化至互動系統52,並經由互動系統52中另一儲存單元(已預設有複數個深度變化及其對應之複數個預設指令)以及處理單元,共同判斷使用者欲進行之預設指令者,亦為本發明之範疇。
簡單來說,本實施例係取得複數個指令物件相對於偵測模組520之複數個Z軸座標距離,使中央處理器500(或互動系統52之處理單元)可正確判斷複數個Z軸座標距離,以對應輸出使用者欲進行之預設指令。相較於習知技術中,當使用者係非位於偵測模組520之正前方,指令物件座標可能於XY平面上產生有位置偏移,而致使其於Z軸上之深度變化有所偏差,本實施例係已適性參考修正通用座標系及其與光軸間之夾角ω、φ或κ,據以修正指令物件實際上產生之深度變化。值得注意地,本實施例並未限制預設指令僅根據指令物件於Z軸上的深度變化,以對應控制互動系統52之操作,即本領域具通常知識者亦可適性地加入指令物件於X軸、Y軸或XY平面上之座標變化情形,對應加入更多的預設指令者,亦為本發明之範疇。
當然,本領域具通常知識者係可任意調整預設時間之絕對數值,或者適性地透過電腦系統50之一使用者介面,以修改儲存裝置502中所預設之複數個預設指令及其所對應之複數個深度變化。除此之外,本實施例之偵測模組520更可另包含有一光學透鏡來產生較大光線之偏折效應,並搭配二維偵測單元及/或三維偵測單元之相 關操作,俾使偵測模組520可取得較大之一偵測範圍。至於本實施例中所使用之互動系統52,亦可搭配有一觸控操作以及一切換模組/機制,使本領域具通常知識者係可根據實際需求,適性地切換互動系統52以及使用者間之操作模式,即使用者可同時透過肢體變化操作或觸控操作來取得與互動系統52間之互動者,皆為本發明之範疇。
綜上所述,本發明實施例係提供一種互動系統之座標轉換方法及電腦系統,同時參考使用者之一臉部座標以及一偵測模組座標,以判斷一指令物件之深度變化,進而產生正確的控制指令來控制互動系統之操作。相較於習知技術,本實施例係已修正指令物件(或使用者)非位於偵測模組正前方而可能發生Z軸座標之誤判情形,同時可搭配指令物件於X軸、Y軸或XY平面上之座標變化情形,進而增加互動系統之適用範圍。
以上所述僅為本發明之較佳實施例,凡依本發明申請專利範圍所做之均等變化與修飾,皆應屬本發明之涵蓋範圍。
10、52‧‧‧互動系統
100、520‧‧‧偵測模組
12‧‧‧使用者
120‧‧‧頭部
122‧‧‧手部
50‧‧‧電腦系統
500‧‧‧中央處理器
502‧‧‧儲存裝置
60‧‧‧座標轉換流程
600、602、604、606、608、610、612‧‧‧步驟
CB1、CB2、CB3、CB4、CS1、CS2、CS3、CS4‧‧‧影像
CD‧‧‧程式碼
ω、φ、κ‧‧‧夾角
第1A、1B圖係為習知一互動系統一判斷使用者操作指令之示意圖。
第2A、2B圖係分別對應為第1A、1B圖中偵測模組之偵測結果之示意圖。
第3A、3B圖係為第1A、1B圖中互動系統進行另一判斷使用者操作指令之示意圖。
第4A、4B圖係分別對應為第3A、3B圖中偵測模組之偵測結 果之示意圖。
第5圖係為本發明實施例一電腦系統之示意圖。
第6圖係為本發明實施例一座標轉換流程之流程圖。
第7圖係為本發明實施例中指令物件座標位於修正通用座標系之示意圖。
50‧‧‧電腦系統
500‧‧‧中央處理器
502‧‧‧儲存裝置
52‧‧‧互動系統
520‧‧‧偵測模組
CD‧‧‧程式碼

Claims (16)

  1. 一種用於一互動系統與一使用者間之座標轉換方法,該互動系統包含有一偵測模組,該座標轉換方法包含有:藉由該偵測模組,判斷該使用者之一臉部資料以及一指令物件,以對應取得一臉部座標以及一指令物件座標;根據該偵測模組之一座標,轉換該臉部座標為一轉換臉部座標;根據該轉換臉部座標以及該偵測模組之該座標間之一連線,取得該連線與一光軸射線間之一夾角;根據該夾角以及該指令物件座標,取得一轉換指令物件座標;以及根據該轉換指令物件座標,判斷該指令物件之一深度變化,以建立該互動系統與該使用者間之一互動操作。
  2. 如請求項1所述之座標轉換方法,其中該偵測模組包含有一二維偵測單元或一三維偵測單元,且該偵測模組預設有該光軸射線。
  3. 如請求項1所述之座標轉換方法,其中該指令物件係最接近該偵測模組,且該指令物件係為該使用者之一手指或一手掌。
  4. 如請求項1所述之座標轉換方法,其中根據該偵測模組之該座標,轉換該臉部座標為該轉換臉部座標之步驟,更包含有:根據該偵測模組之一鏡頭焦距,利用一第一矩陣對該臉部座標進行一旋轉操作,以形成該轉換臉部座標; 其中,該第一矩陣係為,且f係為該鏡頭焦距。
  5. 如請求項1所述之座標轉換方法,其中根據該夾角以及該指令物件座標,取得該轉換指令物件座標之步驟,更包含有:將該偵測模組之該座標視為一修正通用原點,以建立一修正通用座標系包含有一修正通用X軸、一修正通用Y軸以及一修正通用Z軸,進而判斷該夾角與該修正通用X軸、該修正通用Y軸與該修正通用Z軸間之一參考夾角;以及根據該參考夾角,取得該轉換指令物件座標。
  6. 如請求項5所述之座標轉換方法,其中根據該參考夾角,取得該轉換指令物件座標之步驟,更包含有:利用一第二矩陣對該指令物件座標進行一旋轉操作,以取得該轉換指令物件座標;其中,當該夾角與該修正通用X軸之該參考夾角係為ω,該第二矩陣係為;當該夾角與該修正通用Y軸之該參考夾角係為φ,該第二矩陣係為;以及當該夾角與該修正通用Z軸之該參考夾角係為κ,該第二矩陣係為
  7. 如請求項1所述之座標轉換方法,其中根據該轉換指令物件座標,判斷該指令物件之該深度變化,以建立該互動系統與該使用者間之該互動操作之步驟,更包含有:於複數個時間點,取得複數個轉換指令物件座標及其對應之複數個物件Z軸座標;以及計算該複數個物件Z軸座標中兩者間之差值為該深度變化,進而建立該互動系統與該使用者間之該互動操作。
  8. 如請求項1所述之座標轉換方法,其中該互動操作係預設有複數個指令操作來對應不同之該深度變化,俾使該使用者係透過該指令物件所對應之該深度變化,以控制該互動系統之操作。
  9. 一種電腦系統,耦接有一互動系統,其中該互動系統包含有一偵測模組,該電腦系統包含有:一中央處理器;一儲存裝置,儲存有一程式碼,該程式碼用來指示該一種用於一互動系統與一使用者間之座標轉換方法,該座標轉換方法包含有:藉由該偵測模組,判斷該使用者之一臉部資料以及一指令物件,以對應取得一臉部座標以及一指令物件座標;根據該偵測模組之一座標,轉換該臉部座標為一轉換臉部座標;根據該轉換臉部座標以及該偵測模組之該座標間之一連線,取得該連線與一光軸射線間之一夾角;根據該夾角以及該指令物件座標,取得一轉換指令物件座 標;以及根據該轉換指令物件座標,判斷該指令物件之一深度變化,以建立該互動系統與該使用者間之一互動操作。
  10. 如請求項9所述之電腦系統,其中該偵測模組包含有一二維偵測單元或一三維偵測單元,且該偵測模組預設有該光軸射線。
  11. 如請求項9所述之電腦系統,其中該指令物件係最接近該偵測模組,且該指令物件係為該使用者之一手指或一手掌。
  12. 如請求項9所述之電腦系統,其中根據該偵測模組之該座標,轉換該臉部座標為該轉換臉部座標之步驟,更包含有:根據該偵測模組之一鏡頭焦距,利用一第一矩陣對該臉部座標進行一旋轉操作,以形成該轉換臉部座標;其中,該第一矩陣係為,且f係為該鏡頭焦距。
  13. 如請求項9所述之電腦系統,其中根據該夾角以及該指令物件座標,取得該轉換指令物件座標之步驟,更包含有:將該偵測模組之該座標視為一修正通用原點,以建立一修正通用座標系包含有一修正通用X軸、一修正通用Y軸以及一修正通用Z軸,進而判斷該夾角與該修正通用X軸、該修正通用Y軸與該修正通用Z軸間之一參考夾角;以及根據該參考夾角,取得該轉換指令物件座標。
  14. 如請求項13所述之電腦系統,其中根據該參考夾角,取得該轉換指令物件座標之步驟,更包含有: 利用一第二矩陣對該指令物件座標進行一旋轉操作,以取得該轉換臉部座標;其中,當該夾角與該修正通用X軸之該參考夾角係為ω,該第二矩陣係為;當該夾角與該修正通用Y軸之該參考夾角係為φ,該第二矩陣係為;以及當該夾角與該修正通用Z軸之該參考夾角係為κ,該第二矩陣係為
  15. 如請求項9所述之電腦系統,其中根據該轉換指令物件座標,判斷該指令物件之該深度變化,以建立該互動系統與該使用者間之該互動操作之步驟,更包含有:於複數個時間點,取得複數個轉換指令物件座標及其對應之複數個物件Z軸座標;以及計算該複數個物件Z軸座標中兩者間之差值為該深度變化,進而建立該互動系統與該使用者間之該互動操作。
  16. 如請求項9所述之電腦系統,其中該互動操作係預設有複數個指令操作來對應不同之該深度變化,俾使該使用者係透過該指令物件所對應之該深度變化,以控制該互動系統之操作。
TW101151014A 2012-12-28 2012-12-28 用於互動系統之座標轉換方法及電腦系統 TWI486820B (zh)

Priority Applications (3)

Application Number Priority Date Filing Date Title
TW101151014A TWI486820B (zh) 2012-12-28 2012-12-28 用於互動系統之座標轉換方法及電腦系統
CN201310019644.0A CN103914133B (zh) 2012-12-28 2013-01-18 用于互动系统的座标转换方法及计算机系统
US14/047,036 US9189063B2 (en) 2012-12-28 2013-10-07 Coordinate transformation method and computer system for interactive system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
TW101151014A TWI486820B (zh) 2012-12-28 2012-12-28 用於互動系統之座標轉換方法及電腦系統

Publications (2)

Publication Number Publication Date
TW201426416A TW201426416A (zh) 2014-07-01
TWI486820B true TWI486820B (zh) 2015-06-01

Family

ID=51016654

Family Applications (1)

Application Number Title Priority Date Filing Date
TW101151014A TWI486820B (zh) 2012-12-28 2012-12-28 用於互動系統之座標轉換方法及電腦系統

Country Status (3)

Country Link
US (1) US9189063B2 (zh)
CN (1) CN103914133B (zh)
TW (1) TWI486820B (zh)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111382592B (zh) * 2018-12-27 2023-09-29 杭州海康威视数字技术股份有限公司 活体检测方法和设备

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
TW201237691A (en) * 2011-02-25 2012-09-16 Microsoft Corp User interface presentation and interactions
US20120268369A1 (en) * 2011-04-19 2012-10-25 Microsoft Corporation Depth Camera-Based Relative Gesture Detection
TW201250609A (en) * 2011-04-11 2012-12-16 Intel Corp Gesture recognition using depth images
US20120319950A1 (en) * 2003-09-15 2012-12-20 Sony Computer Entertainment Inc. Methods and systems for enabling depth and direction detection when interfacing with a computer program

Family Cites Families (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5633995A (en) * 1991-06-19 1997-05-27 Martin Marietta Corporation Camera system and methods for extracting 3D model of viewed object
US20020036617A1 (en) * 1998-08-21 2002-03-28 Timothy R. Pryor Novel man machine interfaces and applications
CN1222859C (zh) * 2000-05-17 2005-10-12 皇家菲利浦电子有限公司 用于通过图象处理而不用三维建模来指示目标的设备和方法
US6600475B2 (en) * 2001-01-22 2003-07-29 Koninklijke Philips Electronics N.V. Single camera system for gesture-based input and target indication
DE10359415A1 (de) * 2003-12-16 2005-07-14 Trimble Jena Gmbh Verfahren zur Kalibrierung eines Vermessungsgeräts
US8189962B2 (en) * 2006-12-19 2012-05-29 Hitachi Kokusai Electric Inc. Image processing apparatus
JP5109803B2 (ja) * 2007-06-06 2012-12-26 ソニー株式会社 画像処理装置、画像処理方法及び画像処理プログラム
CN101729808B (zh) * 2008-10-14 2012-03-28 Tcl集团股份有限公司 一种电视遥控方法及用该方法遥控操作电视机的系统
US8487871B2 (en) * 2009-06-01 2013-07-16 Microsoft Corporation Virtual desktop coordinate transformation
JP5738569B2 (ja) * 2010-10-15 2015-06-24 任天堂株式会社 画像処理プログラム、装置、システムおよび方法
US8866889B2 (en) 2010-11-03 2014-10-21 Microsoft Corporation In-home depth camera calibration
US8408706B2 (en) * 2010-12-13 2013-04-02 Microsoft Corporation 3D gaze tracker
JP5712737B2 (ja) * 2011-03-31 2015-05-07 ソニー株式会社 表示制御装置、表示制御方法、及びプログラム
US8740702B2 (en) * 2011-05-31 2014-06-03 Microsoft Corporation Action trigger gesturing
US8873813B2 (en) * 2012-09-17 2014-10-28 Z Advanced Computing, Inc. Application of Z-webs and Z-factors to analytics, search engine, learning, recognition, natural language, and other utilities

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20120319950A1 (en) * 2003-09-15 2012-12-20 Sony Computer Entertainment Inc. Methods and systems for enabling depth and direction detection when interfacing with a computer program
TW201237691A (en) * 2011-02-25 2012-09-16 Microsoft Corp User interface presentation and interactions
TW201250609A (en) * 2011-04-11 2012-12-16 Intel Corp Gesture recognition using depth images
US20120268369A1 (en) * 2011-04-19 2012-10-25 Microsoft Corporation Depth Camera-Based Relative Gesture Detection

Also Published As

Publication number Publication date
US9189063B2 (en) 2015-11-17
TW201426416A (zh) 2014-07-01
CN103914133A (zh) 2014-07-09
US20140184569A1 (en) 2014-07-03
CN103914133B (zh) 2017-04-26

Similar Documents

Publication Publication Date Title
Wang et al. 6D hands: markerless hand-tracking for computer aided design
US20130257736A1 (en) Gesture sensing apparatus, electronic system having gesture input function, and gesture determining method
US8593402B2 (en) Spatial-input-based cursor projection systems and methods
EP2733585B1 (en) Remote manipulation device and method using a virtual touch of a three-dimensionally modeled electronic device
US8648808B2 (en) Three-dimensional human-computer interaction system that supports mouse operations through the motion of a finger and an operation method thereof
Qian et al. Developing a gesture based remote human-robot interaction system using kinect
US9207773B1 (en) Two-dimensional method and system enabling three-dimensional user interaction with a device
JP2020052991A (ja) ジェスチャ認識に基づく対話型ディスプレイの方法及び装置
EP2677398A2 (en) Virtual touch device without pointer on display surface
EP2677399A2 (en) Virtual touch device without pointer
JP2017531227A (ja) ユーザーの視点を考慮して動作認識するインタフェース提供方法及び提供装置
US20120223882A1 (en) Three Dimensional User Interface Cursor Control
KR102147430B1 (ko) 가상 공간 멀티 터치 인터랙션 장치 및 방법
CN112150551A (zh) 物体位姿的获取方法、装置和电子设备
TWI530858B (zh) 一種立體交互系統和立體交互方法
JP6344530B2 (ja) 入力装置、入力方法、及びプログラム
US20160232708A1 (en) Intuitive interaction apparatus and method
KR20120126508A (ko) 포인터를 사용하지 않는 가상 터치 장치에서의 터치 인식 방법
WO2017029749A1 (ja) 情報処理装置、その制御方法、プログラム、及び記憶媒体
KR101550580B1 (ko) 사용자 인터페이스 장치 및 그것의 제어 방법
TWI486815B (zh) 顯示設備及其控制系統和方法
CN106598422B (zh) 混合操控方法及操控系统和电子设备
TWI486820B (zh) 用於互動系統之座標轉換方法及電腦系統
KR20210111619A (ko) 2차원 이미지로부터 사용자의 제스처를 추정하는 방법, 시스템 및 비일시성의 컴퓨터 판독 가능 기록 매체
KR20200073031A (ko) 높은 정확도를 갖는 손 동작 추적을 위한 3차원 손 모델 제작 방법