TWI406694B - 應用於3d互動系統之互動模組及其方法 - Google Patents

應用於3d互動系統之互動模組及其方法 Download PDF

Info

Publication number
TWI406694B
TWI406694B TW099102790A TW99102790A TWI406694B TW I406694 B TWI406694 B TW I406694B TW 099102790 A TW099102790 A TW 099102790A TW 99102790 A TW99102790 A TW 99102790A TW I406694 B TWI406694 B TW I406694B
Authority
TW
Taiwan
Prior art keywords
coordinate
interaction
interactive
binocular
glasses
Prior art date
Application number
TW099102790A
Other languages
English (en)
Other versions
TW201127463A (en
Inventor
Tzu Yi Chao
Original Assignee
Pixart Imaging Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Pixart Imaging Inc filed Critical Pixart Imaging Inc
Priority to TW099102790A priority Critical patent/TWI406694B/zh
Priority to US12/784,512 priority patent/US20110187638A1/en
Publication of TW201127463A publication Critical patent/TW201127463A/zh
Application granted granted Critical
Publication of TWI406694B publication Critical patent/TWI406694B/zh

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/013Eye tracking input arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/0304Detection arrangements using opto-electronic means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/04815Interaction with a metaphor-based environment or interaction object displayed as three-dimensional, e.g. changing the user viewpoint with respect to the environment or object

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Processing Or Creating Images (AREA)
  • User Interface Of Digital Computer (AREA)

Description

應用於3D互動系統之互動模組及其方法
本發明係有關於一種3D互動系統,更明確地說,係有關於一種利用3D顯示系統以進行互動之3D互動系統。
在先前技術中,3D顯示系統用來提供一3D影像。如第1圖所示,3D顯示系統可分為裸眼式3D顯示系統與眼鏡式3D顯示系統。舉例而言,在第1圖之左半部中之裸眼式3D顯示系統110利用分光之方式,以於不同角度提供不同的影像(如第1圖之影像DIMθ1 ~DIMθ8 )。如此,由於使用者之雙眼位於不同角度,因此使用者可分別接收到一左影像DIML (影像DIMθ4 )與右影像DIMR (影像DIMθ5 ),並據以得到裸眼式3D顯示系統110所提供之3D影像。在第1圖之右半部之眼鏡式3D顯示系統120包含一顯示幕121與一輔助眼鏡122。顯示幕121用來提供一左影像DIML 與一右影像DIMR 。輔助眼鏡122用來輔助使用者之雙眼分別接收左影像DIML 與右影像DIMR ,以讓使用者可得到該3D影像。
然而,使用者從3D顯示系統所得到之3D影像,會隨著使用者之位置而改變。以眼鏡式3D顯示系統120為例,如第2圖所示(在第2圖中未圖示輔助眼鏡122),3D顯示系統120所提供之3D影像中具有一虛擬物件VO(舉例而言,虛擬物件VO為網球)。其中虛擬物件VO於左影像DIML 中之位置為LOCILVO ,於右影像DIMR 中之位置為LOCIRVO 。設此時使用者之左眼之位置為LOC1LE ,使用者之右眼之位置為LOC1RE 。使用者之左眼之位置LOC1LE 與虛擬物件VO之位置LOCILVO 形成直線L1L ;使用者之右眼之位置LOC1RE 與虛擬物件VO之位置LOCIRVO 形成直線L1R 。如此,使用者所看到虛擬物件VO之位置根據直線L1L 與L1R 而決定。舉例而言,當直線L1L 與L1R 的交點之位置為LOC1CP 時,使用者所看到虛擬物件VO之位置即為LOC1CP 。同理,當使用者之雙眼位置分別為LOC2LE 與LOC2RE 時,使用者之雙眼之位置分別與虛擬物件VO之位置LOCILVO 與LOCIRVO 形成直線L2L 與L2R 。此時,使用者所看到3D虛擬物件VO之位置根據直線L2L 與L2R 而決定。也就是說,使用者所看到虛擬物件VO之位置即為直線L2L 與L2R 的交點之位置LOC2CP
由於使用者從3D顯示系統所得到之3D影像,會隨著使用者之位置而改變,因此當使用者欲透過一互動模組(如遊樂器)與3D顯示系統互動時,可能會產生錯誤的互動結果。舉例而言,使用者欲透過一互動模組(如遊樂器)與3D顯示系統120進行3D網球遊戲。使用者手持一互動模組中之一互動元件(如遊戲控制搖桿),以控制遊戲中的角色揮拍擊球。互動模組(遊樂器)假設使用者之位置位於3D顯示系統之正前方,且互動模組(遊樂器)假設使用者之雙眼位置分別為LOC1LE 與LOC1RE 。此時,互動模組(遊樂器)控制3D顯示系統120於左影像DIML 中顯示網球之位置LOCILVO ,於右影像DIMR 中顯示網球之位置為LOCIRVO 。因此,互動模組(遊樂器)假設使用者所看到的3D網球位置為LOC1CP (如第2圖所示)。此外,當使用者所揮拍之位置與位置LOC1CP 之間之距離小於一互動臨界距離DTH 時,互動模組(遊樂器)即判斷使用者擊中網球。然而,若此時使用者之雙眼位置實際上為LOC2LE 與LOC2RE ,則使用者實際上所看到的3D網球位置為LOC2CP 。假設位置LOC2CP 與LOC1CP 之間之距離大於互動臨界距離DTH 。如此,當使用者控制互動元件(遊戲控制搖桿)對位置LOC2CP 揮拍時,互動模組(遊樂器)判斷使用者沒有擊中網球。換句話說,雖然使用者實際上所看到的3D網球位置為LOC2CP ,且使用者控制互動元件(遊戲控制搖桿)對位置LOC2CP 揮拍,但是互動模組(遊樂器)卻判斷使用者沒有擊中網球。也就是說,由於使用者之眼睛位置改變造成3D影像之失真,因此會造成互動模組(遊樂器)誤判使用者與物件之互動關係,產生不正確的互動結果,帶給使用者很大的不便。
本發明提供一種應用於一3D互動系統之互動模組。該3D互動系統具有一3D顯示系統。該3D顯示系統用來提供一3D影像。該3D影像具有一虛擬物件。該虛擬物件具有一虛擬座標與一互動判斷條件。該互動模組包含一定位模組、一互動元件、一互動元件定位模組,以及一互動判斷電路。該定位模組用來偵測於一場景中使用者之位置,以產生一3D參考座標。該互動元件定位模組用來偵測該互動元件之位置,以產生一3D互動座標。該互動判斷電路用來根據該3D參考座標轉換該虛擬座標為一校正虛擬座標,且根據該3D互動座標、該校正虛擬座標與該互動判斷條件,以決定該互動元件與該3D影像之間之一互動結果。
本發明另提供一種應用於一3D互動系統之互動模組。該3D互動系統具有一3D顯示系統。該3D顯示系統用來提供一3D影像。該3D影像具有一虛擬物件。該虛擬物件具有一虛擬座標與一互動判斷條件。該互動模組包含一定位模組、一互動元件、一互動元件定位模組,以及一互動判斷電路。該定位模組用來偵測於一場景中使用者之位置,以產生一3D參考座標。該互動元件定位模組用來偵測該互動元件之位置,以產生一3D互動座標。該互動判斷電路用來根據該3D參考座標轉換該3D互動座標為一3D校正互動座標,且根據該3D校正互動座標、該虛擬座標與該互動判斷條件,以決定該互動元件與該3D影像之間之一互動結果。
本發明另提供一種用來決定一3D互動系統之一互動結果之方法。該3D互動系統具有一3D顯示系統與一互動元件。該3D顯示系統用來提供一3D影像。該3D影像具有一虛擬物件。該虛擬物件具有一虛擬座標與一互動判斷條件。該方法包含偵測於一場景中使用者之位置,以產生一3D參考座標、偵測該互動元件之位置,以產生一3D互動座標,以及根據該3D參考座標、該3D互動座標、該虛擬座標與該互動判斷條件,以決定該互動元件與該3D影像之間之該互動結果。
有鑑於此,本發明提供一3D互動系統,可根據使用者之位置,以校正互動元件之位置,或是3D影像中之虛擬物件之位置與互動判斷條件,如此,本發明之3D互動系統可根據經校正後之互動元件之位置,或是經校正後之虛擬物件之位置與互動判斷條件,以得到正確的互動結果。
請參考第3圖與第4圖。第3圖與第4圖為說明本發明之3D互動系統300之示意圖。3D互動系統300包含一3D顯示系統310,以及一互動模組320。3D顯示系統310提供3D影像DIM3D 。3D顯示系統可藉由裸眼式3D顯示系統110或眼鏡式3D顯示系統120實施。互動模組320包含一定位模組321、一互動元件322、一互動元件定位模組323,以及一互動判斷電路324。定位模組321用來偵測於一場景SC中使用者之位置,以產生一3D參考座標。互動元件定位模組323偵測互動元件322之位置,以產生一3D互動座標LOC3D_PIO 。互動判斷電路324根據3D參考座標、3D互動座標LOC3D_PIO 與3D影像DIM3D ,以決定互動元件322與3D影像DIM3D 之間之互動結果RT。
為了方便說明,在本發明中假設定位模組321為一眼睛定位模組作舉例說明。眼睛定位模組321偵測於一場景SC中使用者之眼睛之位置,以產生一3D雙眼座標LOC3D_EYE 來作為3D參考座標。其中3D雙眼座標LOC3D_EYE 包含一3D左眼座標LOC3D_LE 與一3D右眼座標LOC3D_RE 。因此,此時互動判斷電路324根據3D雙眼座標LOC3D_EYE 、3D互動座標LOC3D_PIO 與3D影像DIM3D ,以決定互動元件322與3D影像DIM3D 之間之互動結果RT。然而,本發明之定位模組321不限定為眼睛偵測模組,舉例而言,定位模組321可藉由偵測使用者的其他特徵(如使用者的耳朵或嘴巴等),以定位使用者之位置。
以下將更進一步地說明本發明之3D互動系統300之工作原理。
3D影像DIM3D 由左影像DIML 與右影像DIMR 所形成。設3D影像DIM3D 具有一虛擬物件VO。舉例而言,使用者透過3D互動系統300進行網球遊戲,虛擬物件VO為網球,使用者藉由互動元件322以控制在3D影像DIM3D 中之另一虛擬物件(如網球拍),來進行網球遊戲。虛擬物件VO具有一虛擬座標LOC3D_PVO 與一互動判斷條件CONDPVO 。更明確地說,虛擬物件VO於3D顯示系統310所提供之左影像DIML 中之位置為LOCILVO ,於3D顯示系統310所提供之右影像DIMR 中之位置為LOCIRVO 。互動模組320先假設使用者處於一參考位置(如3D顯示系統310之正前方),且使用者之雙眼位置等於預定雙眼座標LOCEYE_PRE ,其中預定雙眼座標LOCEYE_PRE 包含一預定左眼座標LOCLE_PRE 與一預定右眼座標LOCRE_PRE 。根據直線LPL (預定左眼座標LOCLE_PRE 與虛擬物件VO於左影像DIML 之位置LOCILVO 之間之直線)與直線LPR (預定右眼座標LOCRE_PRE 與虛擬物件VO於右影像DIMR 之位置LOCIRVO 之間之直線),3D互動系統300可得到使用者從預定雙眼座標LOCEYE_PRE 所看到的虛擬物件VO在位置LOC3D_PVO ,並將虛擬物件VO之虛擬座標設定為LOC3D_PVO 。更明確地說,使用者具有一3D成像位置模型MODELLOC 可用來依據雙眼所接收之影像以定位物件之位置。也就是說,當使用者接收左影像DIML 與右影像DIMR 後,使用者依據左影像DIML 中虛擬位件VO之位置LOCILVO 、右影像DIMR 中虛擬位件VO之位置為LOCIRVO ,即可藉由3D成像位置模型MODELLOC 以定位虛擬物件VO之3D成像位置。舉例而言,在本發明中,假設3D成像位置模型MODELLOC 為依據虛擬物件VO於左影像DIML 中之位置(如位置LOCILVO )與使用者左眼之位置(如預定左眼座標LOCLE_PRE )之第一連線(如直線LPL )與依據虛擬物件VO於右影像DIMR 中之位置(如預定右眼座標LOCIRVO )與使用者右眼之位置(如位置LOCRE_PRE )之第二連線(如直線LPR ),以決定虛擬物件VO之3D成像位置。當上述之第一連線與第二連線交叉於一交叉點時,3D成像位置模型MODELLOC 可設定虛擬物件VO之3D成像位置為交叉點之座標;當上述之第一連線與第二連線沒有交叉點時,3D成像位置模型MODELLOC 可先決定具有與第一連線與第二連線之最小距離和之一參考中點,並設定虛擬物件VO之3D成像位置為參考中點之座標。虛擬物件VO之互動判斷條件CONDPVO 用來提供給互動判斷電路324決定互動結果RT。舉例而言,互動判斷條件CONDPVO 可設為當互動元件322之位置與虛擬座標LOC3D_PVO 之間之距離小於互動臨界距離DTH 時,互動結果RT表示「接觸」,也就是說,此時互動判斷電路324判斷互動元件322所控制之網球拍接觸到3D影像DIM3D 中之虛擬物件VO(舉例而言,如擊中網球);當互動元件322之位置與虛擬座標LOC3D_PVO 之間之距離大於互動臨界距離DTH 時,互動結果RT表示「未接觸」,也就是說,此時互動判斷電路324判斷互動元件322沒有接觸到3D影像DIM3D 中之虛擬物件VO(舉例而言,沒有擊中網球)。
在本發明中,互動判斷電路324根據3D雙眼座標(3D參考座標)LOC3D_EYE 、3D互動座標LOC3D_PIO 與3D影像DIM3D ,以決定互動結果RT。更明確地說,由於當使用者不是從3D互動系統300所假設的預定雙眼座標LOCEYE_PRE 觀看3D影像DIM3D 時,使用者所看到虛擬物件VO之位置會改變且虛擬物件VO可能會有點變形,而導致不正確的互動結果RT。因此,本發明提供三種校正方法之實施例。以下將作進一步地說明。
在本發明之校正方法之第一實施例中,互動判斷電路324根據使用者觀看3D影像DIM3D 之位置(3D雙眼座標LOC3D_EYE ),以校正使用者實際上欲透過互動元件322進行互動之位置,來得到正確的互動結果RT。更明確地說,互動判斷電路324依據3D成像位置模型MODELLOC ,以計算當使用者之雙眼位置為預定雙眼座標LOCEYE_PRE 時所觀察到之互動元件322所控制之虛擬物件(如網球拍)之位置(此位置即為3D校正互動座標LOC3D_CIO )。接著,互動判斷電路324根據3D校正互動座標LOC3D_CIO 、虛擬物件VO之虛擬座標LOC3D_PVO 與互動判斷條件CONDPVO ,以決定當使用者之雙眼位 置為預定雙眼座標LOCEYE_PRE 時所觀察到之互動結果RT。由於互動結果RT不隨著使用者之位置而改變,因此此時互動判斷電路324所得到之互動結果即為使用者之雙眼位置虛擬在3D雙眼座標LOC3D_EYE 所觀察到之互動結果RT。
請參考第5圖。第5圖為說明本發明之校正方法之第一實施例之示意圖。互動判斷電路324根據3D雙眼座標(3D參考座標)LOC3D_EYE 轉換3D互動座標LOC3D_PIO 為3D校正互動座標LOC3D_CIO 。更明確地說,互動判斷電路324根據3D雙眼座標LOC3D_EYE 與3D互動座標LOC3D_PIO ,以計算出當使用者之雙眼位置虛擬在預定雙眼座標LOCEYE_PRE 時,使用者所觀察到之互動元件322之位置(意即3D校正互動座標LOC3D_CIO )。舉例而言,在預定雙眼座標LOCEYE_PRE 之座標系統中具有複數個搜尋點P(如第5圖所示之搜尋點PA )。互動判斷電路324根據搜尋點PA 與預定雙眼座標LOCLE_PRE 與LOCRE_PRE ,可得到搜尋點PA 投影於左影像DIML 之左搜尋投影座標LOC3D_SPJL ,以及搜尋點PA 投影於右影像DIMR 之右搜尋投影座標LOC3D_SPJR 。藉由本發明所假設之3D成像位置模型MODELLOC ,互動判斷電路324根據搜尋投影座標LOC3D_SPJL 與LOC3D_SPJR ,以及3D雙眼座標LOC3D_EYE 可得到在對應於3D雙眼座標LOC3D_EYE 之座標系統中,對應於搜尋點PA 之端點PB ,且互動判斷電路324可進一步地計算出端點PB 與3D互動座標LOC3D_PIO 之誤差距離DS 。如此一來,互動判斷電路324根據上述所說明之方式,可計算在預定雙眼座標LOCEYE_PRE 之座標系統中所有搜尋點P所對應的誤差距離DS 。當一搜尋點(舉例而言,如PX )所對應之誤差距離DS 最小時,互動判斷電路324根據搜尋點PX 之位置以決定3D校正互動座標LOC3D_CIO 。由於當使用者之雙眼位置為3D雙眼座標LOC3D_EYE 時,使用者所看到的3D影像DIM3D 之各虛擬物件之位置皆是從預定雙眼座標LOCEYE_PRE 之座標系統轉換至3D雙眼座標LOC3D_EYE 之座標系統。因此藉由第5圖所說明之方法計算3D校正互動座標LOC3D_CIO 時,座標系統之轉換方向與使用者所看到的3D影像DIM3D 之各虛擬物件之轉換方向相同,如此可減少因非線性座標系統轉換所產生之誤差,而得到較正確的3D校正互動座標LOC3D_CIO
為了減少在本發明之校正方法之第一實施例中,互動判斷電路324於計算在預定雙眼座標LOCEYE_PRE 之座標系統中搜尋點P所對應的誤差距離DS 時所需的運算資源,本發明更進一步地提供簡化的方式,以減少互動判斷電路324所需處理的搜尋點P的數目。請參考第6圖、第7圖與第8圖。第6圖、第7圖與第8圖為說明可減少互動判斷電路324於本發明之校正方法之第一實施例中所需處理的搜尋點的數目的方式的示意圖。互動判斷電路324根據3D雙眼座標LOC3D_EYE 將3D雙眼座標LOC3D_EYE 之座標系統中的3D互動座標LOC3D_PIO 轉換為預定雙眼座標LOCEYE_PRE 之座標系統中的一中心點PC 。由於中心點PC 對應於3D雙眼座標LOC3D_EYE 之座標系統中的3D互動座標LOC3D_PIO ,因此在大部份的情況下,具有最小誤差距離DS 之搜尋點PX 會鄰近於中心點PC 。換句話說,互動判斷電路324可僅計算鄰近於中心點PC 之搜尋點P所對應的誤差距離DS ,即可得到具有最小誤差距離DS 之搜尋點PX ,並據以決定3D校正互動座標LOC3D_CIO
更明確地說,如第6圖所示,根據互動元件322之3D互動座標LOC3D_PIO 與使用者之3D左眼座標LOC3D_LE 可形成投影直線LPJL 。投影直線LPJL 與3D顯示系統310交會於位置LOC3D_IPJL 。其中位置LOC3D_IPJL 即為使用者所看到互動元件322投影於3D顯示系統310所提供之左影像DIML 之3D左互動投影座標;同理,根據互動元件322之3D互動座標LOC3D_PIO 與使用者之3D右眼座標LOC3D_ER 可形成投影直線LPJR 。投影直線LPJR 與3D投影系統310交會於位置LOC3D_IPJR 。其中位置LOC3D_IPJR 即為使用者所看到互動元件322投影於3D顯示系統310所提供之右影像DIML 之3D右互動投影座標。也就是說,互動判斷電路324根據3D雙眼座標LOC3D_EYE 與3D互動座標LOC3D_PIO ,以得出互動元件322投影於3D顯示系統310上之3D左互動投影座標LOC3D_IPJL 與3D右互動投影座標LOC3D_IPJR 。互動判斷電路324根據3D左互動投影座標LOC3D_IPJL 與預定左眼座標LOCLE_PRE 以決定一左參考直線LREFL ,並根據該3D右互動投影座標LOC3D_IPJR 與預定右眼座標LOCRE_PRE 以決定一右參考直線LREFR 。互動判斷電路324根據左參考直線LREFL 與右參考直線LREFR ,可得到在預定雙眼座標LOCEYE_PRE 之座標系統中的中心點PC 。舉例而言,當左參考直線LREFL 與右參考直線LREFR 相交於交點CP時(如第6圖所示),互動判斷電路324可根據交點CP之位置,以決定中心點PC 。當左參考直線LREFL 與右參考直線LREFR 不直接相交時(如第7圖所示),互動判斷電路324根據左參考直線LREFL 與右參考直線LREFR ,以得到具有與左參考直線LREFL 與右參考直線LREFR 之最小距離和之一參考中點MP,且參考中點MP與左參考直線LREFL 之間之距離DMPL 等於參考中點MP與右參考直線LREFR 之間之距離DMPR 。此時,參考中點MP即為中心點PC 。當互動判斷電路324得到中心點PC 後,如第8圖所示,互動判斷電路324可根據中心點PC 以決定一搜尋範圍RA。互動判斷電路324只計算在搜尋範圍RA中的搜尋點P所對應的誤差距離DS 。因此相較於在第5圖中所說明之全面搜尋之方式,利用第6圖、第7圖與第8圖所說明之方式,可進一步地節省互動判斷電路324於計算3D校正互動座標LOC3D_CIO 時所需之運算資源。
請參考第9圖與第10圖。第9圖與第10圖為說明本發明之校正方法之第二實施例之搜尋點之示意圖。互動判斷電路324根據3D雙眼座標(3D參考座標)LOC3D_EYE 轉換3D互動座標LOC3D_PIO 為3D校正互動座標LOC3D_CIO 。更明確地說,互動判斷電路324根據3D雙眼座標LOC3D_EYE 與3D互動座標LOC3D_PIO ,以計算出當使用者之雙眼位置為預定雙眼座標LOCEYE_PRE 時,使用者所觀察到之互動元件322之位置(意即3D校正互動座標LOC3D_CIO )。舉例而言,如第9圖所示,根據互動元件322之3D互動座標LOC3D_PIO 與使用者之3D左眼座標LOC3D_LE 可形成投影直線LPJL 。投影直線LPJL 與3D顯示系統310交會於位置LOC3D_IPJL 。其中位置LOC3D_IPJL 即為使用 者所看到互動元件322投影於3D顯示系統310所提供之左影像DIML 之3D左互動投影座標;同理,根據互動元件322之3D互動座標LOC3D_PIO 與使用者之3D右眼座標LOC3D_RE 可形成投影直線LPJR 。投影直線LPJR 與3D投影系統310交會於位置LOC3D_IPJR 。其中位置LOC3D_IPJR 即為使用者所看到互動元件322投影於3D顯示系統310所提供之右影像DIML 之3D右互動投影座標。也就是說,互動判斷電路324根據3D雙眼座標LOC3D_EYE 與3D互動座標LOC3D_PIO ,以得出互動元件322投影於3D顯示系統310上之3D左互動投影座標LOC3D_IPJL 與3D右互動投影座標LOC3D_IPJR 。互動判斷電路324根據3D左互動投影座標LOC3D_IPJL 與預定左眼座標LOCLE_PRE 以決定一左參考直線LREFL ,並根據該3D右互動投影座標LOC3D_IPJR 與預定右眼座標LOCRE_PRE 以決定一右參考直線LREFR 。如此,互動判斷電路324根據左參考直線LREFL 與右參考直線LREFR ,即可得到當使用者之雙眼位置虛擬在預定雙眼座標LOCEYE_PRE 時,使用者所觀察到之互動元件322之位置(3D校正互動座標LOC3D_CIO )。更進一步地說,當左參考直線LREFL 與右參考直線LREFR 相交於交點CP時,交點CP之座標為3D校正互動座標LOC3D_CIO ;當左參考直線LREFL 與右參考直線LREFR 不直接相交時(如第10圖所示),互動判斷電路324根據左參考直線LREFL 與右參考直線LREFR ,以得到具有與左參考直線LREFL 與右參考直線LREFR 之最小距離和之一參考中點MP,且參考中點MP與左參考直線LREFL 之間之距離DMPL 等於參考中點MP與右參考直線LREFR 之間之距離DMPR 。此時,參考中點MP之座標即可視為當使用者之雙眼位置為預定3D雙眼座標LOCEYE_PRE 時,使用者所觀察到之互動元件322之位置(3D校正互動座標LOC3D_CIO )。因此,互動判斷電路324可根據3D校正互動座標LOC3D_CIO ,以及虛擬物件VO之虛擬座標LOC3D_PVO 與互動判斷條件CONDPVO ,以決定互動結果RT。相較於本發明之校正方法之第一實施例,在本發明之校正方法之第二實施例中,互動判斷電路324根據3D互動座標LOC3D_PIO 與3D雙眼座標LOC3D_EYE ,以得到3D左互動投影座標LOC3D_IPJL 與3D右互動投影座標LOC3D_IPJR ,並進一步根據3D左互動投影座標LOC3D_IPJL 、3D右互動投影座標LOC3D_IPJR 與預定雙眼座標LOCEYE_PRE ,以得到3D校正互動座標LOC3D_CIO 。也就是說,在本發明之校正方法之第二實施例中為將對應於3D雙眼座標LOC3D_EYE 之座標系統之3D互動座標LOC3D_PIO 轉換為對應於預定雙眼座標LOCEYE_PRE 之座標系統之位置,並以該位置作為3D校正互動座標LOC3D_CIO 。在本發明之校正方法之第二實施例中,對應於預定雙眼座標LOCEYE_PRE 之座標系統與對應於3D雙眼座標LOC3D_EYE 之座標系統之間之轉換並非線性(意即將3D校正互動座標LOC3D_CIO 以類似上述說明之方式反轉換回3D雙眼座標LOC3D_EYE 之座標系統之位置不等於3D互動座標LOC3D_PIO ),因此相較於本發明之校正方法之第一實施例,本發明之校正方法之第二實施例所得到之3D校正互動座標LOC3D_CIO 為一近似值。然而,利用本發明之校正方法之第二實施例,互動判斷電路324不需計算搜尋點P所對應的誤差距離DS ,因此可大量地節省互動判斷電路324所需的運算資源。
在本發明之校正方法之第三實施例中,互動判斷電路324根據使用者實際上看3D影像DIM3D 之位置(如第4圖所示之3D左眼座標LOC3D_LE 與3D右眼座標LOC3D_RE ),以校正3D影像DIM3D (如虛擬物件VO之虛擬座標LOC3D_PVO 與互動判斷條件CONDPVO ),來得到正確的互動結果RT。更明確地說,互動判斷電路324根據3D雙眼座標LOC3D_EYE (3D左眼座標LOC3D_LE 與3D右眼座標LOC3D_RE )、虛擬物件VO之虛擬座標LOC3D_PVO 與互動判斷條件CONDPVO ,以計算出當使用者之觀看位置為3D雙眼座標LOC3D_EYE 時,使用者實際上所看到虛擬物件VO之位置與使用者所應感受到之互動判斷條件。如此,互動判斷電路324即可根據互動元件322之位置(3D互動座標LOC3D_PIO )、使用者實際上所看到虛擬物件VO之位置(如第4圖所示之經校正後之座標),以及使用者所應感受到之互動判斷條件(如第4圖所示之經校正後之互動判斷條件),而決定正確的互動結果。
請參考第11圖與第12圖。第11圖與第12圖係為說明本發明之校正方法之第三實施例之示意圖。在本發明之校正方法之第三實施例中,互動判斷電路324根據3D雙眼座標(3D參考座標)LOC3D_EYE 校正3D影像DIM3D ,以得到正確的互動結果RT。更明確地說,互動判斷電路324根據3D雙眼座標(3D參考座標)LOC3D_EYE 轉換虛擬物件VO之虛擬座標LOC3D_PVO 為校正虛擬座標LOC3D_CVO 。且互動判斷電路324根據該3D雙眼座標LOC3D_EYE 轉換互動判斷條件CONDPVO 為一校正互動判斷條件CONDCVO 。如此一來,互動判斷電路324根據3D互動座標LOC3D_PIO 、校正虛擬座標LOC3D_CVO 與校正互動判斷條件CONDCVO ,以決定互動結果RT。舉例而言,如第11圖所示,使用者從3D左眼座標LOC3D_LE 與3D右眼座標LOC3D_RE 觀看3D影像DIM3D 。因此,互動判斷電路324可根據直線LAL (3D左眼座標LOC3D_LE 與虛擬物件VO於左影像DIML 之位置LOCILVO 之間之直線)與直線LAR (3D右眼座標LOC3D_RE 與虛擬物件VO於右影像DIMR 之位置LOCIRVO 之間之直線),以得到使用者從3D雙眼座標LOC3D_EYE 所看到的虛擬物件VO在位置LOC3D_CVO 。如此一來,互動判斷電路324可根據3D雙眼座標LOC3D_EYE ,以校正虛擬座標LOC3D_PVO ,而得到使用者實際上看到虛擬物件VO所處的位置(校正虛擬座標LOC3D_CVO )。如第12圖所示,互動判斷條件CONDPVO 為根據互動臨界距離DTH 與虛擬物件VO之位置所決定。因此,互動判斷條件CONDPVO 可視為以虛擬物件VO之位置為中心,以互動臨界距離DTH 為半徑所形成的臨界面SUFPTH 。當互動元件322進入臨界面SUFPTH 時,互動判斷電路324決定互動結果RT表示「接觸」;當互動元件322沒有進入臨界面SUFPTH 時,互動判斷電路324決定互動結果RT表示「未接觸」。由於臨界面SUFPTH 可視為由許多臨界點PTH 所組成,每個臨界點PTH 之位置為其虛擬座標LOCPTH ,因此互動判斷電路324利用類似第11圖所說明之方法,可根據3D雙眼座標LOC3D_EYE ,以得到使用者實際上所感受到之每個臨界點PTH 之校正虛擬座標LOCCTH 。如此一來,所有臨界點PTH 之校正虛擬座標LOCCTH 即可形成經校正後之臨界面SUFCTH 。此時,校正臨界面SUFCTH 即為校正互動判斷條件CONDCOV 。也就是說,當互動元件322之3D互動座標LOC3D_PIO 進入校正臨界面SUFCTH 時,互動判斷電路324決定互動結果RT表示「接觸」(如第12圖所示)。如此一來,互動判斷電路324根據3D雙眼座標LOC3D_EYE 可校正3D影像DIM3D (虛擬物件VO之虛擬座標LOC3D_PVO 與互動判斷條件CONDPVO ),以得到使用者實際上看到虛擬物件VO之位置(校正虛擬座標LOC3D_CVO )與使用者實際上所應感受到之互動判斷條件(校正互動判斷條件CONDCVO )。因此,互動判斷電路324可根據互動元件322之3D互動座標LOC3D_PIO 、虛擬座標LOC3D_CVO 與校正互動判斷條件CONDCVO ,以正確地決定互動結果RT。此外,在一般的情況下,互動判斷條件CONDPOV 與校正互動判斷條件CONDCOV 之差異不大,舉例而言,臨界面SUFPTH 為具有半徑DTH 之球面,此時,校正臨界面SUFCTH 也為球面,且其半徑大約等於DTH 。因此在本發明之校正方法之第三實施例中,也可僅校正虛擬物件VO之虛擬座標LOC3D_PVO ,而不校正互動判斷條件CONDPVO ,以節省互動判斷電路324所需之運算資源。換句話說,互動判斷電路324可依據校正虛擬座標LOC3D_CVO 與原本的互動判斷條件CONDPVO ,以計算互動結果RT。
此外,在本發明之校正方法之第三實施例中,互動判斷電路324係根據使用者實際上看3D影像DIM3D 之位置(3D雙眼座標LOC3D_EYE ),以校正3D影像DIM3D (虛擬座標LOC3D_PVO 與互動判斷條件CONDPVO ),來得到正確的互動結果RT。因此在本發明所提供之校正方法之第三實施例中,若3D影像DIM3D 中具有多個虛擬物件(舉例而言,VO1 ~VOM ),則互動判斷電路324需計算每個虛擬物件VO1 ~VOM 之校正虛擬座標與校正互動判斷條件。換句話說,互動判斷電路324所需處理的資料量隨著虛擬物件之數量而增加。然而,在本發明之校正方法之第一與第二實施例中,互動判斷電路324根據使用者觀看3D影像DIM3D 之位置(3D雙眼座標LOC3D_EYE ),以校正互動元件322之位置(3D互動座標LOC3D_PIO ),來得到正確的互動結果RT。因此在本發明所提供之校正方法之第一與第二實施例中,互動判斷電路324僅需計算互動元件322之3D校正互動座標LOC3D_CIO 。換句話說,相較於本發明所提供之校正方法之第三實施例,即使虛擬物件之數量增加,互動判斷電路324所需處理的資料量也不會改變。
請參考第13圖,第13圖為說明本發明之3D互動系統300可控制聲光效果之示意圖。3D互動系統300另包含一顯示控制電路330,一喇叭340,以及一聲音控制電路350。顯示控制電路330根據互動結果RT,以調整3D顯示系統310所提供之3D影像DIM3D 。舉例而言,當互動判斷電路324判斷互動結果RT表示「接觸」時,顯示控制電路330控制3D顯示系統310顯示虛擬物件VO(如網球)被互動元件322(對應於網球拍)擊出之3D影像DIM3D 。聲音控制電路350根據互動結果RT調整喇叭340所提供之聲音。舉例而言,當互動判斷電路324判斷互動結果RT表示「接觸」時,聲音控制電路350控制喇叭340輸出虛擬物件VO(如網球)被互動元件322(對應於網球拍)擊中之聲音。
請參考第14圖。第14圖為本發明之眼睛定位模組之實施例1100之示意圖。眼睛定位模組1100包含影像感測器1110與1120、眼睛定位電路1130,以及一3D座標轉換電路1140。影像感測器1110與1120用來感測範圍涵蓋使用者之位置之場景SC,以分別產生2D感測影像SIM2D1 與SIM2D2 ,且影像感測器1110設置於感測位置LOCSEN1 、影像感測器1120設置於感測位置LOCSEN2 。眼睛定位電路1130用來根據2D感測影像SIM2D1 與SIM2D2 ,以分別得到在2D感測影像SIM2D1 中使用者雙眼之2D雙眼座標LOC2D_EYE1 與在2D感測影像SIM2D2 中使用者雙眼之2D雙眼座標LOC2D_EYE2 。3D座標轉換電路1140,用來根據2D雙眼座標LOC2D_EYE1 與LOC2D_EYE2 、影像感測器1110之位置LOCSEN1 ,以及影像感測器1120之位置LOCSEN2 ,以計算出使用者之雙眼之3D雙眼座標LOC3D_EYE ,其工作原理係為業界習知之技術,故不再贅述。
請參考第15圖。第15圖為本發明之眼睛定位電路之實施例1200之示意圖。眼睛定位電路1200包含一眼睛偵測電路1210。眼睛偵測(eye-detecting)電路1210偵測2D感測影像SIM2D1 中之使用者之眼睛,以得到2D雙眼座標LOC2D_EYE1 ,且眼睛偵測電路1210偵測2D感測影像SIM2D2 中之使用者之眼睛,以得到2D雙眼座標LOC2D_EYE2 。由於眼睛偵測為業界習知之技術,故不再贅述。
請參考第16圖。第16圖為本發明之眼睛定位模組之實施例1300之示意圖。相較於眼睛定位模組1100,眼睛定位模組1300另包含一人臉偵測電路1350。人臉偵測電路1350用來辨識2D感測影像SIM2D1 中之使用者之人臉HM1 之範圍與2D感測影像SIM2D2 中之使用者之人臉HM2 之範圍,其中人臉偵測為業界習知之技術,故不再贅述。藉由人臉偵測電路1350,眼睛定位電路1130只需根據人臉HM1 與人臉HM2 之範圍內之資料,即可得到分別2D雙眼座標LOC2D_EYE1 與LOC2D_EYE2 。因此,相較於眼睛定位模組1100,眼睛定位模組1300可減少眼睛定位電路1340於2D感測影像SIM2D1 與SIM2D2 所需處理之範圍,提昇眼睛定位模組1100之處理速度。
考慮到3D顯示系統310以眼鏡式3D顯示系統實施時,使用者之雙眼可能會被眼鏡式3D顯示系統之輔助眼鏡遮蔽,因此在第17圖中,本發明提供眼睛定位電路之另一實施例1400。設3D顯示系統310包含一顯示幕311與輔助眼鏡312。使用者配戴輔助眼鏡312,以接收顯示幕311所提供之左影像DIML 與右影像DIMR 。眼睛定位電路1400包含一眼鏡偵測電路1410,以及一眼鏡座標轉換電路1420。眼鏡偵測電路1410偵測2D感測影像SIM2D1 中之輔助眼鏡312,以得到2D眼鏡座標LOCGLASS1 與眼鏡斜率SLGLASS1 ,且眼鏡偵測電路1410偵測2D感測影像SIM2D2 中之輔助眼鏡312,以得到2D眼鏡座標LOCGLASS2 與眼鏡斜率SLGLASS2 。眼鏡座標轉換電路1420根據2D眼鏡座標LOCGLASS1 與LOCGLASS2 、眼鏡斜率SLGLASS1 與SLGLASS2 ,以及使用者預先輸入至3D互動系統300或3D互動系統300預設之預定雙眼間距DEYE ,以計算出使用者之2D雙眼座標LOC2D_EYE1 與LOC2D_EYE2 。如此,即使使用者之雙眼被眼鏡所遮蔽時,本發明之眼睛定位模組仍可藉由眼睛定位電路1400之設計,以得到使用者之2D雙眼座標LOC2D_EYE1 與LOC2D_EYE2
請參考第18圖。第18圖係為本發明提供眼睛定位電路之另一實施例1500之示意圖。相較於眼睛定位電路1400,眼睛定位電路1500另包含一傾斜偵測器1530。傾斜偵測器1530可設置於輔助眼鏡312上。傾斜偵測器1530根據輔助眼鏡312之傾斜角度,以產生傾斜資訊INFOTILT 。舉例而言,傾斜偵測器1530係為一陀螺儀(Gyroscope)。由於當在2D感測影像SIM2D1 與影像SIM2D2 中對應於輔助眼鏡312之畫素較少時,眼鏡偵測電路1410所計算得到之眼鏡斜率SLGLASS1 與SLGLASS2 較容易產生誤差。因此藉由傾斜偵測器1530所提供的傾斜資訊INFOTILT ,眼鏡座標轉換電路1420可校正眼鏡偵測電路1410所計算得到之眼鏡斜率SLGLASS1 與SLGLASS2 。舉例而言,眼鏡座標轉換電路1420根據傾斜資訊INFOTILT ,校正眼鏡偵測電路1410所計算得到之眼鏡斜率SLGLASS1 與SLGLASS2 ,並據以產生校正眼鏡斜率SLGLASS1_C 與校正眼鏡斜率SLGLASS2_C 。如此,眼鏡座標轉換電路1420根據2D眼鏡座標LOCGLASS1 與LOCGLASS2 、校正眼鏡斜率SLGLASS1_C 與SLGLASS2_C 、與預定雙眼間距DEYE ,可計算出2D雙眼座標LOC2D_EYE1 與LOC2D_EYE2 。因此,也就是說,相較於眼睛定位電路1400,在眼睛定位電路1500中,眼鏡座標轉換電路1420可校正眼鏡偵測電路1410計算眼鏡斜率SLGLASS1 與SLGLASS2 時所產生的誤差,以更正確地計算出使用者之2D雙眼座標LOC2D_EYE1 與LOC2D_EYE2
請參考第19圖。第19圖係為眼睛定位電路之另一實施例1600之示意圖。相較於眼睛定位電路1400,眼睛定位電路1600另包含一紅外光發光元件1640、一紅外光反射元件1650,以及一紅外光感測電路1660。紅外光發光元件1640用來發出偵測光LD 至場景SC。紅外光反射元件1650設置於輔助眼鏡312上,用來反射偵測光LD 以產生反射光LR 。紅外光感測電路1660根據LR ,以產生對應於輔助眼鏡312之位置之2D紅外光座標LOCIR 與對應於輔助眼鏡312之傾斜角度之紅外光斜率SLIR 。類似於第18圖之說明,眼鏡座標轉換電路1420可根據紅外光感測電路1660所提供之資訊(2D紅外光座標LOCIR 與紅外光斜率SLIR ),以校正眼鏡偵測電路1410所計算得到之眼鏡斜率SLGLASS1 與SLGLASS2 ,並據以產生校正眼鏡斜率SLGLASS1_C 與校正眼鏡斜率SLGLASS2_C 。如此一來,相較於眼睛定位電路1400,在眼睛定位電路1600中,眼鏡座標轉換電路1420可校正眼鏡偵測電路1410計算眼鏡斜率SLGLASS1 與SLGLASS2 時所產生的誤差,以更正確地計算出使用者之2D雙眼座標LOC2D_EYE1 與LOC2D_EYE2 。此外,在眼睛定位電路1600中,可具有多個紅外光反射元件1650紅外光反射元件1650。舉例而言,在第20圖中,眼睛定位電路1600具有兩個紅外光反射元件1650,分別設置對應於使用者之雙眼之位置。在第20圖中,紅外光反射元件1650係分別設置於使用者之雙眼之上方,以作為舉例說明。在第19圖中之眼睛定位電路1600僅具有一紅外光反射元件1650,因此紅外光感測電路1660需要偵測單一紅外光反射元件1650之指向性以計算出紅外光斜率SLIR 。然而,在第20圖中,當紅外光感測電路1660偵測到兩個紅外光反射元件1650所產生之反射光LR 時,紅外光感測電路1660可據以偵測兩個紅外光反射元件1650之位置,並計算出紅外光斜率SLIR 。因此,利用第20圖之方式所實施之眼睛定位電路1600,可更簡易且更精準地得到紅外光斜率SLIR ,以更正確地計算出使用者之2D雙眼座標LOC2D_EYE1 與LOC2D_EYE2
此外,在第19圖與第20圖中所說明之眼睛定位電路1600中,當使用者的頭部之轉動幅度較大時,可能會造成紅外光反射元件1650的角度過於偏斜,而使得紅外光感測電路1660無法感測到足夠的反射光LR 的能量,如此,可能會造成紅外光感測電路1660無法正確地計算紅外光斜率SLIR 。因此,本發明更進一步地提供眼睛定位電路之另一實施例2300。第21圖與第22圖為說明眼睛定位電路2300之示意圖。相較於眼睛定位電路1400,眼睛定位電路2300另包含一或多個紅外光發光元件2340、以及一紅外光感測電路2360。紅外光發光元件2340及紅外光感測電路2360之結構及工作原理分別與紅外光發光元件1640及紅外光感測電路1660類似。在眼睛電位電路2300中,將紅外光發光元件2340直接設置對應於使用者之雙眼之位置。如此,即使當使用者的頭部之轉動幅度較大時,紅外光感測電路2360也可感測到足夠的偵測光LD 之能量,以偵測紅外光發光元件2340,並據以計算紅外光斜率SLIR 。在第21圖中,眼睛定位電路2300具有一紅外光發光元件2340,且紅外光發光元件2340大約設置於使用者之雙眼之中間之位置。在第22圖中,眼睛定位電路2300具有兩紅外光發光元件2340,且紅外光發光元件2340分別設置於使用者之雙眼之上方。因此,相較於第21圖中僅具有一紅外光發光元件2340,在第22圖中,當紅外光感測電路2360偵測到兩個紅外光發光元件2240時,可直接以兩個紅外光發光元件2340之位置計算出紅外光斜率SLIR ,而不需要偵測單一紅外光發光元件2340之指向性。因此,利用第22圖之方式所實施之眼睛定位電路2300,可更簡易且更精準地得到紅外光斜率SLIR ,以更正確地計算出使用者之2D雙眼座標LOC2D_EYE1 與LOC2D_EYE2
請參考第23圖。第23圖為本發明之眼睛定位模組之另一實施例1700之示意圖。眼睛定位模組1700包含一3D場景感測器1710,以及一眼睛座標產生電路1720。3D場景感測器1710用來感測範圍涵蓋使用者之場景SC,以產生2D感測影像SIM2D3 ,以及對應於2D感測影像SIM2D3 之距離資訊INFOD 。距離資訊INFOD 具有在2D感測影像SIM2D3 之每一點與3D場景感測器1710之間之距離之資料。眼睛座標產生電路1720,用來根據2D感測影像SIM2D3 與距離資訊INFOD ,以產生3D雙眼座標LOC3D_EYE 。舉例而言,眼睛座標產生電路1720辨識出2D感測影像SIM2D3 中對應於使用者之雙眼之畫素,接著,眼睛座標產生電路1720根據距離資訊INFOD ,以得到2D感測影像SIM2D3 中對應於使用者之雙眼之畫素所感測之場景SC與3D場景感測器1710之間之距離。如此,眼睛座標產生電路1720根據2D感測影像SIM2D3 中對應於使用者之雙眼之畫素之位置與在距離資訊INFOD 中之對應之距離資料,即可產生3D雙眼座標LOC3D_EYE
請參考第24圖。第24圖係為本發明之3D場景感測器之一實施例1800之示意圖。3D場景感測器1800包含一影像感測器1810、一紅外光發光元件1820,以及一光感測測距裝置1830。影像感測器1810感測場景SC,以產生2D感測影像SIM2D3 。紅外光發光元件1820偵測光LD 至場景SC,以使場景SC產生反射光LR 。光感測測距裝置1830,用來感測反射光LR ,以產生距離資訊INFOD 。舉例而言,光感測測距裝置1830係為Z感測器(Z-sensor)。由於Z感測器係為業界習知之技術,故不再贅述。
請參考第25圖。第25圖係為本發明之眼睛座標產生電路之一實施例1900之示意圖。眼睛座標產生電路1900包含一眼睛偵測電路1910,以及一3D座標轉換電路1920。眼睛偵測電路1910用來偵測2D感測影像SIM2D3 中使用者之眼睛,以得到2D雙眼座標LOC2D_EYE3 。3D座標轉換電路1920根據2D雙眼座標LOC2D_EYE3 、距離資訊INFOD 、光感測測距裝置1830所設置之測距位置LOCMD (如第24圖所示),以及影像感測器1810所設置之感測位置LOCSEN3 (如第24圖所示),以計算出3D雙眼座標LOC3D_EYE
請參考第26圖。第26圖係為本發明之眼睛座標產生電路之一實施例2000之示意圖。相較於眼睛座標產生電路1900,眼睛座標產生電路2000另包含一人臉偵測電路2030。人臉偵測電路2030用來辨識2D感測影像SIM2D3 中之使用者之人臉HM3 之範圍。藉由人臉測電路2030,眼睛偵測電路1910只需根據人臉HM3 範圍內之資料,即可得到2D雙眼座標LOC2D_EYE3 。因此,相較於眼睛座標產生電路1900,眼睛座標產生電路2000可減少眼睛偵測電路1910於2D感測影像SIM2D3 所需處理之範圍,提昇眼睛座標產生電路2000之處理速度。
此外,考慮到3D顯示系統310以眼鏡式3D顯示系統實施時,使用者之雙眼可能會被眼鏡式3D顯示系統之輔助眼鏡312遮蔽,因此在第27圖中,本發明提供眼睛座標產生電路之另一實施例2100。眼睛定位電路2100包含一眼鏡偵測電路2110,以及一眼鏡座標轉換電路2120。眼鏡偵測電路2110偵測2D感測影像SIM2D3 中之輔助眼鏡312,以得到2D眼鏡座標LOCGLASS3 與眼鏡斜率SLGLASS3 。眼鏡座標轉換電路2120根據2D眼鏡座標LOCGLASS3 與眼鏡斜率SLGLASS3 、使用者預先輸入至3D互動系統300或3D互動系統300預設之預定雙眼間距DEYE ,以及距離資訊INFOD ,以計算出使用者之3D雙眼座標LOC3D_EYE 。如此,即使使用者之雙眼被眼鏡所遮蔽時,本發明之眼睛座標產生電路2100仍可計算出使用者之3D雙眼座標LOC3D_EYE
請參考第28圖。第28圖係為本發明提供眼睛座標產生電路之另一實施例2200之示意圖。相較於眼睛座標產生電路2100,眼睛 座標產生電路2200另包含一傾斜偵測器2230。傾斜偵測器2230可設置於輔助眼鏡312上。傾斜偵測器2230之結構與工作原理與傾斜偵測器1530相似,故不再贅述。藉由傾斜偵測器2230所提供的傾斜資訊INFOTILT ,眼鏡座標轉換電路2120可校正眼鏡偵測電路2110所計算得到之眼鏡斜率SLGLASS3 。舉例而言,眼鏡座標轉換電路2120根據傾斜資訊INFOTILT ,校正眼鏡偵測電路2110所計算得到之眼鏡斜率SLGLASS3 ,並據以產生校正眼鏡斜率SLGLASS3_C 。如此,眼鏡座標轉換電路1420根據2D眼鏡座標LOCGLASS3 與校正眼鏡斜率SLGLASS3_C 、預定雙眼間距DEYE 與距離資訊INFOD ,可計算出3D雙眼座標LOC3D_EYE 。相較於眼睛座標產生電路2100,在眼睛座標產生電路2200中,眼鏡座標轉換電路2120可校正眼鏡偵測電路2110計算眼鏡斜率SLGLASS3 時所產生的誤差,以更正確地計算出使用者之3D雙眼座標LOC3D_EYE
綜上所述,本發明所提供之3D互動系統300,可根據使用者之位置,以校正互動元件之位置,或是3D影像中之虛擬物件之位置與互動判斷條件,如此,即使使用者之位置改變而造成使用者所看到的3D影像中之虛擬物件之位置改變,本發明之3D互動系統仍可根據經校正後之互動元件之位置,或是經校正後之虛擬物件之位置與互動判斷條件,來得到正確的互動結果。此外,當本發明之定位模組為眼睛定位模組時,即使使用者配戴眼鏡式3D顯示系統之輔助眼鏡而造成使用者之眼睛被遮蔽,本發明所提供之眼睛定位模組根據使用者預先輸入之預定雙眼睛間距,仍可計算出使用者之眼睛之位置,帶給使用者更大的便利。
以上所述僅為本發明之較佳實施例,凡依本發明申請專利範圍所做之均等變化與修飾,皆應屬本發明之涵蓋範圍。
110、120、310...3D顯示系統
121...顯示幕
122...輔助眼鏡
300...3D互動系統
320...互動模組
321...定位模組
322...互動元件
323...互動元件定位模組
324...互動判斷電路
330...顯示控制電路
340...喇叭
350...聲音控制電路
1100、1300、1700...眼睛定位模組
1110、1120、1810...影像感測器
1130、1200、1400、1500、1600、2300...眼睛定位電路
1140、1920...3D座標轉換電路
1210...眼睛偵測電路
1350、2030...人臉偵測電路
1410、1910、2110、2310...眼鏡偵測電路
1420、2120、2320...眼鏡座標轉換電路
1530、2230...傾斜偵測器
1640、1820、2340...紅外光發光元件
1650...紅外光反射元件
1660、2360...紅外光感測電路
1710、1800...3D場景感測器
1720、1900、2000、2100、2200...眼睛座標產生電路
1830...光感測測距裝置
CONDPVO 、CONDCVO ...互動判斷條件
DS ...誤差距離
DTH ...互動臨界距離
DMPR 、DMPL ...距離
DIM3D ...3D影像
DIMθ1 ~DIMθ8 、DIML 、DIMR ...影像
INFOD ...距離資訊
INFOTILT ...傾斜資訊
LD ...偵測光
LR ...反射光
L1L 、L1R 、L2L 、L2R 、LPL 、LPR 、LAL 、LAR 、LREFL 、LREFR 、LPJL 、LPJR ...直線
LOC3D_PIO 、LOC3D_CIO 、LOC3D_PVO 、LOC3D_CVO 、LOC3D_EYE 、LOCIRVO 、LOCILVO 、LOC1CP 、LOC2CP 、LOC1LE 、LOC1LR 、LOC2LE 、LOC2LR 、LOC3D_LE 、LOC3D_RE 、LOCLE_PRE 、LOCRE_PRE 、LOCPTH 、LOCCTH 、LOC3D_IPJR 、LOC3D_IPJL 、LOC3D_SPJR 、LOC3D_SPJL 、LOCSEN1 ~LOCSEN3 、LOC2D_EYE1 ~LOC2D_EYE3 、LOCGLASS1 、LOCGLASS2 、LOCGLASS3 、LOCIR 、LOCMD ...座標
MP‧‧‧參考中點
PA 、PX ‧‧‧搜尋點
PB ‧‧‧端點
PC ‧‧‧中心點
RA‧‧‧搜尋範圍
RT‧‧‧互動結果
SC‧‧‧場景
SIM2D1 ~SIM2D3 ‧‧‧2D感測影像
SLGLASS1 ~SLGLASS3 ‧‧‧眼鏡斜率
SLIR ‧‧‧紅外光斜率
SUFPTH 、SUFCTH ‧‧‧臨界面
第1圖為說明先前技術之3D顯示系統之示意圖。
第2圖為說明先前技術之3D顯示系統所提供之3D影像隨使用者之位置而改變之示意圖。
第3圖與第4圖為說明本發明之3D互動系統之示意圖。
第5圖為說明本發明之校正方法之第一實施例之示意圖。
第6圖、第7圖與第8圖為說明可減少互動判斷電路於本發明之校正方法之第一實施例中所需處理的搜尋點的數目的方式的示意圖。
第9圖與第10圖為說明本發明之校正方法之第二實施例之示意圖。
第11圖與第12圖係為說明本發明之校正方法之第三實施例之示意圖。
第13圖為說明本發明之3D互動系統可控制聲光效果之示意圖。
第14圖為本發明之眼睛定位模組之第一實施例之示意圖。
第15圖為本發明之眼睛定位電路之第一實施例之示意圖。
第16圖為本發明之眼睛定位模組之另一實施例之示意圖。
第17圖為本發明之眼睛定位電路之另一實施例之示意圖。
第18圖為本發明之眼睛定位電路之另一實施例之示意圖。
第19圖與第20圖為本發明之眼睛定位電路之另一實施例之示意圖。
第21圖與第22圖為本發明之眼睛定位電路之另一實施例之示意圖。
第23圖為本發明之眼睛定位模組之另一實施例之示意圖。
第24圖為本發明之3D場景感測器之第一實施例之示意圖。
第25圖為本發明之眼睛座標產生電路之第一實施例之示意圖。
第26圖為本發明之眼睛座標產生電路之另一實施例之示意圖。
第27圖為本發明之眼睛座標產生電路之另一實施例之示意圖。
第28圖為本發明之眼睛座標產生電路之另一實施例之示意圖。
300...3D互動系統
310...3D顯示系統
320...互動模組
321...定位模組
322...互動元件
323...互動元件定位模組
324...互動判斷電路
DIM3D ...3D影像
LOC3D_PIO 、LOC3D_EYE ...座標
SC...場景

Claims (24)

  1. 一種應用於一3D互動系統之互動模組,該3D互動系統具有一3D顯示系統,該3D顯示系統用來提供一3D影像,該3D影像具有一虛擬物件,該虛擬物件具有一虛擬座標與一互動判斷條件,該互動模組包含:一定位模組,用來偵測於一場景中使用者之位置,以產生一3D參考座標;一互動元件;一互動元件定位模組,用來偵測該互動元件之位置,以產生一3D互動座標;以及一互動判斷電路,用來根據該3D參考座標轉換該虛擬座標為一校正虛擬座標,且根據該3D互動座標、該校正虛擬座標與該互動判斷條件,以決定該互動元件與該3D影像之間之一互動結果。
  2. 如請求項1所述之互動模組,其中該互動判斷電路根據該3D參考座標轉換該互動判斷條件為一校正互動判斷條件;該互動判斷電路根據該3D互動座標、該校正虛擬座標與該校正互動判斷條件,決定該互動結果;該互動判斷電路根據一互動臨界距離與該虛擬座標,以計算出一臨界面;該互動判斷電路根據該3D參考座標轉換該臨界面為一校正臨界面;該校正互動判斷條件係為當該3D互動座標進入該校正臨界面時,該互動結果表示接 觸。
  3. 如請求項1所述之互動模組,其中該定位模組為一眼睛定位模組,該眼睛定位模組用來偵測該場景中使用者之眼睛之位置,以產生一3D雙眼座標作為該3D參考座標;其中該3D顯示系統包含一顯示幕以及一輔助眼鏡,該顯示幕用來提供一左影像與一右影像,該輔助眼鏡用來輔助接收該左影像與該右影像,以得到該3D影像;其中該眼睛定位模組包含:一第一影像感測器,用來感測該場景,以產生一第一2D感測影像;一第二影像感測器,用來感測該場景,以產生一第二2D感測影像;一眼睛定位電路,包含:一眼鏡偵測電路,用來偵測該第一2D感測影像中之該輔助眼鏡,以得到一第一2D眼鏡座標與一第一眼鏡斜率,並偵測該第二2D感測影像中之該輔助眼鏡,以得到一第二2D眼鏡位置與一第二眼鏡斜率;以及一眼鏡座標轉換電路,用來根據該第一2D眼鏡座標、該第一眼鏡斜率、該第二2D眼鏡座標、該第二眼鏡斜率與一預定雙眼間距,以計算出一第一2D雙眼座標與一第二2D雙眼座標;以及一3D座標轉換電路,用來根據該第一2D雙眼座標、該第 二2D雙眼座標、該第一影像感測器之一第一感測位置與該第二影像感測器之一第二感測位置,以計算出該3D雙眼座標。
  4. 如請求項3所述之互動模組,其中該眼睛定位電路另包含一傾斜偵測器;該傾斜偵測器設置於該輔助眼鏡上;該傾斜偵測器用來根據該輔助眼鏡之傾斜角度,以產生一傾斜資訊;該眼鏡座標轉換電路根據該傾斜資訊、第一2D眼鏡座標、該第一眼鏡斜率、該第二2D眼鏡座標、該第二眼鏡斜率與該預定雙眼間距,以計算出該第一2D雙眼座標與該第二2D雙眼座標。
  5. 如請求項3所述之互動模組,其中該眼睛定位電路另包含:一第一紅外光發光元件,用來發出一第一偵測光;以及一紅外光感測電路,用來根據該第一偵測光,以產生一2D紅外光座標與一紅外光斜率;其中該眼鏡座標轉換電路根據該紅外光斜率、該第一眼鏡斜率、該第二眼鏡斜率、該2D紅外光座標、該第一2D眼鏡座標、該第二2D眼鏡座標、該第二校正眼鏡斜率與該預定雙眼間距,以計算出該第一2D雙眼座標與該第二2D雙眼座標。
  6. 如請求項1所述之互動模組,其中該定位模組為一眼睛定位模組,該眼睛定位模組用來偵測該場景中使用者之眼睛之位置, 以產生一3D雙眼座標作為該3D參考座標;其中該3D顯示系統包含一顯示幕以及一輔助眼鏡,該顯示幕用來提供一左影像與一右影像,該輔助眼鏡用來輔助接收該左影像與該右影像,以得到該3D影像;其中該眼睛定位模組包含:一3D場景感測器,包含:一第三影像感測器,用來感測該場景,以產生一第三2D感測影像;一紅外光發光元件,用來發出一偵測光至該場景,以使該場景產生一反射光;以及一光感測測距裝置,用來感測該反射光,以產生一距離資訊;其中該距離資訊具有該第三2D感測影像中每一點與該3D場景感測器之間之距離之資料;以及一眼睛座標產生電路,包含:一眼鏡偵測電路,用來偵測該第三2D感測影像中之該輔助眼鏡,以得到一第三2D眼鏡座標與一第三眼鏡斜率;以及一眼鏡座標轉換電路,用來根據該第三2D眼鏡座標、該第三眼鏡斜率、一預定雙眼間距與該距離資訊,以計算出該3D雙眼座標。
  7. 如請求項6所述之互動模組,其中該定位模組為一眼睛定位模 組,該眼睛定位模組用來偵測該場景中使用者之眼睛之位置,以產生一3D雙眼座標作為該3D參考座標;其中該眼睛定位模組包含:一3D場景感測器,用來感測該場景,以產生一第三2D感測影像,以及對應於該第三2D感測影像之一距離資訊;其中該距離資訊具有該第三2D感測影像中每一點與該3D場景感測器之間之距離之資料;以及一眼睛座標產生電路,包含:一眼睛偵測電路,用來偵測該第三2D感測影像中之眼睛,以得到一第三2D雙眼座標;一3D座標轉換電路,用來根據該第三2D雙眼座標、該距離資訊、該光感測測距裝置之一測距位置,以及該第三影像感測器之一第三感測位置,以計算出該3D雙眼座標。
  8. 一種應用於一3D互動系統之互動模組,該3D互動系統具有一3D顯示系統,該3D顯示系統用來提供一3D影像,該3D影像具有一虛擬物件,該虛擬物件具有一虛擬座標與一互動判斷條件,該互動模組包含:一定位模組,用來偵測於一場景中使用者之位置,以產生一3D參考座標;一互動元件;一互動元件定位模組,用來偵測該互動元件之位置,以產生一 3D互動座標;以及一互動判斷電路,用來根據該3D參考座標轉換該3D互動座標為一3D校正互動座標,且根據該3D校正互動座標、該虛擬座標與該互動判斷條件,以決定該互動元件與該3D影像之間之一互動結果。
  9. 如請求項8所述之互動模組,其中該定位模組為一眼睛定位模組,該眼睛定位模組用來偵測該場景中使用者之眼睛之位置,以產生一3D雙眼座標作為該3D參考座標;該互動判斷電路根據該3D雙眼座標與該3D互動座標,以得出該互動元件投影於該3D顯示系統上之一3D左互動投影座標與一3D右互動投影座標;該互動判斷電路根據該3D左互動投影座標與一預定左眼座標以決定一左參考直線,並根據該3D右互動投影座標與一預定右眼座標以決定一右參考直線;該互動判斷電路根據該左參考直線與該右參考直線,以得到該3D校正互動座標。
  10. 如請求項9所述之互動模組,其中當左參考直線與該右參考直線相交時,該互動判斷電路根據該左參考直線與該右參考直線之交點之座標,以得到該3D校正互動座標;當左參考直線與該右參考直線不相交時,該互動判斷電路根據該左參考直線與該右參考直線,以得到具有與該左參考直線與該右參考直線之最小距離和之一參考中點,且該參考中點與該左參考直線之間之距離等於該參考中點與該右參考直線之間之距離,該互動判斷 電路根據該參考中點之座標以得到該3D校正互動座標。
  11. 如請求項9所述之互動模組,其中該互動判斷電路根據該左參考直線與該右參考直線以得到一中心點;該互動判斷電路根據該中心點以決定一搜尋範圍;該搜尋範圍內具有M個搜尋點;該互動判斷電路根據該預定雙眼座標、該M個搜尋點與該3D雙眼座標,以決定在對應於該3D雙眼座標之座標系統中,對應於該M個搜尋點之M個端點;該互動判斷電路分別根據該M個端點之位置與該3D互動座標以決定對應於該M個端點之M個誤差距離;該互動判斷電路根據該M個端點之一第K個端點具有最小誤差距離,以決定該3D校正互動座標;其中M、K分別代表正整數,且K≦M;其中該互動判斷電路根據該M個搜尋點之一第K個搜尋點與該預定雙眼座標,以決定一左搜尋投影座標與一右搜尋投影座標;該互動判斷電路根據該左搜尋投影座標、該右搜尋投影座標與該3D雙眼座標,以得到在該M個端點中,對應於該第K個搜尋點之該第K個端點。
  12. 如請求項8所述之互動模組,其中該定位模組為一眼睛定位模組,該眼睛定位模組用來偵測該場景中使用者之眼睛之位置,以產生一3D雙眼座標作為該3D參考座標;其中在該預定雙眼座標所對應的座標系統中具有M個搜尋點;該互動判斷電路根據該預定雙眼座標、該M個搜尋點與該 3D雙眼座標,以決定在對應於該3D雙眼座標之座標系統中,對應於該M個搜尋點之M個端點;該互動判斷電路分別根據該M個端點之位置與該3D互動座標以決定對應於該M個端點之M個誤差距離;該互動判斷電路根據該M個端點之一第K個端點具有最小誤差距離,以決定該3D校正互動座標;其中M、K分別代表正整數,且K≦M;其中該互動判斷電路根據該M個搜尋點之一第K個搜尋點與該預定雙眼座標,以決定一左搜尋投影座標與一右搜尋投影座標;該互動判斷電路根據該左搜尋投影座標、該右搜尋投影座標與該3D雙眼座標,以得到在該M個端點中,對應於該第K個搜尋點之該第K個端點。
  13. 如請求項8所述之互動模組,其中該定位模組為一眼睛定位模組,該眼睛定位模組用來偵測該場景中使用者之眼睛之位置,以產生一3D雙眼座標作為該3D參考座標;其中該3D顯示系統包含一顯示幕以及一輔助眼鏡,該顯示幕用來提供一左影像與一右影像,該輔助眼鏡用來輔助接收該左影像與該右影像,以得到該3D影像;其中該眼睛定位模組包含:一第一影像感測器,用來感測該場景,以產生一第一2D感測影像;一第二影像感測器,用來感測該場景,以產生一第二2D感測影像; 一眼睛定位電路,包含:一眼鏡偵測電路,用來偵測該第一2D感測影像中之該輔助眼鏡,以得到一第一2D眼鏡座標與一第一眼鏡斜率,並偵測該第二2D感測影像中之該輔助眼鏡,以得到一第二2D眼鏡位置與一第二眼鏡斜率;以及一眼鏡座標轉換電路,用來根據該第一2D眼鏡座標、該第一眼鏡斜率、該第二2D眼鏡座標、該第二眼鏡斜率與一預定雙眼間距,以計算出一第一2D雙眼座標與一第二2D雙眼座標;以及一3D座標轉換電路,用來根據該第一2D雙眼座標、該第二2D雙眼座標、該第一影像感測器之一第一感測位置與該第二影像感測器之一第二感測位置,以計算出該3D雙眼座標。
  14. 如請求項13所述之互動模組,其中該眼睛定位電路另包含一傾斜偵測器;該傾斜偵測器設置於該輔助眼鏡上;該傾斜偵測器用來根據該輔助眼鏡之傾斜角度,以產生一傾斜資訊;該眼鏡座標轉換電路根據該傾斜資訊、第一2D眼鏡座標、該第一眼鏡斜率、該第二2D眼鏡座標、該第二眼鏡斜率與該預定雙眼間距,以計算出該第一2D雙眼座標與該第二2D雙眼座標。
  15. 如請求項13所述之互動模組,其中該眼睛定位電路另包含:一第一紅外光發光元件,用來發出一第一偵測光;以及 一紅外光感測電路,用來根據該第一偵測光,以產生一2D紅外光座標與一紅外光斜率;其中該眼鏡座標轉換電路根據該紅外光斜率、該第一眼鏡斜率、該第二眼鏡斜率、該2D紅外光座標、該第一2D眼鏡座標、該第二2D眼鏡座標、該第二校正眼鏡斜率與該預定雙眼間距,以計算出該第一2D雙眼座標與該第二2D雙眼座標。
  16. 如請求項8所述之互動模組,其中該定位模組為一眼睛定位模組,該眼睛定位模組用來偵測該場景中使用者之眼睛之位置,以產生一3D雙眼座標作為該3D參考座標;其中該3D顯示系統包含一顯示幕以及一輔助眼鏡,該顯示幕用來提供一左影像與一右影像,該輔助眼鏡用來輔助接收該左影像與該右影像,以得到該3D影像;其中該眼睛定位模組包含:一3D場景感測器,包含:一第三影像感測器,用來感測該場景,以產生一第三2D感測影像;一紅外光發光元件,用來發出一偵測光至該場景,以使該場景產生一反射光;以及一光感測測距裝置,用來感測該反射光,以產生對應於該第三2D感測影像之一距離資訊;其中該距離資訊具有該第三2D感測影像中每一點與該 3D場景感測器之間之距離之資料;以及一眼睛座標產生電路,包含:一眼鏡偵測電路,用來偵測該第三2D感測影像中之該輔助眼鏡,以得到一第三2D眼鏡座標與一第三眼鏡斜率;以及一眼鏡座標轉換電路,用來根據該第三2D眼鏡座標、該第三眼鏡斜率、一預定雙眼間距與該距離資訊,以計算出該3D雙眼座標。
  17. 如請求項16所述之互動模組,其中該定位模組為一眼睛定位模組,該眼睛定位模組用來偵測該場景中使用者之眼睛之位置,以產生一3D雙眼座標作為該3D參考座標;其中該眼睛定位模組包含:一3D場景感測器,用來感測該場景,以產生一第三2D感測影像,以及對應於該第三2D感測影像之一距離資訊;其中該距離資訊具有該第三2D感測影像中每一點與該3D場景感測器之間之距離之資料;以及一眼睛座標產生電路,包含:一眼睛偵測電路,用來偵測該第三2D感測影像中之眼睛,以得到一第三2D雙眼座標;一3D座標轉換電路,用來根據該第三2D雙眼座標、該距離資訊、該光感測測距裝置之一測距位置,以及該第三影像感測器之一第三感測位置,以計算出該 3D雙眼座標。
  18. 一種用來決定一3D互動系統之一互動結果之方法,該3D互動系統具有一3D顯示系統與一互動元件,該3D顯示系統用來提供一3D影像,該3D影像具有一虛擬物件,該虛擬物件具有一虛擬座標與一互動判斷條件,該方法包含:偵測於一場景中使用者之位置,以產生一3D參考座標;偵測該互動元件之位置,以產生一3D互動座標;以及根據該3D參考座標、該3D互動座標、該虛擬座標與該互動判斷條件,以決定該互動元件與該3D影像之間之該互動結果;其中偵測於該場景中使用者之位置,以產生該3D參考座標包含偵測於該場景中使用者之眼睛之位置,以產生一3D雙眼座標作為該3D參考座標;其中根據該3D參考座標、該3D互動座標、該虛擬座標與該互動判斷條件,以決定該互動結果包含:根據該3D雙眼座標轉換該虛擬座標為一校正虛擬座標;以及根據該3D互動座標、該校正虛擬座標與該互動判斷條件,以決定該互動結果。
  19. 一種用來決定一3D互動系統之一互動結果之方法,該3D互動系統具有一3D顯示系統與一互動元件,該3D顯示系統用來提供一3D影像,該3D影像具有一虛擬物件,該虛擬物件具有一 虛擬座標與一互動判斷條件,該方法包含:偵測於一場景中使用者之位置,以產生一3D參考座標;偵測該互動元件之位置,以產生一3D互動座標;以及根據該3D參考座標、該3D互動座標、該虛擬座標與該互動判斷條件,以決定該互動元件與該3D影像之間之該互動結果;其中偵測於該場景中使用者之位置,以產生該3D參考座標包含偵測於該場景中使用者之眼睛之位置,以產生一3D雙眼座標作為該3D參考座標;其中根據該3D參考座標、該3D互動座標、該虛擬座標與該互動判斷條件,以決定該互動結果包含:根據該3D雙眼座標轉換該虛擬座標為一校正虛擬座標;根據該3D雙眼座標轉換該互動判斷條件為一校正互動判斷條件;以及根據該3D互動座標、該校正虛擬座標與該校正互動判斷條件,決定該互動結果;其中根據該3D雙眼座標轉換該互動判斷條件為該校正互動判斷條件包含:根據一互動臨界距離與該虛擬座標,以計算出一臨界面;以及根據該3D雙眼座標轉換該臨界面為一校正臨界面;其中該校正互動判斷條件係為當該3D互動座標進入該校正臨界面時,該互動結果表示接觸。
  20. 一種用來決定一3D互動系統之一互動結果之方法,該3D互動系統具有一3D顯示系統與一互動元件,該3D顯示系統用來提供一3D影像,該3D影像具有一虛擬物件,該虛擬物件具有一虛擬座標與一互動判斷條件,該方法包含:偵測於一場景中使用者之位置,以產生一3D參考座標;偵測該互動元件之位置,以產生一3D互動座標;以及根據該3D參考座標、該3D互動座標、該虛擬座標與該互動判斷條件,以決定該互動元件與該3D影像之間之該互動結果;其中偵測於該場景中使用者之位置,以產生該3D參考座標包含偵測於該場景中使用者之眼睛之位置,以產生一3D雙眼座標作為該3D參考座標;其中根據該3D雙眼座標、該3D互動座標、該虛擬座標與該互動判斷條件,以決定該互動結果包含:根據該3D雙眼座標轉換該3D互動座標為一3D校正互動座標;以及根據該3D校正互動座標、該虛擬座標與該互動判斷條件,以決定該互動結果;其中該互動判斷條件係為當該3D校正互動座標與該虛擬座標之間之距離小於一互動臨界距離時,該互動結果表示接觸。
  21. 如請求項20所述之方法,其中根據該3D雙眼座標轉換該3D 互動座標為該3D校正互動座標包含:根據該3D雙眼座標與該3D互動座標,以得出該互動元件投影於該3D顯示系統上之一3D左互動投影座標與一3D右互動投影座標;根據該3D左互動投影座標與一預定左眼座標以決定一左參考直線,並根據該3D右互動投影座標與一預定右眼座標以決定一右參考直線;以及根據該左參考直線與該右參考直線,以得到該3D校正互動座標。
  22. 如請求項21所述之方法,其中根據該左參考直線與該右參考直線,以得到該3D校正互動座標包含:當該左參考直線與該右參考直線相交時,根據該左參考直線與該右參考直線之交點之座標,以得到該3D校正互動座標;以及當該左參考直線與該右參考直線不相交時,根據該左參考直線與該右參考直線,以得到具有與該左參考直線與該右參考直線之最小距離和之一參考中點,且根據該參考中點之座標以得到該3D校正互動座標;其中該參考中點與該左參考直線之間之距離等於該參考中點與該右參考直線之間之距離。
  23. 如請求項22所述之方法,其中根據該左參考直線與該右參考直 線,以得到該3D校正互動座標包含:根據該左參考直線與該右參考直線以得到一中心點;根據該中心點以決定一搜尋範圍;其中該搜尋範圍內具有M個搜尋點;根據該預定雙眼座標、該M個搜尋點與該3D雙眼座標,以決定對應於該M個搜尋點之M個端點;分別根據該M個端點之位置與該3D互動座標以決定對應於該M個端點之M個誤差距離;以及根據該M個端點之一第K個端點具有最小誤差距離,以決定該3D校正互動座標;其中M、K分別代表正整數,且K≦M;其中根據該預定雙眼座標、該M個搜尋點與該3D雙眼座標,以決定對應於該M個搜尋點之該M個端點包含:根據該M個搜尋點之一第K個搜尋點與該預定雙眼座標,以決定一左搜尋投影座標與一右搜尋投影座標;根據該左搜尋投影座標、該右搜尋投影座標與該3D雙眼座標,以得到在該M個端點中,對應於該第K個搜尋點之該第K個端點。
  24. 如請求項20所述之方法,其中根據該3D雙眼座標轉換該3D互動座標為該3D校正互動座標包含:根據該預定雙眼座標、該預定雙眼座標所對應的座標系統中之M個搜尋點與該3D雙眼座標,以決定在對應於該3D雙眼 座標之座標系統中,對應於該M個搜尋點之M個端點;分別根據該M個端點之位置與該3D互動座標以決定對應於該M個端點之M個誤差距離;以及根據該M個端點之一第K個端點具有最小誤差距離,以決定該3D校正互動座標;其中M、K分別代表正整數,且K≦M;其中根據該預定雙眼座標、該預定雙眼座標所對應的座標系統中之該M個搜尋點與該3D雙眼座標,以決定在對應於該3D雙眼座標之座標系統中,對應於該M個搜尋點之M個端點包含:根據該M個搜尋點之一第K個搜尋點與該預定雙眼座標,以決定一左搜尋投影座標與一右搜尋投影座標;以及根據該左搜尋投影座標、該右搜尋投影座標與該3D雙眼座標,以得到在該M個端點中,對應於該第K個搜尋點之該第K個端點。
TW099102790A 2010-02-01 2010-02-01 應用於3d互動系統之互動模組及其方法 TWI406694B (zh)

Priority Applications (2)

Application Number Priority Date Filing Date Title
TW099102790A TWI406694B (zh) 2010-02-01 2010-02-01 應用於3d互動系統之互動模組及其方法
US12/784,512 US20110187638A1 (en) 2010-02-01 2010-05-21 Interactive module applied in 3D interactive system and method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
TW099102790A TWI406694B (zh) 2010-02-01 2010-02-01 應用於3d互動系統之互動模組及其方法

Publications (2)

Publication Number Publication Date
TW201127463A TW201127463A (en) 2011-08-16
TWI406694B true TWI406694B (zh) 2013-09-01

Family

ID=44341174

Family Applications (1)

Application Number Title Priority Date Filing Date
TW099102790A TWI406694B (zh) 2010-02-01 2010-02-01 應用於3d互動系統之互動模組及其方法

Country Status (2)

Country Link
US (1) US20110187638A1 (zh)
TW (1) TWI406694B (zh)

Families Citing this family (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8836761B2 (en) * 2010-09-24 2014-09-16 Pixart Imaging Incorporated 3D information generator for use in interactive interface and method for 3D information generation
TWI492096B (zh) * 2010-10-29 2015-07-11 Au Optronics Corp 立體影像互動系統及其位置偏移補償方法
JP5594208B2 (ja) * 2011-03-28 2014-09-24 カシオ計算機株式会社 表示装置、表示補助装置、および、表示システム
US9384383B2 (en) * 2013-09-12 2016-07-05 J. Stephen Hudgins Stymieing of facial recognition systems
TWI568481B (zh) * 2015-04-21 2017-02-01 南臺科技大學 擴增實境遊戲系統與方法
US10338688B2 (en) * 2015-12-24 2019-07-02 Samsung Electronics Co., Ltd. Electronic device and method of controlling the same
KR20170076534A (ko) * 2015-12-24 2017-07-04 삼성전자주식회사 가상 현실 인터페이스 장치 및 제어 방법
JP6822472B2 (ja) * 2016-06-28 2021-01-27 株式会社ニコン 表示装置、プログラム、表示方法および制御装置
US11501497B1 (en) * 2021-06-28 2022-11-15 Monsarrat, Inc. Placing virtual location-based experiences into a real-world space where they don't fit

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5913727A (en) * 1995-06-02 1999-06-22 Ahdoot; Ned Interactive movement and contact simulation game
US6414681B1 (en) * 1994-10-12 2002-07-02 Canon Kabushiki Kaisha Method and apparatus for stereo image display
TW201003564A (en) * 2008-07-09 2010-01-16 Prime Sense Ltd Integrated processor for 3D mapping

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
ATE517515T1 (de) * 2004-04-13 2011-08-15 Koninkl Philips Electronics Nv Autostereoskopische anzeigeeinrichtung
HU0401034D0 (en) * 2004-05-24 2004-08-30 Ratai Daniel System of three dimension induting computer technology, and method of executing spatial processes

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6414681B1 (en) * 1994-10-12 2002-07-02 Canon Kabushiki Kaisha Method and apparatus for stereo image display
US5913727A (en) * 1995-06-02 1999-06-22 Ahdoot; Ned Interactive movement and contact simulation game
TW201003564A (en) * 2008-07-09 2010-01-16 Prime Sense Ltd Integrated processor for 3D mapping

Also Published As

Publication number Publication date
US20110187638A1 (en) 2011-08-04
TW201127463A (en) 2011-08-16

Similar Documents

Publication Publication Date Title
TWI406694B (zh) 應用於3d互動系統之互動模組及其方法
WO2017077918A1 (ja) 情報処理装置、情報処理システム、および情報処理方法
US20170011555A1 (en) Head-mounted display device and computer program
US10101807B2 (en) Distance adaptive holographic displaying method and device based on eyeball tracking
US10070120B2 (en) Optical see-through display calibration
US9557811B1 (en) Determining relative motion as input
US6064749A (en) Hybrid tracking for augmented reality using both camera motion detection and landmark tracking
JP6465672B2 (ja) 情報処理装置および情報処理方法
US20150139509A1 (en) Head-mounted display apparatus and login method thereof
CN107665040A (zh) 视线检测系统、偏移检测方法、偏移检测程序
US10061382B2 (en) Program, device, and calibration method for a camera and an inertial sensor
US20190356848A1 (en) Power Management for Optical Position Tracking Devices
TW201533612A (zh) 感測器與投射器之校準技術
US10948994B2 (en) Gesture control method for wearable system and wearable system
US9804689B2 (en) Handheld pointer device and pointer positioning method thereof
US10318067B2 (en) Corner generation in a projector display area
JP5912929B2 (ja) 表示装置、処理方法及びプログラム
KR20200035003A (ko) 정보 처리 장치, 정보 처리 방법, 및 프로그램
CN109634431A (zh) 无介质浮空投影视觉追踪互动系统
KR20170040222A (ko) 반사 기반 제어 활성화 기법
TWI567473B (zh) 投影對準技術
TW201501508A (zh) 立體顯示方法
JP6494305B2 (ja) 情報処理装置、表示装置、および情報処理方法
US20150185321A1 (en) Image Display Device
US20190213933A1 (en) Head mounted display

Legal Events

Date Code Title Description
MM4A Annulment or lapse of patent due to non-payment of fees