TWI679555B - 擴增實境系統以及提供擴增實境之方法 - Google Patents

擴增實境系統以及提供擴增實境之方法 Download PDF

Info

Publication number
TWI679555B
TWI679555B TW106134964A TW106134964A TWI679555B TW I679555 B TWI679555 B TW I679555B TW 106134964 A TW106134964 A TW 106134964A TW 106134964 A TW106134964 A TW 106134964A TW I679555 B TWI679555 B TW I679555B
Authority
TW
Taiwan
Prior art keywords
augmented reality
electronic device
scene information
reality scene
information
Prior art date
Application number
TW106134964A
Other languages
English (en)
Other versions
TW201915664A (zh
Inventor
鍾現
Xian ZHONG
洪文璋
Wen Chang Hung
Original Assignee
華碩電腦股份有限公司
Asustek Computer Inc.
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 華碩電腦股份有限公司, Asustek Computer Inc. filed Critical 華碩電腦股份有限公司
Priority to TW106134964A priority Critical patent/TWI679555B/zh
Priority to US16/150,371 priority patent/US20190114838A1/en
Publication of TW201915664A publication Critical patent/TW201915664A/zh
Application granted granted Critical
Publication of TWI679555B publication Critical patent/TWI679555B/zh

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • G02B27/0172Head mounted characterised by optical features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/163Wearable computers, e.g. on a belt
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/20Scenes; Scene-specific elements in augmented reality scenes
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/011Head-up displays characterised by optical features comprising device for correcting geometrical aberrations, distortion
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/0138Head-up displays characterised by optical features comprising image capture systems, e.g. camera
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/014Head-up displays characterised by optical features comprising information/image processing systems
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B2027/0192Supplementary details
    • G02B2027/0198System for aligning or maintaining alignment of an image in a predetermined direction

Abstract

本案涉及一種擴增實境系統以及提供擴增實境之方法。擴增實境系統包含穿戴裝置以及電子裝置。穿戴裝置具有光學鏡片以及連結單元。電子裝置透過連結單元設置於穿戴裝置上,用以偵測空間資訊並根據空間資訊顯示擴增實境景象資訊,並用以投射對應擴增實境景象資訊的光訊號至光學鏡片,其中光訊號經由光學鏡片以沿著第一光學路徑導引至平面,其中擴增實境景象資訊中包含虛擬物件,虛擬物件係設置於擴增實境景象資訊中的空間座標,空間座標係對應空間資訊中的實體位置。

Description

擴增實境系統以及提供擴增實境之方法
本案涉及一種計算機系統以及應用計算機系統之方法,尤為一種擴增實境系統以及提供擴增實境之方法。
一般的擴增實境技術無法透過獲取深度資訊來提供較佳的擴增實境,若需使用感知深度資訊,則需使用者手持並觀看螢幕,如此無法達到較佳的使用者體驗。另外,一般的擴增實境技術需與電腦主機直接連接,其將面臨實體線路帶來的活動空間的限制。
本案的一種實施態樣涉及一種擴增實境系統,其包含一穿戴裝置及一電子裝置。其中該穿戴裝置具有一光學鏡片以及一連結單元。該電子裝置透過該連結單元設置於該穿戴裝置上,用以偵測並根據一空間資訊產生一擴增實境景象資訊,並用以投射對應該擴增實境景象資訊的一光訊號至該光學鏡片,其中該光訊號經由該光學鏡片以沿著一第一光學路徑導引至一平面,其中該擴增實境景象資訊中至少包 含一虛擬物件,該虛擬物件係設置於該擴增實境景象資訊中的一空間座標,該空間座標係對應該空間資訊中的一實體位置。
本案的另一種實施態樣涉及一種提供擴增實境之方法,所述方法包含下列步驟:透過一電子裝置偵測一空間資訊;透過該電子裝置基於該空間資訊產生一擴增實境景象資訊;以及透過該電子裝置將對應該擴增實境景象資訊之一第一光訊號投射至一光學鏡片,其中該光訊號經由該光學鏡片以沿著一第一光學路徑導引至一平面,其中該擴增實境景象資訊中至少包含一虛擬物件,該虛擬物件係設置於該擴增實境景象資訊中的一空間座標,該空間座標係對應該空間資訊中的一實體位置。
因此,本案的擴增實境系統可根據光學偵測器與人眼的相對距離及角度校正擴增實境景象資訊,以及僅顯示虛擬物件以營造出第一人稱視角的擴增實境。
100‧‧‧穿戴裝置
101‧‧‧第一光學鏡片
102‧‧‧第二光學鏡片
103‧‧‧蓋體
104‧‧‧通孔
105‧‧‧容置空間
110‧‧‧第一開口
120‧‧‧第二開口
200‧‧‧電子裝置
201‧‧‧光學偵測器
202‧‧‧顯示螢幕
203‧‧‧處理器
210‧‧‧第一側
220‧‧‧第二側
300‧‧‧穿戴裝置
301‧‧‧上半部
302‧‧‧下半部
303‧‧‧蓋體
304‧‧‧通孔
305‧‧‧光學鏡片
310‧‧‧第一側
320‧‧‧第二側
P1~P3‧‧‧光路徑
LE‧‧‧左眼
RM‧‧‧反射鏡
OP‧‧‧觀賞面
S801~S803‧‧‧步驟流程
第1圖係根據本案部分實施例所繪示的擴增實境系統之示意圖;第2圖係根據本案部分實施例所繪示的擴增實境系統之示意圖;第3圖係根據本案部分實施例所繪示的擴增實境系統之示意圖; 第4圖係根據本案部分實施例所繪示的擴增實境系統之示意圖;第5圖係根據本案部分實施例所繪示的擴增實境系統之示意圖;第6圖係根據本案部分實施例所繪示的擴增實境系統之示意圖;第7圖係根據本案部分實施例所繪示的擴增實境系統之示意圖;以及第8圖係根據本案部分實施例所繪示的擴增實境方法之步驟流程圖。
關於本文中所使用之『第一』、『第二』、…等,並非特別指稱次序或順位的意思,亦非用以限定本案,其僅為了區別以相同技術用語描述的元件或操作。
關於本文中所使用之『耦接』或『連接』,均可指二或多個元件或裝置相互直接作實體接觸,或是相互間接作實體接觸,亦可指二或多個元件或裝置相互操作或動作。
請參考第1圖。第1圖係根據本案部分實施例所繪示的擴增實境系統之示意圖。在本案的一實施例中,擴增實境系統包含穿戴裝置100,穿戴裝置100之外觀呈矩形盒體狀。穿戴裝置100具有第一開口110以及第二開口120,圖中所繪示之視角係由第一開口110觀看穿戴裝置100,而 第二開口120則開設於第一開口110的相對端。在本實施例中,第一光學鏡片101以及第二光學鏡片102平行地排列設置於穿戴裝置100的內部,其皆設置於第一開口110以及第二開口之間120。當第一開口110以及第二開口120皆處於開放狀態時,來自第一開口110的光線可穿透第一光學鏡片101以及第二光學鏡片102傳遞至第二開口120的位置。
請繼續參考第1圖。在本實施例中,蓋體103連接於穿戴裝置100之側面(位於第一開口110側),蓋體103可掀起以遮蓋第一開口110,當蓋體103掀起並遮蓋第一開口110時,來自第一開口110的大部分光線將無法穿透第一光學鏡片101以及第二光學鏡片102傳遞至第二開口120的位置。蓋體103的一個角落開設有通孔104,當蓋體103掀起並遮蓋第一開口110時,來自第一開口110的光線可自通孔104進入穿戴裝置100中。在本實施例中,當蓋體103掀起並遮蓋第一開口110時,蓋體103和第一光學鏡片101以及第二光學鏡片102之間仍留有容置空間105。
請參考第2圖。第2圖係根據本案部分實施例所繪示的擴增實境系統之示意圖。第2圖中仍繪示有第1圖的穿戴裝置100,然而,在本實施例中,擴增實境系統更包含電子裝置200,其本身可為一種獨立的行動裝置。電子裝置200包含第一側210以及第二側220,然而,從圖中的視角觀看僅可見電子裝置200的第一側210,關於第二側220之配置將於第3圖中繪示,可一併參照第3圖。如第2圖中所示,電子裝置200係大致上嵌入如第1圖所示之穿戴裝置100 的容置空間105中,僅有第一側210自穿戴裝置100的第一開口110外露,如此,電子裝置200將能較牢固地被設置穿戴裝置100上。另外,電子裝置200的第一側210之一端設置有光學偵測器201,其中,光學偵測器201具有景深感知器(圖中未示),用以偵測位於電子裝置200第一側210前方的環境配置以產生空間資訊,空間資訊可包含電子裝置200第一側210前方的環境光線、空間配置、實體物件、人物、景深資訊等等。
請參考第3圖。第3圖係根據本案部分實施例所繪示的擴增實境系統之示意圖。第3圖所繪示者係為第2圖所示的電子裝置200,從圖中的視角觀看可見電子裝置200的第二側220,但仍可見設置於第一側210的光學偵測器201之部分。如圖中所示,電子裝置200的第二側220設置有顯示螢幕202,顯示螢幕202的表面係用以顯示電子裝置200運算後所欲呈現之結果。如圖中所示,電子裝置200內部更設置有處理器203,處理器203分別與光學偵測器201和顯示螢幕202電性耦接(圖中未詳細繪示)。如前段所述,可一併參閱第2圖,光學偵測器201可用以偵測位於電子裝置200第一側210前方的空間資訊,而處理器203則用以接收光學偵測器201所獲取的空間資訊,處理器203將根據空間資訊透過,運算出擴增實境景象資訊,再將擴增實境景象資訊顯示於顯示螢幕202的表面。在本案的實施例中,擴增實境景象資訊中至少包含一個虛擬物件,此虛擬物件可為一種三維物件,此虛擬物件的大小、形狀、種類、態樣等皆可由使用者透 過觸控顯示螢幕202以控制處理器203來選定。
請參考第4圖。第4圖係根據本案部分實施例所繪示的擴增實境系統之示意圖。第4圖所繪示者係為第1至3圖所繪示的穿戴裝置100以及電子裝置200之組合,請一併參照第1至3圖。在本實施例中,蓋體103已掀起並遮蓋穿戴裝置100的第一開口110,而電子裝置200設置於穿戴裝置100的容置空間105中。根據圖中所繪示的配置,電子裝置200的光學偵測器201的位置將對應通孔104開設之位置,使來自如2圖所示之第一開口110方向的光線將可自通孔104進入電子裝置200的光學偵測器201當中。在本實施例中,光學偵測器201仍可以透過通孔104偵測位於電子裝置200第一側210前方的空間資訊,並將空間資訊傳輸至如第3圖所示的處理器203,由於本案的空間資訊包含景深資訊,處理器203可利用同步定位與地圖構建(Simultaneous localization and mapping,SLAM)演算法運算空間資訊,進而產生擴增實境景象資訊,處理器203再將擴增實境景象資訊顯示於第二側220的顯示螢幕202的表面。
在本實施例中,由於處理器203係透過同步定位與地圖構建演算法處理空間資訊,其將為空間資訊中的各個位置指派各自的空間座標,而擴增實境景象資訊中的虛擬物件將被指派一個空間座標,使虛擬物件呈現於其被指派空間的座標上。若虛擬物件代表的係為不可動的物件,其將被固定顯示於上述空間座標,若虛擬物件代表的係為可動的物件,其可以上述空間座標為起始點,於各個空間座標之間進行移動。此 外,若處理器203欲於擴增實境景象資訊中顯示複數個虛擬物件,且各虛擬物件的初始位置有相對關係時,當其中一個虛擬物件被指派空間座標後,以上述空間座標為參照點,處理器203即可根據初始位置的相對關係指派其餘各虛擬物件的空間座標。
請同時參考第3圖及第4圖。在本實施例中,處理器203控制顯示螢幕202以立體鏡(Stereoscope)模式顯示擴增實境景象資訊,處理器203將分別運算對應使用者左眼的立體鏡畫面以及對應使用者右眼的立體鏡畫面,使顯示螢幕202可以並列呈現各自對應使用者兩眼的擴增實境景象資訊。在本實施例中,當使用者將兩眼置於穿戴裝置100的第二開口120側時,電子裝置200的顯示螢幕202的表面將顯示擴增實境景象資訊,且顯示螢幕202更向電子裝置200的第二側220之方向投射對應擴增實境景象資訊的光訊號。
雖然在上述實施例中,穿戴裝置100包含有蓋體103可用以遮蓋穿戴裝置100的第一開口110,然而,應當理解其僅係用以解釋本案實施方式的一種可能性,並非用以限定本案。在本案的某些實施例中,穿戴裝置100可不包含蓋體103,其可透過其他固定機件來確保電子裝置200不會在使用時與穿戴裝置100分離即可。
請參考第5圖。第5圖係根據本案部分實施例所繪示的擴增實境系統之示意圖。第5圖所繪示者係為使用者使用第1至4圖所繪示的擴增實境系統時的實施態樣,請一併參照第1至4圖。承上段,在本實施例中,當使用者將兩眼 置於穿戴裝置100的第二開口120側時,電子裝置200的顯示螢幕202之表面將顯示擴增實境景象資訊,且顯示螢幕202更向電子裝置200的第二側220之方向投射對應擴增實境景象資訊的光訊號。在本實施例中,以電子裝置200和使用者的左眼LE之互動為例。其中,電子裝置200的顯示螢幕202朝向電子裝置200第二側220之方向投射對應擴增實境景象資訊的光訊號,光訊號由顯示螢幕202發出後沿光學路徑P1行進,其將穿透第一光學鏡片101再繼續沿光學路徑P1投射至一平面以成像於上述平面,舉例而言,光訊號進入使用者的左眼LE中,最後傳遞至觀賞面OP。在本實施例中,觀賞面OP即為使用者的左眼視網膜。如此,對應擴增實境景象資訊的左眼的立體鏡畫面將可成像於使用者的左眼視網膜,令使用者的左眼可以觀賞擴增實境景象資訊中對應左眼的立體鏡畫面。
雖於第5圖中並未繪示對應使用者右眼的實施態樣,同理地,對應使用者右眼的擴增實境景象資訊之光訊號亦將沿著穿透第二光學鏡片102的光學路徑進入使用者的右眼,顯像對應光訊號的擴增實境景象資訊於使用者的右眼視網膜上。根據上述,經由顯示螢幕202投射光訊號穿透第一光學鏡片101以及第二光學鏡片102進入使用者的兩眼後,由使用者的視角觀看擴增實境景象資訊時,虛擬物件將看似以合理之角度以及方向附著於空間資訊中的實體物件,或是與實體物件互動。
由於各使用者間可能有不同的使用方式,在本 實施例中,本案的電子裝置200的處理器203更可根據光學偵測器201與使用者兩眼的相對距離以及相對角度調整顯示參數,以校正擴增實境景象資訊,使擴增實境景象資訊透過第一光學鏡片101以及第二光學鏡片102投射於使用者的兩眼時,擴增實境景象資訊能以對應使用者真實視角的正確形狀與尺寸被顯示。
請參考第6圖。第6圖係根據本案部分實施例所繪示的擴增實境系統之示意圖。第6圖所繪示係本案的擴增實境系統的另一種實施態樣,其部分配置與上述實施例相似,故請一併參照第1至4圖。如圖中所示,穿戴裝置300包含了上半部301以及下半部302。其中,上半部301的設置部分相似於第1圖、第2圖及第4圖所示的穿戴裝置100。本實施例中,上半部301亦包含蓋體303,蓋體303係用於掀起遮蓋上半部301一側的第一開口(圖中已被遮蔽,若欲瞭解其配置,可參考第1圖或第2圖的第一開口110)。與第1圖及第2圖所示的穿戴裝置100相同的是,本實施例的蓋體303後方具有容置空間(位於上半部301內部)用以設置第3圖所示的電子裝置200,且蓋體303上開設有通孔304,令電子裝置200設置於容置空間中時,來自上半部301外部的光線可由通孔304進入電子裝置200的光學偵測器201。不同於第1圖及第2圖實施例的是,於本實施例中,穿戴裝置300的上半部301的另一側並無開口(亦即無第1圖或第2圖的第二開口120),其內部也無設置類似於第1圖及第2圖中穿戴裝置100的第一光學鏡片101以及第二光學鏡片102。
在本實施例中,穿戴裝置300的下半部302係為外觀與眼鏡相似的構件,下半部302的第一側310設置有光學鏡片305,光學鏡片305係與上半部301的蓋體303上下並排設置,而下半部302更具有相對於第一側310的第二側320,第二側320係為開放的(第6圖中視角未示,可參閱第7圖),穿戴裝置300的下半部302可供使用者穿戴,穿戴後使用者的兩眼將位於第二側320之位置。其中,當使用者的兩眼置於穿戴裝置300的下半部302的第二側320時,由電子裝置200投射出的對應擴增實境景象的光訊號將經由光學鏡片305反射進入使用者的兩眼中,其中,穿戴裝置300內部的實施態樣將於下詳述。
請參考第7圖。第7圖係根據本案部分實施例所繪示的擴增實境系統之示意圖。於第7圖中所繪示的係為第6圖的穿戴裝置300與第3圖所示的電子裝置200結合後,供使用者使用的實施態樣,請一併參閱第3圖及第6圖。其中,當電子裝置200設置於穿戴裝置300的容置空間中,且蓋體303已掀起遮蓋穿戴裝置300的第一開口(第6圖中已被遮蔽,若欲瞭解其配置,可參考第1圖或第2圖的第一開口110)後,電子裝置200的光學偵測器201的位置仍可透過通孔304偵測位於電子裝置200第一側210前方的空間資訊,再將空間資訊傳輸至如第3圖所示的處理器203。處理器203同樣地可利用同步定位與地圖構建演算法運算空間資訊,進而產生擴增實境景象資訊,再將擴增實境景象資訊顯示於顯示螢幕202的表面。其中,擴增實境景象資訊中亦至少包含一個虛 擬物件,虛擬物件將被指派一個空間座標,使虛擬物件呈現於其被指派空間的座標上。
同樣地,在本實施例中,穿戴裝置300的上半部301包含有蓋體303可用以遮蓋上半部301的第一開口,然而,在本案的某些實施例中,穿戴裝置300的上半部301可不包含蓋體303,其可透過其他固定機件來確保電子裝置200不會在使用時與上半部301分離即可。
在本實施例中,當使用者將兩眼置於穿戴裝置300的下半部302的第二側320時,顯示螢幕202的表面將顯示擴增實境景象資訊,且顯示螢幕202更向電子裝置200第二側220之方向投射對應擴增實境景象資訊的光訊號。如第7圖中所示,其係以電子裝置200和使用者的左眼LE之互動為例。其中,電子裝置200的顯示螢幕202朝向電子裝置200第二側220之方向投射對應擴增實境景象資訊的光訊號,光訊號由顯示螢幕202發出後沿光路徑P2行進,光訊號將行進至設置於上半部301中的反射鏡RM,光訊號將經由反射鏡RM反射,使光訊號沿轉換方向的光路徑P2繼續行進至光學鏡片305,再由光學鏡片305反射,再繼續沿反射後的光學路徑P2投射至一平面以成像於上述平面,舉例而言,光訊號最後進入使用者的左眼LE中,傳遞至觀賞面OP,即為使用者的左眼視網膜。如此,擴增實境景象將可成像於使用者的左眼視網膜,令使用者的左眼可以觀賞擴增實境景象。由於光學鏡片305係為具有一定透明係數的鏡片,來自穿戴裝置300第一側310的環境光,將部份地經由光路徑P3穿透光學鏡片305, 進入位於穿戴裝置300第二側320的使用者之左眼LE中,再傳遞至觀賞面OP,令使用者可以同時觀看到對應光學偵測器201偵測之空間資訊的部分環境景象。
雖於第7圖中並未繪示對應使用者右眼的實施態樣,同理地,對應使用者右眼的擴增實境景象資訊之光訊號將自顯示螢幕202發出,經反射鏡RM以及光學鏡片305的反射後,進入位於穿戴裝置300第二側320的使用者的右眼中,顯像對應光訊號的擴增實境景象資訊於使用者的右眼視網膜上。當擴增實境景象資訊成像於使用者的左眼以及右眼視網膜上時,由使用者的視角觀看擴增實境景象資訊時,虛擬物件將看似以合理角度以及方向附著於空間資訊中的實體物件或與實體物件互動。
由於本實施例的電子裝置200係設置於高於使用者兩眼的位置,故電子裝置200的處理器203更可校正擴增實境景象資訊中的虛擬物件後,再控制顯示螢幕202投射出對應擴增實境景象資訊的光訊號。其中,處理器203將先根據光學偵測器201與使用者兩眼的相對距離和相對角度校正擴增實境景象資訊,使擴增實境景象資訊能以對應使用者真實視角的正確形狀與尺寸被顯示。處理器203將再控制顯示螢幕202,使顯示螢幕202上非用以顯示擴增實境景象資訊中的虛擬物件的其餘部分皆呈不發光顯示。處理器203將再根據反射鏡RM以及光學鏡片305的配置角度校正虛擬物件的形狀與尺寸。最後,處理器203僅將擴增實境景象資訊中的虛擬物件對應的光訊號投射出去,光訊號經反射鏡RM以及光學鏡片 305反射後進入使用者的兩眼,令使用者能觀看到擴增實境景象資訊中的虛擬物件。
如前所述,在本實施例中,來自穿戴裝置300的第一側310前方的環境光亦將透過光路徑P3穿透光學鏡片305傳遞至觀賞面OP,使用者可以同時觀看到對應光學偵測器201偵測之空間資訊的部分環境景象。透過本實施例之設置,使用者可以透過光學鏡片305同時觀看到外部環境景象以及擴增實境景象資訊中的虛擬物件,而虛擬物件顯示的形狀與尺寸也對應使用者的真實視角。
請參考第8圖。第8圖係根據本案部分實施例所繪示的擴增實境方法之步驟流程圖。於本實施例中,關於此擴增實境方法所利用的擴增實境系統,請一併參照本案第1圖至第7圖的實施例。於本實施例中,擴增實境方法所包含之步驟將詳述於下列段落中。
步驟S801:透過一電子裝置偵測一空間資訊。如第1至5圖所示,在上述實施例中,電子裝置200包含有光學偵測器201,當電子裝置200被設置於穿戴裝置100中時,光學偵測器201仍可透過通孔104偵測電子裝置200的第一側210外部的空間資訊。如第3、6、7圖所示,在上述實施例中,當電子裝置200被設置於穿戴裝置300中時,光學偵測器201仍可透過通孔304偵測電子裝置200的第一側210外部的空間資訊。當光學偵測器201獲取第一側210外部的空間資訊後,空間資訊將被傳輸至與光學偵測器201電性耦接的處理器203。
步驟S802:透過該電子裝置基於該空間資訊顯示 一擴增實境景象資訊。如第3、5、7圖所示,在上述實施例中,電子裝置200接收來自光學偵測器201的空間資訊後,其將利用同步定位與地圖構建(Simultaneous localization and mapping,SLAM)演算法運算空間資訊,進而產生擴增實境景象資訊,處理器203再將擴增實境景象資訊顯示於顯示螢幕202的表面。
步驟S803:透過該電子裝置將對應該擴增實境景象資訊之一第一光訊號投射至一光學鏡片,其中該光訊號途經該光學鏡片傳遞至一觀賞面,其中該擴增實境景象資訊中至少包含一虛擬物件,該虛擬物件係設置於該擴增實境景象資訊中的一空間座標,該空間座標係對應該空間資訊中的一實體位置。
關於步驟S803,如第3、5圖所示之實施例,在上述實施例中,當使用者將左眼LE置於穿戴裝置100的第二開口120那側時,本案的顯示螢幕202的表面將顯示擴增實境景象資訊,且顯示螢幕202更向電子裝置200的第二側220之方向投射對應擴增實境景象資訊的光訊號。光訊號由顯示螢幕202發出後沿光路徑P1行進,其將穿透第一光學鏡片101再進入使用者的左眼LE中,最後傳遞至觀賞面OP,觀賞面OP即為使用者的左眼視網膜。如此,使用者得以觀看顯示螢幕202上顯示的擴增實境景象資訊。
關於步驟S803,如第3、7圖所示之實施例,在上述實施例中,當使用者將左眼LE置於穿戴裝置100的第二開口120側時,顯示螢幕202的表面將僅顯示擴增實境景象資 訊中的虛擬物件,且顯示螢幕202更向電子裝置200的第二側220之方向投射對應擴增實境景象資訊的光訊號。如第7圖中所示,光訊號由顯示螢幕202發出後沿光路徑P2行進,光訊號將行進至設置於上半部301中的反射鏡RM,光訊號將經過反射鏡RM反射,使光訊號沿轉換方向的光路徑P2繼續行進至光學鏡片305,最後進入使用者的左眼LE中,傳遞至觀賞面OP。另外,由於光學鏡片305係為具有一定透明係數的鏡片,來自穿戴裝置300前方的環境光,亦將透過光路徑P3穿透光學鏡片305進入使用者的左眼LE中,再傳遞至觀賞面OP,令使用者可以同時觀看到對應光學偵測器201偵測之空間資訊的部分環境景象。
雖然本案以實施例揭露如上,然其並非用以限定本案,任何熟習此技藝者,在不脫離本案之精神和範圍內,當可作各種之更動與潤飾,因此本案之保護範圍當視後附之申請專利範圍所界定者為準。

Claims (6)

  1. 一種擴增實境系統,包含:一穿戴裝置,具有一光學鏡片以及一連結單元;以及一電子裝置,透過該連結單元設置於該穿戴裝置上,用以偵測並根據一空間資訊產生一擴增實境景象資訊,並用以投射對應該擴增實境景象資訊的一光訊號;其中該擴增實境景象資訊中至少包含一虛擬物件,該虛擬物件係設置於該擴增實境景象資訊中的一空間座標,該空間座標係對應該空間資訊中的一實體位置;其中,當該光訊號被投射至位於該穿戴裝置的一上半部中的一反射鏡時,該反射鏡將該光訊號反射至位於該穿戴裝置的一下半部中的該光學鏡片,該光學鏡片再將該光訊號反射至一平面,以成像於該平面。
  2. 如請求項1所述之擴增實境系統,其中該電子裝置包含:一光學偵測器,設置於該電子裝置的一第一側,用以偵測該空間資訊;一顯示螢幕,具有一成像面,設置於該電子裝置的一第二側;以及一處理器,用以根據該空間資訊顯示該擴增實境景象資訊於該成像面,並透過該顯示螢幕投射該光訊號至該光學鏡片。
  3. 如請求項1所述之擴增實境系統,其中該電子裝置僅投射對應該擴增實境景象資訊中的該虛擬物件的該光訊號。
  4. 請求項1所述之擴增實境系統,其中該電子裝置更用以根據該電子裝置與該平面的相對距離及相對角度校正該虛擬物件的形狀以及尺寸。
  5. 一種提供擴增實境之方法,應用於一電子裝置以及一穿戴裝置,該擴增實境之方法包含:透過該電子裝置偵測一空間資訊;透過該電子裝置基於該空間資訊產生一擴增實境景象資訊;以及透過該電子裝置將對應該擴增實境景象資訊之一光訊號投射至位於該穿戴裝置的一上半部中的一反射鏡,該反射鏡在將該光訊號反射至位於該穿戴裝置的下半部中的一光學鏡片,該光學鏡片再將該光訊號反射至一平面,以成像於該平面,其中該擴增實境景象資訊中至少包含一虛擬物件,該虛擬物件係設置於該擴增實境景象資訊中的一空間座標,該空間座標係對應該空間資訊中的一實體位置。
  6. 如請求項5所述之提供擴增實境之方法,其中該電子裝置僅投射對應該擴增實境景象資訊中的該虛擬物件的該光訊號。
TW106134964A 2017-10-12 2017-10-12 擴增實境系統以及提供擴增實境之方法 TWI679555B (zh)

Priority Applications (2)

Application Number Priority Date Filing Date Title
TW106134964A TWI679555B (zh) 2017-10-12 2017-10-12 擴增實境系統以及提供擴增實境之方法
US16/150,371 US20190114838A1 (en) 2017-10-12 2018-10-03 Augmented reality system and method for providing augmented reality

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
TW106134964A TWI679555B (zh) 2017-10-12 2017-10-12 擴增實境系統以及提供擴增實境之方法

Publications (2)

Publication Number Publication Date
TW201915664A TW201915664A (zh) 2019-04-16
TWI679555B true TWI679555B (zh) 2019-12-11

Family

ID=66097524

Family Applications (1)

Application Number Title Priority Date Filing Date
TW106134964A TWI679555B (zh) 2017-10-12 2017-10-12 擴增實境系統以及提供擴增實境之方法

Country Status (2)

Country Link
US (1) US20190114838A1 (zh)
TW (1) TWI679555B (zh)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20120050144A1 (en) * 2010-08-26 2012-03-01 Clayton Richard Morlock Wearable augmented reality computing apparatus
TW201543333A (zh) * 2014-03-21 2015-11-16 Samsung Electronics Co Ltd 可穿戴式裝置及其操作方法
US20160163108A1 (en) * 2014-12-08 2016-06-09 Hyundai Motor Company Augmented reality hud display method and device for vehicle
TW201716827A (zh) * 2015-09-02 2017-05-16 愛威願景有限公司 眼睛投影系統與方法
TW201724031A (zh) * 2015-12-23 2017-07-01 財團法人工業技術研究院 擴增實境方法、系統及電腦可讀取非暫態儲存媒介

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101627214B1 (ko) * 2009-11-12 2016-06-03 엘지전자 주식회사 영상표시장치 및 그 동작방법
US9406166B2 (en) * 2010-11-08 2016-08-02 Seereal Technologies S.A. Display device, in particular a head-mounted display, based on temporal and spatial multiplexing of hologram tiles
US9720228B2 (en) * 2010-12-16 2017-08-01 Lockheed Martin Corporation Collimating display with pixel lenses
US9551873B2 (en) * 2014-05-30 2017-01-24 Sony Interactive Entertainment America Llc Head mounted device (HMD) system having interface with mobile computing device for rendering virtual reality content
CN107065195B (zh) * 2017-06-02 2023-05-02 那家全息互动(深圳)有限公司 一种模块化mr设备成像方法

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20120050144A1 (en) * 2010-08-26 2012-03-01 Clayton Richard Morlock Wearable augmented reality computing apparatus
TW201543333A (zh) * 2014-03-21 2015-11-16 Samsung Electronics Co Ltd 可穿戴式裝置及其操作方法
US20160163108A1 (en) * 2014-12-08 2016-06-09 Hyundai Motor Company Augmented reality hud display method and device for vehicle
TW201716827A (zh) * 2015-09-02 2017-05-16 愛威願景有限公司 眼睛投影系統與方法
TW201724031A (zh) * 2015-12-23 2017-07-01 財團法人工業技術研究院 擴增實境方法、系統及電腦可讀取非暫態儲存媒介

Also Published As

Publication number Publication date
US20190114838A1 (en) 2019-04-18
TW201915664A (zh) 2019-04-16

Similar Documents

Publication Publication Date Title
EP3571673B1 (en) Method for displaying virtual image, storage medium and electronic device therefor
CN107111370B (zh) 现实世界对象的虚拟表示
US11520399B2 (en) Interactive augmented reality experiences using positional tracking
US11284058B2 (en) Utilizing dual cameras for continuous camera capture
US20210407205A1 (en) Augmented reality eyewear with speech bubbles and translation
US11582409B2 (en) Visual-inertial tracking using rolling shutter cameras
US11915453B2 (en) Collaborative augmented reality eyewear with ego motion alignment
WO2020199821A1 (zh) 用于模拟盲人感受的物体显示方法、装置及存储介质
US11741679B2 (en) Augmented reality environment enhancement
US20230359038A1 (en) Eyewear having unsynchronized rolling shutter cameras
CN111034190B (zh) 信息处理设备、信息处理方法和程序
US11619819B2 (en) Eyewear display for generating an immersive image
US20210406542A1 (en) Augmented reality eyewear with mood sharing
US20190089949A1 (en) Display device and method for controlling display device
US11933977B2 (en) Eyewear eye-tracking using optical waveguide
TWI679555B (zh) 擴增實境系統以及提供擴增實境之方法
US20230205271A1 (en) Housing Structures and Input-Output Devices For Electronic Devices
WO2020137088A1 (ja) ヘッドマウントディスプレイ、表示方法、及び表示システム
US20230168522A1 (en) Eyewear with direction of sound arrival detection
US11860371B1 (en) Eyewear with eye-tracking reflective element
BR102013030771A2 (pt) dispositivo de mídia de realidade aumentada sobreposta ao reflexo de usuário