TWI666570B - 模擬環境顯示系統及方法 - Google Patents

模擬環境顯示系統及方法 Download PDF

Info

Publication number
TWI666570B
TWI666570B TW107100233A TW107100233A TWI666570B TW I666570 B TWI666570 B TW I666570B TW 107100233 A TW107100233 A TW 107100233A TW 107100233 A TW107100233 A TW 107100233A TW I666570 B TWI666570 B TW I666570B
Authority
TW
Taiwan
Prior art keywords
virtual object
simulation environment
computing unit
user
environment display
Prior art date
Application number
TW107100233A
Other languages
English (en)
Other versions
TW201837657A (zh
Inventor
李興豪
李經豪
Original Assignee
宏達國際電子股份有限公司
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 宏達國際電子股份有限公司 filed Critical 宏達國際電子股份有限公司
Publication of TW201837657A publication Critical patent/TW201837657A/zh
Application granted granted Critical
Publication of TWI666570B publication Critical patent/TWI666570B/zh

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L63/00Network architectures or network communication protocols for network security
    • H04L63/08Network architectures or network communication protocols for network security for authentication of entities
    • H04L63/0861Network architectures or network communication protocols for network security for authentication of entities using biometrical features, e.g. fingerprint, retina-scan
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/40Information retrieval; Database structures therefor; File system structures therefor of multimedia data, e.g. slideshows comprising image and additional audio data
    • G06F16/43Querying
    • G06F16/435Filtering based on additional data, e.g. user or group profiles
    • G06F16/436Filtering based on additional data, e.g. user or group profiles using biological or physiological data of a human being, e.g. blood pressure, facial expression, gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F21/00Security arrangements for protecting computers, components thereof, programs or data against unauthorised activity
    • G06F21/30Authentication, i.e. establishing the identity or authorisation of security principals
    • G06F21/31User authentication
    • G06F21/32User authentication using biometric data, e.g. fingerprints, iris scans or voiceprints
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F21/00Security arrangements for protecting computers, components thereof, programs or data against unauthorised activity
    • G06F21/60Protecting data
    • G06F21/62Protecting access to data via a platform, e.g. using keys or access control rules
    • G06F21/6218Protecting access to data via a platform, e.g. using keys or access control rules to a system of files or objects, e.g. local or distributed file system or database
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F21/00Security arrangements for protecting computers, components thereof, programs or data against unauthorised activity
    • G06F21/60Protecting data
    • G06F21/62Protecting access to data via a platform, e.g. using keys or access control rules
    • G06F21/629Protecting access to data via a platform, e.g. using keys or access control rules to features or functions of an application
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/013Eye tracking input arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/14Digital output to display device ; Cooperation and interconnection of the display device with other functional units
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q10/00Administration; Management
    • G06Q10/10Office automation; Time management
    • G06Q10/103Workflow collaboration or project management
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/003Navigation within 3D models or images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/20Editing of 3D images, e.g. changing shapes or colours, aligning objects or positioning parts
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2219/00Indexing scheme for manipulating 3D models or images for computer graphics
    • G06T2219/20Indexing scheme for editing of 3D models
    • G06T2219/2021Shape modification

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • Computer Security & Cryptography (AREA)
  • Computer Hardware Design (AREA)
  • Software Systems (AREA)
  • Business, Economics & Management (AREA)
  • Human Resources & Organizations (AREA)
  • Health & Medical Sciences (AREA)
  • Strategic Management (AREA)
  • General Health & Medical Sciences (AREA)
  • Human Computer Interaction (AREA)
  • Entrepreneurship & Innovation (AREA)
  • Data Mining & Analysis (AREA)
  • Bioethics (AREA)
  • Biomedical Technology (AREA)
  • Databases & Information Systems (AREA)
  • Computer Graphics (AREA)
  • Marketing (AREA)
  • Operations Research (AREA)
  • Economics (AREA)
  • Quality & Reliability (AREA)
  • Tourism & Hospitality (AREA)
  • General Business, Economics & Management (AREA)
  • Biophysics (AREA)
  • Multimedia (AREA)
  • Physiology (AREA)
  • Molecular Biology (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Remote Sensing (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Signal Processing (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Computing Systems (AREA)
  • Architecture (AREA)
  • User Interface Of Digital Computer (AREA)
  • Processing Or Creating Images (AREA)

Abstract

本案涉及一種模擬環境顯示系統及方法。系統包含穿戴裝置以及計算單元。穿戴裝置用以輸出模擬環境中的景象,並用以獲取生物特徵。計算單元用以根據生物特徵判斷許可等級,並根據許可等級判斷是否遮蔽顯示於模擬環境中的虛擬物件的至少一部份。

Description

模擬環境顯示系統及方法
本案涉及一種模擬環境顯示系統及方法,尤為一種向複數使用者提供模擬環境的顯示系統及方法。
虛擬實境技術是一種實用性相當高之技術,其可用於向多數使用者呈現視覺效果,尤可應用於像是會議或研討會等場合之上。畢竟,對大多數使用者而言,透過可視的三維效果來呈現試做原型或是設計圖等,其可以呈現的內容一定較僅展示二維的圖片而言更為直觀。然而,當將虛擬實境技術應用於位於不同空間的複數使用者時,現行的虛擬實境技術顯然仍存在著缺失,亟待加以改良。
本案的一實施態樣係涉及一種模擬環境顯示系統,用以提供一模擬環境。系統包含一穿戴裝置以及一計算單元。該穿戴裝置用以輸出該模擬環境中的一景象,並用以獲取一生物特徵。該計算單元用以根據該生物特徵判斷一許可等級,並根據該許可等級判斷是否遮蔽顯示於該模擬環境中的一 虛擬物件的至少一部份。
本案的另一實施態樣係涉及一種模模擬環境顯示方法,用以提供一模擬環境。所述方法包含下列步驟:透過一穿戴裝置輸出該模擬環境中的一景象;透過該穿戴裝置獲取一生物特徵;透過一計算單元根據該生物特徵判斷一許可等級;以及透過該計算單元根據該許可等級判斷是否遮蔽顯示於該模擬環境中的一虛擬物件的至少一部份。
因此,根據本案之技術內容,本案實施例藉由提供一種模擬環境顯示系統以及方法,藉以改善先前技術的模擬環境系統在提供模擬環境時並無法根據使用者的生物特徵決定顯示經過遮蔽的虛擬物件。
100‧‧‧第一穿戴裝置
200‧‧‧第二穿戴裝置
300‧‧‧計算單元
400‧‧‧資料庫
V1‧‧‧第一虛擬人物
V2‧‧‧第二虛擬人物
VT‧‧‧虛擬跑車
S701~S704‧‧‧步驟流程
第1圖為根據本案一實施例繪示的模擬環境顯示系統示意圖;第2圖為根據本案一實施例繪示的模擬環境顯示系統示意圖;第3圖為根據本案一實施例繪示的模擬環境顯示系統示意圖;第4圖為根據本案一實施例繪示的模擬環境顯示系統示意圖;第5圖為根據本案一實施例繪示的模擬環境顯示系統示意圖; 第6圖為根據本案一實施例繪示的模擬環境顯示系統示意圖;以及第7圖為本案一實施例的模擬環境顯示方法之步驟流程圖。
以下將以圖式及詳細敘述清楚說明本案之精神,任何所屬技術領域中具有通常知識者在瞭解本案之實施例後,當可由本案所教示之技術,加以改變及修飾,其並不脫離本案之精神與範圍。
本文之用語只為描述特定實施例,而無意為本案之限制。單數形式如“一”、“這”、“此”、“本”以及“該”,如本文所用,同樣也包含複數形式。
關於本文中所使用之『第一』、『第二』、...等,並非特別指稱次序或順位的意思,亦非用以限定本案,其僅為了區別以相同技術用語描述的元件或操作。
關於本文中所使用之『耦接』或『連接』,均可指二或多個元件或裝置相互直接作實體接觸,或是相互間接作實體接觸,亦可指二或多個元件或裝置相互操作或動作。
關於本文中所使用之『包含』、『包括』、『具有』、『含有』等等,均為開放性的用語,即意指包含但不限於。
關於本文中所使用之『及/或』,係包括所述事物的任一或全部組合。
關於本文中所使用之方向用語,例如:上、下、左、右、前或後等,僅是參考附加圖式的方向。因此,使用的方向用語是用來說明並非用來限制本案。
關於本文中所使用之用詞(terms),除有特別註明外,通常具有每個用詞使用在此領域中、在本案之內容中與特殊內容中的平常意義。某些用以描述本案之用詞將於下或在此說明書的別處討論,以提供本領域技術人員在有關本案之描述上額外的引導。
第1圖為根據本案一實施例繪示的模擬環境顯示系統示意圖。所述的模擬環境是一種由計算裝置顯示的虛擬物件建構而成的環境,例如,可以是虛擬實境、擴增實境或混合實境等等。如第1圖所示,第一穿戴裝置100和第二穿戴裝置200與計算單元300通訊耦接。在一實施例中,第一穿戴裝置100係由第一使用者所裝備,而第二穿戴裝置200則係由第二使用者所裝備。第一穿戴裝置100係用以向第一使用者顯示虛擬實境當中的第一景象,其中,顯示給第一使用者的第一景象展示了以第一穿戴裝置100於虛擬實境當中的視角為基準所能觀看的景象,根據第一使用者的移動在虛擬實境當中造成對應的視角變化,此第一景象也將對應地被更新。同理地,第二穿戴裝置200係用以向第二使用者顯示虛擬實境當中的第二景象,其中,顯示給第二使用者的第二景象展示了以第二穿戴裝置200於虛擬實境當中的視角為基準所能觀看的景象,根據第二使用者的移動在虛擬實境當中造成對應的視角變化,此第二景象也將對應地被更新。此第一穿戴裝置100以及第二穿戴裝 置200可自計算單元300獲取訊號,以進行第一景象和第二景象當中的虛擬物件或環境背景的更新動作。
在本實施例中,由於第一景象和第二景象係呈現同一個虛擬實境當中的畫面,當虛擬實境當中顯示一個虛擬物件時,第一使用者將能夠由第一景象在虛擬實境當中所對應的第一視角觀看此虛擬物件,而第二使用者則能夠由第二景象在虛擬實境當中所對應的第二視角觀看此虛擬物件,其中,第一視角和第二視角可為不同的視角。
在本實施例中,此第一穿戴裝置100更用以自第一使用者獲取第一生物特徵,此第一生物特徵可為虹膜特徵,此虹膜特徵係由設置於第一穿戴裝置100上的光學偵測器對第一使用者的至少一個眼睛進行偵測所獲取。此第一生物特徵將被傳送至計算單元300,而計算單元300即根據第一生物特徵判斷第一使用者的第一許可等級。同理地,第二穿戴裝置200也用以自第二使用者獲取第二生物特徵,由第二使用者身上所獲取的此第二生物特徵(例如虹膜),也將被傳送至計算單元300,據此,計算單元300即根據獲取的第二生物特徵判斷第二使用者的第二許可等級。
在本實施例中,資料庫400與計算單元300電性耦接,此資料庫400用以儲存一許可表,此許可表係記錄了生物特徵與對應的許可等級之間的相關性。換言之,此許可表當中儲存了使用者的性別、任務、職稱或是身分等資訊,而辨識了使用者的生物特徵後,即可根據這些資訊後判斷應給予使用者何種許可等級。當計算單元300自第一穿戴裝置100獲取第一 生物特徵後,計算單元300可自資料庫400獲取此許可表,據此,計算單元300即可根據許可表當中的資訊判斷第一使用者對應的第一許可等級。同理地,當計算單元300自第二穿戴裝置200獲取第二生物特徵後,計算單元300也可獲取此許可表並進一步根據許可表當中的資訊判斷第二使用者對應的第二許可等級。
在本實施例中,此許可等級規範了一個特定使用者能否觀賞虛擬物件的某個部分,例如,在本實施例中,第一使用者和第二使用者皆為一個專案計畫的參與者,但第一使用者是此專案計畫的領導者,故第一使用者所能取得的此第一許可等級是最高級別的許可等級,而被授予最高許可等級的使用者應當能夠觀賞虛擬物件的全體。透過第一穿戴裝置100,第一使用者的第一生物特徵將被傳送至計算單元300,而計算單元300再自資料庫400獲取前述的許可表,並判斷第一使用者可取得第一許可等級,由於第一許可等級是最高級別,計算單元300將判斷不需要遮蔽虛擬物件上的任何部分。據此,第一使用者透過第一景象所觀看到的虛擬物件將被完整的顯示。
相對地,第二使用者則是一位約聘設計師,其僅參與此虛擬物件的部分設計。為了保密此虛擬物件的整體設計,除了第二使用者所參與的部分,此虛擬物件的其餘部分依規定是不能向第二使用者揭露的。根據以上前提,被授予第二使用者的第二許可等級僅能顯示第二使用者所參與設計的部分,而被授予第二許可等級的使用者將僅能夠觀看到部分被遮蔽後的虛擬物件。透過第二穿戴裝置200,第二使用者的第二 生物特徵將被傳送至計算單元300,而計算單元300再自資料庫400獲取前述的許可表,按此,計算單元300判斷第二使用者可取得第二許可等級,而根據第二許可等級,計算單元300將判斷應遮蔽虛擬物件上的某些部分。據此,第二使用者透過第二景象所觀看到的虛擬物件將不會被完整的顯示。
在一些實施例中,所述的生物特徵更包含了使用者的指紋態樣或是習慣性動作。例如,可以在第一穿戴裝置100以及第二穿戴裝置200上設置複數指紋偵測器。在第一使用者和第二使用者分別透過第一穿戴裝置100以及第二穿戴裝置200觀看第一景象和第二景象之前,第一使用者以及第二使用者須先於各自的指紋偵測器上按壓指紋,據此,第一使用者以及第二使用者的指紋將被傳送至計算單元300。然後,此計算單元300將可根據獲取的指紋來判斷各使用者的許可等級。又例如,可以在第一穿戴裝置100以及第二穿戴裝置200上設置複數動作偵測器,當第一使用者裝備第一穿戴裝置100以及第二使用者裝備第二穿戴裝置200時,動作偵測器將可收集使用者們的習慣動作,並將這些習慣動作傳送至計算單元300。然後,此計算單元300將可根據獲取的習慣動作來判斷各使用者的許可等級。
然而,應當瞭解,繪示於本案第1圖當中的計算單元300僅為一種舉例說明的實施態樣。在一些實施例當中,所述的計算單元300可以是設置於第一穿戴裝置100或是第二穿戴裝置200上的中央處理器(CPU)、圖像處理器(GPU)或是控制單元。取決於計算單元300設置於哪個穿戴裝置上,前述 的生物特徵將被傳送至該穿戴裝置以利其中的計算單元300進行處理。
第2圖為根據本案一實施例繪示的模擬環境顯示系統示意圖。如圖中所示,在此虛擬實境當中,虛擬跑車VT的後方繪示有第一虛擬人物V1,本圖式係具體化地繪示第1圖的實施例當中所描述的由第一使用者的視角所觀看的第一景象之狀況。當第一使用者在現實世界中裝備第一穿戴裝置100時,此第一虛擬人物V1顯示了第一使用者在虛擬實境當中的狀況。如第1圖的實施例所述,此第一穿戴裝置100可收集第一使用者的第一生物特徵,並將此第一生物特徵傳送至計算單元300,此計算單元300將自資料庫400獲取許可表,以判斷第一使用者的許可等級。由於第一使用者將可被授予第一許可等級,第一使用者可透過第一穿戴裝置100觀看虛擬跑車VT的尾端整體,其在虛擬實境當中的視角即如圖中所繪示的第一虛擬人物V1的視角所示。
第3圖為根據本案一實施例繪示的模擬環境顯示系統示意圖。如圖中所示,在此虛擬實境當中,虛擬跑車VT的前方繪示有第一虛擬人物V1,本圖式係具體化地繪示第1圖的實施例當中所描述的由第一使用者的視角所觀看的第一景象之狀況。當第一使用者在現實世界中裝備第一穿戴裝置100時,此第一虛擬人物V1顯示了第一使用者在虛擬實境當中的狀況。如第1圖的實施例所述,此第一穿戴裝置100可收集第一使用者的第一生物特徵,並將此第一生物特徵傳送至計算單元300,此計算單元300將自資料庫400獲取許可表,以判斷第 一使用者的許可等級。由於第一使用者將可被授予第一許可等級,第一使用者可透過第一穿戴裝置100觀看虛擬跑車VT的車頭整體,其在虛擬實境當中的視角即如第3圖中所繪示的第一虛擬人物V1的視角所示。
如第2圖和第3圖的實施例所示,可以瞭解,第一使用者被授予的第一許可等級使其能夠在虛擬實境當中透過第一景象觀看虛擬跑車VT的整體部分,這是因為,自第一使用者身上獲取的第一生物特徵將使系統能夠辨認並判斷第一使用者的任務是此專案計畫的領導者。
第4圖為根據本案一實施例繪示的模擬環境顯示系統示意圖。如圖中所示,在此虛擬實境當中,虛擬跑車VT的後方繪示有第二虛擬人物V2,本圖式係具體化地繪示第1圖的實施例當中所描述的由第二使用者的視角所觀看的第二景象之狀況。如第1圖的實施例所述,此第二穿戴裝置200可收集第二使用者的第二生物特徵,並將此第二生物特徵傳送至計算單元300,此計算單元300將自資料庫400獲取許可表,以判斷第二使用者的許可等級。如前面實施例所述,根據獲取的許可表,此第二使用者將被授予第二許可等級,根據此第二許可等級,在第二景象當中顯示的虛擬物件有若干部分會受到遮蔽。由於第二使用者是僅參與虛擬跑車VT的尾部設計的工程師,被授予第二許可等級的第二使用者應可觀看虛擬跑車VT的尾部整體外觀。在本實施例中,第二使用者可透過第二穿戴裝置200觀看虛擬跑車VT的尾部整體,其在虛擬實境當中的視角即如圖中所繪示的第二虛擬人物V2的視角所示。
第5圖為根據本案一實施例繪示的模擬環境顯示系統示意圖。在此虛擬實境當中,虛擬跑車VT的後方繪示有第二虛擬人物V2,本圖式係具體化地繪示第1圖的實施例當中所描述的由第二使用者的視角所觀看的第二景象之狀況。A如第1圖的實施例所述,此第二穿戴裝置200可收集第二使用者的第二生物特徵,並將此第二生物特徵傳送至計算單元300,此計算單元300將自資料庫400獲取許可表,以判斷第二使用者的許可等級。如前面實施例所述,根據獲取的許可表,此第二使用者將被授予第二許可等級,根據此第二許可等級,在第二景象當中顯示的虛擬物件有若干部分會受到遮蔽。由於第二使用者是僅參與虛擬跑車VT的尾部設計的工程師,被授予第二許可等級的第二使用者受規範不可觀看虛擬跑車VT的前端整體外觀。在本實施例中,如第二虛擬人物V2的視角所示,第二使用者所觀看到的虛擬跑車VT的前端受到遮蔽。若將第5圖與第3圖比較,可以發現第5圖當中的虛擬跑車VT的前端被整個切除消去。如第5圖中所示,由虛擬實境中的第二虛擬人物V2的視角望去,虛擬跑車VT的整個前端都是不可見的。
應當注意,如第5圖所示之實施例僅是舉例以說明如何將虛擬跑車VT的至少一部分遮蔽。在一些其他實施例中,計算單元300能夠透過多種不同方式遮蔽虛擬跑車VT的特定部分。例如,也可以透過將虛擬跑車VT的特定部分透過變色處理的方式遮蔽,如同第6圖中所示。在本實施例中,若由對應第二使用者的第二虛擬人物V2的視角望去,虛擬跑車VT的特定部分被塗以特定顏色,而被塗色的特定部分對第二使用 者而言是難以看清的。在其他實施例中,也可以透過將虛擬跑車VT的特定部分透過挖空處理的方式遮蔽,或是透過將虛擬跑車VT的特定部分的表面施以變形處理的方式遮蔽,或是透過將虛擬跑車VT的特定部分以另一虛擬物件覆蓋於其上的方式遮蔽。本案雖以實施例揭露如上,應當理解,本案仍可透過多種其他的遮蔽方式實施,而非以上述實施例中的遮蔽態樣進行限定。
第7圖為本案一實施例的模擬環境顯示方法之步驟流程圖,其係用以向複數使用者提供模擬環境。於本實施例中,模擬環境顯示方法包含複數步驟,各個步驟實際所實施的內容所將詳述於下列段落中。
步驟S701:透過一穿戴裝置輸出該模擬環境中的一景象,其中該景象中顯示一虛擬物件。如第1圖至第6圖的實施例所示,當第一使用者裝備第一穿戴裝置100時,計算單元300可向第一使用者顯示虛擬實境當中的第一景象。同理地,當第二使用者裝備第二穿戴裝置200時,計算單元300可向第二使用者顯示虛擬實境當中的第二景象。虛擬跑車VT被顯示於第一景象以及第二景象當中,差別在於,根據使用者的許可等級,在第一景象以及第二景象當中的虛擬跑車VT可能有某些部分會受到遮蔽。
步驟S702:透過該穿戴裝置獲取一生物特徵。如第1圖至第6圖的實施例所示,第一穿戴裝置100可自第一使用者身上獲取第一生物特徵,而第二穿戴裝置200可自第二使用者身上獲取第二生物特徵。第一生物特徵以及第二生物特徵皆 將被傳送至計算單元300。
步驟S703:透過一計算單元根據該生物特徵判斷一許可等級。如第1圖至第6圖的實施例所示,當第一生物特徵以及第二生物特徵被傳送至計算單元300後,此計算單元300可自資料庫400獲取許可表,並開始判斷各使用者的許可等級。在上述的實施例當中,第一使用者被授予第一許可等級,而第二使用者被授予第二許可等級。其中,被授予各使用者的許可等級係根據許可表當中的資訊所決定,此許可表當中紀錄了許可等級以及生物特徵之間的關聯性。
步驟S704:透過該計算單元根據該許可等級判斷是否遮蔽顯示於該模擬環境中的該虛擬物件的至少一部份。如第1圖至第6圖的實施例所示,根據不同的許可等級,各使用者能夠在虛擬實境當中觀看的虛擬跑車VT所顯示出來的不同部位。在本實施例中,由於第一使用者被授予了第一許可等級,無論在虛擬實境當中的任何角度,第一使用者當能夠觀看到完整的虛擬跑車VT,如同第2圖和第3圖所示。然而,由於第二使用者被授予了第二許可等級,第二使用者只能夠觀看虛擬跑車VT的尾端部分,而不能夠觀看虛擬跑車VT的前端部分,如同第4圖、第5圖和第6圖所示。
綜上所述,本案提供了一種能夠根據使用者的生物特徵決定遮蔽虛擬物件的某些部位的技術方案,根據此種方案,未具備足夠許可等級的使用者將不能夠接觸到虛擬物件的某些部份的訊息,此種方案為領域中人欲在模擬環境當中維護資訊安全時存在的潛在問題提出了可行的解決辦法。
雖然本案以實施例揭露如上,然其並非用以限定本案,任何熟習此技藝者,在不脫離本案之精神和範圍內,當可作各種之更動與潤飾,因此本案之保護範圍當視後附之申請專利範圍所界定者為準。

Claims (20)

  1. 一種模擬環境顯示系統,用以提供一模擬環境,包含:一穿戴裝置,用以輸出該模擬環境中的一景象,並用以獲取一生物特徵;以及一計算單元,用以根據該生物特徵判斷一許可等級,並根據該許可等級判斷是否遮蔽顯示於該模擬環境中的一虛擬物件的至少一部份。
  2. 如請求項1所述之模擬環境顯示系統,更包含:一資料庫,用以儲存一許可表,其中該許可表紀錄該許可等級和該生物特徵之間的一相關性,其中該計算單元係根據該許可表判斷該許可等級。
  3. 如請求項1所述之模擬環境顯示系統,其中該穿戴裝置包含一光學偵測器,其中該光學偵測器係用以獲取一虹膜特徵作為該生物特徵。
  4. 如請求項1所述之模擬環境顯示系統,其中該生物特徵包含複數指紋態樣以及複數習慣性動作的其中一者。
  5. 如請求項1所述之模擬環境顯示系統,其中該許可等級的判斷係基於性別、任務、職稱或身份而決定。
  6. 如請求項1所述之模擬環境顯示系統,其中該計算單元係將該虛擬物件的該至少一部份挖空以對該虛擬物件的該至少一部份進行遮蔽。
  7. 如請求項1所述之模擬環境顯示系統,其中該計算單元係將該虛擬物件的該至少一部份切除以對該虛擬物件的該至少一部份進行遮蔽。
  8. 如請求項1所述之模擬環境顯示系統,其中該計算單元係將該虛擬物件的該至少一部份變色以對該虛擬物件的該至少一部份進行遮蔽。
  9. 如請求項1所述之模擬環境顯示系統,其中該計算單元係將該虛擬物件的該至少一部份的表面變形以對該虛擬物件的該至少一部份進行遮蔽。
  10. 如請求項1所述之模擬環境顯示系統,其中該計算單元係將另一虛擬物件覆蓋於該虛擬物件的該至少一部份以對該虛擬物件的該至少一部份進行遮蔽。
  11. 一種模擬環境顯示方法,用以提供一模擬環境,包含:透過一穿戴裝置輸出該模擬環境中的一景象;透過該穿戴裝置獲取一生物特徵; 透過一計算單元根據該生物特徵判斷一許可等級;以及透過該計算單元根據該許可等級判斷是否遮蔽顯示於該模擬環境中的一虛擬物件的至少一部份。
  12. 如請求項11所述之模擬環境顯示方法,更包含:透過該計算單元自一資料庫獲取一許可表,其中該許可表紀錄該許可等級和該生物特徵之間的一相關性。
  13. 如請求項11所述之模擬環境顯示方法,更包含:透過設置於該穿戴裝置的一光學偵測器獲取一虹膜特徵作為該生物特徵。
  14. 如請求項11所述之模擬環境顯示方法,其中該生物特徵包含複數指紋態樣以及複數習慣性動作的其中一者。
  15. 如請求項11所述之模擬環境顯示方法,其中該許可等級的判斷係基於性別、任務、職稱或身份而決定。
  16. 如請求項11所述之模擬環境顯示方法,其中該計算單元係將該虛擬物件的該至少一部份挖空以對該虛擬物件的該至少一部份進行遮蔽。
  17. 如請求項11所述之模擬環境顯示方法,其中該計算單元係將該虛擬物件的該至少一部份切除以對該虛擬物件的該至少一部份進行遮蔽。
  18. 如請求項11所述之模擬環境顯示方法,其中該計算單元係將該虛擬物件的該至少一部份變色以對該虛擬物件的該至少一部份進行遮蔽。
  19. 如請求項11所述之模擬環境顯示方法,其中該計算單元係將該虛擬物件的該至少一部份的表面變形以對該虛擬物件的該至少一部份進行遮蔽。
  20. 如請求項11所述之模擬環境顯示方法,其中該計算單元係將另一虛擬物件覆蓋於該虛擬物件的該至少一部份以對該虛擬物件的該至少一部份進行遮蔽。
TW107100233A 2017-04-06 2018-01-03 模擬環境顯示系統及方法 TWI666570B (zh)

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
US201762482207P 2017-04-06 2017-04-06
US62/482,207 2017-04-06
US15/823,608 2017-11-28
US15/823,608 US10609025B2 (en) 2017-04-06 2017-11-28 System and method for providing simulated environment

Publications (2)

Publication Number Publication Date
TW201837657A TW201837657A (zh) 2018-10-16
TWI666570B true TWI666570B (zh) 2019-07-21

Family

ID=60953796

Family Applications (1)

Application Number Title Priority Date Filing Date
TW107100233A TWI666570B (zh) 2017-04-06 2018-01-03 模擬環境顯示系統及方法

Country Status (4)

Country Link
US (1) US10609025B2 (zh)
EP (1) EP3385876A1 (zh)
CN (1) CN108693962B (zh)
TW (1) TWI666570B (zh)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10608774B2 (en) 2018-07-27 2020-03-31 At&T Intellectual Property I, L.P. Network switch and optical transponder connectivity verification for wavelength division multiplexing network
US11372474B2 (en) * 2019-07-03 2022-06-28 Saec/Kinetic Vision, Inc. Systems and methods for virtual artificial intelligence development and testing
GB202020521D0 (en) * 2020-12-23 2021-02-03 British Telecomm Extended Reality Access Control

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106161966A (zh) * 2016-09-08 2016-11-23 深圳市锐尔威视科技有限公司 Vr双摄像方法及其系统
TW201643506A (zh) * 2015-06-15 2016-12-16 三星電子股份有限公司 頭戴式顯示裝置
US9591427B1 (en) * 2016-02-20 2017-03-07 Philip Scott Lyren Capturing audio impulse responses of a person with a smartphone
CN106506446A (zh) * 2016-09-21 2017-03-15 奇酷互联网络科技(深圳)有限公司 头戴式虚拟现实设备及其控制方法

Family Cites Families (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6943665B2 (en) * 2000-03-21 2005-09-13 T. Eric Chornenky Human machine interface
US9704154B2 (en) * 2002-10-01 2017-07-11 World Award Academy, World Award Foundation, Amobilepay, Inc. Wearable personal digital device for facilitating mobile device payments and personal use
US20060115130A1 (en) 2004-11-29 2006-06-01 Douglas Kozlay Eyewear with biometrics to protect displayed data
US8541745B2 (en) * 2011-11-16 2013-09-24 Motorola Mobility Llc Methods and devices for clothing detection about a wearable electronic device
US9122321B2 (en) * 2012-05-04 2015-09-01 Microsoft Technology Licensing, Llc Collaboration environment using see through displays
US9979547B2 (en) 2013-05-08 2018-05-22 Google Llc Password management
US9256253B2 (en) * 2013-12-28 2016-02-09 Intel Corporation Clasp assembly and data interconnection for wearable computing devices
CN106030458B (zh) * 2013-12-31 2020-05-08 谷歌有限责任公司 用于基于凝视的媒体选择和编辑的系统和方法
WO2016018488A2 (en) * 2014-05-09 2016-02-04 Eyefluence, Inc. Systems and methods for discerning eye signals and continuous biometric identification
US10299520B1 (en) * 2014-08-12 2019-05-28 Apple Inc. Fabric-based items with environmental control elements
US20160342782A1 (en) 2015-05-18 2016-11-24 Daqri, Llc Biometric authentication in a head mounted device
US10163282B2 (en) * 2016-03-30 2018-12-25 Intermec, Inc. Systems and methods for authentication
US20170337352A1 (en) * 2016-05-23 2017-11-23 Daqri, Llc Confidential information occlusion using augmented reality

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
TW201643506A (zh) * 2015-06-15 2016-12-16 三星電子股份有限公司 頭戴式顯示裝置
US9591427B1 (en) * 2016-02-20 2017-03-07 Philip Scott Lyren Capturing audio impulse responses of a person with a smartphone
CN106161966A (zh) * 2016-09-08 2016-11-23 深圳市锐尔威视科技有限公司 Vr双摄像方法及其系统
CN106506446A (zh) * 2016-09-21 2017-03-15 奇酷互联网络科技(深圳)有限公司 头戴式虚拟现实设备及其控制方法

Also Published As

Publication number Publication date
US20180295130A1 (en) 2018-10-11
CN108693962B (zh) 2020-07-03
US10609025B2 (en) 2020-03-31
TW201837657A (zh) 2018-10-16
EP3385876A1 (en) 2018-10-10
CN108693962A (zh) 2018-10-23

Similar Documents

Publication Publication Date Title
Livingston et al. Pursuit of “X-ray vision” for augmented reality
Creem-Regehr et al. The influence of restricted viewing conditions on egocentric distance perception: Implications for real and virtual indoor environments
US9595127B2 (en) Three-dimensional collaboration
KR20180122637A (ko) 물리적 환경의 시각 이미지들의 가상 현실에의 통합을 위한 공간 관계들
Kinateder et al. Using an augmented reality device as a distance-based vision aid—promise and limitations
US9740282B1 (en) Gaze direction tracking
TWI666570B (zh) 模擬環境顯示系統及方法
US11106328B1 (en) Private control interfaces for extended reality
US20120162384A1 (en) Three-Dimensional Collaboration
CN108369785A (zh) 活性检测
US11449131B2 (en) Obfuscated control interfaces for extended reality
CN106709404A (zh) 图像处理装置及图像处理方法
US10955911B2 (en) Gazed virtual object identification module, a system for implementing gaze translucency, and a related method
Vienne et al. The role of vertical disparity in distance and depth perception as revealed by different stereo-camera configurations
US10990818B2 (en) Virtual reality device with iris acquisition function
CN116863107A (zh) 增强现实提供方法、装置以及非暂时性计算机可读介质
TWI669654B (zh) 模擬環境顯示系統及方法
Helbig et al. Haptic perception in interaction with other senses
Li Distance perception in virtual environment through head-mounted displays
Bennett et al. The effect that touching a projection augmented model has on object-presence
KR101782890B1 (ko) Vr 공간에서의 광고 노출 방법
KR20200070531A (ko) 직업체험을 위한 가상현실 생성 및 제공 시스템
Sharma et al. Human depth perception
Nakao et al. A psychometric evaluation of the user interaction system combining an aerial display with gesture recognition
WO2019111052A2 (en) Inserting virtual objects in between two real objects in an augmented reality environment