TWI551334B - 用於擴增實境的方法、設備及電腦可讀取媒體 - Google Patents

用於擴增實境的方法、設備及電腦可讀取媒體 Download PDF

Info

Publication number
TWI551334B
TWI551334B TW100147149A TW100147149A TWI551334B TW I551334 B TWI551334 B TW I551334B TW 100147149 A TW100147149 A TW 100147149A TW 100147149 A TW100147149 A TW 100147149A TW I551334 B TWI551334 B TW I551334B
Authority
TW
Taiwan
Prior art keywords
user
real world
mar
description
person
Prior art date
Application number
TW100147149A
Other languages
English (en)
Other versions
TW201236722A (en
Inventor
沙布哈西尼 加那佩西
格倫J 安德森
戴伯特K 馬許
Original Assignee
英特爾公司
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 英特爾公司 filed Critical 英特爾公司
Publication of TW201236722A publication Critical patent/TW201236722A/zh
Application granted granted Critical
Publication of TWI551334B publication Critical patent/TWI551334B/zh

Links

Classifications

    • A63F13/12
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/60Generating or modifying game content before or while executing the game program, e.g. authoring tools specially adapted for game development or game-integrated level editor
    • A63F13/65Generating or modifying game content before or while executing the game program, e.g. authoring tools specially adapted for game development or game-integrated level editor automatically by game devices or servers from real world data, e.g. measurement in live racing competition
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/20Input arrangements for video game devices
    • A63F13/21Input arrangements for video game devices characterised by their sensors, purposes or types
    • A63F13/216Input arrangements for video game devices characterised by their sensors, purposes or types using geographical information, e.g. location of the game device or player using GPS
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/30Interconnection arrangements between game servers and game devices; Interconnection arrangements between game devices; Interconnection arrangements between game servers
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/50Controlling the output signals based on the game progress
    • A63F13/52Controlling the output signals based on the game progress involving aspects of the displayed game scene
    • A63F13/525Changing parameters of virtual cameras
    • A63F13/5255Changing parameters of virtual cameras according to dedicated instructions from a player, e.g. using a secondary joystick to rotate the camera around a player's character
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/50Controlling the output signals based on the game progress
    • A63F13/53Controlling the output signals based on the game progress involving additional visual information provided to the game scene, e.g. by overlay to simulate a head-up display [HUD] or displaying a laser sight in a shooting game
    • A63F13/537Controlling the output signals based on the game progress involving additional visual information provided to the game scene, e.g. by overlay to simulate a head-up display [HUD] or displaying a laser sight in a shooting game using indicators, e.g. showing the condition of a game character on screen
    • A63F13/5378Controlling the output signals based on the game progress involving additional visual information provided to the game scene, e.g. by overlay to simulate a head-up display [HUD] or displaying a laser sight in a shooting game using indicators, e.g. showing the condition of a game character on screen for displaying an additional top view, e.g. radar screens or maps
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/70Game security or game management aspects
    • A63F13/79Game security or game management aspects involving player-related data, e.g. identities, accounts, preferences or play histories
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L67/00Network arrangements or protocols for supporting network services or applications
    • H04L67/01Protocols
    • H04L67/131Protocols for games, networked simulations or virtual reality
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/20Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterised by details of the game platform
    • A63F2300/204Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterised by details of the game platform the platform being a handheld device
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/30Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by output arrangements for receiving control signals generated by the game device
    • A63F2300/303Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by output arrangements for receiving control signals generated by the game device for displaying additional data, e.g. simulating a Head Up Display
    • A63F2300/307Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by output arrangements for receiving control signals generated by the game device for displaying additional data, e.g. simulating a Head Up Display for displaying an additional window with a view from the top of the game field, e.g. radar screen
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/40Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterised by details of platform network
    • A63F2300/406Transmission via wireless network, e.g. pager or GSM
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/50Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by details of game servers
    • A63F2300/55Details of game data or player data management
    • A63F2300/5546Details of game data or player data management using player registration data, e.g. identification, account, preferences, game history
    • A63F2300/5573Details of game data or player data management using player registration data, e.g. identification, account, preferences, game history player location
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/60Methods for processing data by generating or executing the game program
    • A63F2300/66Methods for processing data by generating or executing the game program for rendering three dimensional images
    • A63F2300/6661Methods for processing data by generating or executing the game program for rendering three dimensional images for changing the position of the virtual camera
    • A63F2300/6676Methods for processing data by generating or executing the game program for rendering three dimensional images for changing the position of the virtual camera by dedicated player input
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/60Methods for processing data by generating or executing the game program
    • A63F2300/69Involving elements of the real world in the game world, e.g. measurement in live races, real video

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Software Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Computer Hardware Design (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Graphics (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Signal Processing (AREA)
  • Human Computer Interaction (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Business, Economics & Management (AREA)
  • General Business, Economics & Management (AREA)
  • Optics & Photonics (AREA)
  • Environmental & Geological Engineering (AREA)
  • Computer Security & Cryptography (AREA)
  • User Interface Of Digital Computer (AREA)
  • Processing Or Creating Images (AREA)

Description

用於擴增實境的方法、設備及電腦可讀取媒體 發明的技術領域
本發明係有關用於行動擴增實境應用程式的技術。
發明的技術背景
行動擴增實境(MAR)應用程式提供使用者能夠觀看一實際環境的能力,該實際環境係與虛擬元件(在本文中稱為“MAR物件”)疊加在一起。該等MAR應用程式可包括遊戲,例如戰場模擬遊戲。
在執行MAR應用程式的過程中,使用者(例如,玩家)可為行動式的,且透過其個別顯示器裝置來觀看一擴增環境。再者,該等裝置的使用者可彼此互動,並且與該MAR應用程式所提供的物件互動。該等互動可包括瞄準目標(例如,虛擬物件、及/或其他玩家),並且對目標發射虛擬子彈。
目前,挑戰存在於對多個使用者提供擴增實境,並且在於管理與該種擴增實境相關聯的資訊。
發明的概要說明
依據本發明之一實施例,係特地提出一種方法,其包含下列步驟:接收一遠端位置的一使用者選擇,該遠端位置不同於該使用者的一目前位置;以及對該使用者輸出該遠端位置的一視覺化內容;其中該視覺化內容包括該遠端位置內之一或多個行動擴增實境(MAR)物件的表述。
圖式的簡要說明
在圖式中,相同的元件編號大致上表示相同、功能上相似、及/或結構上相似的物件。一元件編號的最左邊數字表示該元件首先出現的圖式編號。將參照下面的圖式來提出本發明的詳細說明,在圖式中:第1圖展示出一種例示運作式環境;第2A圖至第2B圖展示出一例示情景;第3圖展示出可包括在一使用者平台中的一種例示實行方案;第4圖展示出可包括在一應用程式處理模組中的一種例示實行方案;第5圖展示出可包括在一客製化模組中的一種例示實行方案;第6圖展示出可包括在一中央處理區段中的一種例示實行方案;第7圖為一邏輯流程圖;第8圖展示出一種例示物件設定檔資料庫實行方案;以及第9圖展示出一種例示角色設定檔資料庫。
較佳實施例的詳細說明
實施例提供可以追蹤、表述與操縱MAR應用程式物件(例如,玩家、角色與其他物件)之實際地理位置的技術。例如,可跨越多個位置(例如,多個地理區域與玩家環境)追蹤MAR物件。透過此特徵,一使用者可把虛擬物件置放在相對於其他使用者的位置中。同樣地,該使用者可取得該MAR環境中之物件的映射內容。舉例來說,該等映射內容可相對於該使用者的裝置。
例如,未直接地與其他使用者處於該環境中的一使用者可使MAR物件出現在當中為其他使用者之所在的區域中。該等物件可包括攻擊角色、炸彈、盾牌等。再者,此遠端使用者可觀看一顯示器裝置,其係根據在此區域中出現的MAR應用程式活動而受到更新。
該等特徵可較佳地增進使用者互動,並且提供一種自然實境的感覺。這是優於現存MAR實行方案(其相當基本且無法根據位置資訊提供豐富的互動)的一種改善方案。
再者,實施例使MAR內容能根據該使用者的一目前脈絡受到操縱並且對該使用者提供MAR內容。此脈絡可根據各種不同屬性,例如該使用者的位置。再者,實施例可隨著時間學習一使用者的使用型樣,並且客製化需要對該使用者呈現的該內容。此種客製化內容可根據所維持的一使用者設定檔。因此,可向該使用者呈現較佳資訊。
例如,如果一使用者正參與允許MAR角色出現在螢幕上的一MAR應用程式(例如,一遊戲),實施例可取得與該使用者有關的情境相關資訊。該種情境相關資訊可包括(但不限於)該使用者的目前位置(例如該使用者位於家中、位於咖啡廳中、在學校裡、在機場等)。根據該種資訊,該MAR應用程式提供該使用者一種客製化輸出。
此種客製化輸出可包括一顯示器裝置上的特定視圖或視覺化內容。舉例來說,如果該使用者位於家中,便可提供較完整的資訊(例如,有關其他玩家、MAR物件的資訊,例如攻擊角色、顯示在一地圖上的炸彈等)。然而,如果該使用者處於較不隱密或行動式脈絡中,便提供較少資訊。例如,可對此脈絡中的該使用者呈現較少角色資訊細節,及/或呈現具有較少特性之MAR物件的一概要表述。
在實施例中,該等客製化技術不僅可使用人工智慧(例如,啟發法)來處理MAR物件,但亦可允許該系統能感知該脈絡並且以一種定制方式對該使用者、一目前脈絡、及/或正進行任務起作用。因此,可根據對該使用者與該脈絡的漸增式情境察知度,來動態地調整MAR物件的呈現樣式。
本發明說明中所提及的“一實施例”或“一個實施例”係表示結合該實施例所述的一特定特徵、結構、或特色係包括在至少一實施例中。因此,本發明說明書中之各處出現的“在一實施例中”或“在一個實施例中”未必均表示相同的實施例。再者,在一或多個實施例中,可利用任何適當方式來組合該等特定特徵、結構或特色。
可參照以下的圖式與伴隨的實例來進一步說明用於各種不同實施例的操作。該等圖式中的某些圖式可包括一邏輯流程。雖然本發明呈現的該等圖式可包括一特定邏輯流程,可瞭解的是,該邏輯流程僅提供如何實行本發明所述之一般功能的一實例。再者,該給定邏輯流程未必必須要以展示出的順序來執行,除非另外表示出來。此外,該給定邏輯流程可由一硬體元件、受一處理器執行的一軟體元件、或該等的組合來實行。本發明的實施例不受限於此脈絡。
第1圖展示出一種例示環境100,其中可使用本發明所述的該等技術。此環境包括多個使用者平台102a至102n、中央處理區段104、以及通訊基礎設施106。可把該等元件實行於硬體及/或軟體的任何組合中。
同時,第1圖的該等元件可執行與一MAR應用程式相關聯的操作。一戰場遊戲模擬是一MAR應用程式的一實例。在該種應用程式中,一模擬戰場環境可根據一使用者正在一顯示器上觀看的一真實環境。該使用者可隨後虛擬地對該螢幕上的虛擬目標發射。再者,該等應用程式可展示出疊加在該環境上的角色。依次地,該使用者可與該等角色互動。
一購物應用程式為另一種MAR應用程式實例。在該種應用程式中,一使用者可在一顯示器裝置(例如,在一手持式螢幕)上觀看一購物中心的實況。透過使用MAR技術,有關該購物中心中之各種不同商店的資訊可被疊加在該顯示器上。例如,該種資訊可包括商店名稱及/或在特定商店中進行特賣的相關細節。
使用者平台102a至102n係各與該MAR應用程式中的一特定使用者或參與者相關聯。同樣地,使用者平台102a至102n可各為可攜式的,並且與其使用者一起移動。透過該等使用者平台,一使用者可感知(例如,看見及/或聽見)一擴增實境。
例如,使用者平台102a至102n可各包括可顯示該擴增實境之視圖的一顯示器裝置,如該MAR應用程式所產生地。此擴增實境可根據一使用者在一真實環境中的目前觀點(例如,該使用者的目前位置與定向)。更確切地,該使用者可從他/她的目前觀點觀看受到改變的一真實環境。該等改變可包括對真實物件之外觀所做的改變、從視圖中移除真實物件、加入虛擬(非真實)物件、以及顯示資訊中的任何組合。例如,可令使用者擴增以作為對應化身的樣式出現。該等化身式擴增內容可包括在一使用者的影像上覆蓋不同特徵(例如,衣著、制服、身體特徵等)。
再者,使用者平台102a至102n可各包括音訊輸入與輸出裝置。透過該等裝置,一使用者可接收能擴增該真實環境的音訊。該MAR應用程式可把該音訊歸因於經改變的真實物件、虛擬物件、及/或其他使用者(及/或其角色物件)。再者,一使用者可傳送音訊,以供在一不同使用者平台上受到輸出。同樣地,透過該等裝置,使用者可從事音訊(例如,彼此進行語音通訊),而具有能彼此進行音訊通訊的能力。該等通訊可透過邏輯性通道或“頻帶”。該等頻帶的特性(例如,其效力)可能會受到該MAR應用程式之事件的影響。
使用者平台102a至102n亦可各包括允許其使用者能與一MAR應用程式互動的一或多個輸入裝置。例示輸入裝置包括(但不限於)按鍵組、鍵盤與觸控螢幕(例如,透過使用者輸出裝置206實行)、手持式遙控器、姿勢式控制裝置、及/或可使用語音辨識技術的語音致動控制裝置。
本文所述的擴增實境可根據各種不同因素。例如,對使用者平台102a至102n之中一平台的一使用者提供的該擴增實境可根據該使用者本身的動作、根據另一個使用者(例如,另一個玩家)的動作、及/或根據自動地由該MAR應用程式啟始的操作。
中央處理區段104可提供各個使用者平台102a至102n所使用的資訊與操作。例如,中央處理區段104可保有對各個使用者平台102a至102n分配的資訊或資料。然而,在實施例中,可由各個使用者平台102a至102n以一種分配方式來維持該種資訊。因此,資訊更新可促成通訊,因此使用者平台102a至102n能具有目前資訊。在該等狀況中,中央處理區段104可如在使用者平台102a至102n之間之交換資訊的一中間者般運作。再者,中央處理區段104可執行各種不同應用程式操作。該等操作可包含MAR物件之間的特性與互動。
通訊基礎設施106提供使用者平台102a至102n以及中央處理區段104之間的資訊交換功能。在實施例中,通訊基礎設施106可包括一或多個通訊網路。該等網路可為有線及/或無線網路的任何組合。例如,通訊基礎設施106可包括無線資料網路、蜂巢式網路、衛星網路、直接視訊廣播網路、有線電話網路、纜線電視網路、網際網路等等的任何組合。
如本文中所述地,使用者平台102a至102n的使用者可感知到根據該MAR應用程式而受到擴增的一真實環境。此擴增動作可包含各種不同改變,如本文中所述地。例如,該MAR應用程式可把物件插入到使用者的觀點中。該等物件可包括(但不限於)角色,再者,使用者平台102a至102n可取得有關MAR應用程式物件(例如,玩家、角色與其他物件)之實際地理位置的資訊。透過此資訊,可以提供包含物件之追蹤、表述、及/或操縱的特徵。
例如,在當中使用者彼此遠離的狀況中,實施例可提供一使用者能觀看顯示出其他玩家位置以及位於該遠端玩家周邊之MAR物件與角色之位置的地圖。同樣地,一使用者可觀看活動之一MAR區域的一表述(例如,一遊戲場)。此表述可根據位置資訊以及玩家/角色/物件互動動作。因此,該使用者可較佳地隨著事件的本地化動作發生來觀看該等事件。
再者,實施例可提供MAR物件以及MAR角色能虛擬地在多個地理區域中往來移動的能力,而使用者可在三維空間中追蹤它們(例如,全球式地以及在其範圍之外)。同樣地,當處於一特定使用者的近鄰時,該MAR角色或MAR物件可出現在該使用者的MAR顯示畫面上。此外,使用者可藉著發送訊息等動作來與並未處於其視覺鄰近位置中的MAR物件以及MAR角色進行互動。
再者,實施例可使用獨立於個別使用者動作而“錨定(anchored)”的MAR盾牌物件。MAR盾牌物件可具有能承受攻擊(例如,來自其他使用者)的特性。再者,該等物件可為永久的,或者會受到其他玩家毀損或移除。
現在將說明包含一MAR遊戲應用程式的一例示情景。在此情景中,有多個使用者(玩家):Jim、Sue與John。John正在遠離於家中的位置玩遊戲,而Jim與Sue則在室外遊戲場。儘管如此,John可觀看該遊戲場的特性。例如,第2A圖與第2B圖提供可對John顯示之該遊戲場的例示空照圖(或地圖)。尤其,該等視圖展示出Jim(202)、Sue(204)以及一怪獸角色(206)的位置。
如第2A圖所示,John可看見Jim將受到該怪獸的攻擊。因此,John決定要傳送一虛擬盾牌物件到該遊戲場(在第2B圖中展示為208)。再者,John可通知Jim已經送出了該盾牌。此外或替代地,John可提供Jim策略建議。例如,John可引導Jim(例如,透過語音及/或文字通訊)到一藏身位置(例如,靠近Jim位置的一矮樹叢),並且叫他躲起來不讓怪獸發現。因此,透過該等特徵,John可在家裡體驗到與該虛擬表述的遊戲互動。換言之,透過本發明所揭露的該等擴增實境特徵,即使John遠離於該遊戲場,他所體驗到的位準和他朋友在戶外所體驗到的位準相同。
Jim或Sue亦可藉著設置該怪獸會虛擬地踩到並且爆炸的GPS可追蹤物件來設定虛擬地雷。該等物件可為能在真實世界中呈現出虛擬功能的實體物件。
因此,使用者可透過顯示器裝置觀看其目前實境觀點的MAR版本,以及並不為該目前觀點(例如,第2A圖與第2B圖的空照圖)之部分的視覺化內容及/或資訊。可同時地或分別地把該等視覺化內容提供給使用者。同樣地,在實施例中,一MAR物件可從一顯示器裝置上的一非MAR表述(並未處於一使用者的視野中)變成一MAR表述。例如,一使用者可追蹤僅短暫地出現而在不處於該使用者視野內之一遙遠區域中受到追蹤的太空船。隨後,隨著該太空船進入到該使用者的視野,它可做為在空中出現的一MAR物件而對該使用者顯示。
第3圖展示出可包括在一或多個使用者平台102a至102n中的一種例示實行方案300。如第3圖所示,實行方案300可包括影像感測器302、視訊串流產生模組304、使用者輸出裝置306、使用者輸入裝置308、視訊處理模組310、物件設定檔資料庫312、角色設定檔資料庫313以及物件特性資料庫314。同樣地,實行方案300可包括角色生成模組316、物件關聯模組318、應用程式處理模組320、通訊介面模組322、位置判定模組324、以及定向判定模組326。可把第3圖的該等元件實行於硬體及/或軟體的任何組合中。
影像感測器302捕捉一真實環境的影像。依次地,該等影像被傳遞到視訊串流產生模組304作為影像資料330。影像資料330可包含多個像素的密度值(例如,彩色或單色)。此資料可呈各種不同類比及/或數位格式呈現。
在實施例中,影像感測器302可附接至對應使用者。例如,它可為頭戴式的,或者可固定到該使用者的服裝上。替代地,影像感測器302可為手持式的,或者可受安裝到一輸入裝置上,例如一玩具槍。然而,本發明實施例不受限於該等實例。
視訊串流產生模組304根據影像資料330產生進入視訊串流331。在實施例中,此可包含執行各種不同操作,包括(但不限於)類比對數位轉換、編碼、及/或壓縮。
第3圖展示出進入視訊串流331被傳送到視訊處理模組310。依次地,視訊處理模組310產生輸出視訊串流332。輸出視訊串流332可把改變傳遞到在進入視訊串流331中受到識別的物件。可做出該等改變以使真實物件以不同樣式出現(例如,作為MAR物件出現)在輸出視訊串流332中。在實施例中,輸出視訊串流332可包括該等改變被覆蓋在進入視訊串流331上。此外或替代地,輸出視訊串流332可包括與進入視訊串流331隔離的該等改變及/或呈現內容。
該等改變的執行可根據視訊處理模組310可辨識進入視訊串流331中的一物件而定。根據此項辨識,視訊處理模組310可比較經辨識物件的特徵以及各種不同物件類型的已儲存特徵。如果有一匹配情況,視訊處理模組310可存取對應於該物件類型的一設定檔(例如,從資料庫312或資料庫313)。此設定檔可指出是否要對該經辨識物件做出改變。依次地,視訊處理模組310可產生改變,並且把它們包括在輸出視訊串流322中。視訊處理模組310可從物件特性資料庫314取得該等改變的特性。
此外或替代地,輸出視訊串流332可包括欲在使用者輸出裝置306上輸出的呈現內容及/或視覺化內容。該種呈現內容及/或視覺化內容可根據從應用程式處理模組320接收到的指引333。在實施例中,該種呈現內容及/或視覺化內容可被覆蓋在進入視訊串流331上,以產生輸出視訊串流332。替代地,輸出視訊串流332可包括與進入視訊串流331隔離的該種呈現內容及/或視覺化內容。
如第3圖所示,輸出視訊串流332被傳送到使用者輸出裝置306。使用者輸出裝置306可為提供視覺及/或音訊視覺輸出的各種不同類型裝置。例如,使用者輸出裝置306可包括呈現輸出視訊串流332的一視訊顯示器。替代地或額外地,使用者輸出裝置306可包括一透明投射表面。在操作過程中,該使用者可透過此透明表面觀看該真實環境(與該真實環境的一視訊相反)。
輸出視訊串流332可包括可被覆蓋在進入視訊串流331上的改變、呈現內容、及/或視覺化內容。然而,輸出視訊串流332可包括與進入視訊串流331隔離的該種呈現內容及/或視覺化內容。
在實施例中,可令使用者輸出裝置306附接至其使用者。例如,使用者輸出裝置306可為頭戴式的,或者可使其固定到該使用者的服裝上。替代地,使用者輸出裝置306可為手持式。然而,本發明的實施例不受限於該等實例。
使用者輸入裝置308允許該使用者與一MAR應用程式互動。因此,透過使用者輸入裝置308,該使用者可即時地參與該MAR應用程式的事件。例如,在一戰略式遊戲應用程式中,該使用者可瞄準各種不同MAR物件並且對該等物件發射。同樣地,使用者輸入裝置308提供使用者能產生設定檔資訊的能力。該種資訊可包含所產生的角色及/或真實物件與MAR物件之間的關聯。
在實施例中,該等使用者互動特徵可包含使用者輸入裝置308與使用者輸出裝置306所顯示的一圖形使用者介面協調運作。可藉由一或多個裝置來實行使用者輸入裝置308。例示裝置包括(但不限於)按鍵組、鍵盤、與觸控螢幕(例如,透過使用者輸出裝置306實行)、手持式遙控器、姿勢式控制裝置、及/或可使用語音辨識技術的語音致動控制裝置。
物件設定檔資料庫312包括與一MAR應用程式相關聯之各種不同物件有關的資訊。該等物件的實例包括人們、車輛、風景物件(例如,樹木、灌木、岩石、棍棒)、建築物等。在實施例中,物件設定檔資料庫312可指出是否應該對在進入視訊串流331中檢測到的某些物件做出改變。將在下面參照第8圖提供有關物件設定檔資料庫312之例示實行方案的細節。
角色設定檔資料庫313包括與可用於一MAR應用程式中之角色的相關資訊。在實施例中,角色包括與使用者(例如一使用者的化身)相關聯並且受使用者(例如一使用者的化身)控制的物件(例如,生物及/或項目)。替代地,角色可為自動地受該MAR應用程式控制的物件(例如,生物及/或項目)。將在下面參照第9圖提供有關角色設定檔資料庫313之例示實行方案的細節。
物件特性資料庫314包括有關各種不同物件之特性的資訊。例如,物件特性資料庫314可包括一或多個物件的特徵。可透過影像處理及/或物件辨識技術來產生該種特徵資料。因此,該種特徵資料可用來識別在進入視訊串流331中檢測到的真實物件。產生特徵資料的動作可由一使用者來啟始。替代地或額外地,可從一遠端實體(例如,第1圖的中央處理區段104)接收到該種特徵資料。
應用程式處理模組320執行對應於該MAR應用程式的操作。例如,操作可包含一玩家角色的動作(例如,目標抓取與發射),以及其他角色與物件的動作。該等操作可根據透過使用者輸入裝置308做出的使用者輸入。根據該等操作,應用程式處理模組320可產生輸出指引333,其被傳送到視訊處理模組310。輸出指引333可針對輸出視訊串流332指定特定呈現內容及/或特徵。根據該等指引,視訊處理模組310在輸出視訊串流332的產生過程中執行對應操作。
通訊介面模組322提供與一或多個遠端實體交換資訊的實行方案300。在第1圖的脈絡中,該等遠端實體可包括使用者平台102a至102n及/或中央處理區段104中的一或多個。該種資訊可包括與使用者互動及/或MAR應用程式操作有關的資訊。該種資訊可指出對現存MAR物件的更新,以及包含新進MAR物件之生成的資料。如本文中所述地,可把與MAR物件有關的該種資訊儲存在資料庫312至314中。
再者,該種資訊可包括使用者/玩家之間的通訊(例如,語音及/或文字通訊)。例如,多組使用者/玩家可透過一或多個通訊頻帶通訊。該等通訊頻帶可用於各種不同使用者/玩家分組。例示分組包括隊伍成員、所有使用者/玩家、具有彼此靠近之角色的使用者/玩家等。在實施例中,該等通訊頻帶可由該MAR應用程式中的虛擬動作來改變或停止。例如,一隊伍的一攻擊會”切斷”另一隊伍的通訊頻帶。此外或替代地,可藉由表示來自該MAR應用程式之虛擬可聽事件的音訊(例如,槍聲、爆炸聲等)來增進該(等)通訊頻帶。
因此,通訊介面模組322可包括用以根據一或多個通訊協定操作的控制邏輯組件。再者,通訊介面模組508可包括各種不同元件,包括(但不限於)收發器、調變器、解調變器、上轉換器、下轉換器、混合器、緩衝器、濾波器、及/或放大器。
位置判定模組324判定實行方案300的一目前位置。根據此項判定,可執行各種不同操作。該等操作可根據該MAR應用程式所提供之物件及/或角色的位置。再者,可把此已判定位置傳送到遠端裝置(透過通訊介面模組322)。在第1圖的脈絡中,該等裝置可包括使用者平台102a至102n及/或中央處理區段104中的一或多個。可利用各種不同方式來實行位置判定模組324。例如,位置判定模組324可包括一全球定位系統(GPS)接收器。
定向判定模組326判定實行方案300的一目前位置定向。更確切地,定向判定模組326可判定對應使用者平台的一觀點。可使用各種不同技術來提供該等特徵。例如,定向判定模組326可包括多種部件,例如加速度計及/或陀螺儀。
如上所述地,第3圖的應用程式處理模組320可執行與一MAR應用程式相關聯的各種不同操作。第4圖展示出可包括在應用程式處理模組320中的例示實行方案400。如第4圖所示,實行方案400可包括資料管理模組402以及處理模組404。可把該等元件實行於硬體及/或軟體的任何組合中。
資料管理模組402可接收各種不同形式的輸入資料。例如,第4圖展示出資料管理模組402接收位置資料420與定向資料422。所接收到的資料提供該使用者平台的一目前位置與定向。在第3圖的脈絡中,可分別地從位置判定模組324與定向判定模組326接收到位置資料420與定向資料422。然而,本發明實施例不受限於此脈絡。
此外,第4圖展示出資料管理模組402接收脈絡資料423。此資料可包括有關目前運作特性的資訊。例如,脈絡資料423可指出使用者裝置設定(例如,正受使用的應用程式、顯示器裝置組態等)在實施例中,該種資訊可用來客製化對該使用者呈現的資訊。
第4圖展示出資料管理模組402接收MAR物件資料424。此資料識別並提供與位於該使用者之平台相對靠近之一範圍內之物件有關的資訊(例如,位於可見視野中)。在實施例中,MAR物件資料424係根據位置資料420與定向資料422。在第3圖的脈絡中,可從資料庫312、313、及/或314接收到MAR物件資料424(例如,響應於資料管理模組402所提出的一或多個位置式詢問)。因此,資料424可包括一或多個物件的設定檔資訊。
如第4圖所示,資料管理模組402產生目前資料426,其被傳送到處理模組404。在實施例中,目前資料426可包括位置資料420、定向資料422以及MAR物件資料424所提供之該資訊中的某些或全部。根據該種資訊,處理模組404可執行各種不同操作。
第4圖展示出處理模組404包括位置視覺化模組406、物件佈置模組408、物件生成模組410、以及客製化模組412。該等模組可根據使用者輸入428執行各種不同操作。在第3圖的脈絡中,可從使用者輸入裝置308接收該等使用者輸入。
依次地,處理模組404可產生輸出指引434。該等指引可指明要呈現出的特定使用者輸出(例如,視覺及/或音訊輸出)。在第3圖的脈絡中,可把輸出指引434傳送給視訊處理模組310(例如作為輸出指引333),以供產生輸出視訊串流332。
再者,該等操作的執行動作可包含接收MAR物件資料430。同樣地,該等操作可包含生成新進MAR物件及/或更新現存MAR物件。因此,第4圖展示出處理模組404可產生資料庫更新432。在第3圖的脈絡中,可從資料庫312、313、及/或314接收到MAR物件資料430。相似地,可把資料庫更新432傳送到資料庫312、313、及/或314。
位置視覺化模組406提供使用者能視覺化一特定位置的功能(例如,透過使用者輸出裝置306)。在實施例中,此位置可遠離於該使用者的目前位置。例如,位置視覺化模組406可提供空照圖或地圖,如上面參照第2A圖與第2B圖所述地。
此遠端位置視覺化內容可根據物件資料430。在此狀況中,物件資料430可提供位於該遠端位置中之物件的資訊(例如,設定檔)。再者,此遠端位置視覺化內容可根據該處理模組所接收的地圖影像或空照(例如,衛星)影像。可區域性地取得該等影像,或者可從一遠端來源(例如,一網路伺服器)取得該等影像。
同樣地,位置視覺化模組406可提供使用者能視覺化該使用者之目前位置的功能。此視覺化內容可根據位置資料420以及定向資料422(其可用來判定一視野)。再者,此視覺化內容可根據物件資料424,其識別並且提供位於離該使用者平台相對靠近之一範圍內之物件有關的資訊。如上所述地,可把資料420、422與424提供給目前資料426中的處理模組404。
物件佈置模組408提供一使用者能把一MAR物件(例如,一角色、一盾牌等)置放在一特定位置的能力。例如,如上參照第2A圖與第2B圖所述,該種置放方式可結合該位置的一視覺化內容來執行(例如,該位置的一地圖或空照圖)。根據此種置放方式,可透過資料庫更新432來更新有關該物件的資訊。
物件生成模組410提供一使用者能生成一物件(例如,一角色或其他物件)的能力。再者,物件生成模組410提供一使用者能修改一現存物件的能力。此可包含該使用者輸入一物件的各種不同特性。可以透過資料庫更新432來生成並儲存與該種生成及/或修改有關的資訊。該種生成及/或修改動作可在MAR應用程式會談(例如遊戲)之前發生及/或在MAR應用程式會談(例如遊戲)的過程中發生。
如本文中所述地,實施例可根據該使用者所操作的脈絡來客製化對一使用者呈現MAR資訊的內容。該等客製化內容可包括在輸出指引434中。如第4圖所示,客製化模組412可提供該種客製化內容。例如,客製化模組412可使用規則及/或分類法來有效地使脈絡式感知、MAR物件及/或裝置狀態結合。因此,輸出指引434可提供針對該使用者客製化的呈現內容及/或視覺化內容。再者,該等特徵可根據客製化模組412所維持的一使用者設定檔。
第5圖展示出包括在客製化模組412中的例示實行方案500。如第5圖所示,實行方案500可包括脈絡判定模組502、決策模組504、以及使用者設定檔資料庫506。可把該等元件實行於硬體及/或軟體的任何組合中。
如第5圖所示,脈絡判定模組502可接收目前脈絡資訊520。該種資訊可指出目前情勢,例如一使用者位置、一使用者速度(例如,動作速度及/或方向)、與該位置有關的描述資訊(例如,從一本地來源或一遠端來源)、使用者裝置特性等。在第3圖的脈絡中,該種資訊可包括在目前資料426及/或使用者輸入428中。
根據脈絡資訊520,脈絡判定模組502產生一或多個脈絡指示器522。在實施例中,該等指示器可識別目前使用者活動(例如,走路、與朋友一起看電視、坐著等)、目前裝置組態(例如,結合筆記型電腦的手持式裝置、結合電視的手持式裝置、單純手持式裝置等)、及/或目前使用者位置狀態(例如,在家中、在公園裡、在咖啡廳等)。該等實例係針對展示目的而提出,且不具限制性,因此實施例可使用其他形式的脈絡資訊。
以下的圖表1至圖表3提供了該等脈絡指示器的實例。在該等圖表中,特定脈絡指示器係用來指定位置、活動與裝置組態。
在實施例中,可由脈絡判定模組502透過各種不同推論及/或啟發法來自動地判定該種脈絡資訊。例如,可從位置及/或速度資料推論出活動(例如,走路、坐著、開車等)。再者,可經由儲存在使用者設定檔資料庫506中的使用者行為資訊526來通知該等推論內容。同樣地,可透過針對脈絡判定模組502所產生之詢問的響應來作出該等推論內容。
根據脈絡指示器522,決策模組504判定一客製化表現內容。依次地,決策模組504可產生一或多個呈現指引524。在第4圖的脈絡中,該等指引可包括在輸出指引434中。
在實施例中,產生此種客製化表現內容的動作可包含使用一或多個脈絡式規則528,其可從使用者設定檔資料庫接收到。以下的圖表2提供了該種規則的實例。
在實施例中,使用者設定檔資料庫506可儲存該等規則。同樣地,使用者設定檔資料庫506可儲存使用者行為資訊。該種資訊可指出脈絡以及對應資訊。如上所述地,脈絡判定模組502可使用該種資訊來產生
係以一使用者平台的脈絡來解說第3圖、第4圖與第5圖的特徵。然而,值得注意的是,可利用各種不同方式對一或多個平台配置該等特徵。例如,可使已維持資訊配置在各種不同裝置之間(例如,在資料庫312至214中),例如一中央裝置(例如,中央處理區段104)及/或一或多個使用者平台。因此,可以利用各種不同方式來維持、傳播、及/或分配該種資訊。因此,在實施例中,各個使用者平台可包括用於所有(或一相關群組)MAR物件的資料(例如,在資料庫312、313與314中)。同樣地,可使上面參照第3圖與第4圖所述之該等運作特徵中的一或多個受配置在各種不同裝置之間,例如一中央裝置及/或一或多個使用者平台。
第6圖展示出可包括在中央處理區段實行方案104中的一種例示實行方案600。如第6圖所示,實行方案600可包括應用程式處理模組602、中央資料庫604、分配模組606、以及通訊介面模組608。可把該等元件實行於硬體及/或軟體的任何組合中。
應用程式處理模組602執行對應於一MAR應用程式的操作。該等操作可牽涉到一或多個角色及/或物件。在實施例中,該等操作可響應於從一或多個使用者平台接收到的資訊。再者,該等操作可產生由一或多個使用者平台使用的資訊。可區域性地儲存該種資訊(例如,儲存在中央資料庫604中)。替代地,可把該種資訊分配給該等一或多個使用者平台。
中央資料庫604儲存與一MAR應用程式有關的資訊。例如,中央資料庫604可儲存與物件、角色等等有關的資訊。在實施例中,此資訊可包括儲存在物件設定檔資料庫212、物件設定檔資料庫213、及/或物件特性資料庫214中的資訊。應用程式處理模組602及/或使用者平台可在執行各種不同MAR應用程式相關操作的過程中存取及/或產生該種資訊。
分配模組606與一或多個使用者平台交換資訊。例如,該分配模組可接收來自一特定使用者平台的資訊,並且把該資訊轉送到一或多個其他使用者平台。此外或替代地,分配模組可把該種已接收資訊儲存在中央資料庫604中。再者,在實施例中,分配模組606可從中央資料庫604存取資訊,並且提供該種資訊給一或多個使用者平台。
通訊介面模組608提供透過一或多個網路(例如,透過第1圖的通訊基礎設施106)來交換資訊的功能。因此,通訊介面模組608可包括用以根據一或多個通訊協定操作的控制邏輯組件。再者,通訊介面模組608可包括各種不同元件,包括(但不限於)收發器、調變器、解調變器、上轉換器、下轉換器、混合器、緩衝器、濾波器、及/或放大器。
第7圖展示出代表可由本發明所述之一或多個實施例執行之操作的例示邏輯流程700。因此,此流程圖可用於第1圖至第4圖的脈絡中。然而,本發明的實施例不受限於該等脈絡。同樣地,雖然第7圖展示出特定順序,可使用其他的順序。再者,可呈各種不同並行及/或連續組合來執行所述的操作。
在方塊701中,一使用者選出一遠端位置。此位置不同於該使用者的一目前位置。例如,此位置可為位於該使用者平台之一影像感測器視野外的位置。在實施例中,此可包含該使用者選出位置座標。此外或替代地,此可包含該使用者導覽一顯示地圖(例如,一本地儲存地圖或由一網路伺服器提供的地圖)。
在方塊702中,一使用者在一MAR應用程式中產生一物件。此物件可例如為一角色或其他物件(例如,一盾牌)。此可包含該使用者輸入有關該物件的資料。依次地,此資料可受配置且儲存為一物件設定檔(例如,在物件設定檔資料庫312或角色設定檔資料庫313中)。
根據此產生動作,在方塊704中,該使用者把所產生物件置放在該遠端位置中。例如,此可包含該使用者輸入一特定位置指定符。依次地,可把此位置儲存在該物件的設定檔中,或在該物件的設定檔中更新此位置。
在方塊706中,可對使用者提供(例如,顯示)此遠端位置的一視覺化內容。在實施例中,該使用者可選擇此視覺化內容。此視覺化內容可提供各種不同觀點。例如,可以提供一空照圖或地圖觀點。
在方塊707中,該使用者可與此視覺化內容中備置的一或多個物件互動。該種互動可包含透過一通訊頻帶進行通訊(例如,文字及/或音訊通訊)。再者,該使用者可在該視覺化內容中傳送物件(例如,角色、盾牌等)及/或傳送朝向該等物件的攻擊(例如,炸彈、地雷、發射飛彈等)。然而,本發明實施例不受限於該等實例。
如本文中所述地,實施例提供脈絡式客製化技術。因此,在方塊708中,將判定一目前脈絡。脈絡可包括各種不同屬性,例如一目前使用者活動(例如,採取一動作之該使用者的一表述,如對著一目標發射或取得一武器)、一目前使用者位置、及/或一目前使用者裝置組態。
根據此判定,在方塊710中,選出對應於該目前脈絡的資訊。此資訊可包括MAR物件資料及/或該MAR環境的一視覺化內容。隨後將把此選定資訊輸出給該使用者(方塊712)。
第7圖的該等操作僅針對展示目的而提出,且不具限制性。因此,實施例可使用其他特徵。例如,在實施例中,可把真實物件置放在(例如,由使用者)一真實環境中。該等真實裝置可具有位置判定部件(例如,全球定位系統接收器),其允許它們能判定其目前位置。依次地,該等物件可包括用以對一或多個MAR應用程式裝置(例如,透過通訊基礎設施106對使用者平台102a至102n中的一或多個及/或對中央處理區段104)發送(例如,無線地發送)其位置的發射器。該等物件可具有建立虛擬物件特性(例如,位置、致動參數、及/或致動事件)的對應設定檔(例如,儲存在物件特性資料庫314中)。因此,該等設定檔可儲存真實物件與虛擬物件之間的聯結。
例如,該種真實物件可用來作為一虛擬地雷。當一使用者平台具有匹配於該物件(例如,與該真實物件的位置及/或時間靠近)之致動參數的情勢時(例如,位置、時間等),可以產生對應的MAR致動事件(例如,虛擬爆炸)。
在第3圖的脈絡中,應用程式處理模組320可追蹤該等物件的位置。當該使用者的目前情境與該(等)致動參數匹配時,應用程式處理模組320可啟始對應致動事件。該(等)致動事件可導致輸出指引333的產生(例如,以供對使用者提供視覺/音訊輸出)、及/或MAR應用程式資料的更新(例如,物件/角色資料)。
第8圖與第9圖展示出可受到實施例管理之資訊的配置方式。例如,在第1圖的脈絡中,可把該種資訊儲存在使用者平台102a至102n的一或多個中。替代地或額外地,可把該種資訊儲存在中央處理區段104中。然而,本發明的實施例不受限於該等實例。
第8圖展示出物件設定檔資料庫212的一種例示實行方案800。如上所述地,此資料庫包括有關可在一進入視訊串流中受到識別之物件的資訊。第8圖展示出受配置成多列8041至8048的資訊。該等列在行8021至8026上各提供具有多個資訊項目的一物件設定檔。
例如,行8021指出可在一進入視訊串流中受到識別的一物件類型。舉例來說,第8圖提供以下的例示物件類型:樹叢、樹木、汽車、小卡車、大卡車、成年男性、成年女性、以及小孩。係針對展示目的而提供該等物件類型且不具限制性。
行8022指出一MAR物件。在對一使用者的一顯示器中,此MAR物件可置換顯示在行8021中之該類型的一受檢測物件。如本文中所述地,該種置換方式可包含使該MAR物件覆蓋在該受識別物件上。例如,列8042指出一塔台影像可置換一樹木,在受檢測時。
行8023指出顯示在行8021中之該物件類型的根據。舉例來說,第8圖展示出可指出一真實根據。此表示該物件將被檢測為一進入視訊串流中的一真實物件。替代地,可指出一”出局(out)”根據。這表示將作出使該物件從視圖中移除的一改變。
係由行8024指出該MAR物件的一能力。例如,第8圖展示出該能力為非互動性的,其指出該MAR應用程式中的一角色無法與該物件互動。相反地,一互動式物件為一角色可與之互動的物件。例如,一互動式物件可為一使用者/使用者平台的一實現(例如,一化身)。
行8025提供出現規則。該等規則指出何時要覆蓋該MAR物件(屬於行8022)。舉例來說,第8圖指出“檢測中(on detection)”的出現規則,其表示在識別出行8021所指出之類型的一對應物件時,該MAR物件受到覆蓋。
行8026指出該設定檔的一狀態。尤其,行8026可指出該設定檔是否為作用中的(“act”)或者為靜止的。當該設定檔為作用中時,可執行對應於該設定檔的操作(例如,物件置換)。然而,當該設定檔為靜止的時,可以跳過該等操作。
第9圖展示出角色設定檔資料庫213的一種例示實行方案。如上所述地,此資料庫包括有關可由一MAR應用程式產生之角色的資訊。
第9圖展示出受配置成多列9041至90411的資訊。該等列各提供一角色設定檔。再者,如第9圖所示,該等設定檔各包括行9021至9028中的多個資訊項目。
例如,行9021指出一角色識別符(ID)。如第9圖所示,此識別符可為數值。行9022指出一角色分類。例示角色分類包括玩家、魔獸、盾牌、手槍、魔杖與戰車。然而,本發明實施例不受限於該等實例。
行9023提供該角色的一根據(例如真實或虛擬)。一真實根據指出有對應於該角色的一對應真實物件(例如一真實人士)。相反地,一虛擬根據指出沒有對應於該角色的一對應真實物件。
行9024指出該角色的一目前位置。在實施例中,可用經度與緯度座標來表示該位置。然而,可使用其他適當位置表述方式。行9025指出該角色的能力或職位。舉例來說,第9圖展示出用於此行的數值:玩家、攻擊者、立方體、阻擋物、基本、高、以及全部。
行9026指出用於該角色的出現規則。如本文中所述地,該等出現規則可指出該角色何時為玩家可見的。行9027指出該角色的一狀態。如第9圖所示,例示狀態值包括作用中(例如,目前出現)以及靜止(例如,目前未出現)。
行9028指出該角色的強度。實施例中,強度可用來判定該角色對其他角色的相對效力。
如本文所述地,可利用硬體元件、軟體元件、或該等的任何組合來實行各種不同實施例。硬體元件的實例可包括處理器、微處理器、電路、電路元件(例如電晶體、電阻器、電容器、電感器等)、積體電路、特定應用積體電路(ASIC)、可規劃邏輯裝置(PLD)、數位信號處理器(DSP)、可現場規劃閘陣列(FPGA)、邏輯閘、暫存器、半導體裝置、晶片、微晶片、晶片組等。
軟體的實例可包括軟體部件、程式、應用程式、電腦程式、應用程式、系統程式、機器程式、作業系統軟體、中介軟體、韌體、軟體模組、常式、次常式、函式、方法、程序、軟體介面、應用程式介面(API)、指令組、運算碼、電腦碼、碼區段、電腦碼區段、字元、數值、符號、或其任何組合。
例如,可利用一儲存媒體或機器可讀物品來實行某些實施例。該種儲存媒體可儲存有一指令或一組指令,其受一機器執行時可使該機器進行根據該等實施例的方法及/或操作。例如,該種機器可包括任何適當處理平台、運算平台、運算裝置、處理裝置、運算系統、處理系統、電腦、處理器、或類似系統,並且可利用硬體及/或軟體的任何適當組合來實行。
如本文中所述地,實施例可包括儲存媒體或機器可讀物品。例如,該等可包括任何適當類型的記憶體單元、記憶體裝置、記憶體物品、記憶體媒體、儲存裝置、儲存物品、儲存媒體及/或儲存單元,例如記憶體、可移除或不可移除媒體、可抹除或不可抹除媒體、可寫入或可複寫媒體、數位或類比媒體、硬碟、軟碟、唯讀光碟記憶體(CD-ROM)、可燒錄光碟(CD-R)、可複寫光碟(CD-RW)、光碟、磁性媒體、磁性光學媒體、可移除記憶體卡或碟片、各種不同類型的數位多用途碟片(DVD)、磁帶、卡匣等。該等指令可包括任何適當類型的程式碼,例如來源碼、彙編碼、解譯碼、可執行碼、靜態碼、動態碼、加密碼等;可利用任何適當的高階、低階、物件導向、視覺、彙編及/或解譯程式化語言來實行該等指令。
儘管已經在上面說明了各種不同本發明的實施例,應該要了解的是,它們僅針對舉例目的而提出,且不具限制性。
因此,熟知技藝者將可瞭解的是,在不偏離本發明之精神與範圍的狀況下,可以進行形式與細節上的各種不同變化。因此,本發明的廣泛度與範圍不應受到上述例示實施例的限制,而應該僅受到以下申請專利範圍與其等效範圍的界定。
100...例示環境
102a-102n...使用者平台
104...中央處理區段
106...通訊基礎設施
202...Jim
204...Sue
206...怪獸角色
208...遊戲場
300...實行方案
302...影像感測器
304...視訊串流產生模組
306...使用者輸出裝置
308...使用者輸入裝置
310...視訊處理模組
312...物件設定檔資料庫
313...角色設定檔資料庫
314...物件特性資料庫
316...角色生成模組
318...物件關聯模組
320...應用程式處理模組
322...通訊介面模組
324...位置判定模組
326...定向判定模組
330...影像資料
331...進入視訊串流
332...輸出視訊串流
333...輸出指引
400...實行方案
402...資料管理模組
404...處理模組
406...位置視覺化模組
408...物件佈置模組
410...物件生成模組
412...客製化模組
420...位置資料
422...定向資料
423...脈絡資料
424...MAR物件資料
426...目前資料
428...使用者輸入
430...MAR物件資料
432...資料庫更新
434...輸出指引
500...實行方案
502...脈絡判定模組
504...決策模組
506...使用者設定檔資料庫
520...脈絡資訊
522...脈絡指示器
524...呈現指引
526...使用者行為資訊
528...脈絡式規則
600...實行方案
602...應用程式處理模組
604...中央資料庫
606...分配模組
608...通訊介面模組
700...邏輯流程
701~712...步驟方塊
800...實行方案
8021-6...行
8041-8...列
900...實行方案
9021-8...行
9041-11...列
第1圖展示出一種例示運作式環境;
第2A圖至第2B圖展示出一例示情景;
第3圖展示出可包括在一使用者平台中的一種例示實行方案;
第4圖展示出可包括在一應用程式處理模組中的一種例示實行方案;
第5圖展示出可包括在一客製化模組中的一種例示實行方案;
第6圖展示出可包括在一中央處理區段中的一種例示實行方案;
第7圖為一邏輯流程圖;
第8圖展示出一種例示物件設定檔資料庫實行方案;以及
第9圖展示出一種例示角色設定檔資料庫。
700‧‧‧邏輯流程
701~712‧‧‧步驟方塊

Claims (29)

  1. 一種用於擴增實境的方法,其包含下列步驟:提供至少一個真實世界人士的一空照圖,其示出該真實世界人士於該真實世界人士在一真實世界環境中之實際位置的一表述;提供對於該真實世界人士於該空照圖中移動的描述;在該真實世界環境中疊加一虛擬角色;對該真實世界人士提供包含該空照圖及該虛擬角色的一顯示畫面;使得在該真實世界環境遠端的一使用者能夠藉由將一物件增加至該真實世界環境而修改對於該真實世界環境的描述,該虛擬角色可與所增加的該物件互動;以及使得該遠端使用者能夠以可聽方式與該真實世界人士互動。
  2. 如申請專利範圍第1項之方法,其包含下列步驟:在以處理器為基礎的一裝置上接收一視訊描述,該視訊描述包含對於一實體物件的描述;利用一硬體處理器來藉由將一虛擬物件增加至該視訊描述而修改該描述;識別該實體物件之類型;以及利用該類型來判定由該硬體處理器實施的該實體物件的一視覺改變。
  3. 如申請專利範圍第2項之方法,其包含下列步驟:識別在該視訊描述中之對於一人士的描述;識別由所識別出的被描述的該人士目前所從事的一活動之活動類型;以及利用該活動類型來修改該視訊描述。
  4. 如申請專利範圍第2項之方法,其包含下列步驟:接收對於一遠端位置的一使用者選擇,該遠端位置與該使用者之目前位置不同;以及對該使用者輸出該遠端位置的一視覺化內容;其中,該視覺化內容包含對於該遠端位置內之一或多個行動擴增實境(MAR)物件的表述。
  5. 如申請專利範圍第4項之方法,其進一步包含下列步驟:響應於一使用者選擇而在一行動擴增實境(MAR)應用程式中產生一物件;以及將所產生的該物件置於該遠端位置;其中,該視覺化內容包含對於所產生之該物件的表述。
  6. 如申請專利範圍第5項之方法,其中,所產生之該物件為一角色。
  7. 如申請專利範圍第5項之方法,其中,所產生之該物件為用來保護一或多個MAR應用程式角色免於受到攻擊的一虛擬盾牌。
  8. 如申請專利範圍第7項之方法,其中,該虛擬盾牌是永 久的。
  9. 如申請專利範圍第7項之方法,其中,該虛擬盾牌是可損壞的。
  10. 如申請專利範圍第7項之方法,其中,該虛擬盾牌可被一或多個使用者移除。
  11. 如申請專利範圍第4項之方法,其中,該視覺化內容包含該遠端位置的空照圖。
  12. 如申請專利範圍第4項之方法,其中,該視覺化內容提供對於該遠端位置內之該一或多個MAR物件間之互動的表述。
  13. 如申請專利範圍第4項之方法,其中,該遠端位置位於該使用者的一影像感測器視野之外。
  14. 如申請專利範圍第4項之方法,其進一步包含:該使用者與該遠端位置內之該一或多個MAR物件中的一個物件互動。
  15. 如申請專利範圍第4項之方法,其中,該遠端位置內之該一或多個MAR物件包含一或多個角色;該方法進一步包含:在該使用者與該一或多個角色之間提供一通訊頻帶;其中,該通訊頻帶提供在該一或多個角色之間的音訊及/或文字通訊。
  16. 如申請專利範圍第4項之方法,其進一步包含下列步驟:判定該使用者的目前脈絡; 根據該目前脈絡而選擇有關該MAR應用程式的資訊;以及對該使用者輸出有關該MAR應用程式的資訊。
  17. 如申請專利範圍第16項之方法,其中,判定該目前脈絡的步驟包含:判定使用者位置、使用者活動、以及使用者裝置組態。
  18. 如申請專利範圍第16項之方法,其中,選擇有關該MAR應用程式的該資訊的步驟包含:選擇一或多個MAR物件的細節。
  19. 一種用於擴增實境的設備,其包含:一處理器,用以進行下列步驟:提供至少一個真實世界人士的一空照圖,其示出該真實世界人士於該真實世界人士在一真實世界環境中之實際位置的一表述,提供對於該真實世界人士於該空照圖中移動的描述,在該真實世界環境中疊加一虛擬角色,對該真實世界人士提供包含該空照圖及該虛擬角色的一顯示畫面,使得在該真實世界環境遠端的一使用者能夠藉由將一物件增加至該真實世界環境而修改對於該真實世界環境的描述,該虛擬角色可與所增加的該物件互動,及使得該遠端使用者能夠以可聽方式與該真實世 界人士互動;以及一儲存體,其耦接至該處理器。
  20. 如申請專利範圍第19項之設備,其中,該處理器可進行下列步驟:在以處理器為基礎的一裝置上接收一視訊描述,該視訊描述包含對於一實體物件的描述;藉由將一虛擬物件增加至該視訊描述而修改該視訊描述;識別該實體物件之類型;以及利用該類型來判定所實施之該實體物件的一視覺改變。
  21. 如申請專利範圍第20項之設備,其中,該處理器可進行下列步驟:識別在該視訊描述中之對於一人士的描述;識別由所識別出的被描述的該人士目前所從事的一活動之活動類型;以及利用該活動類型來修改該視訊描述。
  22. 如申請專利範圍第20項之設備,其進一步包含:一儲存媒體,用以儲存一真實物件類型與一虛擬物件間之聯結,其中,該真實物件使該設備知曉其目前位置;以及一應用程式處理模組,用以在一行動擴增實境(MAR)應用程式之一使用者的一情勢與一或多個致動參數匹配時在該MAR應用程式中產生一或多個事件。
  23. 如申請專利範圍第22項之設備,其中,該MAR應用程式中之該一或多個事件包含用以對該使用者顯示的一或多個視覺呈現內容。
  24. 如申請專利範圍第23項之設備,其進一步包含:一顯示器裝置,用以對該使用者輸出該一或多個視覺呈現內容。
  25. 如申請專利範圍第22項之設備,其進一步包含該真實物件,其中,該真實物件包括用於判定其目前位置的一全球定位系統(GPS)接收器。
  26. 一種用於擴增實境的包含儲存有指令之一或多個部件的非暫時性電腦可讀取媒體,該等指令在受硬體處理器執行時可致使該處理器進行下列步驟:提供至少一個真實世界人士的一空照圖,其示出該真實世界人士於該真實世界人士在一真實世界環境中之實際位置的一表述,提供對於該真實世界人士於該空照圖中移動的描述,在該真實世界環境中疊加一虛擬角色,對該真實世界人士提供包含該空照圖及該虛擬角色的一顯示畫面,使得在該真實世界環境遠端的一使用者能夠藉由將一物件增加至該真實世界環境而修改對於該真實世界環境的描述,該虛擬角色可與所增加的該物件互動,以及 使得該遠端使用者能夠以可聽方式與該真實世界人士互動。
  27. 如申請專利範圍第26項之媒體,其具有可進行下列步驟的指令:在以處理器為基礎的一裝置上接收一視訊描述,該視訊描述包含對於一實體物件的描述;利用該硬體處理器而藉由將一虛擬物件增加至該描述來修改該視訊描述;識別該實體物件之類型;以及利用該類型來判定利用該硬體處理器所實施之該實體物件的一視覺改變。
  28. 如申請專利範圍第27項之媒體,其具有可進行下列步驟的指令;識別在該視訊描述中之對於一人士的描述;識別由所識別出的被描述的該人士目前所從事的一活動之活動類型;以及利用該活動類型來修改該視訊描述。
  29. 如申請專利範圍第27項之媒體,其具有可致使該機器進行下列步驟的指令:接收一遠端位置的一使用者選擇,該遠端位置不同於該使用者之目前位置;以及對該使用者輸出該遠端位置的一視覺化內容;其中,該視覺化內容包括對該遠端位置內之一或多個行動擴增實境(MAR)物件的表述。
TW100147149A 2010-12-22 2011-12-19 用於擴增實境的方法、設備及電腦可讀取媒體 TWI551334B (zh)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
US12/976,675 US9264515B2 (en) 2010-12-22 2010-12-22 Techniques for mobile augmented reality applications

Publications (2)

Publication Number Publication Date
TW201236722A TW201236722A (en) 2012-09-16
TWI551334B true TWI551334B (zh) 2016-10-01

Family

ID=46314748

Family Applications (1)

Application Number Title Priority Date Filing Date
TW100147149A TWI551334B (zh) 2010-12-22 2011-12-19 用於擴增實境的方法、設備及電腦可讀取媒體

Country Status (5)

Country Link
US (1) US9264515B2 (zh)
EP (1) EP2656642A4 (zh)
CN (1) CN103380631B (zh)
TW (1) TWI551334B (zh)
WO (1) WO2012087641A2 (zh)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10751605B2 (en) 2016-09-29 2020-08-25 Intel Corporation Toys that respond to projections
TWI757909B (zh) * 2020-10-07 2022-03-11 蘋果芽數位科技股份有限公司 以程式碼在地圖進行遊戲的方法和電子裝置

Families Citing this family (30)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9092910B2 (en) 2009-06-01 2015-07-28 Sony Computer Entertainment America Llc Systems and methods for cloud processing and overlaying of content on streaming video frames of remotely processed applications
US8810598B2 (en) 2011-04-08 2014-08-19 Nant Holdings Ip, Llc Interference based augmented reality hosting platforms
US9342610B2 (en) * 2011-08-25 2016-05-17 Microsoft Technology Licensing, Llc Portals: registered objects as virtualized, personalized displays
US9213935B2 (en) * 2011-09-09 2015-12-15 Disney Enterprises, Inc. Role-play simulation engine
RU2617914C2 (ru) * 2012-11-16 2017-04-28 Сони Компьютер Энтертейнмент Америка Ллк Системы и способы облачной обработки и наложения содержимого на потоковые видеокадры удаленно обрабатываемых приложений
US9728008B2 (en) * 2012-12-10 2017-08-08 Nant Holdings Ip, Llc Interaction analysis systems and methods
US9588730B2 (en) * 2013-01-11 2017-03-07 Disney Enterprises, Inc. Mobile tele-immersive gameplay
US9654818B2 (en) * 2013-02-28 2017-05-16 Samsung Electronics Co., Ltd. Content delivery system with augmented reality mechanism and method of operation thereof
US9164281B2 (en) 2013-03-15 2015-10-20 Honda Motor Co., Ltd. Volumetric heads-up display with dynamic focal plane
US10319145B2 (en) 2013-03-14 2019-06-11 Intel Corporation Asynchronous representation of alternate reality characters
US9251715B2 (en) 2013-03-15 2016-02-02 Honda Motor Co., Ltd. Driver training system using heads-up display augmented reality graphics elements
US9393870B2 (en) 2013-03-15 2016-07-19 Honda Motor Co., Ltd. Volumetric heads-up display with dynamic focal plane
US9378644B2 (en) 2013-03-15 2016-06-28 Honda Motor Co., Ltd. System and method for warning a driver of a potential rear end collision
US9747898B2 (en) 2013-03-15 2017-08-29 Honda Motor Co., Ltd. Interpretation of ambiguous vehicle instructions
US10339711B2 (en) 2013-03-15 2019-07-02 Honda Motor Co., Ltd. System and method for providing augmented reality based directions based on verbal and gestural cues
US10215583B2 (en) 2013-03-15 2019-02-26 Honda Motor Co., Ltd. Multi-level navigation monitoring and control
US9582516B2 (en) * 2013-10-17 2017-02-28 Nant Holdings Ip, Llc Wide area augmented reality location-based services
CN103760972B (zh) * 2013-12-18 2017-03-01 微软技术许可有限责任公司 跨平台的增强现实体验
US9977572B2 (en) * 2014-04-01 2018-05-22 Hallmark Cards, Incorporated Augmented reality appearance enhancement
US9723109B2 (en) 2014-05-28 2017-08-01 Alexander Hertel Platform for constructing and consuming realm and object feature clouds
TWI628613B (zh) * 2014-12-09 2018-07-01 財團法人工業技術研究院 擴增實境方法與系統
US10062208B2 (en) 2015-04-09 2018-08-28 Cinemoi North America, LLC Systems and methods to provide interactive virtual environments
US10433196B2 (en) * 2016-06-08 2019-10-01 Bank Of America Corporation System for tracking resource allocation/usage
US10297085B2 (en) 2016-09-28 2019-05-21 Intel Corporation Augmented reality creations with interactive behavior and modality assignments
US11030440B2 (en) 2016-12-30 2021-06-08 Facebook, Inc. Systems and methods for providing augmented reality overlays
US10984600B2 (en) 2018-05-25 2021-04-20 Tiff's Treats Holdings, Inc. Apparatus, method, and system for presentation of multimedia content including augmented reality content
US10818093B2 (en) 2018-05-25 2020-10-27 Tiff's Treats Holdings, Inc. Apparatus, method, and system for presentation of multimedia content including augmented reality content
US11023095B2 (en) 2019-07-12 2021-06-01 Cinemoi North America, LLC Providing a first person view in a virtual world using a lens
CN115835914A (zh) * 2020-05-11 2023-03-21 奈安蒂克公司 将真实世界活动与平行现实游戏进行链接
TWI747333B (zh) * 2020-06-17 2021-11-21 光時代科技有限公司 基於光通信裝置的交互方法、電子設備以及電腦可讀取記錄媒體

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2005036881A2 (en) * 2003-10-09 2005-04-21 De Beers Consolidated Mines Limited Augmented video surveillance system

Family Cites Families (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO1997040622A1 (en) * 1996-04-19 1997-10-30 Moengen Harald K Method and system for manipulation of objects in a television picture
WO2001046794A1 (en) * 1999-12-23 2001-06-28 M.H. Segan Limited Partnership System for viewing content over a network and method therefor
US7007236B2 (en) * 2001-09-14 2006-02-28 Accenture Global Services Gmbh Lab window collaboration
SE0203908D0 (sv) 2002-12-30 2002-12-30 Abb Research Ltd An augmented reality system and method
US7796155B1 (en) 2003-12-19 2010-09-14 Hrl Laboratories, Llc Method and apparatus for real-time group interactive augmented-reality area monitoring, suitable for enhancing the enjoyment of entertainment events
US20060050070A1 (en) * 2004-09-07 2006-03-09 Canon Kabushiki Kaisha Information processing apparatus and method for presenting image combined with virtual image
CN100470452C (zh) * 2006-07-07 2009-03-18 华为技术有限公司 一种实现三维增强现实的方法及系统
US20090244097A1 (en) 2008-03-25 2009-10-01 Leonardo William Estevez System and Method for Providing Augmented Reality
US9910862B2 (en) * 2009-02-11 2018-03-06 Gtx Corp. System and method for processing location data
CN101551732A (zh) * 2009-03-24 2009-10-07 上海水晶石信息技术有限公司 带有交互功能的增强现实的方法及其系统
US8118673B2 (en) * 2009-05-29 2012-02-21 Kingsisle Entertainment Incorporated Collectable card-based game in a massively multiplayer role-playing game that dynamically filters player communications
US8414390B1 (en) * 2009-09-30 2013-04-09 Amazon Technologies, Inc. Systems and methods for the electronic distribution of games
US9118428B2 (en) * 2009-11-04 2015-08-25 At&T Intellectual Property I, L.P. Geographic advertising using a scalable wireless geocast protocol
US8493206B2 (en) * 2010-07-30 2013-07-23 Gravity Jack, Inc. Augmented reality and location determination methods and apparatus
US8884984B2 (en) * 2010-10-15 2014-11-11 Microsoft Corporation Fusing virtual content into real content

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2005036881A2 (en) * 2003-10-09 2005-04-21 De Beers Consolidated Mines Limited Augmented video surveillance system

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
Barakonyi et al., Agents That Talk And Hit Back: Animated Agents in Augmented Reality, Proceedings of the Third IEEE and ACM International Symposium on Mixed and Augmented Reality, 2004 *

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10751605B2 (en) 2016-09-29 2020-08-25 Intel Corporation Toys that respond to projections
TWI757909B (zh) * 2020-10-07 2022-03-11 蘋果芽數位科技股份有限公司 以程式碼在地圖進行遊戲的方法和電子裝置

Also Published As

Publication number Publication date
EP2656642A2 (en) 2013-10-30
US9264515B2 (en) 2016-02-16
EP2656642A4 (en) 2014-05-07
US20120162255A1 (en) 2012-06-28
WO2012087641A2 (en) 2012-06-28
CN103380631A (zh) 2013-10-30
CN103380631B (zh) 2017-05-10
TW201236722A (en) 2012-09-16
WO2012087641A3 (en) 2012-11-01

Similar Documents

Publication Publication Date Title
TWI551334B (zh) 用於擴增實境的方法、設備及電腦可讀取媒體
TWI534718B (zh) 用於行動擴增實境應用程式的物件映射技術
US8902255B2 (en) Mobile platform for augmented reality
CN111672119B (zh) 瞄准虚拟对象的方法、装置、设备及介质
CN103760972B (zh) 跨平台的增强现实体验
CN110448905B (zh) 虚拟环境中的虚拟对象控制方法、装置、设备及存储介质
CN111672118B (zh) 虚拟对象的瞄准方法、装置、设备及介质
CN110478904B (zh) 虚拟环境中的虚拟对象控制方法、装置、设备及存储介质
CN113289331A (zh) 虚拟道具的显示方法、装置、电子设备及存储介质
CN111589139A (zh) 虚拟对象展示方法、装置、计算机设备及存储介质
CN113117331A (zh) 多人在线对战程序中的消息发送方法、装置、终端及介质
CN110585706A (zh) 互动道具控制方法、装置、终端及存储介质
CN113577765A (zh) 用户界面的显示方法、装置、设备及存储介质
CN112402962A (zh) 基于虚拟环境的信号显示方法、装置、设备及介质
CN112316423A (zh) 虚拟对象状态变化的显示方法、装置、设备及介质
US20230042269A1 (en) In-game asset tracking using nfts that track impressions across multiple platforms
CN111589113B (zh) 虚拟标记的显示方法、装置、设备及存储介质
CN112169321B (zh) 模式确定方法、装置、设备及可读存储介质
CN111679879B (zh) 帐号段位信息的显示方法、装置、终端及可读存储介质
US11318379B2 (en) Game server and method of sharing note in the game server
Quek et al. Obscura: A mobile game with camera based mechanics
KR20180126158A (ko) 이동통신 단말기의 카드인식을 통한 증강현실을 구현 블루투스 통신 대전게임 방법
Holec Navigation and Storytelling in Mixed Reality Multiplayer Games
CN117258290A (zh) 游戏提示标识的处理方法、装置、计算机设备及存储介质
Eishita Analyzing the Impact of Spatio-Temporal Sensor Resolution on Player Experience in Augmented Reality Games

Legal Events

Date Code Title Description
MM4A Annulment or lapse of patent due to non-payment of fees