TWI641968B - 用於可穿戴式計算裝置之設備、由可穿戴式計算裝置實行之方法及非暫時性機器可讀取媒體 - Google Patents

用於可穿戴式計算裝置之設備、由可穿戴式計算裝置實行之方法及非暫時性機器可讀取媒體 Download PDF

Info

Publication number
TWI641968B
TWI641968B TW104125965A TW104125965A TWI641968B TW I641968 B TWI641968 B TW I641968B TW 104125965 A TW104125965 A TW 104125965A TW 104125965 A TW104125965 A TW 104125965A TW I641968 B TWI641968 B TW I641968B
Authority
TW
Taiwan
Prior art keywords
image
sensor
computing device
projector
wearable computing
Prior art date
Application number
TW104125965A
Other languages
English (en)
Other versions
TW201621552A (zh
Inventor
列尼特拉M 達勒姆
格倫J 安德森
約翰C 維斯特
賈斯皮 拉法
Original Assignee
美商英特爾公司
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 美商英特爾公司 filed Critical 美商英特爾公司
Publication of TW201621552A publication Critical patent/TW201621552A/zh
Application granted granted Critical
Publication of TWI641968B publication Critical patent/TWI641968B/zh

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/12Picture reproducers
    • H04N9/31Projection devices for colour picture display, e.g. using electronic spatial light modulators [ESLM]
    • H04N9/3141Constructional details thereof
    • H04N9/3173Constructional details thereof wherein the projection device is specially adapted for enhanced portability
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/12Picture reproducers
    • H04N9/31Projection devices for colour picture display, e.g. using electronic spatial light modulators [ESLM]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/163Wearable computers, e.g. on a belt
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/013Eye tracking input arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/12Picture reproducers
    • H04N9/31Projection devices for colour picture display, e.g. using electronic spatial light modulators [ESLM]
    • H04N9/3179Video signal processing therefor
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/12Picture reproducers
    • H04N9/31Projection devices for colour picture display, e.g. using electronic spatial light modulators [ESLM]
    • H04N9/3191Testing thereof
    • H04N9/3194Testing thereof including sensor feedback

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Signal Processing (AREA)
  • Multimedia (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Computer Hardware Design (AREA)
  • Controls And Circuits For Display Device (AREA)
  • User Interface Of Digital Computer (AREA)
  • Projection Apparatus (AREA)
  • Transforming Electric Information Into Light Information (AREA)

Abstract

提供用以投影來自可穿戴式計算裝置之影像的技術。可穿戴式計算裝置包括投影機,該投影機經組配來基於來自一或多個感測器之輸出及/或由攝影機擷取的影像將影像投影至使用者視域中。該可穿戴式計算裝置亦可包括觸控輸入裝置。該可穿戴式計算裝置可基於自該觸控輸入裝置接收的信號回應於使用者觸碰而投影影像。

Description

用於可穿戴式計算裝置之設備、由可穿戴式計算裝置實行之方法及非暫時性機器可讀取媒體
本發明係有關於可穿戴式中介實境系統及方法。
發明背景
現代衣服及其他可穿戴式配件可併入計算或其他先進電子技術。此類計算及/或先進電子技術可出於各種功能原因而併入,或可純粹地出於美學原因而併入。此類衣服及其他可穿戴式配件一般地被稱為「可穿戴式技術」或「可穿戴式計算裝置」。
然而,可穿戴式裝置就可用顯示空間而言通常具有顯著缺點。更特定而言,對於使用者可利用來與裝置互動的顯示空間之量通常為有限的。此對於可穿戴式裝置為尤其真實的,該可穿戴式裝置諸如手錶、鞋、眼鏡、耳飾等。有限的顯示空間直接影響裝置之功能性及可用性。
自可穿戴式計算裝置的投影可創建相較於在小可穿戴式顯示器的情況下的可能情形的具有顯著較大區域的顯示器。然而,用來與投影式顯示器互動的習知技術需要攝影機、鏡子及可穿戴式感測器(例如,手套、指尖感測 器等)。此額外設備可對與可穿戴式計算裝置相關聯的可用性及使用者體驗有害。
依據本發明之一實施例,係特地提出一種用於一可穿戴式計算裝置之設備,該設備包含:一投影機,其用以投影一影像;一感測器,其用以產生輸出;以及一投影協調器,其可操作地耦接至該投影機及該感測器,該投影協調器用以:至少部分地基於該感測器輸出而決定一視域(visual field);及產生一投影機控制指引以致使該投影機將該影像投影至該視域中之一表面上。
100‧‧‧可穿戴式計算裝置/裝置/可穿戴式計算系統
110‧‧‧處理器組件/處理組件
120‧‧‧圖形處理組件(GPU)
130、960‧‧‧儲存器
131、131-1、131-2‧‧‧控制常式
132‧‧‧影像
133‧‧‧所偵測表面
134‧‧‧情境資訊
135‧‧‧生活記錄資訊
136‧‧‧感測器讀數
137‧‧‧投影機控制指引
140‧‧‧投影機
150‧‧‧攝影機/攝影機輸出
160‧‧‧觸控輸入裝置
170、990‧‧‧介面
180‧‧‧感測器
200~205‧‧‧投影影像
210‧‧‧處理器組件/使用者介面(UI)
211~213、231‧‧‧UI組件
220‧‧‧突出區段
230‧‧‧使用者介面(UI)
300、301‧‧‧表面
300、600‧‧‧網路
301-1~301-5‧‧‧物件
400‧‧‧伺服器
500‧‧‧第二可穿戴式計算裝置/裝置
920‧‧‧鍵盤
925‧‧‧印表機
950‧‧‧處理器組件
955‧‧‧聯結器
961‧‧‧依電性儲存器
962‧‧‧非依電性儲存器
963‧‧‧可移媒體儲存器
965a~965c‧‧‧儲存器控制器
969‧‧‧機器可讀儲存媒體
980‧‧‧顯示器
985‧‧‧顯示介面
995a~995c‧‧‧介面控制器
1000‧‧‧中介實境系統/系統
1001‧‧‧介實境系統/系統
1100、1200、1300‧‧‧邏輯流程
1110~1130、1210~1250、1310~1350‧‧‧操作
1311‧‧‧情境引擎
1312‧‧‧生活記錄引擎
1313‧‧‧物件認知引擎
1314‧‧‧表面偵測器
1315‧‧‧投影協調器
2000‧‧‧儲存媒體
2001‧‧‧電腦可執行指令
3000‧‧‧處理架構
圖1例示中介實境系統之一實施例。
圖2A至圖2D例示投影影像的中介實境系統之部分之實例。
圖3例示圖1之中介實境系統之一部分之一實例。
圖4例示中介實境系統之另一實施例。
圖5至圖7例示根據實施例之邏輯流程之實例。
圖8例示根據一實施例之儲存媒體。
圖9例示根據一實施例之處理架構。
較佳實施例之詳細說明
各種實施例一般而言針對用於創建中介實境之方法。不同而言,本揭示案提供自可穿戴式計算裝置投影顯示器及與顯示器互動。更特定而言,在一些實例中,本 揭示案提供具有觸控輸入裝置(例如,觸控板(track pad)、觸控顯示器等)及投影機之可穿戴式計算裝置。在操作期間,投影機可投影顯示器,同時觸控輸入裝置允許使用者經由觸控輸入裝置與投影式顯示器互動。作為另一實例,提供具有投影機之可穿戴式計算裝置。可穿戴式計算裝置經組配來基於使用者情境將影像投影至表面上。更具體而言,裝置經組配來基於使用者情境將影像投影至特定表面上且以特定觀點投影,其中特定表面及特定觀點經選擇使得影像在所要時間投影至使用者視域內。
現參考圖式,其中相同參考數字始終用來代表相同元件。在以下描述中,出於解釋之目的,闡述許多特定細節以提供對描述的徹底理解。然而,明顯的是,可在無此等特定細節的情況下實踐新穎實施例。在其他情況下,以方塊圖形式展示出熟知的結構及裝置以便促進其描述。意欲涵蓋申請專利範圍之範疇內之所有修改、等效物及替代方案。
圖1為中介實境系統1000之一實施例的方塊圖,該中介實境系統併入可穿戴式計算裝置100。一般而言,描繪可穿戴式計算裝置100,該可穿戴式計算裝置經組配來將影像投影於表面300上,從而導致投影影像200。更具體而言,計算裝置100經組配來將影像投影至視域內的表面(例如,表面300)上。如本文所使用,視域可為實體範圍、地理範圍或其他範圍。特定而言,視域可為能夠由人類(例如,一或多個人眼)或由電子裝置(例如,由視覺輸入裝置等)感知的範圍。在本文呈現之許多實例中,出於呈現之清晰性之目 的,與使用者之觀點同義地使用「視域」一詞。例如,計算裝置100可經組配來在對應於裝置100之使用者之觀點的視域內產生投影影像200。然而,實例不限於此上下文。
此外,可穿戴式計算裝置100可經組配來偵測表面、情境、物件及/或觸控輸入,且選擇及/或產生將基於所偵測表面、情境、物件及/或觸控輸入由投影機投影的影像。重要的是應注意,表面300可為例如壁、街道、桌子等。另外,表面300可為空氣或以其他方式透明的或不定表面。因而,「表面」一詞在影像投影至何物上的情境下之使用將並非限制性的。
在各種實施例中,可穿戴式計算裝置100併入以下各者中一或多個:處理器組件110、圖形處理組件(GPU)120、儲存器130、投影機140、攝影機150、觸控輸入裝置160、介面170及感測器180。儲存器130儲存以下各者中一或多個:控制常式131、影像132、所偵測表面133、情境資訊134、生活記錄(life logging)資訊135、感測器讀數136及投影機控制指引137。
雖然未描繪,但可穿戴式計算裝置100可經由網路可操作地連接至一或多個其他的計算裝置(參考圖4)。特定而言,可穿戴式計算裝置100可經由網路與其他計算裝置(參考圖4)交換傳遞資訊(例如,情境資訊、生活記錄資訊、顯示資訊、觸控輸入資訊等)的信號。此外,如以下更詳細地解釋,連同裝置100描述的操作及/或描繪為儲存於記憶體120中的資料可在一或多個計算裝置上執行及/或儲存於 該一或多個計算裝置上,該一或多個計算裝置通訊地連接至可穿戴式計算裝置100。
在可穿戴式計算裝置100中,控制常式131併入指令序列,該指令序列在處理器組件110及/或GPU 120作為主處理器組件及/或GPU之角色的狀況下在該處理器組件及/或該GPU上為操作性的,以以實行用以進行各種功能之邏輯。在執行控制常式131中,處理器組件110及/或GPU 120決定將由投影機140投影的影像132。通常,處理器組件110及/或GPU 120基於來自觸控輸入裝置160的輸入、情境資訊134、生活記錄資訊135及/或感測器讀數136決定影像132。將暸解,各種影像可由可穿戴式計算裝置投影。此外,特定影像(例如,影像132)將基於若干因素而變化,該等因素中之一些可為實行方案相依的。在此提供少許實例以用於呈現之目的;然而,該等實例不意欲為限制性的。
在一些實例中,處理器組件110及/或GPU 120可基於可正在可穿戴式計算裝置上執行的特定應用程式決定影像132。例如,可穿戴式計算裝置可經組配來執行一或多個應用程式,諸如例如電子郵件應用程式、聯絡管理應用程式、網頁瀏覽器、繪圖應用程式、健身應用程式、強化實境應用程式等。處理器組件110及/或GPU 120可基於應用程式之一或多個使用者介面組件決定影像132。
在執行控制常式131中,處理器組件110及/或GPU 120引起投影機140將影像132投影至表面300上,從而導致投影影像200。通常,處理器組件110及/或GPU 120引 起投影機140在正確的時間將影像投影至特定表面(例如,表面300)上且在將在使用者之觀點內的正確特性(例如,定向、色彩、楔形校正、亮度等)的情況下投影。
以下更詳細地描述示例性影像、藉由處理器組件110及/或GPU 120的影像之決定及藉由處理組件110的特定表面之選擇。然而,在描述此類操作之前,描述以下各者之實例為有益的:(i)產生情境資訊134及(ii)產生生活記錄資訊135。
產生情境資訊
在一些實例中,處理器組件110及/或GPU 120可基於情境資訊134決定影像132。另外,處理器組件110可基於情境資訊134決定表面300及/或用於將影像132投影至表面300上之方法或形式。一般而言,情境資訊134可包括可穿戴式計算裝置100之特定「情境」及/或可穿戴式計算裝置之使用者及/或周圍環境之指示。特定而言,情境資訊134可包括以下各者之指示:活動程度、社交場合(social setting)、位置、鄰近計算裝置、裝置或使用者之環境、使用者特性(例如,身高、體重、殘障等)、使用者移動、日期/時間參數、運輸參數(例如,汽車、飛機、自行車等)、裝置特性、鄰近使用者、安全參數、保全參數、鑒別參數、感測器資訊等。
在一些實例中,處理組件110可自感測器讀數136決定情境資訊134。感測器讀數136可對應於自感測器180接收的一或多個信號、讀數、指示或資訊。在一些實例中, 感測器180可包括加速計。在執行控制常式131中,處理組件110可接收來自加速計之輸出且將輸出儲存為感測器讀數136。情境資訊134隨後可包括部分基於來自加速計之輸出決定的活動程度(例如,範圍介於不移動與跑步之間等)之指示。
在一些實例中,感測器180可包括麥克風。在執行控制常式131中,處理組件110可接收來自麥克風之輸出且將輸出儲存在感測器讀數136處。情境資訊134隨後可包括部分基於來自麥克風之輸出決定的社交場合(例如,在家、在地鐵上、在汽車中、在辦公室等)之指示。
在一些實例中,感測器180可包括光感測器。在執行控制常式131中,處理組件110可接收來自光感測器之輸出且將輸出儲存在感測器讀數136處。情境資訊134隨後可包括部分基於來自光感測器之輸出決定的周圍光之指示。
重要的是應注意,感測器180可為感測器陣列,且可包括任何數目之感測器。此外,感測器180中一或多者可安置在可穿戴式計算裝置100內(例如,如圖1中所示),且感測器180中一或多者可安置在可穿戴式計算裝置100之外。特定而言,可穿戴式計算裝置100可為通訊地耦接至感測器180(例如,近接信標、氣象台、物聯網等)以接收來自感測器180之輸出及信號(例如,包括感測器讀數之指示)。
在一些實例中,處理器組件110可自來自攝影機150之輸出決定情境資訊134。例如,處理器組件110可接收 來自攝影機之包括由攝影機150擷取的影像之指示的輸出,且將影像儲存為感測器讀數136。情境資訊134隨後可包括部分基於自攝影機150擷取的影像決定的隱私水平(例如,在團體中、與一或多個已知個體一起、單獨等)之指示。
產生生活記錄資訊
在一些實例中,處理組件110可自感測器讀數136及/或攝影機輸出150決定生活記錄資訊135。例如,如以上所述,感測器讀數可包括由攝影機150擷取的影像之指示。處理組件110可部分基於影像決定生活記錄資訊135。例如,處理器組件110可識別所訪問位置、物品(例如,鑰匙、遠端控制器、錢包等)之置放,且將此資訊之指示儲存為生活記錄資訊135。
在一些實例中,感測器180可包括全球定位系統(GPS)感測器。在執行控制常式131中,處理組件110可接收來自GPS感測器之輸出且將輸出儲存為感測器讀數136。生活記錄資訊135隨後可包括部分基於來自GPS感測器之輸出決定的GPS軌跡、所訪問區域、在特定位置處的時間等之指示。
在一些實例中,處理器組件110可自自攝影機150接收的輸出決定生活記錄資訊135。例如,生活記錄資訊135可包括部分基於自攝影機150擷取的影像決定的物品(例如,鑰匙、錢包、遠端控制器等)最近所在的位置之指示。
影像投影
如以上所述,處理組件110及/或GPU 120決定影 像132。另外,處理組件110選擇用以投影影像1232的表面,並且決定各種投影特性。例如,處理組件110及/或GPU 120可基於應用程式之一或多個使用者介面元件、情境資訊134及/或生活記錄資訊135決定影像132。
處理組件110及/或GPU 120可產生影像132以包括用於應用程式之使用者介面。此外,處理組件110及/或GPU 120可經組配來基於自觸控輸入裝置160接收的輸入產生影像132。例如,影像132可包括用於電子郵件應用程式之使用者介面。處理組件110及/或GPU 120可基於用於電子郵件應用程式之使用者介面及自觸控輸入裝置160接收的包括觸控輸入之指示的信號產生影像132。更特定而言,影像132可包括用於電子郵件應用程式之使用者介面,且可基於來自觸控輸入裝置之輸入動態地改變。
在一些實例中,處理組件110及/或GPU 120可經組配來基於生活記錄資訊135產生影像132。例如,影像132可包括將投影在一或多個真實物件上方、圍繞或鄰接於一或多個真實物件而投影的指示符(例如,箭頭、星形、輪廓、標記等)。以此方式,可穿戴式計算裝置100可提供強化實境,且尤其提供具有對實際實境之最小侵入的強化實境。例如,處理組件110及/或GPU 120可產生影像132以突出最近已知位置記錄在生活記錄資訊135中的物件。作為另一實例,處理組件110及/或GPU可產生影像132以回掃記錄在生活記錄資訊135中的路徑或路線。
在一些實例中,處理組件110及/或GPU 120可經 組配來基於情境資訊134產生影像132。例如,影像132可包括用於健身應用程式之使用者介面。處理組件110及/或GPU 120可基於用於健身應用程式及情境資訊134之使用者介面產生影像132。特定而言,影像132可包括用於健身應用程式之使用者介面,並且使用者介面之組件基於情境資訊而改變。例如,使用者介面可包括「重複計數器」(例如,用以共計、倒計時等),並且計數基於情境資訊134而改變。如以上所述,情境資訊134可包括基於自感測器180接收的信號的移動之指示。
因此,情境資訊134可包括重複移動已發生的次數(例如,基於自感測器180接收的信號)。此資訊可表示於影像132中。在尤其特定的實例中,情境資訊134可表示已完成的練習(例如,仰臥起坐、伏地挺身、引體向上、蹲舉、臥推等)之重複數目。處理組件110及/或GPU 120可經組配來產生包括重複數目之指示的影像132。例如,影像132可包括已完成的重複之數目、在一組已知重複中剩下的重複之數目等。
在一些實例中,處理組件110及/或GPU 120可經組配來基於情境資訊134產生影像132。例如,影像132可包括用於繪圖應用程式之使用者介面。處理組件110及/或GPU 120可基於情境資訊134中之位置資訊(例如,GPS位置、街道辨識資訊等)產生影像132以包括將要投影的指示符(例如,箭頭等)來指示要採取的方向或路徑。處理組件110及/或GPU 120可基於變化的情境資訊(例如,變化的位置等)改 變影像132。
在執行控制常式131中,處理組件110偵測鄰接於可穿戴式裝置100的若干表面(例如,表面300)。在一些實例中,處理器組件110可自攝影機150接收信號,該等信號包括鄰接於可穿戴式計算裝置100的表面之指示。特定而言,處理器組件110可偵測鄰接於可穿戴式計算裝置100的作為表面之壁、桌子、地板、道路、建築物、辦公桌之邊緣等。不同而言,處理組件110可接收來自攝影機150之輸出,且至少部分基於該輸出偵測鄰接於可穿戴式計算裝置的若干表面。另外,處理組件110可將所偵測表面之指示儲存為所偵測表面133。在一些實例中,處理組件110可基於情境資訊134及/或感測器讀數136將表面偵測為空間(例如,空氣)中之點。特定而言,處理組件110自包括於情境資訊134及/或感測器讀數136中的使用者之頭之位置、使用者之眼睛之方向等之指示偵測空間中之點。
在執行控制常式131中,處理組件110決定用以投影影像132的表面。更特定而言,處理組件110決定影像132將投影至的表面300。通常,處理組件110自所偵測表面133決定表面300。在一些實例中,處理組件110基於投影機140決定表面300。例如,處理組件110可基於所偵測表面133及投影機140能夠投影至的表面之類型(例如,平坦、毛面、著色等)決定表面300。在一些實例中,投影機140可為全像投影機。因而,所偵測表面133可包括空氣、玻璃或投影機可不宜投影的其他類型(例如,LCD、CRT等)之表面。
在一些實例中,處理組件110可基於影像132之內容;及情境資訊134及/或生活記錄資訊135自所偵測表面決定表面300。例如,若影像132含有繪圖應用程式,則處理組件110可基於情境資訊134中指示的移動速率及/或情境資訊134中指示的使用者之觀點決定表面300。特定而言,處理組件110可將表面決定為道路、建築物壁等。另外,處理組件110可基於情境資訊134調整投影影像200之焦點及/或解析度。例如,若情境資訊指示使用者之頭正在移動(例如,使用者正在做仰臥起坐等),則處理組件110可動態地調整投影影像200之焦點,使得當使用者之頭移動時,影像將保持使用者清晰。
作為另一實例,若影像132含有私用及/或機密資訊,則處理組件110可基於情境資訊134中指示的社交場合及/或使用者之觀點決定表面300。特定而言,處理組件110可將表面300決定為可由使用者但不可由社交場合中的其他人觀察的表面。
在執行控制常式131中,處理組件110產生投影機控制指引137。通常,投影機控制指引137指導投影機140以將影像132投影至表面300上,從而導致投影影像200。在一些實例中,處理組件110可產生投影機控制指引137以包括定向之指示來投影影像132。在一些實例中,處理組件110可產生投影機控制指引137以包括用於影像132之色彩之指示。在一些實例中,處理組件110可產生投影機控制指引137以包括用於影像132之楔形校正之指示。在一些實例中,處 理組件110可產生投影機控制指引137以包括用於影像132之最佳調色板之指示。
在一些實例中,處理組件110可產生投影機控制指引137以節省用來投影影像的功率。特定而言,處理組件110可產生投影機控制指引137,使得以降低功率消耗的方式針對使用者觀點顯示投影影像200。例如,進行練習的使用者可週期性地自表面300轉移目光(例如,在重複之一部分期間、跑步時每隔一跨步等)。因而,投影機控制指引137可引起投影機140週期性地投影影像132。特定而言,投影機140可在使用者希望看表面300時的週期期間投影影像132,且在使用者不希望看表面300時不投影影像132。
在各種實施例中,處理器組件110及/或處理器組件210可包括多種可商購獲得的處理器中任一者。此外,此等處理器組件中一或多者可包括多個處理器、多緒處理器、多核心處理器(多個核心共存於相同晶粒或分離的晶粒上),及/或多個實體分離的處理器藉以以一些方式連結的一些其他變形之多處理器架構。
在各種實施例中,GPU 120可包括多種可商購獲得的圖形處理單元中任一者。此外,此等圖形處理單元中一或多者可具有專用記憶體、多緒處理及/或一些其他平行處理能力。
在各種實施例中,儲存器130可基於多種資訊儲存技術中任一者,可能包括需要電功率之不間斷供應之依電性技術,且可能包括需要可為可移除或可為不可移除之 機器可讀儲存媒體之使用的技術。因此,此等儲存器中每一者可包括多種類型(或類型之組合)之儲存裝置中任一者,包括但不限於唯讀記憶體(ROM)、隨機存取記憶體(RAM)、動態RAM(DRAM)、雙倍資料速率DRAM(DDR-DRAM)、同步DRAM(SDRAM)、靜態RAM(SRAM)、可規劃ROM(PROM)、可抹除可規劃ROM(EPROM)、電氣可抹除可規劃ROM(EEPROM)、快閃記憶體、聚合物記憶體(例如,鐵電聚合物記憶體)、雙向記憶體、相變或鐵電記憶體、矽-氧化矽-氮化矽-氧化矽-矽(SONOS)記憶體、磁卡或光卡、一或多個單獨鐵磁碟片驅動機,組織成一或多個陣列之多個儲存裝置(例如,組織成獨立的碟片陣列之冗餘陣列或RAID陣列之多個鐵磁碟片驅動機)。應注意,雖然此等儲存器中每一者係描繪為單個區塊,但是此等儲存器中一或多者可包括可基於不同儲存技術之多個儲存裝置。因此,例如,此等描繪之儲存器中每一者中之一或多者可表示程式及/或資料可藉以在一些形式之機器可讀儲存媒體上儲存且傳遞之光驅動機或快閃記憶卡閱讀器、用以相對長期地局部儲存程式及/或資料之鐵磁碟片驅動機,及賦能於相對快速存取程式及/或資料之一或多個依電性固態記憶體裝置(例如,SRAM或DRAM)之組合。亦應注意,此等儲存器中每一者可由多個儲存部件組成,該等多個儲存部件基於相同儲存技術,但是可能由於用途之專門化(例如,一些DRAM裝置用作主儲存器,而其他DRAM裝置用作圖形控制器之相異訊框緩衝器)而被分 離地維持。
在各種實施例中,投影機140可包括各種投影機中任一者,諸如例如LCD投影機、CRT投影機、LED投影機、DLP投影機、全像投影機等。
在各種實施例中,攝影機150可為包括經組配來擷取影像的電子感測器的各種攝影機中任一者,包括3D攝影機。
在各種實施例中,觸控輸入裝置160可為經組配來回應於使用者觸碰而產生輸出的各種裝置中任一者。例如,觸控輸入裝置160可為電容性觸控裝置、機電觸控裝置等。
在各種實施例中,介面170可使用允許計算裝置耦接至其他裝置的多種傳訊技術中任一者,如已描述。此等介面中每一者可包括提供必要功能性中之至少一些之電路以允許此耦接。然而,此等介面中每一者亦可至少部分使用由處理器組件中之對應處理器組件執行的指令序列來實行(例如,以實行協定堆疊或其他特徵)。在使用電氣傳導性及/或光學傳導性佈纜的情況下,此等介面可使用符合各種工業標準中任一者的傳訊及/或協定,該等工業標準包括但不限於RS-232C、RS-422、USB、乙太網路(IEEE-802.3)或IEEE-1394。在需要無線信號傳輸之使用的情況下,此等介面可使用符合各種工業標準中任一者的傳訊及/或協定,該等工業標準包括但不限於IEEE 802.11a、802.11b、802.11g、802.11n、802.16、802.20(通常被稱為「行動寬頻 無線接取」);藍牙;ZigBee;或蜂巢式無線電話服務,諸如GSM與通用封包無線服務(GSM/GPRS)、CDMA/1xRTT、全域進化增強資料速率(EDGE)、純進化資料/進化資料最佳化(EV-DO)、資料及語音進化(EV-DV)、高速下行封包接取(HSDPA)、高速上行封包接取(HSUPA)、4G LTE等。
在各種實例中,感測器180可包括一或多個感測器,諸如例如加速計、麥克風、回轉儀、GPS感測器、磁性感測器等。
圖2A至圖2D例示示例性投影影像200,該示例性投影影像可由投影機140基於投影機控制指引137及影像132投影。一般而言,影像132包括投影影像200之指示。特定而言,影像132包括投影機140投影光從而導致投影影像200顯示在表面300上所必需的資料。
更具體地轉向圖2A,展示示例性投影影像201,該示例性投影影像可由投影機140基於影像132及投影機控制指引137投影。如所描繪,投影影像201包括使用者介面(UI)210,該使用者介面具有UI組件211、212及213。在電子郵件應用程式之情境下,UI組件211、212及213可對應於信箱中的電子郵件。投影影像201亦包括突出區段220。突出區段220可基於自觸控輸入裝置160接收的信號動態地改變。例如,使用者可使用觸控輸入裝置160來「滾動」UI組件211、212及213。
更具體地轉向圖2B,展示另一示例性投影影像202,該投影影像可由投影機140基於影像132及投影機控制 指引137投影。如所描繪,投影影像202可圍繞物件301而投影。特定而言,若干物件(例如,301-1、301-2、301-3、301-4及301-5)展示於表面300上。處理器組件110可經組配來辨識物件301中一者,且將影像投影至所辨識物件上、上方、圍繞或鄰接於該所辨識物件而投影影像。例如,影像202係描繪為圍繞物件301-5而投影至表面300上。因而,可穿戴式計算裝置100可為使用者「突出」或「指出」物件,諸如,使用者鑰匙。
更具體地轉向圖2C,展示另一示例性投影影像203,該投影影像可由投影機140基於影像132及投影機控制指引137投影。如所描繪,影像203包括使用者介面(UI)230,該使用者介面具有UI組件231。在健身應用程式之情境下,UI組件231可對應於重複計數器、計時器等。UI組件231可基於情境資訊134(例如,所偵測移動、自移動開始時經過的時間等)而動態地改變。例如,UI組件231可動態地改變,因此使用者可看見重複之數目及/或活動之經過的時間。
更具體地轉向圖2D,展示另一示例性投影影像204,該投影影像可由投影機140基於影像132及投影機控制指引137投影。如所描繪,投影影像204為指示符(例如,箭頭),該指示符可投影至表面300上。例如,在繪圖應用程式之情境下,指示符可投影至表面(例如,人行道等)上以提供用以行進的方向之視覺指示。指示符可基於情境資訊134(例如,所偵測移動、所偵測位置等)而動態地改變(例如,改變為曲線箭頭、改變為停止符號等)。
圖3圖1之中介實境系統1000之一實施例之部分的方塊圖。大體而言,圖3例示系統1000之操作之態樣。在各種實施例中,控制常式131可包括作業系統、裝置驅動器及/或應用層常式(例如,提供於碟片媒體上之所謂的「軟體套」、自遠端伺服器獲得之「小型應用程式」等)中一或多者。在包括作業系統的情況下,作業系統可為適合於處理器組件110及/或GPU 120中之任何對應一者的各種可利用的作業系統中任一者。在包括一或多個裝置驅動器的情況下,該等裝置驅動器可為可穿戴式計算系統100之各種其他組件(硬體組件或硬體組件)中任一者提供支援。
圖3中所描繪,控制常式131(例如,控制常式131-1)包括表面偵測器1314及投影協調器1315。另外,在一些實例中,控制常式131(例如,控制常式131-2)包括情境引擎1311、生活記錄引擎1312及物件認知引擎1313。重要的是應注意,在一些實施例的情況下,情境資訊134及生活記錄資訊135之產生以及物件辨識及追蹤可由另一計算裝置進行(參考圖4)。例如,通訊地連接至可穿戴式計算裝置(例如,經由無線網路等)的計算裝置可進行更多計算密集的操作。此外,一些資訊(例如,情境資訊134及/或生活記錄資訊135)可儲存於另一計算裝置上,例如以節省可穿戴式計算裝置100上之可利用的記憶體。
一般而言,控制常式131引起影像132投影至表面300上,從而導致投影影像200。特定而言,控制常式131偵測表面、情境、物件及/或觸控輸入。控制常式131產生將 要由投影機投影至特定表面上且具有可由使用者觀察之特定特性的影像。影像、表面及特性係基於所偵測表面、情境、物件及/或觸控輸入而決定。
投影協調器1315基於情境資訊134產生投影機控制指引137,該情境資訊包括可穿戴式計算裝置100之情境之指示。特定而言,情境包括關於裝置100之基於來自感測器180之輸出(例如,感測器讀數136)的情境之資料。投影機控制指引137引起投影機140將影像132投影至表面300上,從而導致投影影像200在使用者視域及/或焦點內。
在一些實例中,投影協調器1315基於情境資訊134及來自觸控輸入裝置160之輸出產生投影機控制指引。更特定而言,投影協調器1315可允許使用者經由觸控輸入裝置160與投影影像200互動。
在一些實例中,投影協調器1315決定用以投影影像之表面(例如,表面300)。特定而言,投影協調器1315可自由表面偵測器偵測的一或多個表面決定該表面。表面偵測器1314偵測鄰接於設備的一或多個表面。在一些實例中,表面偵測器1314基於自攝影機150擷取的影像偵測鄰接於裝置100的表面。投影協調器1315可基於使用者之觀點之指示決定用以投影影像之表面。特定而言,情境可包括例如基於感測器讀數136及/或由攝影機150擷取的影像的使用者之觀點之指示。
在一些實例中,投影協調器1315決定(i)使用者之觀點及(ii)使用者之觀點內的表面。例如,投影協調器1315 可自感測器輸出及/或自用來追蹤使用者之觀點的各種裝置接收的信號決定使用者之觀點。特定而言,投影協調器135可自自眼睛追蹤裝置、頭戴式攝影機接收的信號及/或可偵測光投影(例如,由光偵測器偵測的光投影等)決定使用者之觀點。
另外,投影協調器1315可決定用於投影影像之一或多個特性,諸如例如定向、楔形校正及最佳調色板等。此類特性可基於情境資訊134、生活記錄資訊135或其他資訊。投影機控制指引137可包括此等特性以引起投影機140以所要特性投影影像132。
在一些實例中,情境為活動程度。例如,感測器180可包括加速計。因而,情境資訊134可包括基於自加速計接收的信號的活動程度之指示。在一些實例中,情境資訊134可基於自攝影機擷取的影像。特定而言,情境資訊可包括社交場合之指示,諸如可係基於施加至由攝影機150擷取的影像的影像分析技術(例如,臉孔辨識、位置辨識等)而決定。
在一些實例中,感測器180包括全球定位系統(GPS)感測器。在此類實例中,情境資訊134可包括裝置100之位置之指示。
在一些實例的情況下,控制常式131包括情境引擎1311。在此類實例中,情境引擎可經組配來自網路連接之計算裝置接收情境資訊134。作為另一實例,情境引擎1311可經組配來基於感測器讀數136及/或由攝影機150擷 取的影像決定情境資訊134。
在一些實例中,投影協調器1315基於生活記錄資訊135產生投影機控制指引137。一般而言,生活記錄資訊135包括至少部分基於感測器讀數136及/或由攝影機150擷取的影像的裝置100之歷史之指示。特定而言,生活記錄資訊135可包括由裝置100訪問的位置、特定物件所置放的地方等之歷史。
在一些實例的情況下,控制常式包括生活記錄引擎1312。在此類實例中,生活記錄引擎1312可經組配來自網路連接之計算裝置接收生活記錄資訊135。作為另一實例,生活記錄引擎1312可經組配來基於感測器讀數136及/或由攝影機150擷取的影像決定生活記錄資訊135。
在一些實例的情況下,控制常式131可包括物件認知引擎1313。一般而言,物件認知引擎經組配來識別或辨識由攝影機150擷取的影像中之物件。例如,物件認知引擎1313可偵測由攝影機150擷取的影像中之特定物品(例如,鑰匙、錢包、眼鏡、遠端控制器等)。因此,物件認知引擎1313可經組配來偵測裝置100之使用者或穿戴者之所觀察或視力內的物件。
圖4例示中介實境系統1001。如所描繪,系統1001包括可穿戴式計算裝置100,該可穿戴式計算裝置經組配來將影像投影至表面300上,從而導致投影影像200。另外,系統1001包括伺服器400及第二可穿戴式計算裝置500,該第二可穿戴式計算裝置經由網路600通訊地耦接至可穿戴 式計算裝置100。連同圖1圖3之系統1000描述系統1001。另外,第二可穿戴式計算裝置500可大體上類似於以上所描述之可穿戴式計算裝置100。特定而言,第二可穿戴式計算裝置500係描繪為將影像投影至表面301上,從而導致投影影像205。
一般而言,伺服器400可經組配來自可穿戴式計算裝置100及/或第二可穿戴式計算裝置500接收感測器讀數136,且決定情境資訊134及生活記錄資訊135。另外,伺服器400可經組配來辨識由可穿戴式計算裝置100及/或500之攝影機150擷取的影像內之物件。
可穿戴式計算裝置100可經組配來產生影像132及投影機控制指引137,如以上所描述。此外,可穿戴式計算裝置100可經組配來與第二可穿戴式計算裝置500協調地產生影像132及投影機控制指引137。更具體而言,伺服器400可經組配來基於來自裝置100及裝置500兩者之感測器讀數決定情境資訊134及生活記錄資訊135。因而,可穿戴式計算裝置100可基於來自裝置100及500兩者之感測器讀數產生影像132及投影機控制指引137。此外,可穿戴式計算裝置100可基於裝置500之投影能力、鄰接於裝置500的表面等產生影像132及投影機控制指引137。
在一些實例中,裝置100及500可協調影像至相同表面上之投影。更特定而言,在一些實例上,表面300及表面301可為相同表面。
圖5至圖7例示可由系統1000內之組件實行的邏 輯流程之示例性實施例。所例示邏輯流程可表示由本文所描述之一或多個實施例執行的操作中之一些或全部。更具體而言,邏輯流程可例示由處理器組件110及/或GPU 120在至少執行控制常式131中進行之操作。雖然參考圖1圖2A至圖2D圖3描述邏輯流程,但實例不限於此上下文。
更具體地轉向圖5,描繪邏輯流程1100。邏輯流程1100可自方塊1110開始。在方塊1110處,中介實境系統之可穿戴式計算裝置之處理器組件(例如系統1000之可穿戴式計算裝置100之處理器組件110)偵測鄰接表面。例如,可由控制常式131之投影協調器1315之執行引起可穿戴式計算裝置100偵測包括表面300的鄰接表面,且將鄰接表面之指示儲存為所偵測表面133。
繼續方塊1120,可穿戴式計算裝置之處理器組件部分基於情境資訊自所偵測表面決定表面。例如,投影協調器1315可基於情境資訊134自所偵測表面133決定表面300。特定而言,投影協調器1315可基於情境資訊134決定表面300,該情境資訊包括使用者之觀點及/或焦點之指示,使得投影影像200在使用者之觀點及焦點內。
繼續方塊1130,可穿戴式計算裝置之處理器組件產生投影機控制指引以引起投影機將影像投影至所決定表面上。例如,投影協調器1315可產生投影機控制指引137以投影機400將影像132投影至表面300上。
更具體地轉向圖6,描繪邏輯流程1200。邏輯流程1200可自方塊1210開始。在方塊1210處,中介實境系統 之可穿戴式計算裝置之處理器組件(例如,系統1000之可穿戴式計算裝置100之處理器組件110)接收請求以啟動投影。例如,投影協調器1315可接收請求(例如,經由語音命令、經由運動姿勢、經由觸碰手勢、經由按鈕按壓等)以啟動可穿戴式計算裝置100之投影特徵。
繼續方塊1220,可穿戴式計算裝置之處理器組件偵測鄰接表面。例如,可由控制常式131之投影協調器1315之執行引起可穿戴式計算裝置100偵測包括表面300的鄰接表面,且將鄰接表面之指示儲存為所偵測表面133。
繼續方塊1230,可穿戴式計算裝置之處理器組件部分基於情境資訊自所偵測表面決定表面。例如,投影協調器1315可基於情境資訊134自所偵測表面133決定表面300。特定而言,投影協調器1315可基於情境資訊134決定表面300,該情境資訊包括使用者之觀點及/或焦點之指示,使得投影影像200在使用者觀點及焦點內。
繼續方塊1240,可穿戴式計算裝置之處理器組件自觸控輸入裝置接收包括使用者觸碰之指示的信號。例如,投影協調器1315可自觸控輸入裝置160接收信號。繼續方塊1250,可穿戴式計算裝置之處理器組件產生投影機控制指引以引起投影機將影像投影至所決定表面上,該影像回應所接收的使用者觸碰之指示。例如,投影協調器1315可產生投影機控制指引137以引起投影機400將影像132投影至表面300上,其中投影影像200回應使用者觸碰(例如,自觸控輸入裝置160接收的信號)。
更具體地轉向圖7,描繪邏輯流程1300。邏輯流程1300可自方塊1310開始。在方塊1310處,中介實境系統之可穿戴式計算裝置之處理器組件(例如,系統1000之可穿戴式計算裝置100之處理器組件110)接收請求以啟動投影。例如,投影協調器1315可接收請求(例如,經由語音命令、經由運動姿勢、經由觸碰手勢、經由按鈕按壓等)以啟動可穿戴式計算裝置100之投影特徵。
繼續方塊1320,可穿戴式計算裝置之處理器組件偵測鄰接表面。例如,可由控制常式131之投影協調器1315之執行引起可穿戴式計算裝置100偵測包括表面300的鄰接表面,且將鄰接表面之指示儲存為所偵測表面133。
繼續方塊1330,可穿戴式計算裝置之處理器組件部分基於情境資訊自所偵測表面決定表面。例如,投影協調器1315可基於情境資訊134自所偵測表面133決定表面300。特定而言,投影協調器1315可基於情境資訊134決定表面300,該情境資訊包括使用者之觀點及/或焦點之指示,使得投影影像200在使用者之觀點及焦點內。
繼續方塊1340,可穿戴式計算裝置之處理器組件基於生活記錄資訊決定物件之位置。特定而言,處理器組件決定在使用者視域內的物件之位置。例如,物件認知引擎1313可辨識由攝影機150擷取的影像中之物件,且決定所擷取影像及/或使用者視域內的物件之位置。繼續方塊1250,可穿戴式計算裝置之處理器組件產生投影機控制指引以引起投影機將影像投影至所決定表面上,該影像突出 所辨識物件之位置。例如,投影協調器1315可產生投影機控制指引137以引起投影機400將影像132投影至表面300上,其中投影影像突出所辨識物件之位置。
圖8例示儲存媒體2000之一實施例。儲存媒體2000可包含製品。在一些實例中,儲存媒體2000可包括諸如光學儲存器、磁儲存器或半導體儲存器之任何非暫時性電腦可讀媒體或機器可讀媒體。儲存媒體2000可儲存各種類型之電腦可執行指令2001,諸如用以實行邏輯流程1100、1200及/或1300的指令。電腦可讀儲存媒體或機器可讀儲存媒體之實例可包括能夠儲存電子資料的任何有形媒體,包括依電性記憶體或非依電性記憶體、可移或非可移記憶體、可抹除或非可抹除記憶體、可寫或可重寫記憶體等。電腦可執行指令之實例可包括任何適合類型之碼,諸如原始碼、編譯碼、解譯碼、可執行碼、靜態碼、動態碼、物件導向碼、視覺碼等等。該等實例並不限於此上下文。
圖9例示適合於實行如先前所述之各種實施例的示範性處理架構3000之一實施例。更具體而言,處理架構3000(或其變體)可實行為可穿戴式計算裝置100之部分。
處理架構3000可包括通常在數位處理中使用的各種元件,包括但不限於一或多個處理器、多核心處理器、共處理器、記憶體單元、晶片組、控制器、周邊設備、介面、振盪器、定時裝置、視訊卡、音訊卡、多媒體輸入/輸出(I/O)組件、電源等。如本申請案中所使用,「系統」及「組件」等詞意欲代表執行數位處理的計算裝置之實體,該實 體為硬體、硬體及軟體之組件、軟體或執行中之軟體,該實體之實例由此所描繪的示範性處理架構提供。例如,組件可為但不限於為在處理器組件上運行之過程、處理器組件自身、可使用光學及/或磁性儲存媒體之儲存裝置(例如,硬碟片驅動機、陣列中之多個儲存器驅動機等)、軟體物件、可執行指令序列、執行之執行緒、程式及/或整個運算裝置(例如,整個電腦)。藉由例示之方式,在伺服器上運行之應用程式及伺服器兩者可為組件。一或多個組件可常駐於過程及/或執行之執行緒內,且組件可局限於一個計算裝置上且/或分散在兩個或兩個以上計算裝置之間。此外,組件可藉由各種類型之通訊媒體彼此通訊地耦接以協調操作。協調可涉及單向或雙向資訊交換。例如,組件可通訊以經由通訊媒體通訊之信號之形式的資訊。資訊可實行為分配給一或多個信號線之信號。訊息(包括命令、狀態、位址或資料訊息)可為此類信號中一者或可為多個此類信號,且可經由各種連接及/或介面中任一者串列地或大體上平行地傳輸。
如所描繪,在實行處理架構3000中,計算裝置可包括至少一處理器組件950、儲存器960、至其他裝置之介面990及聯結器955。如將解釋的,取決於實行處理架構3000的計算裝置之各種態樣,包括該計算裝置之所欲使用及/或使用條件,此計算裝置可進一步包括額外組件,諸如但不限於顯示介面985。
聯結器955可包括一或多個匯流排、點對點互連 體、收發器、緩衝器、接點式交換器及/或其他導體及/或將至少該處理器組件950通訊地耦接至儲存器960之邏輯。聯結器955可進一步將處理器組件950耦接至介面990、音訊子系統970及顯示介面985中一或多者(取決於此等及/或其他組件中之哪些亦存在)。在處理器組件950如此藉由聯結器955耦接的情況下,處理器組件950能夠執行用於前述計算裝置中之任一者實行處理架構3000的以上詳細描述之任務中之各種任務。聯結器955可使用藉以光學地且/或電氣地傳遞信號之各種技術或技術之組合中任一者來實行。此外,聯結器955之至少部分可使用符合多種工業標準中任一者之定時及/或協定,該等工業標準包括但不限於加速圖形埠(AGP)、卡片匯流排、延伸工業標準架構(E-ISA)、微通道架構(MCA)、網路用戶匯流排(NuBus)、周邊組件互連(延伸)(PCI-X)、快速週邊組件互連(PCI-E)、個人電腦記憶卡國際協會(PCMCIA)匯流排、HyperTransportTM、快速路徑等。
如先前所論述,處理器組件950(對應於處理器組件110及/或210)可包括多種可商購獲得之處理器中任一者,該等處理器使用多種技術中任一者且使用實體上以許多方式中任一者組合之一或多個核心予以實行。
如先前所論述,儲存器960(對應於儲存器130及/或230)可由基於多種技術中任一者或技術之組合的一或多個相異儲存裝置組成。更具體而言,如所描繪,儲存器960可包括依電性儲存器961(例如,基於一或多個形式之RAM 技術之固態儲存器)、非依電性儲存器962(例如,不需要電功率之恆定提供來保留其內容之固態、鐵磁或其他儲存器)及可移媒體儲存器963(例如,可藉以在運算裝置之間傳遞資訊之可移碟片或固態記憶卡儲存器)中之一或多個。將儲存器960描繪為可能包含多個相異類型之儲存器之此繪圖係承認多於一個類型之儲存裝置在計算裝置中之常見使用,其中一個類型提供賦能於藉由處理器組件950進行的資料之更快速調處之相對快速的讀取及寫入能力(但可能使用不斷地需要電功率之「依電性」技術),而另一類型提供相對高的密度之非依電性儲存器(但可能提供相對緩慢的讀取及寫入能力)。
考慮到不同儲存裝置之通常不同的特性使用不同的技術,此類不同儲存裝置經由不同儲存器控制器耦接至計算裝置之其他部分亦為常見的,該等不同儲存器控制器經由不同介面耦接至該等不同儲存器控制器之不同儲存裝置。藉由實例之方式,其中依電性儲存器961存在且係基於RAM技術,依電性儲存器961可經由儲存器控制器965a通訊地耦接至聯結器955,該儲存器控制器提供可能使用列尋址或行位址的通向依電性儲存器961之適當介面,且其中儲存器控制器965a可執行列再新及/或其他維護任務,以幫助保留儲存在依電性儲存器961內之資訊。藉由另一實例之方式,其中非依電性儲存器962存在且包括一或多個鐵磁碟片驅動機及/或固態碟片驅動機,非依電性儲存器962可經由儲存器控制器965b通訊地耦接至聯結器955,該儲存器控 制器提供可能使用資訊之區塊及/或磁柱及扇區之尋址的通向非依電性儲存器962之適當介面。藉由另一實例之方式,其中可移媒體儲存器963存在且包括使用機器可讀儲存媒體969之一或多個片段的一或多個光學碟片驅動機及/或固態碟片驅動機,可移媒體儲存器963可經由儲存器控制器965c通訊地接至聯結器955,該儲存器控制器提供可能使用資訊之區段之尋址的通向可移媒體儲存器963之適當介面,且其中儲存器控制器965c可以特定於延伸機器可讀儲存媒體969之壽命的方式協調讀取操作、抹除操作及寫入操作。
依電性儲存器961或非依電性儲存器962中之一者或另一者可包括呈機器可讀儲存媒體形式之製品中,包括可由處理器組件950執行來實行各種實施例之指令序列的常式可儲存於該機器可讀儲存媒體上,取決於各自所基於之技術。藉由實例之方式,其中非依電性儲存器962包括基於鐵磁的碟片驅動機(例如,所謂的「硬驅動機」),每一此碟片驅動機通常使用一或多個旋轉磁盤,在該一或多個旋轉磁盤上磁性響應性粒子之塗層經沈積且以各種圖案磁性地定向來以類似於諸如軟式磁片之儲存媒體之方式儲存資訊,諸如指令序列。藉由另一實例之方式,非依電性儲存器962可由固態儲存裝置組組成來以類似於緊密快閃記憶卡之方式儲存資訊,諸如指令序列。再次,不同時間在計算裝置中使用不同類型之儲存裝置來儲存可執行常式及/或資料為常見的。因此,包括將藉由處理器組件950執行 來實行各種實施例之指令序列的常式最初可儲存在機器可讀儲存媒體969上,且隨後可在將該常式複製至非依電性儲存器962以用於較長期儲存中使用可移媒體儲存器963而無需機器可讀儲存媒體969及/或依電性儲存器961之繼續存在,以在執行該常式時賦能於藉由處理器組件950進行的更快速存取。
如先前所論述,介面990(對應於介面160及260中一或多者)可使用各種傳訊技術中任一者,該等傳訊技術對應於可使用來將計算裝置通訊地耦接至一或多個其他裝置的各種通訊技術中任一者。再次,各種形式之有線傳訊或無線傳訊中之一者或兩者可使用來允許處理器組件950可能經由網路或網路之互連集合與輸入/輸出裝置(例如,描繪之示例性鍵盤920或印表機925)及/或其他計算裝置互動。承認多個類型之傳訊及/或協定之通常極其不同的特性通常必須由任何一個計算裝置支援,而將介面990描繪為包括多個不同介面控制器995a、995b及995c。介面控制器995a可使用各種類型之有線數位串列介面或射頻無線介面中任一者來自諸如描繪之鍵盤920之使用者輸入裝置接收連續傳輸之訊息。介面控制器995b可使用各種基於電纜纜線傳訊或無線傳訊的定時及/或協定中任一者來經由描繪之網路300(可能由一或多個鏈路組成之網路、較小網路或可能網際網路)存取其他計算裝置。介面995c可使用賦能於串行信號傳輸或平行信號傳輸之使用的各種電氣傳導的電纜纜線中任一者來將資料傳遞至描繪之印表機925。可經由介面 990之一或多個介面控制器通訊地耦接的裝置之其他實例包括但不限於麥克風、遠端控制器、觸控筆、讀卡器、指紋閱讀器、虛擬實景互動手套、圖形輸入板、操縱桿、其他鍵盤、視網膜掃描器、觸控螢幕之觸控輸入組件、軌跡球、各種感測器、用以監視人員之移動以接受該等人員經由姿勢及/或面部表情、聲音傳訊的命令及/或資料的攝影機或攝影機陣列、雷射印表機、噴墨印表機、機械機器人、銑床等。
在計算裝置通訊地耦接至(或可能、實際上併入)顯示器(例如,描繪之示例性顯示器980、對應於顯示器150及/或250的顯示器)的情況下,實行處理架構3000的計算裝置亦可包括顯示介面985。雖然更多一般化類型之介面可使用於通訊地耦接至顯示器中,但是在將各種形式之內容視覺上顯示於顯示器上中通常所需之稍微專門化的額外處理,以及所使用之基於電纜纜線之介面之稍微專門化的本性通常使得相異顯示介面之提供為合意的。可由顯示介面985使用於顯示器980之通訊耦接中的有線傳訊技術及/或無線傳訊技術可使用符合各種工業標準中任一者之傳訊及/或協定,該等工業標準包括但不限於各種類比視訊介面、數位視訊介面(DVI)、顯示器埠等中任一者。
更一般而言,本文所描述且描繪之計算裝置之各種元件可包括各種硬體元件、軟體元件或兩者之組合。硬體元件之實例可包括裝置、邏輯裝置、組件、處理器、微處理器、電路、處理器組件、電路元件(例如,電晶體、電 阻器、電容器、感應器等)、積體電路、特定應用集體電路(ASIC)、可規劃邏輯裝置(PLD)、數位信號處理器(DSP)、現場可規劃閘陣列(FPGA)、記憶體單元、邏輯閘、暫存器、半導體裝置、晶片、微晶片、晶片組等。軟體元件之實例可包括軟體組件、程式、應用、電腦程式、應用程式、系統程式、軟體開發程式、機器程式、作業系統軟體、中間軟體、韌體、軟體模組、常式、次常式、函數、方法、程序、軟體介面、應用程式介面(API)、指令集、計算碼、電腦碼、碼段、電腦碼段、字、值、符號或上述各者之任何組合。然而,在給定實行方案必要時,決定是否使用硬體元件及/或軟體元件來實施一實施例可根據任何數目之因素變化,該等因素諸如所需計算速率、功率位準、耐熱性、處理週期預算、輸入資料速率、輸出資料速率、記憶體資源、資料匯流排速度及其他設計或效能限制。
一些實施例可使用表達「一個實施例」或「一實施例」以及其派生表達來描述。此等用詞意味關於實施例所描述之特定特徵、結構或特性包括在至少一實施例中。片語「在一實施例中」在說明書的不同位置中之出現未必全部都指代同一實施例。此外,一些實施例可使用表達「耦接」及「連接」以及其派生表達來描述。此等用詞未必意欲作為彼此的同義詞。例如,一些實施例可使用「連接」及/或「耦接」等詞來描述以指示二或更多個元件彼此直接實體接觸或電氣接觸。然而,「耦接」一詞可亦意味二或更多個元件彼此並未直接接觸,但仍彼此合作或相互作用。 此外,來自不同實施例之態樣或元件可經組合。
吾人強調的是,本揭示案之摘要提供來允許讀者快速確定技術揭示之本性。在理解摘要將不用以解釋或限制申請專利範圍之範疇或意義的情況下提交摘要。另外,在先前詳細描述中,可看出將各種特徵集中在單個實施例中以用於使揭示內容合理化之目的。然而,此揭示方法將不被解釋為反映所請求實施例需要比每一請求項中明確詳述的更多特徵之意圖。實情為,如以下申請專利範圍所反映,發明標的在於少於單個所揭示實施例之全部特徵中。因此,以下申請專利範圍因此併入詳細描述中,其中每一請求項堅持其自身作為單獨的實施例。在隨附申請專利範圍中,「包括」及「其中」等詞分別用作個別「包含」及「其中」等詞之簡明英語等效物。此外,「第一」、「第二」、「第三」等詞僅用作標籤,且並非意欲將數值要求強加於其物件上。
以上已描述內容包括所揭示架構之實例。當然,不可能描述組件及/或方法論之每一想得到的組合,但一般技術者可認識到,許多進一步組合及置換為可能的。因此,新穎架構意欲涵蓋屬於隨附申請專利範圍之精神及範疇內的所有此類改變、修改及變化。詳細揭示內容現在轉向提供關於進一步實施例的實例。以下提供之實例不欲為限制。
實例1:用於可穿戴式計算裝置之設備,該可穿戴式計算裝置經組配來投影影像,該設備包括:投影機,其用以投影影像;感測器,其用以產生輸出;以及投影協 調器,其可操作地耦接至投影機及感測器,該投影協調器用以至少部分地基於感測器而輸出決定視域;且產生投影機控制指引以致使投影機將影像投影至視域中之表面上。
實例2:實例1之設備,感測器用以產生用於裝置之使用者之情境資訊,投影協調器用以部分地基於情境資訊而產生投影機控制指引。
實例3:實例1之設備,其中感測器為第一感測器,設備包含第二感測器,該第二感測器可操作地耦接至投影協調器,該第二感測器用以產生用於裝置之使用者之情境資訊,該投影協調器用以部分地基於情境資訊而產生投影機控制指引。
實例4:實例1之設備,感測器進一步包含眼睛追蹤裝置、攝影機或光偵測器中之一或多者,投影協調器用以基於自眼睛追蹤裝置、攝影機或光偵測器所接收的信號而決定視域。
實例5:實例1之設備,其中感測器為感測器陣列,該感測器陣列包括觸控輸入裝置,投影協調器用以進一步部分地基於自觸控輸入裝置所接收的信號而產生投影機控制指引。
實例6:實例1之設備,該設備包含攝影機,該攝影機可操作地耦接至投影協調器,該投影協調器用以部分地基於由攝影機所擷取的影像而產生包括社交場合之指示的情境資訊,且用以部分地基於社交場合而產生投影機控制指引。
實例7:實例1之設備,感測器用以產生用於使用者之情境資訊,該感測器用以包含加速計以產生指示使用者之活動程度的情境資訊,投影協調器用以部分地基於情境資訊而產生投影機控制指引。
實例8:實例1之設備,感測器用以產生用於裝置之情境資訊,該感測器用以包含全球定位系統(GPS)感測器以產生指示裝置之位置的情境資訊,且投影協調器用以部分地基於情境資訊而產生投影機控制指引。
實例9:實例2至實例8中任一實例之設備,該設備包含情境引擎,該情境引擎用以自網路連接計算裝置接收情境資訊。
實例10:實例2至實例8中任一實例之設備,該設備包含情境引擎,該情境引擎用以基於感測器輸出決定情境資訊。
實例11:實例1之設備,投影協調器用以進一步部分地基於生活記錄資訊而產生投影機控制指引,該生活記錄資訊包括部分地基於感測器輸出的裝置之歷史之指示。
實例12:實例1之設備,該設備包含攝影機,該攝影機可操作地耦接至投影協調器,該投影協調器用以進一步部分地基於生活記錄資訊而產生投影機控制指引,該生活記錄資訊包括部分地基於由攝影機所擷取的影像的裝置之歷史之指示。
實例13:實例12之設備,投影協調器用以進一步 部分地基於在由攝影機所擷取的影像中所辨識的物件而產生投影機控制指引。
實例14:實例13之設備,該設備包含物件認知引擎,該物件認知引擎用以自網路連接計算裝置接收所辨識物件之指示。
實例15:實例11至實例14中任一實例之設備,該設備包含生活記錄引擎,該生活記錄引擎用以自網路連接計算裝置接收生活記錄資訊。
實例16:實例11至實例14中任一實例之設備,該設備包含生活記錄引擎,該生活記錄引擎用以基於感測器輸出而決定生活記錄資訊。
實例17:實例12至實例14中任一實例之設備,該設備包含生活記錄引擎,該生活記錄引擎用以基於由攝影機所擷取的影像而決定生活記錄資訊。
實例18:實例1之設備,該設備包含表面偵測器,該表面偵測器可操作地耦接至投影協調器,該表面偵測器用以偵測鄰接於設備的一或多個表面。
實例19:實例18之設備,該設備包含攝影機,該攝影機可操作地耦接至投影協調器及表面偵測器,該表面偵測器用以基於由攝影機所擷取的影像而偵測一或多個表面。
實例20:實例18至實例19中任一實例之設備,投影協調器用以至少部分地基於情境資訊而決定用以將來自經偵測的一或多個表面之影像投影於其上的表面。
實例21:實例20之設備,情境資訊用以包括視域之指示,投影協調器用以基於該視域而決定來自一或多個所偵測表面之表面。
實例22:實例1至實例21中任一實例之設備,投影機控制指引用以包括定向之指示、楔形校正或最佳調色板中之至少一者。
實例23:實例1至實例21中任一實例之設備,其中設備為可穿戴式計算裝置。
實例24:實例1至21中任一實例之設備,其中可穿戴式計算裝置包含戒指、手錶、項鍊、手鐲、眼鏡、皮帶、鞋、手套、帽子、耳機、耳飾、義肢或可移除式衣服。
實例25:實例1至21中任一實例之設備,其中視域為能夠由裝置之使用者感知的地理範圍。
實例26:由可穿戴式計算裝置實行的方法,該可穿戴式計算裝置經組配來投影影像,該方法包括:偵測一或多個表面;至少部分地基於來自感測器之輸出而決定視域中的一或多個所偵測表面中之一所偵測表面;以及產生投影機控制指引以致使投影機將影像投影至視域中之表面上。
實例27:實例26之方法,該方法包含基於自眼睛追蹤裝置、攝影機或光偵測器中之一或多者所接收的信號而決定視域。
實例28:實例26之方法,該方法包含基於由攝影機所擷取的影像而偵測一或多個表面。
實例29:實例26之方法,其中感測器為感測器陣列,該感測器陣列包括觸控輸入裝置,該方法包含進一步部分地基於自觸控輸入裝置所接收的信號而產生投影機控制指引。
實例30:實例26之方法,該方法包含接收用於裝置之使用者之情境資訊,該情境資訊基於來自感測器之輸出。
實例31:實例26之方法,該方法包含接收情境資訊,該情境資訊用以包括部分地基於由攝影機所擷取的影像的社交場合之指示。
實例32:實例26之方法,感測器用以包含加速計,該方法包含接收情境資訊,該情境資訊指示基於來自加速計之輸出的使用者之活動程度。
實例33:實例26之方法,感測器用以包含全球定位系統(GPS)感測器,方法包含接收情境資訊,該情境資訊包括基於來自GPS感測器之輸出的裝置之位置之指示。
實例34:實例30至實例33中任一實例之方法,該方法包含自網路連接計算裝置接收情境資訊。
實例35:實例30至實例33中任一實例之方法,該方法包含基於感測器輸出而決定情境資訊。
實例36:實例26之方法,該方法包含進一步部分基於生活記錄資訊而產生投影機控制指引,該生活記錄資訊包括部分地基於感測器輸出的設備之歷史之指示。
實例37:實例26之方法,該方法包含進一步部分 地基於生活記錄資訊而產生投影機控制指引,該生活記錄資訊包括部分地基於由攝影機所擷取的影像的設備之歷史之指示。
實例38:實例37之方法,該方法包含進一步部分地基於在由攝影機所擷取的影像中所辨識的物件而產生投影機控制指引。
實例39:實例38之方法,該方法包含自網路連接計算裝置接收所辨識物件之指示。
實例40:實例36至實例39中任一實例之方法,該方法包含自網路連接計算裝置接收生活記錄資訊。
實例41:實例36至實例39中任一實例之方法,該方法包含基於感測器輸出而決定生活記錄資訊。
實例42:實例36至實例39中任一實例之方法,該方法包含基於由攝影機擷取的影像而決定生活記錄資訊。
實例43:實例30至實例33中任一實例之方法,該方法包含至少部分地基於情境自一或多個所偵測表面而決定表面。
實例44:實例43之方法,該情境用以包括視域之指示,該方法包含基於視域自一或多個所偵測表面而決定表面。
實例45:實例26至實例44中任一實例之方法,其中視域為能夠由裝置之使用者感知的地理範圍。
實例46:實例26至實例44中任一實例之方法,投影機控制指引用以包括定向之指示、楔形校正或最佳調色 板中之至少一者。
實例47:至少一機器可讀媒體,其包含多個指令,該等多個指令回應於在經組配來投影影像的可穿戴式計算裝置上所執行而致使可穿戴式計算裝置進行實例26至實例46中任一實例之方法。
實例48:用於可穿戴式計算裝置之設備,該可穿戴式計算裝置經組配來投影影像,該設備包括:處理器;投影機,其可操作地連接至處理器;以及記憶體,其包含多個指令,該等多個指令回應於由處理器所執行而引起投影機根據實例26至實例46中任一實例之方法來將影像投影至表面上。
實例49:用於可穿戴式計算裝置之設備,該可穿戴式計算裝置經組配來投影影像,該設備包括:偵測構件,其用於偵測一或多個表面;決定構件,其用於至少部分地基於來自感測器之輸出而決定視域中之一或多個所偵測表面中之一所偵測表面;以及產生構件,其用於產生投影機控制指引以致使投影機將影像投影至視域中之表面上。
實例50:實例49之設備,該設備包含決定構件,該決定構件用於基於自眼睛追蹤裝置、攝影機或光偵測器中之一或多者所接收的信號而決定視域。
實例51:實例49之設備,該設備包含偵測構件,該偵測構件用於基於由攝影機所擷取的影像而偵測一或多個表面。
實例52:實例49之設備,其中感測器為感測器陣 列,該感測器陣列包括觸控輸入裝置,該設備包含產生構件,該產生構件用於進一步部分地基於自觸控輸入裝置接收的信號而產生投影機控制指引。
實例53:實例49之設備,該設備包含接收構件,該接收構件用於接收用於裝置之使用者之情境資訊,該情境資訊基於來自感測器之輸出。
實例54:實例49之設備,該設備包含接收構件,該接收構件用於接收情境資訊,該情境資訊用以包括部分地基於由攝影機擷取的影像的社交場合之指示。
實例55:實例49之設備,感測器用以包含加速計,該設備包含接收構件,該接收構件用於接收情境資訊,該情境資訊指示基於來自加速計之輸出的使用者之活動程度。
實例56:實例49之設備,感測器用以包含全球定位系統(GPS)感測器,該設備包含接收構件,該接收構件用於接收情境資訊,該情境資訊包括基於來自GPS感測器之輸出的裝置之位置之指示。
實例57:實例53至實例56中任一實例之設備,該設備包含接收構件,該接收構件用於自網路連接計算裝置接收情境資訊。
實例58:實例53至實例56中任一實例之設備,該設備包含決定構件,該決定構件用於基於感測器輸出而決定情境資訊。
實例59:實例49之設備,該設備包含產生構件, 該產生構件用於進一步部分地基於生活記錄資訊而產生投影機控制指引,該生活記錄資訊包括部分地基於感測器輸出的設備之歷史之指示。
實例60:實例49之設備,該設備包含產生構件,該產生構件用於進一步部分地基於生活記錄資訊而產生投影機控制指引,該生活記錄資訊包括部分地基於由攝影機擷取的影像的設備之歷史之指示。
實例61:實例60之設備,該設備包含產生構件,該產生構件用於進一步部分地基於在由攝影機所擷取的影像中所辨識的物件而產生投影機控制指引。
實例62:實例61之設備,該設備包含接收構件,該接收構件用於自網路連接計算裝置接收所辨識物件之指示。
實例63:實例59至實例62中任一實例之設備,該設備包含接收構件,該接收構件用於自網路連接計算裝置接收生活記錄資訊。
實例64:實例59至實例62中任一實例之設備,該設備包含決定構件,該決定構件用於基於感測器輸出而決定生活記錄資訊。
實例65:實例59至實例62中任一實例之設備,該設備包含決定構件,該決定構件用於基於由攝影機所擷取的影像而決定生活記錄資訊。
實例66:實例59至實例62中任一實例之設備,該設備包含決定構件,該決定構件用於至少部分地基於情境 而決定來自一或多個所偵測表面之表面。
實例67:實例66之設備,該情境用以包括視域之指示,該設備包含決定構件,該決定構件用於基於視域而決定來自一或多個所偵測表面之表面。
實例68:實例48至實例67中任一實例之設備,其中視域為能夠由裝置之使用者感知的地理範圍。
實例69:實例48至實例67中任一實例之設備,投影機控制指引用以包括定向之指示、楔形校正或最佳調色板中之至少一者。

Claims (23)

  1. 一種用於一可穿戴式計算裝置之設備,該設備包含:一投影機,其用以投影一影像;一感測器,其用以產生輸出;以及一投影協調器,其可操作地耦接至該投影機及該感測器,該投影協調器用以:至少部分地基於該感測器輸出而決定一視域(visual field);部分地基於生活記錄資訊產生一投影機控制指引,該生活記錄資訊包括部分地基於該感測器輸出之一物件的一歷史,該投影機控制指引用以致使該投影機將該影像投影至該視域中之一表面上,該影像用以包括用來突出在視域中之該物件之一指示符;以及產生一控制指引以致使該投影機去投影一方向性影像來追溯在該生活記錄資訊中所記錄的路線。
  2. 如請求項1之設備,其中該感測器為一感測器陣列,該感測器陣列包括一觸控輸入裝置,該投影協調器用以進一步部分地基於自該觸控輸入裝置所接收的信號而產生該投影機控制指引。
  3. 如請求項1之設備,其包含一攝影機,該攝影機可操作地耦接至該投影協調器,該投影協調器用以部分地基於 由該攝影機所擷取的一影像而產生包括一社交場合之一指示的情境資訊且用以部分地基於該社交場合(social setting)而產生該投影機控制指引。
  4. 如請求項1之設備,該感測器用以產生情境資訊,且該投影協調器用以部分地基於該情境資訊而產生該投影機控制指引,該感測器用以包含一加速計以產生指示一使用者之一活動程度的該情境資訊,或該感測器用以包含一全球定位系統(GPS)感測器以產生指示一裝置之一位置的該情境資訊。
  5. 如請求項1之設備,其包含一攝影機,該攝影機可操作地耦接至該投影協調器,該投影協調器用以進一步部分地基於生活記錄資訊而產生該投影機控制指引,該生活記錄資訊包括部分地基於由該攝影機所擷取之一影像的一裝置之一歷史的一指示。
  6. 如請求項5之設備,該投影協調器用以進一步部分地基於在由該攝影機所擷取的該影像中所辨識的一物件而產生該投影機控制指引。
  7. 如請求項6之設備,其包含一生活記錄引擎,該生活記錄引擎用以基於由該攝影機所擷取的該影像而決定該生活記錄資訊。
  8. 如請求項6之設備,其包含一生活記錄引擎,該生活記錄引擎用以接收來自一網路連接計算裝置之該生活記錄資訊。
  9. 如請求項6之設備,其包含一物件認知引擎,該物件認 知引擎用以接收來自一網路連接計算裝置之經辨識的該物件之一指示。
  10. 如請求項1之設備,其包含一表面偵測器,該表面偵測器可操作地耦接至該投影協調器,該表面偵測器用以偵測鄰接於該設備的一或多個表面。
  11. 如請求項10之設備,其包含一攝影機,該攝影機可操作地耦接至該投影協調器及該表面偵測器,該表面偵測器用以基於由該攝影機所擷取的一影像而偵測該一或多個表面,該表面偵測器用以基於包含平坦、毛面、或著色之至少一者之特性來偵測該一或多個表面。
  12. 如請求項10之設備,該投影協調器用以至少部分地基於情境資訊而決定用以將來自經偵測的該一或多個表面之該影像投影於其上的該表面。
  13. 如請求項1之設備,該投影機控制指引用以包括一定向之一指示、一楔形校正或一最佳調色板中之至少一者。
  14. 如請求項1之設備,該感測器用以產生指示一使用者之位置的情境資訊,該投影協調器用以產生一控制指引,該控制指引用來致使該投影機基於該使用者之該位置而投影一方向性影像,以提供該使用者取得旅行之方向性之一視覺指示。
  15. 如請求項1之設備,該方向性影像包含被投影在一步行的表面上之一箭頭。
  16. 一種包含多個指令之至少一個非暫時性機器可讀取媒體,該等多個指令回應於在一可穿戴式計算裝置上執行 而致使該可穿戴式計算裝置進行:偵測一或多個表面;至少部分地基於來自一感測器之輸出而決定一視域中之經偵測的該一或多個表面中之一者;部分地基於生活記錄資訊而產生一投影機控制指引,該生活記錄資訊包括部分地基於該感測器輸出之一物件的一歷史,該投影機控制指引用以致使一投影機將一影像投影至該視域中之該表面上,該影像用以包括用來突出在視域中之該物件之一指示符;以及產生一控制指引以致使該投影機去投影一方向性影像來追溯在該生活記錄資訊中所記錄的路線。
  17. 如請求項16之至少一個非暫時性機器可讀取媒體,其中該等多個指令之執行進一步致使該可穿戴式計算裝置基於由一攝影機所擷取的一影像而偵測該一或多個表面。
  18. 如請求項16之至少一個非暫時性機器可讀取媒體,其中該感測器為一感測器陣列,該感測器陣列包括一觸控輸入裝置,且其中該等多個指令之執行進一步致使該可穿戴式計算裝置進一步部分地基於自該觸控輸入裝置所接收的信號而產生該投影機控制指引。
  19. 如請求項16之至少一個非暫時性機器可讀取媒體,其中該等多個指令之執行進一步致使該可穿戴式計算裝置用以接收用於一裝置之一使用者之情境資訊,該情境資訊基於來自該感測器之輸出。
  20. 如請求項19之至少一個非暫時性機器可讀取媒體,其中該等多個指令之執行進一步致使該可穿戴式計算裝置至少部分地基於該情境而決定來自經偵測之該一或多個表面的該表面。
  21. 一種由一可穿戴式計算裝置實行之方法,該方法包含:偵測一或多個表面;基於來自一第一感測器之輸出而決定一視域;至少部分地基於來自一第二感測器之輸出而決定該視域中之經偵測的該一或多個表面中之一者;部分地基於生活記錄資訊而產生一投影機控制指引,該生活記錄資訊包括部分地基於該感測器輸出之一物件的一歷史,該投影機控制指引用以致使一投影機將一影像投影至該視域中之該表面上,且該影像用以包括用來突出在視域中之該物件之一指示符;以及產生一控制指引以致使該投影機去投影一方向性影像來追溯在該生活記錄資訊中所記錄的路線。
  22. 如請求項21之方法,該生活記錄資訊包括部分地基於由一攝影機所擷取之一影像的該物件之該歷史。
  23. 如請求項22之方法,其包含進一步部分地基於在由該攝影機所擷取的該影像中所辨識的該物件而產生該投影機控制指引。
TW104125965A 2014-09-23 2015-08-10 用於可穿戴式計算裝置之設備、由可穿戴式計算裝置實行之方法及非暫時性機器可讀取媒體 TWI641968B (zh)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US14/494,146 US9924143B2 (en) 2014-09-23 2014-09-23 Wearable mediated reality system and method
US14/494,146 2014-09-23

Publications (2)

Publication Number Publication Date
TW201621552A TW201621552A (zh) 2016-06-16
TWI641968B true TWI641968B (zh) 2018-11-21

Family

ID=55526994

Family Applications (1)

Application Number Title Priority Date Filing Date
TW104125965A TWI641968B (zh) 2014-09-23 2015-08-10 用於可穿戴式計算裝置之設備、由可穿戴式計算裝置實行之方法及非暫時性機器可讀取媒體

Country Status (7)

Country Link
US (1) US9924143B2 (zh)
EP (1) EP3198860A4 (zh)
JP (1) JP6515179B2 (zh)
KR (1) KR102321132B1 (zh)
CN (1) CN106576156B (zh)
TW (1) TWI641968B (zh)
WO (1) WO2016048504A1 (zh)

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105159539B (zh) * 2015-09-10 2018-06-01 京东方科技集团股份有限公司 可穿戴设备的触控响应方法、装置及可穿戴设备
US10891574B2 (en) * 2015-11-17 2021-01-12 Target Brands, Inc. Planogram resetting using augmented reality in a retail environment
JP6561938B2 (ja) * 2016-08-05 2019-08-21 京セラドキュメントソリューションズ株式会社 印刷物処理システム
US10297085B2 (en) 2016-09-28 2019-05-21 Intel Corporation Augmented reality creations with interactive behavior and modality assignments
DE102017200484A1 (de) 2017-01-13 2018-07-19 Audi Ag System zum Ausgeben eines Ausgabesignals an einen Nutzer
CN107577344B (zh) * 2017-09-01 2020-04-28 广州励丰文化科技股份有限公司 一种mr头显设备的互动模式切换控制方法及系统
EP3506661A1 (en) * 2017-12-29 2019-07-03 Nokia Technologies Oy An apparatus, method and computer program for providing notifications

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20080111832A1 (en) * 2006-10-23 2008-05-15 International Business Machines Corporation System and method for generating virtual images according to position of viewers
TW200907644A (en) * 2007-08-13 2009-02-16 Asustek Comp Inc Portable computer
US20100199232A1 (en) * 2009-02-03 2010-08-05 Massachusetts Institute Of Technology Wearable Gestural Interface
US8558759B1 (en) * 2011-07-08 2013-10-15 Google Inc. Hand gestures to signify what is important
TW201403398A (zh) * 2012-01-09 2014-01-16 Epson Norway Res And Dev As 視覺互動系統的同步、辨識與追蹤之低干擾系統及方法

Family Cites Families (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE10306578A1 (de) 2003-02-17 2004-08-26 Carl Zeiss Anzeigevorrichtung mit elektrooptischer Fokussierung
EP2148504B1 (en) 2003-12-03 2012-01-25 Nikon Corporation Information Display Device
JP4747575B2 (ja) * 2003-12-26 2011-08-17 株式会社ニコン 情報表示装置
RU2452033C2 (ru) * 2005-01-03 2012-05-27 Опсигал Контрол Системз Лтд. Системы и способы наблюдения в ночное время
JP2007121600A (ja) 2005-10-27 2007-05-17 Yokogawa Electric Corp 画像情報表示装置
JP5374906B2 (ja) * 2008-04-07 2013-12-25 株式会社ニコン プロジェクタ
CN101488308B (zh) * 2009-01-21 2011-01-26 东北大学 智能导游系统及方法
US8382295B1 (en) * 2010-06-30 2013-02-26 Amazon Technologies, Inc. Optical assembly for electronic devices
US9213405B2 (en) * 2010-12-16 2015-12-15 Microsoft Technology Licensing, Llc Comprehension and intent-based content for augmented reality displays
KR20160084502A (ko) * 2011-03-29 2016-07-13 퀄컴 인코포레이티드 로컬 멀티-사용자 협업을 위한 모듈식 모바일 접속된 피코 프로젝터들
US9069164B2 (en) * 2011-07-12 2015-06-30 Google Inc. Methods and systems for a virtual input device
US8736692B1 (en) * 2012-07-09 2014-05-27 Google Inc. Using involuntary orbital movements to stabilize a video
JP2014044166A (ja) * 2012-08-28 2014-03-13 Sharp Corp 電子機器、進行方向提示方法およびプログラム
JP5942840B2 (ja) * 2012-12-21 2016-06-29 ソニー株式会社 表示制御システム及び記録媒体
US8957988B2 (en) * 2013-01-23 2015-02-17 Orcam Technologies Ltd. Apparatus for processing images to prolong battery life
US9475422B2 (en) * 2014-05-22 2016-10-25 Applied Invention, Llc Communication between autonomous vehicle and external observers
US10298825B2 (en) * 2014-07-23 2019-05-21 Orcam Technologies Ltd. Systems and methods for remembering held items and finding lost items using wearable camera systems

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20080111832A1 (en) * 2006-10-23 2008-05-15 International Business Machines Corporation System and method for generating virtual images according to position of viewers
TW200907644A (en) * 2007-08-13 2009-02-16 Asustek Comp Inc Portable computer
US20100199232A1 (en) * 2009-02-03 2010-08-05 Massachusetts Institute Of Technology Wearable Gestural Interface
US8558759B1 (en) * 2011-07-08 2013-10-15 Google Inc. Hand gestures to signify what is important
TW201403398A (zh) * 2012-01-09 2014-01-16 Epson Norway Res And Dev As 視覺互動系統的同步、辨識與追蹤之低干擾系統及方法

Also Published As

Publication number Publication date
EP3198860A4 (en) 2018-09-19
JP2017535095A (ja) 2017-11-24
JP6515179B2 (ja) 2019-05-15
TW201621552A (zh) 2016-06-16
US20160088268A1 (en) 2016-03-24
CN106576156A (zh) 2017-04-19
CN106576156B (zh) 2019-07-02
EP3198860A1 (en) 2017-08-02
WO2016048504A1 (en) 2016-03-31
US9924143B2 (en) 2018-03-20
KR102321132B1 (ko) 2021-11-02
KR20170036725A (ko) 2017-04-03

Similar Documents

Publication Publication Date Title
TWI641968B (zh) 用於可穿戴式計算裝置之設備、由可穿戴式計算裝置實行之方法及非暫時性機器可讀取媒體
US11670267B2 (en) Computer vision and mapping for audio applications
US10852841B2 (en) Method of performing function of device and device for performing the method
US11520399B2 (en) Interactive augmented reality experiences using positional tracking
CN105589732B (zh) 通过虚拟环境共享信息的设备和方法
US9727296B2 (en) Display switching method, information processing method and electronic device
WO2016045005A1 (en) User gesture driven avatar apparatus and method
US20160183869A1 (en) Device and Method Of Controlling Wearable Device
KR20220149619A (ko) 공유된 증강 현실 시스템
US11792517B2 (en) Pose tracking for rolling shutter camera
CN110022948B (zh) 用于提供锻炼内容的移动装置和与其连接的可佩戴装置
US20230161959A1 (en) Ring motion capture and message composition system
WO2023250361A1 (en) Generating user interfaces displaying augmented reality graphics
US11954885B2 (en) Display tracking systems and methods
US20220362631A1 (en) Virtual tastings and guided tours for augmented reality experiences
WO2022246384A1 (en) Late warping to minimize latency of moving objects
US12050772B2 (en) Eyewear device user interface
US20240193870A1 (en) Content creation platform for xr devices
US20220375026A1 (en) Late warping to minimize latency of moving objects
AlKassim et al. Sixth sense technology: Comparisons and future predictions
US20240282058A1 (en) Generating user interfaces displaying augmented reality graphics
US20240050831A1 (en) Instructor avatars for augmented reality experiences
KR20140110587A (ko) 디스플레이 장치 및 그의 아바타 디스플레이 방법

Legal Events

Date Code Title Description
MM4A Annulment or lapse of patent due to non-payment of fees