TWI756191B - 用於身體手勢介面及投影顯示器之系統及方法 - Google Patents

用於身體手勢介面及投影顯示器之系統及方法 Download PDF

Info

Publication number
TWI756191B
TWI756191B TW105135225A TW105135225A TWI756191B TW I756191 B TWI756191 B TW I756191B TW 105135225 A TW105135225 A TW 105135225A TW 105135225 A TW105135225 A TW 105135225A TW I756191 B TWI756191 B TW I756191B
Authority
TW
Taiwan
Prior art keywords
user
executable computer
computer instructions
gesture
sensor
Prior art date
Application number
TW105135225A
Other languages
English (en)
Other versions
TW201727439A (zh
Inventor
席德哈 S 海茲拉
哈森 S 艾爾-葛洛力
Original Assignee
美商傲思丹度科技公司
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 美商傲思丹度科技公司 filed Critical 美商傲思丹度科技公司
Publication of TW201727439A publication Critical patent/TW201727439A/zh
Application granted granted Critical
Publication of TWI756191B publication Critical patent/TWI756191B/zh

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/163Wearable computers, e.g. on a belt
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/002Specific input/output arrangements not covered by G06F3/01 - G06F3/16
    • G06F3/005Input arrangements through a video camera
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/013Eye tracking input arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/015Input arrangements based on nervous system activity detection, e.g. brain waves [EEG] detection, electromyograms [EMG] detection, electrodermal response detection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0346Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of the device orientation or free movement in a 3D space, e.g. 3D mice, 6-DOF [six degrees of freedom] pointers using gyroscopes, accelerometers or tilt-sensors
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/04812Interaction techniques based on cursor appearance or behaviour, e.g. being affected by the presence of displayed objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/04817Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance using icons
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/0482Interaction with lists of selectable items, e.g. menus
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04845Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range for image manipulation, e.g. dragging, rotation, expansion or change of colour

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Hardware Design (AREA)
  • Biomedical Technology (AREA)
  • Dermatology (AREA)
  • General Health & Medical Sciences (AREA)
  • Neurology (AREA)
  • Neurosurgery (AREA)
  • Health & Medical Sciences (AREA)
  • Multimedia (AREA)
  • User Interface Of Digital Computer (AREA)
  • Ultra Sonic Daignosis Equipment (AREA)
  • Position Input By Displaying (AREA)

Abstract

一種具有用於穿戴於(例如)一使用者之腕部上之一手勢介面之可穿戴系統。該系統包括一超音波收發器陣列結構且可包括用於在一表面上顯示一影像之一微投影機顯示器元件。藉由使腕部、手指及手姿勢關節運動以表示該使用者之該腕部之一時空剖面之超音波信號之形式接收使用者解剖特徵輸入,該等關節運動經轉化為手勢。來自慣性及其他感測器之輸入由該系統用作解剖特徵姿勢識別方法及器件之部分。使用一經數學模型化、基於模擬之組織物體之生物計量組來辨識手勢,該等手勢經轉換為可執行電腦指令。本文揭示之該系統之實施例亦可用於經由電腦網路或使用機載系統監測生物計量及健康資料。

Description

用於身體手勢介面及投影顯示器之系統及方法
本文之揭示內容係關於可穿戴技術、手勢辨識、擴增實境、人類-電腦介面、人類輸入器件、微或微型顯示器投影、生物醫學成像、超音波(本文中亦稱為「US」)及超音波掃描之領域。更具體言之,本文之揭示內容係關於一種用於身體手勢介面及投影顯示器之系統及方法及一種用於產生使用一人類解剖特徵之姿勢及手勢來控制一電腦、顯示器或其他器件之一手勢命令之可穿戴器件。使用已基於包括該特徵之組織物體之預定及使用者生物計量與一數學模型相關之該特徵之一超音波繪圖、時空剖面來獲得該等姿勢及手勢。
已知人類-電腦介面或互動(「HCI」)通道(有時稱為一「人機介面」或「HMI」)具有一有限頻寬。在當前HCI系統中,使用者通常透過一顯示器、螢幕或監視器(其為「人類接收」通道)接收資訊,且使用鍵盤/滑鼠/其他輸入器件(其經描述為「人類傳輸」通道)來將資訊傳輸返回至電腦。 接收通道具有可視為與相關聯之顯示器解析度及色彩空間成正比之一頻寬。傳輸通道具有由協同人類使用者之物理及機械熟練度之相關聯輸入器件之字母表大小限制之一頻寬。甚至隨著出現新的顯示技術(諸如體積光場(3D)顯示器),習知顯示技術在解析度上增大,將接收通道頻寬增大數千倍。雖然存在此等進步,但傳輸頻寬仍因需要訓練來開發熟悉度之非直覺機械介面或有限字母表手勢介面而受限制。 當在行動(智慧電話)顯示器的背景內容中考量時,習知解決方案中之此等問題被放大。雖然存在行動器件顯示器之普遍高的解析度,但人類視覺系統之有限顯示空間及視覺銳度迫使使用者及設計者兩者產生人/機互動的新範例。此藉由用於使用極少觸覺虛擬按鈕來導覽應用之多個螢幕之使用而例示。同樣地,可穿戴技術中之人體工學約束限制最大顯示器大小。此繼而產生習慣大型顯示器之使用者並不覺得使用小得多的顯示器或與之互動方便之問題,導致既具有一低傳輸又具有一低接收頻寬之可穿戴器件。 本文描述的實施例提供一種實現可穿戴影像投影之系統及方法以及一種手勢辨識介面,導致相較於類似習知器件,核心使用者體驗的顯著改良,同時解決之前描述之通道頻寬問題。 藉由容許一使用者從計算機器之內部狀態提取資訊且藉由容許該使用者輸入命令以控制該機器而使計算器件有用。電子顯示器通常用於資訊輸出,而機電鍵、觸摸螢幕或鍵盤通常用於輸入資訊至此等計算器件。 隨著器件變得更小、更薄、可攜帶且可穿戴,可用於顯示資訊及產生供使用者輸入資訊之舒適介面兩者之空間及大小減小。 此使開發多個新介面技術成為必需。例如,電腦現通常亦提供觸覺(振動或電)、聲學及/或溫度回饋輸出。電腦及行動器件亦可提供各種非傳統輸入技術(諸如機器視覺協助式手勢辨識之成像模態、語音辨識、慣性運動感測、肌電圖信號感測、腦波信號感測、生物機械應變感測器、經由生物介質之接觸聲學信號感測、腦部深層刺激感測技術(皮層電描記術或顱內腦電波描記法)及非侵入式生物成像感測技術(超音波掃描、磁共振成像、x射線成像))以及微型化機電開關來理解使用者意圖。 可穿戴計算系統之一個優勢在於其等一般始終可立即使用。在提取有用內容之前需要與多個按鈕或觸摸元件互動之一可穿戴系統因此無法轉化藉由此親密性給予之優勢。可穿戴計算機器可用的顯示空間亦仍受限制。無法使用現有顯示方法解決構造足夠大以可用作一可穿戴器件之一顯示器之美觀挑戰。 相對於輸入技術,本文描述之實施例之系統及方法利用一超音波傳輸器及接收器(其等當組合時通常被稱為一「傳感器」或「收發器」),其等可經穿戴於使用者之一解剖特徵(諸如手腕或頭部)上以對特徵之時空剖面進行繪圖。由於手腕含有手、拇指及手指之許多肌肉骨骼機械元件(即,屈肌/伸肌/外展肌/內收肌及肌腱)之一匯合,故可使用所揭示之超音波收發器或收發器陣列容易地偵測到其等之彎張/拉伸運動及組織變形。本文描述之實施例之經獲得之時空信號圖與具有優於現有器件之增大精確度之手腕或經選擇之解剖特徵之一三維(3-D)、經數學模型化、機械姿勢直接相關。手腕之經模型化之3D機械姿勢與獲得之超音波剖面圖結合用作計算系統之一多狀態離散或比例量測輸入。 本文描述之實施例之輸出可包括一或多個微型光學投影光顯示器(本文中亦稱為「微投影機」)。此等微投影機元件經組態以使用來自本文描述之實施例之輸入感測器及器件之輸入來在平坦及不平坦顯示器表面上呈現且顯示一光學準確光場。使用多個微投影機容許系統使用一或多個身體表面(例如,一手之手掌)或將所顯示之影像投影至其等上之外部表面。 在習知輸出技術的情況中,視覺顯示器一般具有相較於其他模態(聲學或觸覺)最大之資訊頻寬。因此,顯示器對於使用者而言係一較佳資訊接收通道。然而,相關資訊頻寬與螢幕大小及解析度成正比,使得小螢幕大小及對人類視覺銳度之限制限制可藉由習知可穿戴技術傳送之總資訊。 輸入技術面臨相似限制及挑戰。基於機電開關之輸入技術仍將最高資訊輸入頻寬提供至一計算器件且提供一良好使用者體驗。不幸的是,使用者(從手指)之平均可用觸覺面積保持恒定,且觸覺鍵之微型化不可能超過一有限範圍。基於各種電子模態之觸摸螢幕已因為它們不佔空間而變為受歡迎,但觸摸輸入模態相較於機電鍵具有一較低頻寬。觸摸能力亦變得難以對用於可穿戴器件中之愈加小之螢幕大小實施。其他輸入技術在各種成熟狀態中,但主要使用統計方法論來估計使用者意圖,一般導致降級的使用者體驗。 下文論述有關各種商用技術中之手勢辨識及控制之特定習知方法之特定模仿。 已更多關注基於機器視覺之手勢辨識。此包含使用多個成像模態,諸如使用電磁光譜中之不同頻率、經圖案化或塑形之電磁波、多視角影像捕獲、空氣耦合式超音波發射器及接收器、射頻天線陣列等。此等器件產生環境之2D或體積影像,接著信號處理技術用來將使用者與背景隔離以辨識使用者之手勢。此等方法遭受多個缺點,包含: 1.此等習知方法傾向於捕獲使用者影像資訊以及背景影像資訊且需要大量硬體及軟體/處理努力來區分兩者。使用展現大變動之統計假設來頻繁製造不同。 2.     此等相同方法頻繁地無法捕獲估計一解剖特徵之一手勢所需之所有輸入資料,此係因為關鍵資訊被非自主地擋住或未被影像器件感測到。 3.     此等方法對使用者服飾設置限制(例如,無手套、無袖套、環),且此等方法可被使用者之手中之物體誤導且無法由被截肢使用者或具有特定醫學殘疾之人使用。 4.     在併入一外部感測方案之習知應用中,此等系統不容易攜帶且相關感測器必須附著在相對於使用者之非常特定位置處。 5.     許多習知解決方案導致通常被稱為「大猩猩臂(gorilla arm)」之重複使力傷害且可對一使用者之身體要求高。 6.     習知手勢辨識解決方案通常對使用者環境(淩亂、背景照明、感測器相對於地板之位置)設置限制以便使感測器準確地工作且許多系統將一使用者之運動限制在特定位置或邊界內。 7.     在感測器之實際視野方面,習知機器視覺方法一般提供極少回饋或不提供回饋給使用者。此頻繁地在使用者無意地踏出感測攝影機可接達之區時導致頻疊。 8.     習知機器視覺系統可使用多個攝影機設置且捕獲冗餘資料集。此繼而增大硬體需求及延時,儘管大部分資料最終作為背景被丟棄,從而降低感測器效率且浪費處理能力。 9.     習知光學手勢辨識系統亦頻繁經歷必須個別處理之假影(例如,來自運動模糊、透鏡失真、陰影及照明之該等假影)。 手勢辨識之另一習知方法係基於嵌入一手套狀殼體中之感測器。此習知方法之感測器通常量測在四肢中之關節處之變形以產生姿勢估計。此一系統之主要限制為穿戴一不舒適且干擾性手套狀系統之要求,其中用於手套設計中之織物之彈性可負面影響解剖特徵之姿勢估計。 一更新近之習知輸入技術經描述為生物聲學感測。此方法一般涉及放置在人類手上之特定位置處之振動感測器,其等在一使用者觸摸或輕觸其等主體之特定位置時量測振動傳輸資訊。此生物聲學系統之一些主要限制為: 1.     僅可判別性地使用此等方法。新的手勢或輕觸位置無法被區分,因此限制此等系統可辨識之手勢之解析度及可用數量兩者。 2.     歸因於振動傳輸需求,此方法限制一使用者在使用此一系統時可穿著之服飾。 3.     生物聲學系統需要使用兩隻手。 4.     用於生物聲學中之感測器僅可基於組織密度放置於特定身體位置處。 特定其他習知手勢辨識技術係基於自人類身體提取之電生理信號。一些常見實例係基於肌肉之電活動之肌電圖(EMG)信號及基於腦電圖(EEG)信號之技術,EEG信號係基於神經系統及人腦的電活動。如在微皮層電描記術中使用,用以提取此等信號之侵入式技術不切實際,此係尤其其等需要手術或內插用於放置之針狀電極且僅用作最後手段、生命條件改良選項。 EEG或EMG之習知非侵入式方法可使用放置於頭部(針對EEG)或特定肌肉(針對EMG)周圍之表面電極。此等手勢辨識方法之一實際問題在於產生此等信號背後之科學尚未被良好理解且大多數手勢辨識演算法判別性地操作。在非侵入式EEG/EMG系統,每一新的手勢需要偵測且訓練一特定、可辨識電信號。此限制可藉由此等系統記錄之手勢之總數目。此等習知方法中之另一缺點在於相關信號具有非常差之信雜比,導致較差之手勢估計。因為所需表面電極從EEG/EMG中之不同位置中之多個組織拾取平均輸入,故此等系統具有減小手勢判別之精確度的趨勢且亦需要感測器位於具有重度電活動之區中。此等系統之精確度及有限手勢判別能力之總體問題傾向於限制其等用於商業應用。 最近,已嘗試基於習知慣性量測及姿態及朝向參考之姿勢感測系統,但其等遭受之前在其他習知手勢辨識嘗試中論述之許多或所有問題。 除上文論述之手勢辨識技術外,亦存在有關使用用於辨識手勢之可穿戴超音波收發器以及可穿戴微型化微投影系統之公開文獻。在下文論述習知可穿戴超音波手勢控制及投影方法之缺點。 現將論述與可穿戴超音波器件相關之下列文件:K. Beach在1996年10月10日申請之美國專利第5,818,359號;Y. Zheng在2002年8月1日申請之美國專利第6,984,208號;Y. Son在2010年7月21日申請之美國專利第8,292,833號;S. Sikdar等人在2012年8月1日申請之美國專利公開案第2013/0041477號;及Guo, JY.等人之「Dynamic Monitoring Of Forearm Muscles Using One Dimensional Sonomyography System」,JRRD,45 (1),2008。此等揭示內容皆不考量當穿戴該器件時由機械夾具或外部接觸件施加之壓力。阻止一可穿戴器件跨或沿著人體解剖特徵滑動之夾具始終對身體部分自身施加大量壓力(例如,腕錶之錶帶、領帶、帽、褲子之腰帶、用於短褲之彈性帶)。此壓力使皮下組織配置及內部解剖物體之結構顯著更改、再定位及變形,諸如已知在輕微壓力下破裂之靜脈或在所施加之壓力下在近側腕背表面區中自行重新配置之肌腱。 此等組織重新配置在多個穿-脫循環之間不一致地發生且因此影響從解剖特徵接收之超音波信號特性。在以上參考中揭示之嘗試未教授任何方法以控制或減輕藉由此等夾具產生之身體內部物體及組織上之機械應力效應。它們亦未論述當(例如)一使用者之前臂及手抵靠一外表面擱置或支撐或接觸一外表面時引入之信號擾動。抵靠肘部區上方之上臂之壓力顯著影響穿過皮膚之信號且使特徵內之物體的組織變形。 人類組織具有高度各向異性及非均質聲學散射性質。因此,由替換收發器時之滑動或不一致造成之超音波收發器陣列之微小旋轉鉸接可非預期地導致非常大之信號變動。 手勢辨識應用中之另一問題係身體組織內之慣性引發運動(包含靜態及振動偏轉兩者)。人類肢體之正常日常運動及關節運動導致其組織相對於一超音波收發器或陣列之相對內部、慣性運動。藉由收發器自身表示之慣性質量將影響組織在其等緊鄰附近中之慣性回應,可能歸因於組織在慣性負載下之機械變形而劣化信號品質。 當包括一關節(例如,一腕部)之一解剖特徵經歷旋轉時,關節周圍之皺褶處存在變形且鄰近皮膚傾向於連同經歷垂直於關節之軸之位移之肌腱一起起褶。此起褶皮膚/移動中肌腱結構抵著一外部穿戴物體(諸如一手錶、帶、束帶或其他可穿戴器件)施加向外壓力。此當在腕部處使用利用凸面聲學透鏡之一可穿戴超音波探針時特別成問題,此係因為此可使探針旋轉遠離所關注剖面或移動至適當位置中。此繼而歸因於組織中之各向異性而劣化返回超音波信號品質。在經識別的先前文獻中之任一者中未解決此問題之解決方案。 未藉由習知方法解決之一額外考慮係重力自身之效應。人類手指及身體部分具有大的質量且其等之組織不夠堅硬來抵抗重力效應下之非自主變形。此等非自主變形導致所有模態中之精確手勢辨識中之問題。超音波被視為當前可用之最安全之成像模態之一者。然而,此安全聲譽假定藉由限制劑量次數及強度且特定追蹤特定US效能指數而減輕US曝露風險。需要組織之長期聲透射的超音波器件必須關注安全性且提供故障安全設計,但是本文論述之習知方法未直接解決安全第一之設計考慮。 在一可穿戴器件應用中,大多數商用現貨超音波收發器與相關傳輸介質(即,生物組織)阻抗失配。存在一些(例如) 1-3或2-2壓電複合物,其等提供經改良阻抗匹配,然而,此等器件未解決空氣-皮膚輪廓阻障及穿過它的洩漏。習知US收發器之實際實施方案依賴凝膠/油(見Y. Zheng在2002年8月1日申請之美國專利第6,984,208號)或根本未提及US耦合介質(見S. Sikdar等人在2012年8月1日申請之美國專利公開案第2013/0041477號),因此假定使用凝膠、油或一特定阻抗匹配介質。每次使用在應用收發器之前及在任何信號傳輸之前需要上文論述之US凝膠施敷。顯然,使用凝膠或油係極不方便的且不適合於實際使用。 從一演算法角度看,手勢辨識之習知嘗試使用判別模型(諸如針對一組參考或預定義手勢表示(諸如儲存於一查找表(「LUT」)中)之斑點追蹤、正規化交叉相關及加權平均光學流量計量),自用於在脈衝回波/延遲求和資料之US掃描轉換後獲得之全域影像(或局部子影像)內辨識手勢之一訓練會期獲得該組參考或預定義手勢表示。若存在,使用熟知、預訓練分類演算法來執行手勢辨識;否則簡單報告最高相關分數。 此等習知方法之一關鍵瑕疵係其等需要一經標記、事先訓練資料集,其中一使用者「分類」或(例如)定義使一食指完全彎曲之含義。使用者可極少地精確再現手勢,導致累積偏差。此需要使用者再訓練軟體且將使用者限制至特定預定義手勢。此等統計定義手勢(其中一電腦無法自然地辨識一食指與一拇指)導致使用者介面互動受挫。 此等方法之另一問題在於其等係「參考性的」或判別且非生成的。因此,其等具有藉由訓練期間所使用之手勢精確定義之非常有限之字母表大小(即,一演算法之一實施方案可從使用者實際上可產生之手勢及姿勢的整個集合區分之手勢之總數目)。此等手勢無法以辨識自其他手勢之一組合獲得之一新的手勢之方式組合。 例如,移動一食指、移動一拇指及一起移動一拇指及食指各具有一超音波時空信號空間中之獨有表示。此等表示並非基本手勢之線性函數。因此,藉由個別移動食指及拇指獲得之訓練不會產生識別同時移動食指及拇指兩者之一條件之一線性方法。因此,習知方法可增大此等系統中之字母表大小之唯一方式係藉由增大訓練期間定義之個別手勢之數目。例如,移動一食指、移動一拇指及一起移動一拇指及食指表示需要個別訓練之三個獨有手勢。此導致兩個問題:一個問題,其中每一影像圖框中之一手勢偵測需要在整個訓練語料庫內計算分數,此導致更大計算複雜度及減小之圖框速度以及增大之延時。及第二個問題,其中大訓練資料集亦迫使使用者花費更長時間訓練演算法,此在商用產品中係乏味且無法接受的。例如,替代僅針對一移動食指及一移動拇指進行訓練,表示兩個手勢且使用該資訊來估計兩個手指何時同時移動,習知技術需要針對三個個別手勢進行訓練。 S. Sikdar等人在2012年8月1日申請之美國專利公開案第2013/0041477號揭示使用使用者解剖特徵之回波反射性作為地標點,諸如用於預標定組織及肌腱位置之骨骼。所揭示方法之一關鍵問題在於解剖組件之特定位置無法一致地相對於跨族群之地標點參考,且其等在整個量測程序中可能不可見。例如,雖然拇長屈肌存在於大多數使用者體內,但可能不在相對於一地標點(諸如使用者體內之尺骨或橈骨)之一特定位置中。因此,基於靜態地標點之預標定對用於手勢辨識之演算法無效。 用於最新技術US手勢辨識文獻中之演算法通常依賴影像處理。此藉由廣泛使用用於傳統的基於影像圖案匹配中之正規化交叉相關計量而證明。影像處理非預期地需要使用2D US影像形成,該2D US影像形成在後端處US後處理中之稱為「掃描轉換」之一程序期間發生。此程序引入空間及時間內插及頻疊假影,不直接表示或利用自回波描記術獲得之原始US資料,亦非甚至在非成像應用中需要之掃描轉換。此影像形成/掃描轉換引入非需要之硬體及延時額外負擔;例如,用以儲存圖框之記憶體緩衝器及用以儲存、擷取或存取緩衝器之時間。 習知手勢辨識一般在人類生理實際上並非靜態時假定其係靜態的。此假定藉由頻繁使用習知演算法中獲得之靜態、一次性訓練參考繪示。因此,習知方法未考量衰老(老化)、個體發育(發展性)及生活方式相關之改變。 另外,上文論述之手勢辨識參考之任一者皆未教示在任何診斷或一般保健模態中使用X射線攝影術。此外,其等均未提供明確作為超越簡單訊息顯示之其等手勢辨識演算法之一部分之介面技術。此等方法使用中心頻率方法,且其等技術係基於脈衝回波及延遲求和模態。其等進一步將一非儀器化方法用於其等演算法,其中其等量測程序不受其等量測之性質影響。 Y. Son在2010年7月21日申請之美國專利第8,292,833號主張將一器件定位於「腕部」且使「腕隧道」成像。器件被理解為使隧道中之屈肌腱成像且將一波形與自收發器獲得之返回信號相關聯。美國專利第8,292,833號之器件被理解為使用來自假定與手指彎曲對應之慣性量測單元之信號來辨識一使用者是否移動一手指。 存在美國專利第8,292,833號之實施方案所獨有的若干問題。肌腱在腕隧道區中壓縮在一起。所有肌腱傾向於在隧道中交感性地一起移動(因為封閉性質)。繞俯仰、側傾及橫擺軸之腕部或肘部關節運動導致腕隧道處之變形,亦導致肌腱的明顯運動。因此,在此方法中,獲得之信號遭受重度交感性遮蔽及頻疊。另外,任何手指之任何關節運動需要至少兩個肌腱(一屈肌及一伸肌)對抗性地工作,伸展之一手指將導致對應屈肌之極小變形,反之亦然。由於伸肌肌腱不垂直穿過腕隧道且由於肌肉群(諸如外展拇短肌或蚓狀肌)參與手指關節運動,故此實際上嚴重限制可使用此一方法感測到之實際姿勢。 用於在先前陳述之參考中安裝於一腕部上之手勢辨識系統中之慣性量測感測器經組態以偵測特定於腕部位置之絕對旋轉、定向或加速度。因此,其等從腕部關節運動及前臂運動兩者拾取慣性回應(除來自個別手指之運動外)。參考既不呈現區分此等無意激活之任何解決方案,亦非已知存在於文獻中之任何相關一般用途演算法。一般言之,歸因於此等系統之欠定性質,慣性量測單獨無法解決此等問題。 可穿戴投影系統亦在下列文件中論述:A. Tony等人在2011年3月31日申請之美國公開案第2012/0249409號;C. Harrison等人在2011年5月17日申請之美國專利第US 8,619,049號;P. Mistry等人在2010年2月3日申請之美國專利公開案第2010/0199232號。此等之任一者皆未論述所用之投影技術之有意義細節。最新技術可穿戴或微型化「微投影」方法可係基於四種技術,雷射掃描、矽上液晶(LCoS)、數位光投影(DLP)或微型發射OLED技術。 微型發射OLED技術並不被視為微投影之一有用模態,此係因為其未產生足夠光輸出或亮度以使實際投影發生。除空間光調變器單元、投影光學器件總成、功率驅動器積體電路及像素調變積體電路外,DLP/LCoS兩者亦需要照明LED、準直光學器件、組合光學器件、均質機、波束分離器、偏光再循環系統,此等引入對此等光引擎可具有之最小體積佔用面積之約束。 雷射掃描技術具有斑點形成之問題,其等需要使用光學及光子多樣性來降低經投影影像中之斑點對比度,且需要使用額外硬體。在此等系統中用作照明源之LED及雷射二極體佔據體積且需要大量熱管理系統。此等器件之大小僅可藉由減小此等系統之總光輸出而管理,且即便如此,系統體積實際上無法更進一步降低,從而限制可穿戴技術系統中之採用。 顯然,習知可穿戴手勢辨識及投影系統係基於並非精確符合可穿戴器件形狀因數或可容許設計中嚴重受限之技術。此亦使用多個嵌入式微投影元件來約束系統之設計且將設計限制於用來在一單一表面上顯示投影影像之該等設計。 習知嘗試未考慮許多投影表面(例如,人類皮膚)具有不一致之光學特性。藉由基於皮膚表面之光學特性、房間之周圍照明以及手之姿勢/手勢之一非線性增益函數變換一使用者之皮膚表面上之投影光。螢幕增益及周圍照明已係掛牆式投影顯示器之顯著挑戰,且一般藉由使用高強度燈解決,且身體投影約束使此顯示品質甚至更具挑戰。 習知技術微投影方法未考慮一可穿戴器件之一投影表面之幾何形狀可能不平坦且可在具有3D時變變形之一2D皮膚表面上之事實。皮膚表面下方之肌腱之任何運動及任何軟組織變形使投影光在多個方向上偏轉,產生對比度損失以及效率及亮度損失。若顯示器投影之身體部分在顯示期間經歷一姿勢改變,則問題變得更困難。 微投影技術中所做之一常見假定係預期投影表面係(或將係)垂直於投影光。若投影表面在平面內旋轉,則其旋轉達一一致角度值。此用於梯形失真校正中。但身體表面將可能具有多個非線性曲率且習知方法之任一者皆不考量此。考量此等非線性曲率需要將影像解析度從線性轉換為非線性,且必須在顯示技術中實體地考量或藉由使用已知降低用於此等顯示器中之高效解析度之軟體扭曲演算法考量。 特定習知方法主張使用不返回關於實際組織變形之資訊的手勢辨識技術。例如,C. Harrison等人在2011年5月17日申請之美國專利第8,619,049號論述使用生物聲學感測,其之缺點在之前論述。A. Toney等人在2011年3月31日申請之美國專利公開案第2012/0249409號設想使用不提供具有任何保真度之實際姿勢辨識之低解析度技術。因此,此等習知解決方案不提供高解析度構件來考量姿勢引發、軟組織變形。 如提及,上文論述之習知方法使用判別方法來辨識手勢而非使用生成模型。例如,美國專利公開案第2012/0249409號需要使用預定義激活位置,且美國專利第8,619,049號使用基於判別之先前訓練資料。此大幅限制此等方法之互動模態及投影能力。 需要一種手勢辨識及微投影系統及方法,其解決習知方法中之以上缺點且提供利用人手及腕部或其他解剖特徵之大型手勢字母表之高解析度手勢辨識。
相關申請案之交叉參考 本申請案主張2015年10月30日申請之美國臨時專利申請案第62/249,021號之權利,該案之全部內容以引用的方式併入本文中。 為克服上文描述之限制,本文描述之實施例之系統及方法實現一可穿戴且行動手勢辨識系統,其由複數個投影及傳統顯示器系統組成,同時使用複數個超音波收發器及感測器元件獲得高保真度使用者手勢輸入。 在一實施例中,系統可穿戴在腕部,而藉由手之手背及手掌態樣提供顯示器投影表面。在此實施例中,藉由使腕部、手、手指及拇指姿勢關節運動而接收使用者手勢輸入,且獲得包括腕部之解剖物體之一US時空剖面圖,一姿勢經估計且轉換為可執行電腦指令。使用經數學模型化、基於模擬之手勢辨識系統方法來獲得可執行電腦指令,該系統及方法亦可從一或複數個使用者定義之機械及電子感測器接收輸入。 為本申請案之目的,術語「姿勢」係指一個或一組人類解剖特徵之靜態或瞬時動態位置、定向或其等兩者。藉由實例而非限制,一姿勢可包含一人之手、腕部、拇指及手指之位置或定向或其等兩者,諸如其中在一「指向」位置中,食指實質上水平伸展且拇指及剩餘手指握緊靠近手掌。藉由如在圖7中展示在各關節處之狀態或自由度(DOF)之值之一組合唯一地識別此等姿勢。 一姿勢之另一實例可包含一定向,其中手之手指及拇指保持向上且抵靠彼此,其中平坦手掌垂直地面朝外,如可展現為「停止」或「停住」之一命令。 為本申請案之目的,術語「手勢」可係指如之前定義之一個別姿勢。此外,術語「手勢」可係指連續呈現(靜態或在沿著一運動路徑之瞬時點)之一組個別姿勢,即,包括一人類解剖特徵之一運動路徑之一組瞬時姿勢,諸如一手從一個角度之腕部位置沿著運動路徑揮動至一個或複數個不同角度之腕部位置。一手勢之一進一步實例可包含將一拳頭從一打開手掌位置閉合或緊握至一閉合位置。一獨有手勢可包括關節之多組狀態或自由度值 (即,姿勢)之間的多個獨有轉變。 如可預期,若可識別包括一動態手勢(即,移動)之個別姿勢組,則可辨識該手勢。由於一人類手之腕部、手指及拇指之關節之數目及許多自由度,故易於瞭解,存在一手、手指及拇指可呈現之許多可能的靜態或瞬時動態姿勢及手勢。 應明確注意,雖然本文之一姿勢及手勢之描述實例係相對於一人類手、手指、拇指及腕部,但術語「姿勢」及「手勢」將視為可應用至人類及非人類動物解剖學之所有態樣,包含但不限於一人類或動物之面部、頸部、頭部、臂部、肘部、肩部、脊柱、臀部、腿部、膝蓋或腳踝。 本文揭示之一項實施例(部分)利用經選擇之人類解剖特徵之一新穎數學模型,其包括一預定「物體」資料集作為用於產生數學模型之一基準資料集,該資料集在數學上表示組成解剖特徵之內部及外部人類組織元件(本文中為「物體」)。可藉由從「雲端」或其他外部資料儲存媒體或源將該資料集下載至系統而提供預定物體資料集。 物體資料集表示相關解剖特徵之預定內部及外部組織物體之複數個使用者定義之生物或生物機械特性或計量(統稱為「生物計量」),且用作初始變量集來開發包括解剖特徵之物體之模型。 在一項實施例中,提供一模型,其使用生物計量及方程式之物體資料集來建立生物計量與因此物體之間的大量數學關係以在數學上描述該解剖特徵及其組織物體。模型可包括如數學模型化領域之技術者所知之統御、構成或運動方程式及約束之任何組合。 物體資料集可表示人類族群之一經選擇子集之一個或一組平均或典型生物解剖特徵計量(諸如藉由人類族群之重量、高度、性別、年齡、種族或任何使用者定義之子集)。物體資料集可包含使用者定義之生物計量之任何組合。藉由實例而非限制,物體資料集可包括複數個內部或外部身體結構、組織或元件之一組生物計量(例如,身體、生理或生物機械)。物體可包括(例如但不限於)肌肉、肌腱及韌帶、骨骼、血管、表皮或真皮或此等物體之任何組合。 物體資料集可包括物體之生物計量之一使用者定義組,該等計量可包括(例如)物體位置、其與解剖特徵中之另一物體之相對位置、最大預期物體位移或變形、物體運動範圍、相對於解剖特徵中之其他物體之相對運動範圍及角度、物體自由度、半徑、周長、回波(即,超音波)性質、彈性、形狀、長度、厚度、寬度、剖面幾何形狀或密度或骨突及其他生物機械特徵性質或能夠經數學模型化之性質(包含諸如藉由有限元素分析(FEA)或可變形動態網分析)之任一者或組合。 在圖1A中展示之方法之一個態樣中,揭示用於產生一手勢命令至一人類-電腦介面系統中之一計算器件或處理元件之一方法。在方塊101處,提供一使用者之一解剖特徵之複數個預定內部或外部物體之一數學模型。在所繪示之實施例中,解剖特徵係一人類腕部。數學模型提供技術以模擬來自人體中之此等物體之任何任意組態之超音波量測且將經模擬量測與從方塊102獲得之實際量測超音波資料比較,且評估模型及任意組態在預測物體之實際組態時之契合度。 在方塊102處,藉由對使用者之解剖特徵之一時空剖面進行超音波繪圖而自複數個內部及外部生物元件、結構、特徵(即,「物體」(例如,骨骼、肌肉、肌腱等))之使用者之解剖特徵獲得一組超音波信號資料。 在方塊103處,藉由使超音波信號資料與自物體之組態之數學模型獲得之模擬結果相關而識別使用者之解剖特徵之物體或諸物體之至少一個預定性質(例如,尤其為變形、速度、形狀、位置)。在方塊104處,接著至少部分基於物體或諸物體之經識別性質估計使用者之解剖特徵之一姿勢。 方法之姿勢估計可進一步基於從一感測器元件接收一感測器輸出,該感測器元件經組態以量測使用者之一預定事件、環境或身體改變或狀態之至少一者。 方法之感測器元件可由一加速計、一陀螺儀、一壓力感測器、一GPS感測器、一麥克風、一電磁成像感測器、一周圍光感測器、一色彩感測器、一角度感測器、一電生理感測器、一EMG感測器、一生物聲學感測器、一RFID天線、一超音波測距感測器、一高頻率收發器陣列、一電磁場及一近接感測器之群組之一或多者組成。 在圖1A之實施例中,方法可在方塊105處基於經估計姿勢或諸姿勢及經識別手勢進一步產生一預定可執行電腦指令或命令。 方法之電腦指令可經組態以修改一電腦螢幕上之一顯示資訊或修改投影至一表面上之一顯示資訊,該表面可係一人類解剖特徵之非線性表面(即,皮膚或服飾)。 在一進一步實施例中,系統可在不被穿戴的情況下使用,且任何可用表面(諸如一牆壁或桌子)可用作投影顯示表面。在此情況下,可透過嵌入系統之帶元件中之機電開關及電磁/機械振動感測器之一選擇而接收使用者輸入。在另一實施例中,系統可用來藉由經由一電腦網路將物體之經識別性質傳輸至一遠端那位置以供一保健專業人員分析而經由電腦網路或使用機載系統監測一解剖特徵之生物計量及健康資料。 圖1B係可穿戴系統1之特定實施例之一非限制性繪示,該可穿戴系統1可經穿戴於(例如)一人類腕部、前臂、上臂、左臂或右臂上、或繞頸部穿戴、或附著於眼部附近或附著至跨身軀之任何區。系統1亦可在左腿或右腿或左腳或右腳上繞大腿、膝蓋、腳踝穿戴。在本文描述之一些實施例或實施例之應用中(諸如用於醫學應用之實施例),系統1不需要包含影像顯示器或投影元件。 其他實施例可經組態以使用一智慧型電話或行動器件或經由有線或無線網路接收及發送資料。在另一模態中,系統可配備微投影顯示器模組且可具有一或多個固定顯示器,例如LCD。如在圖1B中展示,在一些實施例中,可組合使用一或多個系統1。在此等實施例中,系統1彼此通信以共用資訊。 圖2A至圖2B繪示一實施例,其中一系統(諸如圖1B中展示之系統1)繞一腕部穿戴。當繞腕部穿戴時,系統1可包括用於繞一腕部之圓周穿戴之一帶元件5且如展示般包括一鉸鏈10及閂鎖15。系統1亦可包含一或多個超音波(US)收發器25以及電子LCD顯示器20'。 雖然帶元件5出於繪示之目的描述,但應注意,一般平坦之結構可經附著至一人類解剖特徵(諸如一身軀)之表面而非一帶元件5,且此一結構被預期為落入本文之申請專利範圍之範疇內。 圖3繪示可包括系統1之例示性代表性硬體子系統。一第一投影顯示器組件可係本文中稱為一「微投影機」20之一微型化顯示器投影模組。作為一代表性實例,圖3描繪經安置於繞帶元件5之外圓周表面之表面之預定、間隔開位置處之多個微投影機20及電子LCD顯示器20'。 一或多個超音波(「US」)接收器/傳輸器或US收發器25 (其可呈由US收發器子單元之一陣列組成之US收發器陣列之形式)安置於繞帶元件5之內圓周表面之預定、間隔開位置處。收發器25經耦合至電子及處理電路,該電子及處理電路經組態以實現超音波能量之傳輸及接收且經組態用於個體解剖特徵之一時空剖面之繪圖。 系統1可進一步包括常見機電輸入系統元件(諸如按鈕、開關、輪及觸摸表面元件27)以供輸入至系統1。系統1可包括可變張力閂鎖15及鉸鏈10以將一經電子控制之可變張力引入帶元件5中。閂鎖15及鉸鏈10可經組態以感測且提供基於壓力之觸覺回饋給一使用者。 系統1可包括充當一介面且安置於帶元件5與使用者之皮膚之間的一或多個聚合物聲學層30。聲學層30經設計以提供使用者定義之聲衰減、熱隔離且產生與一使用者之皮膚之軟且連續接觸以促進皮膚組織與系統1之間的一順應介面。 系統1可包括一或多個彩色RGB攝影機35,其等包括經組態以捕獲一使用者之皮膚組織色調及色彩及/或繞使用者之周圍照明之像素陣列。出於使用者定義之數位影像獲取之目的,系統1可包括額外攝影機及光學件子總成35'。帶元件5之一或多個部分可用作用於系統1之無線天線通信37之I/O。 系統1可包括一或多個揚聲器/麥克風子系統40,其等出於聲音輸出、捕獲使用者語音或估計使用者頭部位置之目的經配置成一使用者定義之型樣。系統1可包括一或多個振動回饋系統(未展示),該一或多個振動回饋系統經配置成一陣列或網格以提供振動觸覺回饋給一使用者。 如在圖3中描繪,系統可包括一或多個溫度感測器網狀陣列45,該一或多個溫度感測器網狀陣列45經耦合至一使用者之皮膚或使用者之身體之內部系統溫度。溫度感測器45可經提供為一網狀陣列以針對故障安全熱監測而監測使用者之內部身體或組織溫度。 圖4繪示一系統架構400,其描述一系統(諸如系統1)之一組實例子系統(其等取決於使用者應用提供)且繪示一組系統核心元件410。 架構可包括一或多個通信介面420,諸如Wi-Fi、藍芽(Bluetooth)、有線、RFID或近場通信。系統1輸出元件430可包括電子顯示器元件,諸如發射式及非發射式2D顯示器、光場或3D顯示器、揚聲器或觸覺系統。在一項實施例中,光場顯示器系統係包括一擴增實境顯示器系統或虛擬實境顯示器系統之一可穿戴近眼式顯示器系統。適合配合本文描述之實施例使用之具有廣視角之實例3D顯示器、超高解析度2D顯示器或2D/3D可切換顯示器包含(不限於)在2014年10月7日頒予Hussein S. El-Ghoroury等人之題為「Spatio-Temporal Directional Light Modulator」之美國專利第8,854,724號中揭示之該等顯示器,該專利之各者之全部內容以引用之方式併入本文中。系統1輸入440可包括慣性量測感測器,諸如一加速計或陀螺儀、壓力感測器、GPS感測器及位置資料之接收器、一麥克風、一電磁成像感測器、一周圍光感測器、一色彩感測器、一角度感測器、一電生理感測器、一EMG感測器、一生物聲學感測器、一RFID天線、一超音波測距感測器、一高頻率收發器陣列、或一電磁場及一近接感測器。 圖4中描繪之實例子系統可進一步包括一或多個處理器、圖形處理器、特定應用程式處理器、記憶體、介面控制器、可攜式電力供應單元及電力管理子單元。系統1可包括區域及廣域通信硬體及軟體來實現低功率、短程通信以及使用天線37提供對標準無線網路硬體之存取。圖4之經繪示通信子系統可經組態以將系統1與多個其他電子或計算器件(包含相同於或類似於系統1之器件)連接。除本文參考之微投影機20及習知顯示器20'外,系統1亦可包括LED及光電單元來提供視覺回饋給使用者。 如在圖4中展示,除超音波收發器25外,系統1亦可包括一或多個慣性及/或磁性量測或姿態朝向感測器及參考子系統445;例如,諸如基於微型機電加速計、陀螺儀及磁力儀之該等感測器及參考子系統。系統1可進一步包括電磁場感測器、機電近接或應變感測器、電生理感測器及振動感測器。 系統1可經組態以從使用空中聲學測距收發器或基於電磁天線之感測器之一空間配置系統450接收輸入。此一空間配置系統可用於判定系統1相對於使用者身體之位置。如在圖4中展示,系統1亦可包含一手勢系統故障安全開關455。手勢系統故障安全開關455可包括一或多個溫度感測器網狀陣列,該一或多個溫度感測器網狀陣列經耦合至一使用者之皮膚或使用者身體之內部系統溫度。溫度感測器可經提供為一網狀陣列以針對故障安全熱監測而監測使用者之內部身體或組織溫度。 圖5A至圖5D繪示可由系統1之微投影機20使用之實例身體投影表面。所展示之多個微投影機20系統可配合至少一個微投影機20使用且能夠投影至一個至四個身體表面上。顯示器投影可在一或兩個或多個身體表面處同時發生,如圖5A至圖5D中所展示。例如,系統1可投影至手之手掌表面以及前臂之腹側表面上,如繪示。在一替代實施例中,當一使用者移除帶元件5時,可使用任何外部表面來充當一投影螢幕。 考慮到前臂可維持眼部與投影表面之間的相對穩定性之事實來選擇身體上之圖5A至圖5D之所繪示投影表面。在一項實施例中,為阻止藉由嘗試維持僵硬之臂姿勢之重複使力傷害(RSI),微投影機20可經組態以基於手勢及臂姿勢之間的轉變在手掌及前臂腹側表面與手背及前臂背側表面之間自動切換。 之前論述之習知微投影機使用基於DLP、LCoS或雷射束掃描之技術。然而,系統1之一實施例之投影技術及微投影機20係基於Quantum Photonic Imager或「QPI®」成像器(「QPI®」係Ostendo Technologies, Inc.之一註冊商標,見H. El-Ghoroury等人在2010年3月19日申請之美國專利第8,049,231號),其係一微型發射式固態光發射結構技術,該技術具有整合至一高解析度GaN-GaAs分層像素陣列之背板中之電力及邏輯電路且具有直接整合於像素堆疊之頂部上之微型光學件層。此形式之微投影機20產生佔用一非常小體積之一功率高效微投影顯示器。 適合於配合本文描述之實施例使用之實例QPI成像器(微型發射式固態光發射顯示器元件)包含(不限於)各題為「Quantum Photonic Imagers And Methods Of Fabrication Thereof」且讓渡給本文之申請人之美國專利第7,623,560號;第7,829,902號;第8,567,960號;第7,767,479號;第8,049,231號及第8,243,770號中揭示該等成像器,該等專利之各者之全部內容以引用之方式併入本文中。 上文參考之QPI成像器在包含所有必要顯示器驅動電路之一單一發射式顯示器器件中之特徵為高亮度、非常快之光多色強度及空間調變能力。在本文描述之實施例之背景內容內,術語「微投影機」意在涵蓋一光電器件,其包括發射式微型尺度固態光(SSL)發射像素之一陣列。此一器件之SSL光發射像素(下文中簡稱為一微投影機)可係一發光二極體(LED)或雷射二極體(LD)或任何固態光發射結構,其等之開關狀態藉由一CMOS電路內含有之驅動電路控制,發射式微型尺度像素陣列經形成或接合於該CMOS電路上。 一QPI成像器之發射式微型尺度像素陣列內之像素可透過其驅動CMOS電路個別地空間上、色度上及時間上定址,該驅動CMOS電路使一QPI成像器能夠發射經空間上、色度上及時間上調變之光。藉由一QPI成像器發射之多個色彩有利地共用相同像素孔隙。QPI成像器像素發射具有在±5°至±45°之範圍內之一發散角之經準直(或非朗伯)光。包括一QPI成像器之發射式陣列之像素之大小通常在約5至20微米之範圍中,其中器件之典型發射表面積在約15至150平方毫米之範圍中。一QPI成像器可經設計具有其之發射式像素陣列與成像器之實體邊緣之間的一最小間隙,容許平鋪多個QPI成像器以產生任何任意大小之顯示器區域。 歸因於投影中涉及之較小距離(投距),使用一QPI成像器之一投影顯示器可係非常亮的,而無需大量電力。明確考慮非線性投影表面及投距而設計上文列出之美國專利之一QPI成像器之微型光學器件及聚焦模組。當然,雖然QPI成像器理想用作本發明之微投影機或用於其中,但本發明並不如此限制,且視需要,其他成像器可用作本發明之微投影機或用於其中。 一人類解剖特徵之投影表面(即,皮膚或表皮)其自身係依據手勢變形之柔軟、可變形組織。皮膚表面並非一致的中性色彩,在使用者之間變化且促成色彩破壞,具有可變反射率及光滑度(毛髮),其等皆取決於身體位置(例如,相較於手掌表面,一手背表面更暗且具有一不同反射率)。最終投影顯示品質極強地取決於投影表面之環境中之周圍照明。必須考慮此等問題以提供一改良之身體顯示體驗給一使用者。 投影系統之一軟體組件包括一演算法(本文稱為一「皮膚引擎」),其補償且調整來自微投影機20之經投影顯示輸出以考量一人類皮膚投影表面之可變性質。皮膚引擎獲得從攝影機35接收之皮膚投影表面之影像資料,且基於組織變形、手姿勢、投影表面、反射率、周圍照明、皮膚色彩及使用者頭部/眼部位置修改經投影顯示輸出。在將影像於一皮膚表面上顯示之前傳輸至投影系統圖框緩衝器之前,使用靜態及動態對比度增強、色彩校正、γ、縱橫比、影像失真及變形校準來修改待顯示之影像。 本文描述之方法利用一非侵入性US感測模態,其深入身體查找來自必然伴隨人類解剖特徵姿勢之改變之內部物體及結構之生物機械信號。身體之所有自主及非自主之手勢及姿勢始終伴隨有生物機械組織變形。此等生物機械變形信號之提取及數位化實現表示姿勢及手勢資訊之相關、高度壓縮且最少冗餘之資料集之捕獲。此等數位表示之數學模型化及分析實現一人類解剖特徵之個別姿勢與手勢之間的高解析度判別。 US收發器25配備機電傳輸器,該等機械傳輸器將非電離、聲學壓力波發射至組織中。經發射之壓力波在組織中按大約音速傳播,與內部物體之動態組織結構互動,且基於組成解剖特徵之物體之組織之獨有回波性質被反射、折射、繞射及衰減。使用繞US成像組織區放置之機電接收器偵測波前之此等聲學傳輸分量。來自傳感器之經接收之信號稱為「V」。經接收之信號之特性編碼內部物體之組織之時空分佈及性質,原始發射的波前與該等內部物體互動。收發器25亦可經組態以傳輸經預定編碼及定向波前,該等波前返回使用者定義之特定及經濾波US資訊。 在被稱為「超音波檢查術」之一領域中,高頻率聲波或超音波通常用於收集關於生物機械組織結構之資訊。此等超音波檢查技術通常與基於陣列之US收發器及影像形成/掃描轉換硬體及/或軟體耦合以產生表示人體剖面之二維影像以用於觀看及分析。此等剖面影像在其中組織結構資訊可顯示組織之內部條件之醫學領域中係有用的。超音波檢查術中之常規做法係使用相同機電元件作為傳輸元件以及接收元件兩者,通常被稱為一US收發器。 超音波成像機器係大型且笨重的,且意在使用一基於液體或凝膠之傳輸耦合跨遍及整個人體之多個位置手動操作。此等機器必定係大型的,此係部分因為製造商傾向於1)使用現貨電路,2)增大再利用之模組化且3)使用相同硬體支援高解析度可再組態特徵組。 如圖1A至圖5D中描繪之系統1之腕部穿戴式實施例實現人類腕部之一時空剖面之接近即時繪圖且不需要掃描轉換之處理密集型步驟。由於手腕含有手、拇指及手指之所有肌肉骨骼機械元件(屈肌/伸肌/外展肌/內收肌肌腱、鄰區韌帶及骨骼)之匯合,故可使用如本文所揭示之緊湊型超音波收發器25偵測到其等之彎張/拉伸運動及周圍及背景組織變形。使用腕部之一基於生物計量之數學模型以大於可購得之人類介面器件之精確度使獲得之時空信號圖與腕部之一3維機械姿勢及手勢直接相關。 在系統1直接穿戴於腕部上及繞腕部穿戴且自身體內側獲得生物機械信號之一實施例中,對使用者無任何視野限制,且有用US信號之部分皆不被擋住。針對手部手勢獲得之US回波物體信號資料獨立於前臂或上臂之剩餘部分之定向及姿勢。因此,使用者可選擇在從事其他活動的同時操作器件,例如,使用者可用其在一服飾之一口袋內的手做手勢。系統1之靈活性避免困擾基於外部攝影機之機器視覺手勢系統之大猩猩臂綜合症或RSI之問題。 本文揭示之方法不僅僅關注肌腱之運動學(不同於美國專利第8,292,833號或第5,818,359號),而替代地考慮定位於各自肢體(包含但不限於深層肌肉、脈管系統及骨骼)之剖面中之組織及物體之完整變形及多個生物機械及變形特性。此係一重要特徵,此係因為隨著肌腱變形,其等回波性質極大地改變,且無法使用如習知方法中之預定位感測器偵測到。無來自一肌腱之清晰US信號阻止姿勢之準確辨識,前提係僅肌腱用於姿勢偵測。 人類肌肉骨骼系統在獲得精確自主及空間運動技能方面展示卓越之可塑性。此係使用者偏好具有實體按鈕之機電鍵盤之一原因,且亦係觸覺輸入具有所有其他輸入模態之最高頻寬之原因。因此,藉由在手之手指(使用本文揭示之手勢辨識方法及器件感測其等之姿勢)附近產生投影光介面而實現之感測運動回饋環路之閉合係一主要優勢。直接回饋容許人類感覺運動情結之強化學習及訓練,導致高度直觀之使用者介面。此環路閉合之一效應在於使用者可容易地獲得手勢技能。 圖6繪示圖3中所展示之超音波收發器25陣列之一實例實施例。收發器25陣列之放置中之設計應考慮組態使所考慮之區中之組織變形成像之能力、避免來自無回波礦化組織(如骨骼)之經傳輸波之陰影化,同時考量人類解剖中之統計可變性。例如,放置於腕部區之腹側上之一單一收發器25可能無法從一般更靠近腕部之背側表面淺層經過之伸肌肌腱提取信號。 因此,在系統(諸如系統1)之實施例中,收發器25根據一象限放置,或可基於特定應用關注之區不對稱放置以最大化組織可見度。收發器25可合意地垂直於其他收發器25配置以允許不同信號接收模態。在特定實施例中,無需連續或週期性使用所有收發器25,且可具體地啟動經選擇之收發器25以實現隱密或使用者定義之感測目標。 相對於圖6,一系統(諸如系統1)之超音波收發器25可製造於一堅硬或撓性基板100上,一特定應用積體電路(ASIC) 110或一數位信號處理器(DSP)可安裝於該基板上。基板100可充當一穿孔互連層,其將電力及數位信號線從系統1連接至ASIC 110。支援收發器25陣列之一高電壓脈衝產生器電路120可經提供作為ASIC 110之一部分或可係連同ASIC 110一起封裝之一獨立晶粒。 如在圖6中繪示,在一項實施例中,基板100可包括傳輸及接收波束成形電路、數位化電路、數位至類比轉換電路、增益控制電路、記憶體、開關、多工器/解多工器及可程式化類比或數位濾波器(除用於支援US成像之其他類似電子及處理電路外)。一聲學傳輸阻擋層130可經安置於ASIC 110及高電壓脈衝產生器120電路之表面上。阻擋層130可用於主動或被動阻擋反向聲學傳輸且可經設計以提供特定聲學阻抗。阻擋層130可包括一半導體材料。另外,ASIC 110亦可包括特定於光譜多普勒信號處理之電路。 收發器25可包括主動、機電US收發器子結構140或「單元」之一陣列,且可經定位於阻擋層130之頂部上且可用作US傳輸器或US接收器或兩者之組合。組成收發器25之一陣列之超音波收發器子結構140可(例如)包括微型機電元件(MEMS)或可由複合陶瓷層組成。可存在經配置為支撐基板100上之線性、二維矩形或橢圓形網格之複數個收發器子結構元件140。基於所需空間信號解析度及波束操縱參數判定複數個子結構140之節距及幾何形狀。亦可選擇幾何形狀參數來阻止皮膚上之毛髮干擾超音波傳輸或接收。個別收發器25之子結構元件140之大小可減小以取決於所需解析度位準(例如,使更小血管特徵成像)獲得更高解析度US信號傳輸及獲取。 收發器陣列25之一替代實施例可包括電容式微型加工超音波收發器陣列,其等由半導體晶圓及光微影或表面微型加工程序製造。此等實施例允許使用用於3D積體電路互連件及封裝技術中之經證明製造方法之高密度整合。在此等實施例中,ASIC 110可連同收發器25一起單體地製造且可形成收發器25層之背板。在其他實施例中,電容式元件可使用壓電式活性材料層(諸如氮化鋁)替換,該等層可透過氣相沈積程序沈積於微型機電隔膜結構之表面上。 收發器元件25可配備主動或被動矩陣電極子結構140,其等將個別收發器25或收發器陣列與ASIC 110及電力電路連接。收發器25陣列自身可經安裝於微型機電平移工作台上,該微型機電平移工作台可週期性振動或提供依賴壓電式、電磁或靜電致動策略以產生3D體積掃描之平移方法。收發器25陣列中之子單元140可經組態以在經選擇之波長/頻率分集方案中操作,其中混合頻率或多個頻率收發器用來增大焦深。 收發器25可進一步包括一或多個聲學匹配層150,該一或多個聲學匹配層150經沈積於其他收發器元件之表面上以降低收發器25與組織介質之間的聲學阻抗失配。聲學匹配層150可包括一聚合物聲學透鏡層160以聚焦US傳輸的波前。可藉由一基於高黏性及順應性聚合物之聲學層30囊封聲學透鏡層160。 系統1之一替代實施例依據藉由應用模態透過演算法判定之US信號波束成形之類型及性質使用一儀器化量測方法。歸因於多個收發器25陣列之組態,個別收發器子結構140或陣列可在習知脈衝回波信號傳輸及接收模式中操作以及經組態用於投捕或穿透傳輸模式。鑑於習知基本頻率超音波為約30%之人類群體無法適當容忍之事實,實施例可使用返回US信號中之諧波內容。 超音波收發器陣列通常用於傳統超音波檢查術中之一掃描模式中。雖然足以用於US成像目的,但一掃描模式降低可從一US系統收集資料之速率且減小回應率。為克服此缺點,除掃描陣列模式外,實施例可利用一平面波波束成形方法來允許既更快又更安全之信號模態。由於本文揭示之實施例之標定應用本質上係非成像的,但實施例可使用多個不同模態來監測腕部之剖面區中之組織改變。此方法係一儀器化方法,其中多個頻率及多個掃描類型用於成像演算法中以提取關於腕部中之組織物體中之改變及變形之最大資訊。積分及保持移位方法可用於產生US資料集。波束操縱演算法可用於聚焦於離軸區(在收發器平面以及在垂直平面兩者中)或針對更高精確度讀取聚焦於特定特徵上。 在又一進一步替代實施例中,可使用壓電、靜電、電磁、磁性、電子或機械相位轉變或光子壓力引發式振盪在切向或縱向振動模式中啟動一陣列之個別收發器25子結構140。收發器25子結構140可與至少一個聲學阻抗匹配層150耦合。 基板100可經設計以機械地或電子地阻止或阻礙與目標位置相反之信號傳輸。各子結構140可經組態以充當一傳輸器及一接收器兩者(即,一收發器25)。如此,一序列之時空分組之US振盪可用作產生器且一序列之時空分組之振盪器可用於脈衝回波、投捕或穿透傳輸模式中以在波前與生物組織物體互動且經返回之後接收波前。此藉由使用多焦點及多掃描平均化(其使用特定加權函數)而確保小擾動不影響所獲取之US信號。 許多習知方法依賴使用掃描轉換以從超音波脈衝回波資料產生影像。掃描轉換程序基本上將藉由一收發器捕獲之US資料轉化為適合於顯示之笛卡爾座標。在一超音波系統中,至掃描轉換器之輸入係所獲取之回波資料且輸出為在一監視器上顯示之資料。然而,應注意,本文揭示之方法未對硬體自身使用掃描轉換技術,且替代地,直接對接收之US回應信號操作以最小化硬體、軟體及複雜度額外負擔。掃描轉換不合意地引入需要進一步校準以移除之影像假影。另一掃描轉換缺點在於來自徑向收發器之影像(歸因於其等之波束擴散及聚焦之徑向性質)引入雖然具有較少熵但佔用緩衝器中之記憶體之陰影區。然而,尤其來自相同區之超音波回波信號具有較少熵。此冗餘在本文揭示之實施例中經利用以改良圖框速率及掃描目標獲取。高圖框速率實現在一閉合環路中使用本文揭示之實施例之波束成形方法,且亦實現追蹤特定組織。 例如,歸因於人體中之組織及血管及肌腱之統計上保守之空間分佈,本文揭示之方法可利用基於字典之編碼方法以達成用於經由網路傳輸資料之更大壓縮。本文揭示之方法利用更高效之計算演算法,其等直接對經壓縮資料運算且利用信號之稀疏性質;減少額外負擔。小波變換可用於變換編碼,接著基於特定信號產生之特性量化編碼以移除接收模態,最後經字典編碼。此方法消除基於掃描轉換之2D影像形成假影之可能性。 然而,在一替代性實施例中,本文揭示之方法可在雲端伺服器上或網路上併入一掃描轉換常式,其中在請求後來自一器件之串流資料可用於產生一影像。為阻止超音波資料之未授權存取,掃描轉換演算法存取可經組態以加密及/或在鑑認後僅對經認證之醫療專業人士發佈。 在一替代實施例中,收發器25由收發器子結構元件140之一2D相位陣列組成,該2D相位陣列經組態以傳輸發散遠離收發器25之一超音波寬之波束且以錐形體積掃掠。經返回之回波藉由收發器25之2D陣列偵測且接著經處理以從體積即時顯示多個平面。可互動式選擇此等平面以容許使用者觀看所研究之所需區。 來自超音波之一健康風險源自透過長期曝露於聲波之組織加熱、體液中之流體空蝕及聲流之危險。一般言之,來自組織加熱之風險被最小化,此係因為存在操作者監督,且探針通常並非相對於一特定區固定,且血液灌注通常阻止任何局部加熱。然而,針對肌肉及肥胖組織之灌注時間常數更大,因此慢得多。 製造商通常使用機械及熱指數來計算且呈現US劑量測定法資料給放射科醫師。本文揭示之實施例使用類似方法,惟透過演算法判定且監測聲學劑量除外,其中系統演算法控制聲學信號中含有之頻率及功率且使用波束操縱來阻止相同區的連續監測。由於本文揭示之實施例一般用於不依賴高解析度成像之一非診斷應用中,故系統演算法將入射US強度控制為一平均值。此進一步藉由基於多頻率收發器、合成聚焦及可操縱陣列之安全儀器化方法輔助。 在一項實施例中,之前論述之溫度感測器網狀陣列45係具有多個冗餘熱感測器元件之一獨立故障安全電路,該獨立故障安全電路追蹤、監測且估計標定組織區內側之溫度且包含一閉合控制環路中之多個組織校準因數。若接近或超過任何預定安全操作溫度臨限值,則電路可警示使用者或切斷至收發器電路之任何電力。來自溫度感測器陣列45之資料亦經前向饋送至控制聲學曝光量及劑量之系統演算法。 隨著身體改變姿勢,在相關解剖特徵之人類組織中以及在系統1中歸因於其等各自之質量而引發一慣性運動。組織及手指亦歸因於重力的存在而經歷變形。例如,當一手在掌心向下時之靜止姿勢實質上不同於掌心向上之一手的靜止姿勢。為考量此等影響,慣性測量感測器(諸如加速計、陀螺儀及磁力儀)可包含於本文之實施例中。慣性測量感測器係特別有用的,此係因為身體部分可在重力效應下顯著變形,而不造成內部組織之結構之明顯改變。併入系統1中之一慣性測量感測器可經組態以提供相對於重力、加速度及角速度測量之特徵及身體定向之粗略估計。此等量測經提供至下文論述之系統演算法,該系統演算法將組織及器件之慣性運動納入手勢辨識之考慮。 由於慣性測量感測器一般經穿戴耦合至使用者之身體,故其等可用於重建使用者之整個身體之姿勢之一低保真度模型。此姿勢資料用來粗略地判別使用者站立、移動、行走、坐下或躺下。使用慣性測量感測器實現身體何時經歷突發運動(例如,來自與外部物體之撞擊或接觸)之辨識。 如之前提及,來自跨一身體部分附接之一器件之壓力可導致鄰近區中之組織的明顯及不確定之變形及重新配置。可穿戴US手勢辨識之習知嘗試未探究相關收發器如何附接至使用者之身體或假定使用黏合劑材料。替代地,帶元件5處於使用者上之一輕微壓縮負載下。一張力感測器及致動器對(未展示)可用於可變地控制帶元件5之形狀、張力及變形。接著可考量且主動控制此等壓縮壓力。使用之前論述之可變張力閂鎖15及鉸鏈10有利地解決此等顧慮。 系統1之一實施例可使用由形狀記憶合金(SMA)製成之結構帶元件5、鉸鏈10及閂鎖15。如已知,SMA經設計以在施加熱量後在特定溫度下經歷相位轉變且將其等形狀改變為一預記憶形式。通常透過藉由使一電流穿過SMA部件之SMA部件的電阻式加熱而施加熱量。此等機電張力系統可用來調節跨帶元件5施加之壓力或張力以拉緊或放鬆帶元件5結構之張力或最佳地將壓力跨超音波收發器25分佈於所需位置處,以及提供帶元件5之實際形狀之一些可控性。在壓縮負載下之此等變形輪廓對各使用者係獨有的且可針對最佳感測及精確度而透過演算法調整。所揭示之形狀記憶合金帶元件5或鉸鏈10或閂鎖15亦可用來藉由柔和地「夾住」使用者之手而提供觸覺回饋。 醫學超音波器件通常使用液體、油及凝膠來確保橡膠聲學透鏡及皮膚之間的聲學傳輸。此等方法為濕式技術且無法用於消費者電子產品空間中。為避免此等濕式耦合介質,實施例利用如在圖3及圖6中繪示之一基於聚合物之聚合物聲學層30。 雖然美國專利公開案第2013/0041477號論述使用PVA或聚氨酯來用作此等耦合材料,但此等代表具有高度可變機械、熱及環境性質之一廣泛、非特定類別之材料。本文揭示之實施例不僅僅關注聲學態樣,而關注其構成結構之機械及熱性質以及製造簡易性。因此,除匹配組織聲學阻抗外,聚合物聲學層30材料亦係保形、順應且黏性的以與皮膚均勻地黏附,類似於藉由具體採用透過發汗或出汗產生之汗來填充表皮中之空缺及褶皺且另產生既穿戴舒適又考量透過腕部尺寸之變動之徑向壓縮之變動之一機械耦合表面而實現光滑或非光滑(多毛)皮膚上之密封形成。聲學層30充當電子器件之一隔熱器且充當一機械阻尼器來遏止經耦合之組織手鐲振動。可透過使用基於SMA之結構(閂鎖15及鉸鏈10)輔助此保形性。 在一些實施例中,聲學層30由柔軟且黏性熱塑性彈性體聚合物摻合物組成,諸如藉由具異戊二烯聚合物或苯乙烯-丁烯嵌段共聚物或聚(苯乙烯-乙烯-丁烯)共聚物形成之該等摻合物,其等具有用以控制黏附特性之特定添加劑膠粘劑樹脂、用以控制機械一致性之無殘基聚合油及給予正常器件操作及環境溫度下之熱穩定性、光學品質、色彩及親水性塗層之各種其他添加劑。此等聚合物摻合物之益處在於其等可容易地射出成型或壓縮成型且結合常規製造技術設計。在製造期間採用之特定程序容許添加被動及電子組件至此等聚合物。此材料之尺寸係可調整的以補償者之解剖尺寸、器件之慣性運動及透過閂鎖施加之徑向壓縮負載。 聲學層30可經設計為使用者可替換的。聲學層30中含有之主動或被動電子電路可用於將識別聲學層30之特性之獨有資料傳輸至系統1。例如,聲學層30所需之特性可尤其包含機械順應性、製造日期、接近性、抵抗性。 針對無菌應用,此聚合物材料可用於構造完整手套或僅構造與前臂重疊之手套之袖口部分。此容許在需要使用無菌或無塵室服飾之環境中使用本文描述之實施例。 在聲學層30不可接達或故障之情況中,可簡單使用自來水來建立身體與器件之間的一介面。可預期透過長期的汗之毛細管作用維持此臨時介面。 如之前陳述,一實施例可包含一或多個攝影機器件35及35',其等容許使用者拍照。攝影機35及35'亦可經組態以實施一顯示品質回饋系統來使用計量(諸如但不限於對比度、亮度、色域)改良微投影機20品質。攝影機35可專用於判別周圍光、皮膚色彩及皮膚之光學特性。 空間配置系統(SCS)係指系統1之架構中之一模態,其容許相對於身體感測腕部之絕對空間座標且將其報告至系統之應用程式處理器。針對多系統階層,SCS可提供多個系統之間的相對空間位置。此資訊可用於提供多個場景中之互動式服務。此一場景之一實例將為針對健康或醫學或互動娛樂應用程式偵測臂相對於人體之正中矢狀平面、冠狀平面及橫向平面之相對拉伸。在一實施例中,SCS可使用空中超音波收發或電磁場感測器、或紅外線收發器對或結構化光發射器-感測器對或深度感測器實施或可將麥克風陣列用於頭部(揚聲器)定位。SCS亦可用於估計關於水平面或地平面之資訊。 另外,系統1可配備其他類型的感測器元件,諸如機械薄膜應變計或乾電生理感測器及壓電式振動感測器。此等感測器實現本文描述之實施例在一體外模態中之使用。系統1可包含一或多個集總或分佈式可攜式電力供應器系統,其具有其自身之電力管理電路。此等電力系統可包括鋰聚合物離子技術。系統1可包含產生使用者之觸覺回饋之一或多個振動致動器。此等致動器可單獨使用或結合SMA觸覺收縮回饋致動器使用。之前描述之麥克風/揚聲器陣列40可用於通信目的,其中陣列信號處理技術用於提供一方法來將語音與噪音分離。 本文揭示之實施例可結合一分佈式或基於雲端之計算系統操作。因此,一實施例可包含用於網路或點對點連接性(例如但不限於電話、Wi-Fi、藍芽、無線電、近場通信(NFC))之一或多個硬體介面(諸如天線37)。多個系統1可經組態以與彼此通信且用於在彼此間產生一局部網狀網路且傳輸資訊(諸如相對位置、定向、當前手勢類型等)。由於系統1將資料傳輸且接收至一電腦及雲端,但所有實施例可用於介接於本端機器或遠端/虛擬機器。 圖7A至圖7C展示所使用之解剖命名及系統1可使用之自由度之定義。可繞腕隧道之位置相對於腕部界定一參考系。無法僅僅從超音波資料以低誤差偵測繞特定軸之關節運動,此係因為一些活化肌肉群包含於手掌區中(諸如蚓狀肌、掌短肌及拇指肌群)且無法由超音波收發器25接達。系統1無法精確捕獲手指之PIP (近端指骨間)或DIP (遠端)關節運動的特定條件發生。然而,使用利用手之運動冗餘之一方法以及使用在腕部之緻密組織結構中產生之交感性應變場來估計此等軸。 圖8A至圖8F展示與可藉由皮膚引擎介導之一使用者介面互動之代表性手勢。在一項實施例中,皮膚引擎演算法將手指關節運動(姿勢)資訊呈現給皮膚引擎,該皮膚引擎接著突顯與手指對應之一特定圖標。此可對手背或手掌表面上之投影發生。使用涉及所有五個手指之關節運動之一緊握或抓住或緊握手勢來選擇特定圖標。由於使用者通常具有五個手指,故五個圖標或任務選單對皮膚引擎具有特定意義。皮膚引擎控制經投影之光場之變形及修改以考量軟表面組織變形及照明。姿勢與數位資訊之間的實際互動與使用者與實體物體互動之方式完全相同。儘管圖8A至圖8F展示一手掌或手背手表面投影,但相同使用者介面概念適合於前臂表面投影,其中來自各手指之手勢用於控制前臂表面上之五個圖標選單。 圖9A至圖9B繪示一身體上直觀、翻頁手勢可如何用於與投影光場互動之一實例。在此實施例中,繞腕骨軸之一俯仰(在圖7A至圖7C中描述)(另稱為一橈骨-尺骨偏離)用於實施一翻頁或滾動手勢。 類似地,圖10A至圖10B繪示一緊握動作可如何用於選擇一任務之一實例。 圖11A至圖11B繪示類似於圖10A至圖10B中展示之一個手勢之一例示性手勢。圖10A至圖10B展示基於除拇指外之四個手指之近端指骨之關節運動之一翻頁或滾動介面。 類似地,圖12A至圖12B展示藉由偵測到一拇指球俯仰手勢實施之一選擇動作或一按鈕按壓動作。在此繪示中,展示一攝影機介面,其中拇指球俯仰手勢指示系統1拍一張照片。手上之各手指可歸於一單一類似按按鈕活動。 圖13A至圖13K繪示系統1可區分之各種多個手指手勢。此等手勢在非言語通信模態中係有用的。 在圖14A至圖14C中呈現一進一步手勢繪示,其中拇指用作至手指褶皺之一指針。各姿勢代表可用於傳達預定資訊之一獨有手勢。 外部壓力源可定位於具有一有限解析度之超音波信號中。此定位可用於實施互動性。圖15A至圖15C展示在一個手上產生投影顯示而另一手用於施加一點壓力至手掌或前臂表面上之實施例。使用此定位,粗略觸摸手勢可經辨識且表示一雙手互動模態。 圖16A至圖16B展示將投影引導至一外部螢幕而非將顯示投影在一身體表面上之一實施例。此等外部投影顯示可使用基於手之手勢輸入及藉由使用皮膚引擎中之適當軟體管理之抖動控制。 在一實施例中,系統1經穿戴於頭骨之圍繞眼部之眼眶區中或鄰近該眼眶區(見圖1B)且可使用一黏性貼片或等效方法定位於顴骨、顳骨、蝶骨或上頜骨之任一者上。接著,收發器25可用於追蹤六個眼肌群(上直肌、下直肌、側直肌及內直肌(左/右)及上斜肌及下斜肌(L/R))以及提上瞼肌、眼輪匝肌、顴大肌/顴小肌及提上唇肌之活動。基於硬體之位置及應用之目標,系統1可追蹤(除其他應用外)眼瞼活動、虹膜之掃視、鞏膜區之旋轉、臉頰表情、張嘴結構、耳部之變形。此實施例在追蹤眼部係重要的應用中具有重要意義,諸如在擴增及虛擬實境可穿戴顯示器中。 類似地,系統1可穿戴於人類喉部上(見圖1B)。類似於先前應用,系統1可用於追蹤人類聲道中之快速波動及相關聯之生物機械結構改變。此等波動可用於多個應用中。例如,結構中之特定自主改變可用於類似於手姿勢如何用於辨識手勢而定義手勢。 如上文論述,一手勢可包括在身體或手之姿勢或位置之間的一轉變中之一組姿勢。姿勢可包含資訊,如手及身體中之關節之延伸或壓縮位移及角度關節運動及對應關節速度。此等關節運動或位移可繞其等發生之關節之總數目被稱為系統之自由度(「DOF」)。此等DOF可相對於身體或一身體部分定義,諸如一腕部或身體或身體部分之軸或平面之任一者。一姿勢集合可被標記為一手勢。手勢可包含位置位移或角度關節運動資訊之量值以及時間及速度資訊兩者,使得緩慢重複之相同手勢可不同地定義或可構成一不同手勢。 使用系統1判定手中之諸自由度之姿勢且使用慣性運動感測器(稱為「I」資料)判定身體之剩餘部分之姿勢。此姿勢資訊用於建構如在圖17中展示之身體及手之一代表性粗略運動姿勢模型。圖17繪示系統(器件)穿戴於左手上之一實施例。此手區以高解析度模型化。人體之姿勢之剩餘部分使用粗略集總元素模型化。 可使用來自慣性量測「I」及腕部穿戴實施例中含有之其他感測器之資料建構人體粗略姿勢模型。可使用模型驅動適應性及非線性濾波技術(見Yun, X.、Bachmann, ER.,Design, Implementation, And Experimental Results Of A Quaternion-Based Kalman Filter For Human Body Motion Tracking,IEEE Trans. Robotics,22 (6),2006年)處理來自此等感測器之資料以獲得且追蹤姿勢。所預期的是,除非另一系統1穿戴於右手上,否則集總人體姿勢之一些自由度將具有與其相關聯之更高之誤差,該等誤差與該韌體姿勢與慣性量測感測器之距離成正比。然而,此一身體姿勢模型僅用於將身體之姿勢粗略分類為主要身體姿勢類,諸如尤其坐、站、走、跪及蹲,且此資料被稱為「B」。可使用聲源定位及一波束成形演算法框架而用聲學麥克風陣列估計頭部之一近似位置。見Zhang, C.等人之Maximum Likelihood Sound Source Localization and Beamforming for Directional Microphone Arrays in Distributed Meetings,IEEE Trans. Multimedia,10(3), 2008年。 在根據一項實施例之系統及方法之一首次使用情境中,使用者可被要求鍵入自我識別資訊,諸如尤其年齡、體重、身高、性別及膚色。此資訊可用於如論述般從一資料庫選擇初始統計生物計量。此等生物計量可經提供以自動充填尤其關於一群體中之不同身體部分之重量及尺寸、組織厚度之統計資訊。此評估可用於判定系統演算法之初始條件,且隨著更多使用者特定資料在系統1之使用期間累積且在生物計量資料庫中更新,此識別效應逐漸被移除。此首次使用實施例之一實例程序藉由圖27繪示。如在圖27中展示,在方塊2701處,提示一使用者輸入諸如年齡、性別、體型等。在方塊2702處,使用輸入資訊來擷取資料之特定子集。在方塊2703處獲得具有參數值(諸如尤其幾何形狀、聲學資訊、材料資訊、電子性質、關節運動之運動模型及其限制)之一統計人體模型。亦可獲得此等參數值之置信區間。 基於初始條件,一簡單超音波信號產生及獲取模態(諸如A模式掃描)可用於首次使用情境,如在方塊2712中展示。在方塊2712處,超音波量測自一當前剖面獲得且經提供至方塊2713處之預處理演算法以獲得關於由使用者穿戴之系統之定向及位置之資訊。自此掃描以及其他感測器或致動模態獲得之資料容許識別特定生物計量參數,諸如尤其系統1穿戴於其上之腕部或臂上之器件之位置、腕部之周長及帶元件5之定向。此初始資訊可用於評估特定內部物體地標點(諸如橈骨及尺骨)及脈動組織(諸如動脈及靜脈)之位置及肌腱及其他組織之近似位置。例如,系統1可藉由檢查無回波骨區之相對大小及其等相對於系統1出現在左側或右側而偵測系統1之初始定向。 在方塊2704處,根據一個實例實施例將之前下載之統計人體模型轉換為特定於使用者之一有限元素模型。在一些實施例中,將統計人體模型轉換為一集總元素模型或一混合元素模型。在一項實施例中,模型可由一動態且可變形網組成。在一項實施例中,模型可由經受運動約束而操作之至少一個數值最佳化常式組成。在一項實施例中,模型可由至少一個無監督式統計學習模型組成。在一項實施例中,模型可由至少一個監督式統計學習模型組成。在一項實施例中,模型可包括至少一個概率圖形模型。此轉換亦可考慮來自方塊2713之輸出,該方塊2713執行預處理以識別粗略解剖特徵以獲得關於系統相對於使用者之定向及位置之資訊。在方塊2714處,身體姿勢及慣性感測器資料(IMU感測器資料)經獲得且在方塊2705處用於在存在重力加速度的情況下使用來自IMU感測器之加速度輸入來模擬系統之剛體運動。 在方塊2706處,模擬跨所產生之有限元素網模型之聲波傳播。在方塊2715處,獲得一統計上保守之手勢資料集且在方塊2707處將其與在方塊2706中獲得之模擬資料庫比較。在方塊2708處,透過比較識別簡單姿勢且在方塊2716處將該姿勢傳遞至手勢辨識系統。在方塊2709處,分析模擬超音波模型與實際超音波資料之間的誤差,且在方塊2710處,更新預處理器(駐留在具有可再組態指令之記憶體中之一控制程式)以標定誤差位置,且從誤差位置獲得更高品質資料,其中更高品質藉由尤其可調諧聲學焦深、掃描元件數目、濾波器參數定義。在方塊2711處,更新用於掃描中之儲存於揮發性或非揮發性記憶體中之硬體參數以處理誤差或不確定區。例如,當系統未主動需求手勢時,波束成形器可經調諧以操縱至目標位置之一波束。 歸因於人類解剖之統計上類似性質,在無藉由系統1之任何進一步輸入或訓練的情況下,可直接從自方塊2716獲得之資料辨識一些簡單手勢(諸如來自腕部之關節運動或手掌之緊握運動之手勢)。例如,如在圖7A至圖7C中展示之腕部處之掌心向下及掌心向上或側傾導致明顯的相對骨骼位移且可容易地被偵測到。類似地,腕部橫擺可歸因於可透過慣性感測器偵測到之皮膚組織在帶元件5之邊緣處堆積而產生系統1之旋轉。因此,此等簡單手勢可立即用於控制器件,而藉由系統1學習此等手勢之更精細態樣。 在此初始化後,系統1可引導使用者完成意在改良參與生物機械運動之內部組織之識別及標定之姿勢或手勢之特定預定序列。此稱為「初始演算法調適」。 習知方法依賴藉由要求使用者執行一特定手勢而產生資料集之數個「標籤」(該手勢與標籤相關)且接著儲存與標籤相關之資料。此等手勢辨識程序接著僅僅對應於量測當前資料與儲存資料之間的最高相關且返回標籤作為手勢之識別符。 產生帶標籤資料集之一問題在於需要專家監督來維持標籤一致性。例如,在被請求對食指進行關節運動後,若一使用者移動其中指,則手勢最終被識別為一食指手勢。因此,此等訓練方法需要使用者極大地關注來確保正確之回應。此習知方法之另一問題在於存在手指移動之間的交感性耦合——不同人具有將一個手指獨立於另一個手指移動且重複地移動之不同能力。即使使用者相信他們僅移動一單一手指,但此仍使判別演算法混淆。 替代地,本文揭示之方法不使用基於標籤或標記之訓練。在「初始演算法調適」程序期間,不對使用者建議特定手勢或動作。僅僅可使用手掌或前臂上之投影光顯示器向使用者提供一空間特徵或圖標,期望使用者使用對他們而言方便、直觀或自然之任何手勢來對該特徵或圖標作出反應。另外,使用者可被要求伸展或彎曲他們的手指及腕部至最大及最小舒適限制以判定他們獨有之關節彎曲/伸展限制。此等請求可在使用者經歷運動時藉由經選擇以突顯特定解剖特徵之系統1依一特定序列呈現。例如,可顯示代表一按鈕之一圖標,使用者可使用一個手指之彎曲來與該圖標互動。在另一實例中,一遊戲可用於相同目的。程序可重複若干次,包含手背或手掌/腹側表面之投影。在此「初始演算法調適」程序期間,各種統計、機器學習及最佳化演算法可用於建構使用者特定內部解剖之更高保真度模型。 在此互動期間,在本端或經由一網路收集、儲存且處理組織物體US資料。收集關於肌肉、肌腱、脈管系統及組織生物機械及變形之資訊以通知系統1之數學模型。 圖18A繪示根據本文之一實施例之姿勢及手勢辨識系統(諸如系統1)之一實例架構1800。其包括一軟體或硬體應用程式控制器,該控制器與超音波收發器1812 (例如,US收發器25陣列)、系統1814及1816中之其他感測器及系統1之作業系統1838通信。其可經連接至可透過作業系統1838經由一廣域網路存取之一外部軟體或硬體器具(稱為系統1之雲端組件1810)。 如在圖18A中描繪,控制器1826可包括網路化及通信周邊介面1834、記憶體1818及一數位信號處理器(DSP)核心1820。DSP核心可具有執行特定功能之專用段。例如,可將來自網狀網格熱溫度感測器1828 (諸如溫度感測器45)之資料饋送至追蹤內部組織溫度分佈之一熱機械監視器段1822。DSP上之其他專用段可係一姿勢數位轉化器段1824、一聲場模擬器(AFS)段1832及一基於身體之可變形網動態模型(DM2)模擬器1830 (除預處理器2710及硬體設定2711外)。此等段之各者可獲益於來自感測器網格之藉由控制器1826接收之輸入感測器信號。 控制器1826用來收集且處理自超音波收發器1812及ASIC (諸如ASIC 110)接收之信號,判定儀器化信號產生及獲取演算法及協定,組態、維持且更新預處理器2710,分析且解密內部組織物體結構,基於使用者介面控制器分析且解密姿勢及手勢,使用模擬器段或查找表(LUT)來驗證且追蹤姿勢資料,且將姿勢資料前向饋送至微投影機20介面。控制器1826機會主義地儲存及分析演算法參數資料,且經由系統匯流排1836將其傳遞至系統1之雲端組件1810。雲端組件可經組態以修改與儀器化信號產生及獲取演算法相關之一些或所有參數。 在首次使用之後(諸如在圖27中呈現),控制器諸如從雲端組件擷取特定於藉由使用者提供之輸入之組織物體之生物計量資料且使用其來充填局部AFS及DM2模型中之參數。藉由首次使用演算法調適程序提供之物體資料可用於識別組織、骨骼、脈管系統及液體段、地標點特徵,且使該資料與生物計量數學模型中含有之資料相關。此相關程序可修改生物計量資料以反映特定於使用者之生物物體資料。來自調適序列之額外組織物體資料識別所有此等特徵之變形界限(包含關節彎曲及伸展限制)。在調適參數之後,將此物體資料提交給局部DM2模擬器(其等產生解剖特徵之一基於體積有限元素之描述或數學描述)以及系統1之雲端組件。 當改變姿勢時,或諸如當臂與其他表面接觸時,或在壓力被施加至前臂上之皮膚上的情況下,身體中之一些組織(諸如肌腱)可三維變形、旋轉及彎曲。此可與帶元件5相對於手之一慣性引發之旋轉或滑動或一內部組織結構之彈性變形對應。已知,肌腱及肌肉具有高度各向異性US聲學性質。因此,此等旋轉及變形可使組織無法由由收發器25觀察到。同樣地,當一臂抵靠一表面擱置時,超音波檢查信號之品質與當臂自由懸掛時獲得之信號品質顯著不同。因此,期望考量此等條件以改良器件之使用者體驗及可用性。系統1之DM2及AFS模擬器經組態以將此等情境納入考慮。 在圖18B之方法之一實施例中,在系統1記憶體中接收呈來自收發器25之超音波信號電壓(「V」)、慣性量測感測器(「I」)及身體定向值(「B」)之形式之輸入1850以用於處理(在圖18B中統稱為「資料」)。在涉及一或多個系統1之實施例中,此資料亦可包含來自其他系統之超音波信號電壓、慣性量測感測器及身體定向值。 在一實例實施例中,在方塊1852處對接收之資料進行再取樣且在方塊1854處分析它以識別週期性脈動內容,接著在方塊1856處分析它以定向組織物體信號源位置,在方塊1858處基於回波發生性型樣分析其輸出用於辨識組織物體區。 在方塊1860處,可基於人類組織/解剖之統計回波發生性資料對物體區進行濾波且可如在方塊1862中展示般將資料中之陰影區分段及識別。在方塊1864及1866處,可使用先前步驟之輸出識別特定組織物體幾何形狀及位置,其等可接著用於識別且產生用於DM2數學模型之一組模型初始化參數。此等步驟之一集合及重複可共同藉由方塊1868表示。 使用來自雲端及來自系統1本端兩者之統計解剖模型資料庫從經分析之組織物體資料識別且最佳化所產生之模型初始化參數。 在方塊1874處,使用經最佳化之模型參數,各從系統1記憶體提取具有對應於近似姿勢自由度(「DOF」)及近似模型參數之運動約束組織變形之一統計解剖模型。在方塊1876處,自慣性量測感測器(I)及身體定向值(B)資料收集關於剛體運動之資訊。在方塊1878處,諸如藉由使用集總及有限元素分析技術建構解剖特徵之數學模型。 IMU輸入「I」用於定義座標參考系平移及旋轉加速度,其設定用於由整個系統硬體、人體解剖特徵以及人體與系統之間的整個介面組成之一數學有限元素模型中之慣性反應(慣性釋放)力。用於建構有限元素表示之方程式之數學系統之一實例藉由以下給出:
Figure 02_image001
其中,
Figure 02_image003
及,
Figure 02_image005
其中:M係結構質量矩陣,C係結構阻尼矩陣,u(t)、
Figure 02_image007
Figure 02_image009
係節點位移、速度及加速度向量,K係總勁度矩陣,
Figure 02_image011
,其中N係元素數目,Ke 係元素勁度矩陣,FI (t)及Fa (t)係內部負載向量及經施加之負載向量,其中Fnd 、Fac 、Fe th 及Fe pr 分別為經施加之節點負載向量、加速度負載向量、元素熱負載向量及元素壓力負載向量,其中總質量矩陣藉由
Figure 02_image013
給定,其中Me 係元素質量矩陣。同樣地,ac 、at d 、at I 、at r 、ar I 及ar r 分別代表總加速度向量、全域笛卡爾坐標系中之加速度、歸因於慣性釋放之平移加速度、歸因於旋轉之平移加速度、歸因於慣性之旋轉加速度、歸因於輸入旋轉加速度之角加速度。圖19及圖35展示用於本申請案中之元素矩陣之圖形繪示。IMU提供用於此處呈現之混合元素公式化中之加速度資訊。 數學模型之有限元素公式化態樣容許系統將構成整個系統硬體、人體解剖特徵以及人體與系統之間的整個介面之物體之機械變形、平移、旋轉、振動及彈性納入考慮。由於相較於周圍組織(諸如肌肉或血液),一些特定組織(諸如骨骼)可能係不可壓縮的,故其等可更簡單地模型化為無與其等相關聯之可壓縮或彈性自由度之集總元素。此等集總元素以及有限元素之一組合在下文中被稱為「混合元素」。可設想,此一全混合元素模擬可離線或在別處預計算,且僅相關係數或LUT可直接從雲端組件1810即時獲得,其中僅一簡單內插方案之一有限態樣即時在器件上發生。 在一實例實施例中,在使用混合元素公式化之模擬完成且在計算身體動態及重力影響下之元素變形及位移之後,接著在方塊1880中提交所得系統用於聲場模擬。在此步驟中,透過藉由混合元素公式化中之方程式系統表示之數值數學模型模擬超音波波前之產生及傳輸。經模擬之波前接著可經歷繞數學模型中之物體之反射、繞射及散射,且因此可從模擬中對反射、繞射及散射信號進行取樣以產生藉由系統1中之硬體收集之實際量測超音波信號之品質之一估計。 聲場模擬模型可包括一般非齊次赫姆霍爾茲方程式之一離散版本,其藉由以下給出:
Figure 02_image015
其中有限元素表示具有以下形式:
Figure 02_image017
且離散波方程式藉由以下給出:
Figure 02_image019
其中c係介質中之音速,
Figure 02_image021
係平均流體密度,K係介質之體積模數,u係動態黏度,
Figure 02_image023
係聲壓,Q係模型化為一常數之連續方程式中之質量源,t係時間,j係
Figure 02_image025
,ω=2πf,f係壓力之振盪頻率,dv係聲域ΩF 中之差分體積,ds係聲域邊界
Figure 02_image027
中之表面差,
Figure 02_image029
為至邊界
Figure 02_image027
之向外法向單位向量,q係節點質量源向量,且
Figure 02_image031
係節點質量源向量之一階導數,且
Figure 02_image033
係聲學流體質量密度常數。 聲學流體質量矩陣藉由以下描述:
Figure 02_image035
聲學流體阻尼矩陣藉由以下給出:
Figure 02_image037
聲學流體勁度矩陣藉由以下給出:
Figure 02_image039
聲學邊界矩陣藉由以下給出:
Figure 02_image041
且聲學流體負載向量藉由以下給出:
Figure 02_image043
用於AFS中之元素描述自混合元素模型化之結果獲得且尤其自LUT獲得壓力分佈、聲學阻抗值。在方塊1880處,運行一聲場模擬,且在方塊1882處於模擬資料與最佳化資料之間產生一誤差分數。可設想,此一全聲場模擬可離線或在別處預計算,且僅相關係數或LUT可直接從雲端組件1810即時獲得,其中僅一簡單內插方案之一有限態樣即時在器件上發生。 隨後,在方塊1884處,可執行一參數誤差梯度搜索以最小化模型參數與經量測資料(「V」)之間的誤差。接著在方塊1872處將最佳化程序之輸出饋送回至局部統計模型資料庫,且繼而在方塊1870處饋送回至物體之生物計量之全域統計物體模型資料庫。在方塊1886處,最佳化步驟之輸出用於返回表示為一組DOF位置之一經分類姿勢,或若匹配不當,則在方塊1888處將該姿勢更新為一未分類姿勢。 在方塊1890處,經分類姿勢之輸出可接著用於對姿勢圖表資料庫或一概率圖表模型中之姿勢DOF資料以及但不限於此等重複頻率之資訊進行繪圖。在方塊1892處,此可接著用於分析姿勢之間的轉變以辨識一手勢。在方塊1894處,軟體使用者介面(UI)或應用程式程式化介面定義姿勢亦可藉由系統1接收。接著,辨識一手勢且在方塊1896處輸出,且基於經繪圖之資料DOF資料及經分析之姿勢異動執行呈一可執行電腦指令形式之一手勢命令。 現將根據參考圖28的流程圖2800之一項實例實施例描述圖18B之方塊1850至1886。參考圖28,在方塊2801處,自系統(諸如系統1)獲得超音波資料。在一項實施例中,超音波資料組可係稀疏且帶狀的,使得其可使用即時IP協定語音發送。超音波資料可用於設置模擬參數;然而,基準模擬結果可在雲端組件上。在方塊2802處,可對來自方塊2801之超音波資料進行再取樣且針對噪音及成像假影進行濾波。在一項實施例中,可使用時間平均濾波技術來對資料進行濾波。在方塊2803處,可相對於人體之解剖識別系統(器件)之定向及位置。圖30繪示一器件相對於解剖2900之一實例經識別位置3000。在方塊2804處,獲得身體姿勢資訊及手定向資料以識別身體模型資料集之查詢參數(該資料集可自一雲端組件(諸如雲端1810)獲得)。就此而言,慣性資料可用於建構資料庫查詢,該等資料庫查詢經轉換為最接近姿勢近似值,其中資料庫包括統計人體資料及預模擬資料集。對應於最接近近似值之資料集可返回至器件。在方塊2805處,獲得包括生物計量資料之統計人體資料(其可自一雲端組件(諸如雲端1810)獲得)。圖29繪示統計人體資料之一表示2900之一實例。在方塊2806處使用定位資訊及人體模型來指定受關注之解剖特徵。在方塊2807處,處理超音波資料以突顯特定受關注之解剖特徵。檢查多個臨限值及形態特徵。此處理可視為一「預處理」技術,且可用於(例如)基於橈骨或尺骨形狀、大小及動脈區來判定一使用者在哪隻手上穿戴器件。方塊2807處之處理導致來自超音波信號之背景資料之受關注區之分段。在方塊2808處,識別且分離個別資料群集。在方塊2809處,如藉由圖31中之表示3100展示般識別群集資料之邊界。 近似區之識別可用於判定(除與區相關聯之其他特徵外)近似形狀、直徑、位置、幾何形狀及條紋密度。此等計量接著可用於使經量測超音波信號與預期解剖特徵相關。在方塊2810處,對準在方塊2809處識別之邊界3100以基於如圖32中展示之統計人類解剖最佳地匹配解剖特徵2900。在方塊2811處,(例如)透過侵蝕及擴張或關鍵點移除技術如在圖33中展示般簡化經對準邊界,且在方塊2812處,如在圖34中展示般在超音波資料中偵測簡化邊界。在方塊2813處,自在方塊2812處偵測之簡化邊界產生網。圖35繪示自簡化邊界資訊產生之實例網。在一項實施例中,藉由自慣性量測感測器接收輸入而考慮系統之剛體運動。在方塊2814處,產生一聲場模擬(AFS)模型。最後,在方塊2815處,比較模擬資料與量測資料之間的誤差以產生一姿勢估計。如在圖18B中展示,可將此誤差資訊傳遞至概率圖表/網路。 應理解,雖然之前及稍後參考特定影像處理操作,但是對稀疏數值陣列執行操作,該等操作對依據掃描線之空間分佈(除其他特徵外,且非自如用於影像形成之掃描轉換及網格內插獲得之「影像」)配置之回波信號之分析包絡進行編碼。 圖19A展示可駐留於系統1之記憶體中之降階可變形網動態模型或DM2有限元素人體模型之一組件之一代表性繪示。其功能為基於生物計量模型中之經選擇容許自由度之一經減小組態空間模擬經組合之系統1及組織物體之組織變形、順應性、碰撞、壓緊、慣性及重力行為。此經減小組態空間考量手或其他身體部分可達成之主要姿勢。圖19B展示在參考圖19A之手姿勢模型中考慮之代表性運動自由度。 例如,圖19A考慮在系統1正下方之腕部之一剖面。個別肌腱、骨骼、器件硬體、聚合物層經數學模型化為可彈性變形元件或剛性元件,其等具有與其等末端相關聯之節點。一些組織(諸如骨骼)可經簡單模型化為非彈性結構元件;其他組織(諸如靜脈及動脈)可經模型化為彈性結構元件。其他組織(諸如肌腱)可經模型化為致動器元件,其等展示與自超音波收發器25接收之資料相關之自我拉伸(例如,在彎曲期間之伸展肌)或自我放鬆(在伸展期間之屈曲肌)行為。在藉由臂之關節運動產生之一基礎激勵下使用三維非線性、各向異性及時間相依機械順應及消散元件模型化表示所有組織之邊緣及幾何形狀之模型中之節點。可藉由系統1之慣性量測感測器返回此基礎激勵加速性及行動性資訊。另外,此等模型可包含用於自我碰撞偵測之準備及用於模型化自我接觸之簡單幾何形狀穿透勁度。 自如之前呈現之首次使用演算法調適程序部分獲得用於產生此等數學模型所需之參數且自雲端組件或外部資料庫獲得剩餘參數。另外,來自超音波收發器25之信號可用於使用一經約束拉格朗日動態模型來識別組織之內部狀態,且接著可在小變形假定下求解一經約束前向運動模型,該模型返回手之姿勢之一估計。接著,如熟習此項技術者瞭解,進一步使用自適應、隨機、追蹤或最佳濾波器來對結果進行濾波或平滑化。 如自1886、1888、2716或2815獲得之身體及手之姿勢可接著用於識別是否存在臂抵靠一表面擱置之一機會。在此等情況中,當懷疑臂擱置時或在存在對應於慣性運動之信號品質之總體偏移的情況下,聲場模擬器用於產生資料,該資料當與實際超音波資料比較時可協助評估藉由前向運動解決方案返回之姿勢資料中之置信度。聲場模擬器可將組織溫度納入考慮,此係因為組織中之音速可隨著溫度輕微增大。在一特定區經歷大於推薦之強度時,此溫度量測亦可用於觸發一劑量或一自動關閉警示。 圖18A中展示之控制器具有被描述為一姿勢數位轉化器1824之另一段。姿勢數位轉化器控制手勢之界定及識別。其可從如在1886、1888、2716或2815中展示之控制器之主DSP核心、聲場模擬器、超音波收發器且從使用者介面(UI)識別接收UI期望接收之手勢種類之輸入1894。姿勢數位轉化器亦可偵測來自主控制器之錯誤姿勢輸入且可將此資訊饋送回至控制器,如在1888及2710中展示。 DSP核心1820計算各關節在運動模型中之關節運動值且將結果推送至數位轉化器。基於來自使用者介面之輸入及藉由作業系統或雲端組件判定之準則,數位轉化器可將值量化為位於兩個值之間的一積分表示。可藉由使用者介面或作業系統判定此量化之求解,且兩個值之範圍可對應於關節之關節運動之統計範圍,或其可在初始演算法調適程序期間自判定為極值、最大值及最小值之值獲得。此等值可為簡單起見而按比例調整及捨入。 圖22A展示可連接至DM2模型之手之一實例簡化運動模型。此圖使用在圖7A至圖7C中展示之關節定義且展示總共16個關節。DSP核心計算各關節在運動模型中之關節運動值且將結果推送至數位轉化器。基於來自UI之輸入及藉由作業系統或雲端組件判定之準則,數位轉化器可將值量化為位於兩個值之間的一積分表示。此量化之求解可藉由UI 1894或作業系統判定,且兩個值之範圍可對應於關節之關節運動之統計範圍,或其可在初始演算法調適程序期間自判定為極值、最大值及最小值之值獲得。在實例實施例中,此等值可為簡單起見而按比例調整及捨入。 例如,如在圖22B中展示,對於16個關節之各者可使用在-7及+7之間均勻容許之十五個此等離散值,其中使用形成列之關節及形成矩陣之行之關節關節運動建構一代表性矩陣。經填充、黑色正方形表示關節運動之關節之數位值,例如,關節P1 (手指4,近端指骨俯仰)藉由-2關節運動,且關節W1 (腕部/腕骨俯仰)藉由-7關節運動。此一矩陣可被稱為一姿勢矩陣。 可觀察,此一矩陣中之各列可僅恰具有一單一非零值,且此等矩陣可用於表示來自控制器之針對每一循序量測之資料。此等可能姿勢矩陣之總數目可經計算為:
Figure 02_image045
, 其中,I係關節之總數目,且ni 係第i個關節之量化之數。在圖22A至圖22C中展示之實例,N=1516 ,一非常大之數表示理論上可用於產生手勢之符號或字母之總數目。 圖22C展示與圖22B相同之矩陣,但具有對應於下一圖框之循序量測資料。灰色正方形展示來自先前圖框之關節值且黑色正方形展示新的關節值。新的值經左移或右移且其等保持如此。例如,關節P1現已經關節運動至-3值且W1現係-6。可見,一快速獲取圖框速率及一足夠粗略之數位解析度為各關節處之關節運動值所需以僅在先前圖框之緊鄰鄰區中之位置內轉變。例如,若量化j不等於1或15,則定位於矩陣中之(i,j)處之一元素可僅移動至藉由{(i,j),(i,j-1),(i,j+1)}狀態給定之三個狀態之一者,或若j=15,則可僅移動至兩個狀態{(i,j),(i,j-1)}之一者,或若j=1,則可僅移動至兩個狀態{(i,j),(i,j+1)}之一者。此經描述為姿勢中最近鄰區轉變且由不容許組態空間中之任何奇異點之關節模型之基於約束運動推斷。 當量測姿勢時,可存在與可在姿勢矩陣中展示之模型不確定性、計算、整數數學及近似值相關之雜訊。可在邏輯上拒斥此雜訊之一些以不容許非最近鄰近轉變,同時替換自濾波器獲得之值。即使一些肌腱展示大型旋轉且無法被追蹤,此方法仍亦實現最佳偵測。若一判別方法用於識別姿勢,則此方法亦可用於藉由將搜索限制至最近鄰區組態而增大搜索之效率。 最近鄰區組態亦可用於超音波傳輸及接收波束成形程序中以僅掃描此等轉變可能發生之區。此可用於增大掃描速率以及減小組織之有效聲透射。若一使用者開始產生不與使用者介面預期之手勢對應之一姿勢,則最近鄰近組態可用於在使用者完成錯誤手勢之前宣告一輸入誤差。除之前提及之雜訊拒斥應用外,此方法可用於監測且校準當一姿勢保持穩定時可獲得之雜訊及漂移程序模型。來自此等雜訊及漂移模型之統計計量可進一步用於醫學應用中。 可見,針對圖22A至圖22C中呈現之情境,N展示為一非常大之數。在一簡單模態中,關節之總數目可減小且可具有減小之量化位準。此可藉由使用者介面1894判定。例如,此系統之一實施例可僅容許每個手指一單一自由度及腕部處之三個自由度。僅可存在依據自由度或關節定義之三個量化位準。此一系統可用於簡單字母表,且將在字母表中具有
Figure 02_image047
個可用符號。所有關節之量化位準無需相同。 例如,圖23展示針對一姿勢矩陣中之各關節具有不同量化位準之一矩陣。此等可變量化值可係有用的,此係因為並非所有自由度皆容許高度關節運動,且人之能力各有不同。例如,末端拇指指骨可僅關節運動達20度,但手指1上之近端指骨可關節運動達110度。 亦應注意,儘管姿勢矩陣之組態之理論數目N非常大,但並非所有姿勢皆可藉由所有使用者實現。實際組態空間可受尤其交感性手指運動、殘疾、疾病(諸如骨關節炎)限制。類似地,並非姿勢之間的所有轉變皆係可能的,且許多姿勢並非係可偵測的。因此,為將此等觀察納入考慮,建構系統之一概率網路模型。 圖24展示一網路模型,其中節點及頂點表示個別組合姿勢(或姿勢矩陣),其中多達N個此等節點可存在於網路中。此一網路模型可從雲端組件下載至本端系統且可包括基於一人類群集組之統計生物計量之預充填圖表。可藉由記錄姿勢之間的轉變、轉變時間、停留時間、系統中可能之所有量化姿勢狀態之間的轉變不確定性產生圖24之網路圖表。圖表中之邊緣係方向性的且經加權,且可表示已從統計生物計量資料或模擬計算之姿勢-節點之間的轉變概率。雖然圖24為可視化展示一平面圖表,但此等圖表實際上可在更高維度中表示。因此,節點之空間配置或拓撲可基於一或多個維中之基於拓撲或字典計量。一手勢可經定義為一「行走」或一運動路徑或此一圖表中之一組連接節點之間的一循環。 節點亦可藉由先驗或後驗計算之概率分類。例如,找到具有一自然腕部姿勢之一放鬆手之概率可高於找到處於一緊握狀態中之一隻手。自然腕部姿勢亦可受定向影響,此係因為重力對放鬆姿勢具有顯著影響。特定姿勢可對使用者而言係不舒適的,且因此可展示高暫態及快速轉變速率且可具有與其等相關的低概率。一些姿勢雖然不舒適但在從一個舒適姿勢轉變至另一個姿勢時可能係無法避免的。圖24中之各節點之陰影強度因此表示各姿勢之發生概率,其中邊緣展示從一個姿勢至另一個姿勢之轉變。在圖24中,黑色表示更高概率,且較淺陰影表示姿勢之較低概率。 由於手勢在圖表中係藉由行走、路徑或循環分類,故與節點及指向邊緣相關之此等概率可用於計算手勢之概率且此可用作一計量來判定使用者舒適度及偏好。在一實例中,可避免可導致較低概率之手勢被使用者介面演算法使用。此等計量及拓撲描述可另外用於最小化估計誤差且改良一般聲學生物機械模型化。 由於此等網路可具有循環及強連接之組件,故此等可使用經連接組件演算法(諸如Tarjan’s)或搜索演算法(諸如寬度/深度優先或最佳搜索)及其等之組合偵測。亦可使用頻譜圖理論來計數特定長度之行走之數目。亦可使用組合拉普拉斯(Laplacian)方法來計算展開樹。尤其在本端或在雲端組件上計算此等計量。此等計量亦可具有可自相關於其等之轉變概率導出之累積分數。用以計算此等計量之演算法可使用查詢表面及字典來改進其等的計算或搜索時間。 此等計量接著可用於實施系統1中之適應性。歸因於人類感覺運動神經可塑性,預期使用者亦可經歷類似於可如何學習打字之肌肉骨骼訓練。例如,起始手勢可需要粗略或大運動;歸因於演算法適應性,傳達一手勢所需之實際運動可實質上減小。換言之,手勢靈敏度亦可逐漸增大。此可具有減小使用者疲勞度之優勢。適應性可針對手勢採用個別偏好,且透過可表現為更高或更低概率循環之關節或交感性運動非獨立性或統計身體差異引入之變化可納入考慮。例如,可移除使用者覺得不舒適且導致快速轉變時間之手勢。此適應性亦容許將老化、發展或生長相關變化性或生活方式相關改變(諸如使用者中之肥胖之減少)納入考慮。亦可考量身體殘疾(不管係臨時或永久),尤其包含與多指症、併指、先天性缺指、杜普宜特朗氏攣縮相關之殘疾。 所揭示之實施例之適應性之另一優勢在於可藉由使用者介面透過演算法引入或移除手勢之輕微或明顯變化以阻止重複使力傷害。例如,可監測姿勢以檢查一使用者是否依過度、不必要之僵硬保持姿勢。若偵測到此等條件,則可產生誤差且可引入對手勢之簡單修改。 其他等效表示係可能的,其中可使用多維向量而非姿勢矩陣。在另一實例中,可使用固定矩陣或記憶體位址來簡單表示網路。 圖20進一步展示系統1之基於雲端態樣之一實施例200之一繪示。系統1之雲端組件可尤其含有有關人體模型之統計身體及生物計量資料、機械及聲學組織參數、材料模型及校準或驗證資料集。有關內部生物結構之資料集亦可自非超音波非侵入性成像模態產生,諸如尤其磁共振成像(MRI)或電腦斷層掃描(CT)成像以及高解析度超音波檢查術或來自解剖資料庫。 此等資料驅動資料集可有利地經預呈現為全體積組件模型,諸如圖21中展示之一手之實例。可存在用於基於效率或可應用性考慮之簡化、整理、移除或添加來自此等全體積模型之組件之額外協定。可在任何使用之前對此等資料集進行整理、標記、歸類且分類。統計生物計量模型可經預分類為群組。當由雲端組件接收使用者輸入時(如在首次使用情況中描述),其可識別與使用者相關之最近端生物計量群組且在一首次使用期間將此資料返回至局部器件記憶體。 系統1之雲端態樣亦可含有加密及安全特徵來獨有地識別匿名使用者且阻止對可識別資訊之任何未授權存取。雲端組件亦可含有一掃描轉換系統,該掃描轉換系統從使用者取得超音波檢查資料且將其等呈現為診斷品質影像。雲端組件之掃描轉換態樣亦經存取控制以阻止診斷影像的誤用。例如,使用者可能無法存取診斷影像,但可授權有執照或註冊醫師之存取。 雲端組件可擁有一全場模型化及模擬工具,該全場模型化及模擬工具運行與生物計量有限元素人體模型耦合之高解析度聲場模擬。駐留於雲端之一可變形網狀動態模型或DM2有限元素人體模型(例如,圖21)之主要功能可係基於解剖特徵之數學模型中之容許自由度之總組態空間模擬經組合之系統及組織系統之非線性異質組織變形、順應性、碰撞、壓緊、慣性及重力行為。此組態空間考量手或其他身體部分可達成之所有姿勢。 駐留於雲端之聲場模擬器之功能可係模擬藉由將組織各向異性及旋轉變形納入考慮之特定波束成形演算法及儀器化協定產生之聲場。此等聲場模擬可用於通知系統演算法歸因於器件硬體相對於組織之慣性運動或透過滑動或壓力或一些其他干擾模態之回波描記術輪廓之明顯改變。聲場模擬亦可用於最佳化特定傳輸或接收波束成形或合成聚焦演算法,使得可自個別器件獲得最大資訊。 此相同物體資料亦可用於基於身體軟組織模擬及光場模型中。此等物體模型及其等之變體可用於藉由系統1預呈現尤其組織變形、光場模型、聲場與變形組織之間的互動。此等模擬可用於產生統計查詢表及擬合參數,其等捕獲此等模擬之結果。接著結果可根據預定生物計量群組再分類且基於其等各自生物計量群組提交至各使用者帳戶。此等基於群組之查詢表及參數可接著降低解析度且經修改以匹配使用者之獨有生物計量。此等資料可在一個別系統請求此資訊之前產生且在請求時刻之實際程序可僅引入與資訊之搜索、擷取及傳輸相關聯之延時。另外,若無法完成一請求或若不存在一模擬,則可佇列化此等請求以用於模擬及驗證。另外,若使用者資料在品質上不符合計量,則新的波束成形協定可經下載至此等個別系統1。 匿名使用者資料可透過經組態以匹配預呈現模型及參數資料之一基於雲端群集化及分段演算法傳遞給使用者。預期一使用者之生理及解剖將隨時間改變。此一方法容許自適應再分類使用者且隨時間移除額外訓練或調整需求。 基於雲端演算法可用於產生自動化保健計量。例如,此等計量可尤其包含心率、血壓、組織或區僵硬、血流速、姿勢動態、結構改變、組織應變場及其等歷史行為。亦可由專家服務提供者手動收集或分析一些生物計量。此等計量可用於提供自動化或手動診斷服務。 由於本文揭示之實施例之應用之一明顯部分可在本質上與預防性、診斷或治療健康相關,故額外順應性、基準及效能協定本端包含於在器件上及遠端包含於雲端上兩者。此等演算法可經透過演算法或手動測試、更新且監測。亦可提供一查核介面以手動或透過演算法測試模擬、保健或掃描轉換資料。可由專家人類使用者審查異常計量。更高解析度成像模式亦可從任何特定器件透過演算法或手動排程以審查出計量中之假陰性。由獨立/基準/查核演算法以及透過人類監督隨機查核正常分數以最小化假陰性。各系統1之韌體及故障安全模式亦可按一固定頻率審查。使用者可被自動提醒更新消耗品,諸如聲學層30。保健模式實施例可在偵測到損壞或到期零件的情況下自動或遠端停用。 本文描述之方法之基於數學模型之方法可經描述為與在最新技術中描述之判別模型相對之一自適應生成模型。此係因為依據本文揭示之一項實施例,選擇任一姿勢,且識別基於該姿勢之一手勢,而非如在習知方法中明確訓練演算法以僅僅判別固定姿勢。因此,此方法具有擁有許多符號之一非常大之字母表,其中一符號經定義為一獨有手勢。由於不使用判別、一次性參考信號訓練,故此生成及自適應方法不受透過一次性訓練引入之誤差影響。 一旦已藉由控制器偵測到手勢及姿勢資料,則其可被傳遞至皮膚引擎上。術語「皮膚引擎」係指兩個態樣:一個為控制投影顯示器;且另一個為定義一使用者介面、語言及設計。 圖25係根據一項實例實施例之包括一皮膚引擎270之架構250之一繪示。其可從系統1之控制器及感測器接收呈身體部分258之姿勢、使用者之眼部位置256之估計、完整身體或手組態254之姿勢及定向及感測器資料(諸如來自攝影機或彩色周圍光感測器252之資料)之形式之輸入。其亦可從作業系統262接收待顯示之影像(例如,顯示資料260)以及使用者介面資訊264。 皮膚引擎270之顯示器態樣使用輸入資訊以首先執行一陰影、柔軟組織運動及變形模擬274,其可與混合元素模型共用態樣且接著將此傳遞至一光場及照明呈現引擎272。此照明呈現程序用於評估顯示之品質且當投影於一非線性皮膚表面(諸如一手表面)上時其適當修改待顯示之影像以增強其光學品質。經修改影像隨後可用於在藉由微投影機20投影之前更新圖框緩衝器。 身體表面上之投影之一主要顧慮在於投影機通常經設計以投影於平坦表面上,但身體表面並不平坦或非均勻色彩及紋理。此外,隨著一使用者改變姿勢,此身體表面通常變形。此等表面亦具有紋理、褶皺、可變皺紋、可變色彩、反射率、毛髮覆蓋、暴露於周圍照明及阻止簡單投影或梯形失真補償方案產生跨使用者之一致投影影像之其他組織。因此,軟組織運動變形模型274用於產生投影表面變形之一模型,其可接著由光場或照明呈現模型使用來最佳化顯示參數。 術語「淺層軟組織」用於描述外皮系統(表皮及真皮)及皮下(下皮)層之皮膚及組織之軟層。隨著身體經歷運動,藉由此等層描述之表面變形。此等層亦具有永久特徵(如皺褶及褶皺),諸如在圖7A至圖7C中展示之手掌褶皺。除透過可伴隨一手勢之簡單拉伸之變形外,此等層亦可歸因於下層組織(諸如肌腱及肌肉)之運動而變形。 可使用資料驅動及基於身體模型化之一組合從計算圖形模型化此等軟組織變形。見Sueda, S.、Kaufman, A.、Pai, DK.,Musculotendon Simulation For Hand Animation,ACM Trans. Graph.,27 (3),2008年。亦見Bickel, B.等人之Capture And Modeling Of Non-Linear Heterogeneous Soft Tissue,ACM Trans. Graphics - Proc. ACM SIGGRAPH 2009 TOG,28 (3),2009年。例如,自控制器獲得之姿勢資料可用於判定骨骼框架之定向。組織幾何形狀可自藉由系統1之雲端組件提供之統計生物計量模型獲得且可反映性質(諸如尤其尺寸、組織厚度及脂質層厚度)。組織幾何形狀資訊及可穿戴器件之位置可用於提供對肌腱、肌肉及其他組織模型之約束以及骨骼框架姿勢量測,其等可接著經求解以計算組織變形。替代地,來自控制器之一有限元素模擬亦可提供組織變形資訊。此等模擬態樣亦可在系統之雲端組件上執行,且一本端系統1中之記憶體可下載查詢表及多項式插值函數(諸如尤其樣條或非均勻有理B樣條)以依據姿勢表示淺層軟組織變形。 一旦獲得變形表面資訊,即將其提交至如在圖25中描繪之光場照明呈現系統272。呈現系統可取得輸入,諸如姿勢、待投影之影像、投影之身體位置、皮膚色彩、紋理、投影表面之變形、皮膚反射率、周圍照明、使用者眼部之估計位置、發生投影之身體部分之定向及投影機光學、照明及色彩特性(包含像素及透鏡轉換函數、工作週期及刷新率)。假定攝影機定位於使用者眼部處。照明呈現系統272接著可使用此資訊來產生一場景,其在最佳化投影顯示器特性之約束(諸如尤其一致色彩對比度、靜態及動態對比度、縱橫比及最小失真及功率消耗)下使用呈現方程式之一公式化來求解。最佳化程序可使用諸如輻射度演算法或基於蒙地卡羅(Monte Carlo)演算法(諸如用於路徑追蹤中之該等演算法)之方法。 由於此照明最佳化之許多輸入參數一般為常數或係可預測的(例如,在使用過程中周圍照明對於使用者而言一般經歷可預測改變,皮膚色彩不改變),故此呈現可發生於系統1之雲端組件上,且使用者僅需要下載係數及查詢表。低解析度或簡化模型亦可在本端系統1器件中求解且可使用來自藉由雲端組件上之模擬產生之查詢表之校正因數。另外,使用者能夠使用調整顯示器輸出之簡單校準或補償參數來補償顯示假影或調整色彩位準。可手動運算此等參數。 可使用人類視覺系統之時空對比度回應、邊緣搜尋及運動搜尋模型來提供額外影像補償以獲得最佳像素及色彩、空間及動態調變、工作週期及頻率。見下文:Ahumada, AJ.、Beard, BL.、Eriksson, R.,Spatio- temporal discrimination model predicts temporal masking functions,Proc. SPIE 3299,Human Vision and Electronic Imaging III,1998年;Watson, AB.、Ahumada, AJ.,Model of human visual motion seeking,J. Opt. Soc. Am. A,2 (2),,1985年;Watson, AB.、Solomon, JA.,Model of visual contrast gain control and pattern masking,J. Opt. Soc. Am. A,14 (9),1997年;Watson, AB.,Visual detection of spatial contrast patterns:Evaluation of five simple models.,Optics express, 6 (1),2000年;Watson, AB.,The search for optimal visual stimuli,Vision Research,38,第1619-1621頁,1998年;Lambrecht, CJVDB.,A Working Spatio-Temporal Model Of The Human Visual System For Image Restoration And Quality Assessment Applications,Proc. ICASSP- 96,IEEE,May 7-10,Atlanta,GA,1996年;及Watson, AB.,The Spatial Standard Observer:A Human Vision Model for Display Inspection,SID Symposium Digest of Technical Papers 31 (1),2006年。例如,靠近圖標或顯示物體之邊界之像素可在特定頻率下調變至最大亮度以使人類視覺系統之回應飽和且抑制超越圖標邊緣之亮度。通常用於錯覺中之額外效應(諸如尤其棋盤陰影(checker shadow)、康士維錯覺(corn sweet)、同時對比(simultaneous contrast)、格子花紋(plaid)或Vasarely錯覺)亦可用於增大一皮膚或其他非線性投影表面上之顯示影像之感知對比度。在圖25之實施例中,皮膚引擎270亦包含背景及前述呈現元件276。將來自皮膚引擎270之輸出傳遞至圖框緩衝器278,且將圖框緩衝器278之輸出傳遞至微投影機280。 系統1之使用者介面元件可用於使用者的視覺體驗的類似最佳化。使用者介面之一重要態樣為如在圖8A至圖8F中繪示之五個動作選單。五個動作對應於使用者一般具有之五個手指且可具有跨許多介面之與其等之各者相關聯之一致動作。不需要使用者從記憶中回憶一手勢之效應且可替代地簡單查詢投影於身體表面上之標記。此基於操縱定律產生一高效率介面,且具有Hick及Fitt定律之重要涵義。 系統1之使用者介面之另一態樣係「彈性」介面之使用。此等投影光介面中之彈性可經定義為可與軟組織變形或手姿勢成正比之圖標或圖標動畫之間的相對運動。例如,圖8A至圖8F之五個圖標選單可展示分別在拉伸或緊握手勢期間展開或靠近在一起之圖標。此等動畫提示可用於利用人類視覺系統之運動搜尋及邊緣辨別行為。圖8A至圖8F展示用於識別正被選擇之圖標之此等動畫提示之實例。 此等彈性介面可係非矩形、無框架且無需具有與介面相關聯之牢固邊界或網格或邊緣。此等邊緣一般充當一視覺提示,針對其辨別影像中之失真。因此,投影至皮膚上之圖標集可比相對於任何矩形網格結構更多地相對於身體部分之構形對準。 系統1之一腕部穿戴實施例上之使用者介面可提供對(例如)四個直接顯示位置之接達,即兩個手背位置(一個在前臂上且另一個在手上);及兩個手心位置(一個在前臂上且另一個在手上(手掌)上)。手之手心或手背表面用作顯示表面之原因在於腕部關節相對於使用者眼部係回饋穩定的,但包含前臂或上臂之其他表面在有用之時間段內不具有此穩定性。藉由習知方法描述之其他模態之任一者皆未辨識到此益處。 基於藉由系統1之控制器提供之姿勢資訊,介面可經組態以在四個顯示表面之間無縫切換。可同時或獨立使用所有表面。例如,腕部之一簡單掌心向下-掌心向上運動可在手背或手心表面之間翻轉。此自動化螢幕切換行為可用於實施一情境皮膚略讀行為,其中系統1可基於身體及臂姿勢資訊自動鑑於使用者之眼部辨識唯一目標表面。基於系統1中之感測器或藉由姿勢資訊自動偵測顯示表面之存在。在不存在任何可用表面的情況下,所有微投影機20元件被關閉,除非由使用者明確阻止。 本描述主要聚焦於考慮一腕部穿戴實施例之方法之模態。然而,類似方法可用於監測身體之其他區。例如,針對眼部、面部或頸部設計之模態,生成模型將包含繞上頜骨及合子骨之組織結構,或在頸部之情況中之繞舌骨及脊椎骨之組織。用於評估及監測醫學條件之先進醫學成像模態可包含可駐留於系統之雲端組件上之完整身體生成及聲學模型。 在可聚焦於保健之技術之一模態中,可藉由檢查脈動動脈或一般脈管系統區而監測尤其心率、血壓、血流速、平均速度、脈動指數、心臟收縮/心臟舒張週期率。可依據時間直接透過在脈動區處量測組織變形而識別心率。此等區展示與心率對應之週期性波動。類似地,可藉由檢查跨脈動組織之應變場及速度剖面而監測血壓(見Beulen, BW.等人之Toward noninvasive blood pressure assessment in arteries by using ultrasound,Ultrasound Med. Biol.,37 (5),2011年)。 本文揭示之實施例之系統及方法之所有保健模態可以訓練使用者準確使用器件為條件。例如,使用者可不理解用於從頸部近端之頸動脈區提取品質信號之正確程序。因此,使用者可在經銷商或供應商處所接收類似於當前如何提供急救復甦訓練之訓練。針對簡單或非關鍵模態,使用者可使用線上服務訓練或可配備自動化協定驗證及誤差校正。例如,容易從中提取信號之非關鍵區的訓練可經由線上視訊服務提供且在使用正確協定之後,可以類似於如何訓練使用者使用指紋感測器之一方式給予它們自動回饋化。 一些保健模態可需要偶然器件校正及效能測試。此校準可在一經核准位置處發生或可使用雲端組件線上透過演算法進行。在一項實施例中,使用者可購買特定聲學幻象目標用於此校準。 鍵盤係直觀的,此係因為使用者獲得其等輸入之直接視覺回饋且立即注意到誤差。此功能性可使用所呈現之技術重新產生。例如,在偵測到一手指3彎曲手勢之後,系統1之投影顯示器可經組態以投影手指3位置近端之一彩色符號,其識別偵測到之手勢來自手指3。此符號可係逐漸消失之一動畫精靈。 在系統1之一模態中,超音波收發器25可在偵測到使用者活動時自動開啟。收發器25亦可經組態以使用來自慣性量測感測器之資料開啟,例如,腕部繞前臂之旋轉序列可用於開啟系統1。 在系統之一進一步模態中,若來自超音波收發器25之所接收信號指示高阻抗介質或器件經指示為繞身體不當地緊固,則超音波收發器25可經組態以立即關閉。 在又一進一步模態中,類似於基於軟體之打字指令,使用者可經訓練以藉由顯示投影圖標或標記而使用特定手勢用於互動,該等圖標或標記可引導使用者依序移動一特定手指或呈現一特定姿勢。此一模態之優勢在於微投影機20顯示器為使用者產生一直接、視覺回饋。 歸因於用於本文揭示之實施例中之獨有使用者介面,來自網際網路之一般內容可透過演算法預呈現以與設計介面相符。此內容呈現可透過定位於系統1之雲端組件上之一閘道介面而發生。 為了獲得更高準確度之計量,使用者可輸入額外生物計量資料或可使用機載感測器自動量測此資料。生物計量資料藉由(例如)臂在肩部至腕部之間的長度、手指尺寸、手之弓長、肘部至腕部長度、高度、身軀尺寸等例示。此資料由本文揭示之實施例之系統及方法使用以產生使用者之一數學身體模型且用於各種目的。 在一進一步模態中,本文揭示之實施例可追蹤針對透過手勢做出之使用者請求之介面回應事件。使用者通常犯可導致一非所需回應之錯誤。非所需回應通常導致使用者做出校正。例如,在常規鍵盤中之一非所需擊鍵之後,一使用者可敲擊退格(backspace)或CTRL+Z來撤銷錯誤;或在訪問一非自主點擊之連結之後,使用者快速瀏覽離開此等連結。可藉由追蹤後續時間及校正輸入而識別此等非所需回應。此係系統1介面之一主要元素,此係因為使用者可在此等虛擬介面中無如其等在機械鍵盤中所有之直接觸覺回饋。 下文係本文揭示之實施例之一些非限制性可能應用之簡要描述。應用基於功能性分段。此等應用可使用系統1之本端資源處理或可利用網路化器件(如智慧型電話)或基於虛擬雲端之器具。適合於配合本文描述之實施例使用之具有廣視角之實例3D顯示器、超高解析度2D顯示器或2D/3D可切換顯示器包含(不限於)在2014年10月7日頒予Hussein S. El-Ghoroury等人之題為「Spatio-Temporal Directional Light Modulator」之美國專利第8,854,724號及在2015年1月6日頒予Zahir Y. Alpaslan等人之題為「Spatio-Optical Directional Light Modulator」之美國專利第8,928,969號中揭示之該等顯示器。適合於配合本文描述之實施例使用之實例時空光場攝影機包含(不限於)在2015年11月3日頒予Hussein S. El- Ghoroury等人之題為「Spatio-Temporal Light Field Cameras」之美國專利第9,179,126號中揭示之該等攝影機。前述文件之各者之全部內容係以引用方式併入本文。 2D顯示器上之3D控制:一腕部穿戴實施例可用於與2D螢幕上顯示之3D內容互動,諸如藉由電腦輔助設計程式、或動畫或模擬程式產生之該等內容。接著,將手勢資料傳送至將輸入轉換為虛擬控制參數之一計算器件。此等控制參數接著與2D呈現之3D內容互動。 3D顯示器上之3D控制:基於體積光場呈現之3D顯示器變得更普遍。然而,可用於與深度內容互動之模態係不可用的。在一項實施例中,系統(器件)可經穿戴於腕部上且可用於基於臂及身體之姿勢及手勢與深度內容互動。一實例應用可與醫學全像術互動。 2D滑鼠控制:系統(器件)之一腕部穿戴實施例可藉由使用拇指作為一尖筆來界定藉由食指及小指之頂部及底部製作之四個邊角作為一2D控制表面之邊角而用作一2D游標位置控制器(滑鼠)。藉由螢幕上之游標重現拇指所指向之此控制表面內部之任一位置。因此,手之手掌表面之使用容許拇指用作一尖筆來輸入2D座標資訊。在系統1之一項實施例中,此容許使用在控制表面上方繪畫之特定圖案來用作密碼,該等密碼可用於獨有使用者識別。 虛擬鍵盤:系統(器件)之一腕部穿戴實施例可在不被穿戴的情況下使用。系統1可自動調整投影光以在平坦表面上呈現。一或多個光場可用於產生一平鋪、大型顯示器表面。在一項實施例中,可使用振動感測器、結構化光感測器、紅外線感測器或捕獲且定位來自輕觸之振動或對結構光之阻礙之類似器件與此一系統1互動。 單手遊戲:如在圖26中描繪,系統(器件)之一腕部穿戴、單手實施例可用於一遊戲或娛樂應用中,其中使用手指以數位或比例量測方式用作遊戲控制器輸入以與顯示內容互動。投影表面無需限制於手掌或手背表面,而亦可包含前臂表面及身體外外部投影表面。該應用亦可使用額外手勢輸入(如前臂之旋轉)。 雙手遊戲前端:系統(器件)之一對腕部穿戴實施例可用於任一手上以產生用於遊戲或娛樂應用之一平鋪顯示器表面,但不限於此等應用,其中多個顯示器彼此互動且共用其間的內容。此等應用可使用之前描述之空間配置系統以用於器件間通信。此等應用可使用多個投影表面,包含手背、手掌及前臂表面上以及外部身體外表面上之該等表面。 雙手遊戲:系統(器件)之一對腕部穿戴實施例可用於任一手上以產生用於遊戲或娛樂應用之一分佈式顯示器表面,但不限於此等應用,其中多個顯示器彼此互動且共用其間的內容。自臂之姿勢判定之手之空間分離可用於添加額外輸入至應用中。此等應用可使用之前描述之空間配置系統以用於器件間通信。此等應用可使用多個投影表面,包含手背、手掌及前臂表面上以及外部身體外表面上之該等表面。 基於影像之搜索:在一實施例中,系統1之機載攝影機可經組態以拍攝物體或環境且此等影像可用於查詢搜索引擎。手勢可用於瀏覽且選擇正確結果。搜索引擎可經提供關於正確結果之資訊,該資訊可經地理標記且推送至稍後訪問該地點之其他使用者。搜索參數亦可使用手勢控制。例如,手之姿勢可用於傳達有關大小及關聯性的概念。 工業設備:一或多個腕部穿戴實施例可用於與僅擁有網路化介面而無顯示器或輸入能力之工業器件互動。一代表性應用係系統1從工業設備接收狀態資訊及一使用者操縱工業設備之操作所需之控制參數。此具有減小製造工業設備之成本之優勢,此係因為其等不再需要其等自身之輸入或輸出能力。 遙現:一或多個腕部穿戴實施例可用於經由網路與器件及器具遠端互動,其中可使用投影顯示器呈現來自遠端器件之狀態或資料且手勢可用於與器件遠端互動。 軍事戰術:一腕部穿戴單手實施例可用於其中操作者可需要使用另一隻手來保持其他設備的控制之應用中。例如,遠端遙控IED處置機器人之士兵可保留對其等武器之完全戰術性控制的同時使用手勢。此應用利用藉由顯示器與手勢系統之整合提供之單手互動能力。 遊戲控制器:一或多個腕部穿戴實施例可用於替換用於控制器件之傳統有線或無線控制器,諸如電視機、遊戲機及其他,但不限於此等實例。 機器人控制器:人手之關節具有超過20自由度。由於本文揭示之實施例以一類比方式捕獲此等關節的大多數之姿勢,故資訊可經容易地轉化為機器人關節之姿勢。類似於人類關節,機器人關節亦具有對總體行進之限制。本文揭示之實施例提供用於直接控制機器人且監測其等內部狀態之一直觀程式化介面。藉由系統估計之手姿勢可轉換為機器人程式化介面所理解之符號或直接中繼至控制器。控制器在關節速度及通過-不通過評估方面解釋符號。替代即時直接控制姿勢,本文揭示之實施例可用作一離線程式化介面。在一項實施例中,可使用如使用自本文揭示之實施例計算之姿勢定義之關鍵圖框透過內插估計一關節之運動軌跡。 在另一實施例中,體現多個模態(諸如在圖1中展示)之多個可穿戴器件可直接或透過與服飾整合穿戴。此等系統1可用於捕獲人體中之主要關節之姿勢。此姿勢資訊可接著經中繼至外骨骼機器人結構。此提供此等外骨骼與人體之間的一直接觸覺連結。 手搖鑽/物聯網:一或多個腕部穿戴實施例可用於經由有線或無線網路與僅擁有網路化介面而無顯示器或輸入能力之家用器件互動。本文揭示之實施例可經組態以從一家用器件接收狀態資訊且操縱器件操作所需之控制參數。此具有減小製造此等器件之成本之優勢,此係因為其等不再需要其等自身之輸入或輸出能力。此類型之一實例係家用恆溫器。另外,許多系統(如研磨機或冰箱)具有基於電位計的撥盤或滑件或開關。此等離散或雙極開關或比例量測控制器亦可使用本文揭示之實施例替換。 語音殘疾/ASL:可穿戴實施例可結合解釋手勢、姿勢及軌跡來產生符號通信之通用或客製化字典使用。在一實施例中,經辨識符號可經轉換為一聲源之頻率及振幅調變以產生類似於語音之聲音。例如,此一系統可用於協助具有語音殘疾之使用者精通該等通用字典(諸如American Sign Language (美式手語))以藉由將手勢轉化為不理解美式手語之人之聲學回饋而通信。 在另一實施例中,可向聽力殘疾使用者呈現自手勢之一轉化獲得之符號。此呈現可使用微投影機20組件完成或其可使用行動顯示器器件(如智慧型電話)呈現。 隱秘通信:「無聲地和自己說話」或「在心裡對話」之程序導致聲道中之肌肉活動。此活動通常被描述為無聲。研究已表明,來自頸部中之聲帶區周圍之EMG信號可用於拾取來自主動發聲及無聲之信號。習知方法使用判別方法來使用此等EMG信號以辨識語音及自主/非自主發聲/無聲手勢。 系統(器件)之一實施例當附著至人類喉部區時可用於使人類聲道中之快速波動成像。接著,此等波動可用於產生一電信號,該電信號可在本端處理或傳達至一不同計算器件。此等信號可用於多個應用。例如,此等信號可與字(特定言之,音素)相關以產生電或數位信號。此等信號可進一步經處理以用於轉換為語音或文字或有意義的符號。此等技術之應用可用於安全、非發聲通信中。在另一實施例中,系統可繞腕部穿戴,且可將手勢轉換為符號,如之前論述。此等符號亦可用於在不使用發聲或聲音的情況下通信。 加密:一般超音波影像壓縮係關於傳統壓縮演算法,其等解決一般情況成像問題。歸因於本文揭示之實施例之性質,其並非一般目的且其僅在作為一可穿戴器件之受限區中掃描。為此,其可利用經探測區之完全靜止性質且僅從信號熵最大之區提取資訊。透過演算法自個別歷史及解剖判定所使用之精確壓縮技術,且系統1可用作可用於唯一地識別個體之一個性化加密機構。 密碼學:壓縮協定及含有精確掃描/光束成形協定之生物計量檔案標頭為各使用者獨有,故本演算法亦有效地充當一加密演算法。例如,獨有手勢可用於表示獨有手勢通信符號,解碼該等符號需要瞭解原始壓縮/生物計量技術。此等特徵為器件壓縮賦予公開金鑰加密之一等效物。私密金鑰(序列表示演算法參數)可儲存於系統中駐留之安全器件安全區(enclave)上。 無聲環境/海底/太空:一實施例可用於不支援聲學或發聲通信之環境中之通信目的。此一應用可使用基於手勢之符號方法或可使用發聲活動之識別來偵測通信之發聲或無聲音素,且可用於傳達簡單指令至機器。例如,反潛作戰技術頻繁採用高度靈敏之聲納陣列,其等足夠靈敏以拾取來自潛水器之聲學通信或聲音。實施例可用於避免此等環境中之偵測。另一實例供潛水員在水下使用之基於手勢之通信,而實現此功能性之當前技術需要使用專用潛水設備。 禁止通信環境:一實施例可用於需要不存在或最小聲學或發聲通信之環境中之通信目的。此通信可係基於無聲偵測或基於非視線手勢之通信。此技術之一實例應用將係針對在惡劣環境中行動之軍事或民事戰術專家,其中團隊成員可能無其等可用之基於視線身體手勢之通信模態或可在低亮度環境中行動且維持安靜具有戰略性意義。 援助呼叫911:一實施例可用於從指定或授權方自動請求援助。此一應用可使用系統之生物計量能力來評估使用者之身體條件。當偵測到異常信號(諸如衝撞或跌落或反常心臟行為)時可發出援助請求。 非人類通信:一實施例可針對與可使用經典或操作性制約來訓練之非人類動物相關之應用設計。在此實施例之一例示性應用(但不限於此實例)中,一寵物可能能夠藉由投影動物以及人類兩者可見之一影像或符號而傳達對食物類型之一偏好,其中動物使用投影影像獲取食物類型之一相關瞭解。 群組同步:可使用其中器件可跨身體之諸區穿戴,且可與由人群組穿戴之附近或遠端類似器件通信之實施例。此等系統1可在藉由一特定手勢或姿勢啟動之後為使用者提供一回饋回應。此等回饋回應可用於同步人群組之活動或任務。 量測及計量、重量:在替代性實施例中,一或多個腕部穿戴版本可用於量測物體之物理、機械尺寸及速度或器件與其他靜態或移動物體之距離之目的。在一項此實施例中,器件可使用空中超音波收發器作為一測距儀來量測與其他物體之距離。在另一此實施例中,指尖之分離可用於量測可配合至一普通手之抓握中之較小物體之尺寸。此等實施可能可用於施工、工程、現場測試之應用且用作一般車間工具。 力/扭矩量測:一或多個實施例可用於量測身體中之關節處之負載反應之目的。例如,一腕部穿戴實施例可用於量測藉由手施加以抬起一質量之反作用力。另一實例將係量測腳踝與地面之間的反作用力。使用肢體尺寸之近似法,亦可量測關於肢體上之反應、扭矩之額外資訊。此等實施例之例示性使用係在其中需監測施加至實體物體之負載及扭矩之現場或工業工程中。 無標記點姿勢捕獲:自此處呈現之實施例產生之身體及肢體姿勢資料可在本端收集或經由電腦網路即時傳輸。此姿勢資料之概要可用於分析通信模態。此資料亦可用於關於虛擬實境、動畫、電腦產生影像、視訊遊戲及遙現之應用,但不限於此等應用。例如,此資料可用於模擬遊戲中之虛擬人群或用於基於虛擬實境或遙現之體育賽事。資料可進一步經處理以顯露額外計量。 運動CGI方向:一或多個腕部穿戴實施例可用於需要控制點之虛擬表示之方向之應用,諸如用於電腦產生圖形(CGI)、模型化及動畫中之該等應用。替代手動程式化此等點之軌跡或位置,或為了編輯點之此等電腦產生軌跡或位置,實施例可用於將手勢或姿勢資訊轉換為符號或命令以與此等點互動。例如,手指之關節可用作虛擬運動連結之替代者,且來自手之姿勢資訊可用於操縱控制點。可找到用於視訊遊戲、3D模型化應用程式或動畫生成之目的的實例應用。 雕刻:一或多個腕部穿戴實施例可用於經由有線或無線網路與數位呈現物體互動。手之姿勢可用於使數位呈現變形。例如,手指尖之位置或手掌之表面可用於使3D網中之節點產生且變形以用於實體模型化。另一實例可係在一虛擬雕刻程序中使用指尖位置來界定此等節點以產生一新的模型。 觸覺掃描/3D掃描:一或多個腕部穿戴實施例可用於產生數位內容且經由有線或無線網路中繼它們,其中數位內容與手指尖之位置有關。手指尖可用於追蹤實體物體之輪廓。數位內容可採用點雲之形式。在此實例中,模態具有類似於一3D掃描技術之功能性。 非自主計量:實施例可用於獲取非自主生物機械資料,可基於該非自主生物機械資料估計額外計量。數個實例應用(但不限於此等)可在使用者參與追蹤及廣告最佳化的領域中。一些生物機械信號(諸如體溫、透過身體活動判定之注意力、心率及呼吸速率)可用於建構計量。使用本文揭示之實施例之一優勢在於此等信號無法被冒充或偽造且表示實際使用者參與。此等計量可用於補充傳統點擊觀看、點擊進入及花時間觀看類型計量。 全景成像:一腕部穿戴實施例(其中實施例含有一或多個影像感測器)可用於隨著故意在空間中四處移動器件而連續獲取影像。稍後可將所獲取之影像拼接在一起以產生體積光場資料或全景或平鋪影像。可藉由虛擬實境或頭戴顯示器觀看此等影像或可使用擴增實境應用觀看它們。 視線及眼部追蹤:一面部穿戴實施例可用於監測眼肌之狀態。例如,此一實施例可呈一眼外附件之形式且可經定位於顴骨、顳骨、蝶骨或上頜骨之任一者上,如在圖1中展示。選擇所繪示之位置,此係因為其提供對眼窩之接達,且其難以在其他面部位置處成像,此係因為頭骨中之骨骼極大阻礙聲學傳輸。一實施例可用於追蹤六個眼肌群(上直肌、下直肌、側直肌及內直肌(左/右)及上斜肌及下斜肌(左/右))以及提上瞼肌、眼輪匝肌、顴大肌/顴小肌及提上唇肌之狀態。基於裝置定位於哪一骨骼上,系統1能夠追蹤眼瞼、虹膜之掃視、鞏膜區之旋轉、臉頰表情、嘴之結構及狀態及嘴唇之變形。 來自此一頭部穿戴實施例之資訊可用於(但不限於)諸如視線追蹤、表情及眼部追蹤之應用。此一實施例優於傳統光學眼部/視線追蹤硬體之一個益處在於其係非遮蔽的(無阻擋或無阻礙)。不需要虹膜或瞳孔之直接或間接觀看。除提供用於眼科、治療分析或監測目的(但不限於此等)之解釋性資料外,本文揭示之實施例亦可用於控制數位及實體介面及物體兩者。類似地,本文揭示之實施例可係眼鏡、頭戴式顯示器、頭盔或面罩之一部分,其將使一非阻礙構件能夠追蹤眼部且推斷其參數,以便提供偵測眼部對一給定刺激、影像或視訊內容之回應之一回饋信號。此等實施例對擴增實境(AR)顯示器應用係有價值的,其中藉由實施例提供之回饋可用於取決於藉由實施例偵測之眼部參數之回饋修改、調整、壓縮、強調或突顯顯示影像內容之部分或實質上所有。 表情追蹤:一面部穿戴實施例(類似於上文論述之實施例)可用於監測面部肌肉之狀態。自此等實施例返回之資料可用於解釋或分析人之面部表情。應用可包含動畫控制、非自主計量收集或醫學實踐。 彈性成像:彈性成像係建構組織之機械僵硬之一圖形表示之一成像模態。此等僵硬圖可用於諸如腫瘤監測及分析之應用中。一項實施例(其可係一腕部穿戴實施例且類似於觸覺成像)可用於使用之前揭示之方法來量測組織之力回應。量測資料可與之前從使用者獲得之參考資料或針對線上可獲得之量測之一概要比較。比較用於偵測組織之機械回應中之異常。 在另一實施例中,器件可繞待分析之身體部分穿戴或其可寬鬆地抵靠該等區放置。系統1之帶元件5中含有之SMA致動器或振動馬達因此可用於週期性地激發或刺激組織,同時在激發期間主動收集超音波信號。出於監測目的,經收集之信號可透過演算法分析或由一醫師分析。 敲擊性/衝擊性/振盪性衝擊監測:可藉由可穿戴實施例監測身體之多個區,其中實施例可係一服飾、衣服或保護性服飾(諸如帽子、靴子、保護性護膝及手套)之一部分且可用於監測自實施例獲得之運動、慣性及靜態資料。此等實施例可用於提供關於身體或身體之特定部分可經受之敲擊性或振盪性衝擊或跌落之資訊。應用包含衝擊性或敲擊性運動活動,其中活動關節、頭部及一般曝露或覆蓋之組織可經受突然及反常加速及減速,導致相對於骨骼系統之明顯、慣性組織運動。儘管此等損傷可能未立即表現出病理,但其等可隨著時間而表現出來。此等實施例可用於追蹤實際組織運動且監測累積性損害且輔助任何歸屬疾病之瞭解及治療。此等實施例不限於運動活動,而可包含諸如尤其施工、工業技術勞作、公務員服務(諸如警察及消防管理)、海事及後勤服務之活動。 運動醫學:除與之前論述之工作場所安全相關之模態外,本文揭示之實施例之態樣亦可用於運動醫學之一般領域中以用於透過演算法或由人類參與(human-in-the-loop)專家提供之效能追蹤、監測及改良建議。高爾夫運動係一好實例。來自此用途之資訊可藉由實施例收集且用於分析自與高爾夫相關之姿勢資訊及生物機械收集之計量,諸如尤其擊球衝擊、擺動效率、速度、活動肌肉群及腕部姿勢。類似實施例可用於監測其他身體部分來評估衝擊之影響、投擲動作之效率且提供生物機械回饋以改良身體動作或手勢之效率及有效性。此等實施例之另一實例用途可用於分析其中需要生物機械同步之團隊運動活動。 雲端上成像:一或多個實施例可提供信號,該等信號可在雲端上獲取且再處理。如論述,身體可穿戴系統1不需要擁有用以直接實施輸入信號之掃描轉換之構件。因此,可將此等US信號之原始、經壓縮或經加密形式上傳至雲端或網路基礎設施(其中一掃描轉換模態存在且可用於建構2D影像)。基於自動化影像分析,可將客製化超音波信號產生或接收協定下載至系統1以改良經再建構影像之品質或性質。此等客製化信號產生能力可包含除其他信號處理模態外之更高頻率、更高解析度、特定掃描頻率。 雲端上監測:一或多個可穿戴實施例可提供信號,該等信號可在雲端基礎設施上獲取且再處理。如之前論述,可將信號掃描轉換為一影像格式,該影像格式可接著用於透過演算法產生評估及一般健康監測計量,其等接著可返回至使用者。例如,已論述用於自來自脈動血管組織之多普勒或常規信號量測心率之一方法。在另一應用中,可藉由觀察血管組織/動脈之結構擴張而估計高血壓。在其他實施例中,多普勒超音波可用於檢查在肢體中之脈搏點處穿過動脈之血流且返回血壓之評估。此等實施例可用於評估周邊血管疾病風險、患高血壓之人的常見體徵、動脈中之血小板積聚、高血壓、識別膽固醇或甲狀腺或關節磨損類型組織之病理以及但不限於運動障礙。基於自動化影像分析,可將客製化超音波信號產生或接收協定下載至器件以改良醫學評估及計量量測之品質或性質。此等客製化信號產生能力可包含除其他信號處理模態外之更高頻率、更高解析度、特定掃描頻率。如此,雲端平台可提供統計估計以及計量之時間歷史給使用者以實施生活方式改變或提供給保健專業人員以用於先進醫學監測及評估。 遠程放射:實施例可用於提供基於網路之預防性、監測及治療保健。例如,來自使用者之資訊可視要求或自動傳達至雲端,使用者可如透過演算法或透過手動專家技術分析判定接收對其等健康狀態之自動化更新。雲端可請求且評估資訊(諸如來自私人或政府健康資訊網路之個人健康記錄及電子健康記錄)。接著,雲端可透過演算法分析資料以從使用者提取計量及/或可透過演算法判定將任務分配至提供資訊及分析服務之經訓練技術人員之一本端或遠端網路之一最佳方式。其等的報告及計量經提交回雲端基礎設施,該雲端基礎設施接著將結果推送給接近使用者之一健康專業人員或直接推送給使用者。基於經收集之計量及指示結果,演算法可為使用者自動排程與相關專業人員的預約或額外測試。管理保健相關支付分析之保健提供者及組織亦可使用雲端來排程特定模態以執行給使用者。 此一實施例之一主要優勢在於與展示遠遠更多統計可變性之一單一昂貴測試相比,可在一時間段內自動收集資料。除連續監測外,另一優勢亦在於使用者無需特地獲得測試及排程服務。 土耳其機器人(Mechanical turk)/眾包洞察力(Crowdsourced insight):在一實施例中,可用於提供人類參與型按需保健服務。使用者可提出一請求(其可係一次性或一訂用服務)以與手動檢測一使用者之計量或影像之技術醫學服務提供者聯繫。服務可圍繞專家檢查員評定結構化。使用者可基於此等評定選擇一特定服務且允許服務存取匿名或實名資料且可接收一匿名或實名評估。可將多個服務組合以獲得統計上相關之評估。可將此等評估添加至使用者之個人健康記錄。可針對準確度及監管測試透過演算法或手動查核分析員服務。 運動障礙:一或多個可穿戴實施例可用於連續地或間歇地追蹤且監測神經肌肉及肌肉骨骼障礙。此等實施例可具有在尤其一般病理學、神經病理學、肌肉骨骼腫瘤學、心動描記法、心肌病、整形外科或風濕病學中之各種應用,其中藉由生物機械或運動血管標記表現病理,該等標記可使用藉由本技術實現之各種掃描模態偵測且監測。例如,可藉由肢體之非自主抽搐或抖動、高膽固醇之血小板累積指示項、局部缺血、動脈粥樣硬化或涉及血管收縮之其他病理指示癲癇。實施例可能尤其可用於負荷超音心動圖。另外,此等模態之按需可用性可產生異常標記累積之統計上顯著之資料集。 此一實施例之其他實例可採用一繞腕部或一繞身體器件之形式,其監測、識別或特徵化統計上並非一使用者之普通姿勢及運動歷史之抽搐行為、運動遲緩、靜止震顫、姿勢不穩定性或僵硬。此等監測或程序可在本端或遠端執行且使用者可即時接收關於其等效能之回饋。 手術/遙現機器人:類似於之前論述之機器人應用,一實施例可用於控制複雜手術工具。手術機器人提出一特殊挑戰,其中歸因於病人中之統計解剖可變性,通常無法依賴預程式化。一經訓練外科醫師需要在現場且使用非直觀機電介面來即時操縱機器人機構。一實施例可用於將由醫學專業人員使用之手勢直接轉化為可由一機器人裝置執行之操作。在遠程機器人之一應用中,類似實施例可用於遠端執行程序。在此等程序期間獲得之資料可經收集且用於進一步訓練且自動化醫學機器人。 手上視覺化:一腕部穿戴實施例可與無菌或無塵室服飾結合使用以產生用於資訊擷取及/或管理之始終可用資訊顯示器及基於手勢之構件。例如,可提供其中系統用於藉由具有在醫療程序期間使用之一身體投影顯示器之儀器提供之即時視覺化之一實施例。此實施例藉由系統之單手可操作性實現。 癒合及美容:一身體穿戴/可移除實施例可用於多個治療或姑息癒合促進應用以及美容應用中。例如,懷疑產生大於用於成像之聲壓之聲壓之脈衝、方向性及經操縱超音波促進血液灌注、組織刺激及放鬆,且一般言之,機械地擾亂組織及生物物質,且改良局部應用之藥物之遞送或表面下吸收。此等效應可用於既治療新的病症以及管理現有病症。例如,一些實施例可用於尤其骨折癒合促進、方向性皮下脂肪移除、膠原刺激、癒傷組織分解、炎症及消腫及超聲透入療法(phonoporetic)應用中。此等實施例可透過演算法控制或由醫師手動控制且可同時使用一成像模態或一組織追蹤且標定模態來遞送特定區處之受控聲學能量。此等實施例亦可由人控制或跨雲端遠端控制。 物理治療:一或多個可穿戴實施例可用於評估神經肌肉或肌肉骨骼障礙中普遍之規定治療之品質及效能。例如,該技術之一實施例可繞膝蓋穿戴且返回膝蓋區中之組織及韌帶之結構、動態及機械性質、運動及姿勢動態之指示項,且此資訊可用於引導治療。 運動障礙:一或多個可穿戴實施例可用於追蹤、監測且提供關於神經肌肉及肌肉骨骼障礙之回饋。回饋可採用透過觸覺、視覺或聽覺刺激提供給使用者且透過計量的進一步通信提供給專家之校正調節資訊之形式。此一實施例之一實例可採用一繞腕部或一繞身體器件之形式,其監測且識別統計上並非一使用者之普通姿勢及運動歷史之抽搐行為、運動遲緩、靜止震顫、姿勢不穩定性或僵硬。可將額外整形外科、肌肉骨骼計量(諸如識別組織僵硬或幾何形狀之該等計量)提供給專家以判定治療療效。此等監測或程序可在本端或遠端執行且使用者可即時接收關於其等效能之回饋。 義肢應用:實施例可針對使用者之不同身體殘疾模態用於復原或輔助器件中。截肢手術中之術後護理之最重要態樣之一者係病人之身體復原。手術準備及計劃可包含成功術後復原之策略。 在一實例實施例中,義肢插座可包含系統1,其可用於監測殘端瓣後方之組織中之自主及非自主變形。由於殘端區承受大量剪應力,故可設想更深信號模態將用於提取信號以用於深入身體組織手勢識別。在實施例之一應用中,手術前計劃可包含手術後義肢設計考慮,同時判定切口、橫切面、結紮、再附著、再連接及瓣之設計以最大化生活品質及易用性。 本文揭示之實施例之另一應用係在語音假體應用中。程序(諸如喉切除或氣管食管穿刺手術)可造成病人產生語音之能力損失。 擴增實境書:一腕部穿戴實施例可用於擴增實境應用中,其中投影光場與手中固持之物體互動。一實例實施例係其中投影影像顯示於手中固持之一書之頁面且影像顯示字典資訊。此一實施例可與一光學字元辨識演算法或一機器視覺方法組合以從嵌入系統內之感測器提取資訊,且來自感測器之資料可用於控制投影影像或其他模態。 靜態媒體互動:促成印刷媒體之衰退之主要問題之一者在於內容係靜態的且非互動性的。一或多個腕部穿戴實施例可用於藉由使用光學可辨識碼而解決靜態或印刷媒體之此等問題,系統上之感測器可辨識該等光學可辨識碼以引導投影光系統之行為。一實例實施例可係掃描一靜態QR碼,其引導投影顯示器以展示一特定影像或視訊或可定位於一網路資源上之其他此互動性內容。此等系統可用於廣告目的或顯示動態產生之內容。 資訊亭:一腕部穿戴實施例可用於基於與一實體物體之近接性或基於自導航或定位感測器判定之位置座標顯示透過無線或有線通信網路供應之動態資訊或內容。 地圖:一腕部穿戴實施例可用於顯示基於位置資訊,其中自導航感測器判定位置且使用有線或無線網路存取資訊。顯示器可展示資訊,諸如地圖。可利用系統攝影機之機載機器視覺系統可用於進一步校準或塑形顯示器中之內容。 QR碼:阻止經編碼靜態圖形之一更廣泛採用(諸如快速回應(QR)碼或基於一般機器視覺之物體辨識)之主要問題之一者在於用於解釋且顯示經編碼指令之器件並非始終在手上可用且準備使用。因此,一腕部穿戴實施例可與一簡單手勢組合使用以獲取此經編碼資訊或一一般場景之一影像且使用投影顯示器呈現經解碼資訊或經辨識物體。此一實施例可用於在一購物應用中查詢價格及替代產品。應注意,此技術亦可用於物流及存貨管理或用於在工業情境中對零件進行分類。 沉浸式顯示器/平鋪式:一或多個腕部穿戴實施例可同步用於投影至外部表面上且產生大型、平鋪式沉浸式3D顯示器。此等顯示器可藉由使用來自機載慣性量測系統之資料針對使用者位置及姿勢之漂移進行補償。使用者可使用手勢與投影顯示器互動。 在另一擴增實境實施例中,系統1可僅將一影像之一部分投影至身體投影表面之一者上。隨著使用者改變姿勢或定向,顯示影像可跨兩個或兩個以上維度空間滾動以回饋定向或姿勢改變。 沉浸式遊戲:一或多個腕部穿戴實施例可用於一沉浸式互動娛樂體驗。此等實施例可使用器件間通信模態來共用關於尤其器件位置、使用者姿勢、手勢之資訊。此資訊可用於更新顯示資訊。顯示資訊可呈現於身體表面以及外部表面上。 在前述揭示內容中之各種位置中,指出各種實施例具有或可具有醫學領域中之應用。一般言之,一旦做出一診斷,此等用途即與需要醫學注意及診斷之病症之發現及病症之評估及監測結合。 雖然已以一實例方式描述前述揭示內容,但應理解,揭示內容不限於此。其意在包含廣泛範圍之修改及類似配置。本揭示內容之特徵或組件之修改可在不偏離本揭示內容之核心概念的情況下做出。因此,本揭示內容之範疇不受前文描述限制,而僅受如本文表述之隨附申請專利範圍限制。
1‧‧‧系統5‧‧‧帶元件10‧‧‧鉸鏈15‧‧‧閂鎖20‧‧‧微投影機20’‧‧‧電子LCD顯示器25‧‧‧超音波(US)收發器/支援收發器27‧‧‧觸摸表面元件30‧‧‧聲學層35‧‧‧彩色RGB攝影機35’‧‧‧光學子總成37‧‧‧無線天線通信/天線40‧‧‧揚聲器/麥克風子系統45‧‧‧溫度感測器網狀陣列/溫度感測器100‧‧‧基板101‧‧‧方塊102‧‧‧方塊103‧‧‧方塊104‧‧‧方塊105‧‧‧方塊110‧‧‧特定應用積體電路(ASIC)120‧‧‧高電壓脈衝產生器電路130‧‧‧聲學傳輸阻擋層140‧‧‧超音波收發器子結構元件150‧‧‧聲學匹配層160‧‧‧聲學透鏡層252‧‧‧彩色周圍光感測器254‧‧‧完整身體或手組態256‧‧‧眼部位置258‧‧‧身體部分260‧‧‧顯示資料262‧‧‧作業系統264‧‧‧使用者介面資訊270‧‧‧皮膚引擎272‧‧‧光場及照明呈現引擎274‧‧‧軟組織運動變形模型276‧‧‧呈現元件278‧‧‧圖框緩衝器280‧‧‧微投影機400‧‧‧系統架構410‧‧‧系統核心元件420‧‧‧通信介面430‧‧‧輸出元件440‧‧‧輸入445‧‧‧參考子系統450‧‧‧空間配置系統455‧‧‧手勢系統故障安全開關1800‧‧‧實例架構1810‧‧‧雲端組件1812‧‧‧超音波收發器1814‧‧‧系統1816‧‧‧系統1818‧‧‧記憶體1820‧‧‧數位信號處理器(DSP)核心1822‧‧‧熱機械監視器段1824‧‧‧姿勢數位轉化器段1826‧‧‧控制器1828‧‧‧網格熱溫度感測器1830‧‧‧可變形網運動模型(DM2)模擬器1832‧‧‧聲場模擬器(AFS)段1834‧‧‧網路化及通信周邊介面1836‧‧‧系統匯流排1838‧‧‧作業系統1850‧‧‧輸入/方塊1852‧‧‧方塊1854‧‧‧方塊1856‧‧‧方塊1858‧‧‧方塊1860‧‧‧方塊1862‧‧‧方塊1864‧‧‧方塊1866‧‧‧方塊1868‧‧‧方塊1870‧‧‧方塊1872‧‧‧方塊1874‧‧‧方塊1876‧‧‧方塊1878‧‧‧方塊1880‧‧‧方塊1882‧‧‧方塊1884‧‧‧方塊1886‧‧‧方塊1888‧‧‧方塊1890‧‧‧方塊1892‧‧‧方塊1894‧‧‧方塊1896‧‧‧方塊2701‧‧‧方塊2702‧‧‧方塊2703‧‧‧方塊2704‧‧‧方塊2705‧‧‧方塊2706‧‧‧方塊2707‧‧‧方塊2708‧‧‧方塊2709‧‧‧方塊2710‧‧‧預處理器/方塊2711‧‧‧硬體設定/方塊2712‧‧‧方塊2713‧‧‧方塊2714‧‧‧方塊2715‧‧‧方塊2716‧‧‧方塊2801‧‧‧方塊2802‧‧‧方塊2803‧‧‧方塊2804‧‧‧方塊2805‧‧‧方塊2806‧‧‧方塊2807‧‧‧方塊2808‧‧‧方塊2809‧‧‧方塊2810‧‧‧方塊2811‧‧‧方塊2812‧‧‧方塊2813‧‧‧方塊2814‧‧‧方塊2815‧‧‧方塊2900‧‧‧解剖/表示3000‧‧‧實例經識別位置3100‧‧‧表示/邊界F1‧‧‧關節F2‧‧‧關節F3‧‧‧關節M1‧‧‧關節M2‧‧‧關節P1‧‧‧關節P2‧‧‧關節P3‧‧‧關節R1‧‧‧關節R2‧‧‧關節T1‧‧‧關節T2‧‧‧關節T3‧‧‧關節W1‧‧‧關節W2‧‧‧關節W3‧‧‧關節
圖1A係繪示根據本文描述之一實施例之一方法中之一組步驟之一流程圖。 圖1B描繪一使用者在多個身體部分(在本文中為「解剖特徵」,諸如一人手、腕部、肘部、頭部等)上穿戴根據一項實施例之一系統。 圖2A至圖2B繪示分別處於一打開及閉合位置中之一實例系統之一實施例,其中該系統可經穿戴於一使用者之腕部或前臂上。 圖3繪示可包括一系統之一實例實施例之各種子系統。 圖4描繪根據一實施例之一系統之一實例系統架構。 圖5A至圖5D展示根據系統之一實施例之各種身體表面,顯示投影可同時或單獨在該等表面上發生。 圖6繪示根據一實例實施例之一系統之子單元之一超音波收發器陣列。 圖7A至圖7C繪示根據一項實例實施例之用於描述一人手之部分之3D運動之各種解剖參考。 圖8A至圖8F繪示根據一項實例實施例之使用一人手之五個手指做出以與投影至其手掌或手背表面上之顯示內容互動之代表性手勢。 圖9A至圖9B繪示根據一項實例實施例之繞如在圖8A至圖8F中參考之腕部軸(橈骨及尺骨)之一「俯仰」運動中之一代表性手勢。 圖10A至圖10B繪示根據一項實例實施例之涉及近端及中間指骨之橫擺關節運動之一代表性「緊握」運動手勢,其中使手指與手掌表面接觸。 圖11A至圖11B繪示根據一項實例實施例之涉及近端及中間指骨之橫擺關節運動,而不使手指與手掌表面接觸之一代表性手勢。 圖12A至圖12B繪示根據一項實例實施例之在腕部之一定向處之拇指之一代表性「俯仰」運動。 圖13A至圖13K繪示根據一項實例實施例之包含可藉由一系統辨識之前臂之定向之手指及腕部姿勢之各種例示性組合。 圖14A至圖14C繪示根據一項實例實施例之可藉由將拇指之尖端指向各種手指及指骨間褶皺及指尖同時將腕部維持在一穩定姿勢及定向而藉由系統辨識之例示性複合手勢。 圖15A至圖15C繪示根據一項實例實施例之一手勢互動模態,其中一使用者之臂之一手指用來與相對臂之一表面上投影之顯示器互動。 圖16A至圖16B繪示根據一項實例實施例之用作系統之一顯示影像之投影表面之一外部顯示器表面。 圖17繪示在重建一完整身體姿勢時用於系統之一實施例中之一運動模型。 圖18A繪示根據一項實例實施例之基於超音波收發器之身體手勢辨識系統之一架構。 圖18B繪示根據一項實例實施例之一組程序步驟之一流程圖。 圖19A至圖19B繪示根據一項實例實施例之用於一方法之生物計量數學模型中之腕部之簡化混合元素模型。 圖20繪示根據一項實例實施例之使用線上網路軟體之一方法之一實例軟體架構。 圖21係根據一項實例實施例之用於一方法之信號辨識數學模型中之一人手之一混合元素模型之一代表性繪示。 圖22A至圖22C繪示根據一項實例實施例之腕部及手關節標記、手指關節表示且描繪手指關節表示如何在手勢期間變換。 圖23展示根據一項實例實施例之一手指關節表示,其中不同關節量測具有不同解析度。 圖24係自使用根據一項實例實施例之一方法之手勢辨識構造之一網路圖之一表示。 圖25展示在根據一項實例實施例之一方法中用於呈現及軟組織變形模擬之一模型之一架構。 圖26繪示根據一項實例實施例之用於控制投影至一手之一手掌表面上之一遊戲之一系統之一實例實施例。 圖27繪示用於解釋在根據本文之一實施例之一系統之一啟動週期期間執行之一實例手勢辨識程序之一流程圖。 圖28繪示用於解釋根據本文之一實施例之一實例手勢辨識程序之一流程圖。 圖29係根據本文之一實施例之根據統計生物計量資料之一人體之一表示。 圖30係根據本文之一項實施例之由一使用者穿戴之一系統之一經識別位置之一表示。 圖31係用於解釋根據本文之一項實施例之已經分離之資料叢集之邊界之識別之一表示。 圖32係用於解釋根據本文之一實施例之經偵測邊界與解剖特徵之對準之一表示。 圖33係用於解釋根據本文之一實施例之透過侵蝕或膨脹之經對準邊界之簡化之一表示。 圖34係用於解釋根據本文之一實施例之在超音波資料中偵測到之邊界之簡化之一表示。 圖35係根據本文之一實施例之自經簡化邊界資訊產生之網之一表示。
101‧‧‧方塊
102‧‧‧方塊
103‧‧‧方塊
104‧‧‧方塊
105‧‧‧方塊

Claims (44)

  1. 一種用於使用一人類-電腦介面系統中之一可穿戴手勢辨識器件來產生一手勢命令之方法,其包括下列步驟:基於組成(make up)一使用者之一解剖特徵之一剖面(cross-section)之複數個內部及外部組織物體之一剛體運動及基於組成該使用者之該解剖特徵之該剖面之該複數個內部及外部組織物體之一組生物計量,提供組成該使用者之該解剖特徵之該剖面之該複數個內部及外部組織物體之一數學模型;以該數學模型自組成該使用者之該解剖特徵之該剖面之該複數個內部及外部組織物體之一任意(arbitrary)組態模擬超音波量測;獲得表示該使用者之該解剖特徵之該複數個內部及外部組織物體之一時空剖面之一繪圖之一組超音波信號資料;藉由將該組超音波信號資料與該數學模型相關而識別組成該使用者之該解剖特徵之該剖面之該複數個內部及外部組織物體之一或多者之一性質;基於組成該解剖特徵之該剖面之該複數個內部及外部組織物體之該一或多者之該經識別性質估計該使用者之解剖特徵之一姿勢;及基於該經估計姿勢產生一手勢命令。
  2. 如請求項1之方法,其中在該使用者之該解剖特徵之該複數個內部及外部組織物體之該經繪圖時空剖面中之該等內部及外部組織物體包括該使用者之肌肉、肌腱、韌帶、脈管系統、骨骼、真皮、表皮、上皮、連接性 肌肉及神經組織之一或多者。
  3. 如請求項1之方法,其中該經識別性質包括組成該解剖特徵之該剖面之該複數個內部及外部組織物體之該一或多者之一半徑、位置、相對於另一物體之位置、角度、相對於另一物體之角度、脈動性、變形、回波反射性、速度、位移、伸展、壓縮、出現、消失及各性質之差分改變之至少一者。
  4. 如請求項1之方法,其中該經估計姿勢進一步基於來自經組態以量測該使用者之一預定事件、身體改變或狀態之一感測器元件之一經接收感測器輸出。
  5. 如請求項4之方法,其中該感測器元件由一加速計;一陀螺儀;一壓力感測器;一GPS感測器;一麥克風;一電磁成像感測器;一周圍光感測器;一色彩感測器;一角度感測器;一電生理感測器;一肌電圖感測器;一生物聲學感測器;一光體積描記感測器;一RFID天線;一超音波測距感測器;一高頻率傳感器陣列;一電磁場感測器或一近接感測器組成。
  6. 如請求項4之方法,其中該經估計姿勢之一經估計運動用於產生一軟組織變形圖。
  7. 如請求項6之方法,其中該軟組織變形圖用於補償且校準一投影顯示器。
  8. 如請求項1之方法,其進一步包括基於該手勢命令產生一預定可執行電腦指令之步驟。
  9. 如請求項8之方法,其中該預定可執行電腦指令基於自經組態以使一非線性表面成像之一色彩感測器或一成像感測器接收之一輸入修改投影於該非線性表面上之一顯示資訊。
  10. 如請求項9之方法,其中該非線性表面係該使用者之一身體表面。
  11. 如請求項8之方法,其中該預定可執行電腦指令偵測一電腦記憶體中之一使用者選擇之數位內容。
  12. 如請求項8之方法,其中該預定可執行電腦指令推進或返回至一電腦記憶體中之一使用者選擇之數位內容。
  13. 如請求項8之方法,其中該預定可執行電腦指令觸發一數位攝影機系統中之一影像捕獲。
  14. 如請求項8之方法,其中該預定可執行電腦指令觸發一數位攝影機系統中之一全景影像捕獲。
  15. 如請求項8之方法,其中該預定可執行電腦指令修改一三維光場顯示 器。
  16. 如請求項8之方法,其中該預定可執行電腦指令控制一電腦顯示器上之一二維游標。
  17. 如請求項8之方法,其中該預定可執行電腦指令控制一三維光場顯示器中之一三維游標。
  18. 如請求項8之方法,其中該預定可執行電腦指令與一電腦遊戲互動。
  19. 如請求項8之方法,其中該預定可執行電腦指令與在一使用者之雙手上顯示之一電腦遊戲互動。
  20. 如請求項8之方法,其中該預定可執行電腦指令監測或控制一件工業設備。
  21. 如請求項8之方法,其中該預定可執行電腦指令用於在遠端遙控一陸地、空中或海上載具。
  22. 如請求項8之方法,其中該預定可執行電腦指令與一家庭娛樂系統互動。
  23. 如請求項8之方法,其中該預定可執行電腦指令控制一電動工具或機 器人系統。
  24. 如請求項8之方法,其中該預定可執行電腦指令控制一機器人手術系統。
  25. 如請求項8之方法,其中該預定可執行電腦指令對一物體之一空間尺寸或幾何形狀進行繪圖且呈現。
  26. 如請求項8之方法,其中該預定可執行電腦指令量測藉由一使用者之一肢體施加之一力、扭矩及力矩。
  27. 如請求項8之方法,其中該預定可執行電腦指令與三維內容互動以用於數位內容產生。
  28. 如請求項8之方法,其中該預定可執行電腦指令用於組織彈性成像輔助式監測。
  29. 如請求項8之方法,其中該預定可執行電腦指令用於針對物理治療監測一關節之衝擊性應力、姿勢或運動。
  30. 如請求項8之方法,其中該預定可執行電腦指令用於與印刷內容之一使用者互動中。
  31. 如請求項8之方法,其中該預定可執行電腦指令用於與顯示之擴增實境內容之一使用者互動中。
  32. 如請求項8之方法,其中該預定可執行電腦指令用於與顯示之虛擬實境內容之一使用者互動中。
  33. 如請求項8之方法,其中該預定可執行電腦指令用於一存貨判別應用程式中。
  34. 如請求項8之方法,其中該預定可執行電腦指令用於產生一虛擬沉浸式顯示器。
  35. 如請求項8之方法,其中該預定可執行電腦指令用於一沉浸式多玩家遊戲中。
  36. 如請求項8之方法,其中該預定可執行電腦指令修改一投影表面上之一顯示資訊。
  37. 如請求項36之方法,其中該顯示資訊包括一電腦選單螢幕,其包括一圖形使用者介面圖標。
  38. 如請求項1之方法,其中該數學模型包括一集總、有限或混合元素模型。
  39. 如請求項1之方法,其中該數學模型包括一動態且可變形網。
  40. 如請求項1之方法,其中該數學模型包括經受運動約束而運算之至少一個數值最佳化常式。
  41. 如請求項1之方法,其中該數學模型包括至少一個無監督式統計學習模型。
  42. 如請求項1之方法,其中該數學模型包括至少一個監督式統計學習模型。
  43. 如請求項1之方法,其中該數學模型包括至少一個概率圖形模型。
  44. 一種用於遠端監測一解剖特徵之一性質之方法,其包括下列步驟:基於組成(make up)一使用者之一解剖特徵之一剖面之複數個內部或外部組織物體之一剛體運動及一組生物計量,提供組成該使用者之該解剖特徵之該剖面之該複數個內部及外部組織物體之一數學模型;以該數學模型自組成該使用者之該解剖特徵之該剖面之該複數個內部及外部組織物體之一任意(arbitrary)組態模擬超音波量測;基於該數學模型獲得表示該使用者之該解剖特徵之該複數個內部及外部組織物體之一時空剖面之一繪圖之一組超音波信號資料;藉由將該超音波信號資料與基於該數學模型產生之該等經模擬超音 波量測相關(correlating)而識別組成該使用者之該解剖特徵之該剖面之該複數個內部及外部組織物體之一性質;及經由一網路以電腦可讀資訊之形式將該複數個內部及外部組織物體之該經識別性質傳輸至一遠端位置。
TW105135225A 2015-10-30 2016-10-31 用於身體手勢介面及投影顯示器之系統及方法 TWI756191B (zh)

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
US201562249021P 2015-10-30 2015-10-30
US62/249,021 2015-10-30
US15/338,189 2016-10-28
US15/338,189 US11106273B2 (en) 2015-10-30 2016-10-28 System and methods for on-body gestural interfaces and projection displays

Publications (2)

Publication Number Publication Date
TW201727439A TW201727439A (zh) 2017-08-01
TWI756191B true TWI756191B (zh) 2022-03-01

Family

ID=58632005

Family Applications (1)

Application Number Title Priority Date Filing Date
TW105135225A TWI756191B (zh) 2015-10-30 2016-10-31 用於身體手勢介面及投影顯示器之系統及方法

Country Status (7)

Country Link
US (2) US11106273B2 (zh)
EP (1) EP3368966A4 (zh)
JP (2) JP2018536933A (zh)
KR (1) KR20180088390A (zh)
CN (1) CN108431736A (zh)
TW (1) TWI756191B (zh)
WO (1) WO2017075611A1 (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20230306094A1 (en) * 2020-08-20 2023-09-28 Ramot At Tel-Aviv University Ltd. Dynamic identity authentication

Families Citing this family (372)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10057676B2 (en) * 2007-04-20 2018-08-21 Lloyd Douglas Manning Wearable wirelessly controlled enigma system
US10509466B1 (en) 2011-05-11 2019-12-17 Snap Inc. Headwear with computer and optical element for use therewith and systems utilizing same
CN105027030B (zh) 2012-11-01 2018-10-23 艾卡姆有限公司 用于三维成像、映射、建网和界面连接的无线腕式计算和控制设备和方法
US10940311B2 (en) * 2013-03-29 2021-03-09 Neurometrix, Inc. Apparatus and method for button-free control of a wearable transcutaneous electrical nerve stimulator using interactive gestures and other means
GB2513884B (en) 2013-05-08 2015-06-17 Univ Bristol Method and apparatus for producing an acoustic field
US10439972B1 (en) 2013-05-30 2019-10-08 Snap Inc. Apparatus and method for maintaining a message thread with opt-in permanence for entries
KR20150003560A (ko) 2013-07-01 2015-01-09 삼성전자주식회사 사용자의 모션 정보에 기초하여 사용자 인터페이스(ui)를 변경시키는 방법 및 장치
US20150124566A1 (en) 2013-10-04 2015-05-07 Thalmic Labs Inc. Systems, articles and methods for wearable electronic devices employing contact sensors
US11921471B2 (en) 2013-08-16 2024-03-05 Meta Platforms Technologies, Llc Systems, articles, and methods for wearable devices having secondary power sources in links of a band for providing secondary power in addition to a primary power source
US10188309B2 (en) 2013-11-27 2019-01-29 North Inc. Systems, articles, and methods for electromyography sensors
US10042422B2 (en) 2013-11-12 2018-08-07 Thalmic Labs Inc. Systems, articles, and methods for capacitive electromyography sensors
US9612658B2 (en) 2014-01-07 2017-04-04 Ultrahaptics Ip Ltd Method and apparatus for providing tactile sensations
US10586570B2 (en) 2014-02-05 2020-03-10 Snap Inc. Real time video processing for changing proportions of an object in the video
US9276886B1 (en) 2014-05-09 2016-03-01 Snapchat, Inc. Apparatus and method for dynamically configuring application component tiles
US9537811B2 (en) 2014-10-02 2017-01-03 Snap Inc. Ephemeral gallery of ephemeral messages
US9396354B1 (en) 2014-05-28 2016-07-19 Snapchat, Inc. Apparatus and method for automated privacy protection in distributed images
US9880632B2 (en) 2014-06-19 2018-01-30 Thalmic Labs Inc. Systems, devices, and methods for gesture identification
US9225897B1 (en) 2014-07-07 2015-12-29 Snapchat, Inc. Apparatus and method for supplying content aware photo filters
US10346992B2 (en) * 2014-07-30 2019-07-09 Sony Corporation Information processing apparatus, information processing method, and program
GB2530036A (en) 2014-09-09 2016-03-16 Ultrahaptics Ltd Method and apparatus for modulating haptic feedback
US10775996B2 (en) 2014-11-26 2020-09-15 Snap Inc. Hybridization of voice notes and calling
US9385983B1 (en) 2014-12-19 2016-07-05 Snapchat, Inc. Gallery of messages from individuals with a shared interest
US10311916B2 (en) 2014-12-19 2019-06-04 Snap Inc. Gallery of videos set to an audio time line
CA2976319C (en) 2015-02-20 2023-06-27 Ultrahaptics Ip Limited Algorithm improvements in a haptic system
ES2896875T3 (es) 2015-02-20 2022-02-28 Ultrahaptics Ip Ltd Percepciones en un sistema háptico
KR102035405B1 (ko) 2015-03-18 2019-10-22 스냅 인코포레이티드 지오-펜스 인가 프로비저닝
EP3088912A1 (en) * 2015-04-30 2016-11-02 iMinds Ultrasound imaging system and method for representing rf signals therein
US9668217B1 (en) 2015-05-14 2017-05-30 Snap Inc. Systems and methods for wearable initiated handshaking
US10503264B1 (en) 2015-06-16 2019-12-10 Snap Inc. Radial gesture navigation
US10818162B2 (en) 2015-07-16 2020-10-27 Ultrahaptics Ip Ltd Calibration techniques in haptic systems
US9857871B2 (en) 2015-09-04 2018-01-02 Sony Interactive Entertainment Inc. Apparatus and method for dynamic graphics rendering based on saccade detection
US9942367B2 (en) * 2015-10-13 2018-04-10 Samsung Electronics Co., Ltd. Electronic device and method for controlling the electronic device thereof
US11106273B2 (en) 2015-10-30 2021-08-31 Ostendo Technologies, Inc. System and methods for on-body gestural interfaces and projection displays
US20170136296A1 (en) * 2015-11-18 2017-05-18 Osvaldo Andres Barrera System and method for physical rehabilitation and motion training
CN106371574B (zh) * 2015-12-04 2019-03-12 北京智谷睿拓技术服务有限公司 触觉反馈的方法、装置和虚拟现实交互系统
JP2017117211A (ja) * 2015-12-24 2017-06-29 富士通株式会社 検出装置、方法、及びプログラム
US11189140B2 (en) 2016-01-05 2021-11-30 Ultrahaptics Ip Ltd Calibration and detection techniques in haptic systems
WO2017125148A1 (en) * 2016-01-20 2017-07-27 Telefonaktiebolaget Lm Ericsson (Publ) Method and apparatus for adapting wearable device
US10055895B2 (en) 2016-01-29 2018-08-21 Snap Inc. Local augmented reality persistent sticker objects
US10908279B2 (en) * 2016-03-11 2021-02-02 Facebook Technologies, Llc Ultrasound/radar for eye tracking
US10192528B2 (en) 2016-03-31 2019-01-29 Sony Interactive Entertainment Inc. Real-time user adaptive foveated rendering
US10401952B2 (en) 2016-03-31 2019-09-03 Sony Interactive Entertainment Inc. Reducing rendering computation and power consumption by detecting saccades and blinks
US10372205B2 (en) 2016-03-31 2019-08-06 Sony Interactive Entertainment Inc. Reducing rendering computation and power consumption by detecting saccades and blinks
US10198874B2 (en) 2016-05-13 2019-02-05 Google Llc Methods and apparatus to align components in virtual reality environments
US10521009B2 (en) * 2016-05-17 2019-12-31 Samsung Electronics Co., Ltd. Method and apparatus for facilitating interaction with virtual reality equipment
US10474353B2 (en) 2016-05-31 2019-11-12 Snap Inc. Application control using a gesture based trigger
US10102423B2 (en) 2016-06-30 2018-10-16 Snap Inc. Object modeling and replacement in a video stream
US10768639B1 (en) 2016-06-30 2020-09-08 Snap Inc. Motion and image-based control system
WO2018022602A1 (en) 2016-07-25 2018-02-01 Ctrl-Labs Corporation Methods and apparatus for predicting musculo-skeletal position information using wearable autonomous sensors
WO2020112986A1 (en) 2018-11-27 2020-06-04 Facebook Technologies, Inc. Methods and apparatus for autocalibration of a wearable electrode sensor system
US11331045B1 (en) 2018-01-25 2022-05-17 Facebook Technologies, Llc Systems and methods for mitigating neuromuscular signal artifacts
CN110312471B (zh) 2016-07-25 2022-04-29 脸谱科技有限责任公司 从神经肌肉活动测量中导出控制信号的自适应系统
US11216069B2 (en) 2018-05-08 2022-01-04 Facebook Technologies, Llc Systems and methods for improved speech recognition using neuromuscular information
WO2018022597A1 (en) 2016-07-25 2018-02-01 Ctrl-Labs Corporation Methods and apparatus for inferring user intent based on neuromuscular signals
WO2018022657A1 (en) 2016-07-25 2018-02-01 Ctrl-Labs Corporation System and method for measuring the movements of articulated rigid bodies
US10489986B2 (en) 2018-01-25 2019-11-26 Ctrl-Labs Corporation User-controlled tuning of handstate representation model parameters
US10268275B2 (en) 2016-08-03 2019-04-23 Ultrahaptics Ip Ltd Three-dimensional perceptions in haptic systems
US10345925B2 (en) * 2016-08-03 2019-07-09 Google Llc Methods and systems for determining positional data for three-dimensional interactions inside virtual reality environments
US10283100B1 (en) * 2016-08-29 2019-05-07 Jesse Cole Lyrics display apparatus for an automobile
US11361861B2 (en) * 2016-09-16 2022-06-14 Siemens Healthcare Gmbh Controlling cloud-based image processing by assuring data confidentiality
US10609036B1 (en) 2016-10-10 2020-03-31 Snap Inc. Social media post subscribe requests for buffer user accounts
US10867445B1 (en) * 2016-11-16 2020-12-15 Amazon Technologies, Inc. Content segmentation and navigation
US20170102771A1 (en) * 2016-12-12 2017-04-13 Leibs Technology Limited Wearable ultrasonic haptic feedback system
US10943578B2 (en) 2016-12-13 2021-03-09 Ultrahaptics Ip Ltd Driving techniques for phased-array systems
WO2018191559A1 (en) * 2017-04-12 2018-10-18 Copelan Russell Wearable measuring apparatus and method for sports training
US10685103B2 (en) * 2017-05-04 2020-06-16 Tyco Fire & Security Gmbh Challenge and response system for identifying non-credentialed occupants and method
CN108881807A (zh) * 2017-05-09 2018-11-23 富士通株式会社 用于对监控视频中的数据进行扩充的方法和装置
KR20200040212A (ko) * 2017-05-10 2020-04-17 휴메인, 인코포레이티드 웨어러블 멀티미디어 디바이스 및 애플리케이션 에코 시스템을 갖는 클라우드 컴퓨팅 플랫폼
US20210117680A1 (en) * 2017-05-10 2021-04-22 Humane, Inc. Wearable multimedia device and cloud computing platform with laser projection system
US20180329481A1 (en) * 2017-05-11 2018-11-15 Interactive Recreation LLC Controller Device and System for Virtual and Augmented Reality Systems
EP3404913B1 (en) * 2017-05-16 2019-11-06 Axis AB A system comprising a video camera and a client device and a method performed by the same
US10429949B2 (en) * 2017-06-30 2019-10-01 Htc Corporation User interaction apparatus and method
EP3665690A4 (en) 2017-07-05 2020-11-18 Myant Inc. BIOMETRIC DATA DETECTION PROCESS AND USE OF THE SAID PROCESS FOR TWO-WAY COMMUNICATION WITH NETWORKED DEVICES
US10558278B2 (en) 2017-07-11 2020-02-11 Apple Inc. Interacting with an electronic device through physical movement
CN107300975A (zh) * 2017-07-13 2017-10-27 联想(北京)有限公司 一种信息处理方法及电子设备
US10579869B1 (en) 2017-07-18 2020-03-03 Snap Inc. Virtual object machine learning
US11323398B1 (en) 2017-07-31 2022-05-03 Snap Inc. Systems, devices, and methods for progressive attachments
US11204949B1 (en) 2017-07-31 2021-12-21 Snap Inc. Systems, devices, and methods for content selection
WO2019028650A1 (zh) * 2017-08-08 2019-02-14 方超 手势采集系统
CN107301415B (zh) * 2017-08-08 2024-03-22 方超 手势采集系统
US10592718B2 (en) * 2017-08-09 2020-03-17 The Board Of Trustees Of The Leland Stanford Junior University Interactive biometric touch scanner
CN107562195A (zh) * 2017-08-17 2018-01-09 英华达(南京)科技有限公司 人机交互方法及系统
KR102408359B1 (ko) * 2017-08-23 2022-06-14 삼성전자주식회사 전자 장치 및 전자 장치의 제어 방법
CN107297071B (zh) * 2017-08-24 2023-06-30 成都博煜科技有限公司 一种麻将机
US10591730B2 (en) 2017-08-25 2020-03-17 II Jonathan M. Rodriguez Wristwatch based interface for augmented reality eyewear
US10317515B2 (en) * 2017-09-01 2019-06-11 Wisconsin Alumni Research Foundation Apparatus for identifying objects outside of a line-of-sight
WO2019056132A1 (en) * 2017-09-25 2019-03-28 Atelier Go-Élan Inc. INTERACTIVE GAME FIELD SYSTEM WITH ENHANCED USER INTERACTION AND COMPUTERIZED METHOD FOR IMPLEMENTING ENHANCED USER INTERACTION IN A GAME FIELD SYSTEM
KR102330655B1 (ko) * 2017-09-29 2021-11-23 애플 인크. 자동 제스처 및 손가락 인식을 위한 정맥 스캐닝 디바이스
EP3470110A1 (en) * 2017-10-11 2019-04-17 Université de Rennes 1 Proficiency assessment system and method for deep brain stimulation (dbs)
WO2019079757A1 (en) 2017-10-19 2019-04-25 Ctrl-Labs Corporation SYSTEMS AND METHODS FOR IDENTIFYING BIOLOGICAL STRUCTURES ASSOCIATED WITH NEUROMUSCULAR SOURCE SIGNALS
WO2019079790A1 (en) * 2017-10-21 2019-04-25 Eyecam, Inc ADAPTIVE GRAPHIC USER INTERFACE SYSTEM
CN107728788A (zh) * 2017-10-31 2018-02-23 吉林大学 一种基于红外超声三维定位体感交互装置
WO2019094618A1 (en) * 2017-11-08 2019-05-16 Signall Technologies Zrt Computer vision based sign language interpreter
US11100314B2 (en) * 2017-11-10 2021-08-24 Alibaba Technologies (Israel) LTD. Device, system and method for improving motion estimation using a human motion model
US11531395B2 (en) 2017-11-26 2022-12-20 Ultrahaptics Ip Ltd Haptic effects from focused acoustic fields
TWI629646B (zh) * 2017-11-29 2018-07-11 伍碩科技股份有限公司 Gesture recognition device
US10698498B2 (en) * 2017-11-30 2020-06-30 Komodo OpenLab Inc. Configurable device switching mechanism that enables seamless interactions with multiple devices
CN109857245B (zh) * 2017-11-30 2021-06-15 腾讯科技(深圳)有限公司 一种手势识别方法和终端
WO2019126625A1 (en) * 2017-12-22 2019-06-27 Butterfly Network, Inc. Methods and apparatuses for identifying gestures based on ultrasound data
WO2019122912A1 (en) 2017-12-22 2019-06-27 Ultrahaptics Limited Tracking in haptic systems
KR20200099574A (ko) * 2017-12-22 2020-08-24 울트라햅틱스 아이피 엘티디 공중 햅틱 시스템들과의 인간 상호작용들
US11704983B2 (en) 2017-12-22 2023-07-18 Ultrahaptics Ip Ltd Minimizing unwanted responses in haptic systems
JP6873896B2 (ja) * 2017-12-28 2021-05-19 オムロンヘルスケア株式会社 血圧測定装置及びコネクタ
US10523606B2 (en) 2018-01-02 2019-12-31 Snap Inc. Generating interactive messages with asynchronous media content
US10567321B2 (en) 2018-01-02 2020-02-18 Snap Inc. Generating interactive messages with asynchronous media content
US11113887B2 (en) * 2018-01-08 2021-09-07 Verizon Patent And Licensing Inc Generating three-dimensional content from two-dimensional images
US10684690B2 (en) 2018-01-08 2020-06-16 Facebook Technologies, Llc Methods, devices, and systems for creating localized haptic stimulations on a user
WO2019147949A1 (en) * 2018-01-25 2019-08-01 Ctrl-Labs Corporation Real-time processing of handstate representation model estimates
US11481030B2 (en) 2019-03-29 2022-10-25 Meta Platforms Technologies, Llc Methods and apparatus for gesture detection and classification
US20200310541A1 (en) * 2019-03-29 2020-10-01 Facebook Technologies, Llc Systems and methods for control schemes based on neuromuscular data
US11907423B2 (en) 2019-11-25 2024-02-20 Meta Platforms Technologies, Llc Systems and methods for contextualized interactions with an environment
US11493993B2 (en) * 2019-09-04 2022-11-08 Meta Platforms Technologies, Llc Systems, methods, and interfaces for performing inputs based on neuromuscular control
EP3743790A4 (en) 2018-01-25 2021-03-17 Facebook Technologies, Inc. RECONSTRUCTION OF HAND STATE ON THE BASIS OF MULTIPLE ENTRIES
EP3742961A4 (en) 2018-01-25 2021-03-31 Facebook Technologies, Inc. CALIBRATION TECHNIQUES FOR MODELING A HAND CONDITION USING NEUROMUSCULAR SIGNALS
US10504286B2 (en) 2018-01-25 2019-12-10 Ctrl-Labs Corporation Techniques for anonymizing neuromuscular signal data
TWI662439B (zh) * 2018-01-25 2019-06-11 財團法人資訊工業策進會 虛擬空間定位方法及裝置
US10444932B2 (en) 2018-01-25 2019-10-15 Institute For Information Industry Virtual space positioning method and apparatus
US11961494B1 (en) 2019-03-29 2024-04-16 Meta Platforms Technologies, Llc Electromagnetic interference reduction in extended reality environments
EP3743892A4 (en) * 2018-01-25 2021-03-24 Facebook Technologies, Inc. VISUALIZATION OF INFORMATION ON THE STATE OF A RECONSTRUCTED HAND
TWI666571B (zh) * 2018-01-25 2019-07-21 首羿國際股份有限公司 用於虛擬實境環境的動作捕捉系統
US10937414B2 (en) 2018-05-08 2021-03-02 Facebook Technologies, Llc Systems and methods for text input using neuromuscular information
US11150730B1 (en) 2019-04-30 2021-10-19 Facebook Technologies, Llc Devices, systems, and methods for controlling computing devices via neuromuscular signals of users
CA3033605C (en) * 2018-02-14 2021-11-23 Aaron Derouin Three-dimensional visual target acquisition systems
CN112262363A (zh) * 2018-02-27 2021-01-22 利惠商业有限公司 激光整理设计工具
EP3537337B1 (en) * 2018-03-05 2023-10-25 Nxp B.V. User authentication system and method for enrolling fingerprint reference data
CN111868666A (zh) * 2018-03-23 2020-10-30 脸谱科技有限责任公司 用于确定虚拟现实和/或增强现实设备的用户的接触的方法、设备和系统
US10754418B1 (en) * 2018-04-11 2020-08-25 Amazon Technologies, Inc. Using body surfaces for placing augmented reality content
CN108874030A (zh) * 2018-04-27 2018-11-23 努比亚技术有限公司 穿戴设备操作方法、穿戴设备及计算机可读存储介质
KR20210002703A (ko) 2018-05-02 2021-01-08 울트라햅틱스 아이피 엘티디 개선된 음향 전송 효율을 위한 차단 플레이트 구조체
CN109753144A (zh) * 2018-05-08 2019-05-14 北京字节跳动网络技术有限公司 一种实现信息交互的方法、设备及系统
US10592001B2 (en) 2018-05-08 2020-03-17 Facebook Technologies, Llc Systems and methods for improved speech recognition using neuromuscular information
WO2019216947A1 (en) * 2018-05-09 2019-11-14 Apple Inc. Finger-mounted device with fabric
EP3801743B1 (en) 2018-05-25 2024-07-03 Meta Platforms Technologies, LLC Methods and apparatus for providing sub-muscular control
WO2019231911A1 (en) 2018-05-29 2019-12-05 Ctrl-Labs Corporation Shielding techniques for noise reduction in surface electromyography signal measurement and related systems and methods
US11188154B2 (en) * 2018-05-30 2021-11-30 International Business Machines Corporation Context dependent projection of holographic objects
US11063889B2 (en) 2018-06-08 2021-07-13 Snap Inc. Generating interactive messages with entity assets
EP3807795A4 (en) 2018-06-14 2021-08-11 Facebook Technologies, LLC. USER IDENTIFICATION AND AUTHENTICATION BY MEANS OF NEUROMUSCULAR SIGNATURES
WO2020018892A1 (en) 2018-07-19 2020-01-23 Ctrl-Labs Corporation Methods and apparatus for improved signal robustness for a wearable neuromuscular recording device
CN112822979A (zh) * 2018-07-23 2021-05-18 Mvi医疗保健公司 用于物理治疗的系统和方法
US11099647B2 (en) * 2018-08-05 2021-08-24 Pison Technology, Inc. User interface control of responsive devices
WO2020033110A1 (en) * 2018-08-05 2020-02-13 Pison Technology, Inc. User interface control of responsive devices
US11537219B2 (en) 2018-08-07 2022-12-27 The Research Foundation For The State University Of New York Feedback input apparatus and method for use thereof
EP3836836B1 (en) 2018-08-13 2024-03-20 Meta Platforms Technologies, LLC Real-time spike detection and identification
US10770035B2 (en) 2018-08-22 2020-09-08 Google Llc Smartphone-based radar system for facilitating awareness of user presence and orientation
US10890653B2 (en) 2018-08-22 2021-01-12 Google Llc Radar-based gesture enhancement for voice interfaces
US10698603B2 (en) 2018-08-24 2020-06-30 Google Llc Smartphone-based radar system facilitating ease and accuracy of user interactions with displayed objects in an augmented-reality interface
TWI676940B (zh) * 2018-08-29 2019-11-11 國立交通大學 以機械學習為基礎之最佳化預測模型的建立與預測結果的取得系統及方法
WO2020047429A1 (en) 2018-08-31 2020-03-05 Ctrl-Labs Corporation Camera-guided interpretation of neuromuscular signals
US11098951B2 (en) 2018-09-09 2021-08-24 Ultrahaptics Ip Ltd Ultrasonic-assisted liquid manipulation
EP3853698A4 (en) 2018-09-20 2021-11-17 Facebook Technologies, LLC NEUROMUSCULAR TEXT ENTRY, WRITING AND DRAWING IN SYSTEMS WITH EXTENDED REALITY
US10636218B2 (en) * 2018-09-24 2020-04-28 Universal City Studios Llc Augmented reality for an amusement ride
CN109325450A (zh) * 2018-09-25 2019-02-12 Oppo广东移动通信有限公司 图像处理方法、装置、存储介质及电子设备
WO2020069181A1 (en) 2018-09-26 2020-04-02 Ctrl-Labs Corporation Neuromuscular control of physical objects in an environment
US11422692B2 (en) 2018-09-28 2022-08-23 Apple Inc. System and method of controlling devices using motion gestures
JP7023210B2 (ja) * 2018-10-04 2022-02-21 日本電信電話株式会社 多次元データ可視化装置、方法およびプログラム
WO2020072915A1 (en) 2018-10-05 2020-04-09 Ctrl-Labs Corporation Use of neuromuscular signals to provide enhanced interactions with physical objects in an augmented reality environment
US11378997B2 (en) 2018-10-12 2022-07-05 Ultrahaptics Ip Ltd Variable phase and frequency pulse-width modulation technique
US10678342B2 (en) * 2018-10-21 2020-06-09 XRSpace CO., LTD. Method of virtual user interface interaction based on gesture recognition and related device
US10788880B2 (en) 2018-10-22 2020-09-29 Google Llc Smartphone-based radar system for determining user intention in a lower-power mode
CN109171716A (zh) * 2018-10-26 2019-01-11 湖北大学 一种面向智慧医疗的脑电病理大数据疾病参预警云系统
CN109448348B (zh) * 2018-11-05 2021-05-04 广东思派康电子科技有限公司 一种红外遥控装置
CN109549665B (zh) * 2018-11-15 2021-06-22 青岛海信医疗设备股份有限公司 一种超声设备检测系统
CN109431584B (zh) * 2018-11-27 2020-09-01 深圳蓝韵医学影像有限公司 超声成像的方法及系统
US11169612B2 (en) * 2018-11-27 2021-11-09 International Business Machines Corporation Wearable device control
DE102018220693B4 (de) * 2018-11-30 2022-08-18 Audi Ag Steuerungssystem und Verfahren zum Steuern einer Funktion eines Fahrzeugs, sowie Fahrzeug mit einem solchen
US11093041B2 (en) * 2018-11-30 2021-08-17 International Business Machines Corporation Computer system gesture-based graphical user interface control
AU2019392184A1 (en) * 2018-12-03 2021-07-29 Hewlett-Packard Development Company, L.P. Logic circuitry package
US10796482B2 (en) 2018-12-05 2020-10-06 Snap Inc. 3D hand shape and pose estimation
CN111290566B (zh) * 2018-12-06 2021-09-17 中国科学院长春光学精密机械与物理研究所 一种基于ar的智能家居体验方法及体验系统
CN111290567B (zh) * 2018-12-06 2022-03-22 中国科学院长春光学精密机械与物理研究所 一种智能家居装饰显像系统及虚拟家具摆放方法
WO2020121836A1 (ja) * 2018-12-11 2020-06-18 ソニー株式会社 超音波ユーザーインターフェース装置
US11464419B2 (en) 2018-12-18 2022-10-11 Movano Inc. Methods for training a model for use in radio wave based health monitoring
CN109710075B (zh) * 2018-12-29 2021-02-09 北京诺亦腾科技有限公司 一种在vr场景中显示内容的方法及装置
CN109766004A (zh) * 2018-12-29 2019-05-17 北京诺亦腾科技有限公司 一种在vr场景中隔空控制物体的方法及装置
EP3906462A2 (en) 2019-01-04 2021-11-10 Ultrahaptics IP Ltd Mid-air haptic textures
WO2020145431A1 (ko) * 2019-01-09 2020-07-16 엘지전자 주식회사 Rf 신호를 이용한 사용자 제스쳐 결정 방법 및 이를 위한 장치
TWI676088B (zh) * 2019-01-11 2019-11-01 國立高雄科技大學 動力輔助裝置之偵測失效備援系統
US11436823B1 (en) 2019-01-21 2022-09-06 Cyan Systems High resolution fast framing infrared detection system
US11287885B1 (en) * 2019-01-22 2022-03-29 Facebook Technologies, Llc Apparatus, system, and method for determining the position of wearables donned by users of artificial reality systems
US10928889B1 (en) * 2019-01-22 2021-02-23 Facebook Technologies, Llc Apparatus, system, and method for directional acoustic sensing via wearables donned by users of artificial reality systems
RU193501U1 (ru) * 2019-02-05 2019-10-30 Раиса Юрьевна Будко Устройство замещения утраченных функций человека с использованием обратной связи
CN109905183B (zh) * 2019-02-19 2021-08-10 杨世惟 一种基于超声波传输的水下通信装置及水下通信方法
JP7117451B2 (ja) * 2019-02-19 2022-08-12 株式会社Nttドコモ 視線とジェスチャを用いた情報表示装置
US11474076B2 (en) 2019-02-28 2022-10-18 Olympus NDT Canada Inc. Acoustic model acoustic region of influence generation
US10905383B2 (en) 2019-02-28 2021-02-02 Facebook Technologies, Llc Methods and apparatus for unsupervised one-shot machine learning for classification of human gestures and estimation of applied forces
CN109972674B (zh) * 2019-03-04 2020-10-02 华中科技大学 基于自然交互的复杂施工环境下的无人挖掘系统及方法
KR102181499B1 (ko) * 2019-03-14 2020-11-23 주식회사 듀코젠 양손 입력을 지원하는 vr 콘텐츠 저작 방법 및 시스템
US11019011B1 (en) 2019-03-29 2021-05-25 Snap Inc. Messaging system with discard user interface
US11036368B1 (en) 2019-03-29 2021-06-15 Snap Inc. Messaging system with message transmission user interface
TWI761671B (zh) * 2019-04-02 2022-04-21 緯創資通股份有限公司 活體偵測方法與活體偵測系統
WO2020209624A1 (en) * 2019-04-11 2020-10-15 Samsung Electronics Co., Ltd. Head mounted display device and operating method thereof
US11842517B2 (en) 2019-04-12 2023-12-12 Ultrahaptics Ip Ltd Using iterative 3D-model fitting for domain adaptation of a hand-pose-estimation neural network
CN110031827B (zh) * 2019-04-15 2023-02-07 吉林大学 一种基于超声波测距原理的手势识别方法
US11323800B2 (en) * 2019-04-25 2022-05-03 X Development Llc Ultrasonic speech recognition
US11448483B1 (en) 2019-04-29 2022-09-20 Cyan Systems Projectile tracking and 3D traceback method
GB2583733A (en) * 2019-05-07 2020-11-11 Mafic Ltd User activity determining system
US11373318B1 (en) 2019-05-14 2022-06-28 Vulcan Inc. Impact detection
US10867220B2 (en) * 2019-05-16 2020-12-15 Rpx Corporation Systems and methods for generating composite sets of data from different sensors
WO2020239202A1 (de) 2019-05-28 2020-12-03 Asset Green Holding Ug Tragbare mensch-maschine schnittstelle und mit dieser ausführbares verfahren
US11106342B1 (en) 2019-06-03 2021-08-31 Snap Inc. User interfaces to facilitate multiple modes of electronic communication
JP2021002288A (ja) * 2019-06-24 2021-01-07 株式会社ソニー・インタラクティブエンタテインメント 画像処理装置、コンテンツ処理システム、および画像処理方法
WO2021061245A2 (en) * 2019-06-28 2021-04-01 Cyan Systems Fast framing moving target imaging system and method
EP3990893A4 (en) * 2019-06-28 2023-08-09 3M Innovative Properties Company CONDITION DETECTION OF MATERIAL SURFACES OF OBJECTS WEAR ON THE BODY USING COLOR DETECTION
US11151794B1 (en) 2019-06-28 2021-10-19 Snap Inc. Messaging system with augmented reality messages
CN112168348A (zh) 2019-07-03 2021-01-05 钜旺生技股份有限公司 用于手术的定位与导航系统及其运作方法
WO2021000056A1 (en) * 2019-07-03 2021-01-07 Brink Bionics Inc. Myoelectric wearable system for finger movement recognition
TWI716924B (zh) * 2019-07-03 2021-01-21 鉅旺生技股份有限公司 用於手術的定位與導航系統及其運作方法
US11307747B2 (en) 2019-07-11 2022-04-19 Snap Inc. Edge gesture interface with smart interactions
CN110443309A (zh) * 2019-08-07 2019-11-12 浙江大学 一种结合跨模态关联关系模型的肌电信号手势识别方法
CN110393527B (zh) * 2019-08-12 2021-12-28 东南大学 基于beamforming和CCA的稳态视觉诱发电位检出方法
CN112528680B (zh) * 2019-08-29 2024-04-05 上海卓繁信息技术股份有限公司 语料扩充方法及系统
US11430175B2 (en) 2019-08-30 2022-08-30 Shopify Inc. Virtual object areas using light fields
US11029755B2 (en) 2019-08-30 2021-06-08 Shopify Inc. Using prediction information with light fields
US11551374B2 (en) 2019-09-09 2023-01-10 Snap Inc. Hand pose estimation from stereo cameras
US11282297B2 (en) * 2019-09-10 2022-03-22 Blue Planet Training, Inc. System and method for visual analysis of emotional coherence in videos
KR20210031269A (ko) * 2019-09-11 2021-03-19 삼성전자주식회사 영상 인식 모델을 학습하는 전자 장치 및 그 동작 방법
TWI779310B (zh) * 2019-09-26 2022-10-01 華碩電腦股份有限公司 電子裝置之控制方法
US11687309B2 (en) * 2019-09-26 2023-06-27 Hewlett-Packard Development Company, L.P. Geospatial display configuration
US11275453B1 (en) 2019-09-30 2022-03-15 Snap Inc. Smart ring for manipulating virtual objects displayed by a wearable device
AU2020368678A1 (en) 2019-10-13 2022-05-19 Ultraleap Limited Dynamic capping with virtual microphones
US11374586B2 (en) 2019-10-13 2022-06-28 Ultraleap Limited Reducing harmonic distortion by dithering
USD1010004S1 (en) 2019-11-04 2024-01-02 Amax Group Usa, Llc Flying toy
US11169610B2 (en) 2019-11-08 2021-11-09 Ultraleap Limited Tracking techniques in haptic systems
WO2021101402A1 (ru) * 2019-11-21 2021-05-27 Дмитрий Владленович РОЗИНСКИЙ Способ мониторинга технологического процесса
TWI722674B (zh) * 2019-11-21 2021-03-21 國立雲林科技大學 姿態影像訊號與運動訊號之訊號匹配系統以及訊號匹配方法
US11273341B2 (en) * 2019-11-27 2022-03-15 Ready 2 Perform Technology LLC Interactive visualization system for biomechanical assessment
US12089953B1 (en) 2019-12-04 2024-09-17 Meta Platforms Technologies, Llc Systems and methods for utilizing intrinsic current noise to measure interface impedances
US11175730B2 (en) * 2019-12-06 2021-11-16 Facebook Technologies, Llc Posture-based virtual space configurations
US10705597B1 (en) * 2019-12-17 2020-07-07 Liteboxer Technologies, Inc. Interactive exercise and training system and method
CN111191309B (zh) * 2019-12-19 2023-01-24 北京虹晟信息科技有限公司 适用于bim轻量化的实时遮挡剔除方法、装置和设备
US11715453B2 (en) 2019-12-25 2023-08-01 Ultraleap Limited Acoustic transducer structures
CN111158476B (zh) * 2019-12-25 2023-05-23 中国人民解放军军事科学院国防科技创新研究院 一种虚拟键盘的按键识别方法、系统、设备及存储介质
US11062498B1 (en) 2019-12-30 2021-07-13 Snap Inc. Animated pull-to-refresh
TWI736117B (zh) * 2020-01-22 2021-08-11 瑞昱半導體股份有限公司 聲音定位裝置與方法
WO2021148557A1 (en) * 2020-01-24 2021-07-29 Dawako Medtech, S.L. Wearable ultrasound apparatus
US20210237715A1 (en) * 2020-01-30 2021-08-05 Ford Global Technologies, Llc Continuous input brain machine interface for automated driving features
CN111291677B (zh) * 2020-02-05 2022-09-09 吉林大学 一种动态视频触觉特征提取及渲染的方法
US20230054973A1 (en) * 2020-02-06 2023-02-23 Sony Group Corporation Information processing apparatus, information processing method, and information processing program
US11265274B1 (en) 2020-02-28 2022-03-01 Snap Inc. Access and routing of interactive messages
US11150737B2 (en) * 2020-03-16 2021-10-19 Facebook Technologies, Llc Apparatus, system, and method for wrist tracking and gesture detection via time of flight sensors
US11409368B2 (en) 2020-03-26 2022-08-09 Snap Inc. Navigating through augmented reality content
US11675494B2 (en) 2020-03-26 2023-06-13 Snap Inc. Combining first user interface content into second user interface
US11960651B2 (en) 2020-03-30 2024-04-16 Snap Inc. Gesture-based shared AR session creation
US11397468B2 (en) 2020-03-31 2022-07-26 Apple Inc. Skin-to-skin contact detection
US11277597B1 (en) 2020-03-31 2022-03-15 Snap Inc. Marker-based guided AR experience
US11397466B2 (en) * 2020-03-31 2022-07-26 Apple Inc. Skin-to-skin contact detection
TWI724858B (zh) * 2020-04-08 2021-04-11 國軍花蓮總醫院 基於手勢動作的混合實境評量系統
US11798429B1 (en) 2020-05-04 2023-10-24 Snap Inc. Virtual tutorials for musical instruments with finger tracking in augmented reality
US11858144B2 (en) 2020-05-12 2024-01-02 Aescape, Inc. Method and system for autonomous body interaction
EP4149725A4 (en) * 2020-05-12 2024-07-17 Aescape Inc AUTONOMOUS OBJECT INTERACTION METHOD AND SYSTEM
US11999061B2 (en) 2020-05-12 2024-06-04 Aescape, Inc. Method and system for autonomous object manipulation
US11520399B2 (en) 2020-05-26 2022-12-06 Snap Inc. Interactive augmented reality experiences using positional tracking
US11257280B1 (en) 2020-05-28 2022-02-22 Facebook Technologies, Llc Element-based switching of ray casting rules
CN111881719B (zh) * 2020-06-09 2024-04-16 青岛奥美克生物信息科技有限公司 非接触式生物识别引导装置、方法以及生物特征识别系统
US11816267B2 (en) 2020-06-23 2023-11-14 Ultraleap Limited Features of airborne ultrasonic fields
US11256336B2 (en) 2020-06-29 2022-02-22 Facebook Technologies, Llc Integration of artificial reality interaction modes
KR102388689B1 (ko) * 2020-06-29 2022-04-20 경북보건대학교 산학협력단 폭염 대비를 위한 휴대용 안전장치
US11991469B2 (en) 2020-06-30 2024-05-21 Snap Inc. Skeletal tracking for real-time virtual effects
US20230280835A1 (en) * 2020-07-10 2023-09-07 Arizona Board Of Regents On Behalf Of Arizona State University System including a device for personalized hand gesture monitoring
DE102020119907A1 (de) * 2020-07-28 2022-02-03 Enari GmbH Vorrichtung und Verfahren zur Erkennung und Vorhersage von Körperbewegungen
CN112057139B (zh) * 2020-07-31 2022-02-22 常州锦瑟医疗信息科技有限公司 基于混合现实技术的手术定位系统
KR20230047480A (ko) 2020-08-13 2023-04-07 스냅 인코포레이티드 포즈 구동형 가상 효과들을 위한 사용자 인터페이스
US11886559B2 (en) * 2020-08-31 2024-01-30 Harlock Creative Llc Biometric identification and control systems and methods for providing customizable security through authentication of biosignal representations of one or more user-specific and user-selected gesture-intentions
US11178376B1 (en) 2020-09-04 2021-11-16 Facebook Technologies, Llc Metering for display modes in artificial reality
WO2022058738A1 (en) 2020-09-17 2022-03-24 Ultraleap Limited Ultrahapticons
US11925863B2 (en) 2020-09-18 2024-03-12 Snap Inc. Tracking hand gestures for interactive game control in augmented reality
US20220100265A1 (en) * 2020-09-30 2022-03-31 Qualcomm Incorporated Dynamic configuration of user interface layouts and inputs for extended reality systems
US11671559B2 (en) 2020-09-30 2023-06-06 Snap Inc. Real time video editing
TWI777265B (zh) * 2020-10-05 2022-09-11 鉭騏實業有限公司 指向音源探取裝置及其方法
WO2022076498A1 (en) * 2020-10-06 2022-04-14 The Johns Hopkins University Devices, systems, and methods for monitoring and treatment of injuries
CN112381023B (zh) * 2020-11-20 2022-01-11 中武(福建)跨境电子商务有限责任公司 一种跨境电商快速身份识别方法及其识别系统
CN112416130B (zh) * 2020-11-24 2023-03-21 谢昊 一种智能运动检测装置及方法
CN112515702B (zh) * 2020-11-30 2022-06-10 中国科学院空天信息创新研究院 基于超声探头与皮肤相对位移的自适应超声波束合成方法
CN112417735B (zh) * 2020-12-01 2023-06-02 北京信息科技大学 一种指尖皮肤表面接触特性的有限元分析方法及系统
US11475642B2 (en) 2020-12-18 2022-10-18 Huawei Technologies Co., Ltd. Methods and systems for selection of objects
US11782577B2 (en) 2020-12-22 2023-10-10 Snap Inc. Media content player on an eyewear device
US12105283B2 (en) 2020-12-22 2024-10-01 Snap Inc. Conversation interface on an eyewear device
US11797162B2 (en) 2020-12-22 2023-10-24 Snap Inc. 3D painting on an eyewear device
KR20230124703A (ko) 2020-12-29 2023-08-25 스냅 인코포레이티드 증강 현실 컴포넌트들을 위한 신체 ui
CN116724285A (zh) 2020-12-29 2023-09-08 美国斯耐普公司 用于控制虚拟和图形元素的微手势
KR20230124077A (ko) 2020-12-30 2023-08-24 스냅 인코포레이티드 증강 현실 정밀 추적 및 디스플레이
US11740313B2 (en) 2020-12-30 2023-08-29 Snap Inc. Augmented reality precision tracking and display
US12008152B1 (en) 2020-12-31 2024-06-11 Snap Inc. Distance determination for mixed reality interaction
WO2022147451A1 (en) 2020-12-31 2022-07-07 Snap Inc. Media content items with haptic feedback augmentations
EP4272060A1 (en) 2020-12-31 2023-11-08 Snap Inc. Real-time video communication interface with haptic feedback
EP4272059A1 (en) 2020-12-31 2023-11-08 Snap Inc. Electronic communication interface with haptic feedback response
CN114765558B (zh) 2021-01-15 2024-04-09 台达电子工业股份有限公司 工业设备监控方法及工业设备监控系统
US11887259B2 (en) 2021-01-25 2024-01-30 Walker L. Sherk Method, system, and apparatus for full-body tracking with magnetic fields in virtual reality and augmented reality applications
US11294475B1 (en) 2021-02-08 2022-04-05 Facebook Technologies, Llc Artificial reality multi-modal input switching model
US20240168565A1 (en) * 2021-02-25 2024-05-23 Karen Stolzenberg Single-handed gestures for reviewing virtual content
US11531402B1 (en) * 2021-02-25 2022-12-20 Snap Inc. Bimanual gestures for controlling virtual and graphical elements
US11908243B2 (en) 2021-03-16 2024-02-20 Snap Inc. Menu hierarchy navigation on electronic mirroring devices
US11978283B2 (en) 2021-03-16 2024-05-07 Snap Inc. Mirroring device with a hands-free mode
USD998637S1 (en) 2021-03-16 2023-09-12 Snap Inc. Display screen or portion thereof with a graphical user interface
US11798201B2 (en) 2021-03-16 2023-10-24 Snap Inc. Mirroring device with whole-body outfits
US12111974B1 (en) * 2021-03-16 2024-10-08 Zeit Technologies Corporation Wearable gesture detector
US11734959B2 (en) 2021-03-16 2023-08-22 Snap Inc. Activating hands-free mode on mirroring device
US11809633B2 (en) 2021-03-16 2023-11-07 Snap Inc. Mirroring device with pointing based navigation
US12050729B2 (en) 2021-03-31 2024-07-30 Snap Inc. Real-time communication interface with haptic and audio feedback response
US11818651B2 (en) * 2021-04-06 2023-11-14 Cisco Technology, Inc. Best links for wireless clients
US11868531B1 (en) * 2021-04-08 2024-01-09 Meta Platforms Technologies, Llc Wearable device providing for thumb-to-finger-based input gestures detected based on neuromuscular signals, and systems and methods of use thereof
CN114601451B (zh) * 2021-04-09 2024-07-23 长春工业大学 一种基于表面肌电信号的上肢外骨骼机器人控制方法
US12022358B2 (en) * 2021-04-13 2024-06-25 Qualcomm Incorporated Self-supervised passive positioning using wireless data
JP2024514614A (ja) 2021-04-13 2024-04-02 アップル インコーポレイテッド 環境内で没入型体験を提供するための方法
KR20230170086A (ko) * 2021-04-19 2023-12-18 스냅 인코포레이티드 가상 및 그래픽 엘리먼트들을 애니메이팅하고 제어하기 위한 손 제스처
US11435886B1 (en) * 2021-04-20 2022-09-06 Corel Corporation Graphical object manipulation via paths and easing
US20220374085A1 (en) * 2021-05-19 2022-11-24 Apple Inc. Navigating user interfaces using hand gestures
US11928306B2 (en) 2021-05-19 2024-03-12 Snap Inc. Touchpad navigation for augmented reality display device
US11880542B2 (en) 2021-05-19 2024-01-23 Snap Inc. Touchpad input for augmented reality display device
USD1001009S1 (en) 2021-06-09 2023-10-10 Amax Group Usa, Llc Quadcopter
CN113361198B (zh) * 2021-06-09 2023-11-03 南京大学 一种基于公共和私有信息挖掘的众包测试报告融合方法
USD1003214S1 (en) 2021-06-09 2023-10-31 Amax Group Usa, Llc Quadcopter
US20240289973A1 (en) * 2021-06-14 2024-08-29 Arizona Board Of Regents On Behalf Of Arizona State University Systems and methods for an environment-aware predictive modeling framework for human-robot symbiotic walking
CN113658263B (zh) * 2021-06-17 2023-10-31 石家庄铁道大学 基于视觉场景的电磁干扰源可视化标注方法
CN113349742A (zh) * 2021-07-07 2021-09-07 异象科技(北京)有限公司 一种进行生命体征监测的智能光影控制手环
CN113256767B (zh) * 2021-07-14 2021-11-09 北京邮电大学 徒手交互取色方法和取色装置
CN113589928B (zh) * 2021-07-27 2023-11-24 东莞理工学院 一种面向智能电视的手势识别方法
US11670059B2 (en) 2021-09-01 2023-06-06 Snap Inc. Controlling interactive fashion based on body gestures
US12093464B2 (en) 2021-09-03 2024-09-17 Meta Platforms Technologies, Llc Systems for interpreting a digit-to-digit gesture by a user differently based on roll values of a wrist-wearable device worn by the user, and methods of use thereof
WO2023034631A1 (en) * 2021-09-03 2023-03-09 Meta Platforms Technologies, Llc Systems for interpreting a digit-to-digit gesture by a user differently based on roll values of a wrist- wearable device worn by the user, and methods of use thereof
CN113963229B (zh) * 2021-09-23 2023-08-18 西北大学 一种基于视频的无线信号增强与跨目标手势识别方法
US12056285B2 (en) 2021-09-24 2024-08-06 Apple Inc. Electrodes for gesture recognition
RU2762857C1 (ru) * 2021-10-15 2021-12-23 Федеральное государственное бюджетное образовательное учреждение высшего образования "Самарский государственный медицинский университет" Министерства здравоохранения Российской Федерации Устройство формирования общей чувствительности в виртуальной среде
TWI800124B (zh) * 2021-11-26 2023-04-21 輔仁大學學校財團法人輔仁大學 應用虛擬實境模擬兒童日常生活訓練的虛擬實境互動式系統
CN114111772B (zh) * 2021-11-29 2023-10-03 江苏科技大学 一种基于数据手套的水下机器人软体作业手位置跟踪方法
US11775077B2 (en) * 2021-12-03 2023-10-03 Htc Corporation Method for activating system function in response to triggered icon on hand object, host, and computer readable storage medium
US11960784B2 (en) 2021-12-07 2024-04-16 Snap Inc. Shared augmented reality unboxing experience
US11748958B2 (en) 2021-12-07 2023-09-05 Snap Inc. Augmented reality unboxing experience
EP4369153A1 (en) 2021-12-09 2024-05-15 Samsung Electronics Co., Ltd. Gesture recognition method using wearable device, and device therefor
US20230196765A1 (en) * 2021-12-21 2023-06-22 Meta Platforms Technologies, Llc Software-based user interface element analogues for physical device elements
CN113970968B (zh) * 2021-12-22 2022-05-17 深圳市心流科技有限公司 一种智能仿生手的动作预判方法
KR20230096730A (ko) * 2021-12-23 2023-06-30 삼성전자주식회사 웨어러블 장치 및 그 제어 방법
US11847256B2 (en) 2022-03-04 2023-12-19 Humane, Inc. Presenting and aligning laser projected virtual interfaces
US11868516B2 (en) 2022-03-04 2024-01-09 Humane, Inc. Hand-specific laser projected virtual interfaces and operations
US11895368B2 (en) 2022-03-04 2024-02-06 Humane, Inc. Generating, storing, and presenting content based on a memory metric
US11899911B2 (en) 2022-03-04 2024-02-13 Humane, Inc. Message composition interfaces for use with wearable multimedia devices
US11948578B2 (en) 2022-03-04 2024-04-02 Humane, Inc. Composing electronic messages based on speech input
US11954289B2 (en) 2022-03-04 2024-04-09 Humane, Inc. Laser projected virtual interface
US11936802B2 (en) 2022-03-04 2024-03-19 Humane, Inc. Laser projected wayfinding interface
US11579747B1 (en) 2022-03-14 2023-02-14 Snap Inc. 3D user interface depth forgiveness
TWI798038B (zh) * 2022-03-30 2023-04-01 國立勤益科技大學 具有手部姿勢操控之人機介面裝置
TWI796192B (zh) * 2022-03-31 2023-03-11 國立勤益科技大學 具有手部姿勢操控之虛擬系統
CN114676614B (zh) * 2022-04-01 2023-03-28 上海交通大学 一种面向船舶结构力学的虚拟仿真实验系统及实现方法
WO2022204614A1 (en) * 2022-05-02 2022-09-29 Innopeak Technology, Inc. Wrist-wearable controller for head-mounted device (hmd) or other user device with camera input
WO2022226429A1 (en) * 2022-05-03 2022-10-27 Innopeak Technology, Inc. Smart watch -based control of user interface (ui) of other device(s)
US11960653B2 (en) 2022-05-10 2024-04-16 Snap Inc. Controlling augmented reality effects through multi-modal human interaction
CN114976595A (zh) * 2022-05-17 2022-08-30 南昌黑鲨科技有限公司 一种智能天线系统
US12001878B2 (en) 2022-06-03 2024-06-04 Snap Inc. Auto-recovery for AR wearable devices
US12002168B2 (en) 2022-06-20 2024-06-04 Snap Inc. Low latency hand-tracking in augmented reality systems
CN115202471A (zh) * 2022-06-21 2022-10-18 京东方科技集团股份有限公司 一种全身姿态追踪及触觉设备及虚拟现实系统
USD1035787S1 (en) 2022-06-24 2024-07-16 Amax Group Usa, Llc Flying toy
US12069399B2 (en) 2022-07-07 2024-08-20 Snap Inc. Dynamically switching between RGB and IR capture
US20240070992A1 (en) * 2022-08-26 2024-02-29 Snap Inc. Hand-tracking stabilization
US11948266B1 (en) 2022-09-09 2024-04-02 Snap Inc. Virtual object manipulation with gestures in a messaging system
US11995780B2 (en) 2022-09-09 2024-05-28 Snap Inc. Shooting interaction using augmented reality content in a messaging system
US12112011B2 (en) 2022-09-16 2024-10-08 Apple Inc. System and method of application-based three-dimensional refinement in multi-user communication sessions
US11797099B1 (en) 2022-09-19 2023-10-24 Snap Inc. Visual and audio wake commands
US12099653B2 (en) 2022-09-22 2024-09-24 Apple Inc. User interface response based on gaze-holding event assessment
US11747912B1 (en) 2022-09-22 2023-09-05 Snap Inc. Steerable camera for AR hand tracking
CN115540954B (zh) * 2022-11-27 2023-04-07 四川易景智能终端有限公司 一种智能手表生产的质量检测方法、装置及系统
US12112025B2 (en) 2023-02-16 2024-10-08 Snap Inc. Gesture-driven message content resizing
US12108012B2 (en) 2023-02-27 2024-10-01 Apple Inc. System and method of managing spatial states and display modes in multi-user communication sessions
WO2024206498A1 (en) * 2023-03-31 2024-10-03 Meta Platforms Technologies, Llc Techniques for determining that impedance changes detected at sensor-skin interfaces by biopotential-signal sensors correspond to user commands, and systems and methods using those techniques
US12118200B1 (en) 2023-06-02 2024-10-15 Apple Inc. Fuzzy hit testing
US12113948B1 (en) 2023-06-04 2024-10-08 Apple Inc. Systems and methods of managing spatial groups in multi-user communication sessions
CN116797494B (zh) * 2023-08-17 2023-11-21 中南大学湘雅医院 一种基于图像处理的产科手术监测方法、系统及相关设备
CN116820251B (zh) * 2023-08-28 2023-11-07 中数元宇数字科技(上海)有限公司 一种手势轨迹交互方法、智能眼镜及存储介质
CN117132240B (zh) * 2023-10-24 2023-12-22 中川建投集团有限公司 一种基于大数据的工程项目管理系统
US12093443B1 (en) 2023-10-30 2024-09-17 Snap Inc. Grasping virtual objects with real hands for extended reality
KR102663212B1 (ko) * 2023-11-30 2024-05-03 (주) 뉴케어 방사성 핵종 분석 측정장치 및 장치의 동작 방법
CN117369649B (zh) * 2023-12-05 2024-03-26 山东大学 基于本体感觉的虚拟现实交互系统及方法
CN118377385B (zh) * 2024-06-26 2024-09-24 南京小鱼数字科技有限公司 一种基于人机交互的姿态识别管理系统及方法

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20020151824A1 (en) * 2000-04-13 2002-10-17 Peter Fischer Posture measurment and feedback instrument for seated occupations
US20100302137A1 (en) * 2009-05-27 2010-12-02 Microsoft Corporation Touch Sensitive Display Apparatus using sensor input
US20120143358A1 (en) * 2009-10-27 2012-06-07 Harmonix Music Systems, Inc. Movement based recognition and evaluation
CN103827780A (zh) * 2011-07-12 2014-05-28 谷歌公司 用于虚拟输入设备的方法和系统
WO2014127126A1 (en) * 2013-02-14 2014-08-21 New York University Handphone
US20150138086A1 (en) * 2009-04-02 2015-05-21 John S. Underkoffler Calibrating control device for use with spatial operating system
US20150220109A1 (en) * 2013-11-29 2015-08-06 Mechio Inc. Wearable computing device

Family Cites Families (219)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4427912A (en) * 1982-05-13 1984-01-24 Ausonics Pty. Ltd. Ultrasound transducer for enhancing signal reception in ultrasound equipment
US4757714A (en) 1986-09-25 1988-07-19 Insight, Inc. Speed sensor and head-mounted data display
US4987410A (en) 1988-01-25 1991-01-22 Kaiser Aerospace & Electronics Corporation Multiple image forming apparatus
JPH05500461A (ja) 1989-06-09 1993-02-04 オニール,ジョン,エル 筋肉運動をモニターする生体フィードバック装置
CA2030874C (en) 1989-11-30 1994-11-01 Ronald G. Hegg Dual-mirror virtual image display for vehicle instrument cluster
US5696521A (en) 1994-06-22 1997-12-09 Astounding Technologies (M) Sdn. Bhd. Video headset
US5544268A (en) 1994-09-09 1996-08-06 Deacon Research Display panel with electrically-controlled waveguide-routing
US5488957A (en) * 1994-11-21 1996-02-06 General Electric Company System and method for promoting adhesion between lens and matching layer of ultrasonic transducer
US5986811A (en) 1995-06-07 1999-11-16 Meso Scale Technologies Llp Method of and apparatus for generating a 3-D image from a 2-D image having a changeable focusing micro-lens array
US5619373A (en) 1995-06-07 1997-04-08 Hasbro, Inc. Optical system for a head mounted display
US5818359A (en) 1995-07-10 1998-10-06 Beach; Kirk Process and apparatus for computerizing translation of motion of subcutaneous body parts
US5886822A (en) 1996-10-08 1999-03-23 The Microoptical Corporation Image combining system for eyeglasses and face masks
ATE232621T1 (de) 1996-12-20 2003-02-15 Hitachi Europ Ltd Verfahren und system zur erkennung von handgesten
US6764012B2 (en) * 1997-02-10 2004-07-20 Symbol Technologies, Inc. Signaling arrangement for and method of signaling in a wireless local area network
US20020075232A1 (en) 1997-08-15 2002-06-20 Wolfgang Daum Data glove
US6583772B1 (en) 1998-08-05 2003-06-24 Microvision, Inc. Linked scanner imaging system and method
US6937221B2 (en) 1998-08-05 2005-08-30 Microvision, Inc. Scanned beam display
US6151167A (en) 1998-08-05 2000-11-21 Microvision, Inc. Scanned display with dual signal fiber transmission
US6681031B2 (en) * 1998-08-10 2004-01-20 Cybernet Systems Corporation Gesture-controlled interfaces for self-service machines and other applications
US6147807A (en) 1999-05-04 2000-11-14 Honeywell, Inc. High brightness see-through head-mounted display
CA2375519A1 (en) 1999-06-21 2000-12-28 The Microoptical Corporation Eyeglass display lens system employing off-axis optical design
US6433907B1 (en) 1999-08-05 2002-08-13 Microvision, Inc. Scanned display with plurality of scanning assemblies
US6795221B1 (en) 1999-08-05 2004-09-21 Microvision, Inc. Scanned display with switched feeds and distortion correction
US6924476B2 (en) 2002-11-25 2005-08-02 Microvision, Inc. Resonant beam scanner with raster pinch compensation
US6515781B2 (en) 1999-08-05 2003-02-04 Microvision, Inc. Scanned imaging apparatus with switched feeds
US6525310B2 (en) 1999-08-05 2003-02-25 Microvision, Inc. Frequency tunable resonant scanner
US6456438B1 (en) 1999-08-12 2002-09-24 Honeywell Inc. Variable immersion vignetting display
GB2360603A (en) 2000-03-20 2001-09-26 Cambridge 3D Display Ltd Planar optical waveguide and float glass process
RU2002133232A (ru) 2000-05-11 2004-04-20 Клоузинг Плас Ой (Fi) Способ визуального отображения посредством проектора электронной информации, выдаваемой электронным устройством, проектор и предмет одежды
AU5664401A (en) 2000-06-05 2001-12-17 Lumus Ltd Substrate-guided optical beam expander
US20040051392A1 (en) * 2000-09-22 2004-03-18 Ziad Badarneh Operating device
JP4436445B2 (ja) * 2000-11-17 2010-03-24 キヤノン株式会社 在庫管理システム、在庫管理方法及びプログラム
US6724012B2 (en) 2000-12-14 2004-04-20 Semiconductor Energy Laboratory Co., Ltd. Display matrix with pixels having sensor and light emitting portions
US7193758B2 (en) 2001-02-06 2007-03-20 Microvision, Inc. Scanner and method for sweeping a beam across a target
US7082393B2 (en) 2001-03-27 2006-07-25 Rast Associates, Llc Head-worn, trimodal device to increase transcription accuracy in a voice recognition system and to process unvocalized speech
US7061450B2 (en) 2001-04-09 2006-06-13 Microvision, Inc. Electronically scanned beam display
JP4772204B2 (ja) 2001-04-13 2011-09-14 オリンパス株式会社 観察光学系
US6529331B2 (en) 2001-04-20 2003-03-04 Johns Hopkins University Head mounted display with full field of view and high resolution
US6731434B1 (en) 2001-05-23 2004-05-04 University Of Central Florida Compact lens assembly for the teleportal augmented reality system
US20040125076A1 (en) 2001-06-08 2004-07-01 David Green Method and apparatus for human interface with a computer
US6666825B2 (en) 2001-07-05 2003-12-23 General Electric Company Ultrasound transducer for improving resolution in imaging system
US7072096B2 (en) 2001-12-14 2006-07-04 Digital Optics International, Corporation Uniform illumination system
US6719693B2 (en) 2002-03-29 2004-04-13 Becs Technology, Inc. Apparatus and system for real-time synthetic focus ultrasonic imaging
US7580007B2 (en) 2002-05-17 2009-08-25 Microvision, Inc. Apparatus and method for bi-directionally sweeping an image beam in the vertical dimension and related apparati and methods
US6984208B2 (en) * 2002-08-01 2006-01-10 The Hong Kong Polytechnic University Method and apparatus for sensing body gesture, posture and movement
US6747785B2 (en) 2002-10-24 2004-06-08 Hewlett-Packard Development Company, L.P. MEMS-actuated color light modulator and methods
US7071594B1 (en) 2002-11-04 2006-07-04 Microvision, Inc. MEMS scanner with dual magnetic and capacitive drive
US20040138935A1 (en) * 2003-01-09 2004-07-15 Johnson Christopher D. Visualizing business analysis results
US7145722B2 (en) 2003-04-24 2006-12-05 Banpil Photonics, Inc. Optical filter and method of manufacturing thereof
JP4741488B2 (ja) * 2003-07-03 2011-08-03 ホロタッチ, インコーポレイテッド ホログラフィックヒューマンマシンインタフェース
GB2403814A (en) 2003-07-10 2005-01-12 Ocuity Ltd Directional display apparatus with birefringent lens structure
GB2403815A (en) 2003-07-10 2005-01-12 Ocuity Ltd Birefringent lens array structure
US7106519B2 (en) 2003-07-31 2006-09-12 Lucent Technologies Inc. Tunable micro-lens arrays
US7209538B2 (en) * 2003-08-07 2007-04-24 Xoran Technologies, Inc. Intraoperative stereo imaging system
CN1898563B (zh) * 2003-09-24 2011-11-23 肿瘤疗法科学股份有限公司 诊断乳腺癌的方法
US7232071B2 (en) 2003-11-14 2007-06-19 Microvision, Inc. Scanned beam imager
US6999238B2 (en) 2003-12-01 2006-02-14 Fujitsu Limited Tunable micro-lens array
GB0328904D0 (en) 2003-12-12 2004-01-14 Swan Thomas & Co Ltd Scarab
DE102005001417B4 (de) * 2004-01-29 2009-06-25 Heidelberger Druckmaschinen Ag Projektionsflächenabhängige Anzeige-/Bedienvorrichtung
US7482730B2 (en) 2004-02-09 2009-01-27 Microvision, Inc. High performance MEMS scanner
US9652032B2 (en) * 2004-03-02 2017-05-16 Brian T. Mitchell Simulated training environments based upon fixated objects in specified regions
US7724210B2 (en) 2004-05-07 2010-05-25 Microvision, Inc. Scanned light display system using large numerical aperture light source, method of using same, and method of making scanning mirror assemblies
US7486255B2 (en) 2004-07-21 2009-02-03 Microvision, Inc. Scanned beam system and method using a plurality of display zones
US7545571B2 (en) 2004-09-08 2009-06-09 Concurrent Technologies Corporation Wearable display system
US20060132383A1 (en) 2004-09-27 2006-06-22 Idc, Llc System and method for illuminating interferometric modulator display
US7619807B2 (en) 2004-11-08 2009-11-17 Angstrom, Inc. Micromirror array lens with optical surface profiles
US7747301B2 (en) 2005-03-30 2010-06-29 Skyline Biomedical, Inc. Apparatus and method for non-invasive and minimally-invasive sensing of parameters relating to blood
US7190508B2 (en) 2005-06-15 2007-03-13 Miradia Inc. Method and structure of patterning landing pad structures for spatial light modulators
US20070083120A1 (en) * 2005-09-22 2007-04-12 Cain Charles A Pulsed cavitational ultrasound therapy
US8405618B2 (en) 2006-03-24 2013-03-26 Northwestern University Haptic device with indirect haptic feedback
US20070276658A1 (en) 2006-05-23 2007-11-29 Barry Grayson Douglass Apparatus and Method for Detecting Speech Using Acoustic Signals Outside the Audible Frequency Range
US7542210B2 (en) 2006-06-29 2009-06-02 Chirieleison Sr Anthony Eye tracking head mounted display
EP2503363A1 (en) 2006-07-10 2012-09-26 Sony Corporation Lens array
US9319741B2 (en) * 2006-09-07 2016-04-19 Rateze Remote Mgmt Llc Finding devices in an entertainment system
US7804624B2 (en) 2006-11-30 2010-09-28 Honeywell International Inc. Image capture device
US7369321B1 (en) 2007-01-16 2008-05-06 University Of Central Florida Research Foundation, Inc. Variable-focus liquid lens
DE112008000051A5 (de) 2007-01-25 2009-11-12 Rodenstock Gmbh Brille und Brillenglas zur Dateneinspiegelung
WO2008118967A1 (en) 2007-03-26 2008-10-02 University Of Washington Smart sunglasses, helmet faceshields and goggles based on electrochromic polymers
US7623560B2 (en) 2007-09-27 2009-11-24 Ostendo Technologies, Inc. Quantum photonic imagers and methods of fabrication thereof
US8031172B2 (en) * 2007-10-12 2011-10-04 Immersion Corporation Method and apparatus for wearable remote interface device
WO2009062124A1 (en) * 2007-11-09 2009-05-14 Wms Gaming, Inc. Interface for wagering game environments
CN101868770B (zh) 2007-11-19 2013-09-11 诺基亚公司 输入设备
US7791810B2 (en) 2007-12-21 2010-09-07 Microvision, Inc. Scanned beam display having high uniformity and diminished coherent artifacts
KR20100127775A (ko) 2008-02-12 2010-12-06 퀄컴 엠이엠스 테크놀로지스, 인크. 이중층 박막 홀로그래픽 태양광 집중장치/집광장치
US7945338B2 (en) * 2008-03-03 2011-05-17 Rockwell Automation Technologies, Inc. Automation human machine interface having virtual graphic controls
US8293354B2 (en) 2008-04-09 2012-10-23 The Regents Of The University Of Michigan UV curable silsesquioxane resins for nanoprint lithography
US8447704B2 (en) * 2008-06-26 2013-05-21 Microsoft Corporation Recognizing gestures from forearm EMG signals
US7954953B2 (en) 2008-07-30 2011-06-07 Microvision, Inc. Scanned beam overlay projection
JP4858512B2 (ja) 2008-08-21 2012-01-18 ソニー株式会社 頭部装着型ディスプレイ
US20100053151A1 (en) * 2008-09-02 2010-03-04 Samsung Electronics Co., Ltd In-line mediation for manipulating three-dimensional content on a display device
US8098265B2 (en) 2008-10-10 2012-01-17 Ostendo Technologies, Inc. Hierarchical multicolor primaries temporal multiplexing system
US8289162B2 (en) 2008-12-22 2012-10-16 Wimm Labs, Inc. Gesture-based user interface for a wearable portable device
US9569001B2 (en) 2009-02-03 2017-02-14 Massachusetts Institute Of Technology Wearable gestural interface
US8497767B2 (en) * 2009-03-02 2013-07-30 Butterfly Haptics, LLC Magnetic levitation haptic interface system
US8510244B2 (en) 2009-03-20 2013-08-13 ISC8 Inc. Apparatus comprising artificial neuronal assembly
US8107147B2 (en) 2009-03-27 2012-01-31 Microvision, Inc. Two-mirror scanning system
US9317128B2 (en) 2009-04-02 2016-04-19 Oblong Industries, Inc. Remote devices used in a markerless installation of a spatial operating environment incorporating gestural control
WO2010123934A1 (en) 2009-04-20 2010-10-28 The Arizona Board Of Regents On Behalf Of The University Of Arizona Optical see-through free-form head-mounted display
US9727790B1 (en) 2010-06-04 2017-08-08 Masoud Vaziri Method and apparatus for a wearable computer with natural user interface
US10019634B2 (en) 2010-06-04 2018-07-10 Masoud Vaziri Method and apparatus for an eye tracking wearable computer
JP5852956B2 (ja) 2009-06-23 2016-02-03 シーリアル テクノロジーズ ソシエテ アノニムSeereal Technologies S.A. 2次元及び3次元の少なくともいずれかの画像コンテンツ提示用ディスプレイに用いられる光変調デバイス
JP4988016B2 (ja) 2009-08-27 2012-08-01 韓國電子通信研究院 指の動き検出装置およびその方法
KR101647722B1 (ko) * 2009-11-13 2016-08-23 엘지전자 주식회사 영상표시장치 및 그 동작방법
US8467133B2 (en) 2010-02-28 2013-06-18 Osterhout Group, Inc. See-through display with an optical assembly including a wedge-shaped illumination system
US8477425B2 (en) 2010-02-28 2013-07-02 Osterhout Group, Inc. See-through near-eye display glasses including a partially reflective, partially transmitting optical element
US9097890B2 (en) 2010-02-28 2015-08-04 Microsoft Technology Licensing, Llc Grating in a light transmissive illumination system for see-through near-eye display glasses
JP2013521576A (ja) 2010-02-28 2013-06-10 オスターハウト グループ インコーポレイテッド 対話式ヘッド取付け型アイピース上での地域広告コンテンツ
US8482859B2 (en) 2010-02-28 2013-07-09 Osterhout Group, Inc. See-through near-eye display glasses wherein image light is transmitted to and reflected from an optically flat film
WO2011113066A1 (en) * 2010-03-12 2011-09-15 The University Of North Carolina At Greensboro Methods and systems using integrated metabolomics and pharmacokinetics for multi-component drug evaluation
US9110505B2 (en) * 2010-04-16 2015-08-18 Innovative Devices Inc. Wearable motion sensing computing interface
JP2011244425A (ja) 2010-04-23 2011-12-01 Canon Inc 電気機械変換装置及びその作製方法
CN102782562B (zh) 2010-04-30 2015-07-22 北京理工大学 宽视场高分辨率拼接式头盔显示装置
US9501145B2 (en) 2010-05-21 2016-11-22 Disney Enterprises, Inc. Electrovibration for touch surfaces
US9916006B2 (en) 2010-07-23 2018-03-13 Telepatheye Inc. Eye-wearable device user interface and method
US8743145B1 (en) 2010-08-26 2014-06-03 Amazon Technologies, Inc. Visual overlay for augmenting reality
DE102010040962A1 (de) 2010-09-17 2012-03-22 Carl Zeiss Ag Anzeigevorrichtung mit einer auf den Kopf eines Benutzers aufsetzbaren Haltevorrichtung
US8941559B2 (en) 2010-09-21 2015-01-27 Microsoft Corporation Opacity filter for display device
US20120075173A1 (en) 2010-09-23 2012-03-29 Nokia Corporation Apparatus and method for user input
US20120075196A1 (en) 2010-09-23 2012-03-29 Nokia Corporation Apparatus and method for user input
US9632315B2 (en) 2010-10-21 2017-04-25 Lockheed Martin Corporation Head-mounted display apparatus employing one or more fresnel lenses
US9529191B2 (en) 2010-11-03 2016-12-27 Trex Enterprises Corporation Dynamic foveal vision display
KR101670927B1 (ko) * 2010-11-05 2016-11-01 삼성전자주식회사 디스플레이 장치 및 방법
US20140049983A1 (en) 2010-11-18 2014-02-20 Anthony John Nichol Light emitting device comprising a lightguide film and aligned coupling lightguides
JP5659768B2 (ja) 2010-12-16 2015-01-28 凸版印刷株式会社 斜め電界液晶表示装置
KR101544524B1 (ko) 2010-12-16 2015-08-17 한국전자통신연구원 차량용 증강현실 디스플레이 시스템 및 차량용 증강현실 디스플레이 방법
US8994718B2 (en) * 2010-12-21 2015-03-31 Microsoft Technology Licensing, Llc Skeletal control of three-dimensional virtual world
KR101525336B1 (ko) 2011-01-06 2015-06-02 가부시키가이샤 히타치 메디코 초음파 탐촉자
RU2480941C2 (ru) 2011-01-20 2013-04-27 Корпорация "Самсунг Электроникс Ко., Лтд" Способ адаптивного предсказания кадра для кодирования многоракурсной видеопоследовательности
US20120236201A1 (en) * 2011-01-27 2012-09-20 In The Telling, Inc. Digital asset management, authoring, and presentation techniques
US20120195461A1 (en) * 2011-01-31 2012-08-02 Qualcomm Incorporated Correlating areas on the physical object to areas on the phone screen
US20130169536A1 (en) * 2011-02-17 2013-07-04 Orcam Technologies Ltd. Control of a wearable device
JP5960796B2 (ja) * 2011-03-29 2016-08-02 クアルコム,インコーポレイテッド ローカルマルチユーザ共同作業のためのモジュール式のモバイル接続ピコプロジェクタ
US10061387B2 (en) 2011-03-31 2018-08-28 Nokia Technologies Oy Method and apparatus for providing user interfaces
US8781221B2 (en) 2011-04-11 2014-07-15 Intel Corporation Hand gesture recognition system
US20120290943A1 (en) 2011-05-10 2012-11-15 Nokia Corporation Method and apparatus for distributively managing content between multiple users
US8912017B2 (en) 2011-05-10 2014-12-16 Ostendo Technologies, Inc. Semiconductor wafer bonding incorporating electrical and optical interconnects
US10627860B2 (en) * 2011-05-10 2020-04-21 Kopin Corporation Headset computer that uses motion and voice commands to control information display and remote devices
US8508830B1 (en) 2011-05-13 2013-08-13 Google Inc. Quantum dot near-to-eye display
US8619049B2 (en) 2011-05-17 2013-12-31 Microsoft Corporation Monitoring interactions between two or more objects within an environment
US20120299962A1 (en) 2011-05-27 2012-11-29 Nokia Corporation Method and apparatus for collaborative augmented reality displays
KR101423536B1 (ko) * 2011-06-14 2014-08-01 한국전자통신연구원 인쇄매체 기반 혼합현실 구현 장치 및 방법
US9218058B2 (en) * 2011-06-16 2015-12-22 Daniel Bress Wearable digital input device for multipoint free space data collection and analysis
US20120326948A1 (en) 2011-06-22 2012-12-27 Microsoft Corporation Environmental-light filter for see-through head-mounted display device
PT105814A (pt) 2011-07-14 2013-01-14 Yd Ynvisible S A Método para produção de partículas electrocrómicas e controlo das suas propriedades espectrais nir e vis
US8471967B2 (en) 2011-07-15 2013-06-25 Google Inc. Eyepiece for near-to-eye display with multi-reflectors
US8508851B2 (en) 2011-07-20 2013-08-13 Google Inc. Compact see-through display system
US9931230B2 (en) 2011-08-01 2018-04-03 George Mason University Artificial body part control system using ultrasonic imaging
WO2013032955A1 (en) * 2011-08-26 2013-03-07 Reincloud Corporation Equipment, systems and methods for navigating through multiple reality models
CA2750287C (en) 2011-08-29 2012-07-03 Microsoft Corporation Gaze detection in a see-through, near-eye, mixed reality display
US9672049B2 (en) * 2011-09-22 2017-06-06 Qualcomm Incorporated Dynamic and configurable user interface
US20130083303A1 (en) 2011-10-04 2013-04-04 Palo Alto Research Center Incorporated Multi-Level Imaging Using Single-Pass Imaging System Having Spatial Light Modulator and Anamorphic Projection Optics
US8773599B2 (en) 2011-10-24 2014-07-08 Google Inc. Near-to-eye display with diffraction grating that bends and focuses light
US8279716B1 (en) 2011-10-26 2012-10-02 Google Inc. Smart-watch including flip up display
US8553910B1 (en) 2011-11-17 2013-10-08 Jianchun Dong Wearable computing device with behind-ear bone-conduction speaker
US8872853B2 (en) 2011-12-01 2014-10-28 Microsoft Corporation Virtual light in augmented reality
US8854724B2 (en) 2012-03-27 2014-10-07 Ostendo Technologies, Inc. Spatio-temporal directional light modulator
US8928969B2 (en) 2011-12-06 2015-01-06 Ostendo Technologies, Inc. Spatio-optical directional light modulator
EP2802861A4 (en) 2012-01-11 2015-08-19 Hughes Howard Med Inst MULTIDIMENSIONAL IMAGING USING MULTI-ROOM MICROSCOPY
US8894484B2 (en) 2012-01-30 2014-11-25 Microsoft Corporation Multiplayer game invitation system
US20130225999A1 (en) 2012-02-29 2013-08-29 Toshiba Medical Systems Corporation Gesture commands user interface for ultrasound imaging systems
US20130286053A1 (en) 2012-04-25 2013-10-31 Rod G. Fleck Direct view augmented reality eyeglass-type display
WO2013177109A1 (en) 2012-05-21 2013-11-28 Medplate Lifesciences Corporation Collapsible, shape memory alloy structures and folding fixtures for collapsing same
US9179126B2 (en) 2012-06-01 2015-11-03 Ostendo Technologies, Inc. Spatio-temporal light field cameras
CN103546181A (zh) 2012-07-17 2014-01-29 高寿谦 可拆卸并可自由组合功能的穿戴式无线智能电子装置
US8754829B2 (en) 2012-08-04 2014-06-17 Paul Lapstun Scanning light field camera and display
US20140049417A1 (en) 2012-08-20 2014-02-20 Playtabase, LLC Wireless motion activated command transfer device, system, and method
US20140085177A1 (en) 2012-09-21 2014-03-27 Nokia Corporation Method and apparatus for responding to input based upon relative finger position
US10620902B2 (en) 2012-09-28 2020-04-14 Nokia Technologies Oy Method and apparatus for providing an indication regarding content presented to another user
US9921687B2 (en) 2012-10-02 2018-03-20 Autodesk, Inc. Always-available input through finger instrumentation
US10234941B2 (en) * 2012-10-04 2019-03-19 Microsoft Technology Licensing, Llc Wearable sensor for tracking articulated body-parts
KR20140052640A (ko) * 2012-10-25 2014-05-07 삼성전자주식회사 커서를 디스플레이에 디스플레이하기 위한 방법과 상기 방법을 수행할 수 있는 시스템
CN105027030B (zh) * 2012-11-01 2018-10-23 艾卡姆有限公司 用于三维成像、映射、建网和界面连接的无线腕式计算和控制设备和方法
US10185416B2 (en) 2012-11-20 2019-01-22 Samsung Electronics Co., Ltd. User gesture input to wearable electronic device involving movement of device
US9274608B2 (en) 2012-12-13 2016-03-01 Eyesight Mobile Technologies Ltd. Systems and methods for triggering actions based on touch-free gesture detection
US9345609B2 (en) 2013-01-11 2016-05-24 Elwha Llc Position sensing active torso support
JP6010450B2 (ja) 2012-12-20 2016-10-19 浜松ホトニクス株式会社 光観察装置及び光観察方法
US20140176417A1 (en) * 2012-12-21 2014-06-26 Ian A. Young Wearable projector for portable display
US8947783B2 (en) 2013-01-02 2015-02-03 Google Inc. Optical combiner for near-eye display
KR20170103026A (ko) 2013-02-08 2017-09-12 애플 인크. 용량성 감지에 기초한 힘 결정
US9223139B2 (en) 2013-02-15 2015-12-29 Google Inc. Cascading optics in optical combiners of head mounted displays
US20140301662A1 (en) 2013-03-17 2014-10-09 ISC8 Inc. Analysis, Labeling and Exploitation of Sensor Data in Real Time
US20140304646A1 (en) * 2013-04-04 2014-10-09 Klip, Inc. Sliding side menu gui with menu items displaying indicia of updated content
US9405124B2 (en) 2013-04-09 2016-08-02 Massachusetts Institute Of Technology Methods and apparatus for light field projection
EP2804096B1 (en) * 2013-05-15 2018-03-21 Google LLC Efficient fetching of a map data during animation
US8725842B1 (en) 2013-07-11 2014-05-13 Khalid Al-Nasser Smart watch
US20140129207A1 (en) 2013-07-19 2014-05-08 Apex Technology Ventures, LLC Augmented Reality Language Translation
US9451162B2 (en) * 2013-08-21 2016-09-20 Jaunt Inc. Camera array including camera modules
US9164290B2 (en) 2013-11-06 2015-10-20 Microsoft Corporation Grating configurations for a tiled waveguide display
KR20150053634A (ko) * 2013-11-08 2015-05-18 삼성전자주식회사 디지털 영상 관리 방법, 상기 방법을 기록한 컴퓨터 판독 가능 저장매체 및 디지털 영상 관리 장치.
CN103558918B (zh) 2013-11-15 2016-07-27 上海威璞电子科技有限公司 在智能手表中实现手势识别技术的方法
US20150138314A1 (en) * 2013-11-20 2015-05-21 Google Inc. Generating Panoramic Images
CN110542938B (zh) 2013-11-27 2023-04-18 奇跃公司 虚拟和增强现实系统与方法
US9244539B2 (en) 2014-01-07 2016-01-26 Microsoft Technology Licensing, Llc Target positioning with gaze tracking
US9651784B2 (en) 2014-01-21 2017-05-16 Osterhout Group, Inc. See-through computer display systems
US10554962B2 (en) 2014-02-07 2020-02-04 Samsung Electronics Co., Ltd. Multi-layer high transparency display for light field generation
JP2015184560A (ja) 2014-03-25 2015-10-22 ソニー株式会社 導光装置、画像表示装置及び表示装置
US20150293590A1 (en) 2014-04-11 2015-10-15 Nokia Corporation Method, Apparatus, And Computer Program Product For Haptically Providing Information Via A Wearable Device
US20150323998A1 (en) * 2014-05-06 2015-11-12 Qualcomm Incorporated Enhanced user interface for a wearable electronic device
KR102245297B1 (ko) 2014-05-15 2021-04-27 삼성전자주식회사 단일 방향성의 빔을 이용한 영상 표시 장치 및 방법
CN104468578B (zh) * 2014-12-10 2017-12-26 怀效宁 一种无线通讯的优先通讯系统和通讯方法
US10234952B2 (en) * 2014-07-18 2019-03-19 Maxim Integrated Products, Inc. Wearable device for using human body as input mechanism
US9335602B2 (en) 2014-07-25 2016-05-10 Tintable Kibing Co., Ltd. Method for control of electrochromic device
WO2016018355A1 (en) * 2014-07-31 2016-02-04 Hewlett-Packard Development Company, L.P. Virtual reality clamshell computing device
KR101552134B1 (ko) 2014-10-15 2015-09-11 박준호 웨어러블 디바이스
CN104460992B (zh) 2014-11-20 2017-07-21 大连理工大学 一种使用红外线照射腕部韧带的手指运动检测装置及方法
US11166698B2 (en) * 2015-01-30 2021-11-09 Canon Medical Systems Corporation Ultrasonic diagnostic apparatus
US10295990B2 (en) * 2015-05-18 2019-05-21 Milwaukee Electric Tool Corporation User interface for tool configuration and data capture
US10080950B2 (en) * 2015-09-05 2018-09-25 Aspire Sports Inc. System of communication in a wearable device
US9898869B2 (en) * 2015-09-09 2018-02-20 Microsoft Technology Licensing, Llc Tactile interaction in virtual environments
US11106273B2 (en) 2015-10-30 2021-08-31 Ostendo Technologies, Inc. System and methods for on-body gestural interfaces and projection displays
US10578882B2 (en) 2015-12-28 2020-03-03 Ostendo Technologies, Inc. Non-telecentric emissive micro-pixel array light modulators and methods of fabrication thereof
US10054503B2 (en) * 2016-03-11 2018-08-21 Microsoft Technology Licensing, Llc Force sensor
US10671160B2 (en) 2017-05-31 2020-06-02 Magic Leap, Inc. Eye tracking calibration techniques
EP3675720B1 (en) * 2017-09-01 2023-11-29 Happy Health, Inc. System and device for non-invasive drink detection
WO2019204164A1 (en) 2018-04-16 2019-10-24 Magic Leap, Inc. Systems and methods for cross-application authoring, transfer, and evaluation of rigging control systems for virtual characters
WO2019212698A1 (en) 2018-05-01 2019-11-07 Magic Leap, Inc. Avatar animation using markov decision process policies
JP7341166B2 (ja) 2018-05-22 2023-09-08 マジック リープ, インコーポレイテッド ウェアラブルシステムのためのトランスモード入力融合
WO2019226549A1 (en) 2018-05-22 2019-11-28 Magic Leap, Inc. Computer generated hair groom transfer tool
US10902678B2 (en) 2018-09-06 2021-01-26 Curious Company, LLC Display of hidden information

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20020151824A1 (en) * 2000-04-13 2002-10-17 Peter Fischer Posture measurment and feedback instrument for seated occupations
US20150138086A1 (en) * 2009-04-02 2015-05-21 John S. Underkoffler Calibrating control device for use with spatial operating system
US20100302137A1 (en) * 2009-05-27 2010-12-02 Microsoft Corporation Touch Sensitive Display Apparatus using sensor input
US20120143358A1 (en) * 2009-10-27 2012-06-07 Harmonix Music Systems, Inc. Movement based recognition and evaluation
CN103827780A (zh) * 2011-07-12 2014-05-28 谷歌公司 用于虚拟输入设备的方法和系统
WO2014127126A1 (en) * 2013-02-14 2014-08-21 New York University Handphone
US20150220109A1 (en) * 2013-11-29 2015-08-06 Mechio Inc. Wearable computing device

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20230306094A1 (en) * 2020-08-20 2023-09-28 Ramot At Tel-Aviv University Ltd. Dynamic identity authentication

Also Published As

Publication number Publication date
TW201727439A (zh) 2017-08-01
US20220011855A1 (en) 2022-01-13
CN108431736A (zh) 2018-08-21
US20170123487A1 (en) 2017-05-04
EP3368966A4 (en) 2019-10-23
JP2018536933A (ja) 2018-12-13
JP2021184297A (ja) 2021-12-02
WO2017075611A1 (en) 2017-05-04
KR20180088390A (ko) 2018-08-03
US11106273B2 (en) 2021-08-31
EP3368966A1 (en) 2018-09-05
JP7091531B2 (ja) 2022-06-27

Similar Documents

Publication Publication Date Title
TWI756191B (zh) 用於身體手勢介面及投影顯示器之系統及方法
JP7253017B2 (ja) 反射を利用する拡張現実システムおよび方法
US10905350B2 (en) Camera-guided interpretation of neuromuscular signals
Cognolato et al. Head-mounted eye gaze tracking devices: An overview of modern devices and recent advances
US10678335B2 (en) Methods, devices, and systems for creating haptic stimulations and tracking motion of a user
US20220269346A1 (en) Methods and apparatuses for low latency body state prediction based on neuromuscular data
Lederman et al. Tactile and haptic illusions
KR101485591B1 (ko) 초음파를 이용한 비침습적 뇌 자극을 통한 촉감 생성 장치, 방법 그리고 이를 이용한 컴퓨터 판독 가능한 기록 매체
US11327566B2 (en) Methods and apparatuses for low latency body state prediction based on neuromuscular data
Herrera-Luna et al. Sensor fusion used in applications for hand rehabilitation: A systematic review
Behringer et al. Some usability issues of augmented and mixed reality for e-health applications in the medical domain
Pacchierotti Cutaneous haptic feedback for robotics and Virtual Reality
US11829519B1 (en) Systems, methods, and apparatuses for a wearable control device to facilitate performance of manufacturing and various motor tasks
Zsolczay et al. Vague gesture control: Implications for burns patients
Wieben Virtual and augmented reality in medicine
Kabir et al. Auxilio: A Sensor-Based Wireless Head-Mounted Mouse for People with Upper Limb Disability
Li Efficient and Accurate Hand-based Kinesthetic Interaction for Virtual Reality
Saggio et al. Virtuality supports reality for e-health applications

Legal Events

Date Code Title Description
MM4A Annulment or lapse of patent due to non-payment of fees