TW201250519A - Presence sensing - Google Patents

Presence sensing Download PDF

Info

Publication number
TW201250519A
TW201250519A TW101117124A TW101117124A TW201250519A TW 201250519 A TW201250519 A TW 201250519A TW 101117124 A TW101117124 A TW 101117124A TW 101117124 A TW101117124 A TW 101117124A TW 201250519 A TW201250519 A TW 201250519A
Authority
TW
Taiwan
Prior art keywords
sensor
user
computing device
image
state
Prior art date
Application number
TW101117124A
Other languages
English (en)
Other versions
TWI506478B (zh
Inventor
Edward Allen Valko
Matthew C Waldon
Der Merwe Rudolph Van
William Matthew Vieta
Myra M Haggerty
Alex T Nelson
Karen Louise Jenkins
Scott Thomas Smith
Jan Erik Solem
Original Assignee
Apple Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from US13/219,573 external-priority patent/US20120287031A1/en
Application filed by Apple Inc filed Critical Apple Inc
Publication of TW201250519A publication Critical patent/TW201250519A/zh
Application granted granted Critical
Publication of TWI506478B publication Critical patent/TWI506478B/zh

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/26Power supply means, e.g. regulation thereof
    • G06F1/32Means for saving power
    • G06F1/3203Power management, i.e. event-based initiation of a power-saving mode
    • G06F1/3206Monitoring of events, devices or parameters that trigger a change in power modality
    • G06F1/3231Monitoring the presence, absence or movement of users
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/26Power supply means, e.g. regulation thereof
    • G06F1/32Means for saving power
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02DCLIMATE CHANGE MITIGATION TECHNOLOGIES IN INFORMATION AND COMMUNICATION TECHNOLOGIES [ICT], I.E. INFORMATION AND COMMUNICATION TECHNOLOGIES AIMING AT THE REDUCTION OF THEIR OWN ENERGY USE
    • Y02D10/00Energy efficient computing, e.g. low power processors, power management or thermal management

Description

201250519 六、發明說明: 【發明所屬之技術領域】 本發明大體係關於具有計算性能之裝置,且更# $ t 之,係關於用於感測在裝置局部附近的使用者之存在之裝 置及系統。 本專利申請案主張-申請且題為「存在感測 (PRESENCE SENSING)」之美國專利申請案第__號 的優先權,該美國專利申請案亦可藉由代理人案號 P11391USX1 (P222617.US.04)識別於美國專利及商標局 中,該申請案主張2011年8月26日申請且題為「存在感測 (PRESENCE SENSING)」之美國專利中請案第13/219,573 號、2011年5月12曰申請且題為「存在感測(pRESENCE SENSING)」之美國臨時專利申請案第61/485,61〇號及2〇1 i 年7月1曰申请且題為「存在感測(pRESENCE sensing)」 之美國臨時專利申請案第61/5〇4,〇26號的優先權所有該 等申凊案以引用的方式全部且為了所有目的而併入本文 中。 【先前技術】 許多計算裝置配備有意欲在使用者未使用裝置時減少電 力消耗之電力節省特徵/模式。$常,經由自使用者最後 人提供至裝置之輸入時倒計時設定量之時間的計時器實 施此等電力節省特徵。舉例而言,特定裝置可經組態以在 使用者在五刀鐘内尚未提供輸入時進入睡眠模式或消耗少 於完全操作模式之電力的其他模式。 I64140.doc 201250519 然而’有時,裝置可在使用者仍使用裝置之同時進入電 力卽省特徵/模式。舉例而言,因為使用者在閱讀裝置上 之内容、看電影或聽音樂之同時不能在針對計時器所設定 的時段内提供輸入,所以可進入電力節省特徵。另外,自 電力節省特徵/模式復原可能花費時間,可能甚至要求使 用者鍵入憑證,且對使用者而言一般可能為麻煩事。 【發明内容】 一實施例可呈一種操作一計算裝置以提供基於存在之功 能性之方法的形式。該方法可包括在一減少電力狀態中操 作該。十算裝置,及自—第__感測器或_群感測器收集一第 一組資料。基於該第一組資料,該計算裝置判定一物件定 位於該裝置附近之一機率或可能性。另外或或者,該計算 裝置可進行關於一物件之接近的硬決策,例如,其可判定 該物件是否在該計算裝置之__臨限距離内,且若該物件在 該臨限距離内及/或很可能定位於該裝置附近,則該裝置 啟動-次級感測器以收集一第二組資料。基於該第二組資 料,該裝置判定該物件是否為一人。若該物件為一人則 該裝置歡該人相對於該計算裝置之—位置,且基於 相對於該計算裝置之該位置執行該計算裝置的狀態之一改 變。若該物件並非-人’則該計算裝置保持處於—減 力狀態中。 另一實施例可呈一種用於刻中 .m ^ a 於判疋一使用者是否在一計算裝 置附近之方法的形式。嗜古、土 —上 、 该方法包括使用一影像感測器俘獲 一影像及自該所俘獲之影像計算下财之至少—者:一膚 164140.doc 201250519 色偵測參數、-面部備測參數、—身㈣測參數及一移動 偵測參數。該方法亦包括利用該膚色偵測參數、該面部價 測參數及該移動偵測參數中之至少一者進行關於一使用者 疋否存在的-判疋’且若判定_使用者存在,則改變該計 算裝置之一狀態。 在再一實施例中,提供一種計算系統,其具有一主處理 器及一耦接至該主處理器之存在感測器。該存在感測器包 括一影像感測器,及一耦接至該影像感測器之處理器,該 處理器經組態以處理一所俘獲之影像以判定一使用者是否 存在於該影像中。該影像感測器可經組態以俘獲3_D影 像、深度影像、RGB影像、灰度影像及/或等等,且該等 影像中之一或多者可用於一機率判定。其他輸入亦可貢獻 適用於該存在判定之資訊。舉例而言,諸如鍵盤、滑鼠及/ 或麥克風之輸入裝置各自可提供適用於存在機率判定之輸 入。若該處理器判定一使用者存在於該影像中,則一使用 者已判定為存在的一指示自該處理器發送至該主處理器, 且該主處理器基於該指示改變該計算系統之一狀態。 儘管揭示了多個實施例,但自以下實施方式,本發明之 再其他實施例將對熟習此項技術者變得顯而易見。如應認 識到’該等實施例能夠有各種態樣之修改,所有修改均不 脫離該等實施例之精神及範疇。因此,應將圖式及實施方 式在本質上看作說明性的而非限制性的。 【實施方式】 一般而言,本文中所論述之實施例係針對使用者存在判 164I40.doc 201250519 定及與其有關之計算裝置功能性。應暸解,可改良使用者 與配備有此功能性之計算裝置互動的體驗。此外,在一些 實施例中’可經由本文中所論述的實施例之實施實現電力 節省及/或電力效率。如本文中所使用’ Γ使用者」可大 體指(多個)人。然而’在一些實施例中,系統可經組態以 感測不同於人 < 物件,且基於物件之存在改變狀態。 一實施例可呈計算裝置之形式,該計算裝置經組態以感 測使用者之存在及/或不存在,且基於使用者之存在及/或 不存在提供操作狀態。在其他實施例中,該計算裝置可計 算且提供使用者存在或不存在之可能性或機率記分。在一 些實施例中,可在進行存在判定時聯合地判定、加權及使 用多個參數。此經加權之偵測可用於更知情(informed)的 更间階作決策演算法,或在融合來自不同感測器之資料時 使用。 舉例而言,在一些實施例中,計算裝置可經組態以基於 感測器輸入判定使用者到達或進入計算裝置附近之時間及/ 或使用者存在的機率。藉由機率計算,可減少假肯定及/ 或假否定。可實施達成所要效能之貝氏(Bayesian)最佳臨 限值。亦即,可按達成可接受數目個假肯定相對於可接受 數目個假否疋之間的所要平衡之方式設定觸I臨限值。回 應於使用者存在之青定判定,或在達到使帛者存在之臨限 機率後’I置可電力開啟、退出睡眠模式,及/或將某一 回饋提供給使用者。 大體而言’存在感測系統之—目標可為更智慧地使用技 164140.doc 201250519 術。举例而言’在—些實施例中,當判定使用者正接近 時,可起始系統喚醒。系統喚醒可包括一組減少之常式, 使得系統處於快於在習知電力開啟序列之情況中的操作模 式中舉例而§ ’歸因於該組減少之常式,系統可在半秒 非八至八私内電力開啟。在一些實施例中,計算裝置可 經組態關定使用者移㈣離裝置或離開裝置附近之時 間。作為回應,裝置可進入電力節省模式,諸如顯示器睡 眠模式、系統睡眠模式、勞幕保護器之啟動等等。此外, 系統可基於感測到使用者之存在而部分退出睡眠模式以 便加速電腦喚醒時間。在再其他實施例中’所顯示之内容 可基於使用者之相對位置。舉例而言,若使用者靠近裝 置,則裝置可提供產品細節,而在使用者在遠處時,裝置 可能無任何顯示。 在一些實施例中,裝置亦可經組態以追蹤使用者移動 (例如,位置及速度),且回應於某些移動,提供回馈及/或 進入或改變操作之狀態。舉例而言,朝向裝置之移動可啟 動更多特徵’諸如在使用者介面中提供更多選項/選單, 而遠離裝置之移動可減少可為使用者所利用的特徵之數 目’諸如減少選單/選項之數目及/或減小或增大所顯示的 選項之大小》另外或或者,顯示可基於朝向或遠離裝置之 移動放大或縮小。在一些實施例中,藉由使用者進行之側 向移動(例如,自左至右)可引起在裝置上所顯示的背景及/ 或螢幕保護器影像之改變。更進一步,影像之改變可大體 與所感測之運動對應。舉例而言,自左至右之移動可使影 164140.doc 201250519 像在左至右運動中由另-影像替換。或者,隨著使用者自 左至右移動,樹葉或窗簾可反映該移動。亦即,樹葉可能 被吹下且自左至右翻落下來,或窗簾可能按對應於所偵測 之移動的方式擺動。 此外,在-些實施例t,使用者之存在可與使用者相對 於裝置之位置-起用以提供某一功能性❶在一些實施例 中’輸入及/或輸出可基於位置。舉例而t,裝置可經組 態以提供指向使用者之位置的音訊立體聲水平移動(例 如,音訊操縱)。另外,在一些實施例中,可基於使用者 之位置實施麥克風操縱。 此外,可按分層方式實施複數個感測器及/或操作狀 態。亦即’在第-操作模式中,第__感測器可為操作性 的。移動或使用者存在之偵測可引起第二感測器之啟動等 等在☆實施例中,第二感測器之啟動可與裝置進入第 二操作模式同時,而在其他實施例中,直至基於單獨地自 第二感測器所擷取之資料或結合來自第一感測器之資料進 行判定,才可進入第二操作模式。 存在敎可藉由由-或多個感測器所㈣之資料進行。 在一實施例中,來自一或多個感測器之資料用以判定使用 者是否存在。舉例而言,可實施類神經網、支援向量機或 其他合適的分類器或機率判定器。在一些情況中,可故 集、分類且儲存—大組資料點,以用於在存在判定中使 用。此外’隨後獲取之資料可經添加且用於未來判定。 轉至圖式且最初參看圖卜說明計算裝置1〇〇。計算裝置 I64140.doc 201250519 100可一般包括可用於存在感測之一或多個感測器102。舉 例而言,可在存在感測中使用一或多個相機及/或光感測 器。儘管本文中大體關於存在感測論述相機及光感測器, 但應瞭解,亦可實施其他感測器類型,諸如超音波感測 器、微波RADAR等等。此等技術中之一些可用以判定在 人在裝置附近時之生理參數。舉例而言,RADAR可用以 偵測及/或定位在房間中之心跳。此外,可實施各種技術 及光之波長。舉例而言,可使用深度感測器判定接近度。 一些實例深度感測器技術可包括:聚焦及散焦、主動爪反 射能力、主動IR結構化光、主動IR飛行時間(2d +深度)、 主動IR飛行時間(單一像素感測器)、被動IR(運動偵測 器)、被動IR熱成像(2D)、立體視覺、偏光技術等等。在 一些實施例中,主動IR可使用多個特定以波長來偵測某些 獨特材料屬性,諸如人類皮膚之反射率或呼吸時的二氧化 碳排放。因而,本文中所描述之特定實施例僅作為實例呈 現且並非限制性。 圖2為圖i之計算裝置1〇〇之方塊圖。一般而言,計算 置包括微處理器/微控制器104,其他組件(例如,感測累 連接至微處理ϋ/微控制㈣4。微處理器/微控制器ι〇4 實施為-或多個低功率微控制器,及實施為用於來自感丨 =資料(例如’相機、接近度等等)以及用於高階使用: 存在作決策的㈣融合點q —些實施例中叫 定及與其有關之資料可經具體化㈣一 裝置之主操作隔離。亦即,藉由將存在感測資料與」 164140.doc 201250519 電腦處理單元(CPU)105、作業系統等等隔離,使用者存在 系統提供安全性及私密性。 多種合適感測器可將輸入/資料提供至微處理器/微控制 器104。特定言之,基於相機之感測器1〇6可與微處理器 104以通信方式耦接。可實施任何合適的基於相機之感測 器,且可利用多種不同技術。舉例而言,可使用可購自ST MiCr〇electronics之相機感測器。基於相機之感測器可包括 具有整合式處理器11 〇的提供面部偵測性能之全影像相機 108。亦即,感測器可具有嵌入式微處理器11〇,且可能能 夠估計面部位置及距離。另外,感測器可用於判定物件之 距離。相機108亦提供來自AGC系統之視窗直方圖資訊, 該資訊可用於運動偵測。 此外,相機108可具有高達或大於12〇度之水平視野及高 達或大於120度之垂直視野。在一些實施例中,諸如魚眼 透鏡之透鏡可用以達成具有大於12〇度之角度的視野。在 一實施例中,水平視野可在75_95度之間(例如,大致85 度),且垂直視野可在40-80度之間(例如,大致6〇度p可 在高達20呎或20呎以上之距離處偵測到面部。在一實施例 中,可在大致6-14呎處偵測到面部。面部位置資料可在大 致0.6 Hz至1 Hz之間利用,且AGC資料可按全圖框率(大致 10 Hz至 30 Hz)利用。 一般而言,藉由基於相機之感測器106所俘獲的影像及 有關原始資訊在基於相機之感測器之外可能不可利用。實 情為,可提供關於在感測器之功能範圍内是否偵測到面 164140.doc -11 - 201250519 部、面部之位置及/或面部在彼範圍内之移動的資訊。在 一些實施例中,相機感測器可提供指示使用者存在或不存 在之二進制輸出。另外,若使用者存在,則使用者相對於 裝置之位置可藉由基於相機之感測器輸出,例如,按 座標。此外,感測器可經組態以指示存在的面部之數目 (例如,指示存在的人之數目)。 在一些實施例中,可獨立於其他感測器實施基於相機之 感測器106 ,以達成用於裝置之所要操作特性。在_些實 施例中,基於相機之感測器可經組態以按分層方式操作及 提供輸出。舉例而言,在第一狀態中,基於相機之感測器 可感測使用者存在。若使用者存在,則基於相機之感測器 可進入第二狀態,且判定有多少人存在。隨後或同時,基 於相機之感測器可判定存在的人之位置。隨著相機自一操 作狀態移動’基於相機之感測器提供可由裝置用以改變裝 置之狀態的輸出,如下文將更詳細地論述。 一些實施例可使用主相機103來俘獲影像。主相機1〇3可 為藉由裝置之使用者用於視訊及靜態影像俘獲之系統相 機。在一些實施例中,主相機可與用於存在感測之相機分 開且相異(例如’在系統中存在多個相機),而在其他實施 例中’主相機輸出可藉由具有專用相機的基於相機之感測 器替代基於相機之感測器106來使用。舉例而言,在一些 實施例中,除了主相機之外,亦可實施基於深度之相機。 基於深度之相機可呈任何合適的形式。在一實施例中,主 相機輸出可提供至影像處理器107以用於由使用者使用, 164140.doc 12 201250519 二提供至基於相機之感測器1〇6的微控制器以用於使用 者存在谓測。存在關於影像處理器與使用者偵測 通信且使來自主相機之資料可為使用者利用的方式之不二 選項。舉,而言,當使用者不存在時,來自主相機之輸出 可主要地藉由微控制器處理以用於存在感測判定。在此狀 態中:可能-般不使來自相機之資料可用於系統之其他組 件。當使用者存在時,可將來自主相機之輸出提供至影像 處理器1071而,對於將可利用之影像資料/資訊,可能 要求使用者存取基於相機之應用程式(例如,視訊聊天應 用程式、影像俘獲程式,或其類似者)。否則,來自相機 之影像資料可能一般不可存取。 應瞭解’可存在允許使用一或多個相機以及習知相機及 影像處理功能性之所要存在感測的許多不同組態。舉例而 言,在一實施例中,可將主相機輸出投送至組合正常影像 處理功能與使用者存在偵測功能的單—晶I在其他實施 例中,可將自相機所輸出之視訊串流傳輸至主機以用於藉 由中央處理單元處理。 諸如接近度感測器112之第二感測器亦可連接至微處理 器104。在一些實施例中,控制器114、多工器116及一陣 列之發光二極體118可與接近度感測器112聯合地操作。詳 言之,控制器114可經組態以按分時多工(TDM)方式控制 多工器116及LED 118之操作。合適的濾波器可經實施以藉 由LED之TDM交替而獲得合乎需要之回應。在其他實施例 中’可使用機械裝置(例如,微機電裝置)來多工一或多個 164140.doc 13 201250519 LED以涵蓋離散視野。 LED 118可在任何合適的波長範圍中操作,且在一實例 中,可在電磁頻譜之近紅外線區域中操作。可將led中之 每一者(LED1-LEDN)指引至特定視野。在一些實施例中, 可將每一 LED 118指引至離散視野,而在其他實施例中, 鄰近LED之視野可重疊。在一些實施例中,該陣列之led Π8可圍繞計算裝置之表框散佈LED。在其他實施例中, LED陣列118可按一列組態(例如,跨越顯示器螢幕表框之 彎曲部分),其中該等LED經方向性定位以涵蓋不同視野。 在一實施例中,視野之平均值(例如,指示接近度之值) 可被獲得且用以判定在裝置1〇〇附近是否存在物件。若平 均值超過臨限值,則其可指示物件在裝置1〇〇附近。藉由 該陣列之LED 118之使用,接近度感測器可能能夠更準確 地偵測在寬視野上之接近度❶隨著將每一 LED指引至離散 視野,亦可使用接近度感測器112判定物件之位置。同 樣,在其他實施例中’可自假定之空場景判定接近度值之 改變。可跨越各種感測器查看最大改變(或某一等級),且 可比較此值與臨限值以判定接近度及/或位置。 在一些實施例中’基於相機之感測器1〇6及接近度感測 器112可聯合微處理器1〇4利用,以進行關於使用者是否在 計算裝置100附近之判定。分層式感測系統可經實施以(在 各目的及/或功能當中)提供電力節省’以改良使用者體驗 或提供特定所要的使用者體驗。詳言之,分層式感測系統 可包括操作第一感測器以最初判定在計算裝置之臨限距離 164140.doc 201250519 内使用者之存在,以提供電力節省。在—些實施例中,臨 限距離可在裝置100之2_1〇呎(例如,5呎)内。另外,在一 些實施例中,自第一感測器所收集之資料可用以判定使用 者之相對位置》 在分層式系統中,若使用者存在,則可啟動第二感測 器。來自第二感測器之資料單獨地或結合來自第一感測器 之資料可用以進一步識別使用者/人及/或使用者之位置。 來自第一感測器及第二感測器兩者之資料可一起用以進行 關於執行何功能及/或使用者正在進行何操作之判定。舉 例而言,T判定使用者與裝置之靠近程度;使用者是否正 面向裝置、使用者是否正移動遠離/朝向裝置;等等。此 外,資料可用以識別使用者(例如,作為信任的使用者卜 计算裝置100之狀態可基於使用者存在之判定而改變。 舉例而言,若使用者正接近裝置,則顯示器可喚醒、系統 可喚醒等等。若使用者正自左至右移動,則所顯示之影像 可改變且可一般對應於使用者之移動而移動。此外,若存 在多個使用者(如基於辨別多個面部之存在而判定),則可 對裝置刚通電至安全狀態,且裝置⑽可能需要使用者憑 證之鍵入以充分存取該裝置。 存在判定可基於在類神經網路、支援向量機(SVM)或其 他基於機器學習之分類器或機率決策系統中所利用的多個 因素。舉例而言’可藉由類神經網按加權之方式利用膚色/ 色彩、存在及移動’以進行存在判定。如上文所論述,基 於存在判定,裝置100可進入/改變操作狀態。 164140.doc •15- 201250519 應瞭解,用於使用的特定感測器之選擇將取決於廣泛多 種因素,例如,包括所要的功能性及電力消耗限制。= 而,在-些實施例中’可將基於相機之感測器1〇6實施為 第一層感測器,而在其他實施例中,可將接近度感測器 m用作第-層感測^下文提供用於實施諸如接近度感 測器112之接近度感測器的更詳細描述。 感測器112可按某一合適的頻率切斷光,且量測所傳回 的反射光信號之相移。LED 118輸出可為方形波或 形,且感測器m使用I/Q解調變方案H則器112到達 之光與正弦波及餘弦波混合,從而提供【(同相)分量及Q(正 交)分量。使正弦/餘弦波與led調變同步。此等為來自感 測器之「原始」輸出,若存在用於量測之不同内部方法, 則可將其轉換為此方案。在不損失—般性之情況中,可假 定週期2π,且在彼週期内發生積分。實務上可使用固定 週期,且固定週期將在該週期之某一大的倍數内積分。此 等差產生可忽略的固定比例因數,基本量測分量為: s(i) 至感測器之輸入信號 *·(ί)= =sm(t) · s{t) «(0 = =cos(t) · s(t) I = 彳 2·1Γ =/ i(t)dt /〇 Q - : Jo 若量測佔據整個視野的處於跖忒 处孓距感測态112恆定(徑向)距 離處之物件,則具有相移供及量值 置值J的冋一頻率之方形波輸 入信號產生/及0分量: 164140.doc 201250519 =λ4 · 广π+ψ J4> • sin(i)di =M · (- cos(;r + φ)+ cos(<f>)) =2 · M . cos(<ji) 且 Q — M · I · cos(t)dt J4> Q = M. (sin(7r + 0) — sin(炎)) Q — —2 · M · sin(<^) 接著可發現值φ為: t—Q、 φ = arctan(— ·* ο 接著可將Μ重建構為: 2·Μ = v/P+g2 假設在感測器之視野中存在兩個物件(A及B),其中每一 者處於恆定距離處,與此等距離相關聯之相移可表示為炉 及Ψ。反射信號的量值可定義為d及5。傳入之光信號在此 狀況中為附加的,且因此為積分,因此I為: I = A * / sin(i)dt + J3 ♦ / sin(t)dt j Φ I = 2 · (4 · COS⑷ + B · C〇s(0)) 。 類似地,對於Q : Q = A · I cos(i)di + β * / cos(i)dt Q = -2,(v4 . sin⑷ + JB . sin(分)) 164140.doc -17- 201250519 強度不隨時間而變化之光源將對/及0分量無影響❶此性 質提供良好的環境光排斥。歸因於自在不同距離處之物件 的相移,此性質亦提供取消。使用1/0方形波解調變,可 保留此資訊,但伴有較差的環境光排斥。此解調變方案將 導致稍有不同的數學,但最終結果將類似。對於以下内 容,將丟棄在//ρ前部之因數2,此係由於其吸收於其他比 例因素中。 可進行少許簡化’且提議用於隨在場景中之物件而變的 感測器輸出之基本模型。將開發離散狀況,此係因為其更 易於實施,但亦可實施其他狀況。led/感測器視野可分割 成#個區段(自1至#編索引)。此等區段中之每一者具有立 體角Ω,·»此外’此等立體角中之每一者具有固定反射比 P/ ’且處於固定徑向距離r,·處。又,來自LED之輸出跨越 給定立體角恆定,每球面度具有發射強度/"針對給定距 離之相移經定義為供(rz·)。 自此模型,可獲得在感測器處的自給定立體角之(人,0 ) 分配(contribution)。亦在//0空間中定義極座標系統為有用 的。將犯向量之量值定義為M,.,且已定義角度仍。
It = .Λ/i · cos(彡(π))
Qt = -,Aft. sin(沴(n)) (7m,0m)皆可定義為所量測之(原始)人反2值。可更添加一 項(/C,2c),以使其表示任何恆定串擾(電或光學)。最後: 164140.doc • 18 · 201250519
Im ~ I〇+ Σ r* 一般而言,為了本丨令# m l 疋使用者是否位於裝置附近,理解奘 置所位於之環境可兔古 解裝 兄了為有益的。此可幫助減少假 確地判定使用者進入志,目山# 疋且更丰 或退出裝置10〇附近之時間。衅而, 歸因於相對缺之藉由感測器112所提供之資生' 模型造成多個挑戰。為了定義有用之模型,可進行一= ,假定。最初,將解決針對單—感測器的模型之數學,接 著為多感測器狀況。 基本上’存在影響藉由某些附近感測器(諸如,感測器 112)所提供之距離量測的兩種類型之物件。存在可能未由 人擔著之彼等物件’且存在可能由人擋著之彼等物件。前 者將被稱作「前景」物件,且後者將被稱作「背景」物 件H取決於物件相對於人之定位方式’物件可屬於 兩個種類。目t,可將場景劃分成此等兩種類型之物件。 一般而·Τ,挑㉟為量測至㈣中之動態物件(諸如,進入 及離開之人)的距離。Α 了成功量測此等物件,產生用於 場景中的靜態物件之準確模型,且模型化其與動態物件之 關係。 最初’將(/ρ,ρρ)定義為與正量測之物件相關聯的信號。 (/«,及(/c,仏)可繼續分別用作所量測之(原始)值及串擾 值。 空場景 164140.doc -19- 201250519 一模型假定不存在前景或背景物件,且所有信號係歸s 於場景中之人。可按最純的形式來使用工廠校準/串擾 值:
Ip — Im — Ic Qp = Qm 一 Qc 此模型可用以產生距離輸出。對於不具有前景物件之場 景,此模型將始終高估距離》注意,此模型取決於在裝置 之壽命内準確的工廠校準值。其可能不說明歸因於污跡/ 等而添加之串擾。 一旦觀測到靜態偏移,則將其模型化為前景物件與背景 物件之某一組合。散佈此靜態偏移之方式的選擇強烈影響 及0P之估計。 僅前景 說明靜態偏移之一方式為假定其皆歸因於前景物件。歸 因於溫度或污跡的諸如串擾改變之效應屬於此種類。前景 物件按定義具有至信號之恆定分配,而與人之存在無關。 在純前景模型+,前景物件之空間散佈不相關_並非前景 之任何事物皆假定為吾人之感㈣的物件。將(^,⑸定 義為來自前景之信號。此模型暗示:
Ip = ~ Jfg "" Ic
Qp = Qm - Qfg - Qc 左意’(/α+/0 込)為所量測之感測器讀數在該場 景中無感興趣之物件。此為標準「基線減法」模型。 164140.doc
•20· 201250519 具有部分擋塞之均勻背景 對於此模型,假定背景處於均心離處且具有均勻的反 射率。進-步假定,物件垂直涵蓋視野。將隨角度之㈣ 下降定義為/(θ)。假^固^寬度w之單—物件對應於在固定 位置處之角剖面(angular seeti(>n)Ae〆將物件之中心位置 按角術語定義為θρ。 上文論述一般模型。對於此模型,面積完全為寬度之函 數,入射光係藉由/(θ)定義,且距離/反射比恆定但未知。 為了方便,定義: Η〇ρ,αθρ)
,且 R{9p,Aep) = l-L(ep>Aep) Ζ〈θρ; Δθρ)表示按由感興趣之物件所定義的立體角所指引的 來自LED之光的分數’ ZtQtal表示總的光輸出,且;^(0〆 表示投射在背景上的全部光之分數。 自吾人之感興趣之物件到達感測器的光之量值與 △θρ)成比例。吾人將定義比例常數為%,且與至吾人之感 興趣之物件的距離相關聯的相移為%。此給出:
Ip - Ρρ· L(6p, Αθρ) cos(^p) Qp = —/>p · L(0p,△〜)sin (必p)。 類似地,到達吾人之感測器的來自背景之光之量值與 164140.doc •21 · 201250519 Λ(θρ; Δθρ)成比例。將比例常數定義為,且與背景距離 相關聯之相位為外g。此對吾人給出: hg = Pbg · Λ(0ρ, Δ^ρ) . COS(^6e) Qbg — —pbg * R{〇p, Δ^ρ) · Sin(06g) 在求和後: ’m = /p -f Ibg -f Ic Qm = Qp + Qbg -f Qc 假定以下量測: /open = pbg * COS(^bfl) + I〇 •且
Qopen = —·如(如fl) + 。 若角度θρ及寬度>V已知且可假定,則可解出此方程組。 具有部分擋塞之均勻背景及均勻前景 對於此模型,開始於「具有部分擋塞之均勻背景」模 型,且建置於其上’添加均句且不具有對感興趣之物件之 空間上變化的效應之前景組件。由於前景分量不在空間上 變化且不受感興趣之物件之存在影響,因此將仏及八 義為前景物件的量值及相位。現在,對於前^
Tf9 = />/fl-C〇S(^/e) 且
Qfa = -Pfg · sin(0/ff) 此可簡單地添加至先前模型中,以得到: 164140.doc -22- 201250519 = /p + Ibg + Ifg + /〇 ,且
Qm = Qp + Qbg + Ifg 4- Q〇 0 假定在空場景中’可將其量測: ’°Ρβη = Ibg + Ifg 4* /〇 ,且
Qopen = Qbg + Ifg 4- Qc
O 與先前狀況相比,可更添加所估計之兩個變數。 分段之背景、均勻前景 此模型將水平視野分割成一系列區段丨.…$,其中每一 者經模型化為均句前景/均勻背景。添加上標S以表示變數 所屬於之區段。開始於背景區段’假定物件處於對應於角 剖面心及角位Μ的具有寬度 <場景中。分段地重新定 義及函數’以表示在受到感興趣之物#之擋塞後投射在背 景上的光之分數。其可被稱作V。 現在定義: ^bg = pig · Ba(0Pi Αθρ) . C0S(<f>lg) ,且
Qbg = -pig · Β.8(θΡί Αθρ). sin(^g5) o 由於前景信號不受場景中之物件改變,因此不存在分段 地將其模型化之需要。然而’跨越各區段,前景可在變化 之程度上擋塞感興趣之物件。可按多種不同方式來將此模 型化,其巾最、凊爽方式將為針對每一前景區段關聯「擋塞 因數」又,將Q義為自LED所輸出的全部光之照明 164140.doc -23- 201250519 在區段^感興趣之物件的分數。現在··
Ip = Pp'C〇s{4>p) J2 13(θρ,Αθρ)·Ρ3
Qp = -pP'Sm(4,p) Ls($p,Aep)-Fa 在均勻前景狀況中,對於所有區段,Fs等於1,且方程 式退回(collapse back down)至未分段之前景狀況。總之:
Jm = 7p + //fl+/c+ J2 Ug ,且
Qm = Qp+Ifg-{-Qc+ ^ Qlg
s=l...S o 此處,對於背景,每區段添加兩個變數,且對於前景擔 塞’每區段添加一個變數。來自前景物件之擋塞效應可忽 略’且接著僅添加外加的背景變數》 具有重疊視野之兩個感測器 可使用具有重疊視野之兩個感測器。僅考慮視野之重叠 部分’且查看在此區域中可發現何種類之資訊,假定每一 感測器具有其自己的Ι«(θρ; Δθρ) ’其中使%參考總座標系 統。此等可被稱作及Z2,且使用上標來表示感測器。進 一步假定該兩個感測器在其敏感性及LED輸出上可不同, 且對於在重疊視野中之同一物件之量測,此導致比例因數 誤差α。又’假定對於距感興趣之物件之距離及來自感興 趣之物件的信號量值的1Μ2關係。進一步假定物件具有固 定反射率ρρ及固定寬度w » 164140.doc -24· 201250519 注意,Ρρ、外、為兩個感測器量測結果之間的共同 值,且特定針對感興趣之物件。在^與仏之間存在良好定 義之關係·見本文中之實例章節》此處,α為兩個感測器/ LED之間的恆定敏感性差,其應在感測器之壽命内緩慢地 改變。藉由此等定義: == Ll(0P} ΑΘΡ) * ρρ - ~ . cos(0p) = 一(知,Δθρ) · ρρ · — * sin(必p) 1? = α • L2{0p^ Αθρ) φ Ρρ · ^ * ^^(Φρ) 1 Jp = -a · L2(6>p, ΑΘΡ) sin(<^p) 可用此等方程式代入背景僅部分擋塞模型内之&及&, 針對(0„)及(/„,g】)產生方程式。存在五個未知數: • α •Ρρ •Ψρ •Δθρ 另外’存在四個方程式,因此只要此等值中之一者已知 (或可假定)’則可能計算出其餘者。假定可進行對α及 良好初始猜測係合理的。舉例而言,一旦提供另一感測 益(諸如,基於相機之感測器1〇6),則可獲得針對心及%之 直接量測結果。不幸地,此等方程式為非線性的,因此可 能仍進行一些工作來展示在此等約束内存在唯—解。為了 164140.doc •25· 201250519 實現此估計處理程序,可利用多個估計方案中之任一者。 實例可包括使用延伸式卡門濾波器(Kalman filter;)、sigma 點卡門濾波器或直接估計。 背景僅部分播塞模型之實例實施 抵靠白壁成像藉由10度LED感測器112所投射之下降。 其水平投影之下降大致為高斯’具有粗略地12度之標準偏 差。將原型置放於相對暗的空房間中地板上方約3 5呎 處,在12呎處具有背幕。 藉由涵蓋感測器112之黑毛旌隔板量測串擾。藉由反射 性隔板量測零相移。俘獲正常的「開放」背景。藉由人站 在按距感測器112向外1呎增量(在自L E D向外偏移〇度處)至 10呎處來收集感測器資料。在5呎之徑向距離處,按5度增 量自_15度至+15度收集感測器資料。毛氈量測結果可被稱 作(/c;仏),此係由於其基本上量測串擾。反射性隔板量測 結果可被稱作(/〇; ρ〇),且開放量測結果可被稱作 。最後,藉由場景中感興趣之物件的原始量測結果 可破稱作(/m; ,且感興趣之信號的待估計物件可被稱 作(4; 0P)。假定上文所提及之高斯散佈來模型化 △ej,其特定形式變為: L(0P, ΔβΡ) = 0.5 - ^erf(^ . {θρ + . {θρ _ ι 其中「erf」為誤差函數。又定義: 必〇 = arctan (―^) 164140.doc -26 - 201250519 φρ = :arctan(^) dp = Ί . {Φ〇 — Φρ) I Δ$ρ = =2.arctan(l) 其中A自相位差值至距離之轉換’且假定具有2呎之寬度 的人’計算Δ1。現在,可設置方程組: ^ = + (1.0(/open -/c)+/c ,及
Qm = Op + (1.0 - L(0Pt Αθρ)). (Qo^ - Qc) + Qc
I 其中使用以上用於岣及他;岣)之方程式來表達娜; △~)。將&作為已知值對待,且在數字上解出非線性方程 式組。具有真實資料之結果展示於圖3及圖4之曲線中。在 圖3中,線120表示無校正’且線122表示經校正之資料。 在圖4中,線130表示無校正,線132表示經校正之資料, 且線134表示真實距離。 藉由針對具有各種背景模型之單一感測器112的數學, 可將多個感測器組合至整合式位置模型中。如上文所提 及,可在一實施例中實施多個接近度感測器。在其他實施 例中,可按TDM方式使用多個lED以提供所要視野。整合 基於相機之感測器應允許估計所有感興趣之參數。 圖5說明用於按分層方式利用多個感測器改變裝置之狀 態之方法300。最初,裝置可處於減少電力消耗模式(諸 如,睡眠模式)中,且控制器可自第一感測器接收資料(區 塊302^處理所接收之資料(區塊3〇4)且將其與臨限值相比 164140.doc -27· 201250519 較(區塊306)。與臨限值之比較允許關於使用者是否存在或 很可能存在之判定(區塊308)。若使用者不存在,則可繼續 自第一感測器接收資料(區塊302)。然而,若判定使用者存 在或很可能存在,則可致動第二感測器(區塊31〇)且自第二 感測器接收資料(區塊312)。處理來自第二感測器之資料 (區塊314)且將其與來自第一感測器資料之資料組合(區塊 316)。來自第一感測器及第二感測器的資料之處理可包括 (但不限於)對資料執行數位信號處理(諸如,濾波資料 '按 比例調整資料及/或大體調節資料),使得其適用於存在判 定。另外,來自第一感測器及第二感測器的資料之組合可 包括將資料一起儲存及/或邏輯或數學組合資料。 使用來自第一感測器及第二感測器的資料來計算使用者 存在值及/或使用者存在記分之機率(區塊318)。比較使用 者存在值及/或使用者存在記分之機率與臨限值以判定使 用者是否存在(區塊322)。此外,若判定使用者存在,則可 判定其他參數,諸如使用者相對於裝置之距離及位置(區 塊324) ’且可改變裝置之狀態(區塊326)。狀態改變可包括 使裝置自睡眠模式至喚醒模式,或其他合適的狀態改變。 另外,應瞭解,其他參數(例如,距離、位置等等)之判 定以及裝置之狀態的改變可發生在僅基於第一感測器資料 的使用者存在之肯定判定後,如藉由自區塊3〇8之虛線所 指示。 此外,基於自第二感測器所提供之額外資訊,使用者存 在之第二判定(區塊320)可比第一判定(區塊3〇8)準確。此 164140.doc •28· 201250519 外’如上文所提及,可基於來自第一感測器及第二感測器 兩者的資料之組合判定額外參數。 應瞭解’其他實施例可實施比方法3〇〇多或少的步驟。 圖ό至圖11說明用於存在判定的方法之更詳細流程圖。 轉至圖6,說明存在感測之流程圖200得以說明。最初, 使用相機來獲得影像(區塊2〇2) ^可進行光位準判定(區塊 204) ’且將其提供至膚色偵測常式(區塊2〇6)。視情況,在 一些實施例中,亦可將光位準判定提供至其他常式,如藉 由箭頭203所指示。另外,可預處理所俘獲之影像(區塊 2〇8)。在一些狀況中’預處理可包括(例如)影像之按比例 縮小、改變影像之色空間及/或增強影像。亦可執行其他 镇測器特定預處理(區塊214、2 15及217)。舉例而言,影像 在提供至膚色偵測常式(區塊2〇6)前可視情況藉由在區塊 2 14中之預處理而變模糊。另外,在區塊215中之預處理可 包括在將影像提供至面部偵測常式(區塊21〇)前將色彩改變 成灰度,及/或在將影像提供至移動偵測常式(區塊212)前 在區塊217之預處理中執行邊緣偵測。深度影像可藉由將 其分區段來預處理,且經分區段之部分可作為輸入提供至 偵測器。下文參看圖7至圖11更詳細地論述膚色偵測常 式、面部偵測常式及移動偵測常式。 可使用融合及偵測邏輯加權且組合膚色摘測常式、面部 傾測常式及移動偵測常式之結果(區塊216),且判定使用者 存在分類(區塊218)。融合及偵測邏輯可包括類神經網路、 支援向量機及/或某一其他形式的基於機率機器與 ^ 干為之决 164140.doc -29· 201250519 算法的使用’以達到使用者是否存在之判定。圖7將膚色 偵測常式(區塊206)說明為流程圖,其開始於低光判定(區 塊204)。應瞭解,可按多種不同方式利用低光判定以影響 影像之處理。舉例而言,在一些實施例中,可將低光判定 作為向量提供至類神經網路,而在其他實施例中,可使用 低光判定來選擇待使用的特定類型之歸類器。亦即,若判 定並非在低光中拍攝影像,則可產生特徵向量(區塊22〇), 且應用第一像素分類器(區塊222)β若在低光中俘獲影像, 則可產生一組不同的特徵向量(區塊224),且可應用第二每 像素分類器(區塊226)。可選擇性地提供特徵之類型(例 如’色知轉換等等)以達成所要結果’且取決於低光判 疋,特徵之類型可不同。另外,第一每像素分類器與第二 每像素分類器可基於低光判定而不同。舉例而言,第一分 類器可為7-5-2多層感知器(MLP)前向饋入類神經網路每像 素分類器,而第二分類器可為2_12_2 MLP前向饋入類神經 網路每像素分類器《在一些實施例中,分類器可實施於具 有GPU之開核中,以幫助使處理程序加速。 來自刀類之輸出可為機率(例如,在〇與1之間的值), 其指示影像包括膚色之機率。可視情況將形態學濾波器應 用於影像(區塊228),且可計算平均灰度階(區塊230)。此 外’在判定歸因於膚色偵測的使用者存在之機率(區塊238) 前’可應用非線性按比例調整(區塊232)、時間佇列滤波器 (區塊234)及箝位(區塊236)。 圖8將面部偵測常式(區塊21 〇)說明為流程圖,其開始於 164I40.doc -30- 201250519 應用面部偵測器(區塊240) ^可實施任何合適的面部偵測器 (諸如,Viola-jones級聯面部偵測器),其提供指示面部存 在之可旎性的機率記分。接著按比例調整面部存在記分 (區塊242),且視情況可應用間歇偵測閃光濾波器(區塊 244)以使影像變平滑。應瞭解,在一些實施例中,(諸如) 在相機具有相對良好的品質之情況中,可自該處理程序省 略變平滑。閃光濾波器可包括時間佇列濾波器(區塊246)、 自平均值的正規化之記分偏差是否小於臨限值之判定(區 塊248)及接著使輸出值與按比例調整之記分相乘(區塊 250)。在判定歸因於面部偵測的使用者存在之機率(區塊 256)前’應用時間佇列濾波器(區塊252)及箝位(區塊 254)。身體偵測器或身體感測器可經組態以遵循與面部偵 測器之流程相同的流程或類似的流程。此外,可使用具有 比用於面部偵測器之解析度低的解析度之影像感測器實施 身體偵測器》 圖9將運動偵測常式212說明為流程圖,其開始於收集多 個圖框’且因而,可實施記憶體以儲存該多個圖框。舉例 而言,可利用三個圖框’一個當前圖框及兩個其他圖框。 在圖9中所說明之實施例中,使用一個當前圖框及兩個後 續圖框。最初’將輸入圖框依序延遲k個圖框(區塊260、 262),且向前饋入以與第二延遲之輸出(區塊262)加在一起 (區塊264)。使區塊260之輸出乘以2(區塊266),且判定加 法器(區塊264)與乘法器之輸出(區塊266)之間的差(區塊 268)。接著判定(區塊270)、按比例調整(區塊272)每像素 164140.doc 201250519 内積’且箝位像素(區塊274)。計算平均灰階(區塊276)、 執行非線性按比例調整(區塊278)、應用時間佇列濾波器 (區塊280),且箝位至[〇,1](區塊282)。最後,判定歸因於 移動的使用者存在之機率(區塊284)。 可適用於運動偵測常式中之一些參數可包括自動對焦 (AF)視窗統計或水平邊緣或sobel/Sharr邊緣、2〇色彩直方 圖資料 '分量直方圖資料、色彩含量的自動白平衡/自動 曝光(AWB/AE)視窗統計等等。可實施一些預處理步驟以 用於運動偵測’諸如Y通道(強度)、藉由S〇be丨抑或Scharr 渡波器所計算之梯度量值(累積梯度以用於恰當正規化)、 臨限值梯度量值(按邊緣像素之計數的正規化)、在色度 (Cr,Cb)空間中的皮膚機率、前述内容中之任一者的子影 像等等。在一些實施例中,運動偵測可包括計算影像質心 之此力。將自當前圖框之質心至先前圖框之質心的距離用 作運動量之量測,且應用硬臨限值以產生二元偵測或運 動。因此,舉例而言,γ,強度、邊緣梯度量值、二元邊緣 抑或皮膚機率影像的質心位置之改變可指示運動。敏感性 與穩固性折衷可規定正使用的參數之特定組合。舉例而 S,皮膚機率影像可與邊緣梯度一起使用,且二元邊緣可 用以提供對光照改變之穩固性。皮膚機率可藉由如上文所 提及之類神經網路或者使用自動白平衡色空間濾波器近似 .此功能性來執行。 用於感測運動之一些實施例可參考梯度影像之皮膚偵測 的視窗統計》—實施例可查看總計(global sum)之改變。 164140.doc -32· 201250519 詳言之’在整個圖框上對影像求和以產生純量值s[i],其 中i為當前圖框索引《維持過去的N個值之佇列:S = {s[i-1], s[i-2],…s[i_N]}。將 Sl,n表示為自 s[i-L]至 s[i-N]之序列, 且將此等值之極值計算為u=max(SL,N)及v=min(SL,N)。運動 里係藉由在此範圍外之變化範圍(exeursi〇n)判定:e=max (s[i]-u,v-s[i])。若e超過預定臨限值,則偵測到運動。 在一些實施例中,可藉由單一圖框實施運動偵測常式, 且由此’可使用極少或不使用記憶體,此係由於將不儲存 全部圖框。在一些實施例中,可將影像(單一圖框)劃分成 統汁可被計算之視窗。針對視窗的統計之改變可用以判定 使用者之運動以及位置。 圖10說明可針對單一圖框運動偵測將影像劃分成的視窗 之可能集合。特定言之,圖1 〇展示為了統計目的劃分成非 重疊視ij及同心視曲兩者之單一圖框。在每一狀況中,考 慮影像之明度(在頁面頂部之圖框)及影像的強度梯度量值 (在頁面底部之圖框)。舉例而言,影像3〇〇可劃分成多個非 重疊曝露統計視窗302。或者,影像3〇〇可劃分成多個同心 重疊曝露統計視窗304。可基於明度影像(如在影像3〇〇中) 或基於強度梯度量值影像306判定每一視窗之統計。 當计算梯度量值之總和時,視窗之使用提供運動之更穩 固俘獲。關於重疊矩形視H施例包括人個同心配置 之矩形’最大者含有整個圖框且最小者在影像中居中。因 此,在圖框i處,圖框之總和為Sj⑴,其中hU,2 。 將處於矩形之間的像素纟中之總和作為此等總和之差計 164140.doc •33· 201250519 夕h藉由條之高度hj(其大致與其面積成比例)使差正規 化。 接下來使用和列叶算在先前N個圖框上的差七之極值 U、V(最大及最小),且變化範圍力=_ (仙卜,V4⑴)。 比較每-變化範圍ej與臨限值,提供在圖框之區域j中的運 動之指示符。光照之細微改變可產生假肯定偵測。真實運 動通常與在人個區域中之兩者或三者中的偵測相關聯。因 此在#•實施例中,需要偵測運動之至少兩個區域以用 於已在圖框中销測到運動之判定。另夕卜,光照之大的改變 (諸如’開啟或關閉房間燈)常常產生展示運動偵測之許多 區域…匕’若三個以上區域已债測到運動,則可抑制偵 測。可基於體驗或為了提供所要的敏感性及穩固性等級來 調整此等設計參數。 圖11為說明使用具有非同心視窗302之單一圆框3〇〇的運 ^貞測常式之流程圖。在―些實施例中,每—統計視 窗可具備唯—的分析管線(pipe)。亦即,刊時處理每一 視窗》在其他實施例中’可在共时.析管線中依序處理一 或多個視窗。如本文中所使用,「分析管線」可指與視窗 之統計分析;^目β㈣的處理步驟,且可包括時时列滤波 如上文所論述,可將影像300劃分成統計視窗3〇2,且可 針對每-視窗計算平均統計(區塊31〇)。可將時間仵列遽波 器應用於平均統計(區塊312),且可計算自短期過去行為之 164140.doc •34· 201250519 變化範圍值「e」(區塊3 14)。可比較變化範圍值與臨限值 以判定其是否超過臨限值(區塊316)。針對超過臨限值之每 一變化範圍值保持正規化s十數(區塊318),且若正規化計數 超過表決臨限值(區塊320) ’則判定已偵測到運動(區塊 322)。若判定尚未偵測到運動,則可自(多個)第二感測器 收集額外資料。另外,在某一所判定量之時間流逝後,裝 置可返回至減少電力狀態且(多個)第一感測器可收集資 料。 ’ 亦可使用變化範圍值來產 、121 现:ί24) 〇 可非 線性地按比例調整概括統計(區塊326),且可 記分(區塊叫…般而言,區塊322將提供指示== 運動之二進制1或0輸出,而區塊328將提供在〇與丨之間的 值,該值指示已在影像300中偵測到運動之可能性。 如可瞭解,在前述常式中之每一者中可利b用類神經網 路、支援向量機(SVM)或其他分類系統以進行關於使用者 之存在的判定。另外,纟自常式中之每一者的機率 獨地足夠進行使用者存在之判定,例如,若值高於竿—臨 限值。此外,在—些實施例中,I自常式中之每-者的機 率之組合可在判定使用者是否存在時使用。在_ 中,可能不使用常式之輸出,此係由於其有效性W有 遞。舉例而言,歸因於光照,膚色偵測常式可能不可靠 = ’:Γ權方式組合自常式所輸出之機率(例如,可 基=率比其他者準破之可能性對其提供更大叫 本文中所描述之實施例可經實施以減少計算裝置(諸 164140.doc •35- 201250519 如,筆記型電腦、桌上型電腦等等)中 之,甚至當裝置在低電力狀態(諸如,冬眠或^耗狀= 時,计算裝置仍可提供存在感測功能性,使得在使用者存 在時裝置可電力開啟,且在使用者離開時裝置可電力斷開 或進入減少電力狀態。此外,該等實施例可經提供以藉由 提供直觀的電力開啟及電力斷開操作以及安全特徵來改良 計算裝置之使用者體驗。 可實施分層式系統,其在低電力操作中排除主處理器及 RAM之使用。舉例而言,在—實施财,最低電力狀態可 僅實施相機、影像信號處理(ISP)裝置及可即時計算存在值 之嵌入式處理器。在下一層中,可開啟面部债測器晶片及 RAM。在後續層中,可對系統處理器及其他資源通電。 因此’在上文針對運㈣測所描述之實财,先前圖框 之記憶體限於藉由ISP所計算之統計,且限於可在嵌入式 處理器暫存器及快取記憶體中利用的空間(例如,叫,此 係由於RAM可能不可利用。另外,應瞭解,在存在感測常 式外’存在感測資訊(例如,統計、影像等等)不可利用。 亦即’例如’ 4 了存在感測所俘獲之影像可能不被使用者 檢視。 在-些實施例中,可利用身體偵測參數H貞測參數 可類似於面部偵測參數,但基於人類身體之大型特徵而非 可證實面部之較小特徵。舉例而言,身體谓測參數可與辨 別手臂ϋ幹、頭部等等有關。由於其係基於較大特 徵’因此相對於用於面部㈣的相機之較低解析度相機可 164140.doc
S •36· 201250519 丄實施’且達成作為身體感測器之合理的良好結果。此 外,在-些實施例中,相機在用以獲得身體该測參數時可 在低解析度模式中操作,且在用於其他目的時可在較高解 析度模式中操作。實際上,同一相機可用於身體偵測參數 及面部读測參數兩者。應瞭解’可按與面部摘測參數相同 的方式使用身體债測參數來判定存在之機率。此外,身體 偵測參數可為指示已偵測到身體之機率的參數。用於 偵測器之資料可為深度影像、灰度影像、RGB影像,或前 述類型之料中之任—者(單獨或結合另―類型之影像;。 在二實施例中,可實施許多不同的感測器及輸入。多 個不同的感測器及輸入可幫助增加準確度及存在感測器減 少假肯定及假否定之能力。在一實施例中,可實施貝氏據 波器。特定言之,可基於機率資料融合執行回歸貝氏估 計。圖12為說明使用多個同時非同步感測器來判定使用者 存在的機率之方法350的實例流程圖。在流程圖之頂 近為多個感測器352。特定言之,感測器可包括視 機354、3_D攝影機356、麥克風358及鍵盤暮應瞭解丫 此僅為-實例,且在實際實施中可利用或多或少以及 的感測器、舉例而言,可各自利用觸控式螢幕、軌跡塾^ ί月咏。感測器352中之每一者可同時操作。 不同感測器3 5 2中之每一者可經組態以俘獲某些特徵。 亦即’每-感測器具有將-些有用的資訊提供至;定 中之性能。感測器資訊之組合提供資訊之综效, 之組合比在單獨使用時來自每—感測器之資訊有用及蜮 164I40.doc •37- 201250519 準確。特定言之,除了判定使用者存在之可能性之外,來 自感測器3 5 2之資料亦可用以判定在3 _d空間中使用者之實 際位置及使用者的速度。按穩固型式組合所獲得之資料以 提供感測器資訊與運動模型之先驗預測的綜效。資料融合 最佳地將模型預測與所觀測之感測器資料融合,從而與彼 資訊之確定性(品質)成比例加權每一分量對所估計之狀態 的影響(使用者之位置及速度)。因此,若運動模型準確且 感測器資料為有雜訊的,則可相對於感測器資料更重地加 權模型預測,且反之亦然。基於系統中之演進機率連續調 適模型與所觀測之資料的此組合(例如,如由可能性模型 所計算的加權經常地更新)。 可自藉由感測器所提供之資料提取的一些實例特徵提供 於流程圖中。特定言之,視訊攝影機可提取諸如3_D斑 點、面部及身體偵測以及運動向量之特徵(區塊37〇) ^ 3_d 斑點可表示在攝影機之視野内的物件。3_D攝影機356可經 組態以亦提取面部偵測、身體偵測及運動向量(區塊372)。 麥克風3 5 8可經組態以提取音訊加速度及新穎偵測(區塊 374)。鍵盤360可經組態以提取按鍵偵測(區塊376)。音訊 加速度特徵可利用都卜勒效應判定物件是否正接近或退 卻。另外,新穎偵測特徵可設法發現可指示使用者之存在 的背景雜訊改變。舉例而言,音量之增加可指示使用者之 存在。 一旦已提取特徵’則判定觀測可能性(區塊178)。亦 即,所提取之特徵中的每一者可用以判定感興趣之物件 164140.doc -38-
201250519 (例如,使用者)存在的可能性。接著使用觀測可能性來更 新狀態表示(區塊182)。狀態表示利用資料之融合。可產生 狀態表不(區塊184)〇在一實施例中,狀態表示可呈直方圖 之形式。其他實施例可包括參數高斯散佈(卡門濾波器)、 基於蒙地卡羅(Monte-Carlo)樣本之散佈(依序蒙地卡羅方 法/粒子濾波器)、混合非同步多觀測粒子濾波器等等。狀 態表示可呈現與使用者存在計算有關之資訊。舉例而言, 狀態表不可呈現與(多個)使用者之3_D位置及(多個)使用者 之速度有關的資訊。運動模型(區塊188)可輸入在狀態表示 中所使用之資訊,且亦可接收來自狀態表示之資訊。運動 模型為模型化使用者之移動的狀態演進表達。狀態表示可 用於統計計算(區塊186)中,統計計算可判定使用者之存在 的機率。另外,統計計算可估計使用者之位置及估計之方 差。 狀態表示亦將資訊提供至量測模型(區塊180),且可將 量測模型提供至觀測可能性判定(區塊178)。量測模型可一 般按比例調整感測器之各別觀測。特定言之,由於可對感 測器之相對觀測提供或多或少權數,因此可應用模型以幫 助提供應得更大權數之彼等觀測。舉例而言,可對按鍵之 觀測提供比3-D斑點之觀測大的權數。另外,若感測器有 雜訊,則可對其提供較小權數。將量測模型中之每一者用 於觀測可能性步驟中,又使用觀測可能性步驟來更新狀態 表示(區塊182)。 存在感測之實施可提供計算裝置之增加的智慧行為。亦 164140.doc •39- 201250519 即,計算裝置可能能夠更好地預期使用者互動,且可提供 改良之使用者體驗。舉例而言,在使用者存在之同時,顯 示器可不暗,但在使用者離去後,顯示器即可關閉。另 外’可基於使用者距裝置之距離按比例調整及/或改變顯 示器輸出。諸如樹葉跨越螢幕吹落以模仿所感測之移動的 其他直觀及經驗特徵可增加使用者的智慧及互動感覺。 前述内容描述用於感測使用者之存在之一些實例實施 例。儘管前述論述已呈現特定實施例,但熟習此項技術者 將認識到,在不脫離實施例之精神及範疇的情況中,可進 行形式及細節之改變。舉例而言,可實施制於存在感測 的演算法中之一或多者之修改。在-實例中,硬體限制可 驅動演算法改變。因此’本文中所描述之特定實施例應被 理解為實例,且並不限制其範疇。 【圖式簡單說明】 圖1說明具有使用者存在感㈣能之㈣計算裝置。 圖2為圆1之計算裝置之方塊圖。 圖3為展示在感興趣之物件 處時的存在感測結果之曲線。、+在感測器不同距離 為展示在感興趣之物件自感 在感測結果之另H 移肖度時的存 的流程圖 圖6為說明用於判定使 7為說明用於在在“存在之方法的流程圖 圖5為說明用於操作分層式存在 程圖。 · ’〗盗系統之實例方法 圖 164140.doc 7為說明〜感測中使二:二 201250519 程圖。 圖8為說明用於在存在感測中使用的面部辨識常 ^之流 程圖。 圖9為說明用於在存在感測中使用的運動偵測常式之流 程圖。 圖10說明劃分成用於單一圖框運動偵測的視窗之圖框。 圖11為說明用於單一圖框運動偵測之實例方法的流程 圖。 圖12為說明使用多個同時非同步感測器判定使用者位於 裝置附近的機率之實例方法的流程圖。 【主要元件符號說明】 100 計算裝置 102 感測器 103 主相機 104 微處理器/微控制器 105 主電腦處理單元(CPU) 106 基於相機之感測器 107 影像處理器 108 全影像相機 110 整合式處理器/嵌入式微處理器 112 接近度感測器 114 控制器 116 多工器 118 發光二極體/led陣列 164l40.doc 201250519 120 線 122 線 130 線 132 線 134 線 203 箭頭 212B 運動偵測常式 300 影像/圖框 302 非重疊曝露統計視窗/非同心視窗 304 同心重疊曝露統計視窗 306 強度梯度量值影像 352 感測器 354 視訊攝影機 356 3-D攝影機 358 麥克風 360 鍵盤 164140.doc -42-

Claims (1)

  1. 201250519 七、申請專利範圍: 1· -種操作-計算裝置以提供基於存在之功能性的方法, 該方法包含: 在一減少電力狀態中操作該計算裝置; 自至少一感測器收集一第一組資料; 基於該第一、组資料判定一感興趣之物件在該計算裝置 附近的一機率; 基於相對於該計算裳置之該物件之部分選擇性地 該計算裝置的狀態之一改變; 若該機率超過—臨限位準,職動至少〜欠級感測器 以收集一第二組資料;及 D 基於該第-組資料及該第二組資料判定該物件 的一機率; 若該物件經判定為一人: 選擇性地判定該人相對於該計算裝置的-位置及— 距離中之至少一者;及 一基於該人相對於該計算裝置的存在及位置中之至少 一者執行該計算裝置的狀態之一第二改變。 〆 一月长項1之方法’其中該至少—感測器及該至少 一感測器包含同—感測器。 3·如凊求項2之方法,其中該感測器在-第-模式中作為 該至少一咸、、目丨丨哭為 次級冗 作’且在―第二模^作為該至少- ••人級感測器操作〇 4.如請求項3之方法’其中該第二感測器包含-基於影像 164140.doc 201250519 之感測器,其中該第一模式包含一低解析度模式,且該 第二模式包含一較高解析度模式。 5.如請求項1之方法,其中進行狀態之一改變包含下列中 之至少一者: 改變一顯示器背景/螢幕保護器移位,其中該移位對應 於使用者之移動; 使該顯示器進入一喚醒狀態; 使該裝置進入一喚醒狀態; 在使該裝置進入一喚醒狀態時減少處理程序之一數 i ; 藉由在偵測到一人時修改通常的逾時來將該裝置維持 於一作用狀態中; 基於人之位置音訊操縱; 基於使用者位置麥克風操縱;及 修改使用者介面,使得若該使用者遠離,則提供一組 較小的使用者選項。 6_如請求項5之方法,其中若該裝置已喚醒且偵測到該使 用者移動遠離該裝置,則該裝置經組態以: 將顯示器狀態改變至一睡眠狀態;或 將裝置狀態改變至一睡眠狀態。 7. 如請求項1之方法,其進一步包含使用組合式感測器資 料以使用一類神經網或一支援向量機來判定存在。 8. 如凊求項1之方法,其進一步包含進行關於該物件是否 在該裝置之臨限距離内的一硬決策。 164140.doc -2 - S 201250519 9 _如請求項1之古 法,其進一步包含使用組合式 料以使用一庸Α σ式汉測器資 一 膚色判定、一存在判定及一移動判定中 加權方式進行該存在判定來判定存在。 10. 如請求項1之古 -滑“二 該至少一感測器包含-鍵盤、 或麥克風中之至少一者。 11. 如請求項1 方法,其進一步包含使用組合式感 料以使用—祐田& 入级測資 在。 使用者距該$置的—所判定距離來判定存 12. 如請求項丨之方法其 穿置附W认 步匕3為了女全性判定在該 、 的面部之一數目,其中 P气紛4、♦丄 六τ女王性係藉由部分電力 開啟或電力開啟至一 电刀 之憑證來提供。 運步存取 13. 如請求们之方法’其中該至少 測器。 α判15包含—身體感 14. -種用於判^ —使用者是 該方法包含: 卞异裳置附近之方法, 使用一影像感測器俘獲一影像; 者使用-處理器自該所俘獲之影像計算下列中之至少一 一身體偵測參數;及 一移動偵測參數; 利用該身體_參數及該移動相參數中之至少 進行關於一使用者存在的一機率之—判定; 若該機率指示一使用者之存在, 许在則%作一深度估計器 I64I40.doc 201250519 以判定該使用者距該裝置之距離小於一臨限值之一可能 性;及 若該可能性超過一臨限值,則改變該裝置之一狀態。 15. 如請求項14之方法,其進一步包含計算一膚色偵測參數 及一面部偵測參數,其兩者在進行關於一使用者是否存 在之該判定時被利用。 16. 如請求項15之方法,其進一步包含·· 計算該膚色偵測參數、該面部偵測參數、該身體彳貞測 參數及該移動參數中之每一者;及 將該等參數相對於彼此加權,其中該膚色偵測參數比 其他參數少地被加權。 17. 如請求項14之方法,其中使用一單一圖框計算該移動偵 測參數^ 18. 如請求項17之方法,其進一步包含: 將該影像劃分成視窗;及 針對該等同心視窗計算統計,其中至少兩個視窗之改 變指示該影像中之移動。 19. 一種計算裝置,其包含·· 一主處理器; -存在感測器系統’其耗接至該主處理器包含: 至少-影像感測器,其經組態以俘獲一影像; -處理器’_至該影像感測器,該處理器經 態以處理該影像以藉由計算下財之至少—者判定一 用者位於該裝置附近的—機率: 164l40.doc -4· S 201250519 一身體存在參數; —移動參數; 一膚色參數;及 —面部偵測參數; 其中若該機率超過一可能性臨限值,則一使用者已判 定為存在的一指示自該處理器發送至該主處理器,且該 主處理器基於該指示改變該計算系統之一狀態。 20. 如研求項19之計算裝置’其中該存在感測器經組態以接 收來自至少一額外輸入裝置之輸入,且自該至少一額外 輸入裝置所接收的資料用於該機率判定中。 21. 如印求項20之計算裝置,其中該至少一額外輸入裝置包 含下列中之一者: 一額外影像感測器; 一鍵盤; 一觸控式螢幕; 一執跡塾; 一麥克風;及 一滑鼠。 22·如請求項之計算Μ ’其中該等感測器及該等輸入裂 置中之一或多者同時操作。 23·如請求項21之計算裝置’其中該影像感測 器及該額外影 像感測器中之至少-者包含-深度感測器。 24.如請求項23之計算裝置,其中該影像感測 益及s玄額外影 像感測器兩者同時操作。 164140.doc 201250519 25·如請求項21之計算裝置,其中該裝置之該狀態僅基於來 自該等感測器中之一者的資料而改變。 26.如請求項25之計算裝置,其中該狀態之該改變包含:進 入一暖機狀態。 27. 如請求項19之計算裝置,並由沖_ —妝印 罝其中改變該裝置之該狀態包 含:在偵測到一使用者時將兮驻 吁將該裝置維持於一作用模式 如請求項27之計算裝置 罝其中改變該狀態包含.户土 /J到其他輸入時停用用於勞 .在未 之 睡眠中的一者。 勞幕變暗之-逾時或該裝置 164140.doc
TW101117124A 2011-05-12 2012-05-14 存在感測 TWI506478B (zh)

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
US201161485610P 2011-05-12 2011-05-12
US201161504026P 2011-07-01 2011-07-01
US13/219,573 US20120287031A1 (en) 2011-05-12 2011-08-26 Presence sensing
US13/469,996 US10372191B2 (en) 2011-05-12 2012-05-11 Presence sensing

Publications (2)

Publication Number Publication Date
TW201250519A true TW201250519A (en) 2012-12-16
TWI506478B TWI506478B (zh) 2015-11-01

Family

ID=48139276

Family Applications (1)

Application Number Title Priority Date Filing Date
TW101117124A TWI506478B (zh) 2011-05-12 2012-05-14 存在感測

Country Status (8)

Country Link
US (1) US10372191B2 (zh)
EP (1) EP2712431A1 (zh)
JP (1) JP5876142B2 (zh)
KR (2) KR20140002034A (zh)
CN (1) CN103534664B (zh)
AU (1) AU2012253292B2 (zh)
TW (1) TWI506478B (zh)
WO (1) WO2012155105A1 (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
TWI646343B (zh) * 2014-06-11 2019-01-01 美商英特希爾美國公司 用於具有多視野的光學近接偵測的系統和方法

Families Citing this family (86)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8760517B2 (en) 2010-09-27 2014-06-24 Apple Inc. Polarized images for security
US8836777B2 (en) 2011-02-25 2014-09-16 DigitalOptics Corporation Europe Limited Automatic detection of vertical gaze using an embedded imaging device
US20130057573A1 (en) * 2011-09-02 2013-03-07 DigitalOptics Corporation Europe Limited Smart Display with Dynamic Face-Based User Preference Settings
US20120287031A1 (en) 2011-05-12 2012-11-15 Apple Inc. Presence sensing
US20130027548A1 (en) * 2011-07-28 2013-01-31 Apple Inc. Depth perception device and system
KR101870902B1 (ko) * 2011-12-12 2018-06-26 삼성전자주식회사 영상 처리 장치 및 영상 처리 방법
US20130194172A1 (en) * 2012-01-30 2013-08-01 Cellco Partnership D/B/A Verizon Wireless Disabling automatic display shutoff function using face detection
TWI536157B (zh) * 2012-02-23 2016-06-01 原相科技股份有限公司 電子裝置與電腦可讀取媒體
US9152204B2 (en) 2012-07-17 2015-10-06 Google Inc. System wakeup based on changes in physical environment
KR101938648B1 (ko) * 2012-10-23 2019-01-15 삼성전자주식회사 이미지 센서를 포함하는 모바일 기기, 이미지 센서의 구동 방법 및 모바일 기기의 구동 방법
JP6150503B2 (ja) * 2012-12-04 2017-06-21 キヤノン株式会社 画像処理装置及び画像処理装置の制御方法
US9256269B2 (en) * 2013-02-20 2016-02-09 Sony Computer Entertainment Inc. Speech recognition system for performing analysis to a non-tactile inputs and generating confidence scores and based on the confidence scores transitioning the system from a first power state to a second power state
US9128714B2 (en) 2013-02-20 2015-09-08 Logitech Europe S.A. Method and system for detecting an object or body based on changes in signal phases
US20140250413A1 (en) * 2013-03-03 2014-09-04 Microsoft Corporation Enhanced presentation environments
US9164609B2 (en) * 2013-03-13 2015-10-20 Amazon Technologies, Inc. Managing sensory information of a user device
CN105229582B (zh) * 2013-03-14 2020-04-28 视力移动科技公司 基于近距离传感器和图像传感器的手势检测
US11172126B2 (en) 2013-03-15 2021-11-09 Occipital, Inc. Methods for reducing power consumption of a 3D image capture system
US9285886B2 (en) 2013-06-24 2016-03-15 Sonos, Inc. Intelligent amplifier activation
US9942384B2 (en) 2013-09-10 2018-04-10 Google Technology Holdings LLC Method and apparatus for device mode detection
US9468026B2 (en) * 2013-10-11 2016-10-11 Logitech Europe S.A. Method and system for shortening wireless pairing connection time by detecting an object or body
US9733956B2 (en) * 2013-12-24 2017-08-15 Intel Corporation Adjusting settings based on sensor data
US9159294B2 (en) 2014-01-31 2015-10-13 Google Inc. Buttonless display activation
US9037199B1 (en) 2014-02-13 2015-05-19 Google Inc. Detecting transitions between physical activity
US8976063B1 (en) 2014-04-29 2015-03-10 Google Inc. Automated detection of vehicle parking and location
US9710629B2 (en) * 2014-05-13 2017-07-18 Google Technology Holdings LLC Electronic device with method for controlling access to same
US20150347732A1 (en) * 2014-05-29 2015-12-03 Google Technology Holdings LLC Electronic Device and Method for Controlling Access to Same
US9575560B2 (en) 2014-06-03 2017-02-21 Google Inc. Radar-based gesture-recognition through a wearable device
US9778749B2 (en) 2014-08-22 2017-10-03 Google Inc. Occluded gesture recognition
US11169988B2 (en) 2014-08-22 2021-11-09 Google Llc Radar recognition-aided search
US9600080B2 (en) 2014-10-02 2017-03-21 Google Inc. Non-line-of-sight radar-based gesture recognition
US20160161339A1 (en) * 2014-12-05 2016-06-09 Intel Corporation Human motion detection
CN104636169B (zh) * 2015-02-15 2018-01-19 广东欧珀移动通信有限公司 一种系统唤醒方法及装置
JP2016178348A (ja) * 2015-03-18 2016-10-06 キヤノン株式会社 情報処理装置、情報処理装置の制御方法、及びプログラム
KR102002112B1 (ko) 2015-04-30 2019-07-19 구글 엘엘씨 제스처 추적 및 인식을 위한 rf―기반 마이크로―모션 추적
US10088908B1 (en) 2015-05-27 2018-10-02 Google Llc Gesture detection and interactions
CN105637532B (zh) * 2015-06-08 2020-08-14 北京旷视科技有限公司 活体检测方法、活体检测系统以及计算机程序产品
US9652125B2 (en) * 2015-06-18 2017-05-16 Apple Inc. Device, method, and graphical user interface for navigating media content
US10650162B2 (en) * 2015-07-29 2020-05-12 Simplifeye, Inc. System and method for facilitating access to a database
US9990113B2 (en) 2015-09-08 2018-06-05 Apple Inc. Devices, methods, and graphical user interfaces for moving a current focus using a touch-sensitive remote control
US10425819B2 (en) * 2015-09-17 2019-09-24 Samsung Electronics Co., Ltd. Apparatus and method for controlling outbound communication
US10817065B1 (en) 2015-10-06 2020-10-27 Google Llc Gesture recognition using multiple antenna
EP3168711A1 (en) * 2015-11-11 2017-05-17 ams AG Method, optical sensor arrangement and computer program product for passive optical motion detection
CN105700668B (zh) * 2016-03-04 2019-05-28 华为技术有限公司 一种对触摸屏采集的数据进行处理的方法及终端设备
US10492302B2 (en) 2016-05-03 2019-11-26 Google Llc Connecting an electronic component to an interactive textile
WO2017200949A1 (en) 2016-05-16 2017-11-23 Google Llc Interactive fabric
US10302810B2 (en) 2017-01-30 2019-05-28 Microsoft Technology Licensing, Llc Use of thermopiles to detect human location
JP6426225B2 (ja) * 2017-04-05 2018-11-21 シャープ株式会社 表示装置、テレビジョン受像機、表示制御方法、表示制御プログラム、および記録媒体
US11030289B2 (en) * 2017-07-31 2021-06-08 Stmicroelectronics, Inc. Human presence detection
CN109426157A (zh) * 2017-08-29 2019-03-05 合肥美的智能科技有限公司 控制显示屏的方法、装置及智能家居设备
US10817594B2 (en) 2017-09-28 2020-10-27 Apple Inc. Wearable electronic device having a light field camera usable to perform bioauthentication from a dorsal side of a forearm near a wrist
US11437032B2 (en) 2017-09-29 2022-09-06 Shanghai Cambricon Information Technology Co., Ltd Image processing apparatus and method
CN108196663B (zh) * 2018-01-16 2020-04-17 维沃移动通信有限公司 一种人脸识别方法、移动终端
EP3651070B1 (en) 2018-02-13 2021-07-28 Shanghai Cambricon Information Technology Co., Ltd Computation device and method
US11704125B2 (en) 2018-02-13 2023-07-18 Cambricon (Xi'an) Semiconductor Co., Ltd. Computing device and method
US11630666B2 (en) 2018-02-13 2023-04-18 Shanghai Cambricon Information Technology Co., Ltd Computing device and method
CN110162162B (zh) 2018-02-14 2023-08-18 上海寒武纪信息科技有限公司 处理器的控制装置、方法及设备
EP3624020A4 (en) 2018-05-18 2021-05-05 Shanghai Cambricon Information Technology Co., Ltd CALCULATION PROCEDURES AND RELATED PRODUCTS
US11922006B2 (en) 2018-06-03 2024-03-05 Apple Inc. Media control for screensavers on an electronic device
US10719729B2 (en) 2018-06-06 2020-07-21 Perfect Corp. Systems and methods for generating skin tone profiles
WO2020001438A1 (zh) 2018-06-27 2020-01-02 上海寒武纪信息科技有限公司 片上代码断点调试方法、片上处理器及芯片断点调试系统
JP6867518B2 (ja) 2018-08-28 2021-04-28 カンブリコン テクノロジーズ コーポレイション リミティド データ前処理方法、装置、コンピュータ機器及び記憶媒体
US11238089B1 (en) 2018-08-29 2022-02-01 Big Health Inc. Dynamic customization of content programs
US11703939B2 (en) 2018-09-28 2023-07-18 Shanghai Cambricon Information Technology Co., Ltd Signal processing device and related products
DE102018124385B4 (de) 2018-10-02 2023-02-16 Infineon Technologies Ag Anzeigensteuervorrichtungen und -verfahren
US11500103B2 (en) 2018-10-23 2022-11-15 Lg Electronics Inc. Mobile terminal
WO2020166740A1 (ko) * 2019-02-13 2020-08-20 엘지전자 주식회사 이동 단말기
US11620044B2 (en) 2018-10-23 2023-04-04 Lg Electronics Inc. Mobile terminal
US11580355B2 (en) * 2018-10-25 2023-02-14 Electronic Warfare Associates, Inc. System-on-a-chip incorporating artificial neural network and general-purpose processor circuitry
US10963745B2 (en) * 2018-11-21 2021-03-30 Intel Corporation Real time adaptive training face detection for ultra low power always on architecture
CN111383638A (zh) 2018-12-28 2020-07-07 上海寒武纪信息科技有限公司 信号处理装置、信号处理方法及相关产品
WO2020166739A1 (ko) * 2019-02-13 2020-08-20 엘지전자 주식회사 이동 단말기
CN111832739B (zh) 2019-04-18 2024-01-09 中科寒武纪科技股份有限公司 一种数据处理方法及相关产品
US11934940B2 (en) 2019-04-18 2024-03-19 Cambricon Technologies Corporation Limited AI processor simulation
CN113614676B (zh) 2019-05-20 2024-03-26 谷歌有限责任公司 用于提供多模式界面的基于移动设备的雷达系统及其方法
EP3998554A4 (en) 2019-06-12 2023-11-15 Shanghai Cambricon Information Technology Co., Ltd METHOD FOR DETERMINING QUANTIZATION PARAMETERS IN A NEURONAL NETWORK AND ASSOCIATED PRODUCTS
US11676028B2 (en) 2019-06-12 2023-06-13 Shanghai Cambricon Information Technology Co., Ltd Neural network quantization parameter determination method and related products
EP3928181A1 (en) * 2019-06-17 2021-12-29 Google LLC Mobile device-based radar system for applying different power modes to a multi-mode interface
US11662695B2 (en) 2019-10-11 2023-05-30 Dell Products L.P. Information handling system infrared proximity detection with distance reduction detection
US11663343B2 (en) * 2020-01-31 2023-05-30 Dell Products L.P. Information handling system adaptive user presence detection
TWI736138B (zh) * 2020-02-17 2021-08-11 國立屏東大學 交通安全學習系統與方法
US11108957B1 (en) 2020-06-17 2021-08-31 Microsoft Technology Licensing, Llc Low power operation of differential image sensor pixels
EP4182054A1 (en) 2020-07-16 2023-05-24 Invacare Corporation System and method for concentrating gas
CN116648278A (zh) 2020-07-16 2023-08-25 英瓦卡尔公司 用于浓缩气体的系统和方法
US11470252B2 (en) 2020-09-14 2022-10-11 Dell Products L.P. Method to integrate time of flight proximity with camera based attention sensing and system therefor
WO2022186811A1 (en) * 2021-03-01 2022-09-09 Hewlett-Packard Development Company, L.P. Transmit power controls
EP4338128A1 (en) * 2021-05-11 2024-03-20 Objectvideo Labs, LLC Adjusting areas of interest for motion detection in camera scenes

Family Cites Families (68)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
FR2485773A1 (fr) 1980-06-24 1981-12-31 Promocab Systeme de protection d'une zone contre l'agression humaine
US5537144A (en) 1990-06-11 1996-07-16 Revfo, Inc. Electro-optical display system for visually displaying polarized spatially multiplexed images of 3-D objects for use in stereoscopically viewing the same with high image quality and resolution
US5384588A (en) 1991-05-13 1995-01-24 Telerobotics International, Inc. System for omindirectional image viewing at a remote location without the transmission of control signals to select viewing parameters
CN1183780C (zh) 1996-12-04 2005-01-05 松下电器产业株式会社 光盘再现设备及光盘记录方法
US5903350A (en) 1997-02-03 1999-05-11 Optiphase, Inc. Demodulator and method useful for multiplexed optical sensors
US6072894A (en) 1997-10-17 2000-06-06 Payne; John H. Biometric face recognition for applicant screening
US6146332A (en) 1998-07-29 2000-11-14 3416704 Canada Inc. Movement detector
US6345086B1 (en) 1999-09-14 2002-02-05 Veeco Instruments Inc. X-ray fluorescence system and method
US7006236B2 (en) 2002-05-22 2006-02-28 Canesta, Inc. Method and apparatus for approximating depth of an object's placement onto a monitored region with applications to virtual interface devices
US6775397B1 (en) 2000-02-24 2004-08-10 Nokia Corporation Method and apparatus for user recognition using CCD cameras
US6802016B2 (en) * 2001-02-08 2004-10-05 Twinhead International Corp. User proximity sensor and signal processing circuitry for determining whether to power a computer on or off
US20020158750A1 (en) 2001-04-30 2002-10-31 Almalik Mansour Saleh System, method and portable device for biometric identification
JP2002350555A (ja) 2001-05-28 2002-12-04 Yamaha Motor Co Ltd 人検出装置
US6832006B2 (en) * 2001-07-23 2004-12-14 Eastman Kodak Company System and method for controlling image compression based on image emphasis
US7136513B2 (en) 2001-11-08 2006-11-14 Pelco Security identification system
JP4210137B2 (ja) 2002-03-04 2009-01-14 三星電子株式会社 2次icaを利用した顔認識法及びその装置
US7369685B2 (en) 2002-04-05 2008-05-06 Identix Corporation Vision-based operating method and system
JP4251358B2 (ja) 2002-04-10 2009-04-08 サーモ フィッシャー サイエンティフィック(アッシュビル)エルエルシー 自動化された蛋白質結晶化の画像化
US7151530B2 (en) 2002-08-20 2006-12-19 Canesta, Inc. System and method for determining an input selected by a user through a virtual interface
US7436569B2 (en) 2003-03-12 2008-10-14 General Photonics Corporation Polarization measurement and self-calibration based on multiple tunable optical polarization rotators
JP2004348349A (ja) 2003-05-21 2004-12-09 Masayuki Watabiki 家電品省電力制御装置
US7009378B2 (en) * 2003-09-05 2006-03-07 Nxtphase T & D Corporation Time division multiplexed optical measuring system
US7117380B2 (en) * 2003-09-30 2006-10-03 International Business Machines Corporation Apparatus, system, and method for autonomic power adjustment in an electronic device
US7324824B2 (en) 2003-12-09 2008-01-29 Awarepoint Corporation Wireless network monitoring system
KR100580630B1 (ko) 2003-11-19 2006-05-16 삼성전자주식회사 적외선을 이용한 사람 식별 장치 및 방법
US20050221791A1 (en) * 2004-04-05 2005-10-06 Sony Ericsson Mobile Communications Ab Sensor screen saver
US8509472B2 (en) 2004-06-24 2013-08-13 Digimarc Corporation Digital watermarking methods, programs and apparatus
DE602004024322D1 (de) * 2004-12-15 2010-01-07 St Microelectronics Res & Dev Vorrichtung zur Detektion von Computerbenutzern
US9760214B2 (en) 2005-02-23 2017-09-12 Zienon, Llc Method and apparatus for data entry input
JP2006318364A (ja) * 2005-05-16 2006-11-24 Funai Electric Co Ltd 画像処理装置
US7806604B2 (en) 2005-10-20 2010-10-05 Honeywell International Inc. Face detection and tracking in a wide field of view
KR100745981B1 (ko) 2006-01-13 2007-08-06 삼성전자주식회사 보상적 특징에 기반한 확장형 얼굴 인식 방법 및 장치
JP2007300363A (ja) 2006-04-28 2007-11-15 Omron Corp 監視装置および方法、並びにプログラム
US8462989B2 (en) 2006-06-06 2013-06-11 Tp Vision Holding B.V. Scaling an image based on a motion vector
JP2008160351A (ja) 2006-12-22 2008-07-10 Nec Electronics Corp 色動き検出回路及びy/c分離回路
US7840031B2 (en) 2007-01-12 2010-11-23 International Business Machines Corporation Tracking a range of body movement based on 3D captured image streams of a user
US7903166B2 (en) * 2007-02-21 2011-03-08 Sharp Laboratories Of America, Inc. Methods and systems for display viewer motion compensation based on user image data
US7929729B2 (en) 2007-04-02 2011-04-19 Industrial Technology Research Institute Image processing methods
GB2453163B (en) 2007-09-26 2011-06-29 Christopher Douglas Blair Three-dimensional imaging system
EP2216999B1 (en) 2007-12-07 2015-01-07 Panasonic Corporation Image processing device, image processing method, and imaging device
US8600120B2 (en) * 2008-01-03 2013-12-03 Apple Inc. Personal computing device control using face detection and recognition
US8698753B2 (en) 2008-02-28 2014-04-15 Lg Electronics Inc. Virtual optical input device with feedback and method of controlling the same
US8107721B2 (en) 2008-05-29 2012-01-31 Mitsubishi Electric Research Laboratories, Inc. Method and system for determining poses of semi-specular objects
US8035728B2 (en) 2008-06-27 2011-10-11 Aptina Imaging Corporation Method and apparatus providing rule-based auto exposure technique preserving scene dynamic range
US20100008900A1 (en) 2008-07-14 2010-01-14 The University Of Hong Kong Annexin ii compositions for treating or monitoring inflammation or immune-mediated disorders
CN101639800A (zh) 2008-08-01 2010-02-03 华为技术有限公司 一种显示屏显示方法及终端
CN102119530B (zh) * 2008-08-22 2013-08-21 索尼公司 图像显示设备、控制方法
WO2010021375A1 (ja) 2008-08-22 2010-02-25 国立大学法人大阪大学 プロテアーゼの製造方法、並びにプロテアーゼ溶液およびプロテアーゼのプロ体溶液
JP4636149B2 (ja) 2008-09-09 2011-02-23 ソニー株式会社 画像データ解析装置、および画像データ解析方法、並びにプログラム
DE102008047413A1 (de) 2008-09-16 2010-04-15 Hella Kgaa Hueck & Co. Vorrichtung und Verfahren zur Detektion von Objekten
KR20100073191A (ko) 2008-12-22 2010-07-01 한국전자통신연구원 거리 정보를 이용한 위조 얼굴 검출 방법 및 장치
WO2010073547A1 (ja) 2008-12-25 2010-07-01 パナソニック株式会社 画像処理装置及び擬似立体画像生成装置
US8254699B1 (en) 2009-02-02 2012-08-28 Google Inc. Automatic large scale video object recognition
RU2534073C2 (ru) * 2009-02-20 2014-11-27 Конинклейке Филипс Электроникс Н.В. Система, способ и аппарат для инструктирования устройству входить в активный режим
US9159208B2 (en) 2009-03-31 2015-10-13 Koninklijke Philips N.V. Energy efficient cascade of sensors for automatic presence detection
US20100253782A1 (en) 2009-04-07 2010-10-07 Latent Image Technology Ltd. Device and method for automated verification of polarization-variant images
WO2010127488A1 (en) 2009-05-07 2010-11-11 Joemel Caballero System for controlling light emission of television
US20100328074A1 (en) * 2009-06-30 2010-12-30 Johnson Erik J Human presence detection techniques
US8154615B2 (en) * 2009-06-30 2012-04-10 Eastman Kodak Company Method and apparatus for image display control according to viewer factors and responses
US8264536B2 (en) 2009-08-25 2012-09-11 Microsoft Corporation Depth-sensitive imaging via polarization-state mapping
KR101648353B1 (ko) 2009-09-25 2016-08-17 삼성전자 주식회사 거리 센서를 포함하는 이미지 센서
TWI413896B (zh) * 2010-04-21 2013-11-01 Elitegroup Computer Sys Co Ltd Energy saving methods for electronic devices
US9357024B2 (en) * 2010-08-05 2016-05-31 Qualcomm Incorporated Communication management utilizing destination device user presence probability
US8760517B2 (en) 2010-09-27 2014-06-24 Apple Inc. Polarized images for security
US8912877B2 (en) * 2011-02-18 2014-12-16 Blackberry Limited System and method for activating an electronic device using two or more sensors
US20120287031A1 (en) 2011-05-12 2012-11-15 Apple Inc. Presence sensing
US20140196131A1 (en) 2013-01-07 2014-07-10 Salutron, Inc. User authentication based on a wrist vein pattern
JP6854612B2 (ja) 2015-10-06 2021-04-07 三星電子株式会社Samsung Electronics Co.,Ltd. 生体情報測定装置及び生体情報測定方法並びにコンピュータ読み取り可能な記録媒体

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
TWI646343B (zh) * 2014-06-11 2019-01-01 美商英特希爾美國公司 用於具有多視野的光學近接偵測的系統和方法
US10401494B2 (en) 2014-06-11 2019-09-03 Intersil Americas LLC Systems and methods for optical proximity detection with multiple field of views

Also Published As

Publication number Publication date
US10372191B2 (en) 2019-08-06
CN103534664B (zh) 2016-08-31
JP2014519091A (ja) 2014-08-07
CN103534664A (zh) 2014-01-22
WO2012155105A1 (en) 2012-11-15
AU2012253292A1 (en) 2013-10-31
KR20160023912A (ko) 2016-03-03
KR101660215B1 (ko) 2016-09-26
KR20140002034A (ko) 2014-01-07
EP2712431A1 (en) 2014-04-02
AU2012253292B2 (en) 2015-10-29
US20120287035A1 (en) 2012-11-15
TWI506478B (zh) 2015-11-01
JP5876142B2 (ja) 2016-03-02

Similar Documents

Publication Publication Date Title
TWI506478B (zh) 存在感測
US10402624B2 (en) Presence sensing
US11561621B2 (en) Multi media computing or entertainment system for responding to user presence and activity
US10198823B1 (en) Segmentation of object image data from background image data
US9131150B1 (en) Automatic exposure control and illumination for head tracking
US9729865B1 (en) Object detection and tracking
US8942434B1 (en) Conflict resolution for pupil detection
US10027883B1 (en) Primary user selection for head tracking
US10055013B2 (en) Dynamic object tracking for user interfaces
US9465444B1 (en) Object recognition for gesture tracking
US9298974B1 (en) Object identification through stereo association
US20120304067A1 (en) Apparatus and method for controlling user interface using sound recognition
US9280122B2 (en) Printing apparatus, method for controlling printing apparatus, and recording medium
WO2020019504A1 (zh) 一种机器人屏幕解锁方法、装置、智能设备及存储介质
US9223415B1 (en) Managing resource usage for task performance
CN110765924A (zh) 一种活体检测方法、装置以及计算机可读存储介质
US20160094783A1 (en) Image processing apparatus, control method of image processing apparatus and program
TW202309839A (zh) 基於事件映射的相機設置調整
JP2019215274A (ja) 情報処理装置および情報処理装置の制御方法
Siddiqi et al. Active contours level set based still human body segmentation from depth images for video-based activity recognition
Kitajima et al. Privacy‐aware face detection using biological signals in camera images
Kitajima et al. Privacy-aware human-detection and tracking system using biological signals
Kumar et al. Hands-Free Mouse Control Using Facial Feature
S Choras et al. Markerless head gesture recognition for human computer interaction
Choi et al. Real-time human tracker based location and motion recognition for the ubiquitous smart home

Legal Events

Date Code Title Description
MM4A Annulment or lapse of patent due to non-payment of fees