TW201250519A - Presence sensing - Google Patents
Presence sensing Download PDFInfo
- Publication number
- TW201250519A TW201250519A TW101117124A TW101117124A TW201250519A TW 201250519 A TW201250519 A TW 201250519A TW 101117124 A TW101117124 A TW 101117124A TW 101117124 A TW101117124 A TW 101117124A TW 201250519 A TW201250519 A TW 201250519A
- Authority
- TW
- Taiwan
- Prior art keywords
- sensor
- user
- computing device
- image
- state
- Prior art date
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F1/00—Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
- G06F1/26—Power supply means, e.g. regulation thereof
- G06F1/32—Means for saving power
- G06F1/3203—Power management, i.e. event-based initiation of a power-saving mode
- G06F1/3206—Monitoring of events, devices or parameters that trigger a change in power modality
- G06F1/3231—Monitoring the presence, absence or movement of users
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F1/00—Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
- G06F1/26—Power supply means, e.g. regulation thereof
- G06F1/32—Means for saving power
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02D—CLIMATE CHANGE MITIGATION TECHNOLOGIES IN INFORMATION AND COMMUNICATION TECHNOLOGIES [ICT], I.E. INFORMATION AND COMMUNICATION TECHNOLOGIES AIMING AT THE REDUCTION OF THEIR OWN ENERGY USE
- Y02D10/00—Energy efficient computing, e.g. low power processors, power management or thermal management
Description
201250519 六、發明說明: 【發明所屬之技術領域】 本發明大體係關於具有計算性能之裝置,且更# $ t 之,係關於用於感測在裝置局部附近的使用者之存在之裝 置及系統。 本專利申請案主張-申請且題為「存在感測 (PRESENCE SENSING)」之美國專利申請案第__號 的優先權,該美國專利申請案亦可藉由代理人案號 P11391USX1 (P222617.US.04)識別於美國專利及商標局 中,該申請案主張2011年8月26日申請且題為「存在感測 (PRESENCE SENSING)」之美國專利中請案第13/219,573 號、2011年5月12曰申請且題為「存在感測(pRESENCE SENSING)」之美國臨時專利申請案第61/485,61〇號及2〇1 i 年7月1曰申请且題為「存在感測(pRESENCE sensing)」 之美國臨時專利申請案第61/5〇4,〇26號的優先權所有該 等申凊案以引用的方式全部且為了所有目的而併入本文 中。 【先前技術】 許多計算裝置配備有意欲在使用者未使用裝置時減少電 力消耗之電力節省特徵/模式。$常,經由自使用者最後 人提供至裝置之輸入時倒計時設定量之時間的計時器實 施此等電力節省特徵。舉例而言,特定裝置可經組態以在 使用者在五刀鐘内尚未提供輸入時進入睡眠模式或消耗少 於完全操作模式之電力的其他模式。 I64140.doc 201250519 然而’有時,裝置可在使用者仍使用裝置之同時進入電 力卽省特徵/模式。舉例而言,因為使用者在閱讀裝置上 之内容、看電影或聽音樂之同時不能在針對計時器所設定 的時段内提供輸入,所以可進入電力節省特徵。另外,自 電力節省特徵/模式復原可能花費時間,可能甚至要求使 用者鍵入憑證,且對使用者而言一般可能為麻煩事。 【發明内容】 一實施例可呈一種操作一計算裝置以提供基於存在之功 能性之方法的形式。該方法可包括在一減少電力狀態中操 作該。十算裝置,及自—第__感測器或_群感測器收集一第 一組資料。基於該第一組資料,該計算裝置判定一物件定 位於該裝置附近之一機率或可能性。另外或或者,該計算 裝置可進行關於一物件之接近的硬決策,例如,其可判定 該物件是否在該計算裝置之__臨限距離内,且若該物件在 該臨限距離内及/或很可能定位於該裝置附近,則該裝置 啟動-次級感測器以收集一第二組資料。基於該第二組資 料,該裝置判定該物件是否為一人。若該物件為一人則 該裝置歡該人相對於該計算裝置之—位置,且基於 相對於該計算裝置之該位置執行該計算裝置的狀態之一改 變。若該物件並非-人’則該計算裝置保持處於—減 力狀態中。 另一實施例可呈一種用於刻中 .m ^ a 於判疋一使用者是否在一計算裝 置附近之方法的形式。嗜古、土 —上 、 该方法包括使用一影像感測器俘獲 一影像及自該所俘獲之影像計算下财之至少—者:一膚 164140.doc 201250519 色偵測參數、-面部備測參數、—身㈣測參數及一移動 偵測參數。該方法亦包括利用該膚色偵測參數、該面部價 測參數及該移動偵測參數中之至少一者進行關於一使用者 疋否存在的-判疋’且若判定_使用者存在,則改變該計 算裝置之一狀態。 在再一實施例中,提供一種計算系統,其具有一主處理 器及一耦接至該主處理器之存在感測器。該存在感測器包 括一影像感測器,及一耦接至該影像感測器之處理器,該 處理器經組態以處理一所俘獲之影像以判定一使用者是否 存在於該影像中。該影像感測器可經組態以俘獲3_D影 像、深度影像、RGB影像、灰度影像及/或等等,且該等 影像中之一或多者可用於一機率判定。其他輸入亦可貢獻 適用於該存在判定之資訊。舉例而言,諸如鍵盤、滑鼠及/ 或麥克風之輸入裝置各自可提供適用於存在機率判定之輸 入。若該處理器判定一使用者存在於該影像中,則一使用 者已判定為存在的一指示自該處理器發送至該主處理器, 且該主處理器基於該指示改變該計算系統之一狀態。 儘管揭示了多個實施例,但自以下實施方式,本發明之 再其他實施例將對熟習此項技術者變得顯而易見。如應認 識到’該等實施例能夠有各種態樣之修改,所有修改均不 脫離該等實施例之精神及範疇。因此,應將圖式及實施方 式在本質上看作說明性的而非限制性的。 【實施方式】 一般而言,本文中所論述之實施例係針對使用者存在判 164I40.doc 201250519 定及與其有關之計算裝置功能性。應暸解,可改良使用者 與配備有此功能性之計算裝置互動的體驗。此外,在一些 實施例中’可經由本文中所論述的實施例之實施實現電力 節省及/或電力效率。如本文中所使用’ Γ使用者」可大 體指(多個)人。然而’在一些實施例中,系統可經組態以 感測不同於人 < 物件,且基於物件之存在改變狀態。 一實施例可呈計算裝置之形式,該計算裝置經組態以感 測使用者之存在及/或不存在,且基於使用者之存在及/或 不存在提供操作狀態。在其他實施例中,該計算裝置可計 算且提供使用者存在或不存在之可能性或機率記分。在一 些實施例中,可在進行存在判定時聯合地判定、加權及使 用多個參數。此經加權之偵測可用於更知情(informed)的 更间階作決策演算法,或在融合來自不同感測器之資料時 使用。 舉例而言,在一些實施例中,計算裝置可經組態以基於 感測器輸入判定使用者到達或進入計算裝置附近之時間及/ 或使用者存在的機率。藉由機率計算,可減少假肯定及/ 或假否定。可實施達成所要效能之貝氏(Bayesian)最佳臨 限值。亦即,可按達成可接受數目個假肯定相對於可接受 數目個假否疋之間的所要平衡之方式設定觸I臨限值。回 應於使用者存在之青定判定,或在達到使帛者存在之臨限 機率後’I置可電力開啟、退出睡眠模式,及/或將某一 回饋提供給使用者。 大體而言’存在感測系統之—目標可為更智慧地使用技 164140.doc 201250519 術。举例而言’在—些實施例中,當判定使用者正接近 時,可起始系統喚醒。系統喚醒可包括一組減少之常式, 使得系統處於快於在習知電力開啟序列之情況中的操作模 式中舉例而§ ’歸因於該組減少之常式,系統可在半秒 非八至八私内電力開啟。在一些實施例中,計算裝置可 經組態關定使用者移㈣離裝置或離開裝置附近之時 間。作為回應,裝置可進入電力節省模式,諸如顯示器睡 眠模式、系統睡眠模式、勞幕保護器之啟動等等。此外, 系統可基於感測到使用者之存在而部分退出睡眠模式以 便加速電腦喚醒時間。在再其他實施例中’所顯示之内容 可基於使用者之相對位置。舉例而言,若使用者靠近裝 置,則裝置可提供產品細節,而在使用者在遠處時,裝置 可能無任何顯示。 在一些實施例中,裝置亦可經組態以追蹤使用者移動 (例如,位置及速度),且回應於某些移動,提供回馈及/或 進入或改變操作之狀態。舉例而言,朝向裝置之移動可啟 動更多特徵’諸如在使用者介面中提供更多選項/選單, 而遠離裝置之移動可減少可為使用者所利用的特徵之數 目’諸如減少選單/選項之數目及/或減小或增大所顯示的 選項之大小》另外或或者,顯示可基於朝向或遠離裝置之 移動放大或縮小。在一些實施例中,藉由使用者進行之側 向移動(例如,自左至右)可引起在裝置上所顯示的背景及/ 或螢幕保護器影像之改變。更進一步,影像之改變可大體 與所感測之運動對應。舉例而言,自左至右之移動可使影 164140.doc 201250519 像在左至右運動中由另-影像替換。或者,隨著使用者自 左至右移動,樹葉或窗簾可反映該移動。亦即,樹葉可能 被吹下且自左至右翻落下來,或窗簾可能按對應於所偵測 之移動的方式擺動。 此外,在-些實施例t,使用者之存在可與使用者相對 於裝置之位置-起用以提供某一功能性❶在一些實施例 中’輸入及/或輸出可基於位置。舉例而t,裝置可經組 態以提供指向使用者之位置的音訊立體聲水平移動(例 如,音訊操縱)。另外,在一些實施例中,可基於使用者 之位置實施麥克風操縱。 此外,可按分層方式實施複數個感測器及/或操作狀 態。亦即’在第-操作模式中,第__感測器可為操作性 的。移動或使用者存在之偵測可引起第二感測器之啟動等 等在☆實施例中,第二感測器之啟動可與裝置進入第 二操作模式同時,而在其他實施例中,直至基於單獨地自 第二感測器所擷取之資料或結合來自第一感測器之資料進 行判定,才可進入第二操作模式。 存在敎可藉由由-或多個感測器所㈣之資料進行。 在一實施例中,來自一或多個感測器之資料用以判定使用 者是否存在。舉例而言,可實施類神經網、支援向量機或 其他合適的分類器或機率判定器。在一些情況中,可故 集、分類且儲存—大組資料點,以用於在存在判定中使 用。此外’隨後獲取之資料可經添加且用於未來判定。 轉至圖式且最初參看圖卜說明計算裝置1〇〇。計算裝置 I64140.doc 201250519 100可一般包括可用於存在感測之一或多個感測器102。舉 例而言,可在存在感測中使用一或多個相機及/或光感測 器。儘管本文中大體關於存在感測論述相機及光感測器, 但應瞭解,亦可實施其他感測器類型,諸如超音波感測 器、微波RADAR等等。此等技術中之一些可用以判定在 人在裝置附近時之生理參數。舉例而言,RADAR可用以 偵測及/或定位在房間中之心跳。此外,可實施各種技術 及光之波長。舉例而言,可使用深度感測器判定接近度。 一些實例深度感測器技術可包括:聚焦及散焦、主動爪反 射能力、主動IR結構化光、主動IR飛行時間(2d +深度)、 主動IR飛行時間(單一像素感測器)、被動IR(運動偵測 器)、被動IR熱成像(2D)、立體視覺、偏光技術等等。在 一些實施例中,主動IR可使用多個特定以波長來偵測某些 獨特材料屬性,諸如人類皮膚之反射率或呼吸時的二氧化 碳排放。因而,本文中所描述之特定實施例僅作為實例呈 現且並非限制性。 圖2為圖i之計算裝置1〇〇之方塊圖。一般而言,計算 置包括微處理器/微控制器104,其他組件(例如,感測累 連接至微處理ϋ/微控制㈣4。微處理器/微控制器ι〇4 實施為-或多個低功率微控制器,及實施為用於來自感丨 =資料(例如’相機、接近度等等)以及用於高階使用: 存在作決策的㈣融合點q —些實施例中叫 定及與其有關之資料可經具體化㈣一 裝置之主操作隔離。亦即,藉由將存在感測資料與」 164140.doc 201250519 電腦處理單元(CPU)105、作業系統等等隔離,使用者存在 系統提供安全性及私密性。 多種合適感測器可將輸入/資料提供至微處理器/微控制 器104。特定言之,基於相機之感測器1〇6可與微處理器 104以通信方式耦接。可實施任何合適的基於相機之感測 器,且可利用多種不同技術。舉例而言,可使用可購自ST MiCr〇electronics之相機感測器。基於相機之感測器可包括 具有整合式處理器11 〇的提供面部偵測性能之全影像相機 108。亦即,感測器可具有嵌入式微處理器11〇,且可能能 夠估計面部位置及距離。另外,感測器可用於判定物件之 距離。相機108亦提供來自AGC系統之視窗直方圖資訊, 該資訊可用於運動偵測。 此外,相機108可具有高達或大於12〇度之水平視野及高 達或大於120度之垂直視野。在一些實施例中,諸如魚眼 透鏡之透鏡可用以達成具有大於12〇度之角度的視野。在 一實施例中,水平視野可在75_95度之間(例如,大致85 度),且垂直視野可在40-80度之間(例如,大致6〇度p可 在高達20呎或20呎以上之距離處偵測到面部。在一實施例 中,可在大致6-14呎處偵測到面部。面部位置資料可在大 致0.6 Hz至1 Hz之間利用,且AGC資料可按全圖框率(大致 10 Hz至 30 Hz)利用。 一般而言,藉由基於相機之感測器106所俘獲的影像及 有關原始資訊在基於相機之感測器之外可能不可利用。實 情為,可提供關於在感測器之功能範圍内是否偵測到面 164140.doc -11 - 201250519 部、面部之位置及/或面部在彼範圍内之移動的資訊。在 一些實施例中,相機感測器可提供指示使用者存在或不存 在之二進制輸出。另外,若使用者存在,則使用者相對於 裝置之位置可藉由基於相機之感測器輸出,例如,按 座標。此外,感測器可經組態以指示存在的面部之數目 (例如,指示存在的人之數目)。 在一些實施例中,可獨立於其他感測器實施基於相機之 感測器106 ,以達成用於裝置之所要操作特性。在_些實 施例中,基於相機之感測器可經組態以按分層方式操作及 提供輸出。舉例而言,在第一狀態中,基於相機之感測器 可感測使用者存在。若使用者存在,則基於相機之感測器 可進入第二狀態,且判定有多少人存在。隨後或同時,基 於相機之感測器可判定存在的人之位置。隨著相機自一操 作狀態移動’基於相機之感測器提供可由裝置用以改變裝 置之狀態的輸出,如下文將更詳細地論述。 一些實施例可使用主相機103來俘獲影像。主相機1〇3可 為藉由裝置之使用者用於視訊及靜態影像俘獲之系統相 機。在一些實施例中,主相機可與用於存在感測之相機分 開且相異(例如’在系統中存在多個相機),而在其他實施 例中’主相機輸出可藉由具有專用相機的基於相機之感測 器替代基於相機之感測器106來使用。舉例而言,在一些 實施例中,除了主相機之外,亦可實施基於深度之相機。 基於深度之相機可呈任何合適的形式。在一實施例中,主 相機輸出可提供至影像處理器107以用於由使用者使用, 164140.doc 12 201250519 二提供至基於相機之感測器1〇6的微控制器以用於使用 者存在谓測。存在關於影像處理器與使用者偵測 通信且使來自主相機之資料可為使用者利用的方式之不二 選項。舉,而言,當使用者不存在時,來自主相機之輸出 可主要地藉由微控制器處理以用於存在感測判定。在此狀 態中:可能-般不使來自相機之資料可用於系統之其他組 件。當使用者存在時,可將來自主相機之輸出提供至影像 處理器1071而,對於將可利用之影像資料/資訊,可能 要求使用者存取基於相機之應用程式(例如,視訊聊天應 用程式、影像俘獲程式,或其類似者)。否則,來自相機 之影像資料可能一般不可存取。 應瞭解’可存在允許使用一或多個相機以及習知相機及 影像處理功能性之所要存在感測的許多不同組態。舉例而 言,在一實施例中,可將主相機輸出投送至組合正常影像 處理功能與使用者存在偵測功能的單—晶I在其他實施 例中,可將自相機所輸出之視訊串流傳輸至主機以用於藉 由中央處理單元處理。 諸如接近度感測器112之第二感測器亦可連接至微處理 器104。在一些實施例中,控制器114、多工器116及一陣 列之發光二極體118可與接近度感測器112聯合地操作。詳 言之,控制器114可經組態以按分時多工(TDM)方式控制 多工器116及LED 118之操作。合適的濾波器可經實施以藉 由LED之TDM交替而獲得合乎需要之回應。在其他實施例 中’可使用機械裝置(例如,微機電裝置)來多工一或多個 164140.doc 13 201250519 LED以涵蓋離散視野。 LED 118可在任何合適的波長範圍中操作,且在一實例 中,可在電磁頻譜之近紅外線區域中操作。可將led中之 每一者(LED1-LEDN)指引至特定視野。在一些實施例中, 可將每一 LED 118指引至離散視野,而在其他實施例中, 鄰近LED之視野可重疊。在一些實施例中,該陣列之led Π8可圍繞計算裝置之表框散佈LED。在其他實施例中, LED陣列118可按一列組態(例如,跨越顯示器螢幕表框之 彎曲部分),其中該等LED經方向性定位以涵蓋不同視野。 在一實施例中,視野之平均值(例如,指示接近度之值) 可被獲得且用以判定在裝置1〇〇附近是否存在物件。若平 均值超過臨限值,則其可指示物件在裝置1〇〇附近。藉由 該陣列之LED 118之使用,接近度感測器可能能夠更準確 地偵測在寬視野上之接近度❶隨著將每一 LED指引至離散 視野,亦可使用接近度感測器112判定物件之位置。同 樣,在其他實施例中’可自假定之空場景判定接近度值之 改變。可跨越各種感測器查看最大改變(或某一等級),且 可比較此值與臨限值以判定接近度及/或位置。 在一些實施例中’基於相機之感測器1〇6及接近度感測 器112可聯合微處理器1〇4利用,以進行關於使用者是否在 計算裝置100附近之判定。分層式感測系統可經實施以(在 各目的及/或功能當中)提供電力節省’以改良使用者體驗 或提供特定所要的使用者體驗。詳言之,分層式感測系統 可包括操作第一感測器以最初判定在計算裝置之臨限距離 164140.doc 201250519 内使用者之存在,以提供電力節省。在—些實施例中,臨 限距離可在裝置100之2_1〇呎(例如,5呎)内。另外,在一 些實施例中,自第一感測器所收集之資料可用以判定使用 者之相對位置》 在分層式系統中,若使用者存在,則可啟動第二感測 器。來自第二感測器之資料單獨地或結合來自第一感測器 之資料可用以進一步識別使用者/人及/或使用者之位置。 來自第一感測器及第二感測器兩者之資料可一起用以進行 關於執行何功能及/或使用者正在進行何操作之判定。舉 例而言,T判定使用者與裝置之靠近程度;使用者是否正 面向裝置、使用者是否正移動遠離/朝向裝置;等等。此 外,資料可用以識別使用者(例如,作為信任的使用者卜 计算裝置100之狀態可基於使用者存在之判定而改變。 舉例而言,若使用者正接近裝置,則顯示器可喚醒、系統 可喚醒等等。若使用者正自左至右移動,則所顯示之影像 可改變且可一般對應於使用者之移動而移動。此外,若存 在多個使用者(如基於辨別多個面部之存在而判定),則可 對裝置刚通電至安全狀態,且裝置⑽可能需要使用者憑 證之鍵入以充分存取該裝置。 存在判定可基於在類神經網路、支援向量機(SVM)或其 他基於機器學習之分類器或機率決策系統中所利用的多個 因素。舉例而言’可藉由類神經網按加權之方式利用膚色/ 色彩、存在及移動’以進行存在判定。如上文所論述,基 於存在判定,裝置100可進入/改變操作狀態。 164140.doc •15- 201250519 應瞭解,用於使用的特定感測器之選擇將取決於廣泛多 種因素,例如,包括所要的功能性及電力消耗限制。= 而,在-些實施例中’可將基於相機之感測器1〇6實施為 第一層感測器,而在其他實施例中,可將接近度感測器 m用作第-層感測^下文提供用於實施諸如接近度感 測器112之接近度感測器的更詳細描述。 感測器112可按某一合適的頻率切斷光,且量測所傳回 的反射光信號之相移。LED 118輸出可為方形波或 形,且感測器m使用I/Q解調變方案H則器112到達 之光與正弦波及餘弦波混合,從而提供【(同相)分量及Q(正 交)分量。使正弦/餘弦波與led調變同步。此等為來自感 測器之「原始」輸出,若存在用於量測之不同内部方法, 則可將其轉換為此方案。在不損失—般性之情況中,可假 定週期2π,且在彼週期内發生積分。實務上可使用固定 週期,且固定週期將在該週期之某一大的倍數内積分。此 等差產生可忽略的固定比例因數,基本量測分量為: s(i) 至感測器之輸入信號 *·(ί)= =sm(t) · s{t) «(0 = =cos(t) · s(t) I = 彳 2·1Γ =/ i(t)dt /〇 Q - : Jo 若量測佔據整個視野的處於跖忒 处孓距感測态112恆定(徑向)距 離處之物件,則具有相移供及量值 置值J的冋一頻率之方形波輸 入信號產生/及0分量: 164140.doc 201250519 =λ4 · 广π+ψ J4> • sin(i)di =M · (- cos(;r + φ)+ cos(<f>)) =2 · M . cos(<ji) 且 Q — M · I · cos(t)dt J4> Q = M. (sin(7r + 0) — sin(炎)) Q — —2 · M · sin(<^) 接著可發現值φ為: t—Q、 φ = arctan(— ·* ο 接著可將Μ重建構為: 2·Μ = v/P+g2 假設在感測器之視野中存在兩個物件(A及B),其中每一 者處於恆定距離處,與此等距離相關聯之相移可表示為炉 及Ψ。反射信號的量值可定義為d及5。傳入之光信號在此 狀況中為附加的,且因此為積分,因此I為: I = A * / sin(i)dt + J3 ♦ / sin(t)dt j Φ I = 2 · (4 · COS⑷ + B · C〇s(0)) 。 類似地,對於Q : Q = A · I cos(i)di + β * / cos(i)dt Q = -2,(v4 . sin⑷ + JB . sin(分)) 164140.doc -17- 201250519 強度不隨時間而變化之光源將對/及0分量無影響❶此性 質提供良好的環境光排斥。歸因於自在不同距離處之物件 的相移,此性質亦提供取消。使用1/0方形波解調變,可 保留此資訊,但伴有較差的環境光排斥。此解調變方案將 導致稍有不同的數學,但最終結果將類似。對於以下内 容,將丟棄在//ρ前部之因數2,此係由於其吸收於其他比 例因素中。 可進行少許簡化’且提議用於隨在場景中之物件而變的 感測器輸出之基本模型。將開發離散狀況,此係因為其更 易於實施,但亦可實施其他狀況。led/感測器視野可分割 成#個區段(自1至#編索引)。此等區段中之每一者具有立 體角Ω,·»此外’此等立體角中之每一者具有固定反射比 P/ ’且處於固定徑向距離r,·處。又,來自LED之輸出跨越 給定立體角恆定,每球面度具有發射強度/"針對給定距 離之相移經定義為供(rz·)。 自此模型,可獲得在感測器處的自給定立體角之(人,0 ) 分配(contribution)。亦在//0空間中定義極座標系統為有用 的。將犯向量之量值定義為M,.,且已定義角度仍。
It = .Λ/i · cos(彡(π))
Qt = -,Aft. sin(沴(n)) (7m,0m)皆可定義為所量測之(原始)人反2值。可更添加一 項(/C,2c),以使其表示任何恆定串擾(電或光學)。最後: 164140.doc • 18 · 201250519
Im ~ I〇+ Σ r* 一般而言,為了本丨令# m l 疋使用者是否位於裝置附近,理解奘 置所位於之環境可兔古 解裝 兄了為有益的。此可幫助減少假 確地判定使用者進入志,目山# 疋且更丰 或退出裝置10〇附近之時間。衅而, 歸因於相對缺之藉由感測器112所提供之資生' 模型造成多個挑戰。為了定義有用之模型,可進行一= ,假定。最初,將解決針對單—感測器的模型之數學,接 著為多感測器狀況。 基本上’存在影響藉由某些附近感測器(諸如,感測器 112)所提供之距離量測的兩種類型之物件。存在可能未由 人擔著之彼等物件’且存在可能由人擋著之彼等物件。前 者將被稱作「前景」物件,且後者將被稱作「背景」物 件H取決於物件相對於人之定位方式’物件可屬於 兩個種類。目t,可將場景劃分成此等兩種類型之物件。 一般而·Τ,挑㉟為量測至㈣中之動態物件(諸如,進入 及離開之人)的距離。Α 了成功量測此等物件,產生用於 場景中的靜態物件之準確模型,且模型化其與動態物件之 關係。 最初’將(/ρ,ρρ)定義為與正量測之物件相關聯的信號。 (/«,及(/c,仏)可繼續分別用作所量測之(原始)值及串擾 值。 空場景 164140.doc -19- 201250519 一模型假定不存在前景或背景物件,且所有信號係歸s 於場景中之人。可按最純的形式來使用工廠校準/串擾 值:
Ip — Im — Ic Qp = Qm 一 Qc 此模型可用以產生距離輸出。對於不具有前景物件之場 景,此模型將始終高估距離》注意,此模型取決於在裝置 之壽命内準確的工廠校準值。其可能不說明歸因於污跡/ 等而添加之串擾。 一旦觀測到靜態偏移,則將其模型化為前景物件與背景 物件之某一組合。散佈此靜態偏移之方式的選擇強烈影響 及0P之估計。 僅前景 說明靜態偏移之一方式為假定其皆歸因於前景物件。歸 因於溫度或污跡的諸如串擾改變之效應屬於此種類。前景 物件按定義具有至信號之恆定分配,而與人之存在無關。 在純前景模型+,前景物件之空間散佈不相關_並非前景 之任何事物皆假定為吾人之感㈣的物件。將(^,⑸定 義為來自前景之信號。此模型暗示:
Ip = ~ Jfg "" Ic
Qp = Qm - Qfg - Qc 左意’(/α+/0 込)為所量測之感測器讀數在該場 景中無感興趣之物件。此為標準「基線減法」模型。 164140.doc
•20· 201250519 具有部分擋塞之均勻背景 對於此模型,假定背景處於均心離處且具有均勻的反 射率。進-步假定,物件垂直涵蓋視野。將隨角度之㈣ 下降定義為/(θ)。假^固^寬度w之單—物件對應於在固定 位置處之角剖面(angular seeti(>n)Ae〆將物件之中心位置 按角術語定義為θρ。 上文論述一般模型。對於此模型,面積完全為寬度之函 數,入射光係藉由/(θ)定義,且距離/反射比恆定但未知。 為了方便,定義: Η〇ρ,αθρ)
,且 R{9p,Aep) = l-L(ep>Aep) Ζ〈θρ; Δθρ)表示按由感興趣之物件所定義的立體角所指引的 來自LED之光的分數’ ZtQtal表示總的光輸出,且;^(0〆 表示投射在背景上的全部光之分數。 自吾人之感興趣之物件到達感測器的光之量值與 △θρ)成比例。吾人將定義比例常數為%,且與至吾人之感 興趣之物件的距離相關聯的相移為%。此給出:
Ip - Ρρ· L(6p, Αθρ) cos(^p) Qp = —/>p · L(0p,△〜)sin (必p)。 類似地,到達吾人之感測器的來自背景之光之量值與 164140.doc •21 · 201250519 Λ(θρ; Δθρ)成比例。將比例常數定義為,且與背景距離 相關聯之相位為外g。此對吾人給出: hg = Pbg · Λ(0ρ, Δ^ρ) . COS(^6e) Qbg — —pbg * R{〇p, Δ^ρ) · Sin(06g) 在求和後: ’m = /p -f Ibg -f Ic Qm = Qp + Qbg -f Qc 假定以下量測: /open = pbg * COS(^bfl) + I〇 •且
Qopen = —·如(如fl) + 。 若角度θρ及寬度>V已知且可假定,則可解出此方程組。 具有部分擋塞之均勻背景及均勻前景 對於此模型,開始於「具有部分擋塞之均勻背景」模 型,且建置於其上’添加均句且不具有對感興趣之物件之 空間上變化的效應之前景組件。由於前景分量不在空間上 變化且不受感興趣之物件之存在影響,因此將仏及八 義為前景物件的量值及相位。現在,對於前^
Tf9 = />/fl-C〇S(^/e) 且
Qfa = -Pfg · sin(0/ff) 此可簡單地添加至先前模型中,以得到: 164140.doc -22- 201250519 = /p + Ibg + Ifg + /〇 ,且
Qm = Qp + Qbg + Ifg 4- Q〇 0 假定在空場景中’可將其量測: ’°Ρβη = Ibg + Ifg 4* /〇 ,且
Qopen = Qbg + Ifg 4- Qc
O 與先前狀況相比,可更添加所估計之兩個變數。 分段之背景、均勻前景 此模型將水平視野分割成一系列區段丨.…$,其中每一 者經模型化為均句前景/均勻背景。添加上標S以表示變數 所屬於之區段。開始於背景區段’假定物件處於對應於角 剖面心及角位Μ的具有寬度 <場景中。分段地重新定 義及函數’以表示在受到感興趣之物#之擋塞後投射在背 景上的光之分數。其可被稱作V。 現在定義: ^bg = pig · Ba(0Pi Αθρ) . C0S(<f>lg) ,且
Qbg = -pig · Β.8(θΡί Αθρ). sin(^g5) o 由於前景信號不受場景中之物件改變,因此不存在分段 地將其模型化之需要。然而’跨越各區段,前景可在變化 之程度上擋塞感興趣之物件。可按多種不同方式來將此模 型化,其巾最、凊爽方式將為針對每一前景區段關聯「擋塞 因數」又,將Q義為自LED所輸出的全部光之照明 164140.doc -23- 201250519 在區段^感興趣之物件的分數。現在··
Ip = Pp'C〇s{4>p) J2 13(θρ,Αθρ)·Ρ3
Qp = -pP'Sm(4,p) Ls($p,Aep)-Fa 在均勻前景狀況中,對於所有區段,Fs等於1,且方程 式退回(collapse back down)至未分段之前景狀況。總之:
Jm = 7p + //fl+/c+ J2 Ug ,且
Qm = Qp+Ifg-{-Qc+ ^ Qlg
s=l...S o 此處,對於背景,每區段添加兩個變數,且對於前景擔 塞’每區段添加一個變數。來自前景物件之擋塞效應可忽 略’且接著僅添加外加的背景變數》 具有重疊視野之兩個感測器 可使用具有重疊視野之兩個感測器。僅考慮視野之重叠 部分’且查看在此區域中可發現何種類之資訊,假定每一 感測器具有其自己的Ι«(θρ; Δθρ) ’其中使%參考總座標系 統。此等可被稱作及Z2,且使用上標來表示感測器。進 一步假定該兩個感測器在其敏感性及LED輸出上可不同, 且對於在重疊視野中之同一物件之量測,此導致比例因數 誤差α。又’假定對於距感興趣之物件之距離及來自感興 趣之物件的信號量值的1Μ2關係。進一步假定物件具有固 定反射率ρρ及固定寬度w » 164140.doc -24· 201250519 注意,Ρρ、外、為兩個感測器量測結果之間的共同 值,且特定針對感興趣之物件。在^與仏之間存在良好定 義之關係·見本文中之實例章節》此處,α為兩個感測器/ LED之間的恆定敏感性差,其應在感測器之壽命内緩慢地 改變。藉由此等定義: == Ll(0P} ΑΘΡ) * ρρ - ~ . cos(0p) = 一(知,Δθρ) · ρρ · — * sin(必p) 1? = α • L2{0p^ Αθρ) φ Ρρ · ^ * ^^(Φρ) 1 Jp = -a · L2(6>p, ΑΘΡ) sin(<^p) 可用此等方程式代入背景僅部分擋塞模型内之&及&, 針對(0„)及(/„,g】)產生方程式。存在五個未知數: • α •Ρρ •Ψρ •Δθρ 另外’存在四個方程式,因此只要此等值中之一者已知 (或可假定)’則可能計算出其餘者。假定可進行對α及 良好初始猜測係合理的。舉例而言,一旦提供另一感測 益(諸如,基於相機之感測器1〇6),則可獲得針對心及%之 直接量測結果。不幸地,此等方程式為非線性的,因此可 能仍進行一些工作來展示在此等約束内存在唯—解。為了 164140.doc •25· 201250519 實現此估計處理程序,可利用多個估計方案中之任一者。 實例可包括使用延伸式卡門濾波器(Kalman filter;)、sigma 點卡門濾波器或直接估計。 背景僅部分播塞模型之實例實施 抵靠白壁成像藉由10度LED感測器112所投射之下降。 其水平投影之下降大致為高斯’具有粗略地12度之標準偏 差。將原型置放於相對暗的空房間中地板上方約3 5呎 處,在12呎處具有背幕。 藉由涵蓋感測器112之黑毛旌隔板量測串擾。藉由反射 性隔板量測零相移。俘獲正常的「開放」背景。藉由人站 在按距感測器112向外1呎增量(在自L E D向外偏移〇度處)至 10呎處來收集感測器資料。在5呎之徑向距離處,按5度增 量自_15度至+15度收集感測器資料。毛氈量測結果可被稱 作(/c;仏),此係由於其基本上量測串擾。反射性隔板量測 結果可被稱作(/〇; ρ〇),且開放量測結果可被稱作 。最後,藉由場景中感興趣之物件的原始量測結果 可破稱作(/m; ,且感興趣之信號的待估計物件可被稱 作(4; 0P)。假定上文所提及之高斯散佈來模型化 △ej,其特定形式變為: L(0P, ΔβΡ) = 0.5 - ^erf(^ . {θρ + . {θρ _ ι 其中「erf」為誤差函數。又定義: 必〇 = arctan (―^) 164140.doc -26 - 201250519 φρ = :arctan(^) dp = Ί . {Φ〇 — Φρ) I Δ$ρ = =2.arctan(l) 其中A自相位差值至距離之轉換’且假定具有2呎之寬度 的人’計算Δ1。現在,可設置方程組: ^ = + (1.0(/open -/c)+/c ,及
Qm = Op + (1.0 - L(0Pt Αθρ)). (Qo^ - Qc) + Qc
I 其中使用以上用於岣及他;岣)之方程式來表達娜; △~)。將&作為已知值對待,且在數字上解出非線性方程 式組。具有真實資料之結果展示於圖3及圖4之曲線中。在 圖3中,線120表示無校正’且線122表示經校正之資料。 在圖4中,線130表示無校正,線132表示經校正之資料, 且線134表示真實距離。 藉由針對具有各種背景模型之單一感測器112的數學, 可將多個感測器組合至整合式位置模型中。如上文所提 及,可在一實施例中實施多個接近度感測器。在其他實施 例中,可按TDM方式使用多個lED以提供所要視野。整合 基於相機之感測器應允許估計所有感興趣之參數。 圖5說明用於按分層方式利用多個感測器改變裝置之狀 態之方法300。最初,裝置可處於減少電力消耗模式(諸 如,睡眠模式)中,且控制器可自第一感測器接收資料(區 塊302^處理所接收之資料(區塊3〇4)且將其與臨限值相比 164140.doc -27· 201250519 較(區塊306)。與臨限值之比較允許關於使用者是否存在或 很可能存在之判定(區塊308)。若使用者不存在,則可繼續 自第一感測器接收資料(區塊302)。然而,若判定使用者存 在或很可能存在,則可致動第二感測器(區塊31〇)且自第二 感測器接收資料(區塊312)。處理來自第二感測器之資料 (區塊314)且將其與來自第一感測器資料之資料組合(區塊 316)。來自第一感測器及第二感測器的資料之處理可包括 (但不限於)對資料執行數位信號處理(諸如,濾波資料 '按 比例調整資料及/或大體調節資料),使得其適用於存在判 定。另外,來自第一感測器及第二感測器的資料之組合可 包括將資料一起儲存及/或邏輯或數學組合資料。 使用來自第一感測器及第二感測器的資料來計算使用者 存在值及/或使用者存在記分之機率(區塊318)。比較使用 者存在值及/或使用者存在記分之機率與臨限值以判定使 用者是否存在(區塊322)。此外,若判定使用者存在,則可 判定其他參數,諸如使用者相對於裝置之距離及位置(區 塊324) ’且可改變裝置之狀態(區塊326)。狀態改變可包括 使裝置自睡眠模式至喚醒模式,或其他合適的狀態改變。 另外,應瞭解,其他參數(例如,距離、位置等等)之判 定以及裝置之狀態的改變可發生在僅基於第一感測器資料 的使用者存在之肯定判定後,如藉由自區塊3〇8之虛線所 指示。 此外,基於自第二感測器所提供之額外資訊,使用者存 在之第二判定(區塊320)可比第一判定(區塊3〇8)準確。此 164140.doc •28· 201250519 外’如上文所提及,可基於來自第一感測器及第二感測器 兩者的資料之組合判定額外參數。 應瞭解’其他實施例可實施比方法3〇〇多或少的步驟。 圖ό至圖11說明用於存在判定的方法之更詳細流程圖。 轉至圖6,說明存在感測之流程圖200得以說明。最初, 使用相機來獲得影像(區塊2〇2) ^可進行光位準判定(區塊 204) ’且將其提供至膚色偵測常式(區塊2〇6)。視情況,在 一些實施例中,亦可將光位準判定提供至其他常式,如藉 由箭頭203所指示。另外,可預處理所俘獲之影像(區塊 2〇8)。在一些狀況中’預處理可包括(例如)影像之按比例 縮小、改變影像之色空間及/或增強影像。亦可執行其他 镇測器特定預處理(區塊214、2 15及217)。舉例而言,影像 在提供至膚色偵測常式(區塊2〇6)前可視情況藉由在區塊 2 14中之預處理而變模糊。另外,在區塊215中之預處理可 包括在將影像提供至面部偵測常式(區塊21〇)前將色彩改變 成灰度,及/或在將影像提供至移動偵測常式(區塊212)前 在區塊217之預處理中執行邊緣偵測。深度影像可藉由將 其分區段來預處理,且經分區段之部分可作為輸入提供至 偵測器。下文參看圖7至圖11更詳細地論述膚色偵測常 式、面部偵測常式及移動偵測常式。 可使用融合及偵測邏輯加權且組合膚色摘測常式、面部 傾測常式及移動偵測常式之結果(區塊216),且判定使用者 存在分類(區塊218)。融合及偵測邏輯可包括類神經網路、 支援向量機及/或某一其他形式的基於機率機器與 ^ 干為之决 164140.doc -29· 201250519 算法的使用’以達到使用者是否存在之判定。圖7將膚色 偵測常式(區塊206)說明為流程圖,其開始於低光判定(區 塊204)。應瞭解,可按多種不同方式利用低光判定以影響 影像之處理。舉例而言,在一些實施例中,可將低光判定 作為向量提供至類神經網路,而在其他實施例中,可使用 低光判定來選擇待使用的特定類型之歸類器。亦即,若判 定並非在低光中拍攝影像,則可產生特徵向量(區塊22〇), 且應用第一像素分類器(區塊222)β若在低光中俘獲影像, 則可產生一組不同的特徵向量(區塊224),且可應用第二每 像素分類器(區塊226)。可選擇性地提供特徵之類型(例 如’色知轉換等等)以達成所要結果’且取決於低光判 疋,特徵之類型可不同。另外,第一每像素分類器與第二 每像素分類器可基於低光判定而不同。舉例而言,第一分 類器可為7-5-2多層感知器(MLP)前向饋入類神經網路每像 素分類器,而第二分類器可為2_12_2 MLP前向饋入類神經 網路每像素分類器《在一些實施例中,分類器可實施於具 有GPU之開核中,以幫助使處理程序加速。 來自刀類之輸出可為機率(例如,在〇與1之間的值), 其指示影像包括膚色之機率。可視情況將形態學濾波器應 用於影像(區塊228),且可計算平均灰度階(區塊230)。此 外’在判定歸因於膚色偵測的使用者存在之機率(區塊238) 前’可應用非線性按比例調整(區塊232)、時間佇列滤波器 (區塊234)及箝位(區塊236)。 圖8將面部偵測常式(區塊21 〇)說明為流程圖,其開始於 164I40.doc -30- 201250519 應用面部偵測器(區塊240) ^可實施任何合適的面部偵測器 (諸如,Viola-jones級聯面部偵測器),其提供指示面部存 在之可旎性的機率記分。接著按比例調整面部存在記分 (區塊242),且視情況可應用間歇偵測閃光濾波器(區塊 244)以使影像變平滑。應瞭解,在一些實施例中,(諸如) 在相機具有相對良好的品質之情況中,可自該處理程序省 略變平滑。閃光濾波器可包括時間佇列濾波器(區塊246)、 自平均值的正規化之記分偏差是否小於臨限值之判定(區 塊248)及接著使輸出值與按比例調整之記分相乘(區塊 250)。在判定歸因於面部偵測的使用者存在之機率(區塊 256)前’應用時間佇列濾波器(區塊252)及箝位(區塊 254)。身體偵測器或身體感測器可經組態以遵循與面部偵 測器之流程相同的流程或類似的流程。此外,可使用具有 比用於面部偵測器之解析度低的解析度之影像感測器實施 身體偵測器》 圖9將運動偵測常式212說明為流程圖,其開始於收集多 個圖框’且因而,可實施記憶體以儲存該多個圖框。舉例 而言,可利用三個圖框’一個當前圖框及兩個其他圖框。 在圖9中所說明之實施例中,使用一個當前圖框及兩個後 續圖框。最初’將輸入圖框依序延遲k個圖框(區塊260、 262),且向前饋入以與第二延遲之輸出(區塊262)加在一起 (區塊264)。使區塊260之輸出乘以2(區塊266),且判定加 法器(區塊264)與乘法器之輸出(區塊266)之間的差(區塊 268)。接著判定(區塊270)、按比例調整(區塊272)每像素 164140.doc 201250519 内積’且箝位像素(區塊274)。計算平均灰階(區塊276)、 執行非線性按比例調整(區塊278)、應用時間佇列濾波器 (區塊280),且箝位至[〇,1](區塊282)。最後,判定歸因於 移動的使用者存在之機率(區塊284)。 可適用於運動偵測常式中之一些參數可包括自動對焦 (AF)視窗統計或水平邊緣或sobel/Sharr邊緣、2〇色彩直方 圖資料 '分量直方圖資料、色彩含量的自動白平衡/自動 曝光(AWB/AE)視窗統計等等。可實施一些預處理步驟以 用於運動偵測’諸如Y通道(強度)、藉由S〇be丨抑或Scharr 渡波器所計算之梯度量值(累積梯度以用於恰當正規化)、 臨限值梯度量值(按邊緣像素之計數的正規化)、在色度 (Cr,Cb)空間中的皮膚機率、前述内容中之任一者的子影 像等等。在一些實施例中,運動偵測可包括計算影像質心 之此力。將自當前圖框之質心至先前圖框之質心的距離用 作運動量之量測,且應用硬臨限值以產生二元偵測或運 動。因此,舉例而言,γ,強度、邊緣梯度量值、二元邊緣 抑或皮膚機率影像的質心位置之改變可指示運動。敏感性 與穩固性折衷可規定正使用的參數之特定組合。舉例而 S,皮膚機率影像可與邊緣梯度一起使用,且二元邊緣可 用以提供對光照改變之穩固性。皮膚機率可藉由如上文所 提及之類神經網路或者使用自動白平衡色空間濾波器近似 .此功能性來執行。 用於感測運動之一些實施例可參考梯度影像之皮膚偵測 的視窗統計》—實施例可查看總計(global sum)之改變。 164140.doc -32· 201250519 詳言之’在整個圖框上對影像求和以產生純量值s[i],其 中i為當前圖框索引《維持過去的N個值之佇列:S = {s[i-1], s[i-2],…s[i_N]}。將 Sl,n表示為自 s[i-L]至 s[i-N]之序列, 且將此等值之極值計算為u=max(SL,N)及v=min(SL,N)。運動 里係藉由在此範圍外之變化範圍(exeursi〇n)判定:e=max (s[i]-u,v-s[i])。若e超過預定臨限值,則偵測到運動。 在一些實施例中,可藉由單一圖框實施運動偵測常式, 且由此’可使用極少或不使用記憶體,此係由於將不儲存 全部圖框。在一些實施例中,可將影像(單一圖框)劃分成 統汁可被計算之視窗。針對視窗的統計之改變可用以判定 使用者之運動以及位置。 圖10說明可針對單一圖框運動偵測將影像劃分成的視窗 之可能集合。特定言之,圖1 〇展示為了統計目的劃分成非 重疊視ij及同心視曲兩者之單一圖框。在每一狀況中,考 慮影像之明度(在頁面頂部之圖框)及影像的強度梯度量值 (在頁面底部之圖框)。舉例而言,影像3〇〇可劃分成多個非 重疊曝露統計視窗302。或者,影像3〇〇可劃分成多個同心 重疊曝露統計視窗304。可基於明度影像(如在影像3〇〇中) 或基於強度梯度量值影像306判定每一視窗之統計。 當计算梯度量值之總和時,視窗之使用提供運動之更穩 固俘獲。關於重疊矩形視H施例包括人個同心配置 之矩形’最大者含有整個圖框且最小者在影像中居中。因 此,在圖框i處,圖框之總和為Sj⑴,其中hU,2 。 將處於矩形之間的像素纟中之總和作為此等總和之差計 164140.doc •33· 201250519 夕h藉由條之高度hj(其大致與其面積成比例)使差正規 化。 接下來使用和列叶算在先前N個圖框上的差七之極值 U、V(最大及最小),且變化範圍力=_ (仙卜,V4⑴)。 比較每-變化範圍ej與臨限值,提供在圖框之區域j中的運 動之指示符。光照之細微改變可產生假肯定偵測。真實運 動通常與在人個區域中之兩者或三者中的偵測相關聯。因 此在#•實施例中,需要偵測運動之至少兩個區域以用 於已在圖框中销測到運動之判定。另夕卜,光照之大的改變 (諸如’開啟或關閉房間燈)常常產生展示運動偵測之許多 區域…匕’若三個以上區域已债測到運動,則可抑制偵 測。可基於體驗或為了提供所要的敏感性及穩固性等級來 調整此等設計參數。 圖11為說明使用具有非同心視窗302之單一圆框3〇〇的運 ^貞測常式之流程圖。在―些實施例中,每—統計視 窗可具備唯—的分析管線(pipe)。亦即,刊時處理每一 視窗》在其他實施例中’可在共时.析管線中依序處理一 或多個視窗。如本文中所使用,「分析管線」可指與視窗 之統計分析;^目β㈣的處理步驟,且可包括時时列滤波 如上文所論述,可將影像300劃分成統計視窗3〇2,且可 針對每-視窗計算平均統計(區塊31〇)。可將時間仵列遽波 器應用於平均統計(區塊312),且可計算自短期過去行為之 164140.doc •34· 201250519 變化範圍值「e」(區塊3 14)。可比較變化範圍值與臨限值 以判定其是否超過臨限值(區塊316)。針對超過臨限值之每 一變化範圍值保持正規化s十數(區塊318),且若正規化計數 超過表決臨限值(區塊320) ’則判定已偵測到運動(區塊 322)。若判定尚未偵測到運動,則可自(多個)第二感測器 收集額外資料。另外,在某一所判定量之時間流逝後,裝 置可返回至減少電力狀態且(多個)第一感測器可收集資 料。 ’ 亦可使用變化範圍值來產 、121 现:ί24) 〇 可非 線性地按比例調整概括統計(區塊326),且可 記分(區塊叫…般而言,區塊322將提供指示== 運動之二進制1或0輸出,而區塊328將提供在〇與丨之間的 值,該值指示已在影像300中偵測到運動之可能性。 如可瞭解,在前述常式中之每一者中可利b用類神經網 路、支援向量機(SVM)或其他分類系統以進行關於使用者 之存在的判定。另外,纟自常式中之每一者的機率 獨地足夠進行使用者存在之判定,例如,若值高於竿—臨 限值。此外,在—些實施例中,I自常式中之每-者的機 率之組合可在判定使用者是否存在時使用。在_ 中,可能不使用常式之輸出,此係由於其有效性W有 遞。舉例而言,歸因於光照,膚色偵測常式可能不可靠 = ’:Γ權方式組合自常式所輸出之機率(例如,可 基=率比其他者準破之可能性對其提供更大叫 本文中所描述之實施例可經實施以減少計算裝置(諸 164140.doc •35- 201250519 如,筆記型電腦、桌上型電腦等等)中 之,甚至當裝置在低電力狀態(諸如,冬眠或^耗狀= 時,计算裝置仍可提供存在感測功能性,使得在使用者存 在時裝置可電力開啟,且在使用者離開時裝置可電力斷開 或進入減少電力狀態。此外,該等實施例可經提供以藉由 提供直觀的電力開啟及電力斷開操作以及安全特徵來改良 計算裝置之使用者體驗。 可實施分層式系統,其在低電力操作中排除主處理器及 RAM之使用。舉例而言,在—實施财,最低電力狀態可 僅實施相機、影像信號處理(ISP)裝置及可即時計算存在值 之嵌入式處理器。在下一層中,可開啟面部债測器晶片及 RAM。在後續層中,可對系統處理器及其他資源通電。 因此’在上文針對運㈣測所描述之實财,先前圖框 之記憶體限於藉由ISP所計算之統計,且限於可在嵌入式 處理器暫存器及快取記憶體中利用的空間(例如,叫,此 係由於RAM可能不可利用。另外,應瞭解,在存在感測常 式外’存在感測資訊(例如,統計、影像等等)不可利用。 亦即’例如’ 4 了存在感測所俘獲之影像可能不被使用者 檢視。 在-些實施例中,可利用身體偵測參數H貞測參數 可類似於面部偵測參數,但基於人類身體之大型特徵而非 可證實面部之較小特徵。舉例而言,身體谓測參數可與辨 別手臂ϋ幹、頭部等等有關。由於其係基於較大特 徵’因此相對於用於面部㈣的相機之較低解析度相機可 164140.doc
S •36· 201250519 丄實施’且達成作為身體感測器之合理的良好結果。此 外,在-些實施例中,相機在用以獲得身體该測參數時可 在低解析度模式中操作,且在用於其他目的時可在較高解 析度模式中操作。實際上,同一相機可用於身體偵測參數 及面部读測參數兩者。應瞭解’可按與面部摘測參數相同 的方式使用身體债測參數來判定存在之機率。此外,身體 偵測參數可為指示已偵測到身體之機率的參數。用於 偵測器之資料可為深度影像、灰度影像、RGB影像,或前 述類型之料中之任—者(單獨或結合另―類型之影像;。 在二實施例中,可實施許多不同的感測器及輸入。多 個不同的感測器及輸入可幫助增加準確度及存在感測器減 少假肯定及假否定之能力。在一實施例中,可實施貝氏據 波器。特定言之,可基於機率資料融合執行回歸貝氏估 計。圖12為說明使用多個同時非同步感測器來判定使用者 存在的機率之方法350的實例流程圖。在流程圖之頂 近為多個感測器352。特定言之,感測器可包括視 機354、3_D攝影機356、麥克風358及鍵盤暮應瞭解丫 此僅為-實例,且在實際實施中可利用或多或少以及 的感測器、舉例而言,可各自利用觸控式螢幕、軌跡塾^ ί月咏。感測器352中之每一者可同時操作。 不同感測器3 5 2中之每一者可經組態以俘獲某些特徵。 亦即’每-感測器具有將-些有用的資訊提供至;定 中之性能。感測器資訊之組合提供資訊之综效, 之組合比在單獨使用時來自每—感測器之資訊有用及蜮 164I40.doc •37- 201250519 準確。特定言之,除了判定使用者存在之可能性之外,來 自感測器3 5 2之資料亦可用以判定在3 _d空間中使用者之實 際位置及使用者的速度。按穩固型式組合所獲得之資料以 提供感測器資訊與運動模型之先驗預測的綜效。資料融合 最佳地將模型預測與所觀測之感測器資料融合,從而與彼 資訊之確定性(品質)成比例加權每一分量對所估計之狀態 的影響(使用者之位置及速度)。因此,若運動模型準確且 感測器資料為有雜訊的,則可相對於感測器資料更重地加 權模型預測,且反之亦然。基於系統中之演進機率連續調 適模型與所觀測之資料的此組合(例如,如由可能性模型 所計算的加權經常地更新)。 可自藉由感測器所提供之資料提取的一些實例特徵提供 於流程圖中。特定言之,視訊攝影機可提取諸如3_D斑 點、面部及身體偵測以及運動向量之特徵(區塊37〇) ^ 3_d 斑點可表示在攝影機之視野内的物件。3_D攝影機356可經 組態以亦提取面部偵測、身體偵測及運動向量(區塊372)。 麥克風3 5 8可經組態以提取音訊加速度及新穎偵測(區塊 374)。鍵盤360可經組態以提取按鍵偵測(區塊376)。音訊 加速度特徵可利用都卜勒效應判定物件是否正接近或退 卻。另外,新穎偵測特徵可設法發現可指示使用者之存在 的背景雜訊改變。舉例而言,音量之增加可指示使用者之 存在。 一旦已提取特徵’則判定觀測可能性(區塊178)。亦 即,所提取之特徵中的每一者可用以判定感興趣之物件 164140.doc -38-
201250519 (例如,使用者)存在的可能性。接著使用觀測可能性來更 新狀態表示(區塊182)。狀態表示利用資料之融合。可產生 狀態表不(區塊184)〇在一實施例中,狀態表示可呈直方圖 之形式。其他實施例可包括參數高斯散佈(卡門濾波器)、 基於蒙地卡羅(Monte-Carlo)樣本之散佈(依序蒙地卡羅方 法/粒子濾波器)、混合非同步多觀測粒子濾波器等等。狀 態表示可呈現與使用者存在計算有關之資訊。舉例而言, 狀態表不可呈現與(多個)使用者之3_D位置及(多個)使用者 之速度有關的資訊。運動模型(區塊188)可輸入在狀態表示 中所使用之資訊,且亦可接收來自狀態表示之資訊。運動 模型為模型化使用者之移動的狀態演進表達。狀態表示可 用於統計計算(區塊186)中,統計計算可判定使用者之存在 的機率。另外,統計計算可估計使用者之位置及估計之方 差。 狀態表示亦將資訊提供至量測模型(區塊180),且可將 量測模型提供至觀測可能性判定(區塊178)。量測模型可一 般按比例調整感測器之各別觀測。特定言之,由於可對感 測器之相對觀測提供或多或少權數,因此可應用模型以幫 助提供應得更大權數之彼等觀測。舉例而言,可對按鍵之 觀測提供比3-D斑點之觀測大的權數。另外,若感測器有 雜訊,則可對其提供較小權數。將量測模型中之每一者用 於觀測可能性步驟中,又使用觀測可能性步驟來更新狀態 表示(區塊182)。 存在感測之實施可提供計算裝置之增加的智慧行為。亦 164140.doc •39- 201250519 即,計算裝置可能能夠更好地預期使用者互動,且可提供 改良之使用者體驗。舉例而言,在使用者存在之同時,顯 示器可不暗,但在使用者離去後,顯示器即可關閉。另 外’可基於使用者距裝置之距離按比例調整及/或改變顯 示器輸出。諸如樹葉跨越螢幕吹落以模仿所感測之移動的 其他直觀及經驗特徵可增加使用者的智慧及互動感覺。 前述内容描述用於感測使用者之存在之一些實例實施 例。儘管前述論述已呈現特定實施例,但熟習此項技術者 將認識到,在不脫離實施例之精神及範疇的情況中,可進 行形式及細節之改變。舉例而言,可實施制於存在感測 的演算法中之一或多者之修改。在-實例中,硬體限制可 驅動演算法改變。因此’本文中所描述之特定實施例應被 理解為實例,且並不限制其範疇。 【圖式簡單說明】 圖1說明具有使用者存在感㈣能之㈣計算裝置。 圖2為圆1之計算裝置之方塊圖。 圖3為展示在感興趣之物件 處時的存在感測結果之曲線。、+在感測器不同距離 為展示在感興趣之物件自感 在感測結果之另H 移肖度時的存 的流程圖 圖6為說明用於判定使 7為說明用於在在“存在之方法的流程圖 圖5為說明用於操作分層式存在 程圖。 · ’〗盗系統之實例方法 圖 164140.doc 7為說明〜感測中使二:二 201250519 程圖。 圖8為說明用於在存在感測中使用的面部辨識常 ^之流 程圖。 圖9為說明用於在存在感測中使用的運動偵測常式之流 程圖。 圖10說明劃分成用於單一圖框運動偵測的視窗之圖框。 圖11為說明用於單一圖框運動偵測之實例方法的流程 圖。 圖12為說明使用多個同時非同步感測器判定使用者位於 裝置附近的機率之實例方法的流程圖。 【主要元件符號說明】 100 計算裝置 102 感測器 103 主相機 104 微處理器/微控制器 105 主電腦處理單元(CPU) 106 基於相機之感測器 107 影像處理器 108 全影像相機 110 整合式處理器/嵌入式微處理器 112 接近度感測器 114 控制器 116 多工器 118 發光二極體/led陣列 164l40.doc 201250519 120 線 122 線 130 線 132 線 134 線 203 箭頭 212B 運動偵測常式 300 影像/圖框 302 非重疊曝露統計視窗/非同心視窗 304 同心重疊曝露統計視窗 306 強度梯度量值影像 352 感測器 354 視訊攝影機 356 3-D攝影機 358 麥克風 360 鍵盤 164140.doc -42-
Claims (1)
- 201250519 七、申請專利範圍: 1· -種操作-計算裝置以提供基於存在之功能性的方法, 該方法包含: 在一減少電力狀態中操作該計算裝置; 自至少一感測器收集一第一組資料; 基於該第一、组資料判定一感興趣之物件在該計算裝置 附近的一機率; 基於相對於該計算裳置之該物件之部分選擇性地 該計算裝置的狀態之一改變; 若該機率超過—臨限位準,職動至少〜欠級感測器 以收集一第二組資料;及 D 基於該第-組資料及該第二組資料判定該物件 的一機率; 若該物件經判定為一人: 選擇性地判定該人相對於該計算裝置的-位置及— 距離中之至少一者;及 一基於該人相對於該計算裝置的存在及位置中之至少 一者執行該計算裝置的狀態之一第二改變。 〆 一月长項1之方法’其中該至少—感測器及該至少 一感測器包含同—感測器。 3·如凊求項2之方法,其中該感測器在-第-模式中作為 該至少一咸、、目丨丨哭為 次級冗 作’且在―第二模^作為該至少- ••人級感測器操作〇 4.如請求項3之方法’其中該第二感測器包含-基於影像 164140.doc 201250519 之感測器,其中該第一模式包含一低解析度模式,且該 第二模式包含一較高解析度模式。 5.如請求項1之方法,其中進行狀態之一改變包含下列中 之至少一者: 改變一顯示器背景/螢幕保護器移位,其中該移位對應 於使用者之移動; 使該顯示器進入一喚醒狀態; 使該裝置進入一喚醒狀態; 在使該裝置進入一喚醒狀態時減少處理程序之一數 i ; 藉由在偵測到一人時修改通常的逾時來將該裝置維持 於一作用狀態中; 基於人之位置音訊操縱; 基於使用者位置麥克風操縱;及 修改使用者介面,使得若該使用者遠離,則提供一組 較小的使用者選項。 6_如請求項5之方法,其中若該裝置已喚醒且偵測到該使 用者移動遠離該裝置,則該裝置經組態以: 將顯示器狀態改變至一睡眠狀態;或 將裝置狀態改變至一睡眠狀態。 7. 如請求項1之方法,其進一步包含使用組合式感測器資 料以使用一類神經網或一支援向量機來判定存在。 8. 如凊求項1之方法,其進一步包含進行關於該物件是否 在該裝置之臨限距離内的一硬決策。 164140.doc -2 - S 201250519 9 _如請求項1之古 法,其進一步包含使用組合式 料以使用一庸Α σ式汉測器資 一 膚色判定、一存在判定及一移動判定中 加權方式進行該存在判定來判定存在。 10. 如請求項1之古 -滑“二 該至少一感測器包含-鍵盤、 或麥克風中之至少一者。 11. 如請求項1 方法,其進一步包含使用組合式感 料以使用—祐田& 入级測資 在。 使用者距該$置的—所判定距離來判定存 12. 如請求項丨之方法其 穿置附W认 步匕3為了女全性判定在該 、 的面部之一數目,其中 P气紛4、♦丄 六τ女王性係藉由部分電力 開啟或電力開啟至一 电刀 之憑證來提供。 運步存取 13. 如請求们之方法’其中該至少 測器。 α判15包含—身體感 14. -種用於判^ —使用者是 該方法包含: 卞异裳置附近之方法, 使用一影像感測器俘獲一影像; 者使用-處理器自該所俘獲之影像計算下列中之至少一 一身體偵測參數;及 一移動偵測參數; 利用該身體_參數及該移動相參數中之至少 進行關於一使用者存在的一機率之—判定; 若該機率指示一使用者之存在, 许在則%作一深度估計器 I64I40.doc 201250519 以判定該使用者距該裝置之距離小於一臨限值之一可能 性;及 若該可能性超過一臨限值,則改變該裝置之一狀態。 15. 如請求項14之方法,其進一步包含計算一膚色偵測參數 及一面部偵測參數,其兩者在進行關於一使用者是否存 在之該判定時被利用。 16. 如請求項15之方法,其進一步包含·· 計算該膚色偵測參數、該面部偵測參數、該身體彳貞測 參數及該移動參數中之每一者;及 將該等參數相對於彼此加權,其中該膚色偵測參數比 其他參數少地被加權。 17. 如請求項14之方法,其中使用一單一圖框計算該移動偵 測參數^ 18. 如請求項17之方法,其進一步包含: 將該影像劃分成視窗;及 針對該等同心視窗計算統計,其中至少兩個視窗之改 變指示該影像中之移動。 19. 一種計算裝置,其包含·· 一主處理器; -存在感測器系統’其耗接至該主處理器包含: 至少-影像感測器,其經組態以俘獲一影像; -處理器’_至該影像感測器,該處理器經 態以處理該影像以藉由計算下財之至少—者判定一 用者位於該裝置附近的—機率: 164l40.doc -4· S 201250519 一身體存在參數; —移動參數; 一膚色參數;及 —面部偵測參數; 其中若該機率超過一可能性臨限值,則一使用者已判 定為存在的一指示自該處理器發送至該主處理器,且該 主處理器基於該指示改變該計算系統之一狀態。 20. 如研求項19之計算裝置’其中該存在感測器經組態以接 收來自至少一額外輸入裝置之輸入,且自該至少一額外 輸入裝置所接收的資料用於該機率判定中。 21. 如印求項20之計算裝置,其中該至少一額外輸入裝置包 含下列中之一者: 一額外影像感測器; 一鍵盤; 一觸控式螢幕; 一執跡塾; 一麥克風;及 一滑鼠。 22·如請求項之計算Μ ’其中該等感測器及該等輸入裂 置中之一或多者同時操作。 23·如請求項21之計算裝置’其中該影像感測 器及該額外影 像感測器中之至少-者包含-深度感測器。 24.如請求項23之計算裝置,其中該影像感測 益及s玄額外影 像感測器兩者同時操作。 164140.doc 201250519 25·如請求項21之計算裝置,其中該裝置之該狀態僅基於來 自該等感測器中之一者的資料而改變。 26.如請求項25之計算裝置,其中該狀態之該改變包含:進 入一暖機狀態。 27. 如請求項19之計算裝置,並由沖_ —妝印 罝其中改變該裝置之該狀態包 含:在偵測到一使用者時將兮驻 吁將該裝置維持於一作用模式 如請求項27之計算裝置 罝其中改變該狀態包含.户土 /J到其他輸入時停用用於勞 .在未 之 睡眠中的一者。 勞幕變暗之-逾時或該裝置 164140.doc
Applications Claiming Priority (4)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US201161485610P | 2011-05-12 | 2011-05-12 | |
US201161504026P | 2011-07-01 | 2011-07-01 | |
US13/219,573 US20120287031A1 (en) | 2011-05-12 | 2011-08-26 | Presence sensing |
US13/469,996 US10372191B2 (en) | 2011-05-12 | 2012-05-11 | Presence sensing |
Publications (2)
Publication Number | Publication Date |
---|---|
TW201250519A true TW201250519A (en) | 2012-12-16 |
TWI506478B TWI506478B (zh) | 2015-11-01 |
Family
ID=48139276
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
TW101117124A TWI506478B (zh) | 2011-05-12 | 2012-05-14 | 存在感測 |
Country Status (8)
Country | Link |
---|---|
US (1) | US10372191B2 (zh) |
EP (1) | EP2712431A1 (zh) |
JP (1) | JP5876142B2 (zh) |
KR (2) | KR20140002034A (zh) |
CN (1) | CN103534664B (zh) |
AU (1) | AU2012253292B2 (zh) |
TW (1) | TWI506478B (zh) |
WO (1) | WO2012155105A1 (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
TWI646343B (zh) * | 2014-06-11 | 2019-01-01 | 美商英特希爾美國公司 | 用於具有多視野的光學近接偵測的系統和方法 |
Families Citing this family (86)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8760517B2 (en) | 2010-09-27 | 2014-06-24 | Apple Inc. | Polarized images for security |
US8836777B2 (en) | 2011-02-25 | 2014-09-16 | DigitalOptics Corporation Europe Limited | Automatic detection of vertical gaze using an embedded imaging device |
US20130057573A1 (en) * | 2011-09-02 | 2013-03-07 | DigitalOptics Corporation Europe Limited | Smart Display with Dynamic Face-Based User Preference Settings |
US20120287031A1 (en) | 2011-05-12 | 2012-11-15 | Apple Inc. | Presence sensing |
US20130027548A1 (en) * | 2011-07-28 | 2013-01-31 | Apple Inc. | Depth perception device and system |
KR101870902B1 (ko) * | 2011-12-12 | 2018-06-26 | 삼성전자주식회사 | 영상 처리 장치 및 영상 처리 방법 |
US20130194172A1 (en) * | 2012-01-30 | 2013-08-01 | Cellco Partnership D/B/A Verizon Wireless | Disabling automatic display shutoff function using face detection |
TWI536157B (zh) * | 2012-02-23 | 2016-06-01 | 原相科技股份有限公司 | 電子裝置與電腦可讀取媒體 |
US9152204B2 (en) | 2012-07-17 | 2015-10-06 | Google Inc. | System wakeup based on changes in physical environment |
KR101938648B1 (ko) * | 2012-10-23 | 2019-01-15 | 삼성전자주식회사 | 이미지 센서를 포함하는 모바일 기기, 이미지 센서의 구동 방법 및 모바일 기기의 구동 방법 |
JP6150503B2 (ja) * | 2012-12-04 | 2017-06-21 | キヤノン株式会社 | 画像処理装置及び画像処理装置の制御方法 |
US9256269B2 (en) * | 2013-02-20 | 2016-02-09 | Sony Computer Entertainment Inc. | Speech recognition system for performing analysis to a non-tactile inputs and generating confidence scores and based on the confidence scores transitioning the system from a first power state to a second power state |
US9128714B2 (en) | 2013-02-20 | 2015-09-08 | Logitech Europe S.A. | Method and system for detecting an object or body based on changes in signal phases |
US20140250413A1 (en) * | 2013-03-03 | 2014-09-04 | Microsoft Corporation | Enhanced presentation environments |
US9164609B2 (en) * | 2013-03-13 | 2015-10-20 | Amazon Technologies, Inc. | Managing sensory information of a user device |
CN105229582B (zh) * | 2013-03-14 | 2020-04-28 | 视力移动科技公司 | 基于近距离传感器和图像传感器的手势检测 |
US11172126B2 (en) | 2013-03-15 | 2021-11-09 | Occipital, Inc. | Methods for reducing power consumption of a 3D image capture system |
US9285886B2 (en) | 2013-06-24 | 2016-03-15 | Sonos, Inc. | Intelligent amplifier activation |
US9942384B2 (en) | 2013-09-10 | 2018-04-10 | Google Technology Holdings LLC | Method and apparatus for device mode detection |
US9468026B2 (en) * | 2013-10-11 | 2016-10-11 | Logitech Europe S.A. | Method and system for shortening wireless pairing connection time by detecting an object or body |
US9733956B2 (en) * | 2013-12-24 | 2017-08-15 | Intel Corporation | Adjusting settings based on sensor data |
US9159294B2 (en) | 2014-01-31 | 2015-10-13 | Google Inc. | Buttonless display activation |
US9037199B1 (en) | 2014-02-13 | 2015-05-19 | Google Inc. | Detecting transitions between physical activity |
US8976063B1 (en) | 2014-04-29 | 2015-03-10 | Google Inc. | Automated detection of vehicle parking and location |
US9710629B2 (en) * | 2014-05-13 | 2017-07-18 | Google Technology Holdings LLC | Electronic device with method for controlling access to same |
US20150347732A1 (en) * | 2014-05-29 | 2015-12-03 | Google Technology Holdings LLC | Electronic Device and Method for Controlling Access to Same |
US9575560B2 (en) | 2014-06-03 | 2017-02-21 | Google Inc. | Radar-based gesture-recognition through a wearable device |
US9778749B2 (en) | 2014-08-22 | 2017-10-03 | Google Inc. | Occluded gesture recognition |
US11169988B2 (en) | 2014-08-22 | 2021-11-09 | Google Llc | Radar recognition-aided search |
US9600080B2 (en) | 2014-10-02 | 2017-03-21 | Google Inc. | Non-line-of-sight radar-based gesture recognition |
US20160161339A1 (en) * | 2014-12-05 | 2016-06-09 | Intel Corporation | Human motion detection |
CN104636169B (zh) * | 2015-02-15 | 2018-01-19 | 广东欧珀移动通信有限公司 | 一种系统唤醒方法及装置 |
JP2016178348A (ja) * | 2015-03-18 | 2016-10-06 | キヤノン株式会社 | 情報処理装置、情報処理装置の制御方法、及びプログラム |
KR102002112B1 (ko) | 2015-04-30 | 2019-07-19 | 구글 엘엘씨 | 제스처 추적 및 인식을 위한 rf―기반 마이크로―모션 추적 |
US10088908B1 (en) | 2015-05-27 | 2018-10-02 | Google Llc | Gesture detection and interactions |
CN105637532B (zh) * | 2015-06-08 | 2020-08-14 | 北京旷视科技有限公司 | 活体检测方法、活体检测系统以及计算机程序产品 |
US9652125B2 (en) * | 2015-06-18 | 2017-05-16 | Apple Inc. | Device, method, and graphical user interface for navigating media content |
US10650162B2 (en) * | 2015-07-29 | 2020-05-12 | Simplifeye, Inc. | System and method for facilitating access to a database |
US9990113B2 (en) | 2015-09-08 | 2018-06-05 | Apple Inc. | Devices, methods, and graphical user interfaces for moving a current focus using a touch-sensitive remote control |
US10425819B2 (en) * | 2015-09-17 | 2019-09-24 | Samsung Electronics Co., Ltd. | Apparatus and method for controlling outbound communication |
US10817065B1 (en) | 2015-10-06 | 2020-10-27 | Google Llc | Gesture recognition using multiple antenna |
EP3168711A1 (en) * | 2015-11-11 | 2017-05-17 | ams AG | Method, optical sensor arrangement and computer program product for passive optical motion detection |
CN105700668B (zh) * | 2016-03-04 | 2019-05-28 | 华为技术有限公司 | 一种对触摸屏采集的数据进行处理的方法及终端设备 |
US10492302B2 (en) | 2016-05-03 | 2019-11-26 | Google Llc | Connecting an electronic component to an interactive textile |
WO2017200949A1 (en) | 2016-05-16 | 2017-11-23 | Google Llc | Interactive fabric |
US10302810B2 (en) | 2017-01-30 | 2019-05-28 | Microsoft Technology Licensing, Llc | Use of thermopiles to detect human location |
JP6426225B2 (ja) * | 2017-04-05 | 2018-11-21 | シャープ株式会社 | 表示装置、テレビジョン受像機、表示制御方法、表示制御プログラム、および記録媒体 |
US11030289B2 (en) * | 2017-07-31 | 2021-06-08 | Stmicroelectronics, Inc. | Human presence detection |
CN109426157A (zh) * | 2017-08-29 | 2019-03-05 | 合肥美的智能科技有限公司 | 控制显示屏的方法、装置及智能家居设备 |
US10817594B2 (en) | 2017-09-28 | 2020-10-27 | Apple Inc. | Wearable electronic device having a light field camera usable to perform bioauthentication from a dorsal side of a forearm near a wrist |
US11437032B2 (en) | 2017-09-29 | 2022-09-06 | Shanghai Cambricon Information Technology Co., Ltd | Image processing apparatus and method |
CN108196663B (zh) * | 2018-01-16 | 2020-04-17 | 维沃移动通信有限公司 | 一种人脸识别方法、移动终端 |
EP3651070B1 (en) | 2018-02-13 | 2021-07-28 | Shanghai Cambricon Information Technology Co., Ltd | Computation device and method |
US11704125B2 (en) | 2018-02-13 | 2023-07-18 | Cambricon (Xi'an) Semiconductor Co., Ltd. | Computing device and method |
US11630666B2 (en) | 2018-02-13 | 2023-04-18 | Shanghai Cambricon Information Technology Co., Ltd | Computing device and method |
CN110162162B (zh) | 2018-02-14 | 2023-08-18 | 上海寒武纪信息科技有限公司 | 处理器的控制装置、方法及设备 |
EP3624020A4 (en) | 2018-05-18 | 2021-05-05 | Shanghai Cambricon Information Technology Co., Ltd | CALCULATION PROCEDURES AND RELATED PRODUCTS |
US11922006B2 (en) | 2018-06-03 | 2024-03-05 | Apple Inc. | Media control for screensavers on an electronic device |
US10719729B2 (en) | 2018-06-06 | 2020-07-21 | Perfect Corp. | Systems and methods for generating skin tone profiles |
WO2020001438A1 (zh) | 2018-06-27 | 2020-01-02 | 上海寒武纪信息科技有限公司 | 片上代码断点调试方法、片上处理器及芯片断点调试系统 |
JP6867518B2 (ja) | 2018-08-28 | 2021-04-28 | カンブリコン テクノロジーズ コーポレイション リミティド | データ前処理方法、装置、コンピュータ機器及び記憶媒体 |
US11238089B1 (en) | 2018-08-29 | 2022-02-01 | Big Health Inc. | Dynamic customization of content programs |
US11703939B2 (en) | 2018-09-28 | 2023-07-18 | Shanghai Cambricon Information Technology Co., Ltd | Signal processing device and related products |
DE102018124385B4 (de) | 2018-10-02 | 2023-02-16 | Infineon Technologies Ag | Anzeigensteuervorrichtungen und -verfahren |
US11500103B2 (en) | 2018-10-23 | 2022-11-15 | Lg Electronics Inc. | Mobile terminal |
WO2020166740A1 (ko) * | 2019-02-13 | 2020-08-20 | 엘지전자 주식회사 | 이동 단말기 |
US11620044B2 (en) | 2018-10-23 | 2023-04-04 | Lg Electronics Inc. | Mobile terminal |
US11580355B2 (en) * | 2018-10-25 | 2023-02-14 | Electronic Warfare Associates, Inc. | System-on-a-chip incorporating artificial neural network and general-purpose processor circuitry |
US10963745B2 (en) * | 2018-11-21 | 2021-03-30 | Intel Corporation | Real time adaptive training face detection for ultra low power always on architecture |
CN111383638A (zh) | 2018-12-28 | 2020-07-07 | 上海寒武纪信息科技有限公司 | 信号处理装置、信号处理方法及相关产品 |
WO2020166739A1 (ko) * | 2019-02-13 | 2020-08-20 | 엘지전자 주식회사 | 이동 단말기 |
CN111832739B (zh) | 2019-04-18 | 2024-01-09 | 中科寒武纪科技股份有限公司 | 一种数据处理方法及相关产品 |
US11934940B2 (en) | 2019-04-18 | 2024-03-19 | Cambricon Technologies Corporation Limited | AI processor simulation |
CN113614676B (zh) | 2019-05-20 | 2024-03-26 | 谷歌有限责任公司 | 用于提供多模式界面的基于移动设备的雷达系统及其方法 |
EP3998554A4 (en) | 2019-06-12 | 2023-11-15 | Shanghai Cambricon Information Technology Co., Ltd | METHOD FOR DETERMINING QUANTIZATION PARAMETERS IN A NEURONAL NETWORK AND ASSOCIATED PRODUCTS |
US11676028B2 (en) | 2019-06-12 | 2023-06-13 | Shanghai Cambricon Information Technology Co., Ltd | Neural network quantization parameter determination method and related products |
EP3928181A1 (en) * | 2019-06-17 | 2021-12-29 | Google LLC | Mobile device-based radar system for applying different power modes to a multi-mode interface |
US11662695B2 (en) | 2019-10-11 | 2023-05-30 | Dell Products L.P. | Information handling system infrared proximity detection with distance reduction detection |
US11663343B2 (en) * | 2020-01-31 | 2023-05-30 | Dell Products L.P. | Information handling system adaptive user presence detection |
TWI736138B (zh) * | 2020-02-17 | 2021-08-11 | 國立屏東大學 | 交通安全學習系統與方法 |
US11108957B1 (en) | 2020-06-17 | 2021-08-31 | Microsoft Technology Licensing, Llc | Low power operation of differential image sensor pixels |
EP4182054A1 (en) | 2020-07-16 | 2023-05-24 | Invacare Corporation | System and method for concentrating gas |
CN116648278A (zh) | 2020-07-16 | 2023-08-25 | 英瓦卡尔公司 | 用于浓缩气体的系统和方法 |
US11470252B2 (en) | 2020-09-14 | 2022-10-11 | Dell Products L.P. | Method to integrate time of flight proximity with camera based attention sensing and system therefor |
WO2022186811A1 (en) * | 2021-03-01 | 2022-09-09 | Hewlett-Packard Development Company, L.P. | Transmit power controls |
EP4338128A1 (en) * | 2021-05-11 | 2024-03-20 | Objectvideo Labs, LLC | Adjusting areas of interest for motion detection in camera scenes |
Family Cites Families (68)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
FR2485773A1 (fr) | 1980-06-24 | 1981-12-31 | Promocab | Systeme de protection d'une zone contre l'agression humaine |
US5537144A (en) | 1990-06-11 | 1996-07-16 | Revfo, Inc. | Electro-optical display system for visually displaying polarized spatially multiplexed images of 3-D objects for use in stereoscopically viewing the same with high image quality and resolution |
US5384588A (en) | 1991-05-13 | 1995-01-24 | Telerobotics International, Inc. | System for omindirectional image viewing at a remote location without the transmission of control signals to select viewing parameters |
CN1183780C (zh) | 1996-12-04 | 2005-01-05 | 松下电器产业株式会社 | 光盘再现设备及光盘记录方法 |
US5903350A (en) | 1997-02-03 | 1999-05-11 | Optiphase, Inc. | Demodulator and method useful for multiplexed optical sensors |
US6072894A (en) | 1997-10-17 | 2000-06-06 | Payne; John H. | Biometric face recognition for applicant screening |
US6146332A (en) | 1998-07-29 | 2000-11-14 | 3416704 Canada Inc. | Movement detector |
US6345086B1 (en) | 1999-09-14 | 2002-02-05 | Veeco Instruments Inc. | X-ray fluorescence system and method |
US7006236B2 (en) | 2002-05-22 | 2006-02-28 | Canesta, Inc. | Method and apparatus for approximating depth of an object's placement onto a monitored region with applications to virtual interface devices |
US6775397B1 (en) | 2000-02-24 | 2004-08-10 | Nokia Corporation | Method and apparatus for user recognition using CCD cameras |
US6802016B2 (en) * | 2001-02-08 | 2004-10-05 | Twinhead International Corp. | User proximity sensor and signal processing circuitry for determining whether to power a computer on or off |
US20020158750A1 (en) | 2001-04-30 | 2002-10-31 | Almalik Mansour Saleh | System, method and portable device for biometric identification |
JP2002350555A (ja) | 2001-05-28 | 2002-12-04 | Yamaha Motor Co Ltd | 人検出装置 |
US6832006B2 (en) * | 2001-07-23 | 2004-12-14 | Eastman Kodak Company | System and method for controlling image compression based on image emphasis |
US7136513B2 (en) | 2001-11-08 | 2006-11-14 | Pelco | Security identification system |
JP4210137B2 (ja) | 2002-03-04 | 2009-01-14 | 三星電子株式会社 | 2次icaを利用した顔認識法及びその装置 |
US7369685B2 (en) | 2002-04-05 | 2008-05-06 | Identix Corporation | Vision-based operating method and system |
JP4251358B2 (ja) | 2002-04-10 | 2009-04-08 | サーモ フィッシャー サイエンティフィック(アッシュビル)エルエルシー | 自動化された蛋白質結晶化の画像化 |
US7151530B2 (en) | 2002-08-20 | 2006-12-19 | Canesta, Inc. | System and method for determining an input selected by a user through a virtual interface |
US7436569B2 (en) | 2003-03-12 | 2008-10-14 | General Photonics Corporation | Polarization measurement and self-calibration based on multiple tunable optical polarization rotators |
JP2004348349A (ja) | 2003-05-21 | 2004-12-09 | Masayuki Watabiki | 家電品省電力制御装置 |
US7009378B2 (en) * | 2003-09-05 | 2006-03-07 | Nxtphase T & D Corporation | Time division multiplexed optical measuring system |
US7117380B2 (en) * | 2003-09-30 | 2006-10-03 | International Business Machines Corporation | Apparatus, system, and method for autonomic power adjustment in an electronic device |
US7324824B2 (en) | 2003-12-09 | 2008-01-29 | Awarepoint Corporation | Wireless network monitoring system |
KR100580630B1 (ko) | 2003-11-19 | 2006-05-16 | 삼성전자주식회사 | 적외선을 이용한 사람 식별 장치 및 방법 |
US20050221791A1 (en) * | 2004-04-05 | 2005-10-06 | Sony Ericsson Mobile Communications Ab | Sensor screen saver |
US8509472B2 (en) | 2004-06-24 | 2013-08-13 | Digimarc Corporation | Digital watermarking methods, programs and apparatus |
DE602004024322D1 (de) * | 2004-12-15 | 2010-01-07 | St Microelectronics Res & Dev | Vorrichtung zur Detektion von Computerbenutzern |
US9760214B2 (en) | 2005-02-23 | 2017-09-12 | Zienon, Llc | Method and apparatus for data entry input |
JP2006318364A (ja) * | 2005-05-16 | 2006-11-24 | Funai Electric Co Ltd | 画像処理装置 |
US7806604B2 (en) | 2005-10-20 | 2010-10-05 | Honeywell International Inc. | Face detection and tracking in a wide field of view |
KR100745981B1 (ko) | 2006-01-13 | 2007-08-06 | 삼성전자주식회사 | 보상적 특징에 기반한 확장형 얼굴 인식 방법 및 장치 |
JP2007300363A (ja) | 2006-04-28 | 2007-11-15 | Omron Corp | 監視装置および方法、並びにプログラム |
US8462989B2 (en) | 2006-06-06 | 2013-06-11 | Tp Vision Holding B.V. | Scaling an image based on a motion vector |
JP2008160351A (ja) | 2006-12-22 | 2008-07-10 | Nec Electronics Corp | 色動き検出回路及びy/c分離回路 |
US7840031B2 (en) | 2007-01-12 | 2010-11-23 | International Business Machines Corporation | Tracking a range of body movement based on 3D captured image streams of a user |
US7903166B2 (en) * | 2007-02-21 | 2011-03-08 | Sharp Laboratories Of America, Inc. | Methods and systems for display viewer motion compensation based on user image data |
US7929729B2 (en) | 2007-04-02 | 2011-04-19 | Industrial Technology Research Institute | Image processing methods |
GB2453163B (en) | 2007-09-26 | 2011-06-29 | Christopher Douglas Blair | Three-dimensional imaging system |
EP2216999B1 (en) | 2007-12-07 | 2015-01-07 | Panasonic Corporation | Image processing device, image processing method, and imaging device |
US8600120B2 (en) * | 2008-01-03 | 2013-12-03 | Apple Inc. | Personal computing device control using face detection and recognition |
US8698753B2 (en) | 2008-02-28 | 2014-04-15 | Lg Electronics Inc. | Virtual optical input device with feedback and method of controlling the same |
US8107721B2 (en) | 2008-05-29 | 2012-01-31 | Mitsubishi Electric Research Laboratories, Inc. | Method and system for determining poses of semi-specular objects |
US8035728B2 (en) | 2008-06-27 | 2011-10-11 | Aptina Imaging Corporation | Method and apparatus providing rule-based auto exposure technique preserving scene dynamic range |
US20100008900A1 (en) | 2008-07-14 | 2010-01-14 | The University Of Hong Kong | Annexin ii compositions for treating or monitoring inflammation or immune-mediated disorders |
CN101639800A (zh) | 2008-08-01 | 2010-02-03 | 华为技术有限公司 | 一种显示屏显示方法及终端 |
CN102119530B (zh) * | 2008-08-22 | 2013-08-21 | 索尼公司 | 图像显示设备、控制方法 |
WO2010021375A1 (ja) | 2008-08-22 | 2010-02-25 | 国立大学法人大阪大学 | プロテアーゼの製造方法、並びにプロテアーゼ溶液およびプロテアーゼのプロ体溶液 |
JP4636149B2 (ja) | 2008-09-09 | 2011-02-23 | ソニー株式会社 | 画像データ解析装置、および画像データ解析方法、並びにプログラム |
DE102008047413A1 (de) | 2008-09-16 | 2010-04-15 | Hella Kgaa Hueck & Co. | Vorrichtung und Verfahren zur Detektion von Objekten |
KR20100073191A (ko) | 2008-12-22 | 2010-07-01 | 한국전자통신연구원 | 거리 정보를 이용한 위조 얼굴 검출 방법 및 장치 |
WO2010073547A1 (ja) | 2008-12-25 | 2010-07-01 | パナソニック株式会社 | 画像処理装置及び擬似立体画像生成装置 |
US8254699B1 (en) | 2009-02-02 | 2012-08-28 | Google Inc. | Automatic large scale video object recognition |
RU2534073C2 (ru) * | 2009-02-20 | 2014-11-27 | Конинклейке Филипс Электроникс Н.В. | Система, способ и аппарат для инструктирования устройству входить в активный режим |
US9159208B2 (en) | 2009-03-31 | 2015-10-13 | Koninklijke Philips N.V. | Energy efficient cascade of sensors for automatic presence detection |
US20100253782A1 (en) | 2009-04-07 | 2010-10-07 | Latent Image Technology Ltd. | Device and method for automated verification of polarization-variant images |
WO2010127488A1 (en) | 2009-05-07 | 2010-11-11 | Joemel Caballero | System for controlling light emission of television |
US20100328074A1 (en) * | 2009-06-30 | 2010-12-30 | Johnson Erik J | Human presence detection techniques |
US8154615B2 (en) * | 2009-06-30 | 2012-04-10 | Eastman Kodak Company | Method and apparatus for image display control according to viewer factors and responses |
US8264536B2 (en) | 2009-08-25 | 2012-09-11 | Microsoft Corporation | Depth-sensitive imaging via polarization-state mapping |
KR101648353B1 (ko) | 2009-09-25 | 2016-08-17 | 삼성전자 주식회사 | 거리 센서를 포함하는 이미지 센서 |
TWI413896B (zh) * | 2010-04-21 | 2013-11-01 | Elitegroup Computer Sys Co Ltd | Energy saving methods for electronic devices |
US9357024B2 (en) * | 2010-08-05 | 2016-05-31 | Qualcomm Incorporated | Communication management utilizing destination device user presence probability |
US8760517B2 (en) | 2010-09-27 | 2014-06-24 | Apple Inc. | Polarized images for security |
US8912877B2 (en) * | 2011-02-18 | 2014-12-16 | Blackberry Limited | System and method for activating an electronic device using two or more sensors |
US20120287031A1 (en) | 2011-05-12 | 2012-11-15 | Apple Inc. | Presence sensing |
US20140196131A1 (en) | 2013-01-07 | 2014-07-10 | Salutron, Inc. | User authentication based on a wrist vein pattern |
JP6854612B2 (ja) | 2015-10-06 | 2021-04-07 | 三星電子株式会社Samsung Electronics Co.,Ltd. | 生体情報測定装置及び生体情報測定方法並びにコンピュータ読み取り可能な記録媒体 |
-
2012
- 2012-05-11 WO PCT/US2012/037644 patent/WO2012155105A1/en active Application Filing
- 2012-05-11 KR KR1020137029536A patent/KR20140002034A/ko active Application Filing
- 2012-05-11 AU AU2012253292A patent/AU2012253292B2/en not_active Ceased
- 2012-05-11 KR KR1020167003580A patent/KR101660215B1/ko active IP Right Grant
- 2012-05-11 JP JP2014510519A patent/JP5876142B2/ja not_active Expired - Fee Related
- 2012-05-11 EP EP12722259.4A patent/EP2712431A1/en not_active Withdrawn
- 2012-05-11 US US13/469,996 patent/US10372191B2/en active Active
- 2012-05-11 CN CN201280023139.7A patent/CN103534664B/zh not_active Expired - Fee Related
- 2012-05-14 TW TW101117124A patent/TWI506478B/zh not_active IP Right Cessation
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
TWI646343B (zh) * | 2014-06-11 | 2019-01-01 | 美商英特希爾美國公司 | 用於具有多視野的光學近接偵測的系統和方法 |
US10401494B2 (en) | 2014-06-11 | 2019-09-03 | Intersil Americas LLC | Systems and methods for optical proximity detection with multiple field of views |
Also Published As
Publication number | Publication date |
---|---|
US10372191B2 (en) | 2019-08-06 |
CN103534664B (zh) | 2016-08-31 |
JP2014519091A (ja) | 2014-08-07 |
CN103534664A (zh) | 2014-01-22 |
WO2012155105A1 (en) | 2012-11-15 |
AU2012253292A1 (en) | 2013-10-31 |
KR20160023912A (ko) | 2016-03-03 |
KR101660215B1 (ko) | 2016-09-26 |
KR20140002034A (ko) | 2014-01-07 |
EP2712431A1 (en) | 2014-04-02 |
AU2012253292B2 (en) | 2015-10-29 |
US20120287035A1 (en) | 2012-11-15 |
TWI506478B (zh) | 2015-11-01 |
JP5876142B2 (ja) | 2016-03-02 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
TWI506478B (zh) | 存在感測 | |
US10402624B2 (en) | Presence sensing | |
US11561621B2 (en) | Multi media computing or entertainment system for responding to user presence and activity | |
US10198823B1 (en) | Segmentation of object image data from background image data | |
US9131150B1 (en) | Automatic exposure control and illumination for head tracking | |
US9729865B1 (en) | Object detection and tracking | |
US8942434B1 (en) | Conflict resolution for pupil detection | |
US10027883B1 (en) | Primary user selection for head tracking | |
US10055013B2 (en) | Dynamic object tracking for user interfaces | |
US9465444B1 (en) | Object recognition for gesture tracking | |
US9298974B1 (en) | Object identification through stereo association | |
US20120304067A1 (en) | Apparatus and method for controlling user interface using sound recognition | |
US9280122B2 (en) | Printing apparatus, method for controlling printing apparatus, and recording medium | |
WO2020019504A1 (zh) | 一种机器人屏幕解锁方法、装置、智能设备及存储介质 | |
US9223415B1 (en) | Managing resource usage for task performance | |
CN110765924A (zh) | 一种活体检测方法、装置以及计算机可读存储介质 | |
US20160094783A1 (en) | Image processing apparatus, control method of image processing apparatus and program | |
TW202309839A (zh) | 基於事件映射的相機設置調整 | |
JP2019215274A (ja) | 情報処理装置および情報処理装置の制御方法 | |
Siddiqi et al. | Active contours level set based still human body segmentation from depth images for video-based activity recognition | |
Kitajima et al. | Privacy‐aware face detection using biological signals in camera images | |
Kitajima et al. | Privacy-aware human-detection and tracking system using biological signals | |
Kumar et al. | Hands-Free Mouse Control Using Facial Feature | |
S Choras et al. | Markerless head gesture recognition for human computer interaction | |
Choi et al. | Real-time human tracker based location and motion recognition for the ubiquitous smart home |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
MM4A | Annulment or lapse of patent due to non-payment of fees |