JP2014519091A - 存在センサ - Google Patents

存在センサ Download PDF

Info

Publication number
JP2014519091A
JP2014519091A JP2014510519A JP2014510519A JP2014519091A JP 2014519091 A JP2014519091 A JP 2014519091A JP 2014510519 A JP2014510519 A JP 2014510519A JP 2014510519 A JP2014510519 A JP 2014510519A JP 2014519091 A JP2014519091 A JP 2014519091A
Authority
JP
Japan
Prior art keywords
computing device
sensor
user
state
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2014510519A
Other languages
English (en)
Other versions
JP5876142B2 (ja
Inventor
エドワード アレン ヴァルコ
マシュー シー ウォルドン
デル メルウェ ルドルフ ファン
ウィリアム マシュー ヴィエタ
マイラ エム ハガティー
アレックス ティー ネルソン
カレン ルイーズ ジェンキンス
スコット トーマス スミス
ヤン エリク ソレム
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Apple Inc
Original Assignee
Apple Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from US13/219,573 external-priority patent/US20120287031A1/en
Application filed by Apple Inc filed Critical Apple Inc
Publication of JP2014519091A publication Critical patent/JP2014519091A/ja
Application granted granted Critical
Publication of JP5876142B2 publication Critical patent/JP5876142B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/26Power supply means, e.g. regulation thereof
    • G06F1/32Means for saving power
    • G06F1/3203Power management, i.e. event-based initiation of a power-saving mode
    • G06F1/3206Monitoring of events, devices or parameters that trigger a change in power modality
    • G06F1/3231Monitoring the presence, absence or movement of users
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/26Power supply means, e.g. regulation thereof
    • G06F1/32Means for saving power
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02DCLIMATE CHANGE MITIGATION TECHNOLOGIES IN INFORMATION AND COMMUNICATION TECHNOLOGIES [ICT], I.E. INFORMATION AND COMMUNICATION TECHNOLOGIES AIMING AT THE REDUCTION OF THEIR OWN ENERGY USE
    • Y02D10/00Energy efficient computing, e.g. low power processors, power management or thermal management

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)
  • User Interface Of Digital Computer (AREA)
  • Computing Systems (AREA)
  • Computer Hardware Design (AREA)
  • Power Sources (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)
  • Length Measuring Devices By Optical Means (AREA)

Abstract

1つの実施形態は、存在ベース機能を与えるようにコンピューティング装置を動作する方法の形態をとる。この方法は、コンピューティング装置を減少電力状態で動作し、そして少なくとも1つのセンサから第1のデータセットを収集することを含む。第1のデータセットに基づいて、コンピューティング装置は、物体がコンピューティング装置のスレッシュホールド距離内にある確率を決定し、そして物体がスレッシュホールド距離内にある場合には、装置が少なくとも1つの二次センサをアクチベートして第2のデータセットを収集する。その第2のデータセットに基づいて、装置は、物体が人間であるかどうか決定する。物体が人間である場合には、装置は、コンピューティング装置に対する人間の位置を決定し、そしてコンピューティング装置に対する人間の位置に基づいてコンピューティング装置の状態の変更を実行する。物体が人間でない場合には、コンピューティング装置は、減少電力状態を保つ。
【選択図】図12

Description

本発明は、全般的にコンピューティング能力を有する装置に関するもので、より詳細には、装置の接近位置におけるユーザの存在を感知する装置及びシステムに関する。
関連出願の相互参照:本特許協力条約特許出願は、2012年5月11日に出願された“PRESENCE SENSING”と題する米国特許出願第13/469,996号の優先権を主張するもので、該特許出願は、米国特許商標庁において代理人管理番号P11391USX1(P222617.US.04)で識別することもでき、更に、該特許出願は、2011年8月26日に出願された“PRESENCE SENSING”と題する米国特許出願第13/219,573号、2011年7月1日に出願された“PRESENCE SENCING”と題する米国プロビジョナル特許出願第61/504,026号、及び2011年5月12日に出願された“PRESENCE SENCING”と題する米国仮特許出願第61/485,610号の優先権を主張するものであり、これらは、全て、全ての目的で参考としてここに援用される。
多くのコンピューティング装置には、ユーザが装置を使用しないときに電力消費を減少するよう意図された節電特徴/モードが装備されている。多くの場合、これらの節電特徴は、ユーザが装置に最後に入力を与えたときから設定時間量をカウントダウンするタイマーを通じて具現化される。例えば、特定の装置は、ユーザが5分間入力を与えないときに完全動作モードより電力を消費しないスリープモード又は他のモードに入るように構成される。
しかしながら、時々、装置は、ユーザがまだ装置を使用している間に節電特徴/モードに入ることがある。例えば、ユーザが装置のコンテンツを読んでいたり、映画を見ていたり又は音楽を聞いていたりする間にタイマーの設定期間内に入力を与え損なったことから節電特徴に入ることがある。更に、節電特徴/モードからの回復は、時間がかかり、ユーザがクレデンシャルを入力することが要求され、そして一般的に、ユーザにとって厄介である。
1つの実施形態は、存在ベース機能を与えるようにコンピューティング装置を動作する方法の形態をとる。この方法は、コンピューティング装置を減少電力状態で動作し、そして第1センサ又はセンサのグループから第1のデータセットを収集することを含む。第1のデータセットに基づき、コンピューティング装置は、物体が装置の付近に位置する確率又は見込みを決定する。それに加えて、又はそれとは別に、コンピューティング装置は、物体の接近度に関してハード判断を行い、例えば、コンピューティング装置のスレッシュホールド距離内に物体があるかどうか決定し、そして物体がスレッシュホールド距離内にあり及び/又はおそらく装置に接近して位置する場合には、装置が二次センサをアクチベートして第2のデータセットを収集する。その第2のデータセットに基づいて、装置は、物体が人間であるかどうか決定する。物体が人間である場合には、装置は、コンピューティング装置に対する人間の位置を決定し、そしてコンピューティング装置に対する人間の位置に基づいてコンピューティング装置の状態の変更を実行する。物体が人間でない場合には、コンピューティング装置は、減少電力状態を保つ。
別の実施形態は、ユーザがコンピューティング装置の付近にいるかどうか決定する方法の形態をとる。この方法は、画像センサを使用して画像を捕獲し、そしてその捕獲された画像から、肌色検出パラメータ、顔検出パラメータ、身体検出パラメータ、及び動き検出パラメータ、のうちの少なくとも1つを計算することを含む。又、この方法は、肌色検出パラメータ、顔検出パラメータ及び動き検出パラメータのうちの少なくとも1つを使用して、ユーザが存在するかどうか決定し、そしてユーザが存在することが決定された場合には、コンピューティング装置の状態を変更することを含む。
更に別の実施形態では、メインプロセッサ及びそのメインプロセッサに結合された存在センサを有するコンピューティングシステムが提供される。存在センサは、画像センサ、及びその画像センサに結合されて、捕獲された画像を処理し、その画像内にユーザが存在するかどうか決定するためのプロセッサを備えている。画像センサは、3D画像、深度画像、RGB画像、グレイスケール画像、等を捕獲するように構成され、そして1つ以上の画像を使用して確率を決定する。他の入力も、存在決定に有用な情報に貢献する。例えば、キーボード、マウス及び/又はマイクロホンのような入力装置は、各々、存在確率決定に有用な入力を与える。画像内にユーザが存在するとプロセッサが決定した場合には、ユーザが存在すると決定された指示がプロセッサからメインプロセッサへ送られ、そしてメインプロセッサは、その指示に基づいてコンピューティングシステムの状態を変更する。
幾つかの実施形態を開示するが、当業者であれば、以下の詳細な説明から本発明の更に別の実施形態が明らかとなろう。それらの実施形態は、それら実施形態の精神及び範囲から逸脱せずに、種々の観点において変更できることが明らかであろう。従って、添付図面及び詳細な説明は、例示に過ぎず、それに限定されるものではない。
ユーザ存在感知能力を有する規範的なコンピューティング装置を示す。 図1のコンピューティング装置のブロック図である。 存在センサから異なる距離に当該物体が位置するときの存在感知結果を示すグラフである。 当該物体がセンサからある角度オフセットしているときの存在感知結果を示す別のグラフである。 段階的に存在センサシステムを動作するための規範的な方法を示すフローチャートである。 ユーザの存在を決定するための方法を示すフローチャートである。 存在感知に使用するための肌色検出ルーチンを示すフローチャートである。 存在感知に使用するための顔認識ルーチンを示すフローチャートである。 存在感知に使用するための動き検出ルーチンを示すフローチャートである。 フレームを単一フレーム動き検出のためのウインドウに分割したところを示す図である。 単一フレーム動き検出のための規範的な方法を示すフローチャートである。 複数の同時非同期センサを使用してユーザが装置に接近して位置する確率を決定する規範的な方法を示すフローチャートである。
一般的に、ここに開示する実施形態は、ユーザ存在決定及びそれに関連したコンピューティング装置機能に向けられる。そのような機能が装備されたコンピューティング装置と相互作用するユーザの体験を改善できることが明らかである。更に、ある実施形態では、ここに開示する実施形態の具現化を通して節電及び/又は電力効率が実現される。ここで使用する「ユーザ」という語は、一般的に、人間(1人又は複数)を指す。しかしながら、ある実施形態では、システムは、人間以外の物体を感知しそしてその物体の存在に基づいて状態を変更するように構成される。
1つの実施形態は、ユーザの存在及び/又は不存在を感知し、そしてユーザの存在及び/又は不存在に基づき動作状態を与えるように構成されたコンピューティング装置の形態をとる。他の実施形態では、コンピューティング装置は、ユーザが存在するか又は不存在である見込み又は確率スコアを計算して与える。ある実施形態では、複数のパラメータが決定され、重み付けされ、そして存在決定の実行に関連して使用される。この重み付け型の検出は、より知識の広い高レベル判断実行アルゴリズムに使用され、又は異なるソースからのデータを融合させるときに使用される。
例えば、ある実施形態では、コンピューティング装置は、ユーザがコンピューティング装置との接近状態に到達するか又は接近状態に入るとき、及びユーザが存在する確率を、センサ入力に基づいて決定するように構成される。確率の計算で、偽の肯定及び/又は偽の否定が減少される。望ましい性能を達成するベイズの最適スレッシュホールドが具現化される。即ち、偽の否定の許容数に対する偽の肯定の許容数の間で望ましいバランスをとるようにトリガースレッシュホールドがセットされる。ユーザが存在するとの肯定の決定に応答して、又はユーザが存在するとのスレッシュホールド確率を達成したときに、装置がパワーアップされ、スリープモードを出、及び/又はあるフィードバックをユーザに与える。
一般的に、存在感知システムの1つの目標は、技術をよりインテリジェントに使用することである。例えば、ある実施形態では、ユーザが接近しつつあることが決定されたときに、システムの目覚めが開始される。システムの目覚めは、システムが従来のパワーアップシーケンスより迅速に動作モードに入るように減少セットのルーチンを含む。例えば、システムは、減少セットのルーチンのために、6ないし8秒ではなく0.5秒内にパワーアップする。ある実施形態では、コンピューティング装置は、ユーザが装置から離れるとき又は装置の付近を去るときを決定するように構成される。それに応答して、装置は、ディスプレイスリープモード、システムスリープモード、スクリーンセーバーアクチベーション、等の節電モードに入る。更に、システムは、ユーザの存在の感知に基づいてコンピュータウェイクアップ時間を加速するためにスリープモードを部分的に出る。更に別の実施形態では、表示されるコンテンツは、ユーザの相対的な位置に基づく。例えば、ユーザが装置に接近する場合には、装置が製品の詳細を与えるが、ユーザが遠くにいるときには装置が何も表示しない。
又、ある実施形態では、装置は、ユーザの動き(例えば、位置及び速度)を追跡し、そしてある動きに応答して、フィードバックを与え、及び/又は動作の状態を入力するか又は変更する。例えば、装置に向かう動きは、ユーザインターフェイスにより多くのオプション/メニューを与えるといったより多くの特徴をアクチベートするが、装置から離れる動きは、メニュー/オプションの数を減少し、及び/又は表示されるオプションのサイズを減少又は増加するといった、ユーザに利用できる特徴の数を減少する。それに加えて、又はそれとは別に、ディスプレイは、装置に向かう動き又は装置から離れる動きに基づいてズームイン又はズームアウトする。ある実施形態では、ユーザの横方向(例えば、左から右の)移動は、装置に表示されるスクリーンセーバ画像及び/又は背景に変化を生じさせる。更に、画像の変化は、一般的に、感知される動きに対応する。例えば、左から右への移動は、画像を左から右への動きにおいて別の画像に置き換えるようにさせる。或いは又、ユーザが左から右へ移動すると、葉っぱやドレープがその動きを反映する。即ち、葉っぱは、左から右へ吹き飛ばされて流され、又はドレープは、検出された動きに対応するように揺れる。
更に、ある実施形態では、ユーザの存在は、装置に対するユーザの位置と共に使用されて、ある機能を発揮する。ある実施形態では、入力及び/又は出力は、位置に基づく。例えば、装置は、ユーザの位置に向いたオーディオステレオパン(例えば、オーディオステアリング)を与えるように構成される。更に、ある実施形態では、ユーザの位置に基づいてマイクロホンステアリングが実施される。
更に、複数のセンサ及び/又は動作状態が段階的に実施される。即ち、第1の動作モードでは、第1のセンサが動作される。ユーザの存在又は動きが検出されると、第2のセンサがアクチベートされ、等々となる。ある実施形態では、第2のセンサがアクチベートされると同時に、装置が第2の動作モードに入るが、他の実施形態では、第2のセンサから検索されたデータのみに基づいて又は第1のセンサからのデータとの組み合わせに基づいて決定がなされるまで第2の動作モードには入らない。
存在の決定は、1つ以上のセンサにより収集されたデータにより行われる。1つの実施形態では、1つ以上のセンサからのデータを使用して、ユーザが存在するかどうか決定される。例えば、ニューラルネットワーク、サポートベクトルマシン、又は他の適当な分類器、或いは確率的決定器が実施される。ある場合には、存在決定に使用するために、データポイントの大きなセットが収集され、分類されそして記憶される。更に、その後に取得されるデータが、将来の決定のために追加され、使用される。
添付図面の、先ず、図1を参照すれば、コンピューティング装置100が示されている。このコンピューティング装置100は、一般的に、存在感知に使用される1つ以上のセンサ102を備えている。例えば、存在感知には、1つ以上のカメラ及び/又は光センサが使用される。カメラ及び光センサは、一般的に、ここでは、存在感知に関して説明するが、超音波センサ、マイクロ波RADAR、等の他のセンサタイプも実施できることが明らかであろう。これら技術の幾つかを使用して、人間が装置に接近したときに生理学的パラメータを決定することができる。例えば、RADARは、室内で心臓鼓動を検出し及び/又は探索するのに使用される。更に、種々の技術及び光の波長が実施される。例えば、深度センサを使用して接近が決定される。ある規範的深度センサ技術は、フォーカス及びデフォーカス、能動的IR反射電力、能動的IR構成光、能動的IR飛行時間(2D+深度)、能動的IR飛行時間(単一ピクセルセンサ)、受動的IR(モーション検出器)、受動的IR熱造影(2D)、ステレオビジョン、偏光技術、等を含む。ある実施形態では、能動的IRは、人間の皮膚の反射度又は呼吸中の二酸化炭素放射度のようなある独特の物質特性を検出するための複数の特定IR波長を使用する。従って、ここに述べる特定の実施形態は、単なる例示に過ぎず、それに限定されるものではない。
図2は、図1のコンピューティング装置100のブロック図である。一般的に、コンピューティング装置は、マイクロプロセッサ/マイクロコントローラ104を備え、これに他のコンポーネント(例えば、センサ)が接続される。マイクロプロセッサ/マイクロコントローラ104は、1つ以上の低電力マイクロコントローラとして実施されると共に、センサ(例えば、カメラ、接近センサ、等)から到来するデータ及び高レベルユーザ存在又は不存在判断実行のためのデータ融合ポイントとして実施される。ある実施形態では、ユーザ存在の決定及びそれに関連したデータは、外部にあってもよく、又、装置のメイン動作から分離されてもよい。即ち、ユーザ存在システムは、存在感知データをメインコンピュータ処理ユニット(CPU)105、オペレーティングシステム、等から分離することにより、セキュリティ及びプライバシーを与える。
種々の適当なセンサは、マイクロプロセッサ/マイクロコントローラ104に入力/データを与える。より詳細には、カメラベースセンサ106は、マイクロプロセッサ104に通信結合される。適当なカメラベースセンサ106が実施され、種々の異なる技術が利用される。例えば、STマイクロエレクトロニックスから入手できるカメラセンサが使用される。カメラベースセンサは、顔検出能力を与える全画像カメラ108を一体化プロセッサ110と共に備えている。即ち、センサは、埋め込み型マイクロプロセッサ110を有し、顔の位置及び距離を推定することができる。更に、センサは、物体の距離を決定することができる。又、カメラ108は、AGCシステムからウインドウ付きヒストグラム情報を与え、これは、動き検出に有用である。
更に、カメラ108は、120°まで又はそれ以上の水平視野と、120°まで又はそれ以上の垂直視野を有する。ある実施形態では、魚眼レンズのようなレンズを使用して、120°を越える角度の視野を得ることができる。1つの実施形態では、水平視野が75−95°(例えば、約85°)であり、垂直視野が40−80°(例えば、約60°)である。顔は、20フィートまで又はそれ以上の距離で検出される。1つの実施形態では、顔は、ほぼ6−14フィートにおいて検出される。顔位置データは、ほぼ0.6−1Hzの間に得られ、そしてAGCデータは、全フレームレート、ほぼ10−30Hzで得られる。
一般的に、カメラベースセンサ106によって捕獲された画像及び関連する生情報は、カメラベースセンサの外部では得られない。むしろ、センサの機能的範囲内で顔が検出されるかどうか、顔の位置、及び/又はその範囲内の顔の動きに関する情報が与えられる。ある実施形態では、カメラセンサは、ユーザが存在するかしないかを示すバイナリー出力を与える。更に、ユーザが存在する場合には、装置に対するユーザの位置が、カメラベースセンサにより、例えば、x−y座標に出力される。更に、センサは、とりわけ、存在する顔の数を指示する(例えば、存在する人の数を指示する)ように構成される。
ある実施形態では、カメラベースセンサ106は、装置の望ましい動作特性を達成するために他のセンサとは独立して実施される。ある実施形態では、カメラベースセンサは、段階的に動作して出力を与えるように構成される。例えば、第1の状態では、カメラベースセンサは、ユーザの存在を感知する。ユーザが存在する場合には、第2の状態に入り、何人の人々が存在するか決定する。それに続いて又はそれと同時に、存在する人々の位置を決定する。カメラは、動作状態から移動するときに、以下に詳細に述べるように、出力を発生し、その出力は、装置の状態を変更するために装置により使用される。
ある実施形態では、画像を捕獲するためにメインカメラ103が使用される。メインカメラ103は、装置のユーザによりビデオ及びスチール画像捕獲のために使用されるシステムカメラである。ある実施形態では、メインカメラは、存在感知に使用されるカメラとは個別で且つ異なるものであり(例えば、システムには複数のカメラがあり)、他の実施形態では、専用カメラをもつカメラベースセンサ106に代わって、メインカメラの出力がカメラベースセンサにより使用される。例えば、ある実施形態では、メインカメラに加えて、深度ベースのカメラが実施される。深度ベースのカメラは、適当な形態のものでよい。1つの実施形態では、メインカメラの出力は、ユーザにより使用するために画像プロセッサ107へ送られると共に、ユーザ存在検出のためにカメラベースセンサ106のマイクロコントローラへ送られる。画像プロセッサとユーザ検出コプロセッサがどのように通信しそしてメインカメラからのデータをユーザに利用できるようにするかに関して異なる選択肢がある。例えば、ユーザが存在しないときには、メインカメラからの出力が、主として、存在感知決定のためにマイクロコントローラにより処理される。この状態では、カメラからのデータは、一般的に、システムの他のコンポーネントに利用できない。ユーザが存在するときには、メインカメラからの出力が画像プロセッサ107に与えられる。しかしながら、利用すべき画像データ/情報に対して、ユーザは、カメラベースアプリケーション(例えば、ビデオチャットアプリケーション、画像捕獲プログラム、等)にアクセスすることが要求される。さもなければ、カメラからの画像データは、一般的に、アクセスできない。
1つ以上のカメラ、並びに従来のカメラ及び画像処理機能を使用して望ましい存在感知を行える多数の異なる構成があることが明らかであろう。例えば、1つの実施形態では、メインカメラの出力は、通常の画像処理機能及びユーザ存在検出機能を合成する単一チップへルーティングされる。他の実施形態では、カメラからのビデオ出力は、中央処理ユニットによる処理のためにホストへストリーミングされる。
接近センサ112のような第2のセンサも、マイクロプロセッサ104に接続される。ある実施形態では、コントローラ114、マルチプレクサ116、及び発光ダイオードのアレイ118は、接近センサ112に関連して動作される。特に、コントローラ114は、マルチプレクサ116及びLED118の動作を時分割多重化(TDM)的にコントロールするように構成される。LEDのTDM交番で望ましい応答を得るように適当なフィルタが実施される。他の実施形態では、機械的装置(例えば、マイクロ電気・機械的装置)を使用して1つ以上のLEDを多重化し個別の視野をカバーすることができる。
LED118は、適当な範囲の波長で動作し、そして1つの例では、電磁スペクトルの近赤外線領域で動作する。LED(LED1−LEDN)の各々は、特定の視野に向けられる。ある実施形態では、各LED118は、個別の視野に向けられるが、他の実施形態では、隣接するLEDの視野が重畳する。ある実施形態では、LED118のアレイは、コンピューティング装置のベゼルの周りにLEDを分布したものである。他の実施形態では、LEDアレイ118は、行に(例えば、ディスプレイスクリーンベゼルのカーブした部分を横切って)構成され、LEDは、異なる視野をカバーするように指向的に配置される。
1つの実施形態では、視野の平均値(例えば、接近を示す値)を得、それを使用して、物体が装置100に接近しているかどうか決定する。平均値がスレッシュホールド値を越える場合には、物体が装置100に接近していることを指示する。LEDのアレイ118を使用することで、接近センサは、広い視野にわたって接近性をより正確に検出することができる。各LEDが個別の視野に向けられるので、接近センサ112を使用して物体の位置を決定することもできる。従って、他の実施形態では、仮定される空のシーンからの接近値の変化が決定される。種々のセンサにわたって最大の変化(又はあるランク)が見られ、その値をスレッシュホールドと比較して接近度及び/又は位置を決定する。
ある実施形態では、カメラベースセンサ106及び接近センサ112は、マイクロプロセッサ104に関連して使用されて、ユーザがコンピューティング装置100に接近しているかどうか決定する。段階型感知システムは、他の目的及び/又は機能の中で、節電を与え、ユーザ体験を改善し、又は特定の望ましいユーザ体験を与えるように実施される。特に、段階型感知システムは、第1センサを動作して、節電を与えるためにコンピューティング装置のスレッシュホールド距離内でのユーザの存在を最初に決定することを含む。ある実施形態では、スレッシュホールド距離は、装置100の2−10フィート(例えば、5フィート)以内である。更に、ある実施形態では、第1センサから収集されたデータは、ユーザの相対的位置を決定するのに使用される。
段階型システムでは、ユーザが存在する場合、第2センサがアクチベートされる。第2センサからのデータは、単独で、又は第1センサからのデータと組み合わせて、ユーザ/個人及び/又はユーザの位置を更に識別するのに使用される。第1及び第2の両センサからのデータは、どんな機能を遂行すべきか及び/又はユーザが何を行うかに関して決定するように一緒に使用される。例えば、ユーザが装置にどれほど接近するか、ユーザが装置を向いているか、ユーザが装置から離れるか/近付くか、等を決定する。更に、データは、ユーザ(例えば、資格のあるユーザ)を識別するのに使用される。
コンピューティング装置100の状態は、ユーザが存在するとの決定に基づいて変更される。例えば、ユーザが装置に接近する場合に、ディスプレイが目覚め、システムが目覚め、等々となる。ユーザが左から右へ移動する場合には、表示される画像が変化し、一般的に、ユーザの移動に対応して移動する。更に、複数のユーザが存在する(複数の顔の存在を見分けることに基づき決定される)場合には、装置100は、セキュアな状態へ付勢され、装置に完全にアクセスするためにはユーザクレデンシャルの入力が必要になる。
存在の決定は、ニューラルネットワーク、サポートベクトルマシン(SVM)、又は他のマシン学習ベースの分類器或いは確率的判断システムに使用される複数のファクタに基づく。例えば、肌色/カラー、存在及び動きは、存在決定を行うためにニューラルネットワークで重み付けされて使用される。上述したように、存在決定に基づいて、装置100は、動作状態に入り/それを変更する。
使用のための特定センサの選択は、例えば、望ましい機能及び電力消費限界を含む種々の広範囲のファクタに基づくことが明らかであろう。従って、ある実施形態では、カメラベースセンサ106は、第1段階センサとして実施され、他の実施形態では、接近センサ112が第1段階センサとして使用される。接近センサ112のような接近センサを実施するための詳細な説明を以下に行う。
センサ112は、ある適当な周波数で光を切断し、そして返送反射光信号の位相シフトを測定する。LED118の出力は、方形波又は他の波形であり、そしてセンサ112は、I/Q復調スキームを使用する。センサ112から到達する光は、I(同相)成分及びQ(直角位相)成分を与えるサイン波及びコサイン波と混合される。サイン/コサイン波は、LED変調と同期される。それらは、センサからの「生」の出力であり、異なる内部測定方法がある場合には、それがこのスキームに変換される。一般性が失われなければ、2πの周期と、その周期にわたって積分が行われることが仮定される。実際上、固定周期が使用され、その周期のある大きな倍数にわたって積分がなされる。これら相違は、固定の倍率ファクタを生じ、これは無視されてもよい。基本的測定成分は、次の通りである。
全視野を扱うセンサ112からの一定の(放射方向)距離において物体を測定する場合には、位相ずれ
及び大きなAをもつ同じ周波数の方形波入力信号は、次のようなI及びQ成分を生じる。
及び
次いで、
は、次のように見出される。
次いで、Mは、次のように再構成される。
センサの視野に2つの物体(AおよびB)が各々一定の距離にあると仮定すれば、それらの距離に関連した位相シフトは、
及びψとして表される。反射信号の大きさは、A及びBと定義される。到来する光信号は、このケースでは加算的で、従って、積分的であり、それ故、Iは、次のようになる。
Qについても同様である。
強度が時間と共に変化しない光源は、I及びQ成分に対してゼロ貢献である。この特性は、良好な周囲光除去を与える。又、異なる距離にある物体からの位相オフセットによる打ち消しも与える。1/0方形波復調を使用すると、この情報は、悪い周囲光除去で保持される。この復調スキームは、著しく異なる数学を招くが、最終的結果は、同様である。以下、I/Qの前の2つのファクタは、他の倍率ファクタに吸収されるので、落される。
幾つかの簡単化が行われ、そして基本的なモデルがセンサ出力に対してシーン内の物体の関数として提案される。より実施し易いことから個別のケースが開発されるが、他のケースが実施されてもよい。LED/センサ視野は、1からNでインデックスされるN個の区分に仕切られる。これら区分の各々は、立体角Ωiを有する。更に、これらの立体角の各々は、固定の反射率ρiを有し、固定の放射方向距離riにおけるものである。又、LEDからの出力は、ステラジアン当たりの放射強度Iiで所与の立体角にわたって一定である。所与の距離に対する位相シフトは、
と定義される。
このモデルから、センサにおける所与の立体角からの(Ii、Qi)貢献が得られる。I/Qスペースにおいて極座標系を定義することも有用である。IQベクトルの大きさは、Miであると定義され、角度
は、既に定義されている。
両(Im、Qm)は、測定された(生の)I及びQ値として定義される。一定のクロストーク(電気的又は光学的)を表わすため、もう1つの項(Ic、Qc)が追加される。最終的に、次のようになる。

一般的に、ユーザが装置に接近して位置しているかどうか決定するためには、装置が置かれた環境を理解するのが有益である。これは、偽の肯定を減少し、そしてユーザが装置100の至近に入ったり出たりするときをより正確に決定する上で助けとなる。しかしながら、背景モデルを生成することは、センサ112により与えられる情報の相対的な欠如のために多数の課題が課せられる。有用なモデルを定義するため、幾つかの簡単化の仮定がなされる。最初に、単一のセンサに対するモデルの数学について述べ、その後、複数のセンサケースについて述べる。
基本的には、センサ112のようなある接近センサによって行われる距離測定に影響を及ぼす2つのタイプの物体がある。人間により遮られない物体があると共に、人間により遮られる物体がある。前者は、「前景」物体と称され、後者は、「背景」物体と称される。当然、物体は、それが人間に対してどのように位置しているかに基づき両方のカテゴリに入れられる。ここで、シーンをこれら2つのタイプの物体に分割する。一般的に、課題は、シーン内の動的な物体、例えば、入ったり出たりする人々までの距離を測定することである。これらの物体を首尾良く測定するために、シーン内の静的な物体に対する正確なモデルが生成され、そして動的な物体に対するその関係がモデリングされる。
最初、(Ip、Qp)は、測定されている物体に関連した信号であると定義される。又、(Im、Qm)及び(Ic、Qc)は、各々、測定された(生の)値及びクロストーク値として使用され続ける。
空のシーン
1つのモデルは、前景物体も背景物体もなく、且つ全ての信号がシーン内の人間によるものであると仮定する。その最も単純な形態において、工場校正/クロストーク値が使用される。
このモデルは、距離出力を発生するのに使用される。前景物体をもたないシーンについては、このモデルは、常に、距離を過大推定する。このモデルは、装置の寿命にわたって正確である工場校正値に依存することに注意されたい。汚れ等により追加されるクロストークは考慮していない。
静的なオフセットが観察されると、それが前景物体及び背景物体のある組み合わせとしてモデリングされる。この静的オフセットをどのように分布させるかの選択は、Ip及びQpの推定に強く影響する。
前景のみ
静的なオフセットを考慮する1つの方法は、それらが全て前景物体によるものであると仮定することである。温度又は汚れによるクロストーク変化のような作用は、このカテゴリに入る。前景物体は、定義によれば、人間の存在に関わらず、信号に対して一定の貢献を有する。単純な前景モデルでは、前景物体の空間的分布は関係がなく、前景でない何かが当該物体であると仮定する。(Ifg、Qfg)を前景からの信号であると定義する。このモデルは、次のことを意味する。

(Ifg+Ic、Qfg+Qc)は、シーンに当該物体がない状態での測定されたセンサ読みであることに注意されたい。これは、標準的「ベースライン減算」モデルである。
部分的に遮られる均一背景
このモデルについては、背景が均一の距離にありそして均一の反射率を有すると仮定する。更に、物体が垂直方向に視野をカバーすると仮定する。ある角度でのLEDの減衰がI(θ)として定義される。固定巾wの単一物体が、固定位置における角度区分Δθpに対応すると仮定される。物体の中心位置は、角度項においてθpとして定義される。
一般的なモデルについては、上述した。このモデルについては、面積が単純に巾の関数であり、入射光は、I(θ)により定義され、そして距離/反射率は、一定であるが、未知である。
便宜上、次のように定義する。

及び
L(θp;Δθp)は、当該物体によって定義された立体角に向けられたLEDからの光の部分を表わし、Ltotalは、全光出力を表わし、そしてR(θp;Δp)は、背景に投射された全光の部分を表わす。
当該物体からセンサに到達する光の大きさは、L(θp;Δθp)に比例する。比例定数がθpであり、当該物体までの距離に関連した位相オフセットが
であると定義する。これにより、次のようになる。

同様に、背景からセンサに到達する光の大きさは、R(θp;Δp)に比例する。比例定数は、ρbgであり、背景距離に関連した位相は、
であると定義される。これにより次のようになる。

加算すると、

次のものの測定を仮定すると、
及び
となる。角度θp及び巾wが既知であるか、又は仮定された場合には、この方程式の系を解くことができる。
部分的に遮られる均一背景及び均一前景
このモデルでは、「部分的に遮られる均一背景」モデルでスタートし、当該物体に空間的変化作用を及ぼさない均一の前景成分を追加して、それを構築する。前景成分は、空間的に変化せず、当該物体の存在により影響を受けないので、ρfg及び
は、前景物体の大きさ及び位相であると定義する。ここで、前景については、次のようになる。
及び
これは、単純に以前のモデルに追加されて、次のようになる。
及び
空のシーンにおいてそれを測定できると仮定すると、次のようになる。
及び
以前のケースと比較されるものとして推定される更に2つの変数が追加される。
区分化された背景、均一な前景
このモデルは、水平視野を一連の区分1・・・Sに仕切り、その各々は、均一な前景/均一な背景としてモデリングされる。変数が属する区分を示すために上付き文字sが追加される。背景区分でスタートして、物体がシーン内にあり、巾wが角度区分Δθp及び角度位置θpに対応することを仮定する。当該物体により遮られた後に背景に投射される光の部分を表わすためにR関数を区分的に再定義する。これは、R2と称される。
ここで、次のように定義する。
及び
前景信号は、シーン内の物体により変更されないので、それを区分的にモデリングする必要はない。しかしながら、前景は、区分にわたって変化する度合いで当該物体を遮る。これは、多数の異なる仕方でモデリングすることができ、その最も綺麗なものが、各前景区分に対する「遮りファクタ」Fsを関連付ける。又、Lsは、区分sにおける当該物体を照明するLEDからの全光出力の部分として定義される。ここで、次のようになる。
及び
均一な前景のケースでは、Fsは、全ての区分について1に等しく、そして方程式は、非区分化前景のケースまで崩壊する。要するに、次のようになる。
及び
ここで、背景については区分当たり2つの変数が追加され、そして前景の遮りについては区分当たり1つの変数が追加される。前景物体からの遮り作用は無視され、特別の背景変数のみが追加される。
視野の重畳する2つのセンサ
視野の重畳する2つのセンサが使用される。視野の重畳部分のみを考え、そしてこの領域において収集できる情報の種類を見るとき、各センサがそれ自身のL(θp;Δθp)を有すると仮定する。但し、θpは、グローバル座標系を参照するものである。これらは、L1及びL2と称され、センサを表わすために上付き文字を使用する。更に、2つのセンサは、感度及びLED出力が異なり、その結果、重畳する視野において同じ物体を測定するために倍率ファクタエラーαが生じると仮定する。又、当該物体からの距離及び信号の大きさに対して1/α2関係も仮定する。更に、物体が固定反射率ρp及び固定巾wを有すると仮定する。
ρp
、θp及びdは、2つのセンサ測定値間の共通の値であり、当該物体に特有のものであることに注意されたい。dと
との間には、良く定義された関係があり、ここでの規範的な区分を参照されたい。ここで、αは、2つのセンサ/LED間の一定の感度差であり、これは、センサの寿命にわたってゆっくり変化する。これらの定義では、次のようになる。


及び
これらの方程式は、Ip及びQpについて、背景のみの部分的遮りモデルに代入されて、
のための方程式を発生する。次のような5つの未知数がある。
・α
・ρp
・θp
・Δθp
更に、4つの方程式があり、従って、それらの値の1つが既知である(又は仮定される)限り、その残りは潜在的に計算することができる。良好な初期推測はαであり、そしてΔθpがなされると仮定するのが合理的である。別のセンサ、例えば、カメラベースセンサ106が設けられると、θp及び
の直接的な測定値が得られる。不都合にも、これらの方程式は、非線形であり、従って、これらの制約の中に独特の解が存在することを示すために、ある作業がまだ行われる。この推定プロセスを遂行するために、多数の推定スキームのいずれかが使用される。例えば、拡張カルマンフィルタ、シグマポイントカルマンフィルタ、又は直接推定を使用することが含まれる。
背景のみの部分的遮りモデルの規範的な実施
10°のLEDセンサ12による減衰投射が白い壁に対して造影された。その水平投影減衰は、標準偏差がほぼ12°のほぼガウス分布である。原型が、12フィートの背景幕をもつ比較的暗い空の室内で床上約3.5フィートに配置された。
黒いフェルトバッフルでセンサ112を覆う状態でクロストークが測定された。反射性バッフルでゼロ位相オフセットが測定された。公称「オープン」背景が捕獲された。LEDから10フィートまで0°のオフセットで、人間がセンサ112から1フィートの増分で立つようにして、センサデータが収集された。センサデータは、5フィートの放射方向距離において、−15°から+15°まで、5°の増分で収集された。フェルト測定は、本質的にクロストークを測定するので、(Ic;Qc)と称される。反射バッフル測定は、(Io;Qo)と称され、そしてオープン測定は、(Iopen;Qopen)と称される。最終的に、シーンにおける当該物体での生の測定は、(Im;Qm)と称され、そして推定されるべき当該物体信号は、(Ip;Qp)と称される。L(Qp;ΔQp)は、エラー関数を“erf”とすれば、特定の形態が次のようになる前記ガウス分布を仮定してモデリングされた。
又、次のように定義される。



但し、γは、位相Δから距離への変換であり、そしてΔθpは、巾が2フィートの人間を仮定して計算される。ここで、方程式の系は、次のように設定される。
及び
但し、L(θp;Δθp)は、Δθp及びL(θp;Δθp)のための前記方程式を使用して表現される。θpを既知の値として処理し、そして非線形方程式の系を数字的に解く。実際のデータでの結果が図3及び4のグラフに示されている。図3において、曲線120は、修正なしを表わし、そして曲線122は、修正されたデータを表わす。図4において、曲線130は、修正なしを表わし、曲線132は、修正されたデータを表わし、そして曲線134は、真の距離を表わす。
種々の背景モデルを伴う単一センサ112についての数学では、複数のセンサが一体的な位置モデルへと結合される。上述したように、1つの実施形態では、複数の接近センサが実施される。他の実施形態では、複数のLEDがTDM的に使用されて、望ましい視野を与える。カメラベースセンサを一体化することで全ての当該パラメータを推定することができる。
図5は、複数のセンサを段階的に使用して装置の状態を変更する方法300を示す。最初に、装置は、スリープモードのような電力消費減少モードにあり、そしてコントローラは、第1センサからデータを受け取る(ブロック302)。受け取られたデータが処理され(ブロック304)そしてスレッシュホールドと比較される(ブロック306)。スレッシュホールドとの比較で、ユーザが存在するか又は存在する見込みが高いかに関して決定することができる(ブロック308)。ユーザが存在しない場合には、第1センサからデータが受け取られ続ける(ブロック302)。しかしながら、ユーザが存在すると決定されるか又は存在する見込みが高いと決定された場合には、第2センサが作動され(ブロック310)、第2センサからデータが受け取られる(ブロック312)。第2センサからのデータが処理され(ブロック314)、そして第1センサからのデータと合成される(ブロック316)。第1及び第2センサからのデータの処理は、データに対してデジタル信号処理を遂行し、例えば、データをフィルタリングし、データをスケーリングし、及び/又はデータを一般的にコンディショニングして、存在決定に有用なものにすることを含むが、これに限定されない。更に、第1及び第2センサからのデータの合成は、データを一緒に記憶し、及び/又はデータを論理的又は数学的に合成することを含む。
第1及び第2センサからのデータは、ユーザ存在値及び/又はユーザ存在スコアの確率を計算するのに使用される(ブロック318)。ユーザ存在値及び/又はユーザ存在スコアの確率は、スレッシュホールドと比較されて、ユーザが存在するかどうか決定する(ブロック322)。更に、ユーザが存在すると決定された場合には、装置に対するユーザの距離及び位置のような他のパラメータが決定され(ブロック324)、そして装置の状態が変更される(ブロック326)。状態の変更は、装置をスリープモードから目覚めモードにすること、又は他の適当な状態変更を含む。
更に、他のパラメータ(例えば、距離、位置、等)の決定並びに装置の状態の変更は、ユーザ存在の肯定決定の後に、ブロック308からの破線で示されたように、第1センサのデータのみに基づいて行われてもよいことが明らかである。
更に、ユーザ存在の第2の決定(ブロック320)は、第2センサから与えられる付加的な情報に基づき、第1の決定(ブロック308)より正確である。更に、上述したように、第1及び第2センサの両方からのデータの合成に基づき付加的なパラメータが決定される。
他の実施形態では、方法300より多くの又は少ないステップが具現化されてもよいことが明らかである。図6−11は、存在決定方法の更に詳細なフローチャートである。
図6を参照すれば、存在感知を示すフローチャート200が図示されている。最初に、カメラを使用して画像が得られる(ブロック202)。光レベルの決定がなされ(ブロック204)、肌色決定ルーチンへ送られる(ブロック206)。任意であるが、ある実施形態では、光レベル決定が、矢印203で示すように、他のルーチンへ送られてもよい。更に、捕獲された画像が前処理されてもよい(ブロック208)。あるケースでは、前処理は、例えば、画像のダウンスケーリング、画像のカラースペースの変更、及び/又は画像の改善を含む。他の検出器特有の前処理も行われる(ブロック214、215及び217)。例えば、画像は、ブロック214での前処理によって任意にボケさせた後に、肌色検出ルーチン(ブロック206)へ送られてもよい。更に、ブロック215の前処理は、カラーをグレイスケールへ変更した後に画像を顔検出ルーチン(ブロック210)へ送り、及び/又はブロック217の処理で縁検出を行った後に画像を動き検出ルーチン(ブロック212)へ送ることを含む。深度画像は、それをセグメント化することにより前処理し、そしてセグメント化された部分が検出器へ入力として与えられる。肌色検出ルーチン、顔検出ルーチン及び動き検出ルーチンは、図7−11を参照して以下に詳細に述べる。
肌色検出ルーチン、顔検出ルーチン及び動き検出ルーチンの結果は、融合及び検出ロジック(ブロック216)を使用して重み付けされ合成され、そしてユーザ存在分類が決定される(ブロック218)。融合及び検出ロジックは、ニューラルネットワーク、サポートベクトルマシン、及び/又は他のある形態の確率マシン学習ベースアルゴリズムを使用して、ユーザが存在するかどうかの決定に到達することを含む。図7は、低光量決定(ブロック204)でスタートするフローチャートとして肌色検出ルーチン(ブロック206)を示す。低光量決定は、画像の処理に影響を及ぼすように種々の異なる仕方で使用されることが明らかである。例えば、ある実施形態では、低光量決定は、ニューラルネットワークへのベクトルとして行われるが、他の実施形態では、低光量決定は、使用するカテゴライザーの特定タイプを選択するのに使用される。即ち、画像が低光量で撮影されていないと決定された場合には、特徴ベクトルが発生され(ブロック220)、そして第1ピクセルクラシファイアが適用される(ブロック222)。画像が低光量で捕獲された場合には、異なる1組の特徴ベクトルが発生され(ブロック224)、そして第2のピクセル毎クラシファイアが適用される(ブロック226)。望ましい結果を得るために特徴のタイプ、例えば、カラー変換、等が選択的に与えられ、これは、低光量決定に基づいて異なってもよい。更に、第1及び第2のピクセル毎クラシファイアは、低光量決定に基づいて異なってもよい。例えば、第1のクラシファイアは、7−5−2マルチレイヤパーセプトロン(MLP)フィードフォワードニューラルネットワークのピクセル毎クラシファイアであるが、第2のクラシファイアは、2−12−2MLPフィードフォワードニューラルネットワークのピクセル毎クラシファイアである。ある実施形態では、クラシファイアは、プロセスを加速する上で助けとなるようにGPUを伴うオープンカーネルで実施される。
クラシファイアからの出力は、画像が肌色を含む確率を示す確率値(例えば、0と1との間の値)である。形態学的フィルタは、画像に任意に適用され(ブロック228)、そして平均グレイスケールレベルが計算される(ブロック230)。非直線的スケーリング(ブロック232)、一時的キューフィルタ(ブロック234)及びクランプ(ブロック236)が適用された後に、肌色検出によるユーザ存在の確立を決定する(ブロック238)。
図8は、顔検出(ブロック240)を適用することでスタートするフローチャートとして顔検出ルーチン(ブロック210)を示す。顔が存在する見込みを示す確率スコアを与える、例えば、ビオラ−ジョーンズカスケード顔検出器のような適当な顔検出器が実施される。次いで、顔存在スコアがスケーリングされ(ブロック242)、そして間欠的検出フリッカフィルタが任意に適用されて(ブロック244)、画像を平滑化する。カメラが比較的良質のものである実施形態では、平滑化がプロセスから省略される。フリッカフィルタは、一時的キューフィルタ(ブロック246)、平均値からの正規化スコア偏差がスレッシュホールドより小さいかどうかの決定(ブロック248)、及び出力値を、スケーリングされたスコアで乗算すること(ブロック250)を含む。一時的キューフィルタ(ブロック252)及びクランプ(ブロック254)が適用された後に、顔検出によるユーザ存在の確立を決定する(ブロック256)。顔検出器への同じ流れ又は同様の流れをたどるようにボディ検出器又はボディセンサが構成されてもよい。更に、ボディ検出器は、顔検出器に使用されるものより解像度の低い画像センサを使用して実施されてもよい。
図9は、複数のフレームを収集することによりスタートするフローチャートとして動き検出ルーチン212を示し、従って、メモリは、複数のフレームを記憶するように実施される。例えば、現在フレーム及び2つの他のフレームの、3つのフレームが使用される。図9に示す実施形態では、現在フレーム及び2つのその後のフレームが使用される。最初に、入力フレームは、kフレームだけ順次に遅延され(ブロック260、262)、及びフィードフォワードされて、第2遅延(ブロック262)の出力と加算される(ブロック264)。ブロック260の出力は、2で乗算され(ブロック266)、そして加算器(ブロック264)と乗算器(ブロック266)の出力との間の差(ブロック268)が決定される。次いで、ピクセル毎の内積が決定され(ブロック270)、スケーリングされ(ブロック272)、そしてピクセルがクランプされる(ブロック274)。平均グレイレベルが計算され(ブロック276)、非直線的スケーリングが遂行され(ブロック278)、一時的キューフィルタが適用され(ブロック280)、そして[0,1]にクランプされる(ブロック282)。最終的に、動きによるユーザ存在の確率が決定される(ブロック284)。
動き検出ルーチンに有用な幾つかのパラメータは、オートフォーカス(AF)ウインドウ統計値又は水平の縁又はゾーベル/シャー(Sobel/Sharr)の縁、2Dカラーヒストグラムデータ、コンポーネントヒストグラムデータ、カラーコンテンツの自動ホワイトバランス/自動露出(AWB/AE)ウインドウ統計値、等を含む。幾つかの処理ステップは、Yチャンネル(強度)のような動き検出、ゾーベル又はシャーのいずれかのフィルタで計算された勾配の大きさ(適切な正規化のために勾配を累積する)、勾配大きさスレッシュホールド(縁ピクセルのカウントによる正規化)、クロミナンス(Cr、Cb)スペースにおける皮膚確率、それらのいずれかのサブ画像、等に対して実施される。ある実施形態では、動き検出は、画像セントロイドを計算する能力を含む。現在フレームのセントロイドから手前のフレームのセントロイドまでの距離は、動き量の尺度として使用され、又、ハードスレッシュホールドを適用して、バイナリー検出又は動きを生じさせる。従って、例えば、Y強度、縁勾配の大きさ、バイナリー縁、又は皮膚確率画像のセントロイド位置の変化が動きを指示する。感度及び頑強さのトレードオフが、使用するパラメータの特定の組み合わせを指令する。例えば、皮膚確率画像は、縁勾配と共に使用され、バイナリー縁は、頑強さ対照明変化を与えるのに使用される。皮膚確率は、上述したように、ニューラルネットワークで得られ、或いは又、この関数を近似するために自動ホワイトバランスカラースペースフィルタを使用いて得られる。
動きを感知するための幾つかの実施形態は、勾配画像の皮膚検出のウインドウ統計値を参照する。1つの実施形態は、グローバルな和の変化を見る。特に、画像が全フレームにわたって加算されて、スカラー値s[i]を発生し、ここで、iは、現在フレームインデックスである。過去のN個の値のキューが維持され、S={s[i−1]、s[i−2]・・・s[i−N]}となる。SL,Nは、s[i−L]からs[i−N]までのシーケンスとして表され、そしてこれらの値の極端なものがu=max(SL,N)及びv=min(SL,N)として計算される。動きの量は、この範囲外の行程によって決定される:e=max(s[i]−u、v−s[i])。eが所定のスレッシュホールドを越える場合に動きが検出される。
ある実施形態では、動き検出ルーチンが単一フレームで実施され、従って、全フレームが記憶されないので、メモリは、ほとんど又は全く使用されない。ある実施形態では、画像(単一フレーム)がウインドウに分割され、それに対して統計値が計算される。ウインドウの統計値の変化を使用して、ユーザの動き及び位置も決定する。
図10は、単一フレーム動き検出のために画像を分割するウインドウのあり得るセットを示す。より詳細には、図10は、統計学的目的のために非重畳ウインドウ及び同心的ウインドウの両方に分割される単一フレームを示す。各ケースにおいて、画像(ページの上部フレーム)のルミナンス及び画像(ページの下部フレーム)の強度勾配大きさについて考える。例えば、画像300は、複数の非重畳露出統計ウインドウ302へ分割される。或いは又、画像300は、複数の同心的重畳露出統計ウインドウ304へ分割される。各ウインドウの統計値は、ルミナンス画像に基づくか(画像300のように)又は強度勾配大きさ画像306に基づいて決定される。
ウインドウの使用は、勾配大きさの和を計算するときにより頑健な動き捕獲を与える。重畳する長方形ウインドウに関しては、1つの実施形態は、8つの同心的配列の長方形を含み、最大の長方形はフレーム全体を含み、そして最小の長方形は、画像を中心とするものである。従って、フレームiでは、フレームの和がj∈[1、2、・・・8]についてsj[i]となる。長方形と長方形との間に存在するピクセルのストリップの和は、特殊なケースd8[i]=s8[i]/h8を除いて、これらの和の差として計算される:dj[i]=sj[i]−sj+1[i]/hj。この差は、ストリップの高さhjによって正規化され、この高さは、ストリップの面積にほぼ比例する。
次いで、手前のN個のフレームにわたる差djの極端値u、v(最大値及び最小値)がキュー及び行程ej=max(dj[i]−u、v−dj[i])を使用して計算される。各工程ejをスレッシュホールドと比較することで、フレームの領域jにおける動きのインジケータが与えられる。照明の微妙な変化は、偽の肯定検出を生じ得る。真の動きは、8つの領域のうちの2つ又は3つにおける検出に通常関連している。従って、ある実施形態では、フレームにおいて動きが検出されたと決定するためには、動きを検出する少なくとも2つの領域が要求される。更に、室内灯をターンオン又はオフするような大きな照明変化は、しばしば、多数の領域が動き検出を示す結果となる。従って、4つ以上の領域が動きを検出した場合には、検出が抑制される。これらの設計パラメータは、経験に基づいて調整されるか、又は望ましい感度レベル及び頑強さを与えるように調整される。
図11は、非同心的ウインドウ302を伴う単一フレーム300を使用する動き検出ルーチン212Bを示すフローチャートである。ある実施形態では、各統計ウインドウには、独特の分析パイプが設けられる。即ち、各ウインドウは、同時に処理される。他の実施形態では、1つ以上のウインドウが共通の分析パイプにおいて順次に処理される。ここで使用する「分析パイプ」とは、ウインドウの統計分析に関連した処理ステップを指し、一時的キューフィルタを含む。
上述したように、画像300は、統計ウインドウ302へ分割され、各ウインドウに対して平均統計値が計算される(ブロック310)。一時的キューフィルタが平均統計値に適用され(ブロック312)、そして短時間過去の振舞いからの行程値“e”が計算される(ブロック314)。行程値は、それがスレッシュホールドを越えるかどうか決定するためにスレッシュホールドと比較される(ブロック316)。スレッシュホールドを越える各行程値に対して正規化されたカウントが保持され(ブロック318)、そして正規化されたカウントが投票スレッシュホールドを越える場合には(ブロック320)、動きが検出されたと決定される(ブロック322)。動きが検出されないと決定された場合には、第2センサ(1つ又は複数)から付加的なデータが収集される。更に、ある決定された量の時間が経過した後に、装置は、減少電力状態に戻り、第1センサ(1つ又は複数)がデータを収集する。
又、行程値は、概略統計値を発生するのにも使用される(ブロック324)。概略統計値は、非直線的にスケーリングされ(ブロック326)、そして確率動きスコアが与えられる(ブロック328)。一般的に、ブロック322は、運動が検出されたことを指示するバイナリー1又は0出力を与えるが、ブロック328は、画像300において動きが検出された見込みを指示する0と1との間の値を与える。
明らかなように、ニューラルネットワーク、サポートベクトルマシン(SVM)又は他の分類システムは、前記ルーチンの各々においてユーザの存在に関して決定するのに使用される。更に、各ルーチンからの確率値は、例えば、その値があるスレッシュホールドより高い場合には、それだけで、ユーザが存在すると決定するのに充分である。更に、ある実施形態では、ユーザが存在するかどうか決定するのに、各ルーチンからの確率値の組み合わせが使用される。ある実施形態では、ルーチンの出力は、その有効性が問題であるから使用されない。例えば、肌色検出ルーチンは、照明によって信頼できないことがある。更に、ルーチンからの確率出力は、重み付け的に結合されてもよい(例えば、1つの確率に、それが他のものより正確であるとの見込みに基づいて、より大きな重みが与えられてもよい)。
ここに述べる実施形態は、ノートブックコンピュータ、デスクトップコンピュータ、等のコンピューティング装置における電力消費を減少するように具現化される。特に、コンピューティング装置は、装置が冬眠又はスリープ状態のような低電力状態にあるときでも存在感知機能を発揮して、ユーザが存在するときには装置がパワーアップしそしてユーザが去ったときには装置がパワーダウンするか又は減少電力状態に入るようにする。更に、この実施形態は、とりわけ、直感的なパワーアップ及びパワーダウン動作並びにセキュリティ特徴を与えることによりコンピューティング装置でのユーザの経験を改善するように構成される。
低電力動作においてメインプロセッサ及びRAMの使用を除外する段階的システムが実施される。例えば、1つの実施形態において、最低電力状態では、カメラ、画像信号処理(ISP)装置、及び存在値をリアルタイムで計算する埋め込み型プロセッサのみが実施される。次の段階では、顔検出器チップ及びRAMがターンオンされる。その後の段階では、システムプロセッサ及び他のリソースがパワーオンされる。
それ故、動き検出について上述した例では、手前のフレームのメモリが、ISPにより計算された統計値に制限されると共に、RAMが利用できないときには、埋め込み型プロセッサレジスタ及びキャッシュ(例えば、32k)において利用できるスペースに制限される。更に、存在感知ルーチンの外部では存在感知情報(例えば、統計値、画像、等)が利用できないことが明らかである。即ち、例えば、ユーザは、存在感知のために捕獲された画像を見ることができない。
ある実施形態では、ボディ検出パラメータが使用される。ボディ検出パラメータは、顔検出パラメータと同様であるが、顔の証拠となる小さな特徴ではなく人間のボディの大きな特徴に基づくものである。例えば、ボディ検出パラメータは、腕、脚、胴、頭、等を見分けることに関連している。大きな特徴に基づくものであるから、顔検出に使用されるものに対して解像度の低いカメラを実施して、ボディセンサとして適度に良好な結果を得ることができる。更に、ある実施形態では、カメラは、ボディ検出パラメータを得るのに使用されるときには低解像度モードで動作し、そして他の目的で使用されるときには高解像度モードで動作する。実際に、ボディ検出及び顔検出パラメータの両方に同じカメラを使用することができる。ボディ検出パラメータは、存在の確率を決定するために顔検出パラメータと同様に使用できることが明らかである。更に、ボディ検出パラメータは、ボディが検出された確立を表わすパラメータでもよい。ボディ検出器に使用されるデータは、深度画像であるか、グレイスケール画像であるか、RGB画像であるか、或いは前記タイプの画像のみ又は別のタイプの画像との組み合わせの一方である。
ある実施形態では、多数の異なるセンサ及び入力が実施される。多数の異なるセンサ及び入力は、偽の肯定及び偽の否定を減少するための存在センサの精度及び能力を高める上で助けとなる。1つの実施形態において、ベイズ(Bayesian)のフィルタが実施される。より詳細には、反復ベイズ推定が確率データ融合に基づいて遂行される。図12は、複数の同時非同期センサを使用してユーザが存在する確率を決定する方法350を示す規範的なフローチャートである。フローチャートの上部付近に、複数のセンサ352がある。より詳細には、センサは、ビデオカメラ354、3Dカメラ356、マイクロホン358及びキーボード360を含む。これは、単なる例示に過ぎず、実際の具現化では、より多くの又はより少ないセンサ、或いは異なるセンサが使用されてもよい。例えば、タッチスクリーン、トラックパッド、及びマウスが、各々、使用される。センサ352は、各々、同時に動作することができる。
異なるセンサ352は、各々、ある特徴を捕獲するように構成される。即ち、各センサは、ある有用な情報を存在決定に与える能力を有する。センサ情報の組み合わせは、各センサからの情報を単独で使用するときよりも情報を組み合わせた方がより有用で及び/又はより正確であるような情報の相乗効果を発揮する。より詳細には、センサ352からのデータは、ユーザが存在する見込みを決定するのに加えて3Dスペースにおけるユーザの実際の位置及びユーザの速度を決定するのに使用される。得られたデータは、頑健な形態で組み合わされて、動きモデルの先験的予想と共にセンサ情報の相乗効果を発揮する。データ融合は、モデル予想を観察されたセンサデータと最適に融合し、推定状態(ユーザの位置及び速度)への各コンポーネントの貢献を、その情報の確実性(クオリティ)に比例して重み付けする。従って、動きモデルが正確で且つセンサデータがノイズ性である場合には、モデル予想がセンサデータに対してより重たく重み付けされ、そしてその逆のことも言える。モデル及び観察されたデータのこの組み合わせは、システムにおける進化の確率に基づいて適応され続ける(例えば、見込みモデルにより計算される重みが常時更新される)。
センサにより与えられるデータから抽出される幾つかの規範的な特徴がフローチャートに示されている。より詳細には、ビデオカメラは、3Dブロブ、顔&ボディ検出、及び動きベクトルのような特徴を抽出する(ブロック370)。3Dブロブは、カメラの視野内の物体を表わす。3Dカメラ356は、顔検出、ボディ検出及び動きベクトルも抽出するように構成される(ブロック372)。マイクロホン358は、オーディオ加速度及び新規性検出を抽出するように構成される(ブロック374)。キーボード360は、キー押圧検出を抽出するように構成される(ブロック376)。オーディオ加速度特徴は、ドップラー効果を利用して、物体が近付きつつあるか遠のいているか決定する。更に、新規性検出特徴は、ユーザの存在を指示する背景ノイズの変化の発見を求める。例えば、音量の増加は、ユーザの存在を表わす。
これらの特徴が抽出されると、観察の見込みが決定される(ブロック178)。即ち、抽出された特徴は、各々、当該物体(例えば、ユーザ)が存在する見込みを決定するのに使用される。観察見込みは、次いで、状態表現を更新するのに使用される(ブロック182)。状態表現は、データの融合を利用する。状態表現(ブロック184)が発生される。1つの実施形態において、状態表現は、ヒストグラムの形態をとる。他の実施形態は、パラメータガウス分布(カルマンフィルタ)、モンテ・カルロサンプルベース分布(順次モンテ・カルロ方法/粒子フィルタ)、ハイブリッド非同期マルチ観察粒子フィルタ、等を含む。状態表現は、ユーザ存在計算に関連した情報を提示する。例えば、状態表現は、ユーザ(1人又は複数)の3D位置及びユーザの速度に関連した情報を提示する。動きモデル(ブロック188)は、状態表現に使用される情報を入力し、そして状態表現からの情報も受け取る。動きモデルは、ユーザの動きをモデリングする状態進化表現である。状態表現は、とりわけ、ユーザ存在の確率を決定する統計学的計算(ブロック186)に使用される。更に、統計学的計算は、ユーザの位置及び推定のバリアンスを推定する。
又、状態表現は、測定モデル(ブロック180)にも情報を与え、そして測定モデルは、観察見込み決定(ブロック178)へ送られる。測定モデルは、一般的に、センサの各観察をスケーリングする。より詳細には、センサの相対的な観察が多少の重みを与えるので、益々大きな重みに値する観察を与える上で助けとなるようにモデルが適用される。例えば、キー押圧の観察は、3Dブロブの観察より大きな重みが与えられる。更に、センサがノイズ性である場合には、小さな重みが与えられる。測定モデルの各々が観察見込みステップに使用され、これは、次いで、状態表現を更新するのに使用される(ブロック182)。
存在感知の実施は、コンピューティング装置の増加インテリジェント振舞いを与える。即ち、コンピューティング装置は、ユーザの相互作用を良好に予想することができ、そして改善されたユーザ経験を与えることができる。例えば、ディスプレイは、ユーザが存在する間に、暗くならず、ユーザが立ち去ると、シャットオフされる。更に、ディスプレイ出力は、装置からユーザまでの距離に基づいてスケーリング及び/又は変更される。感知された動きを模擬するようにスクリーンを横切って葉っぱが吹き飛ばされるような他の直感的及び経験的特徴がユーザのインテリジェントな及び双方向の感覚に追加される。
以上、ユーザの存在を感知する幾つかの規範的な実施形態を説明した。以上の説明は、特定の実施形態を表現したが、当業者であれば、それら実施形態の精神及び範囲から逸脱せずに、その形態及び細部に変更がなされることが明らかであろう。例えば、存在感知のための1つ以上のアルゴリズムに対して変更を実施することができる。1つの例では、ハードウェア制限がアルゴリズムの変更を推進する。従って、ここに述べる特定の実施形態は、例示に過ぎず、その範囲を限定するものではない。
100:コンピューティング装置
102:センサ
103:メインカメラ
104:マイクロプロセッサ/マイクロコントローラ
105:CPU
106:カメラベースセンサ
107:画像プロセッサ
108:カメラ
110:プロセッサ
112:接近センサ
114:コントローラ
116:マルチプレクサ
118:LED

Claims (28)

  1. コンピューティング装置を動作して存在ベースの機能を提供する方法であって、
    コンピューティング装置を減少電力状態で動作し、
    少なくとも1つのセンサから第1セットのデータを収集し、
    前記第1セットのデータに基づいて、前記コンピューティング装置の付近に当該物体がある確率を決定し、
    前記コンピューティング装置に対する前記物体の部分に基づいてコンピューティング装置の状態の変更を選択的に実行し、
    前記確率がスレッシュホールドレベルを越えた場合には、少なくとも1つの第2センサを作動して、第2セットのデータを収集し、
    前記第1及び第2セットのデータに基づき、前記物体が人間である確率を決定し、
    前記物体が人間であると決定された場合には、
    前記コンピューティング装置に対する人間の位置及び距離の少なくとも一方を選択的に決定し、及び
    前記コンピューティング装置に対する人間の存在及び位置の少なくとも一方に基づいて前記コンピューティング装置の第2の状態変更を実行する、
    ことを含む方法。
  2. 前記少なくとも1つのセンサ及び少なくとも1つの第2センサは、同じセンサである、請求項1に記載の方法。
  3. 前記センサは、前記少なくとも1つのセンサとして第1モードで動作し、そして前記少なくとも1つの第2センサとして第2モードで動作する、請求項2に記載の方法。
  4. 前記第2センサは、画像ベースのセンサを含み、前記第1モードは、低解像度モードを含み、そして前記第2モードは、高解像度モードを含む、請求項3に記載の方法。
  5. 前記状態の変更を実行することは、
    ディスプレイ背景/スクリーンセーバーシフトを変更し、該シフトは、ユーザの動きに対応するものであり、
    ディスプレイを目覚め状態に至らせ、
    前記コンピューティング装置を目覚め状態に至らせ、
    前記コンピューティング装置を目覚め状態に至らせるときにプロセスの数を減少し、
    人間が検出されたときに通常のタイムアウトを変更することにより前記コンピューティング装置をアクティブな状態に維持し、
    人間の位置に基づいてオーディオステアリングし、
    ユーザの位置に基づいてマイクロホンステアリングし、
    ユーザが遠く離れている場合に、ユーザオプションの小さなセットを与えるようにユーザインターフェイスを変更する、
    のうちの少なくとも1つを含む、請求項1に記載の方法。
  6. 前記コンピューティング装置が既に目覚めており、そしてユーザが前記コンピューティング装置から離れることを検出する場合には、前記コンピューティング装置は、
    ディスプレイの状態をスリープ状態に変更し、又は
    前記コンピューティング装置の状態をスリープ状態に変更する、
    ように構成される、請求項5に記載の方法。
  7. 合成されたセンサデータを使用し、ニューラルネットワーク又はサポートベクトルマシンを用いて存在を決定することを更に含む、請求項1に記載の方法。
  8. 物体が前記コンピューティング装置のスレッシュホールド距離内にあるかどうかに関してハード判断を実行することを更に含む、請求項1に記載の方法。
  9. 合成されたセンサデータを使用し、肌色決定、存在決定、及び存在決定を行うための重み付けされた仕方での動き決定、の各々を用いて存在を決定することを含む、請求項1に記載の方法。
  10. 前記少なくとも1つのセンサは、キーボード、マウス、又はマイクロホンの少なくとも1つを含む、請求項1に記載の方法。
  11. 合成されたセンサデータを使用し、前記コンピューティング装置からユーザへの決定された距離を用いて存在を決定することを更に含む、請求項1に記載の方法。
  12. セキュリティのために前記コンピューティング装置の付近の顔の数を決定することを更に含み、セキュリティは、部分的にパワーアップし又はセキュアな状態へパワーアップし及び更なるアクセスのためにクレデンシャルを要求することにより与えられる、請求項1に記載の方法。
  13. 前記少なくとも1つのセンサは、ボディセンサを含む、請求項1に記載の方法。
  14. ユーザがコンピューティング装置の付近にいるかどうか決定する方法であって、
    画像センサを使用して画像を捕獲し、
    プロセッサを使用して、前記捕獲された画像から次のものの少なくとも1つを計算し、
    ボディ検出パラメータ、及び
    動き検出パラメータ、
    前記ボディ検出パラメータ及び動き検出パラメータの少なくとも1つを使用して、ユーザが存在する確率に関して決定を行い、
    前記確率がユーザの存在を指示する場合には、深度推定器を動作して、前記コンピューティング装置からユーザへの距離がスレッシュホールド未満である見込みを決定し、
    前記見込みがスレッシュホールドを越える場合には、前記コンピューティング装置の状態を変更する、
    ことを含む方法。
  15. 肌色検出パラメータ及び顔検出パラメータを計算することを更に含み、それらは、両方とも、ユーザが存在するかどうかの決定を行うのに使用される、請求項14に記載の方法。
  16. 肌色検出、顔検出、ボディ検出及び動きの各パラメータを計算し、及び
    前記パラメータを互いに重み付けする、
    ことを更に含み、前記肌色検出パラメータは、他のパラメータより小さく重み付けされる、請求項15に記載の方法。
  17. 前記動き検出パラメータは、単一のフレームを使用して計算される、請求項14に記載の方法。
  18. 画像をウインドウへ分割し、及び
    同心的ウインドウに対する統計値を計算する、
    ことを更に含み、少なくとも2つのウインドウにおける変化が画像における動きを指示する、請求項17に記載の方法。
  19. メインプロセッサと、
    前記メインプロセッサに結合された存在センサシステムと、
    を備えたコンピューティング装置であって、
    前記存在センサシステムは、
    画像を捕獲するように構成された少なくとも1つの画像センサ、及び
    前記画像センサに結合されたプロセッサであって、次のもの、
    ボディ存在パラメータ、
    動きパラメータ、
    肌色パラメータ、及び
    顔検出パラメータ、
    の少なくとも1つを計算することによりユーザが前記コンピューティング装置の付近にいる確率を決定するように画像を処理するよう構成されたプロセッサ、
    を含み、
    前記確率が見込みスレッシュホールドを越える場合には、ユーザが存在すると決定された指示が前記プロセッサから前記メインプロセッサへ送られ、そして前記メインプロセッサがその指示に基づいて前記コンピューティングシステムの状態を変更する、コンピューティング装置。
  20. 前記存在センサは、少なくとも1つの付加的な入力装置から入力を受け取り、そして当該少なくとも1つの付加的な入力から受け取られたデータは、確率の決定に使用される、請求項19に記載のコンピューティング装置。
  21. 前記少なくとも1つの付加的な入力装置は、
    付加的な画像センサ、
    キーボード、
    タッチスクリーン、
    トラックパッド、
    マイクロホン、及び
    マウス、
    のうちの1つを含む、請求項20に記載のコンピューティング装置。
  22. 前記センサ及び入力装置の1つ以上が同時に動作する、請求項21に記載のコンピューティング装置。
  23. 前記画像センサ及び付加的な画像センサの少なくとも1つは、深度センサを含む、請求項21に記載のコンピューティング装置。
  24. 前記画像センサ及び付加的な画像センサは、両方とも、同時に動作する、請求項23に記載のコンピューティング装置。
  25. 前記コンピューティング装置の状態は、前記センサの1つからのデータのみに基づいて変更される、請求項21に記載のコンピューティング装置。
  26. 前記状態の変更は、ウォームアップ状態に入ることを含む、請求項25に記載のコンピューティング装置。
  27. 前記コンピューティング装置の状態の変更は、ユーザが検出されたときに前記コンピューティング装置をアクティブなモードに維持することを含む、請求項19に記載のコンピューティング装置。
  28. 前記状態の変更は、他の入力が検出されないとき前記コンピューティング装置のスクリーンを薄暗くするか又はスリープさせるタイムアウトの1つをディスエイブルすることを含む、請求項27に記載のコンピューティング装置。
JP2014510519A 2011-05-12 2012-05-11 存在センサ Expired - Fee Related JP5876142B2 (ja)

Applications Claiming Priority (9)

Application Number Priority Date Filing Date Title
US201161485610P 2011-05-12 2011-05-12
US61/485,610 2011-05-12
US201161504026P 2011-07-01 2011-07-01
US61/504,026 2011-07-01
US13/219,573 2011-08-26
US13/219,573 US20120287031A1 (en) 2011-05-12 2011-08-26 Presence sensing
US13/469,996 US10372191B2 (en) 2011-05-12 2012-05-11 Presence sensing
US13/469,996 2012-05-11
PCT/US2012/037644 WO2012155105A1 (en) 2011-05-12 2012-05-11 Presence sensing

Publications (2)

Publication Number Publication Date
JP2014519091A true JP2014519091A (ja) 2014-08-07
JP5876142B2 JP5876142B2 (ja) 2016-03-02

Family

ID=48139276

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014510519A Expired - Fee Related JP5876142B2 (ja) 2011-05-12 2012-05-11 存在センサ

Country Status (8)

Country Link
US (1) US10372191B2 (ja)
EP (1) EP2712431A1 (ja)
JP (1) JP5876142B2 (ja)
KR (2) KR20140002034A (ja)
CN (1) CN103534664B (ja)
AU (1) AU2012253292B2 (ja)
TW (1) TWI506478B (ja)
WO (1) WO2012155105A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2018186007A1 (ja) * 2017-04-05 2018-10-11 シャープ株式会社 表示装置、テレビジョン受像機、表示制御方法、表示制御プログラム、および記録媒体

Families Citing this family (88)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8760517B2 (en) 2010-09-27 2014-06-24 Apple Inc. Polarized images for security
US8836777B2 (en) 2011-02-25 2014-09-16 DigitalOptics Corporation Europe Limited Automatic detection of vertical gaze using an embedded imaging device
US20130057573A1 (en) * 2011-09-02 2013-03-07 DigitalOptics Corporation Europe Limited Smart Display with Dynamic Face-Based User Preference Settings
US20120287031A1 (en) 2011-05-12 2012-11-15 Apple Inc. Presence sensing
US20130027548A1 (en) * 2011-07-28 2013-01-31 Apple Inc. Depth perception device and system
KR101870902B1 (ko) * 2011-12-12 2018-06-26 삼성전자주식회사 영상 처리 장치 및 영상 처리 방법
US20130194172A1 (en) * 2012-01-30 2013-08-01 Cellco Partnership D/B/A Verizon Wireless Disabling automatic display shutoff function using face detection
TWI536157B (zh) * 2012-02-23 2016-06-01 原相科技股份有限公司 電子裝置與電腦可讀取媒體
US9152204B2 (en) 2012-07-17 2015-10-06 Google Inc. System wakeup based on changes in physical environment
KR101938648B1 (ko) * 2012-10-23 2019-01-15 삼성전자주식회사 이미지 센서를 포함하는 모바일 기기, 이미지 센서의 구동 방법 및 모바일 기기의 구동 방법
JP6150503B2 (ja) * 2012-12-04 2017-06-21 キヤノン株式会社 画像処理装置及び画像処理装置の制御方法
US9256269B2 (en) * 2013-02-20 2016-02-09 Sony Computer Entertainment Inc. Speech recognition system for performing analysis to a non-tactile inputs and generating confidence scores and based on the confidence scores transitioning the system from a first power state to a second power state
US9128714B2 (en) 2013-02-20 2015-09-08 Logitech Europe S.A. Method and system for detecting an object or body based on changes in signal phases
US20140250413A1 (en) * 2013-03-03 2014-09-04 Microsoft Corporation Enhanced presentation environments
US9164609B2 (en) * 2013-03-13 2015-10-20 Amazon Technologies, Inc. Managing sensory information of a user device
CN105229582B (zh) * 2013-03-14 2020-04-28 视力移动科技公司 基于近距离传感器和图像传感器的手势检测
US11172126B2 (en) 2013-03-15 2021-11-09 Occipital, Inc. Methods for reducing power consumption of a 3D image capture system
US9285886B2 (en) 2013-06-24 2016-03-15 Sonos, Inc. Intelligent amplifier activation
US9942384B2 (en) 2013-09-10 2018-04-10 Google Technology Holdings LLC Method and apparatus for device mode detection
US9468026B2 (en) * 2013-10-11 2016-10-11 Logitech Europe S.A. Method and system for shortening wireless pairing connection time by detecting an object or body
US9733956B2 (en) * 2013-12-24 2017-08-15 Intel Corporation Adjusting settings based on sensor data
US9159294B2 (en) 2014-01-31 2015-10-13 Google Inc. Buttonless display activation
US9037199B1 (en) 2014-02-13 2015-05-19 Google Inc. Detecting transitions between physical activity
US8976063B1 (en) 2014-04-29 2015-03-10 Google Inc. Automated detection of vehicle parking and location
US9710629B2 (en) 2014-05-13 2017-07-18 Google Technology Holdings LLC Electronic device with method for controlling access to same
US20150347732A1 (en) * 2014-05-29 2015-12-03 Google Technology Holdings LLC Electronic Device and Method for Controlling Access to Same
US9575560B2 (en) 2014-06-03 2017-02-21 Google Inc. Radar-based gesture-recognition through a wearable device
US9671495B2 (en) 2014-06-11 2017-06-06 Intersil Americas LLC Systems and methods for optical proximity detection with multiple field of views
US11169988B2 (en) 2014-08-22 2021-11-09 Google Llc Radar recognition-aided search
US9778749B2 (en) 2014-08-22 2017-10-03 Google Inc. Occluded gesture recognition
US9600080B2 (en) 2014-10-02 2017-03-21 Google Inc. Non-line-of-sight radar-based gesture recognition
US20160161339A1 (en) * 2014-12-05 2016-06-09 Intel Corporation Human motion detection
CN104636169B (zh) * 2015-02-15 2018-01-19 广东欧珀移动通信有限公司 一种系统唤醒方法及装置
JP2016178348A (ja) * 2015-03-18 2016-10-06 キヤノン株式会社 情報処理装置、情報処理装置の制御方法、及びプログラム
EP3521853B1 (en) 2015-04-30 2021-02-17 Google LLC Rf-based micro-motion tracking for gesture tracking and recognition
US10088908B1 (en) 2015-05-27 2018-10-02 Google Llc Gesture detection and interactions
CN105637532B (zh) * 2015-06-08 2020-08-14 北京旷视科技有限公司 活体检测方法、活体检测系统以及计算机程序产品
US9652125B2 (en) 2015-06-18 2017-05-16 Apple Inc. Device, method, and graphical user interface for navigating media content
US10650162B2 (en) * 2015-07-29 2020-05-12 Simplifeye, Inc. System and method for facilitating access to a database
US9990113B2 (en) 2015-09-08 2018-06-05 Apple Inc. Devices, methods, and graphical user interfaces for moving a current focus using a touch-sensitive remote control
US10425819B2 (en) * 2015-09-17 2019-09-24 Samsung Electronics Co., Ltd. Apparatus and method for controlling outbound communication
US10817065B1 (en) 2015-10-06 2020-10-27 Google Llc Gesture recognition using multiple antenna
EP3168711A1 (en) * 2015-11-11 2017-05-17 ams AG Method, optical sensor arrangement and computer program product for passive optical motion detection
CN105700668B (zh) * 2016-03-04 2019-05-28 华为技术有限公司 一种对触摸屏采集的数据进行处理的方法及终端设备
WO2017192167A1 (en) 2016-05-03 2017-11-09 Google Llc Connecting an electronic component to an interactive textile
WO2017200949A1 (en) 2016-05-16 2017-11-23 Google Llc Interactive fabric
US10302810B2 (en) 2017-01-30 2019-05-28 Microsoft Technology Licensing, Llc Use of thermopiles to detect human location
US11030289B2 (en) * 2017-07-31 2021-06-08 Stmicroelectronics, Inc. Human presence detection
CN109426157A (zh) * 2017-08-29 2019-03-05 合肥美的智能科技有限公司 控制显示屏的方法、装置及智能家居设备
US10817594B2 (en) 2017-09-28 2020-10-27 Apple Inc. Wearable electronic device having a light field camera usable to perform bioauthentication from a dorsal side of a forearm near a wrist
US11437032B2 (en) 2017-09-29 2022-09-06 Shanghai Cambricon Information Technology Co., Ltd Image processing apparatus and method
CN108196663B (zh) * 2018-01-16 2020-04-17 维沃移动通信有限公司 一种人脸识别方法、移动终端
US11720357B2 (en) 2018-02-13 2023-08-08 Shanghai Cambricon Information Technology Co., Ltd Computing device and method
EP3651074B1 (en) 2018-02-13 2021-10-27 Shanghai Cambricon Information Technology Co., Ltd Computation device and method
US11630666B2 (en) 2018-02-13 2023-04-18 Shanghai Cambricon Information Technology Co., Ltd Computing device and method
CN116991226A (zh) * 2018-02-14 2023-11-03 上海寒武纪信息科技有限公司 处理器的控制装置、方法及设备
WO2019218896A1 (zh) 2018-05-18 2019-11-21 上海寒武纪信息科技有限公司 计算方法以及相关产品
US11922006B2 (en) 2018-06-03 2024-03-05 Apple Inc. Media control for screensavers on an electronic device
US10719729B2 (en) 2018-06-06 2020-07-21 Perfect Corp. Systems and methods for generating skin tone profiles
EP3798850A4 (en) 2018-06-27 2022-03-23 Shanghai Cambricon Information Technology Co., Ltd ON-CHIP CODE BREAKPOINT DEBUG METHOD, ON-CHIP PROCESSOR AND CHIP BREAKPOINT DEBUG SYSTEM
EP3757896B1 (en) 2018-08-28 2023-01-11 Cambricon Technologies Corporation Limited Method and device for pre-processing data in a neural network
US11238089B1 (en) 2018-08-29 2022-02-01 Big Health Inc. Dynamic customization of content programs
EP3859488A4 (en) 2018-09-28 2022-06-29 Shanghai Cambricon Information Technology Co., Ltd Signal processing device, signal processing method and related product
DE102018124385B4 (de) 2018-10-02 2023-02-16 Infineon Technologies Ag Anzeigensteuervorrichtungen und -verfahren
WO2020166740A1 (ko) * 2019-02-13 2020-08-20 엘지전자 주식회사 이동 단말기
US11620044B2 (en) 2018-10-23 2023-04-04 Lg Electronics Inc. Mobile terminal
US11500103B2 (en) 2018-10-23 2022-11-15 Lg Electronics Inc. Mobile terminal
US11580355B2 (en) * 2018-10-25 2023-02-14 Electronic Warfare Associates, Inc. System-on-a-chip incorporating artificial neural network and general-purpose processor circuitry
US10963745B2 (en) * 2018-11-21 2021-03-30 Intel Corporation Real time adaptive training face detection for ultra low power always on architecture
CN111385462A (zh) 2018-12-28 2020-07-07 上海寒武纪信息科技有限公司 信号处理装置、信号处理方法及相关产品
WO2020166739A1 (ko) * 2019-02-13 2020-08-20 엘지전자 주식회사 이동 단말기
US11847554B2 (en) 2019-04-18 2023-12-19 Cambricon Technologies Corporation Limited Data processing method and related products
CN111832739B (zh) 2019-04-18 2024-01-09 中科寒武纪科技股份有限公司 一种数据处理方法及相关产品
CN113614676B (zh) 2019-05-20 2024-03-26 谷歌有限责任公司 用于提供多模式界面的基于移动设备的雷达系统及其方法
KR102656332B1 (ko) 2019-06-12 2024-04-09 상하이 캠브리콘 인포메이션 테크놀로지 컴퍼니 리미티드 신경망의 양자화 파라미터 확정방법 및 관련제품
US11676028B2 (en) 2019-06-12 2023-06-13 Shanghai Cambricon Information Technology Co., Ltd Neural network quantization parameter determination method and related products
EP3928181A1 (en) 2019-06-17 2021-12-29 Google LLC Mobile device-based radar system for applying different power modes to a multi-mode interface
EP4020321A4 (en) 2019-08-23 2024-01-17 Anhui Cambricon Information Technology Co., Ltd. DATA PROCESSING METHOD, APPARATUS, COMPUTER APPARATUS AND STORAGE MEDIUM
US11662695B2 (en) 2019-10-11 2023-05-30 Dell Products L.P. Information handling system infrared proximity detection with distance reduction detection
US11663343B2 (en) * 2020-01-31 2023-05-30 Dell Products L.P. Information handling system adaptive user presence detection
TWI736138B (zh) * 2020-02-17 2021-08-11 國立屏東大學 交通安全學習系統與方法
US11108957B1 (en) 2020-06-17 2021-08-31 Microsoft Technology Licensing, Llc Low power operation of differential image sensor pixels
WO2022015909A1 (en) 2020-07-16 2022-01-20 Invacare Corporation System and method for concentrating gas
CA3189540A1 (en) 2020-07-16 2022-01-20 Invacare Corporation System and method for concentrating gas
US11470252B2 (en) * 2020-09-14 2022-10-11 Dell Products L.P. Method to integrate time of flight proximity with camera based attention sensing and system therefor
WO2022186811A1 (en) * 2021-03-01 2022-09-09 Hewlett-Packard Development Company, L.P. Transmit power controls
US12008814B2 (en) * 2021-05-11 2024-06-11 Objectvideo Labs, Llc Adjusting areas of interest for motion detection in camera scenes
TWI804072B (zh) * 2021-11-26 2023-06-01 國立陽明交通大學 使用毫米波雷達的即時物件運動狀態辨識方法

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20020147931A1 (en) * 2001-02-08 2002-10-10 Chu-Kung Liu Computer device for sensing user status and computer system for direct automatic networking
JP2003153007A (ja) * 2001-07-23 2003-05-23 Eastman Kodak Co 画像重要度に基づく画像圧縮制御システム及び方法
JP2004348349A (ja) * 2003-05-21 2004-12-09 Masayuki Watabiki 家電品省電力制御装置
JP2005521975A (ja) * 2002-04-05 2005-07-21 アイデンティクス・インコーポレーテッド 映像を用いたオペレーティング方法およびシステム
US20100008900A1 (en) * 2008-07-14 2010-01-14 The University Of Hong Kong Annexin ii compositions for treating or monitoring inflammation or immune-mediated disorders
WO2010021373A1 (ja) * 2008-08-22 2010-02-25 ソニー株式会社 画像表示装置、制御方法およびコンピュータプログラム
WO2010095075A1 (en) * 2009-02-20 2010-08-26 Koninklijke Philips Electronics N.V. System, method and apparatus for causing a device to enter an active mode
JP2011018320A (ja) * 2009-06-30 2011-01-27 Intel Corp 人間の存在の検出技術

Family Cites Families (60)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
FR2485773A1 (fr) 1980-06-24 1981-12-31 Promocab Systeme de protection d'une zone contre l'agression humaine
US5537144A (en) 1990-06-11 1996-07-16 Revfo, Inc. Electro-optical display system for visually displaying polarized spatially multiplexed images of 3-D objects for use in stereoscopically viewing the same with high image quality and resolution
US5384588A (en) 1991-05-13 1995-01-24 Telerobotics International, Inc. System for omindirectional image viewing at a remote location without the transmission of control signals to select viewing parameters
EP2180717B1 (en) 1996-12-04 2012-11-14 Panasonic Corporation Optical disk for high resolution and three-dimensional video recording, optical disk reproduction apparatus, and optical disk recording apparatus
US5903350A (en) 1997-02-03 1999-05-11 Optiphase, Inc. Demodulator and method useful for multiplexed optical sensors
US6072894A (en) 1997-10-17 2000-06-06 Payne; John H. Biometric face recognition for applicant screening
US6146332A (en) 1998-07-29 2000-11-14 3416704 Canada Inc. Movement detector
US6345086B1 (en) 1999-09-14 2002-02-05 Veeco Instruments Inc. X-ray fluorescence system and method
US7006236B2 (en) 2002-05-22 2006-02-28 Canesta, Inc. Method and apparatus for approximating depth of an object's placement onto a monitored region with applications to virtual interface devices
US6775397B1 (en) 2000-02-24 2004-08-10 Nokia Corporation Method and apparatus for user recognition using CCD cameras
US20020158750A1 (en) 2001-04-30 2002-10-31 Almalik Mansour Saleh System, method and portable device for biometric identification
JP2002350555A (ja) 2001-05-28 2002-12-04 Yamaha Motor Co Ltd 人検出装置
US7136513B2 (en) 2001-11-08 2006-11-14 Pelco Security identification system
JP4210137B2 (ja) 2002-03-04 2009-01-14 三星電子株式会社 2次icaを利用した顔認識法及びその装置
US7433025B2 (en) 2002-04-10 2008-10-07 Thermo Fisher Scientific (Asheville) Llc Automated protein crystallization imaging
US7151530B2 (en) 2002-08-20 2006-12-19 Canesta, Inc. System and method for determining an input selected by a user through a virtual interface
US7436569B2 (en) 2003-03-12 2008-10-14 General Photonics Corporation Polarization measurement and self-calibration based on multiple tunable optical polarization rotators
US7009378B2 (en) * 2003-09-05 2006-03-07 Nxtphase T & D Corporation Time division multiplexed optical measuring system
US7117380B2 (en) * 2003-09-30 2006-10-03 International Business Machines Corporation Apparatus, system, and method for autonomic power adjustment in an electronic device
US7324824B2 (en) 2003-12-09 2008-01-29 Awarepoint Corporation Wireless network monitoring system
KR100580630B1 (ko) 2003-11-19 2006-05-16 삼성전자주식회사 적외선을 이용한 사람 식별 장치 및 방법
US20050221791A1 (en) * 2004-04-05 2005-10-06 Sony Ericsson Mobile Communications Ab Sensor screen saver
US8509472B2 (en) 2004-06-24 2013-08-13 Digimarc Corporation Digital watermarking methods, programs and apparatus
DE602004024322D1 (de) * 2004-12-15 2010-01-07 St Microelectronics Res & Dev Vorrichtung zur Detektion von Computerbenutzern
US9760214B2 (en) 2005-02-23 2017-09-12 Zienon, Llc Method and apparatus for data entry input
JP2006318364A (ja) * 2005-05-16 2006-11-24 Funai Electric Co Ltd 画像処理装置
US7806604B2 (en) 2005-10-20 2010-10-05 Honeywell International Inc. Face detection and tracking in a wide field of view
KR100745981B1 (ko) 2006-01-13 2007-08-06 삼성전자주식회사 보상적 특징에 기반한 확장형 얼굴 인식 방법 및 장치
JP2007300363A (ja) 2006-04-28 2007-11-15 Omron Corp 監視装置および方法、並びにプログラム
US8462989B2 (en) 2006-06-06 2013-06-11 Tp Vision Holding B.V. Scaling an image based on a motion vector
JP2008160351A (ja) 2006-12-22 2008-07-10 Nec Electronics Corp 色動き検出回路及びy/c分離回路
US7840031B2 (en) 2007-01-12 2010-11-23 International Business Machines Corporation Tracking a range of body movement based on 3D captured image streams of a user
US7903166B2 (en) * 2007-02-21 2011-03-08 Sharp Laboratories Of America, Inc. Methods and systems for display viewer motion compensation based on user image data
US7929729B2 (en) 2007-04-02 2011-04-19 Industrial Technology Research Institute Image processing methods
GB2453163B (en) 2007-09-26 2011-06-29 Christopher Douglas Blair Three-dimensional imaging system
CN101868979B (zh) 2007-12-07 2013-03-27 松下电器产业株式会社 拍摄装置
US8600120B2 (en) * 2008-01-03 2013-12-03 Apple Inc. Personal computing device control using face detection and recognition
US8698753B2 (en) 2008-02-28 2014-04-15 Lg Electronics Inc. Virtual optical input device with feedback and method of controlling the same
US8107721B2 (en) 2008-05-29 2012-01-31 Mitsubishi Electric Research Laboratories, Inc. Method and system for determining poses of semi-specular objects
US8035728B2 (en) 2008-06-27 2011-10-11 Aptina Imaging Corporation Method and apparatus providing rule-based auto exposure technique preserving scene dynamic range
CN101639800A (zh) * 2008-08-01 2010-02-03 华为技术有限公司 一种显示屏显示方法及终端
WO2010021375A1 (ja) 2008-08-22 2010-02-25 国立大学法人大阪大学 プロテアーゼの製造方法、並びにプロテアーゼ溶液およびプロテアーゼのプロ体溶液
JP4636149B2 (ja) 2008-09-09 2011-02-23 ソニー株式会社 画像データ解析装置、および画像データ解析方法、並びにプログラム
DE102008047413A1 (de) 2008-09-16 2010-04-15 Hella Kgaa Hueck & Co. Vorrichtung und Verfahren zur Detektion von Objekten
KR20100073191A (ko) 2008-12-22 2010-07-01 한국전자통신연구원 거리 정보를 이용한 위조 얼굴 검출 방법 및 장치
JP4563513B2 (ja) 2008-12-25 2010-10-13 パナソニック株式会社 画像処理装置及び擬似立体画像生成装置
US8254699B1 (en) 2009-02-02 2012-08-28 Google Inc. Automatic large scale video object recognition
CN102378996B (zh) 2009-03-31 2014-05-14 皇家飞利浦电子股份有限公司 用于自动存在检测的传感器的高能效级联
US20100253782A1 (en) 2009-04-07 2010-10-07 Latent Image Technology Ltd. Device and method for automated verification of polarization-variant images
WO2010127488A1 (en) 2009-05-07 2010-11-11 Joemel Caballero System for controlling light emission of television
US8154615B2 (en) * 2009-06-30 2012-04-10 Eastman Kodak Company Method and apparatus for image display control according to viewer factors and responses
US8264536B2 (en) 2009-08-25 2012-09-11 Microsoft Corporation Depth-sensitive imaging via polarization-state mapping
KR101648353B1 (ko) 2009-09-25 2016-08-17 삼성전자 주식회사 거리 센서를 포함하는 이미지 센서
TWI413896B (zh) * 2010-04-21 2013-11-01 Elitegroup Computer Sys Co Ltd Energy saving methods for electronic devices
US9357024B2 (en) * 2010-08-05 2016-05-31 Qualcomm Incorporated Communication management utilizing destination device user presence probability
US8760517B2 (en) 2010-09-27 2014-06-24 Apple Inc. Polarized images for security
US8912877B2 (en) * 2011-02-18 2014-12-16 Blackberry Limited System and method for activating an electronic device using two or more sensors
US20120287031A1 (en) 2011-05-12 2012-11-15 Apple Inc. Presence sensing
US20140196131A1 (en) 2013-01-07 2014-07-10 Salutron, Inc. User authentication based on a wrist vein pattern
JP6854612B2 (ja) 2015-10-06 2021-04-07 三星電子株式会社Samsung Electronics Co.,Ltd. 生体情報測定装置及び生体情報測定方法並びにコンピュータ読み取り可能な記録媒体

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20020147931A1 (en) * 2001-02-08 2002-10-10 Chu-Kung Liu Computer device for sensing user status and computer system for direct automatic networking
JP2003153007A (ja) * 2001-07-23 2003-05-23 Eastman Kodak Co 画像重要度に基づく画像圧縮制御システム及び方法
JP2005521975A (ja) * 2002-04-05 2005-07-21 アイデンティクス・インコーポレーテッド 映像を用いたオペレーティング方法およびシステム
JP2004348349A (ja) * 2003-05-21 2004-12-09 Masayuki Watabiki 家電品省電力制御装置
US20100008900A1 (en) * 2008-07-14 2010-01-14 The University Of Hong Kong Annexin ii compositions for treating or monitoring inflammation or immune-mediated disorders
WO2010021373A1 (ja) * 2008-08-22 2010-02-25 ソニー株式会社 画像表示装置、制御方法およびコンピュータプログラム
WO2010095075A1 (en) * 2009-02-20 2010-08-26 Koninklijke Philips Electronics N.V. System, method and apparatus for causing a device to enter an active mode
JP2011018320A (ja) * 2009-06-30 2011-01-27 Intel Corp 人間の存在の検出技術

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2018186007A1 (ja) * 2017-04-05 2018-10-11 シャープ株式会社 表示装置、テレビジョン受像機、表示制御方法、表示制御プログラム、および記録媒体
JP2018180684A (ja) * 2017-04-05 2018-11-15 シャープ株式会社 表示装置、テレビジョン受像機、表示制御方法、表示制御プログラム、および記録媒体

Also Published As

Publication number Publication date
KR101660215B1 (ko) 2016-09-26
EP2712431A1 (en) 2014-04-02
KR20160023912A (ko) 2016-03-03
KR20140002034A (ko) 2014-01-07
AU2012253292B2 (en) 2015-10-29
US10372191B2 (en) 2019-08-06
TWI506478B (zh) 2015-11-01
US20120287035A1 (en) 2012-11-15
JP5876142B2 (ja) 2016-03-02
TW201250519A (en) 2012-12-16
AU2012253292A1 (en) 2013-10-31
WO2012155105A1 (en) 2012-11-15
CN103534664A (zh) 2014-01-22
CN103534664B (zh) 2016-08-31

Similar Documents

Publication Publication Date Title
JP5876142B2 (ja) 存在センサ
US10402624B2 (en) Presence sensing
US10198823B1 (en) Segmentation of object image data from background image data
US11561621B2 (en) Multi media computing or entertainment system for responding to user presence and activity
US10217195B1 (en) Generation of semantic depth of field effect
US10055013B2 (en) Dynamic object tracking for user interfaces
US9213896B2 (en) Method for detecting and tracking objects in image sequences of scenes acquired by a stationary camera
US8432445B2 (en) Air conditioning control based on a human body activity amount
Tian et al. Robust and efficient foreground analysis in complex surveillance videos
Chun et al. Real-time smart lighting control using human motion tracking from depth camera
KR20110030951A (ko) 동작 검출 장치 및 방법
CN111240217B (zh) 状态检测方法、装置、电子设备及存储介质
Bhattacharya et al. Arrays of single pixel time-of-flight sensors for privacy preserving tracking and coarse pose estimation
CN112700568A (zh) 一种身份认证的方法、设备及计算机可读存储介质
Appiah et al. Human behavioural analysis with self-organizing map for ambient assisted living
Nguyen et al. Real-time human tracker based on location and motion recognition of user for smart home
Gruenwedel et al. Low-complexity scalable distributed multicamera tracking of humans
TW202309839A (zh) 基於事件映射的相機設置調整
Huang et al. Accurate and robust moving-object segmentation for telepresence systems
Chiu et al. Moving/motionless foreground object detection using fast statistical background updating
WO2018191058A1 (en) Image processing system with discriminative control
Kitajima et al. Privacy-aware human-detection and tracking system using biological signals
Choi et al. Real-time human tracker based location and motion recognition for the ubiquitous smart home
Lee et al. A robust faint situation recognition and response system based on object tracking algorithms using thermal camera
Shin et al. Real-time tracking of human location and motion using cameras in a ubiquitous smart home

Legal Events

Date Code Title Description
A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20141208

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20150305

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20150608

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20150713

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20151112

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20151119

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20160118

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20160120

R150 Certificate of patent or registration of utility model

Ref document number: 5876142

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees