JP2018508851A - モニタリング - Google Patents

モニタリング Download PDF

Info

Publication number
JP2018508851A
JP2018508851A JP2017533373A JP2017533373A JP2018508851A JP 2018508851 A JP2018508851 A JP 2018508851A JP 2017533373 A JP2017533373 A JP 2017533373A JP 2017533373 A JP2017533373 A JP 2017533373A JP 2018508851 A JP2018508851 A JP 2018508851A
Authority
JP
Japan
Prior art keywords
virtual boundary
gesture
space
user
boundary
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2017533373A
Other languages
English (en)
Inventor
アンッティ エロネン
アンッティ エロネン
ユッシ レッパネン
ユッシ レッパネン
アルト レフティニエミ
アルト レフティニエミ
ジュインシュヨン フゥ
ジュインシュヨン フゥ
Original Assignee
ノキア テクノロジーズ オーユー
ノキア テクノロジーズ オーユー
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ノキア テクノロジーズ オーユー, ノキア テクノロジーズ オーユー filed Critical ノキア テクノロジーズ オーユー
Publication of JP2018508851A publication Critical patent/JP2018508851A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/0304Detection arrangements using opto-electronic means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/52Surveillance or monitoring of activities, e.g. for recognising suspicious objects
    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B13/00Burglar, theft or intruder alarms
    • G08B13/18Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength
    • G08B13/189Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems
    • G08B13/194Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems
    • G08B13/196Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems using television cameras
    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B13/00Burglar, theft or intruder alarms
    • G08B13/18Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength
    • G08B13/189Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems
    • G08B13/194Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems
    • G08B13/196Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems using television cameras
    • G08B13/19663Surveillance related processing done local to the camera
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16ZINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS, NOT OTHERWISE PROVIDED FOR
    • G16Z99/00Subject matter not provided for in other main groups of this subclass

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Multimedia (AREA)
  • User Interface Of Digital Computer (AREA)
  • Image Analysis (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Alarm Systems (AREA)

Abstract

監視空間内に、コンピュータにより設定される少なくとも一つの仮想境界を定めるべく、少なくとも一つのジェスチャを認識すること、但し前記ジェスチャは経路に沿った動きであって、被監視シーン空間内の位置における動きを有し、前記監視空間と前記被監視シーン空間との間には対応関係が存在する、前記認識することと;前記被監視シーン空間に対応する前記監視空間の中に、コンピュータにより設定される少なくとも一つの仮想境界を作成することを生じさせること、但し前記仮想境界の少なくとも一部分は前記被監視シーン空間内の前記経路によって定められ、前記仮想境界の前記少なくとも一部分は、前記経路の位置に相当する、前記監視空間の対応する位置に位置する、前記生じさせることと;前記少なくとも一つの仮想境界に関連して前記被監視シーン空間の一部に変化があったとき、受け取ったデータを処理して応答イベントを生成することと;を含む。【選択図】図1

Description

本発明の実施形態はシーンのモニタリングに関する。特に、自動化されたモニタリングに関する。
背景
現在のモニタリングシステム、例えば監視システムは、音声付き又は無しのビデオを録画するための一つ又は複数のカメラを備え、これらのカメラは、有線又は無線で中央装置に接続される。中央装置は、シーンの録画データを保存したり、また保存することを可能にしたりする。操作者は、カメラや中央装置の設定をプログラムするために、当該中央装置を使用することができる場合がある。
摘要
本願が開示する様々な実施例(但し必ずしも全ての実施例ではない)によれば、請求項1−13のいずれかに記載の方法が提供される。
本願が開示する様々な実施例(但し必ずしも全ての実施例ではない)によれば、請求項14に記載の装置が提供されてもよい。
本願が開示する様々な実施例(但し必ずしも全ての実施例ではない)によれば、少なくとも1つのプロセッサと、コンピュータプログラムコードを格納する少なくとも1つのメモリとを備える装置であって、前記コンピュータプログラムコードが、前記プロセッサに実行されると、前記装置に、少なくとも、請求項1−13のいずれかに記載の方法を遂行させるように構成される、装置が提供される。
本願が開示する様々な実施例(但し必ずしも全ての実施例ではない)によれば、少なくとも1つのプロセッサに実行されると、少なくとも、請求項1−13のいずれかに記載の方法が遂行されるように構成される、コンピュータプログラムコードが提供される。
本願が開示する様々な実施例(但し必ずしも全ての実施例ではない)によれば、コンピュータで実行されると、請求項1−13のいずれかに記載の方法を遂行するコンピュータプログラムが提供される。
本発明の様々な実施形態(但し必ずしも全ての実施形態ではない)によれば、装置の発明を特定する請求項に特定されるような例が提供される。
前述の簡単な説明を理解するために有用な種々の実施例の理解に資するべく、例として次の添付図面を参照する。
システムの例の概略図である。 状態マシンの例を描いた図である。 処理モジュールの例を描いた図である。 コンピュータプログラムの配送メカニズムの例を描いた図である。 システムの動作を描いた図である。 システムの動作を描いた図である。 システムの動作を描いた図である。 システムの動作を描いた図である。 システムの動作を描いた図である。 方法の例を描いた図である。 方法の例を描いた図である。
詳細説明
符号100で示されているシステムは、少なくとも一つのシーンをモニターするシステムである。このシステムの動作は、シーンの中のユーザによってコントロールされることができる。そのようなコントロールは、シーンの中でアクションを実行することにより行われうる。例えばユーザは、システムをコントロールし、このシステムによる監視の対象となる、少なくとも一つの仮想的な境界を定義することができる。
図1はシステム100の概略的に描いた図である。システム100は、
シーン140からセンサデータ112を記録するように構成される一つ又は複数のセンサ110と;
シーン140から記録されたセンサデータ112を処理し、シーン140で起こったイベントを自動的に認識すると共に、前記認識の結果として自動的に判断を行うように構成される処理モジュール120と;
前記処理モジュール120によって、通信するという判断がなされた場合、通信を行うように構成される通信モジュール130と;
を備える。
認識されるイベントの幾つか(但し必ずしも全てではない)は、シーン140の中のオブジェクト152(又は特定のオブジェクト152)に関連していてもよい。このオブジェクトは、シーン140の中の非生物の物体であったり、動物であったり、人物であったり、特定の人物150であったりしてもよい。システム100の実施例の幾つか(但し必ずしも全てではない)において、システム100は、リアルタイムの認識システムであり、センサデータ112が記録されたら、それとほぼ同時に自動的に認識及び判断を行う。
システム100は、監督や監視、アシステッドリビング、老人介護等のアプリケーションに使用されてもよい。システム100は、ビジネスで使用されてもよいし、公共の場所や自宅で使用されてもよい。期待される利用分野の一つは自宅監視システムである。
システム100は、ユーザがモニタリングを制御することを可能にする。例えば、ユーザがシーン140中の人物150であるときに、そのような制御を行うことを可能にする。システム100はまた、ユーザが、認識および/または認識の結果を制御することを可能にする。例えばユーザがシーン140中の人物150であるときに、そのような制御を行うことを可能にする。
(必ずしも全ての例においてではないが)いくつかの例において、システム100は、物理的に異なるいくつかの装置を備えていてもよい。例えば、複数のセンサ110を有してもよく、これらセンサ110はそれぞれ複数の異なる装置のいずれか配されていてもよい。また、処理モジュール120や通信モジュール130も、1つ以上の装置の中に配されていてもよい。システム100の構成要素または構成要素群が物理的に異なる複数の装置に配される場合、これらの装置は全てローカルに存在していても、それぞれ互いにリモートに存在していてもよく、これらの装置がリモートにある場合、これらは、例えば、ネットワークを介して通信することができる。
(必ずしも全ての例においてではないが)いくつかの例において、システム100は、単一の装置の中に収容されていてもよい。
センサ110は、シーン140からのセンサデータ112を記録するか記録を可能にするように構成される。
シーン140は、例として、例えば静的なオブジェクトなど、相対的位置が固定された静的な構成要素を有してもよい。これらの静的なオブジェクトは、シーンの三次元空間(シーン空間)においていろいろな静的位置を有する。シーン140は、例えば動くオブジェクトなど、動く構成要素を有してもよい。動くオブジェクトは、シーン空間中で時間経過とともに様々な位置をとる。様々なセンサデータ112、または様々な時間に関連する「シーン」への言及は、シーン140中で検出された静的構成要素の継続性を暗示するが、動的な構成要素の一部または全部の継続性は、それが生じることはあるにしても、必ずしも意味しない。
センサデータ112の記録は、一時的記録だけを含むこともあり、または恒久的記録を含むこともあり、または、一時的記録および恒久的記録の両方を含むこともある。一時的記録はデータを一時的に記録することを意味する。これは、例えば、検出する過程で行われることがあり、ダイナミックメモリで行われることがあり、循環バッファなどのバッファ、レジスタ、キャッシュ、または類似のものにおいて行われることもある。恒久的記録は、当該データがアドレス可能なメモリ空間から読み出し可能なアドレス可能データ構造の形式であることを暗示し、したがって削除または上書きされるまでは格納され読み出すことができるが、非揮発的な格納がされることもされないこともある。
センサ110は、音波および/または光波などの伝搬波を、電気信号に変換するように構成することができる。この電気信号は、シーン140からの伝搬波データを符号化するセンサデータ112である。
(必ずしも全ての例においてではないが)いくつかの例において、センサ110は、シーン空間140に対して空間的に固定される。他の例では、センサ110は、シーン空間140に対して移動しうるか、または移動している。
(必ずしも全ての実施形態においてではないが)いくつかの実施形態において、センサ110は画像センサ114であるか、または画像センサを備える。画像センサ114の一例は、カメラとして動作するように構成されたデジタル画像センサである。かかるカメラは、静的画像および/またはビデオ画像を記録するように動作することができる。
(必ずしも全ての実施形態においてではないが)いくつかの実施形態において、カメラは、シーン140がいろいろな視点から観察されうるように、立体的配置(または他の空間的配置)に構成することができる。これは、三次元画像の生成、および/または、例えば視差効果を介した、奥行きを設定するための処理を可能する。
(必ずしも全ての実施形態においてではないが)いくつかの実施形態において、センサ110はオーディオセンサ116であるか、またはオーディオセンサを備える。オーディオセンサ116の一例は、1つ又は複数のマイクロフォンである。マイクロフォンは、いろいろな収録点からシーン140がサンプリングされうるように、マイクロフォンアレイなど、立体的配置(または他の空間的配置)に構成することができる。これは、シーン140内のオーディオのポジショニングを可能にする三次元空間オーディオ処理を可能にできる。
(必ずしも全ての実施形態においてではないが)いくつかの実施形態において、これらのセンサは奥行きセンサ118であるか、または奥行きセンサを備える。奥行きセンサ118は、トランスミッタおよびレシーバを備えてもよい。トランスミッタは(例えば、超音波または赤外光など人間が検出できない信号などの)信号を送信し、レシーバは反射された信号を受信する。単一のトランスミッタおよび単一のレシーバを用い、送信から受信までの伝搬時間を測定することによっていくらかの奥行き情報を得ることができる。より多くのトランスミッタおよび/またはより多くのレシーバを用いることによってより良好な分解能(空間的ダイバーシチ)が達成できる。一例において、トランスミッタは、光、好ましくは、赤外光など不可視光を使い、空間依存的パターンで、シーン140を「描く」ように構成される。レシーバによる特定のパターンの検出は、シーン140が空間的に分解されることを可能にする。シーン140の空間的に分解された部分への距離は、伝搬時間および/または(レシーバがトランスミッタに対し立体的な位置にある場合)立体視法によって測定ができる。
これらの奥行き検出の「受動的」または「非能動的」例では、検出対象の人物150またはオブジェクト152は受動的で、トランスミッタによって放射される光または音波を反射しているだけである。但し、検出されるオブジェクトの動きを必要とする「能動的」例を、追加してまたは代わりに用いることができる。一例として、人物150は、測位装置を携行していてもよく、この測位装置は、シーン空間内で、当該測位装置の位置を決定しうるように構成されてもよい。この測位装置は、例えば加速度計を使って、基準位置からの当該測位装置の動きを測定することができる。実施例によっては、方位を測定するためにジャイロスコープを用いてもよい。上記に加えてまたは換えて、上記測位装置は、複数のレシーバに送信したり、複数のトランスミッタから受信したりすることによって、三角測量(三辺測量)を用い、位置決定を行ってもよい。
必ずしも全ての例ではないが、本願で示される例において、処理モジュール120は、メモリサブモジュール122、処理サブモジュール124、認識サブモジュール126、および制御サブモジュール128を備える。これらの「モジュール」は別々に記載され、示されているが、これらは、必須ではない。実施形態によってはこれらは別々のモジュールではないこともある。また、いろいろな組み合せに結合されている場合もある。例えば、処理サブモジュール124、認識サブモジュール126、および決定サブモジュール128は、同一の回路、または同一のコンピュータプログラムの制御の下で実装されることができる。上記に換えて、処理サブモジュール124、認識サブモジュール126、および決定サブモジュール128の1つ以上を、専用の回路または専用のコンピュータプログラムによって実装することもできる。これらサブモジュールは、ソフトウェア、専用のハードウェア、またはプログラムされたハードウェアとソフトウェアとの混成を使って実行することができる。
メモリサブモジュール122は、未処理のセンサデータ112および/または処理済みのセンサデータ112(シーンデータ)、コンピュータプログラム、シーン空間モデル、および処理モジュール120によって使われる他のデータを格納するために用いることができる。実施例によっては、他のサブモジュールがそれぞれ独自にメモリを有してもよい。
処理サブモジュール124は、シーン140について有意味なシーンデータを判断するために、センサデータ112を処理するように構成されてもよい。
処理サブモジュール124は、センサデータ112がカメラまたはカメラ群114からの画像データを含む場合に、画像処理を行うように構成されることができる。処理サブモジュール124は、センサデータ112がマイクロフォンまたはマイクロフォン群116からのオーディオデータを含む場合に、オーディオ処理を行うように構成されることができる。
処理サブモジュール124は、シーン140に対して有意味な可能性のあるシーンデータを生成するために、センサデータ112を用いて、以下のタスクの1つ以上を自動的に実行するように構成されることができる。
(ア)マシン(コンピュータ)ビジョンを用いて、
・ (移動しているまたは静的な)オブジェクトまたは人物を検出すること、
・ (移動しているまたは静的な)オブジェクトまたは人物を分類すること、
・ (移動しているまたは静的な)オブジェクトまたは人物を追跡すること、
の1つ以上を実行する。
(イ)空間分析を用いて、
・ 奥行き検出を使ってシーン空間中の(移動しているまたは静的な)オブジェクトの位置決めをすること、
・ シーン空間のマップを生成すること、
の1つ以上を実行する。
(ウ)挙動分析を用いて、シーン140中で生じるイベントを、有意味な可能性のあるシンボルとして記述する。
画像処理の一例に、画像に対する輝度勾配またはエッジ方向の分布を生成する「勾配特徴ヒストグラム(histogram of gradient features)」分析がある。画像は小さな結合された領域(セル)に分割することが可能で、各セルに対し、セル内の画素に対する勾配方向またはエッジ方位のヒストグラムが生成される。次いで、これらのヒストグラムの組み合せが、記述子(descriptor)を表現する。
オーディオ処理の例には、「メル周波数ケプストラル係数(mel−frequency cepstral coefficients)」決定、(例えばオーディオビーム形成技法を使う)空間オーディオ処理、オーディオイベント認識もしくは分類、話者認識もしくは検証、またはスピーチ認識がある。
動き検出は、例えば、背景モデルに対する差分(背景除去法)、もしくは先行画像に対する差分(時間差分)を用い、または、ベクトルベースのアプローチを使うオプティカルフロー分析など、何らかの他のアプローチを用いて達成することができる。
オブジェクト分類は、例えば、形状ベースの分析、および/または動きベースの分析を用いて達成することができる。
人物の分類処理は、オブジェクトが人間か否かという分類処理であってもよい。または、オブジェクトが特定の人間(身元)であるか否かという分類処理であってもよい。身元確認は、可能性のある人物群のセット内の人物を一意的に識別する属性または属性の組み合せを用いて達成ができる。属性の例は、顔または声など、人物の固有のまたは固有であり得るバイオメトリック特徴を含んでもよい。また、人物の外形およびサイズ、その挙動を含んでもよい。
オブジェクトの追跡は、オブジェクトを標識し、該標識されたオブジェクトのシーン140中での位置を記録することによって達成することができる。このアルゴリズムは、シーン140へのオブジェクトの入場、シーン140からのオブジェクトの退場、シーン140へのオブジェクトの再入場、オブジェクトの遮蔽、オブジェクトの統合、のイベントのうちの1つ以上を取り扱う必要があり得る。これらのイベントをどう取り扱うかは本願の技術分野で既に知られている。
オブジェクト追跡は、オブジェクトまたは人物がいつ変化したかを判断するために用いてもよい。例えば、オブジェクトを大きなマクロスケールで追跡することで、そのオブジェクトと共に移動する基準枠を生成することができる。この基準枠は、オブジェクトに対する時間差分を用いてオブジェクトの形状の時間進展的な変化を追跡するために使うことができる。これは、ジェスチャ、手の動き、顔面の動きなど小規模な人間の動きを検出するために用いることができる。これらは、ユーザに関連する、シーン非依存性のユーザ(だけ)の動きである。
システムは、例えば、人物の体の関節1つ以上など、人物の身体に関連する複数のオブジェクトおよび/またはポイントを追跡することができる。いくつかの例において、システム100は、人物の身体の全身骨格的な追跡を実行することができる。
人物の身体に関連する1つ以上のオブジェクトおよび/またはポイントの追跡技術が、ジェスチャの認識などにおいて、システム100によって使用されてよい。
行動分析(Behaviour analysis)は、有意味シンボル体系を使って、シーン140中で生じるイベントを表すことを必要とする。イベントは、時空的なインスタンスで生じるある事柄でもよく、また時空的なシーケンス(時間経過における時空的インスタンスのパターン)でもよい。イベントは、オブジェクト(または人物)の動き、または人物とオブジェクトとの相互作用に関連するものでもよい。
(必ずしも全てではないが)いくつかの実装例において、イベントは、マシン(コンピュータ)ビジョン分析および/または空間分析から決定されたパラメータに関して定義された推定シンボルによって表現できる。これらのパラメータは、起こっていること、起こっている場所、起こっている時間、および誰がそれをしているかの、一つ以上を符号化する。
認識サブモジュール126は、シーン140中のイベントを、特定の意味に関連付けられた有意味シンボルとして符号化する推定シンボルを認識するように構成される。
認識サブモジュール126は、意味を有するとして、マシン(コンピュータ)ビジョン分析および/または空間分析から決定されたパラメータに関して定義され、処理サブモジュール124によって生成された推定シンボルを、認識するように構成することができる。認識サブモジュール126は、例えば、有意味参照シンボルのデータベースに格納を行い、またはアクセスすることが可能で、推定シンボルが或る有意味シンボルに「類似」しているかどうかを判断するための相似検査を用いることができる。
認識サブモジュール126は、パラメータ空間中の人工ニューラルネットワークまたはクラスタリングなど、マシン(コンピュータ)推論エンジンまたは他の認識エンジンとして構成してもよい。いくつかの例において、認識サブモジュール126には、有意味シンボルを参照シンボルと類似であると認識するために、教師あり学習(supervised learning)を介して教育訓練を施すことができる。
制御サブモジュール128は、有意味なイベントがシーン140で生じたとの判断に、そのイベントに応じて応答する。
a)推定シンボルが応答シンボルに類似している場合、有意味なイベントは「応答」イベントであり、制御サブモジュール126は、応答アクションを実行する。
(必ずしも全ての例においてではないが)いくつかの例において、実行されるアクションはユーザによってプログラムすることができる。(必ずしも全ての例においてではないが)いくつかの例において、このプログラミングは、シーン内のユーザの動きを介して行うことができる。実行されるアクションの例には、警告または通知の生成があってもよい。
警告または通知は、通信モジュール130を介して提示ができる。通信モジュール130は、電波を使って無線で、または有線接続で、ローカルまたはリモートの装置に通信することができる。かかる装置の例は、以下に限らないが、ディスプレイ、テレビジョン、オーディオ出力装置、携帯電話もしくはパーソナルコンピュータなどの個人用デバイス、プロジェクタ、その他のユーザ出力装置を含む。
b)推定シンボルがユーザ制御シンボルと類似している場合、有意味なイベントは「ユーザ制御」イベントであり、制御サブモジュール126は、モニタリングのユーザ制御および/または応答のユーザ制御を可能にする。
例えばユーザは、参照シンボルのデータベースに加えられる有意味な応答をプログラムしたり教えたりすることができてもよい。(必ずしも全ての例においてではないが)いくつかの例において、このプログラミングは、シーン140内のユーザの動きを介して行うことができる。
例えばユーザは、推定シンボルが応答シンボルに一致する場合に実行されるアクションをプログラムしたり教えたりすることができてもよい。実行されるアクションの例には、警告または通知の生成があってもよい。
処理モジュール120の動作は、処理モジュール120に対する状態マシン200を示す図2から、さらに理解することができる。状態マシン200は、モニタリング状態210、ユーザ制御状態220、および自動応答状態230を有する。
モニタリング状態210において、センサ110はセンサデータ112を提供し、処理サブモジュール124は、有意味な可能性のあるシーンデータを生成するために、センサデータ112(映像および/またはオーディオおよび/または奥行き)を自動的に処理する。認識サブモジュール126は、シーンデータ内の実際の意味、すなわち有意味シンボルを識別するため、該シーンデータを自動的に処理する。
有意味シンボルは事前決定されている、すなわち、認識の前に、シンボルを決める処置が取られている。但し、「事前決定」は厳密性または固定性を意味すると見なすべきではない。類似性の照合のために使われるシンボルは、単に先行の定めを有するのであり、これは動的に進展することもあり、または固定されることもある。
認識サブモジュール126が、シーン140中で有意味なイベントが発生したと判断した場合、制御サブモジュール126は、そのイベントに応じて自動的に応答する。有意味なイベントが「応答」イベントである場合、状態マシン200は、応答状態230に遷移し、制御サブモジュール126は、応答アクションを実行する。イベントが「ユーザ制御」イベントである場合、状態マシン200は、ユーザ制御状態220に遷移し、モニタリングおよび/または応答のユーザ制御が有効化される。
「ユーザ制御」イベントとして、特定のジェスチャユーザ入力を用いることができる。ジェスチャユーザ入力は、システム100に対しユーザ入力としての意味を有するジェスチャである。ジェスチャは、静的なものであっても動的なものであってもよい。動きジェスチャ(動的ジェスチャ)は、或る動き、または一連の動きを含む動きのパターンを含むことができる。例えばこれは、旋回動作、または脇から脇への動き、または上下の動きをすること、または空間中で符号を描くこととしてもよい。例えば、動きジェスチャは、装置非依存性のジェスチャ、または装置依存性のジェスチャとしてもよい。動きジェスチャは、例えば、ユーザ身体の部分もしくは部分群、または追加の装置などのユーザ入力オブジェクトのセンサ110に対する動きを伴ってもよい。身体の部分は、ユーザの手、または親指以外の1つ以上の指および親指などユーザの手の一部を含んでよい。他の例において、ユーザ入力オブジェクトは、ユーザの頭または腕などユーザの身体のいろいろな部分を含んでもよい。三次元の動きは、任意の3つの直交方向のユーザ入力オブジェクトの動きを含むことができる。ユーザ入力オブジェクトの動きには、センサ110に向かうように又はセンサから離れるように動くことや、センサと平行な面内で動くこと、またこのような動きの任意の組み合せを含んでもよい。ジェスチャは、非接触のジェスチャでもよい。非接触ジェスチャは、ジェスチャの間のどの時点でも装置のセンサに接触することはない。ジェスチャは、センサ110からの絶対変位に関連して定義される絶対的ジェスチャとすることもできる。かかるジェスチャは、それがシーン空間中の正確な場所において行われるという点で制限があり得る。あるいは、ジェスチャは、ジェスチャの間の相対変位に関連して定義される相対的ジェスチャであってもよい。かかるジェスチャは、それがシーン空間中に対し正確な場所において行われる必要がないという点で、制限がなくてよく、多数の任意の場所で行うことができる。ジェスチャは、時間経過による、当初点に対する追跡点の変位の進展として定義することができる。これは、例えば、変位、速度など時間的可変パラメータを用いる、または他の運動学的パラメータを用いる動きに関連させて定義することができよう。制限なしのジェスチャは、相対時間Δtに対する相対変位Δdの進展として定義することができる。ジェスチャは、一空間次元(1Dジェスチャ)、二空間次元(2Dジェスチャ)、または三空間次元(3Dジェスチャ)において実施することができる。
いくつかの例において、システム100は、ジェスチャ認識において、人物の身体に関連する1つ以上のオブジェクトおよび/またはポイントを追跡することができる。例えば、システム100は、ジェスチャ認識において、人の身体の全骨格的追跡を実行することができる。
処理モジュール120または処理モジュール120の部分の実装は、コントローラ回路としてであってもよい。コントローラ回路は、ハードウェアのみ(例えば、回路、プロセッサなど)のみにより実装されてもよく、(ファームウェアを含む)ソフトウェア主体で実装されてもよい。または、ハードウェアとソフトウェア(ファームウェアを含む)の組み合わせにより実装されてもよい。
図3に描かれるように、コントローラ120は、ハードウェア機能を実現する命令であって、例えば、汎用プロセッサまたは特定用途向けプロセッサ310で実行可能なコンピュータプログラム命令322を用いて実装されてもよい。こうした命令は、プロセッサ310で実行されうるように、コンピュータ可読記憶媒体(ディスクやメモリ等)に格納されてもよい。
プロセッサ310は、メモリ320から読み出し、かつメモリ24へ書き込むように構成される。プロセッサ310は出力インタフェースと入力インタフェースを備えてもよい。データおよび/または命令は、プロセッサ310によって出力インタフェースを介して出力され、入力インタフェースを介してプロセッサ310に入力される。
メモリ320はコンピュータプログラム322を格納する。コンピュータプログラム322は、プロセッサ310にロードされて処理モジュール120の動作を制御するコンピュータプログラム命令(コンピュータプログラムコード)を含む。コンピュータプログラム322のコンピュータプログラム命令は、処理モジュールが、図1,2,8,9の一つ以上を参照して紹介された方法を遂行することを可能とするロジックとルーチンとを提供する。プロセッサ310は、メモリ320を読み取ることによりコンピュータプログラム322をロードして実行することができる。
従ってシステム100は装置120を含むことができ、この装置120は、
少なくとも1つのプロセッサ310と;
コンピュータプログラムコード322を含む少なくとも一つのメモリ320とを備える。コンピュータプログラムコード322は、プロセッサ310に実行されると、装置120に、図1のブロック124,126,128の一つ又は複数や、図8や9の一つ又は複数のブロックの少なくともいずれかを遂行させるように構成される。
図4に描かれるように、コンピュータプログラム322は、任意の適切な配信機構324を介して装置に提供されてもよい。配信メカニズム324は、例えば、非一時的なコンピュータ読取り可能記憶媒体、コンピュータプログラム製品、メモリデバイス、記録媒体、例えば、コンパクトディスク・リードオンリーメモリ(CD−ROM:compact disc read−only memory)またはデジタル多用途ディスク(DVD:digital versatile disc)、コンピュータプログラム322を有形に具現した製造品であってもよい。配信機構はコンピュータプログラム322を確実に伝達するように構成される信号でもよい。装置120は、コンピュータデータ信号としてコンピュータプログラム322を伝達または伝送してもよい。
メモリ320は単独要素又は回路として示されているが、物理的に異なる複数の要素又は回路として実装されてもよい。こうした要素の一部または全部は組込み型でも着脱可能型でもよく、および/または永久/半永久/動的/キャッシュの記憶方式でもよい。
プロセッサ310は単独要素又は回路として示されているが、物理的に異なる複数の要素又は回路として実装されてもよい。こうした要素の一部または全部は組込み型でも着脱可能型でもよい。プロセッサ310はシングルコアのプロセッサでもよいし、マルチコアのプロセッサであってもよい。
「コンピュータ可読記憶媒体」や「コンピュータプログラム製品」,「有形物として具現化されたコンピュータプログラム」等の用語や、「コントローラ」,「コンピュータ」,「プロセッサ」等の用語は、様々なアーキテクチャを有するコンピュータだけでなく、特殊回路もカバーものと理解すべきである。こうしたコンピュータのアーキテクチャには、シングル/マルチプロセッサ・アーキテクチャや、直列(ノイマン型)/並列アーキテクチャ等がある。特殊回路にはフィールドプログラマブルゲートアレイ(FPGA)や特定用途向け集積回路(ASIC),シグナルプロセッシングデバイス,その他の処理回路等がある。コンピュータプログラムや命令,コード等の用語は、プログラマブルプロセッサやファームウェア用のソフトウェアもカバーするものと理解すべきである。こうしたものとして例えば、プロセッサに対する命令や、固定機能デバイス,ゲートアレイ,プログラマブルロジックデバイス等の構成設定といったハードウェアデバイスのプログラマブルコンテンツ等がある。
なお本願において使用される「回路(circuitry)」との語句は、次の全てを表す:
(a)ハードウェアのみの回路実装(アナログおよび/またはデジタル回路のみの実装等);
(b)回路とソフトウェア(および/またはファームウェア)の組合せ、例えば(適用可能である場合):(i)一つまたは複数のプロセッサ、または(ii)一つまたは複数のプロセッサ/ソフトウェア(デジタルシグナルプロセッサを含む),ソフトウェア,一つまたは複数のメモリの一部(これらは協働して、携帯電話やサーバなどの装置に様々な機能を実行させる);
(c)一つまたは複数のマイクロプロセッサやその一部等の回路であって、動作するためにソフトウェアやファームウェアを必要とする回路(ソフトウェアやファームウェアは物理的に存在しなくてもよい)。
この「回路」の定義は、本願において当該用語を使う全ての場合において適用される。特許請求の範囲においても同様である。さらなる例として、本願で使用される場合、「回路(circuitry)」という用語は、単独(または複数)のプロセッサだけの実装やプロセッサの一部,付随するソフトウェアおよび/またはファームウェアによる実装も網羅するものである。「回路」という用語はまた、例えば、特許請求の範囲に記載される特定の要素をその範囲に含むことが可能な場合がある。例えば、携帯電話のベースバンド集積回路やアプリケーション処理集積回路を意味してもよく、サーバやセルラネットワークデバイス、その他のネットワークデバイスにおける同様の集積回路を意味してもよい。
図1のブロック124,126,128や、図8や9のブロックは、コンピュータプログラム322のコードにより具現化される、方法全体および/またはその一部のステップを表わしてもよい。ブロックを特定の順序で図示することは、必須順序又は推奨順序の存在を必ずしも示唆していない。こうしたブロックの順序や配置構成は変更することができる。また、一部のブロックを省略することも可能である。
図5は、システム100の動作の例を描いた図である。図5のaは、シーン140を描いている。シーン140は現実世界のシーンである。シーン140は3次元空間を有し、従ってシーン空間140であると考えられてもよい。シーン空間140は、システム100によって監視される。従ってこのシーン空間は、被監視シーン空間140であると考えられてもよい。図5の例において、被監視シーン空間140は、四つの壁、天井及び床を有する部屋である。
いくつかの実施例では、被監視シーン空間140は境界を有さない場合もある。さらに別の実施例では、被監視シーン空間140は複数の部屋を有してもよい。また、それら複数の部屋は空間的に繋がっている場合もあれば、つながっていない場合もある。
図5の例において、人物150は、被監視シーン空間140の中で起立している。人物150は、少なくとも一つのジェスチャユーザ入力146を実行している。このジェスチャユーザ入力146は、コンピュータにより設定される少なくとも一つの仮想境界144を定義する。ジェスチャユーザ入力146はジェスチャ146と呼ばれてもよい。また、図2を参照して前に説明されたようなものであってもよい。ジェスチャ146は、境界指示ジェスチャ146であると考えられてもよい。
図示された例において、人物150は、コンピュータにより設定される単一の仮想境界144を定義するために、ジェスチャ146を実行してもよい。
ジェスチャ146は、被監視シーン空間140の中の位置において、経路148に沿った動きを備えるものであってもよい。図5の例において、ジェスチャ146は、経路148に沿って自分の手でオブジェクト152を動かす人物150を有していてもよい。この例において、経路148は被監視シーン空間140を横切る直線である。
この例において、経路148は、一つの空間次元における動きを有していてもよく、又は2つの空間次元、3つの空間次元における動きを有していてもよく、又はその他の如何なる形態を有していてもよい。
図5のcは、被監視シーン空間140を上から見た図であり、人物150が、コンピュータにより設定される仮想境界144を定義するために、ジェスチャ146を行っていることが描かれている。
図5のa及びcの例からわかるように、ジェスチャ146は、座標(x,y,z)を有するシーン140中の位置から始まっている。ここでxは左の壁から測られ、yは前面の壁から測られ、zは床から測られている。ジェスチャ146は、座標(x',y',z')を有する位置で終わっている。この位置は図5には描かれていない。
図5の例において、ジェスチャ146は、開始位置(x,y,z)から経路148に沿ってオブジェクト152を動かす人物150を有する。ここで計548は、被監視シーン空間140を横切る直線である。
図示される例において、ジェスチャ146は一次元の動きである。つまり、経路148に沿ってxの値が変化するが、y及びzの値は変わらず一定である。
別の例においては、被監視シーン空間140中の開始位置から経路148に沿ってx,y,zの二つ以上の値が変化するかもしれない。
図5の例のbは、監視空間142を描いている。監視空間142は、被監視シーン空間140の仮想的な表現を有する。この仮想的な表現は、システム100によって作られ、使用される。監視空間142は、例えば、センサ110から受け取ったデータ(例えばイメージデータや奥行きデータ)から形成されてもよい。
図5のb,dは、それぞれa,cに対応する監視空間142を描いており、同じ視点から描かれている。
実施例によっては、システム100は、監視空間142を形成するために、被監視シーン空間140の形状情報を使用してもよい。例えばシステム100は、監視空間142を形成するにおいて、被監視シーン空間140の3次元モデルを使用してもよい。被監視シーン空間140の3次元モデルは、システム100によって作られてもよいし、システム100が外部から受け取ったものであってもよい。被監視シーン空間140の3次元モデルを形成する方法は既知である。
システム100は、シーン空間140を監視するために、監視空間142を使用してもよい。例えばシステムは、少なくとも一つの仮想境界144を作り監視するために、監視空間142を使用してもよい。
図5において、aとbとの間の矢印や、cとdとの間の矢印で示されているように、監視空間142と被監視シーン空間140とは対応している。実施例によっては、監視空間142と被監視シーン空間140との間には、一対一の対応関係があってもよい。
実施例によっては、監視空間142と被監視シーン空間140との間には、スケール不変の変換があってもよい。
システム100は人物150によってなされたジェスチャ146を認識し、それに応じて監視空間142において、仮想境界144を少なくとも一つ作ってもよい。実施例によっては、ジェスチャ146を認識することは、受信データを処理することを含んでもよい。この受信データは例えばイメージデータであってもよい。例えばシステム100は、一つ又は複数のビデオフィードを解析してもよい。
実施例によっては、仮想境界144の少なくとも一部分は、被監視シーン空間140中の経路148によって決定されてもよい。また、仮想境界144の前記一部分は、被監視シーン空間140中の経路148の位置に相当する、監視空間中の対応する位置に位置してもよい。
例えば、少なくとも一つの仮想境界144は、被監視シーン空間140中の経路148の位置に相当する、監視空間142中の経路148に沿って、作られてもよい。
図5のbやdに描かれるように、仮想境界144は、監視空間142において、点(x,y,z)から経路144に沿って作られてもよい。監視空間における点(x,y,z)は、被監視シーン空間140における点(x,y,z)と同じである。
システム100は、仮想境界144を、経路148を超えて延長してもよい。システム100は、仮想境界144を延ばすために、被監視シーン空間140の形状情報(例えば3次元モデル)を使用してもよい。
実施例によっては、システム100は、監視空間142の少なくとも一つの境界(これは被監視シーン空間140の少なくとも一つの物理的境界に対応する)まで、仮想境界144を延長してもよい。例えばシステム100は、仮想境界144を、第1の壁から第2の壁まで延長してもよい。また例えば、床から天井まで延長してもよい(図6参照)。
図5の例において、破線は仮想境界144の延長部分を示している。当該延長部分は監視空間142の左の境界へと、また右の境界へと延びている。これらの境界は、それぞれ、被監視シーン空間140の左の壁及び右の壁までに対応している。
実施例によっては、ユーザは、ある領域を包み込むような仮想境界の一部を含むような、経路148を示してもよい。そしてシステム100は、自動的に、当該領域を包み込む仮想境界144を完成してもよい。例えば、ユーザが描く経路148は、ある形状の一部を含むようなものであってもよい。そしてシステム100は、仮想境界144を作るときに、その形状を自動的に完成させてもよい。
例として、ユーザが描いた経路が円の一部である場合、システム100は仮想境界144を自動的に延長し、完全な円としてもよい。
実施例によっては、ユーザはシステム100に、ジェスチャ146及び/又は一つ又は複数の他の入力を用いて、仮想境界144を、ある領域を包み込むような境界を完成させるように延長すべきであることを、指示してもよい。
実施例によっては、システム100は、描かれた経路148から、仮想境界144が、ある領域を包み込むように延長すべきものであることを推測し、仮想境界144を自動的に延長してもよい。
システム100は、システム100がジェスチャ146を理解し、仮想境界144を作成したことを確認するためのフィードバックをユーザに提供してもよい。このフィードバックは適切な如何なる形式のものでもよく、例えば音声フィードバックや視覚フィードバック、触覚フィードバック等であってもよい。それに加えて、またはそれに代えて、システム100は、システム100が仮想境界144を形成したことをユーザに知らせるために、一つ又は複数のメッセージを一つ又は複数のデバイスに送信してもよい。
少なくとも一つの仮想境界144に関連して被監視シーン空間140の一部に変化があったとき、システム100は、受け取ったデータを処理して応答イベントを生成してもよい。例えばシステム100は、センサ110から受け取ったデータを処理して応答イベントを作成してもよい。このデータは音声データやイメージデータであってもよい。システムは、一つ又は複数のオーディオフィード又はビデオフィードを解析し、応答イベントを生成してもよい。実施例によっては、受け取ったデータを処理して応答イベントを生成することは、仮想境界144をモニタリングすることを考慮してもよい。
例えば、同じセンサ(例えばカメラ)が、少なくとも一つの仮想境界144を定義するジェスチャ146を認識することと、この仮想境界144をモニタリングすることとの両方に使われてもよい。
実施例によっては、受け取ったデータを処理して応答イベントを生成することは、仮想境界144を監視して仮想境界144を横切るアクティビティを検出すべく、受信したデータを処理することを含んでもよい。及び/又は、仮想境界144から閾値以下の距離で発生したアクティビティを検出すべく、受信したデータを処理することを含んでもよい。例えばシステム100は、オーディオデータ、イメージデータ、奥行きデータのいずれか一つ以上を処理することにより、仮想境界144を監視し、仮想境界144を横切るアクティビティ(又は仮想境界144から閾値以下の距離で発生したアクティビティ)を検出してもよい。
システム100は、一つ又は複数の仮想境界144が、応答イベントを生成することなしに作成されたことを、ユーザが確認することを可能にしてもよい。
例えば、ユーザは、被監視シーン空間140のある位置でジェスチャ146を使って仮想境界144を定義してもよく、そして、被監視シーン空間140の当該位置とやり取りし、仮想境界144が適切な位置にあることを確認してもよい。例えば、ユーザが自身の体の少なくとも一部(例えば手)を被監視シーン空間の中で動かしたとき、システム100は、ユーザが仮想境界144に触ったか又は境界を横切ったかを教えるフィードバックを提供してもよい。適切などのようなフィードバックが提供されてもよい。例えば音声フィードバックや視覚フィードバック、触覚フィードバックが提供されてもよい。それに加えて、又はそれに代えて、システム100は、ユーザの一つ又は複数のデバイスに少なくとも一つのメッセージを送信してもよい。
実施例によっては、システム100は、ユーザが仮想境界144を確認した後に、応答イベントを生成すべく受け取ったデータの処理を始めてもよい。例えばシステム100は、ユーザが仮想境界144を確認するまでは、警告を生成したり、カウンタを増分させたりしないようにされてもよい。
応答イベントはフィードバックを提供することを含んでもよい。フィードバックを提供することは、例えば通信モジュール130を使用することを含んでもよい。実施例によっては、フィードバックは、一つ又は複数の警告を含んでいてもよい。この一つ又は複数の警告はどのような形式の警告でもよく、例えば音声及び/又は視覚的な警告であってもよい。それに加えて、又はそれに代えて、このフィードバックは、一つ又は複数のメッセージを装置に提供することを含んでもよい。この装置は、例えば携帯電話やタブレット、ラップトップコンピュータ、デスクトップコンピュータ等でもよい。
追加的に又は代替的に、実施例によっては、上記応答イベントはカウンタを増分させることを含んでもよい。例えばシステム100は、境界に関する出来事の回数を監視してもよい。例えば、オブジェクト152が仮想境界144に接触したり、横切ったり、閾値以下の距離に近づいたりする回数を監視してもよい。それに加えて、又はそれに代えて、システム100は、境界に関する出来事の方向を監視してもよい。例えば、境界を横切る方向を監視してもよい。システム100は、協会に関する出来事の統計情報を提供するように構成されてもよい。
実施例によっては、システム100は、高齢者がトイレ又は薬置き場に行く頻度を監視したり、子供が冷蔵庫を開けたりそのそばに行ったりする頻度を監視したり、公共のスペースに存在する人々を監視したりするのに使われてもよい。
システム100のユーザ、例えば人物150は、応答イベントを構成してもよい。例えばユーザは、応答イベントを構成するために、システム100に認識されうる一つ又は複数の追加的なジェスチャ146を行ってもよい。それに加えて、又はそれに代えて、ユーザは、タブレットや携帯電話のようなデバイスを使ってシステム100に入力を提供し、応答イベントを構成してもよい。
実施例によっては、システム100は、受け取ったデータを処理して、仮想境界144やオブジェクト152に関して被監視シーン空間140の一部に変化があったときに、応答イベントを生成してもよい。例えばシステムは、何らかのオブジェクト152が仮想境界144を横切ったり、接触したり、閾値以下の距離に近づいたりした場合に、応答イベントを生成してもよい。このような仮想境界144は、一般的な仮想境界144であると考えられてもよい。
実施例によっては、システム100は、受け取ったデータを処理して、仮想境界144やユーザが指定したオブジェクト152に関して被監視シーン空間140の一部に変化があったときに、応答イベントを生成してもよい。
例えば、少なくとも一つの仮想境界144を定義するためのジェスチャ146を行った後、システム100のユーザ150は、一つ又は複数のオブジェクト152をシステム100に示すべく、ジェスチャ146を行ってもよい。例えばユーザ150は、その手や携帯電話を用いて、一つ又は複数のオブジェクト152を指し示してもよい。または、デバイスのビューファインダーに一つ又は複数のオブジェクトが位置するようにしてもよい。
実施例によっては、一つ又は複数のオブジェクトを指し示すジェスチャ146は、仮想境界144を定義するジェスチャ146の前に行われてもよい。
システム100は、一つ又は複数のオブジェクト152を指し示すジェスチャ146を認識し、それに応じて、しかし仮想境界144や指示されたオブジェクト152に関して被監視シーン空間140の一部に変化があったときのみ、応答イベントを生成してもよい。例えばシステム100は、指示されたオブジェクト152が仮想境界144を横切ったり、接触したり、閾値以下の距離に近づいたりした場合のみ、応答イベントを生成してもよい。このような仮想境界144は、特殊な仮想境界であると考えられてもよい。
図5の例を参照すると、人物150は、仮想境界144を定義すべくジェスチャ146を行っていてもよく、システム100は、ジェスチャ146を認識し仮想境界144を形成してもよい。
人物150は更に、自身を指し示すような更なるジェスチャを行ってもよい。システムはこの更なるジェスチャを認識し、人物150に関してのみ、仮想境界144を監視する。例えばシステム100は、人物150が仮想境界144を横切ったり接触したり、閾値以下の距離に近づいたときに、警告やカウンタ増分のような応答イベントを生成するか、オブジェクト152が仮想境界144を横切ったり接触したり、閾値以下の距離に近づいたとしても、応答イベントを生成しないようにされてもよい。
実施例によっては、人物150のようなユーザは、まず最初のジェスチャ146を行い、それによって、システム100が認識しうるコンピュータ実装の仮想境界を定義するジェスチャ146を行うことができるようにされてもよい。
例えばユーザは、システム100をユーザ制御状態220にセットすべくジェスチャ146を行ってもよく、それによってユーザは、境界を指示するジェスチャ146を行うことができるようにされてもよい。実施例によっては、システム100をユーザ制御状態へセットするジェスチャ146は、手を叩くこと(又は手を叩くことを含むこと)であってもよい。叩いた音はオーディオシステムによって検出されうる。または、奥行きデータとして検出されうるジェスチャ146であってもよい。
例えば、システム100は、最初のジェスチャ146を認識し、境界認識モードに入ってもよい。この境界認識モードにおいて、システム100は、一つ又は複数の境界指示ジェスチャを認識できるようになっていてもよい。例えば、人物150のようなユーザは、システム100のカメラをポイントし、境界指示ジェスチャ146を行おうとしていることを示してもよい。システム100は、システム100が境界認識モードに入ったことを確認できるように、音声フィードバックや視覚的フィードバック等のようなフィードバックをユーザに提供してもよい。
実施例によっては、ユーザは、コンピュータにより設定される仮想境界144を少なくとも一つ定義するために、ジェスチャ146を行ってもよい。
一つ又は複数の仮想境界144が設定された後、(例えば人物150のような)ユーザは、これら一つ又は複数の仮想境界144を変化させるジェスチャ146を実行してもよい。それに加えて、又はそれに代えて、ユーザは、携帯デバイスを使って仮想境界を変化させる入力を提供してもよい。
システム100はジェスチャ146を認識し、それに応じて一つ又は複数の仮想境界144を変化させてもよい。仮想境界144のどのような特性をも、同様の方法で変化させることができてもよい。例えばユーザは、ジェスチャ146を実行することによって、仮想境界の位置や形状、大きさ、高さなどの一つ又は複数を変えることができてもよい。実施例によっては、仮想境界144を変化させるために、様々なジェスチャ146が存在してもよい。
この変化は一時的なものであってもよい。そしてシステム100は、一定時間が経過した後に、仮想境界を元の状態に戻してもよい。この一定時間の長さは既定であってもよく、ユーザによって設定されたものでもよい。ユーザは例えば、ジェスチャや一つ又は複数の別の方法による入力を用いて、当該時間の長さを設定できてもよい。
図5の例において、仮想境界144を定義するためにユーザがジェスチャ146を実行し、システムが仮想境界を作成した後、ユーザは、監視空間142の仮想境界146の位置に対応する被監視シーン空間140の周辺で、「掴む」動作をしてもよい。図5の例においては、人物150は、経路148が描かれた空間を掴んでもよい。
実施例によっては、システム100は、強化現実技術を用いて被監視シーン空間140の中に仮想境界144を投影するように構成されたプロジェクタやレーザーを一つ又は複数備えていてもよい。これに加えて、又はこれに代えて、ユーザは、強化現実技術を用いて、眼鏡のような一つ又は複数のデバイスを用いて、仮想境界を観察することができてもよい。
システム100は「掴む」ジェスチャを認識すると共に、当該ジェスチャの位置が仮想境界144の近くであることを認識する。更に、人物が「掴む」ジェスチャを継続している間、被監視シーン空間140における人物の手の動きに対応するように、監視空間142の中で仮想境界を動かす。人物150が「掴む」ジェスチャをやめると、システム100は、仮想境界144を新しい位置に設定する。
実施例によっては、ユーザは、応答イベントを生成することなく境界とのやりとりを行うことを一時的に可能にするように、仮想境界144を変化させてもよい。ここで「境界とのやりとり」とは、例えば接近したり触ったり、仮想境界を横切ったりすることなどであってもよい。これは、ジェスチャ146を用いて行われてもよいし、一つ又は複数の別の方法による入力を用いて行われてもよい。
実施例によっては、(例えば人物150のような)ユーザは、ジェスチャ146を実行してもよく、システム100は当該ジェスチャ146を認識してもよい。それに応じてシステム100は、一つ又は複数のオブジェクト152(例えば人物150)が、応答イベントを生成せずに、仮想境界に接近したり触ったり、仮想境界を横切ったりすることを可能にしてもよい。実施例によっては、この変化は空間的に一時的なものであってもよく、システム100は、応答イベントを生成せずに仮想境界に接近したり触ったり仮想境界を横切ったりする回数を定めてもよい。この回数は既定であってもよく、ユーザによって設定されたものでもよい。ユーザは例えば、ジェスチャ146や一つ又は複数の別の方法による入力を用いて、当該時間の長さを設定できてもよい。
実施例によっては、上記の変化は時間的に制限されたものであってもよい。システム100は、所定の時間の間、仮想境界に接近したり触ったり仮想境界を横切ったりすることを許可してもよい。この所定の時間の長さは既定であってもよく、ユーザによって設定されたものでもよい。ユーザは例えば、ジェスチャや一つ又は複数の別の方法による入力を用いて、当該時間の長さを設定できてもよい。
実施例によっては、仮想境界144を変化させるためのジェスチャ146は、空間的に制限されたものであってもよい。例えば、システム100は、ジェスチャ146が、被監視空間の限られた領域でなされたものである場合にのみ、それを認識してもよい。例えばシステム100は、ある高さ以上(Zの値がある閾値以上の場所の場所)で実行された場合のみ、ジェスチャ146を認識して仮想境界144を変化させてもよい。これは例えば、子供が仮想境界144を変化させてしまうことを防ぐためであってもよい。
それに加えて、又はそれに代えて、ジェスチャ146(例えば仮想境界144を変化させるジェスチャ146)は、特定の人物によって実行された場合にのみ、システム100に認識されるものであってもよい。特定のジェスチャ146を行うことが許可された人物は、ジェスチャまたは一つ又は複数のその他の入力によってシステム100に伝えられてもよい。例えばユーザは、許可される人物を指し示してもよく、又は許可される人物の携帯デバイスを指し示してもよい。また、デバイスのファインダ内に許可される人物が位置するようにしてもよい。
例えば、図5において、仮想境界144が設定された後、人物150は、自身の指を使って自身の顔の周りに円を描き、自分だけが仮想境界144を変化させることが許可される人物であることをシステム100に伝えてもよい。
実施例によっては、仮想境界144は、条件付きで監視されてもよく、及び/又は、条件付きで有効化されたり無効化されたりしてもよい。例えばシステム100は、受信したデータを処理して、仮想境界144に関して被監視空間144の一部に変化があり、一つ又は複数の基準を満たしたときのみ、応答イベントを生成してもよい。しかし、そのような基準を満たさないときは、当該データを処理して応答イベントを生成することはしないようにされてもよい。
この基準は既定であってもよく、ユーザによって設定されたものでもよい。ユーザは例えば、ジェスチャや一つ又は複数の別の方法による入力を用いて、当該基準を設定できてもよい。
どのような基準が使用されてもよい。例えば、時間的な基準や物理的な基準を使ってもよい。例えば、仮想境界144は、特定の時間帯や、特定の曜日、特定の週、特定の月のような条件付きで監視されてもよい。また、被監視シーン空間140の中に一つ又は複数のオブジェクト152が存在するかどうかに応じて監視されてもよい。
例えば図5において、仮想境界144が設定された後、人物150は、彼が被監視シーン空間140にいない時のみ仮想境界144を監視するように、ジェスチャ146を用いてシステム100に伝えてもよい。
システム100はこのジェスチャ146を認識し、人物150が被監視シーン空間140にいない時のみ、仮想境界144を監視してもよい。
実施例によっては、仮想境界は、人物150が被監視空間140を離れたときに監視され、当該人物150が被監視空間140に戻ってくると、当該仮想境界は消去されてもよい。
別の実施例では、仮想境界144はシステム100に格納されてもよく、人物150が被監視シーン空間140から出るたびに有効化され、被監視シーン空間140に戻るたびに無効化されてもよい。いくつもの数の仮想境界144がシステム100に格納されていてもよい。
図6は、システム100の動作の例を描いた図である。
図6は、図5に描かれた被監視空間140に対応する監視空間142の例を描いたものである。図6の例において、人物150は、仮想境界144を定めるためにジェスチャ146を行ったところである。ここでジェスチャ146は、経路148に沿った動きを有している。
図6において、システム100はジェスチャ146を認識し、仮想境界144を設定する。図6において、システム100は、監視空間142において仮想境界144を拡大し、対応する被監視シーン空間140の壁から壁へと、また天井から床へと、仮想境界144を拡大する。
システム100は、仮想境界144を拡大するために、被監視シーン空間140の形状情報を利用してもよい。例えばシステム100は、仮想境界144を拡大するために、被監視空間140の3次元モデルを利用してもよい。
仮想境界144の拡大はオプションの機能であってもよい。また、(例えば人物150のような)ユーザによって設定可能であってもよい。実施例によっては、システム100は、ジェスチャ146によって定義された仮想境界144を拡大することがデフォルトであってもよい。このとき、所定の大きさだけ拡大してもよいし、天井から壁まで、及び/又は、壁から壁まで、拡大してもよい。
別の実施例では、ユーザは、システム100が仮想境界144を拡大するための追加の入力を提供してもよい。例えば、仮想境界144を定義するためのジェスチャ146を実行した後、ユーザは、仮想境界144が拡大されるべきであるか否かをシステム100に示すための少なくとも一つの追加のジェスチャ146を実行してもよい。拡大されるべきであるならば、どのくらい拡大されるべきであるかを示す追加のジェスチャ146を実行してもよい。
これらの例において、仮想境界144は、(携帯電話のような)デバイスのスクリーンに可視化されてもよい。この可視化は、グラフィック描写によってなされてもよいし、強化現実技術によってなされてもよい。可視化によって、ユーザはデバイスを通じて被監視シーン空間140を見ることができ、例えば、被監視シーン空間140のライブビデオに重ねられた強化現実ビューにレンダリングされた仮想境界144を有する被監視シーン空間140を見ることができる。実施例によっては、デバイスは、ユーザに装着される眼鏡として構成されてもよい。
これに加えて、又はこれに代えて、仮想境界144は、一つ又は複数のプロジェクター及び/又はレーザーを用いて、被監視シーン空間140の壁及び/又は床及び/又は天井に投影されてもよい。
例えば、ユーザは、最初のジェスチャ146で、仮想境界144が壁から壁へと拡大されるべきであることを示し、及び/又は、第2のジェスチャ146で、仮想境界144が天井から床まで拡大されるべきことを示してもよい。システム100はこれらのジェスチャ146を認識し、それに従って仮想境界144を拡大してもよい。
実施例によっては、システムは、仮想境界144を定めるために使われたジェスチャ146から、仮想境界144がどのように拡大されるべきかを推測してもよい。例えば、ユーザがオブジェクト152の周りでジェスチャ146を実行したり、ある空間を囲むようなジェスチャ146を実行したりする場合、システム100は、床から天井までの拡大のみが適切であるだろうと推定してもよい。図7A−7Cを参照されたい。
図7A−7Cは、システム100の動作を描いた図である。
図7Aは、被監視シーン空間140の別の例を描いたものである。図7Aにおいて、被監視シーン空間140には子供152が存在する。ユーザは、子供152の周りに、経路148を有するジェスチャ146を実行した所である。図7Aの例において、経路148は子供152を包む矩形を含む。
図7Bは、図7Aの例で描かれた被監視シーン空間2対応する監視空間142を描いたものである。
図7Bにおいて、システム100はジェスチャ146を認識し、ジェスチャ146で定められた仮想境界144を設定する。図7Bの例において、システム100は、仮想境界144を天井から床まで拡大する。図7Bには、仮想境界144の背面部分のみが描かれている。これは、床から天井まで拡大されたことをより明確に示すためである。
図7Cは、描かれた子供152の周りに完全に拡大された仮想境界144を含む監視空間142を描いたものである。
図7A−Cの仮想境界144はオブジェクトに関係付けられた境界であり、、子供152に関係する。この例において、システム100は、子供152が仮想境界144を横切ると警告を生成するが、その他のオブジェクトが仮想境界144を横切っても警告を生成しない。
実施例によっては、仮想境界144は、仮想境界144を定めるために用いられたジェスチャ146で決められた位置に固定されてもよい。このような仮想境界144は、固定仮想境界であると考えられてもよい。
図7A−Cの例に関連して、子供152の周りの仮想境界144は固定されており、ユーザによって動かされない限り、動かない。
実施例によっては、システム100は、図5に関連して説明されたようにシステムに示されてもよい一つ又は複数のオブジェクト152に関連して、仮想境界を動かすように構成されてもよい。ユーザは、一つ又は複数のジェスチャ146及び/又は一つ又は複数のその他の入力を用いて、仮想境界144が、一つ又は複数のオブジェクト152に関連して動くべきであることを、システム100に示してもよい。
このような仮想境界144は、可動仮想境界であると考えられてもよい。
図7A−Cの例に関連して、システム100は、子供152が動くにつれて、仮想境界144を動かしてもよい。実施例によっては、システム100は、示されたオブジェクト152が中心に来るように、可動仮想境界144を動かしてもよい。
可動仮想境界144は、例えば、2つのオブジェクト152が互いに一定の距離に近づかないようにするため、及び/又は、2つのオブジェクト152の間の距離がある閾値を超えないようにするために、使用されてもよい。
図7A−Cの例において、ユーザはシステム100に、子供152の周りの仮想境界144を、(図示されない)年上の兄弟が横切るべきではないことを示してもよい。子供152の周りの仮想境界144が、子供152の動きに追随する可動仮想境界である例において、そのような可動仮想境界は、子供152と年上の兄弟との間の最低距離を確保するために用いられうる。もし年上の兄弟が仮想境界144を跨ぐと、ユーザに警告が発せられる。
それに加えて、又はそれに代えて、ユーザが可動仮想境界144を設定した時に年上の兄弟がその仮想境界の中にいたら、可動仮想境界144は、2つのオブジェクト(子供と年上の兄弟)の間に存在しうる最大の距離を定義してもよい。もし年上の兄弟が仮想境界を跨ぐと、システム100はユーザに警告してもよい。
実施例によっては、ユーザ(例えば人物150)は、可動仮想境界144はオブジェクト152(例えば子供152)の周りに形成されるべきであることを示してもよい。これは例えば、まず手を使って子供152を指し示し、次に手を使って子供152の周りの仮想境界144の距離を指し示すことでなされてもよい。
実施例によっては、この距離は、ユーザの腕の長さを超えてもよい。そのような例において、ユーザは、2本の腕を伸ばした状態に保ってもよく、それに応じてシステム100は、仮想境界の距離を、一つ又は複数のプロジェクタ及び/又はレーザーを使って指し示し、ユーザに距離の指標を提供してもよい。システム100は、ユーザの腕に沿って、また腕の長さを超えて、その指標を動かす。ユーザがその距離に満足した場合、例えばユーザは両手を組み合わせるなど、何らかのジェスチャをして、距離を決定してもよい。
実施例によっては、システム100は、仮想境界144が示された後(例えば図7A−Cのいずれかで示されたように)、仮想境界144の中から、又はその近傍で、ビデオを流してもよい。実施例によっては、ユーザは、表示されたビデオを、例えば携帯電話のようなデバイスで見ることができてもよい。
実施例によっては、応答イベントを生成することは、携帯デバイスのようなユーザデバイスに、境界とのやりとりが生じた場所を含む(又はそのような場所にフォーカスを当てた)ビデオや静止画のストリーミングを提供することを含んでもよい。
実施例によっては、ユーザは、その中でシステム100が音を監視するような仮想境界144を設定してもよい。ユーザは、このような仮想領域を、一つ又は複数のジェスチャ146及び/又は一つ又は複数のその他の入力を使って、システム100に伝えてもよい。
システム100はそのようなジェスチャ146を認識し、仮想領域144の内部領域において音を監視してもよい。システム100は例えば、仮想領域144の内部領域からの音を検出した場合、応答イベントを生成してもよい。
実施例によっては、システム100は、所定の閾値を超える音のみを監視してもよい。
例えば、図7A−Cの例において、システム100は、仮想領域144の内部領域において音を監視してもよい。従ってシステムは、即席の赤ちゃん監修システムとして動作してもよい。実施例によっては、システム100は、特定のタイプの音を監視してもよい。例えば、人からの音や動物の音などを監視してもよい。実施例によっては、ユーザは、一つ又は複数のジェスチャ146及び/又は一つ又は複数のその他の入力によって、監視すべき音を設定してもよい。
実施例によっては、ユーザは、強化現実を用いて一つ又は複数の仮想境界144を見ることができてもよい。例えばユーザは、強化現実メカニズムに基づくスマートグラスやビューファインダーを用いて、仮想境界144を見ることができてもよい。
例として、仮想境界は、それが強化現実を用いて観察されるとき、仮想境界144が適用される一つ又は複数のオブジェクト152を示す指標を有していてもよい。この指標はどのようなタイプのものでもよく、例えばテキストや画像を含むものであってもよい。
例えば、図7A−Cの例において、強化現実技術を用いて観察される仮想境界144は、子供152のために半透明のオーバーレイを有していてもよい。
図8は、方法800の例を描いた図である。方法800は、システム100によって遂行されてもよい。
ブロック802では、監視空間142においてコンピュータにより形成される少なくとも一つの仮想境界144を定めるための、少なくとも一つのジェスチャ146が認識される。実施例によっては、少なくとも一つのジェスチャ146を認識することは、受け取った画像データ及び/又は受け取った奥行きデータを処理することを含んでもよい。ジェスチャ146は、被監視シーン空間140内の経路148に沿った動きを有する。また、監視空間142と被監視シーン空間140との間には、対応関係が存在する。
ジェスチャ146は例えば、図2を参照して前に説明されたようなものであってもよい。
ブロック804では、監視空間142において少なくとも一つの仮想境界144の形成が行われる。仮想境界144の少なくとも一部分は、被監視シーン空間140中の経路148によって決定されてもよい。また、仮想境界144の前記一部分は、当該経路の位置に相当する、監視空間142中の対応する位置に位置してもよい。
実施例によっては、仮想境界144の設定は、仮想境界144を拡大することを含んでもよい。実施例によっては、システム100は、監視空間142の少なくとも一つの境界(これは被監視シーン空間140の少なくとも一つの物理的境界に対応する)まで、仮想境界144を延長してもよい。
ブロック806において、少なくとも一つの仮想境界144に関連して被監視シーン空間140の一部に変化があったとき、受け取ったデータを処理して応答イベントを生成してもよい。
図9は、方法900の例を描いた図である。方法900は、システム100によって遂行されてもよい。実施例によっては、図9の一つ又は複数のブロックは省略されてもよい。
ブロック902において、少なくとも一つの最初のジェスチャ146が認識される。この少なくとも一つの最初のジェスチャ146は、仮想境界144を設定するための少なくとも一つのジェスチャ146が認識されることを可能にしてもよい。
例えば、少なくとも一つの最初のジェスチャ146は、システムが境界認識モードに入ることを生じさせてもよい。
ブロック904及び906は、図8のブロック802及び804と同じである。
ブロック908において、少なくとも一つのオブジェクト152を指し示す、少なくとも一つの更なるジェスチャ146が認識される。例えば、少なくとも一つの更なるジェスチャ146は、一つ又は複数の仮想境界144に関係して一つ又は複数のオブジェクト152を監視すべきであることをしましてもよい。
ブロック910はブロック806と同じであってもよい。しかし、ブロック908が実行される例において、システム100は、ブロック910において、受け取ったデータを処理して応答イベントを生成してもよい。データを処理して応答イベントを生成することは、少なくとも一つの仮想境界に関連して、また少なくとも一つの指し示されたオブジェクト152に関連して、被監視シーン空間140の一部に変化があったときに、行われてもよい。
実施例によっては、システム100は、少なくとも一つの仮想境界144に関連して少なくとも一つの指示されたオブジェクト152を監視すべく、受け取ったデータを処理してもよい。
ブロック912において、少なくとも一つの仮想境界144を変化させるため、少なくとも一つの更なるジェスチャ146が認識される。
ブロック914において、ブロック910で認識された少なくとも一つの更なるジェスチャ146に応じて、少なくとも一つの仮想境界が変化させられる。例えば、少なくとも一つの仮想境界144が動かされたり、サイズを変化させられたり、形状を変化させられたり、消去されたりしてもよい。
ブロック916において、応答イベントが生成される。例えば警告が提供されてもよい。及び/又は、カウンタの増分が始まってもよい。
構造的特徴が記述されてきたが、こうした構造的特徴は、その構造的特徴における1つ又は複数の機能を実行する手段で置き換えられてもよい。こうした1つ又は複数の機能は明示的に記述されていてもよく、されていなくてもよい。
本願で開示された例は、監視システムのための仮想的な境界を定義し操作するための、簡単かつ直感的な方法を提供する。
本明細書において「含む、備える(comprise)」という用語は、排他的な意味ではなく、包括的な意味で使用される。「Yを含むX」に関しては全て、「Xは1つのYしか含むことができない」又は「複数のYを含むことができる」を意味する。排他的な意味を有する「含む、備える(comprise)」を意図する場合は、「〜を1つのみ含むこと」又は「〜から成る」と言及することにより、文脈内で明確にされよう。
この簡潔な説明では、様々な例への参照がなされてきた。実施例に関する特徴または機能の説明は、これらの特徴または機能が、その実施例に認められることを示す。本明細書中の「実施例(example)」「例えば(for example)」「〜できる、〜場合がある(may)」といった単語の使用は、明示的であれ非明示的であれ、特徴及び機能が、少なくとも記載された実施例に存在することを意味する。実施例としての記載及び不記載にかかわらず、これら特徴及び機能が、他の一部または全ての実施例に存在する可能性があるが、必ずしもそうではないことを意味する。このように、「実施例」「例えば」「〜できる、〜の場合がある」は、ある例示群における特定の事例であることを指す。上記特定の事例の特性は、その事例のみの特性である場合、または上記例示群に属する一部の群の特性である場合がある。すなわち、上記特定の事例の特性は、例示群中の例示の全特性とは限らないが特性の一部を含む。したがって、ある特定の実施例を参照しているが別の実施例を参照しないで記述された特徴は、それが他の実施例でも使用される可能性もあれば、他の実施例での使用が不要である可能性もあることを示唆している。
本願明細書及び図面において、本発明の様々な実施形態が様々な実施例と共に紹介されてきたが、当然のごとく、特許請求の範囲に特定される発明の範囲を逸脱することなく、紹介された実施形態を変形することができる。
これまでに記述してきた事項は、明示的に記述された組合せだけでなく、それ以外の組合せで用いられてもよい。
特定の事項を参照して種々の機能を記述してきたが、こうした機能は、記述の有無を問わずその他の事項によって遂行可能であってもよい。
特定の実施形態を参照して種々の事項を記述してきたが、こうした事項は、記述の有無を問わずその他の実施形態で用いられてもよい。
前述のように本明細書において、とりわけ重要であると考えられる本発明のこうした事項に注目するように努めてきた。しかし、前述した特許されうる全ての事項およびそれらの組合せに対して、参照された添付の図面にそうした事項が特段強調されていたかどうかにかかわらず、本出願人はその保護を求めるものである点を理解されたい。

Claims (15)

  1. 監視空間内に、コンピュータにより設定される少なくとも一つの仮想境界を定めるべく、少なくとも一つのジェスチャを認識すること、但し前記ジェスチャは経路に沿った動きであって、被監視シーン空間内の位置における動きを有し、前記監視空間と前記被監視シーン空間との間には対応関係が存在する、前記認識することと;
    前記被監視シーン空間に対応する前記監視空間の中に、コンピュータにより設定される少なくとも一つの仮想境界が作成されることを生じさせること、但し前記仮想境界の少なくとも一部分は前記被監視シーン空間内の前記経路によって定められ、前記仮想境界の前記少なくとも一部分は、前記経路の位置に相当する、前記監視空間の対応する位置に位置する、前記生じさせることと;
    前記少なくとも一つの仮想境界に関連して前記被監視シーン空間の一部に変化があったとき、受け取ったデータを処理して応答イベントを生成することと;
    を含む、方法。
  2. 前記少なくとも一つのジェスチャは認識することは、受け取ったデータを処理すること及び/又は受け取った奥行きデータを処理することを含む、請求項1に記載の方法。
  3. 前記少なくとも一つのジェスチャの認識が可能となるように、少なくとも一つの最初のジェスチャを認識することを更に含む、請求項1又は2に記載の方法。
  4. 前記被監視シーン空間の少なくとも一つの物理的な境界に対応する、前記監視空間の少なくとも一つの境界の方へ、前記仮想境界を拡大することを更に含む、請求項1から3のいずれかに記載の方法。
  5. 前記仮想境界を拡大することは、該仮想境界を、第1の壁から第2の壁まで延ばすこと、及び/又は、床から天井まで延ばすことを含む、請求項4に記載の方法。
  6. 前記少なくとも一つのジェスチャを認識することは、オブジェクトの動きを追跡することを含む、請求項1から5のいずれかに記載の方法。
  7. 前記少なくとも一つのジェスチャを認識することは、前記被監視シーン空間の中の人物の体の少なくとも一部分の動作を追跡することを含む、請求項6に記載の方法。
  8. 人物の体の前記動作は、前記被監視シーン空間内の経路に沿って前記人物が歩くことを含む、請求項7に記載の方法。
  9. 少なくとも一つのオブジェクトを指し示す少なくとも一つの更なるジェスチャを認識することと、該認識することに応じて、前記少なくとも一つの仮想境界に関係して前記少なくとも一つのオブジェクトを監視すべく、データを処理することとを更に含む、請求項1から8のいずれかに記載の方法。
  10. 受け取ったデータを処理して応答イベントを生成することは、前記少なくとも一つの仮想境界を監視して、該少なくとも一つの仮想境界を横切るアクティビティを検出するため、及び/又は、前記少なくとも一つの仮想境界から所定の閾値以内の距離で生じたアクティビティを検出するために、画像データを処理することを含む、請求項1から9のいずれかに記載の方法。
  11. 前記応答イベントは、前記少なくとも一つの仮想境界を横切るアクティビティ及び/又は前記少なくとも一つの仮想境界から所定の閾値以内の距離で生じたアクティビティに応じて、フィードバックが提供されるようにすることを含む、請求項10に記載の方法。
  12. 少なくとも一つの更なるジェスチャを認識することと、該認識することに応じて前記少なくとも一つの仮想境界を変化させることと、を更に含む、請求項1から11のいずれかに記載の方法。
  13. 受け取ったデータを処理して応答イベントを生成することは、少なくとも一つの条件が満たされたときに行われるが、前記少なくとも一つの条件が満たされないときは行われない、請求項1から12のいずれかに記載の方法。
  14. 請求項1から13のいずれかに記載の方法を実行する手段を備える、装置。
  15. 装置の処理手段に実行されると、前記装置に、請求項1から13のいずれかに記載の方法を遂行させるように構成されるプログラムコードを備える、コンピュータプログラム。
JP2017533373A 2014-12-24 2015-12-21 モニタリング Pending JP2018508851A (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
EP14200312.8A EP3037917B1 (en) 2014-12-24 2014-12-24 Monitoring
EP14200312.8 2014-12-24
PCT/FI2015/050920 WO2016102768A1 (en) 2014-12-24 2015-12-21 Monitoring

Publications (1)

Publication Number Publication Date
JP2018508851A true JP2018508851A (ja) 2018-03-29

Family

ID=52292698

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017533373A Pending JP2018508851A (ja) 2014-12-24 2015-12-21 モニタリング

Country Status (5)

Country Link
US (1) US11429189B2 (ja)
EP (2) EP3800532B1 (ja)
JP (1) JP2018508851A (ja)
CN (1) CN107408146A (ja)
WO (1) WO2016102768A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2022509483A (ja) * 2018-10-31 2022-01-20 フェイスブック・テクノロジーズ・リミテッド・ライアビリティ・カンパニー 仮想現実システムのための安全境界を修正するためのシステムおよび方法

Families Citing this family (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11455691B2 (en) * 2012-08-16 2022-09-27 Allstate Insurance Company Processing insured items holistically with mobile damage assessment and claims processing
US8510196B1 (en) 2012-08-16 2013-08-13 Allstate Insurance Company Feedback loop in mobile damage assessment and claims processing
US10430885B1 (en) 2012-08-16 2019-10-01 Allstate Insurance Company Processing insured items holistically with mobile damage assessment and claims processing
US8712893B1 (en) 2012-08-16 2014-04-29 Allstate Insurance Company Enhanced claims damage estimation using aggregate display
US10783585B1 (en) 2012-08-16 2020-09-22 Allstate Insurance Company Agent-facilitated claims damage estimation
US10580075B1 (en) 2012-08-16 2020-03-03 Allstate Insurance Company Application facilitated claims damage estimation
US11532048B2 (en) 2012-08-16 2022-12-20 Allstate Insurance Company User interactions in mobile damage assessment and claims processing
EP3096303B1 (en) 2015-05-18 2020-04-08 Nokia Technologies Oy Sensor data conveyance
EP3101629B1 (en) 2015-06-04 2021-03-17 Nokia Technologies Oy Mediated reality
EP3115978B1 (en) 2015-07-09 2018-03-07 Nokia Technologies Oy Monitoring
EP3131311B1 (en) 2015-08-14 2019-06-19 Nokia Technologies Oy Monitoring
EP3422145B1 (en) 2017-06-28 2020-01-29 Nokia Technologies Oy Provision of virtual reality content
US10623385B2 (en) 2018-03-16 2020-04-14 At&T Mobility Ii Llc Latency sensitive tactile network security interfaces
US10909747B2 (en) * 2018-03-28 2021-02-02 Facebook Technologies, Llc Systems and methods for providing immersive graphical interfaces
US11126850B1 (en) * 2020-04-09 2021-09-21 Facebook Technologies, Llc Systems and methods for detecting objects within the boundary of a defined space while in artificial reality
US11232644B1 (en) 2020-12-31 2022-01-25 Facebook Technologies, Llc Systems and methods for providing spatial awareness in virtual reality

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013025789A (ja) * 2011-07-18 2013-02-04 Fuji Xerox Co Ltd 現実世界環境におけるジェスチャベースの対話型ホットスポット生成のシステム、方法及びプログラム
JP2013031897A (ja) * 2011-08-02 2013-02-14 Sony Corp 制御装置、制御方法、プログラム、及びロボット制御システム

Family Cites Families (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6185152B1 (en) * 1998-12-23 2001-02-06 Intel Corporation Spatial sound steering system
US7634334B2 (en) 2002-11-22 2009-12-15 Monroe David A Record and playback system for aircraft
US7519530B2 (en) * 2003-01-09 2009-04-14 Nokia Corporation Audio signal processing
US20080099549A1 (en) * 2005-09-15 2008-05-01 Roland Bryan Organizational arrangements for self-coordinated machine networks
US9866797B2 (en) * 2012-09-28 2018-01-09 Careview Communications, Inc. System and method for monitoring a fall state of a patient while minimizing false alarms
CN103155642A (zh) 2010-08-16 2013-06-12 诺基亚公司 用于检测或监控集小区的基于蜂窝的频间测量事件
CA2851259C (en) * 2011-10-07 2018-06-12 Flir Systems, Inc. Smart surveillance camera systems and methods
WO2013095671A1 (en) * 2011-12-23 2013-06-27 Intel Corporation Transition mechanism for computing system utilizing user sensing
US8704070B2 (en) * 2012-03-04 2014-04-22 John Beaty System and method for mapping and displaying audio source locations
US9292085B2 (en) * 2012-06-29 2016-03-22 Microsoft Technology Licensing, Llc Configuring an interaction zone within an augmented reality environment
DE102013201359A1 (de) * 2013-01-29 2014-07-31 Robert Bosch Gmbh Verfahren und Vorrichtung zum Steuern eines Werkstattgeräts
US20140354820A1 (en) * 2013-05-03 2014-12-04 Daniel Danialian System and method for live surveillance property monitoring
US9324227B2 (en) * 2013-07-16 2016-04-26 Leeo, Inc. Electronic device with environmental monitoring
US9679465B2 (en) * 2013-07-18 2017-06-13 Google Inc. Systems and methods for processing ultrasonic inputs
US20150077737A1 (en) * 2013-08-09 2015-03-19 Cnry Inc. System and methods for monitoring an environment
US9740296B2 (en) * 2013-12-16 2017-08-22 Leap Motion, Inc. User-defined virtual interaction space and manipulation of virtual cameras in the interaction space
US9392212B1 (en) * 2014-04-17 2016-07-12 Visionary Vr, Inc. System and method for presenting virtual reality content to a user
JP6242535B2 (ja) * 2014-07-17 2017-12-06 フィリップス ライティング ホールディング ビー ヴィ ユーザ入力に基づいて制御システムのためのジェスチャ区域定義データを取得する方法
US20160125318A1 (en) * 2014-11-03 2016-05-05 Canary Connect, Inc. User-Assisted Learning in Security/Safety Monitoring System

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013025789A (ja) * 2011-07-18 2013-02-04 Fuji Xerox Co Ltd 現実世界環境におけるジェスチャベースの対話型ホットスポット生成のシステム、方法及びプログラム
JP2013031897A (ja) * 2011-08-02 2013-02-14 Sony Corp 制御装置、制御方法、プログラム、及びロボット制御システム

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
中洲 俊信、外4名: ""自然な手振りによる直感的なハンドジェスチャUI"", ヒューマンインタフェース学会 論文誌, vol. 15, no. 1, JPN6018029058, 31 December 2013 (2013-12-31), JP, pages 25 - 37, ISSN: 0003846371 *

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2022509483A (ja) * 2018-10-31 2022-01-20 フェイスブック・テクノロジーズ・リミテッド・ライアビリティ・カンパニー 仮想現実システムのための安全境界を修正するためのシステムおよび方法
JP7279176B2 (ja) 2018-10-31 2023-05-22 メタ プラットフォームズ テクノロジーズ, リミテッド ライアビリティ カンパニー 仮想現実システムのための安全境界を修正するためのシステムおよび方法
US11741649B2 (en) 2018-10-31 2023-08-29 Meta Platforms Technologies, Llc Systems and methods for modifying a safety boundary for virtual reality systems

Also Published As

Publication number Publication date
US11429189B2 (en) 2022-08-30
EP3037917B1 (en) 2021-05-19
EP3800532B1 (en) 2024-06-19
WO2016102768A1 (en) 2016-06-30
CN107408146A (zh) 2017-11-28
US20170364159A1 (en) 2017-12-21
EP3800532A1 (en) 2021-04-07
EP3037917A1 (en) 2016-06-29

Similar Documents

Publication Publication Date Title
JP2018508851A (ja) モニタリング
JP6592183B2 (ja) モニタリング
US20230125265A1 (en) Safety for wearable virtual reality devices via object detection and tracking
US10540543B2 (en) Human-computer-interaction through scene space monitoring
JP6568224B2 (ja) サーベイランス
EP3115870B1 (en) Monitoring
US10444852B2 (en) Method and apparatus for monitoring in a monitoring space
JP6665276B2 (ja) トリガ領域
JP2019198077A (ja) 監視
JP6600359B2 (ja) モニタリング
JP2018523231A5 (ja)

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20170727

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20180723

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20180801

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20181004

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20181219

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190415

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20190423

A912 Re-examination (zenchi) completed and case transferred to appeal board

Free format text: JAPANESE INTERMEDIATE CODE: A912

Effective date: 20190517