JP6600359B2 - モニタリング - Google Patents

モニタリング Download PDF

Info

Publication number
JP6600359B2
JP6600359B2 JP2017533384A JP2017533384A JP6600359B2 JP 6600359 B2 JP6600359 B2 JP 6600359B2 JP 2017533384 A JP2017533384 A JP 2017533384A JP 2017533384 A JP2017533384 A JP 2017533384A JP 6600359 B2 JP6600359 B2 JP 6600359B2
Authority
JP
Japan
Prior art keywords
scene
user
event sequence
video
sensor data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2017533384A
Other languages
English (en)
Other versions
JP2018509670A (ja
Inventor
ユッシ レッパネン
アンッティ エロネン
アルト レフティニエミ
Original Assignee
ノキア テクノロジーズ オーユー
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ノキア テクノロジーズ オーユー filed Critical ノキア テクノロジーズ オーユー
Publication of JP2018509670A publication Critical patent/JP2018509670A/ja
Application granted granted Critical
Publication of JP6600359B2 publication Critical patent/JP6600359B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/20Movements or behaviour, e.g. gesture recognition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/0304Detection arrangements using opto-electronic means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/40Scenes; Scene-specific elements in video content
    • G06V20/41Higher-level, semantic clustering, classification or understanding of video scenes, e.g. detection, labelling or Markovian modelling of sport events or news items
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/52Surveillance or monitoring of activities, e.g. for recognising suspicious objects
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/617Upgrading or updating of programs or applications for camera control
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/40Scenes; Scene-specific elements in video content
    • G06V20/44Event detection
    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B13/00Burglar, theft or intruder alarms
    • G08B13/18Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength
    • G08B13/189Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems
    • G08B13/194Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems
    • G08B13/196Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems using television cameras
    • G08B13/19602Image analysis to detect motion of the intruder, e.g. by frame subtraction
    • G08B13/19613Recognition of a predetermined image pattern or behaviour pattern indicating theft or intrusion
    • G08B13/19615Recognition of a predetermined image pattern or behaviour pattern indicating theft or intrusion wherein said pattern is defined by the user
    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B13/00Burglar, theft or intruder alarms
    • G08B13/18Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength
    • G08B13/189Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems
    • G08B13/194Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems
    • G08B13/196Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems using television cameras
    • G08B13/19678User interface
    • G08B13/1968Interfaces for setting up or customising the system
    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B21/00Alarms responsive to a single specified undesired or abnormal condition and not otherwise provided for
    • G08B21/02Alarms for ensuring the safety of persons
    • G08B21/04Alarms for ensuring the safety of persons responsive to non-activity, e.g. of elderly persons
    • G08B21/0438Sensor means for detecting
    • G08B21/0476Cameras to detect unsafe condition, e.g. video cameras

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Multimedia (AREA)
  • Software Systems (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Signal Processing (AREA)
  • Psychiatry (AREA)
  • Social Psychology (AREA)
  • Computational Linguistics (AREA)
  • Image Analysis (AREA)
  • User Interface Of Digital Computer (AREA)
  • Television Signal Processing For Recording (AREA)
  • Closed-Circuit Television Systems (AREA)

Description

本発明の実施形態はシーンのモニタリングに関する。特に、自動化されたモニタリングに関する。
背景
現在のモニタリングシステム、例えば監視システムは、音声付き又は無しのビデオを録画するための一つ又は複数のカメラを備え、これらのカメラは、有線又は無線で中央装置に接続される。中央装置は、シーンの録画データを保存したり、また保存することを可能にしたりする。操作者は、カメラや中央装置の設定をプログラムするために、当該中央装置を使用することができる場合がある。
摘要
本願が開示する様々な実施例(但し必ずしも全ての実施例ではない)によれば、請求項1から14のいずれかに記載の方法が提供される。
本願が開示する様々な実施例(但し必ずしも全ての実施例ではない)によれば、請求項15に記載の装置が提供されてもよい。
必ずしも全ての実施形態がそうであるわけではないが、いくつかの実施形態によれば、次のような装置が提供される。この装置は、少なくとも一つのプロセッサと、コンピュータプログラムコードを含む少なくとも一つのメモリとを備える装置であって、前記少なくとも一つのメモリ及び前記プログラムコードが、前記少なくとも一つのプロセッサと共に、前記装置に少なくとも、請求項1から14のいずれかに記載の方法を遂行させる。
本願が開示する様々な実施例(但し必ずしも全ての実施例ではない)によれば、コンピュータで実行されると、請求項1から14のいずれかに記載の方法を遂行するコンピュータプログラムが提供される。
前述の簡単な説明を理解するために有用な種々の実施例の理解に資するべく、例として次の添付図面を参照する。
システムの例の概略図である。 状態マシンの例を描いた図である。 処理モジュールの例を描いた図である。 コンピュータプログラムの配送メカニズムの例を描いた図である。 状態マシンに対する、新規に学習される応答状態を生成する処理の一例を示す。 モニタリング状態から新規に学習された応答状態への遷移処理、および関連する学習済み応答アクションの実行処理の一例を示す。 図5Bに示された状態マシンのバリエーションを示す。 図7Aおよび7Bは、学習された応答状態の生成を制御するためのユーザインタフェースの一例を示す。 図8Aおよび8Bは、学習された応答状態の生成を制御するための別のユーザインタフェースの一例を示す。
詳細説明
符号100で示されているシステムは、少なくとも一つのシーンをモニターするシステムである。このシステムの動作は、シーンの中のユーザによってコントロールされることができる。そのようなコントロールは、シーンの中でアクションを実行することにより行われうる。例えば、ユーザが或る挙動(behaviour)を演じると、このシステムはその後、同様な挙動を認識できる。ユーザはこのシステムを、そのように制御することができる。
図1はシステム100の概略的に描いた図である。システム100は、シーン140からセンサデータ112を記録するように構成される一つ又は複数のセンサ110と;シーン140から記録されたセンサデータ112を処理し、シーン140で起こったイベントを自動的に認識すると共に、前記認識の結果として自動的に判断を行うように構成される処理モジュール120と;前記処理モジュール120によって、通信するという判断がなされた場合、通信を行うように構成される通信モジュール130と;を備える。
認識されるイベントの幾つか(但し必ずしも全てではない)は、シーン140の中のオブジェクト152(又は特定のオブジェクト152)に関連していてもよい。このオブジェクトは、シーン140の中の非生物の物体であったり、動物であったり、人物であったり、特定の人物150であったりしてもよい。システム100の実施例の幾つか(但し必ずしも全てではない)において、システム100は、リアルタイムの認識システムであり、センサデータ112が記録されたら、それとほぼ同時に自動的に認識及び判断を行う。
システム100は、監督や監視等のアプリケーションに使用されてもよい。システム100は、ビジネスで使用されてもよいし、公共の場所や自宅で使用されてもよい。期待される利用分野の一つは自宅監視システムである。
システム100は、ユーザがモニタリングを制御することを可能にする。例えば、ユーザがシーン140中の人物150であるときに、そのような制御を行うことを可能にする。システム100はまた、ユーザが、認識および/または認識の結果を制御することを可能にする。例えばユーザがシーン140中の人物150であるときに、そのような制御を行うことを可能にする。
(必ずしも全ての例においてではないが)いくつかの例において、システム100は、物理的に異なるいくつかの装置を備えていてもよい。例えば、複数のセンサ110を有してもよく、これらセンサ110はそれぞれ複数の異なる装置のいずれか配されていてもよい。また、処理モジュール120や通信モジュール130も、1つ以上の装置の中に配されていてもよい。システム100の構成要素または構成要素群が物理的に異なる複数の装置に配される場合、これらの装置は全てローカルに存在していても、それぞれ互いにリモートに存在していてもよく、これらの装置がリモートにある場合、これらは、例えば、ネットワークを介して通信することができる。
(必ずしも全ての例においてではないが)いくつかの例において、システム100は、単一の装置の中に収容されていてもよい。
センサ110は、シーン140からのセンサデータ112を記録するか記録を可能にするように構成される。
シーン140は、例として、例えば静的なオブジェクトなど、相対的位置が固定された静的な構成要素を有してもよい。これらの静的なオブジェクトは、シーンの三次元空間(シーン空間)においていろいろな静的位置を有する。シーン140は、例えば動くオブジェクトなど、動く構成要素を有してもよい。動くオブジェクトは、シーン空間中で時間経過とともに様々な位置をとる。様々なセンサデータ112、または様々な時間に関連する「シーン」への言及は、シーン140中で検出された静的構成要素の継続性を暗示するが、動的な構成要素の一部または全部の継続性は、それが生じることはあるにしても、必ずしも意味しない。
センサデータ112の記録は、一時的記録だけを含むこともあり、または恒久的記録を含むこともあり、または、一時的記録および恒久的記録の両方を含むこともある。一時的記録はデータを一時的に記録することを意味する。これは、例えば、検出する過程で行われることがあり、ダイナミックメモリで行われることがあり、循環バッファなどのバッファ、レジスタ、キャッシュ、または類似のものにおいて行われることもある。恒久的記録は、当該データがアドレス可能なメモリ空間から読み出し可能なアドレス可能データ構造の形式であることを暗示し、したがって削除または上書きされるまでは格納され読み出すことができるが、非揮発的な格納がされることもされないこともある。
センサ110は、音波および/または光波などの伝搬波を、電気信号に変換するように構成することができる。この電気信号は、シーン140からの伝搬波データを符号化するセンサデータ112である。
(必ずしも全ての例においてではないが)いくつかの例において、センサ110は、シーン空間に対して空間的に固定される。他の例では、センサ110は、シーン空間に対して移動しうるか、または移動している。
(必ずしも全ての実施形態においてではないが)いくつかの実施形態において、これらセンサは画像センサ114であるかまたは画像センサを備える。画像センサ114の一例は、カメラとして動作するように構成されたデジタル画像センサである。かかるカメラは、静的画像および/またはビデオ画像を記録するように動作することができる。
(必ずしも全ての実施形態においてではないが)いくつかの実施形態において、カメラは、シーン140がいろいろな視点から観察されうるように、立体的配置(または他の空間的配置)に構成することができる。これは、三次元画像の生成、および/または、例えば視差効果を介した、奥行きを設定するための処理を可能する。
(必ずしも全ての実施形態においてではないが)いくつかの実施形態において、センサ110はオーディオセンサ116であるか、またはオーディオセンサを備える。オーディオセンサ116の一例は、1つ又は複数のマイクロフォンである。マイクロフォンは、いろいろな収録点からシーン140がサンプリングされうるように、マイクロフォンアレイなど、立体的配置(または他の空間的配置)に構成することができる。これは、シーン140内のオーディオのポジショニングを可能にする三次元空間オーディオ処理を可能にできる。
(必ずしも全ての実施形態においてではないが)いくつかの実施形態において、これらのセンサは奥行きセンサ118であるか、または奥行きセンサを備える。奥行きセンサ118は、トランスミッタおよびレシーバを備えてもよい。トランスミッタは(例えば、超音波または赤外光など人間が検出できない信号などの)信号を送信し、レシーバは反射された信号を受信する。単一のトランスミッタおよび単一のレシーバを用い、送信から受信までの伝搬時間を測定することによっていくらかの奥行き情報を得ることができる。より多くのトランスミッタおよび/またはより多くのレシーバを用いることによってより良好な分解能(空間的ダイバーシチ)が達成できる。一例において、トランスミッタは、光、好ましくは、赤外光など不可視光を使い、空間依存的パターンで、シーンを「描く」ように構成される。レシーバによる特定のパターンの検出は、シーン140が空間的に分解されることを可能にする。シーン140の空間的に分解された部分への距離は、伝搬時間および/または(レシーバがトランスミッタに対し立体的な位置にある場合)立体視法によって測定ができる。
これらの奥行き検出の「受動的」または「非能動的」例では、検出対象の人物150またはオブジェクト152は受動的で、トランスミッタによって放射される光または音波を反射しているだけである。但し、検出されるオブジェクトの動きを必要とする「能動的」例を、追加してまたは代わりに用いることができる。一例として、人物は、測位装置を携行していてもよく、この測位装置は、シーン空間内で、当該測位装置の位置を決定しうるように構成されてもよい。この測位装置は、例えば加速度計を使って、基準位置からの当該測位装置の動きを測定することができる。実施例によっては、方位を測定するためにジャイロスコープを用いてもよい。上記に加えてまたは換えて、上記測位装置は、複数のレシーバに送信したり、複数のトランスミッタから受信したりすることによって、三角測量(三辺測量)を用い、位置決定を行ってもよい。
必ずしも全ての例ではないが、本願で示される例において、処理モジュール120は、メモリサブモジュール122、処理サブモジュール124、認識サブモジュール126、および制御サブモジュール128を備える。これらの「モジュール」は別々に記載され、示されているが、これらは、必須ではない。実施形態によってはこれらは別々のモジュールではないこともある。また、いろいろな組み合せに結合されている場合もある。例えば、処理サブモジュール124、認識サブモジュール126、および制御サブモジュール128は、同一の回路、または同一のコンピュータプログラムの制御の下で実装されることができる。上記に換えて、処理サブモジュール124、認識サブモジュール126、および制御サブモジュール128の1つ以上を、専用の回路または専用のコンピュータプログラムによって実装することもできる。これらサブモジュールは、ソフトウェア、専用のハードウェア、またはプログラムされたハードウェアとソフトウェアとの混成を使って実行することができる。
メモリサブモジュール122は、未処理のセンサデータ112および/または処理済みのセンサデータ112(シーンデータ)、コンピュータプログラム、シーン空間モデル、および処理モジュール120によって使われる他のデータを格納するために用いることができる。実施例によっては、他のサブモジュールがそれぞれ独自にメモリを有してもよい。
処理サブモジュール124は、シーン140について有意味なシーンデータを判断するために、センサデータ112を処理するように構成されてもよい。
処理サブモジュール124は、センサデータ112がカメラまたはカメラ群114からの画像データを含む場合に、画像処理を行うように構成されることができる。処理サブモジュール124は、センサデータ112がマイクロフォンまたはマイクロフォン群116からのオーディオデータを含む場合に、オーディオ処理を行うように構成されることができる。
処理サブモジュール124は、シーン140に対して有意味な可能性のあるシーンデータを生成するために、センサデータ112を用いて、以下のタスクの1つ以上を自動的に実行するように構成されることができる。
(ア)マシン(コンピュータ)ビジョンを用いて、
・ (移動しているまたは静的な)オブジェクトまたは人物を検出すること。
・ (移動しているまたは静的な)オブジェクトまたは人物を分類すること。
・ (移動しているまたは静的な)オブジェクトまたは人物を追跡すること。
の1つ以上を実行する。
(イ)空間分析を用い、
・ 奥行き検出を使ってシーン空間中の(移動しているまたは静的な)オブジェクトの位置決めをすること。
・ シーン空間のマップを生成すること。
の1つ以上を実行する。
(ウ)挙動分析を用いて、シーン140中で生じるイベントを、有意味な可能性のあるシンボルとして記述する。
画像処理の一例に、画像に対する輝度勾配またはエッジ方向の分布を生成する「勾配特徴ヒストグラム(histogram of gradient features)」分析がある。画像は小さな結合された領域(セル)に分割することが可能で、各セルに対し、セル内の画素に対する勾配方向またはエッジ方位のヒストグラムが生成される。次いで、これらのヒストグラムの組み合せが、記述子(descriptor)を表現する。
オーディオ処理の例には、「メル周波数ケプストラル係数(mel−frequency cepstral coefficients)」決定、(例えばオーディオビーム形成技法を使う)空間オーディオ処理、オーディオイベント認識もしくは分類、話者認識もしくは検証、またはスピーチ認識がある。
動き検出は、例えば、背景モデルに対する差分(背景除去法)、もしくは先行画像に対する差分(時間差分)を用い、または、ベクトルベースのアプローチを使うオプティカルフロー分析など、何らかの他のアプローチを用いて達成することができる。
オブジェクト分類は、例えば、形状ベースの分析、および/または動きベースの分析を用いて達成することができる。
人物の分類処理は、オブジェクトが人間か否かという分類処理であってもよい。または、オブジェクトが特定の人間(身元)であるか否かという分類処理であってもよい。身元確認は、可能性のある人物群のセット内の人物を一意的に識別する属性または属性の組み合せを用いて達成ができる。属性の例は、顔または声など、人物の固有のまたは固有であり得るバイオメトリック特徴を含んでもよい。また、人物の外形およびサイズ、その挙動を含んでもよい。
オブジェクトの追跡は、オブジェクトを標識し、該標識されたオブジェクトのシーン140中での位置を記録することによって達成することができる。このアルゴリズムは、シーン140へのオブジェクトの入場、シーン140からのオブジェクトの退場、シーン140へのオブジェクトの再入場、オブジェクトの遮蔽、オブジェクトの統合、のイベントのうちの1つ以上を取り扱う必要があり得る。これらのイベントをどう取り扱うかは本願の技術分野で既に知られている。
オブジェクト追跡は、オブジェクトまたは人物がいつ変化したかを判断するために用いてもよい。例えば、オブジェクトを大きなマクロスケールで追跡することで、そのオブジェクトと共に移動する基準枠を生成することができる。この基準枠は、オブジェクトに対する時間差分を用いてオブジェクトの形状の時間進展的な変化を追跡するために使うことができる。これは、ジェスチャ、手の動き、顔面の動きなど小規模な人間の動きを検出するために用いることができる。これらは、ユーザに関連する、シーン非依存性のユーザ(だけ)の動きである。
システム100は、例えば、人物の体の関節1つ以上など、人物の身体に関連する複数のオブジェクトおよび/またはポイントを追跡することができる。いくつかの例において、システム100は、人物の身体の全身骨格的な追跡を実行することができる。
人物の身体に関連する1つ以上のオブジェクトおよび/またはポイントの追跡技術が、ジェスチャの認識などにおいて、システム100によって使用されてよい。
行動分析(Behaviour analysis)は、有意味シンボル体系を使って、シーン140中で生じるイベントを表すことを必要とする。イベントは、時空的なインスタンスで生じるある事柄でもよく、また時空的なシーケンス(時間経過における時空的インスタンスのパターン)でもよい。イベントは、オブジェクト(または人物)の動き、または人物とオブジェクトとの相互作用に関連するものでもよい。
(必ずしも全てではないが)いくつかの実装例において、イベントは、マシン(コンピュータ)ビジョン分析および/または空間分析から決定されたパラメータに関して定義された推定シンボルによって表現できる。これらのパラメータは、起こっていること、起こっている場所、起こっている時間、および誰がそれをしているかの、一つ以上を符号化する。
認識サブモジュール126は、シーン140中のイベントを、特定の意味に関連付けられた有意味シンボルとして符号化する推定シンボルを認識するように構成される。
認識サブモジュール126は、意味を有するとして、マシン(コンピュータ)ビジョン分析および/または空間分析から決定されたパラメータに関して定義され、処理サブモジュール124によって生成された推定シンボルを、認識するように構成することができる。認識サブモジュール126は、例えば、有意味参照シンボルのデータベースに格納を行い、またはアクセスすることが可能で、推定シンボルが或る有意味シンボルに「類似」しているかどうかを判断するための相似検査を用いることができる。
認識サブモジュール126は、パラメータ空間中の人工ニューラルネットワークまたはクラスタリングなど、マシン(コンピュータ)推論エンジンまたは他の認識エンジンとして構成してもよい。いくつかの例において、認識サブモジュール126には、有意味シンボルを参照シンボルと類似であると認識するために、教師あり学習(supervised learning)を介して教育訓練を施すことができる。
制御サブモジュール128は、有意味なイベントがシーン140で生じたとの判断に、そのイベントに応じて応答する。
a)推定シンボルが、応答シンボルに類似している場合、有意味なイベントは「応答」イベントであり、制御サブモジュール128は、応答アクションを実行する。
(必ずしも全ての例においてではないが)いくつかの例において、実行されるアクションはユーザによってプログラムすることができる。(必ずしも全ての例においてではないが)いくつかの例において、このプログラミングは、シーン内のユーザの動きを介して行うことができる。後に、図5Aおよび5Bを参照しながら例を提示する。実行されるアクションの例には、警告または通知の生成があってもよい。
警告または通知は、通信モジュール130を介して提示ができる。通信モジュール130は、電波を使って無線で、または有線接続で、ローカルまたはリモートの装置に通信することができる。かかる装置の例は、以下に限らないが、ディスプレイ、テレビジョン、オーディオ出力装置、携帯電話もしくはパーソナルコンピュータなどの個人用デバイス、プロジェクタ、その他のユーザ出力装置を含む。
(必ずしも全ての例においてではないが)いくつかの例において、この応答シンボルはユーザによってプログラムすることができる。例えば、後で図5Aおよび5Bを参照しながらさらに詳しく説明するように、ユーザは、有意味な応答シンボルによって表される有意味なイベントをプログラムまたは教示することを可能にできてもよい。ユーザによって作成された応答シンボルは、参照シンボルのデータベースに加えることができ、または別途に推定シンボルを有意味シンボルとして認識するために用いることができる。(必ずしも全ての例においてではないが)いくつかの例において、このプログラミングは、シーン140内のユーザの動きを介して行うことができる。 有意味シンボルによって表される有意味なイベントの例は、ユーザの入力ジェスチャなど、行われた特定のアクションまたは動きを含む。
b)推定シンボルがユーザ制御シンボルと類似している場合、有意味なイベントは「ユーザ制御」イベントであり、制御サブモジュール128は、モニタリングのユーザ制御および/または応答のユーザ制御を可能にする。
図5Aおよび5Bを参照しながら後で更に詳しく説明するように、「ユーザ制御」イベントの一例に、学習シンボルで表される学習イベントがある。推定シンボルが学習シンボルと一致するとの認識は、ユーザが、有意味な応答イベントおよび/またはその応答イベントに対する応答アクションをプログラムまたは教示することを可能にする。実行されるアクションの例には、警告または通知の生成があってもよい。
処理モジュール120の動作は、処理モジュール120に対する状態マシン200を示す図2から、さらに理解することができる。状態マシン200は、モニタリング状態210、ユーザ制御状態220、および自動応答状態230を有する。
モニタリング状態210において、センサ110はセンサデータ112を提供し、処理サブモジュール124は、有意味な可能性のあるシーンデータを生成するために、センサデータ112(映像および/またはオーディオおよび/または奥行き)を自動的に処理する。認識サブモジュール126は、シーンデータ内の実際の意味、すなわち有意味シンボルを識別するため、該シーンデータを自動的に処理する。
有意味シンボルは事前決定されている、すなわち、認識の前に、シンボルを決める処置が取られている。但し、「事前決定」は厳密性または固定性を意味すると見なすべきではない。類似性の照合のために使われるシンボルは、単に先行の定めを有するのであり、これは動的に進展することもあり、または固定されることもある。
認識サブモジュール126が、シーン140中で有意味なイベントが発生したと判断した場合、制御サブモジュール128は、そのイベントに応じて自動的に応答する。有意味なイベントが「応答」イベントである場合、状態マシン200は、応答状態230に遷移し、制御サブモジュール128は、当該応答イベントに関連する応答アクションを実行する。イベントが「ユーザ制御」イベントである場合、状態マシン200は、ユーザ制御状態220に遷移し、モニタリングおよび/または応答のユーザ制御が、当該ユーザ制御状態220に関連付けられた仕方で有効化される。
「ユーザ制御」イベントとして、特定のジェスチャユーザ入力を用いることができる。ジェスチャユーザ入力は、システム100に対しユーザ入力としての意味を有するジェスチャである。ジェスチャは、静的なものであっても動的なものであってもよい。動きジェスチャ(動的ジェスチャ)は、或る動き、または一連の動きを含む動きのパターンを含むことができる。例えばこれは、旋回動作、または脇から脇への動き、または上下の動きをすること、または空間中で符号を描くこととしてもよい。例えば、動きジェスチャは、装置非依存性のジェスチャ、または装置依存性のジェスチャとしてもよい。動きジェスチャは、例えば、ユーザ身体の部分もしくは部分群、または追加の装置などのユーザ入力オブジェクトのセンサ110に対する動きを伴ってもよい。身体の部分は、ユーザの手、または親指以外の1つ以上の指および親指などユーザの手の一部を含んでよい。他の例において、ユーザ入力オブジェクトは、ユーザの頭または腕などユーザの身体のいろいろな部分を含んでもよい。三次元の動きは、任意の3つの直交方向のユーザ入力オブジェクトの動きを含むことができる。ユーザ入力オブジェクトの動きには、センサ110に向かうように又はセンサから離れるように動くことや、センサと平行な面内で動くこと、またこのような動きの任意の組み合せを含んでもよい。ジェスチャは、非接触のジェスチャでもよい。非接触ジェスチャは、ジェスチャの間のどの時点でも装置のセンサに接触することはない。ジェスチャは、センサ110からの絶対変位に関連して定義される絶対的ジェスチャとすることもできる。かかるジェスチャは、それがシーン空間中の正確な場所において行われるという点で制限があり得る。あるいは、ジェスチャは、ジェスチャの間の相対変位に関連して定義される相対的ジェスチャであってもよい。かかるジェスチャは、それがシーン空間中に対し正確な場所において行われる必要がないという点で、制限がなくてよく、多数の任意の場所で行うことができる。ジェスチャは、時間経過による、当初点に対する追跡点の変位の進展として定義することができる。これは、例えば、変位、速度など時間的可変パラメータを用いる、または他の運動学的パラメータを用いる動きに関連させて定義することができよう。制限なしのジェスチャは、相対時間Δtに対する相対変位Δdの進展として定義することができる。ジェスチャは、一空間次元(1Dジェスチャ)、二空間次元(2Dジェスチャ)、または三空間次元(3Dジェスチャ)において実施することができる。
いくつかの例において、システム100は、ジェスチャ認識において、人物の身体に関連する1つ以上のオブジェクトおよび/またはポイントを追跡することができる。例えば、システム100は、ジェスチャ認識において、人の身体の全骨格的追跡を実行することができる。
処理モジュール120または処理モジュール120の部分の実装は、コントローラ回路としてであってもよい。コントローラ回路は、ハードウェアのみ(例えば、回路、プロセッサなど)のみにより実装されてもよく、(ファームウェアを含む)ソフトウェア主体で実装されてもよい。または、ハードウェアとソフトウェア(ファームウェアを含む)の組み合わせにより実装されてもよい。
図3に描かれるように、コントローラ120は、ハードウェア機能を実現する命令であって、例えば、汎用プロセッサまたは特定用途向けプロセッサ310で実行可能なコンピュータプログラム命令322を用いて実装されてもよい。こうした命令は、プロセッサ310で実行されうるように、コンピュータ可読記憶媒体(ディスクやメモリ等)に格納されてもよい。
プロセッサ310は、メモリ320から読み出し、かつメモリ24へ書き込むように構成される。プロセッサ310は出力インタフェースと入力インタフェースを備えてもよい。データおよび/または命令は、プロセッサ310によって出力インタフェースを介して出力され、入力インタフェースを介してプロセッサ310に入力される。
メモリ320はコンピュータプログラム322を格納する。コンピュータプログラム322は、プロセッサ310にロードされて処理モジュール120の動作を制御するコンピュータプログラム命令(コンピュータプログラムコード)を含む。コンピュータプログラム322のコンピュータプログラム命令は、処理モジュールが、図1及び2を参照して紹介された方法を遂行することを可能とするロジックとルーチンとを提供する。プロセッサ310は、メモリ320を読み取ることによりコンピュータプログラム322をロードして実行することができる。
従ってシステム100は装置120を含むことができ、この装置120は、少なくとも一つのプロセッサ310と、コンピュータプログラムコード322を含む少なくとも一つのメモリ320とを備える。コンピュータプログラムコード322は、プロセッサ310に実行されると、装置120に、図1のブロック124,126,128の一つ又は複数を遂行させるように構成される。
図4に描かれるように、コンピュータプログラム322は、任意の適切な配信機構324を介して装置に提供されてもよい。配信メカニズム324は、例えば、非一時的なコンピュータ読取り可能記憶媒体、コンピュータプログラム製品、メモリデバイス、記録媒体、例えば、コンパクトディスク・リードオンリーメモリ(CD−ROM:compact disc read−only memory)またはデジタル多用途ディスク(DVD:digital versatile disc)、コンピュータプログラム322を有形に具現した製造品であってもよい。配信機構はコンピュータプログラム322を確実に伝達するように構成される信号でもよい。装置120は、コンピュータデータ信号としてコンピュータプログラム322を伝達または伝送してもよい。
メモリ320は単独要素又は回路として示されているが、物理的に異なる複数の要素又は回路として実装されてもよい。こうした要素の一部または全部は組込み型でも着脱可能型でもよく、および/または永久/半永久/動的/キャッシュの記憶方式でもよい。
プロセッサ310は単独要素又は回路として示されているが、物理的に異なる複数の要素又は回路として実装されてもよい。こうした要素の一部または全部は組込み型でも着脱可能型でもよい。プロセッサ310はシングルコアのプロセッサでもよいし、マルチコアのプロセッサであってもよい。
「コンピュータ可読記憶媒体」や「コンピュータプログラム製品」,「有形物として具現化されたコンピュータプログラム」等の用語や、「コントローラ」,「コンピュータ」,「プロセッサ」等の用語は、様々なアーキテクチャを有するコンピュータだけでなく、特殊回路もカバーものと理解すべきである。こうしたコンピュータのアーキテクチャには、シングル/マルチプロセッサ・アーキテクチャや、直列(ノイマン型)/並列アーキテクチャ等がある。特殊回路にはフィールドプログラマブルゲートアレイ(FPGA)や特定用途向け集積回路(ASIC),シグナルプロセッシングデバイス,その他の処理回路等がある。コンピュータプログラムや命令,コード等の用語は、プログラマブルプロセッサやファームウェア用のソフトウェアもカバーするものと理解すべきである。こうしたものとして例えば、プロセッサに対する命令や、固定機能デバイス,ゲートアレイ,プログラマブルロジックデバイス等の構成設定といったハードウェアデバイスのプログラマブルコンテンツ等がある。
なお本願において使用される「回路(circuitry)」との語句は、次の全てを表す。
(a)ハードウェアのみの回路実装(アナログおよび/またはデジタル回路のみの実装等)。
(b)回路とソフトウェア(および/またはファームウェア)の組合せ、例えば(適用可能である場合):(i)一つまたは複数のプロセッサ、または(ii)一つまたは複数のプロセッサ/ソフトウェア(デジタルシグナルプロセッサを含む),ソフトウェア,一つまたは複数のメモリの一部(これらは協働して、携帯電話やサーバなどの装置に様々な機能を実行させる)。
(c)一つまたは複数のマイクロプロセッサやその一部等の回路であって、動作するためにソフトウェアやファームウェアを必要とする回路(ソフトウェアやファームウェアは物理的に存在しなくてもよい)。
この「回路」の定義は、本願において当該用語を使う全ての場合において適用される。特許請求の範囲においても同様である。さらなる例として、本願で使用される場合、「回路(circuitry)」という用語は、単独(または複数)のプロセッサだけの実装やプロセッサの一部,付随するソフトウェアおよび/またはファームウェアによる実装も網羅するものである。「回路」という用語はまた、例えば、特許請求の範囲に記載される特定の要素をその範囲に含むことが可能な場合がある。例えば、携帯電話のベースバンド集積回路やアプリケーション処理集積回路を意味してもよく、サーバやセルラネットワークデバイス、その他のネットワークデバイスにおける同様の集積回路を意味してもよい。
図1に示すブロック124,126,128は、コンピュータプログラム322のコードにより具現化される、方法全体および/またはその一部のステップを表わしてもよい。ブロックを特定の順序で図示することは、必須順序又は推奨順序の存在を必ずしも示唆していない。こうしたブロックの順序や配置構成は変更することができる。また、一部のブロックを省略することも可能である。
図5Aおよび5Bは、前述の状態マシン200が、ユーザによってどのようにプログラム可能であるかを示す。特に、シーン140内のユーザアクションによってどのようにプログラムが可能かを示す。図5Aは、状態マシン200のために新規の応答状態230(学習された応答状態232)を生成するために、新規のユーザ制御状態220(学習状態222)を使う処理を示す。図5Bは、モニタリング状態210から新規に学習された応答状態232への遷移(213)する処理、および、関連する学習済み応答アクションを実行する処理を示す。
前述のように、モニタリング状態210において、センサ110はセンサデータ112を提供し、処理サブモジュール124は、有意味な可能性のあるシーンデータを生成するために、センサデータ112(映像および/またはオーディオおよび/または奥行きデータ)を自動的に処理する。認識サブモジュール126は、シーンデータ内の実際の意味、すなわち有意味シンボルを識別するため、該シーンデータを自動的に処理する。
有意味シンボルは事前決定されている、すなわち、認識の前に、シンボルを決める処置が取られている。但し、「事前決定」は厳密性または固定性を意味すると見なすべきではない。類似性の照合のために使われるシンボルは、単に先行の定めを有するのであり、これは動的に進展することもあり、または固定されることもある。
認識サブモジュール126が、有意味シンボルに基づいて、シーン140中で有意味なイベントが発生したと判断した場合、制御サブモジュール128は、そのイベント又はシンボルに応じて自動的に応答する。
認識サブモジュール126が、学習シンボルに基づいて、シーン140中で学習イベントが発生したと判断した場合、制御サブモジュール128は自動的に応答して、学習状態222へと遷移する(211)。ここで、ユーザにフィードバックを提供することができる。例えば、学習状態222に入ったことの聴覚的または視覚的確認などを提供してもよい。
図5Bに示されるように、学習状態222において、ユーザは、シーン140内でアクションを実施することにより、新規の「応答イベント」(学習された応答イベント)および対応する新規の応答シンボル(学習された応答シンボル)を定義し、状態マシン200中に新規の応答状態(学習済み応答状態232)を生成することができる。
学習状態222において、ユーザは、シーン140内で追加のアクションを実施することにより、新規の学習済み応答状態232に関連付けられた応答アクション(学習された応答アクション)を定義することができてもよい。
図5Bを参照すると、前述のように、モニタリング状態210において、センサ110はセンサデータ112を提供し、処理サブモジュール124は、有意味な可能性のあるシーンデータを生成するために、センサデータ112(映像および/またはオーディオおよび/または奥行きデータ)を自動的に処理する。認識サブモジュール126は、シーンデータ内の実際の意味、すなわち有意味シンボルを識別するため、該シーンデータを自動的に処理する。
有意味シンボルは事前決定されている、すなわち、認識の前に、シンボルを決める処置が取られている。但し、「事前決定」は厳密性または固定性を意味すると見なすべきではない。類似性の照合のために使われるシンボルは、単に先行の定めを有するのであり、これは動的に進展することもあり、または固定されることもある。
認識サブモジュール126が、有意味シンボルに基づいて、シーン140中で有意味なイベントが発生したと判断した場合、制御サブモジュール128は、そのイベント又はシンボルに応じて自動的に応答する。
例えば有意味イベントが「学習された応答」イベントである場合、状態マシン200は、学習済み応答状態232に遷移(213)し、制御サブモジュール128は、当該学習済み応答イベントに関連する学習済み応答アクションを実行する。状態マシン200は、推定シンボルが、新規定義の学習済み応答シンボルに類似している場合、モニタリング状態210から学習済み応答状態232に遷移する。
図5Aに戻ると、モニタリング状態210において、センサ110はセンサデータ112を提供し、処理サブモジュール124は、有意味な可能性のあるシーンデータを生成するために、センサデータ112(映像および/またはオーディオおよび/または奥行きデータ)を自動的に処理する。認識サブモジュール126は、シーンデータを自動的に処理して、シーンデータ112内の、ユーザによって生成された学習シンボルを、状態を学習状態222に変更するとのユーザ入力コマンドとして識別する。
学習シンボルは、例えば、センサデータ112から得られた映像データ、オーディオデータ、および奥行きデータの任意の1つ以上を用いて定義することができる。
(必ずしも全ての例においてではないが)いくつかの例において、学習シンボルを認識するために、映像データだけが使われる。この例において、前述のように、学習シンボルは、追跡対象ユーザの基準枠に対する追跡対象ユーザの動きによって定義される、時間進展的でシーン非依存性のシンボルシーケンスとすることができる。学習シンボルの一例は、ジェスチャユーザ入力である。
(必ずしも全ての例においてではないが)いくつかの例において、学習シンボルを認識するために、オーディオデータおよび/または奥行きデータが使われる。この例において、学習シンボルは、追跡対象ユーザアクションによって定義される、時間進展的でシーン非依存性のシンボルシーケンスとすることができる。例えば、奥行きマップを測定し、次いで機械学習を使ってユーザの変化する身体位置を推論することができる。これは、例えば、秒あたり約30フレームの速度で行うことができる。ユーザの関節の位置が出力として生成され、ジェスチャは、ユーザの関節の位置を含むシンボルとして定義することができる。オーディオ入力の場合、検出可能なジェスチャの一例は、手をたたくこととできよう。
学習状態222において、処理モジュール120の処理サブモジュール124は、シーン140から記録されたセンサデータ112を自動的に処理する。これは、学習状態222への遷移211をさせるユーザにより入力された学習シンボルの認識後に、シーン中の非定型の空間的イベントシーケンスを捕捉するための、同時に生ずるシーン140の映像データおよび/またはオーディオデータおよび/または奥行きデータの処理を含む。
「空間的」イベントは、明示的にまたは暗示的に、空間的イベントを規定するその空間属性によって少なくとも部分的に定義されるイベントである。空間的イベントの間に類似性があるためには、それらの空間属性中に類似性がなければならない。空間属性は、例えば、シーン空間内の面、線、または点に関連して定義することができる。例えば、空間的イベントは、空間属性として、奥行きデータによって定まる奥行きを有し得る。奥行きは、シーン空間中の面を表す。例えば、空間的イベントは、空間属性として、映像データにより定まる画像面内の位置を有し得る。この位置は、シーン空間中の線を表す。例えば、空間的イベントは、空間属性として、ビーム形成のためオーディオデータを用いることによって定まる方向感覚を有し得る。この方向感覚はシーン空間中の線を表す。空間的イベントが、空間属性として、奥行きデータによって定まる奥行き、および映像データによって定まる画像面内の位置を有する場合、その空間的イベントは、シーン空間内の点である。空間的イベントが、空間属性として、奥行きデータによって定まる奥行き、およびオーディオデータによって定まる方向感覚を有する場合、その空間的イベントは、シーン空間内の点である。空間的イベントが、空間属性として、映像データにより定まる画像面内の位置、およびオーディオデータにより定まる方向感覚を有する場合、その空間的イベントは、シーン空間内の点または場所であり得る。空間的イベントが、空間属性として、奥行きデータにより定まる奥行き、映像データにより定まる画像面内の位置、およびオーディオデータにより定まる方向感覚を有する場合、その空間的イベントは、シーン空間内の点または場所である。
このシーケンスは、それが事前準備または事前決定されていないという点で「非定型」である。
非定型の空間的イベントシーケンスは、処理サブモジュール124によって、新規に学習される応答状態232を生成するため、およびその新規状態232に遷移213するための学習対象応答シンボルを生成するために使われる。
処理サブモジュール124は、記録されたセンサデータ112を分析することによって、シーン中の非定型の空間的イベントシーケンスを捕捉する。該サブモジュールは、学習シンボルの後のシーン中の非定型の空間的イベントシーケンスを識別し、記録されるセンサデータ(映像データおよび/またはオーディオデータおよび/または奥行きデータ)中の、捕捉された空間的イベントシーケンスに対応する空間的イベントシーケンスを後に認識できるようにするため、該非定型の空間的イベントシーケンスのシンボルの記録を格納する。
非定型の空間的イベントシーケンスは、追跡対象ユーザの動きにより指定されるオブジェクトまたは場所に関連する、時間進展的でシーン依存性のシンボルシーケンスを含んでいてもよい。上記に加えまたは換えて、非定型の空間的イベントシーケンスは、追跡対象ユーザとオブジェクトとの相互作用によって指定されるオブジェクト−ユーザ相互作用に関連する、時間進展的でシーン依存性のシンボルシーケンスを含んでいてもよい。
例えば、奥行きマップを測定し、次いで機械学習を使ってユーザの変化する身体位置を推論することができる。これは、例えば、秒あたり約30フレームの速度で行うことができる。ユーザの関節の位置が、出力として生成され、ジェスチャは、ユーザの関節の位置を含むシンボルとして定義することができる。
シーン140中の非定型の空間的イベントシーケンスを捕捉することは、例えば、ユーザの姿勢または位置の変化以外の、シーン140中の変化を検出するために、シーン140の映像データおよび/または奥行きデータおよび/またはオーディオデータを処理することを備えてもよい。ユーザの変化よりもむしろユーザにより引き起こされた変化が検出されるように、ユーザは事実上映像から切り捨てられている。
シーン140中の非定型の空間的イベントシーケンスを捕捉することは、例えば、シーン140中の特徴的ノイズを検出するために、映像データおよび/または奥行きデータに加え、シーン140のオーディオデータを処理することをさらに含むことができる。
捕捉された非定型の空間的イベントシーケンスは、新規に学習される応答状態232を生成し、その新規状態232に遷移213するための学習された応答シンボルを生成するため、処理サブモジュール124によって使われる。これにより、モニタリング状態210の過程で、その後にシーン140から記録されたセンサデータ112を自動的に処理すること、および、後に記録されたシーンのセンサデータが、捕捉された空間的イベントシーケンスに対応する空間的イベントシーケンスを含むと自動的に認識された場合に、学習済み応答状態232へ遷移213することが可能になる。
図5Bに戻って参照すると、モニタリング状態において、処理モジュール120の処理サブモジュール124は、後に記録されるシーンのセンサデータを処理し、認識サブモジュール126による、該後に記録された映像中の、捕捉された空間的イベントシーケンスに対応する空間的イベントシーケンスの認識を可能にする。処理モジュール120の認識サブモジュール126は、その後に記録されたセンサデータ中の、捕捉された空間的イベントシーケンスに対応する空間的イベントシーケンスを認識するために、その後に記録されたシーンのセンサデータを処理する。
その後に記録された空間データ中の空間的イベントシーケンスが、捕捉された空間的イベントシーケンスに対応するとの認識サブモジュール126による認識を可能にするため、処理モジュール120によって処理されるセンサデータは、映像データおよび/またはオーディオデータおよび/または奥行きデータを含むことができる。
その後に記録されたセンサデータ中の空間的イベントシーケンスを捕捉された空間的イベントシーケンスに対応するものと認識するため、処理モジュール120の認識サブモジュール126によって処理される、その後に記録されたシーン140のセンサデータは、映像データおよび/またはオーディオデータおよび/または奥行きデータを含むことができる。
認識を可能にするため処理モジュール120によって処理されるセンサデータは、空間的イベントシーケンスを捕捉された空間的イベントシーケンスに対応するものと認識するために認識サブモジュール126によって処理されるその後のセンサデータよりも、より包括的で、より多くのセンサから得られるものとしてもよい。認識を可能にするため処理モジュール120によって処理されるセンサデータは、例えば、奥行きデータおよび映像データを備えてもよく、一方、空間的イベントシーケンスを捕捉された空間的イベントシーケンスに対応するものと認識するために、認識サブモジュール126によって処理されるその後のセンサデータは、例えば、映像データもしくは奥行きデータのいずれかを備えてもよい。
図5Aに戻って参照すると、学習状態222からモニタリング状態210への戻り遷移212は、いくつかの仕方で行うことができる。いくつかの例では、これは、ユーザが新規に学習された応答状態232およびその新規状態232への遷移213のための学習対象応答シンボルの生成を制御し終わった後、自動的に行うことが可能であり、あるいは、可聴イベントなどユーザアクションに応答して行うこともできる。他の例では、これは、ユーザが、学習された応答状態232に関連付けられた学習対象応答アクションを追加してプログラムした後、自動的に行うことができる。
学習対象応答アクションのプログラミングは、処理サブモジュール124にてシーン140のセンサデータ112(映像および/またはオーディオおよび/または奥行きデータ)を自動的に処理し、認識サブモジュール126による、特定の学習済み応答アクションに関連付けられた所定のアクションシンボルの自動的認識を可能にすることにより、学習状態222において行ってもよい。前記認識に応答して、制御サブモジュール128は、学習済み応答アクションが、学習済み応答状態232に入ったとき実行されるように、状態マシン200をプログラムする。
事前決定のアクションシンボルは、追跡対象ユーザの基準枠に対する追跡対象ユーザの動きにより定義される、時間進展的でシーン非依存性のシンボルシーケンスとすることができる。この事前決定のアクションシンボルは、ユーザ入力ジェスチャとしてもよい。例えば、奥行きマップを測定し、次いで機械学習を使ってユーザの変化する身体位置を推論することができる。これは、例えば、秒あたり約30フレームの速度で行うことができる。ユーザの関節の位置が、出力として生成され、ジェスチャは、ユーザの関節の位置を含むシンボルとして定義することができる。
前述から当然のことながら、学習された応答イベントのプログラミングは、2つの事前決定されたイベントの間、すなわち学習状態222への遷移211を生じさせる学習イベントと、学習状態222からの遷移212を生じさせる別の事前決定イベントとの間で行うことができる。したがって、認識可能な学習済み応答イベントとして使用されることになる有意味なイベントは、これら2つの事前決定されたイベントの間に在ると想定でき、学習済み応答イベントを表す学習済み応答シンボルを判断するためのセンサデータ112の処理は時間制限されてもよい。例えば、学習される応答イベントに対応する学習対象応答シンボルを定義するための、シーン中の非定型の空間的イベントシーケンスの捕捉は、学習状態222への行き/帰り遷移をさせる事前決定されたイベントのいずれか1つまたは双方の認識に対する所定の時間的関係で行うことができる。
図6は、図5B中に示された状態マシンの別形を示す。この状態マシン200において、状態マシンは、学習状態222からモニタリング状態210に遷移せず、代わりに、別のユーザ制御状態220であるプログラミング制御状態224に遷移する。
学習状態222は、前述したように動作するが、学習された応答状態、学習された応答シンボル、および学習された応答アクションはまだ実装されておらず、推定状態である。推定の学習された応答状態232(ならびに学習された応答シンボルおよび学習された応答アクション)の実装は、プログラミング制御状態224からモニタリング状態210への遷移まで行われない。
プログラミング制御状態224において、処理モジュール120は、モニタリング状態210の過程でのその後の推定シンボルに対する類似性照合のため、学習済み応答シンボルとして学習済み応答イベントを表現する推定の学習された応答シンボルを受け入れる前に、あいまい性除去検査を行うことができる。
例えば、新規推定の学習された応答シンボルが、既存の学習済み応答シンボルと類似している場合、該新規推定の学習された応答シンボルの追加的使用が防止されることになるか、または、新規の学習済み応答シンボルを生成できるように、ユーザは、その学習された応答イベントを繰り返すことを要求されることがある。
あるいは、あいまい性除去アルゴリズムが、当該既存の学習済み応答シンボルおよび他の既存の学習済み応答シンボルと似ていないように、推定の学習された応答シンボルを調整適応させることもできる。この適応は、例えば、推定の学習された応答シンボルの定義中への、例えばユーザ、日時、曜日等の識別などの追加のコンテキストデータを含んでよい。このあいまい性除去アルゴリズムは自動でもよく、またはユーザ制御の下でもよい。ユーザ制御の下で行う場合、以下のように行えばよい。
プログラミング制御状態224において、あいまい性除去検査が行われるかどうかを問わず、処理モジュール120は、学習される応答シンボルを定義する、捕捉対象の非定型のイベントシーケンスをユーザが定義するためのオプションを提供することができる。
ユーザは、推定の学習対象応答シンボルが定められた元の「ターゲット映像」を含む映像データの提示を受けることができる。このターゲット映像は、映像のより長い部分の中で提示されてもよい。このターゲット映像は、推定学習対象応答シンボルを定義する中で重要性を付与された画像特徴、エリア、およびイベントを識別してもしなくてもよい。
ユーザは、推定学習対象応答シンボルを定め、センサデータを再処理し、新規の推定学習対象応答シンボルを生成するために用いる処理の各側面を制御できてもよい。
例えば、ユーザは、ターゲット映像が映像の違った部分で開始され、および/または映像の違った部分で終了するように制御することができてもよい。
例えば、ユーザは、推定学習対象応答シンボルを定義する中で、どの画像特徴、エリア、およびイベントに重要性を付与するかを制御することができてもよい。ユーザは、例えば、推定学習対象応答シンボルを定義する中で、重要性を付与された既存の画像特徴、エリア、およびイベントに対し、追加または除去または編集することができてもよい。
或るエリアが選択され、推定学習対象応答シンボルがオーディオデータに基づく場合、シーン140の当該エリアからのオーディオだけが推定学習対象応答シンボルを生成するのに使われるように、オーディオビーム形成を用いることができる。
或るエリアが選択される場合、推定学習対象応答シンボルを生成するために、シーン140の当該エリアからのセンサデータだけを用いることができる。このセンサデータは、映像データおよび/またはオーディオデータおよび/または奥行きデータを含むことができる。
推定学習対象応答シンボルを生成するために、オーディオデータおよび/または映像データおよび/または奥行きデータが用いられる場合、オーディオ、映像、および奥行きに対して重点的なエリアは、ユーザによって別個に制御することができる。
このユーザ制御に使われるユーザインタフェースは、例えば、携帯セルラ電話、携帯情報端末など、ユーザのパーソナル通信デバイス上のユーザインタフェースであってよい。
図7Aおよび7Bは、かかるユーザインタフェースの一例を示す。この例において、上側ディスプレイ部分10は、推定学習対象応答イベント以前のシーン140を表示し、下側ディスプレイ部分は、推定学習対象応答イベントの間の、ターゲット映像またはターゲット映像からの代表的静止画像を表示する。ユーザは、A1がA2に変わったときに、学習された応答イベントを表すための推定学習対象応答シンボルを欲する。しかしながら、システム100は、B1がB2に変わったときに、学習された応答イベントを表す推定学習対象応答シンボルを選択している。この選択は、インジケータ(点線)を使って、上側ディスプレイ部分10および下側ディスプレイ部分20に示されている。ユーザは、A1を表示している下側ディスプレイ部分20の当該部分にタッチすることによって、推定学習対象応答シンボルを制御し、横方向トレース移動によって映像をイベントA2にスクロールする。これは、B1からB2への変化ではなく、A1からA2への変化に基づいて、新規の推定学習対象応答シンボルを定めるべきことを、システム100に指示する。
図8Aおよび8Bは、かかるユーザインタフェースの別の例を示す。この例において、上側ディスプレイ部分10は、推定学習対象応答イベント以前のシーン140を表示し、下側ディスプレイ部分は、推定学習対象応答イベントの間における、ターゲット映像またはターゲット映像からの代表的静止画像を表示する。ユーザは、A1がA2に変わったときに、学習された応答イベントを表すための推定学習対象応答シンボルを欲する。しかしながら、システム100は、B1がB2に変わったときに、学習された応答イベントを表す推定学習対象応答シンボルを選択している。この選択は、選択インジケータ(点線)を使って、上側ディスプレイ部分10に示されている。ユーザは、選択インジケータを表示している上側ディスプレイ部分10の当該部分にタッチし、タッチトレース移動40を用いてA1にインジケータを移動しA1にドロップすることによって推定学習対象応答シンボルを制御する。これは、B1での変化ではなく、A1での変化に基づいて、新規の推定学習対象応答シンボルを定めるべきことをシステム100に指示する。
これにより、当然ながら、ユーザは、時空中での非定型のイベントシーケンスの捕捉の発生を制御することができることになる。これは、捕捉が発生するシーン空間、および/または捕捉が発生する映像シーケンス内のシーン時間を制御することを含むことができる。
例として、ユーザは、非定型のイベントシーケンスの捕捉をシーンの部分または部分群に制限する、あるいは全シーンに拡大することができてもよい。
本発明のよりよい理解のために、家庭環境でこれがどのように使用できるかのいくつかの例を以下に提示する。但し、本発明はこれらの例には限定されない。
ユーザは、例えば、一方の手をカメラの方に指し、次いで他方の手の人差し指を上げるなど、プログラミングジェスチャをする。あるいは、ユーザがその手をたたいて、これをオーディオから分析し検出することもできよう。これにより学習状態222が開始される。
ユーザは、今後の認識のため自分が欲するプログラム対象の挙動を実行する。例えば、ユーザは、ドアを開く、明かりをともす、暖房を調節する、冷蔵庫を開く、部屋の外に出る、部屋に入る、床に寝転がる、ソファに座る、キャビネットの扉を開けるまたは閉める、皿を洗う、花に水をやる、コーヒーメーカまたはトースタを始動または停止する、洗濯機に衣類を入れる/取り出す、薬棚に行く、コップに水を注ぎそれを飲む、発作など病状の兆候を再現する、などができよう。
また、ユーザは、随意的にやはり学習対象応答アクションをプログラムするプログラミング終了ジェスチャをする。
例えば、ユーザは、学習される応答が自分への電話連絡であるべきことを示すためあたかも電話に応じるかのように、自分の耳の横に自分の手を持ってくる。別の例として、学習される応答が自分へのeメールまたはテキストメッセージングでの連絡であるべきことを示すために、ユーザはユーザの前方に自分の手を持ってきて、あたかもその手の上にタイプするかのようなしぐさをする。
これは、当該挙動に対する新規の学習された応答状態232、さらにその学習された応答状態に関連付けられた学習された応答アクションを生成する。
その後において、同じシーン140、または場合によっては別のモニタリング対象シーン中で類似の挙動が生じたとき、システム100は、当該学習済み応答アクションを自動的に実行する。
例えば、窓、ドアまたは冷蔵庫を開ける/閉める;人物が座る、倒れる、横たわる;部屋から立ち去る、部屋に入る、発作を起こす、人物がコーヒーメーカ/トースタ/洗濯機などの機器と相互作用する、水を注ぐ、水を飲む、機器がオンである(オフでない)、外部のノイズ、犬の鳴き声、人による騒音などの何らかの音;あかりのオン/オフなどの多数の挙動を認識することができる。
いくつかの例において、学習される応答アクションは他のパラメータを条件とすることが可能であり、したがって遅延することがある。例えば、ユーザは、ユーザが家を離れるときにだけ窓が開いている、または機器がオンになっていることの警告を受けてもよい。さらなるパラメータを提供するために、システム100に他のシステムを統合することが望ましいことがある。
前述の諸例において、当然のことながら、学習状態220において行われる映像捕捉は、モニタリング状態210において行われる映像モニタリングと同じシーン140に関するものとすることができる。実際には、学習状態220において行われる映像捕捉は、モニタリング状態210において行われる映像モニタリングと同じカメラとすることができる。
本文書において用語「備える」または「含む」(comprise)」は排他的意味でなく包括的意味で用いられている。つまり、Yを備えるXへの一切の言及は、Xが1つだけのYを備えてもよくまたは複数のYを備えてもよいことを示す。「備える」を排他的意味で用いることが意図されている場合、それは、「1つだけを備える」と述べることによって、または「から成る(consisting)」を用いることによって、文脈上で明瞭にされることになる。
この簡潔な説明では、様々な例への参照がなされてきた。或る例に関連付けた特徴または機能の説明は、それらの特徴または機能がその例の中に存在することを示す。文中の用語「例(example)」または「例えば(for example)」または「あり得る(may)」の使用は、明示で述べられているかどうかに関わらず、かかる特徴または機能が、例として記述されているかどうか問わず、少なくとも記載された例の中に存在すること、および、それらが、必須ではないが、一部のまたは全部の他の例の中にも存在できることを意味する。しかして、「例」、「例えば」または「あり得る」は、或る区分の複数の例における特定の事例を指す。その事例の性質は当該事例だけの性質、またはその区分の性質、またはその区分中の事例の全部ではないが一部を含む区分の下位区分の性質であり得る。したがって、1つの例を参照するが別の例を参照せずに説明された特徴は、可能な場合はその別の例で使用できるが、必ずしもその別の例において使用しなければならないものではないことが、暗黙裡に開示されている。
本願の開示から、発明の以下の例が開示されたことが明らかであろう。
シーン中のユーザアクションから第一ユーザ入力を自動的に認識するために、シーンから記録された第一センサデータを自動的に処理することと;第一ユーザ入力の認識に応答して、シーンの第一映像の処理を含む、シーンからの第一センサデータの自動処理であって、第一ユーザ入力後のシーン中の非定型のイベントシーケンスを捕捉するための、第一センサデータの自動処理、およびシーンから後に記録されシーンの第一映像とは異なるシーンの第二映像を含む第二センサデータの自動処理であって、後に記録される第二映像中の、捕捉されたイベントシーケンスに対応するイベントシーケンスを自動的に認識するための、第二センサデータの自動処理、を可能にする学習状態に自動的に入ることと;を含む方法。
シーン中のユーザアクションから第一ユーザ入力を自動的に認識するために、シーンから記録された第一センサデータを自動的に処理することと;第一ユーザ入力の認識に応答して、シーンの第一奥行きデータの処理を含む、シーンからの第一センサデータの自動処理であって、第一ユーザ入力後のシーン中の非定型のイベントシーケンスを捕捉するための、第一センサデータの自動処理、およびシーンから後に記録されシーンの第一奥行きデータとは異なるシーンの第二奥行きデータを含む、第二センサデータの自動処理であって、後に記録される第二映像中の、捕捉されたイベントシーケンスに対応するイベントシーケンスを自動的に認識するための、第二センサデータの自動処理、を可能にする学習状態に自動的に入ることと;を含む方法。
シーン中のユーザアクションから第一ユーザ入力を自動的に認識するために、シーンから記録された第一センサデータを自動的に処理することと;第一ユーザ入力の認識に応答して、シーンの第一映像および/または第一奥行きデータの処理を含む、シーンからの第一センサデータの自動処理であって、第一ユーザ入力後のシーン中の非定型のイベントシーケンスを捕捉するための、第一センサデータの自動処理、およびシーンから後に記録されシーンの第一映像および/または奥行きデータとは異なるシーンの第二映像および/または第二奥行きデータを含む、第二センサデータの自動処理であって、後に記録された第二映像および/または奥行きデータ中の、捕捉されたイベントシーケンスに対応するイベントシーケンスを自動的に認識するための、第二センサデータの自動処理、を可能にする学習状態に自動的に入ることと;を含む方法。
本願明細書及び図面において、本発明の様々な実施形態が様々な実施例と共に紹介されてきたが、当然のごとく、特許請求の範囲に特定される発明の範囲を逸脱することなく、紹介された実施形態を変形することができる。
これまでに記述してきた事項は、明示的に記述された組合せだけでなく、それ以外の組合せで用いられてもよい。
特定の事項を参照して種々の機能を記述してきたが、こうした機能は、記述の有無を問わずその他の事項によって遂行可能であってもよい。
特定の実施形態を参照して種々の事項を記述してきたが、こうした事項は、記述の有無を問わずその他の実施形態で用いられてもよい。
前述のように本明細書において、とりわけ重要であると考えられる本発明のこうした事項に注目するように努めてきた。しかし、前述した特許されうる全ての事項およびそれらの組合せに対して、参照された添付の図面にそうした事項が特段強調されていたかどうかにかかわらず、本出願人はその保護を求めるものである点を理解されたい。

Claims (14)

  1. 自宅を監視するシステムの動作方法であって、
    シーン中のユーザアクションから第一ユーザ入力を自動的に認識するために、前記シーンから記録された第一センサデータを自動的に処理することと、
    前記第一ユーザ入力の認識に応答して、
    ・ 前記シーンからの前記第一センサデータの自動処理であって、前記第一ユーザ入力後の前記シーンから非定型の空間的イベントシーケンスを捕捉するための、前記第一センサデータの自動処理、および
    ・ 前記シーンから後に記録され前記シーンの前記第一センサデータとは異なる第二センサデータの自動処理であって、前記後に記録された第二センサデータ中の、前記捕捉された空間的イベントシーケンスに対応する空間的イベントシーケンスを自動的に認識するための、前記第二センサデータの自動処理、
    を可能にする学習状態に自動的に入ることと、
    を含むと共に、前記学習状態の過程で、
    ・ 前記シーン中の少なくともユーザの動きから第二の事前決定ユーザ入力を自動的に認識すべく、前記シーンの少なくとも第一映像及び/又はオーディオ及び/又は奥行きデータを自動的に処理することと、
    ・ 前記認識に応答して、後に記録される前記シーンの第二映像及び/又はオーディオ及び/又は奥行きデータ中の空間的イベントシーケンスが前記捕捉された空間的イベントシーケンスに対応することの認識、への応答をプログラムすることと、
    を含み、
    ここで前記第二映像及び/又はオーディオ及び/又は奥行きデータは、前記第一映像及び/又はオーディオ及び/又は奥行きデータとは異なり、
    前記プログラムされる応答は、前記自宅から前記ユーザが離れているか否かを条件とする
    方法。
  2. 前記第一センサデータが、前記第一映像中のジェスチャユーザ入力を記録する、請求項1に記載の方法。
  3. 前記シーンからの前記第一センサデータが前記シーンの前記第一映像を少なくとも含み、前記方法が、前記シーン中のユーザの動きから前記第一ユーザ入力を自動的に認識するため、記録された前記第一映像を自動的に処理することを含む、請求項2に記載の方法。
  4. 前記第一ユーザ入力が、追跡対象ユーザにおける基準枠に対する前記追跡対象ユーザの動きによって定義される、時間進展的でシーン非依存性のシーケンスである、請求項1から3のいずれかに記載の方法。
  5. 前記第一センサデータが前記第一映像および前記第一オーディオを含み、前記方法は、
    前記第一ユーザ入力の後に、前記シーン中の非定型の映像イベントシーケンスを捕捉するため、記録された前記第一映像を処理することと、
    前記第一ユーザ入力の後に、前記シーン中の非定型のオーディオイベントシーケンスを捕捉するため、記録された前記第一オーディオを処理することと、
    前記第二映像中の、前記捕捉された映像イベントシーケンスに対応する映像イベントシーケンスを認識するために、前記第二映像を処理することと、
    前記第二オーディオ中の、前記捕捉されたオーディオイベントシーケンスに対応するオーディオイベントシーケンスを認識するために、前記第二オーディオを処理することと、
    を含む、請求項1から4のいずれかに記載の方法。
  6. 前記第一ユーザ入力の後に、前記シーン中の非定型の空間的イベントシーケンスを捕捉するため、
    ・ 前記第一ユーザ入力の後に、前記シーン中の非定型の空間的イベントシーケンスを識別することと、
    ・ 記録されたセンサデータ中の、前記捕捉された空間的イベントシーケンスに対応する空間的イベントシーケンスを後に認識できるようにするために、前記非定型の空間的イベントシーケンスのシンボルの記録を格納することと、
    による、記録センサデータの分析を含む、請求項1から5のいずれかに記載の方法。
  7. 前記非定型の空間的イベントシーケンスが、追跡対象ユーザの動きにより指定されるオブジェクトまたは場所に関連する、時間進展的でシーン依存性のシンボルシーケンスである、および/または前記非定型の空間的イベントシーケンスが、追跡対象ユーザの前記オブジェクトとの相互作用により指定されるオブジェクト−ユーザ相互作用に関連する、時間進展的でシーン依存性のシンボルシーケンスである、請求項1から6のいずれかに記載の方法。
  8. 前記シーン中の前記非定型の空間的イベントシーケンスを捕捉することが、前記ユーザの姿勢または位置の変化以外の、前記シーン中の変化を検出するため、前記シーンの前記第一映像を処理することを含む、請求項1から7のいずれかに記載の方法。
  9. 前記第二の事前決定ユーザ入力が、追跡対象ユーザにおける基準枠に対する前記追跡対象ユーザの動きによって定義される、時間進展的でシーン非依存性のシンボルシーケンスである、請求項1から8のいずれかに記載の方法。
  10. 前記第二の事前決定ユーザ入力の認識との所定の時間的関係で、前記シーン中の前記非定型の空間的イベントシーケンスを捕捉することを含む、請求項1から9のいずれかに記載の方法。
  11. モニタリング状態において、
    前記シーンの第二センサデータを記録することと、
    記録された前記第二映像中の、前記捕捉された空間的イベントシーケンスに対応する空間的イベントシーケンスを認識するため、前記シーンの前記記録された第二センサデータを処理することと、
    を含む、請求項1から10のいずれかに記載の方法。
  12. 前記捕捉された非定型の空間的イベントシーケンスのユーザ定義のためのオプションを提供することを含む、請求項1から11のいずれかに記載の方法。
  13. 記録された前記第二映像中の、前記捕捉された空間的イベントシーケンスに対応する空間的イベントシーケンスの自動的な認識の結果のユーザ定義のためのオプションを提供することを含む、請求項1から12のいずれかに記載の方法。
  14. 請求項1から13のいずれかに記載の方法を実行する手段を備える、自宅監視システム。
JP2017533384A 2014-12-24 2015-12-18 モニタリング Active JP6600359B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
EP14200299.7 2014-12-24
EP14200299.7A EP3037916B1 (en) 2014-12-24 2014-12-24 Monitoring
PCT/FI2015/050902 WO2016102759A1 (en) 2014-12-24 2015-12-18 Monitoring

Publications (2)

Publication Number Publication Date
JP2018509670A JP2018509670A (ja) 2018-04-05
JP6600359B2 true JP6600359B2 (ja) 2019-10-30

Family

ID=52292695

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017533384A Active JP6600359B2 (ja) 2014-12-24 2015-12-18 モニタリング

Country Status (7)

Country Link
US (1) US10540542B2 (ja)
EP (1) EP3037916B1 (ja)
JP (1) JP6600359B2 (ja)
CN (1) CN107111363B (ja)
PH (1) PH12017501186A1 (ja)
PL (1) PL3037916T3 (ja)
WO (1) WO2016102759A1 (ja)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3316117A1 (en) 2016-10-31 2018-05-02 Nokia Technologies OY Controlling content displayed in a display
EP3316186B1 (en) * 2016-10-31 2021-04-28 Nokia Technologies Oy Controlling display of data to a person via a display apparatus
CN111766786B (zh) * 2019-04-02 2023-05-02 青岛海信智慧生活科技股份有限公司 一种智能控制方法及控制器
EP3805980A1 (en) * 2019-10-11 2021-04-14 Kepler Vision Technologies B.V. A system to notify a request for help by detecting an intent to press a button, said system using artificial intelligence

Family Cites Families (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4711885B2 (ja) * 2006-05-25 2011-06-29 三菱電機株式会社 遠隔操作装置及び方法
US7747445B2 (en) * 2006-07-12 2010-06-29 Nuance Communications, Inc. Distinguishing among different types of abstractions consisting of plurality of commands specified by particular sequencing and or timing or no timing and sequencing using voice commands
CN100583127C (zh) 2008-01-14 2010-01-20 浙江大学 一种基于模板匹配的视点无关的人体动作识别方法
US8407057B2 (en) * 2009-01-21 2013-03-26 Nuance Communications, Inc. Machine, system and method for user-guided teaching and modifying of voice commands and actions executed by a conversational learning system
JP5415846B2 (ja) * 2009-07-01 2014-02-12 アルプス電気株式会社 電子回路ユニット
US9159151B2 (en) * 2009-07-13 2015-10-13 Microsoft Technology Licensing, Llc Bringing a visual representation to life via learned input from the user
US9207765B2 (en) * 2009-12-31 2015-12-08 Microsoft Technology Licensing, Llc Recognizing interactive media input
CN103003761B (zh) * 2010-07-22 2015-02-25 吉拉吉尔斯芬两合公司 处理视觉、听觉、嗅觉和/或触觉信息的系统和方法
DE102010038341B4 (de) * 2010-07-23 2023-12-07 Robert Bosch Gmbh Videoüberwachungssystem sowie Verfahren zur Konfiguration eines Videoüberwachungssystems
US20150019459A1 (en) * 2011-02-16 2015-01-15 Google Inc. Processing of gestures related to a wireless user device and a computing device
US9432633B2 (en) * 2011-12-28 2016-08-30 Pelco, Inc. Visual command processing
WO2013101066A1 (en) * 2011-12-29 2013-07-04 Intel Corporation Direct grammar access
US9753453B2 (en) * 2012-07-09 2017-09-05 Deep Learning Robotics Ltd. Natural machine interface system
US9747898B2 (en) * 2013-03-15 2017-08-29 Honda Motor Co., Ltd. Interpretation of ambiguous vehicle instructions
DE202013102415U1 (de) * 2013-06-05 2014-09-08 Sick Ag Optoelektronischer Sensor
US11977998B2 (en) * 2014-05-15 2024-05-07 Storz Endoskop Produktions Gmbh Surgical workflow support system

Also Published As

Publication number Publication date
WO2016102759A1 (en) 2016-06-30
EP3037916B1 (en) 2021-02-24
PL3037916T3 (pl) 2021-08-02
CN107111363B (zh) 2020-08-18
US10540542B2 (en) 2020-01-21
JP2018509670A (ja) 2018-04-05
CN107111363A (zh) 2017-08-29
EP3037916A1 (en) 2016-06-29
PH12017501186A1 (en) 2017-12-18
US20180005024A1 (en) 2018-01-04

Similar Documents

Publication Publication Date Title
JP6592183B2 (ja) モニタリング
US11429189B2 (en) Monitoring
US9984590B2 (en) Identifying a change in a home environment
JP6568224B2 (ja) サーベイランス
US10540543B2 (en) Human-computer-interaction through scene space monitoring
JP6600359B2 (ja) モニタリング
JP6713057B2 (ja) 移動体制御装置および移動体制御プログラム
US10444852B2 (en) Method and apparatus for monitoring in a monitoring space
CN111919250B (zh) 传达非语言提示的智能助理设备

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20170720

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20180719

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20180910

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20181207

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20190529

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190828

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20190903

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20190925

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20191004

R150 Certificate of patent or registration of utility model

Ref document number: 6600359

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250