JP2018510537A - サーベイランス - Google Patents

サーベイランス Download PDF

Info

Publication number
JP2018510537A
JP2018510537A JP2017540151A JP2017540151A JP2018510537A JP 2018510537 A JP2018510537 A JP 2018510537A JP 2017540151 A JP2017540151 A JP 2017540151A JP 2017540151 A JP2017540151 A JP 2017540151A JP 2018510537 A JP2018510537 A JP 2018510537A
Authority
JP
Japan
Prior art keywords
scene
message
presentation
user
sensor data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2017540151A
Other languages
English (en)
Other versions
JP6568224B2 (ja
Inventor
エロネン アンッティ
エロネン アンッティ
レッパネン ユッシ
レッパネン ユッシ
Original Assignee
ノキア テクノロジーズ オサケユイチア
ノキア テクノロジーズ オサケユイチア
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ノキア テクノロジーズ オサケユイチア, ノキア テクノロジーズ オサケユイチア filed Critical ノキア テクノロジーズ オサケユイチア
Publication of JP2018510537A publication Critical patent/JP2018510537A/ja
Application granted granted Critical
Publication of JP6568224B2 publication Critical patent/JP6568224B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/14Digital output to display device ; Cooperation and interconnection of the display device with other functional units
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/52Surveillance or monitoring of activities, e.g. for recognising suspicious objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/103Static body considered as a whole, e.g. static pedestrian or occupant recognition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/172Classification, e.g. identification
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/20Movements or behaviour, e.g. gesture recognition
    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B21/00Alarms responsive to a single specified undesired or abnormal condition and not otherwise provided for
    • G08B21/18Status alarms
    • G08B21/24Reminder alarms, e.g. anti-loss alarms
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/41Structure of client; Structure of client peripherals
    • H04N21/422Input-only peripherals, i.e. input devices connected to specially adapted client devices, e.g. global positioning system [GPS]
    • H04N21/4223Cameras
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/442Monitoring of processes or resources, e.g. detecting the failure of a recording device, monitoring the downstream bandwidth, the number of times a movie has been viewed, the storage space available from the internal hard disk
    • H04N21/44213Monitoring of end-user related data
    • H04N21/44218Detecting physical presence or behaviour of the user, e.g. using sensors to detect if the user is leaving the room or changes his face expression during a TV program
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/80Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
    • H04N21/81Monomedia components thereof
    • H04N21/8126Monomedia components thereof involving additional data, e.g. news, sports, stocks, weather forecasts
    • H04N21/814Monomedia components thereof involving additional data, e.g. news, sports, stocks, weather forecasts comprising emergency warnings
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30232Surveillance
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L17/00Speaker identification or verification techniques
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/431Generation of visual interfaces for content selection or interaction; Content or additional data rendering
    • H04N21/4312Generation of visual interfaces for content selection or interaction; Content or additional data rendering involving specific graphical features, e.g. screen layout, special fonts or colors, blinking icons, highlights or animations
    • H04N21/4316Generation of visual interfaces for content selection or interaction; Content or additional data rendering involving specific graphical features, e.g. screen layout, special fonts or colors, blinking icons, highlights or animations for displaying supplemental content in a region of the screen, e.g. an advertisement in a separate window

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Physics & Mathematics (AREA)
  • Social Psychology (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Business, Economics & Management (AREA)
  • Databases & Information Systems (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Emergency Management (AREA)
  • Computational Linguistics (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Acoustics & Sound (AREA)
  • General Engineering & Computer Science (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Marketing (AREA)
  • Psychiatry (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • User Interface Of Digital Computer (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Alarm Systems (AREA)
  • Burglar Alarm Systems (AREA)

Abstract

【課題】シーンの自動監視。【解決手段】1つ以上の提示基準およびシーン内の物理ロケーションとメッセージを結び付けるステップと、1つ以上の提示基準の充足を自動的に認識するためにシーンからの記録された第1のセンサー・データを自動的に処理するステップと、1つ以上の提示基準の充足の認識に応答して、物理ロケーションにおける前記シーン内への前記メッセージの自動的提示を可能にするために、提示状態を入力するステップと、を含む方法。【選択図】図1

Description

本発明の実施形態は、シーンの監視に関する。詳細には、本発明の実施形態は、シーンの自動監視に関する。
サーベイランス・システムなどの現行の監視システムは、録画のために1つ以上のカメラを備えることができる。そのカメラは、シーンから記録されたデータを格納するか、または、格納を可能にするハブに対して有線または無線で接続することができ、録音を伴うこともあり得る。
本発明の種々の実施形態によると、請求項1ないし14のいずれか1項に記載の方法が提供されている。ただし、それらに限られるものではない。
本発明の種々の実施形態によると、請求項15に記載の装置が提供される。ただし、それらに限られるものではない。
本発明の種々の実施形態によると、少なくとも1つのプロセッサ、および
コンピュータ・プログラム・コードを含む少なくとも1つのメモリ、
を含む装置において、少なくとも1つのメモリおよびコンピュータ・プログラム・コードが、少なくとも1つのプロセッサを用いて、装置に、少なくとも請求項1ないし14のいずれか1項に記載の方法を行なわせるように構成されている、装置が提供されている。ただし、それらに限られるものではない。
本発明の種々の実施形態によると、コンピュータ上で実行された場合に、請求項1ないし14のいずれか1項に記載の方法を行なうコンピュータ・プログラムが提供されている。ただし、それらに限られるものではない。
本願発明を理解するのに有用な種々の実施例をより良く理解するために、次に、例としてのみであるが、添付図面を参照する。
システムの一実施例を概略的に示す。 状態マシンの一実施例を示す。 処理モジュールの一実施例を示す。 コンピュータ・プログラムのためのデリバリ・メカニズムの一実施例を示す。 状態マシンのための新しい提示状態を作成するプロセスの一実施例を示す。 1つの監視状態から新しい提示状態へと移行し、結び付けられた提示アクションを行なうプロセスの一実施例を示す。
ここに記載されるシステム100は、少なくとも1つのシーンを監視するシステムである。システムの動作は、シーンの内部でアクションを実施することによりシーンの内部でユーザーにより制御され得る。例えば、ユーザーは、シーンからのセンサー・データが1つ以上の提示基準を充足する場合シーン内でメッセージが条件付きで提示されるように、システムを制御することができる。
図1は、概略的に、シーン140からのセンサー・データ112を記録するように構成された1つ以上のセンサー110と、シーン140内で発生する事象を自動的に認識し、この認識の結果として自動的に決断を下すために、シーン140から記録されたセンサー・データ112を処理するように構成された処理モジュール120と、処理モジュール120により通信する決断が下された場合に、通信するように構成された通信モジュールとを備えたシステムを、概略的に例示する。
認識された事象の必ずしも全てではないが、いくつかは、シーン140内のオブジェクト152または特定のオブジェクト152に関するものであることができる。オブジェクトは、シーン140内の無生物、動物、人または特定の人150であることができる。システム100の必ずしも全てではないが、いくつかの実施例において、システム100は、実時間認識システムであり、自動認識および決断がある場合、それは、センサー・データ112の記録と実質的に同時に発生する。
システム100を、サーベイランス、監視または他のアプリケーションのために使用することができる。システム100を、ビジネスで、公共の場でまたは自宅で使用することができる。期待される一つの用途は、ホーム・サーベイランス・システムである。
システム100は、例えば、ユーザーがシーン140内の人150である場合は、このユーザーが監視を制御できるようにすることができる。システム100は、例えばユーザーがシーン140内の人150である場合に、このユーザーが認識および/または認識の結果を制御できるようにすることができる。
必ずしも全てではないが、いくつかの実施例において、システム100は、多くの離散的装置を備えることができる。例えば、センサー110を1つ以上の別個の装置内に収納することができ、処理モジュール120を1つ以上の装置内に収納でき、また通信モジュール130を1つ以上の装置内に収納することができる。システム100の構成要素を離散的装置内に収納する場合、これらの装置は、互いに局所的であるかまたは遠隔していることができ、遠隔している場合、例えばネットワーク上で通信できる。
必ずしも全てではないが、いくつかの実施例において、システム100を、単一の装置内に収納することができる。
センサー110は、シーン140からのセンサー・データ112を記録するかまたはその記録を可能にするように構成される。
シーン140は、例えば静止オブジェクトなどの、例えば固定した相対位置を有する静止構成要素を含むことができる。これらの静止オブジェクトは、シーンの三次元空間(シーン空間)内で異なる静止位置を有する。シーン140は、例えば移動オブジェクトなどの移動する構成要素を含むことができる。移動オブジェクトは、経時的に、シーン空間内で異なる位置を有する。異なるセンサー・データ112または異なる時刻との関係における「シーン」に対する言及は、シーン140の検知されている静止構成要素の連続性を暗に示し、発生する可能性があるにも関わらず、動的構成要素のいくつかまたは全ての連続性を必ずしも暗示しない。
センサー・データ112の記録は、一時的記録のみを含むことができるか、または永久的記録を含むことができるか、あるいは、一時的記録と永久的記録の両方を含むことができる。一時的記録は、データを一時的に記録することを暗に示す。例えば、これは、検知中に発生する、動的メモリにおいて発生する、循環バッファ、レジスタ、キャッシュまたはそれに類するものなどのバッファにおいて発生することができる。永久的記録は、データが、アドレス指定可能なメモリ空間から読出し可能なアドレス指定可能データ構造の形をしており、したがって削除または上書きされるまで記憶され検索され得るが、長期記憶は行なうことができる場合とできない場合がある、ということを暗に示す。
センサー110は、シーン140からの伝搬波データをセンサー・データ112としてエンコードする電気信号に音波および/または光波などの伝搬波を変換するように構成されることができる。
必ずしも全てではないが、いくつかの実施例において、センサー110は、シーン空間との関係において空間内で固定されている。他の実施例において、センサー110は、シーン空間との関係において移動可能または移動中である。
必ずしも全てではないが、いくつかの実施形態において、センサーは画像センサー114であるかまたは画像センサー114を含む。画像センサー114の一例は、カメラとして動作するように構成されるデジタル画像センサーである。このようなカメラは、静止画像および/またはビデオ画像を記録するように動作可能である。
必ずしも全てではないが、いくつかの実施形態において、シーン140を異なる視点から見るように、カメラを立体的配置または他の空間的に分散した配置で構成することができる。こうして、三次元画像の作成および/または視差効果などを介して深度を確立するための処理を可能にすることができる。
必ずしも全てではないが、いくつかの実施形態において、センサー110は音響センサー116であるかまたは音響センサー116を含む。音響センサー116の一例は、マイクロホンである。マイクロホンは、立体型または他の空間分散型配置、例えばマイクロホン・アレイの形で構成され、こうして、シーン140は異なる視点からサンプリングされる。こうして、3次元空間音響処理が可能になり、これにより、シーン140内の音響位置付けが可能となる。
必ずしも全てではないが、いくつかの実施形態において、センサーは、深度センサー118であるかまたは、深度センサー118を含む。深度センサー118は、送信機および受信機を含むことができる。送信機は、信号(例えば、超音波または赤外光などの人間が感知できない信号)を伝送し、受信機は、反射信号を受信する。単一の送信機と単一の受信機を使用して、伝送から受信への飛行時間の測定を介して、いくつかの深度情報を達成することができる。より多くの送信機および/またはより多くの受信機を使用することによって、より良い分解能を達成することができる(空間ダイバーシティ)。一実施例において、送信機は、光、好ましくは、空間依存パターンを伴う赤外光などの非可視光を用いてシーンを「ペイントする」ように構成されている。受信機による一定のパターンの検出により、シーン140を空間的に分解することが可能になる。シーン140の空間的に分解された部分までの距離は、飛行時間および/または立体映像(受信機が送信機との関係において立体視位置にある場合)によって決定できる。
深度検知のこれらの「受動的」または「非能動的」実施例において、検知されるべき人150またはオブジェクト152は受動的であり、単に送信機により発出される入射光または音波を反射するにすぎない。しかしながら、検知されたオブジェクトにおけるアクティビティを必要とする「能動的」実施例を、付加的にまたは代替的に使用することができる。一つの例として、人は、位置付け装置をシーン空間内部で位置付けするように構成されている位置付け装置を持つことができる。位置付け装置は、例えば、加速度計を用いて、基準位置から位置付け装置のモーションを測定することができる。任意には、向きを決定するためにジャイロスコープを使用することができる。付加的または代替的には、位置付け装置は、多数の受信機へと伝送したり、多数の送信機から受信したりすることによって、三角形分割(三辺測量)を介した位置付けを可能にすることができる。
必ずしも全ての実施例ではないものの例示された実施例において、処理モジュール120は、メモリ・サブモジュール122、処理サブモジュール124、認識サブモジュール126および制御サブモジュール128を備えている。「モジュール」は、別個に説明され例示されているものの、必然的にではないが、別個であるかまたは異なる組合せで組合わされることができる。例えば、処理サブモジュール124、認識サブモジュール126および制御サブモジュール128を、同じ回路によって、または同じコンピュータ・プログラムの制御下で実行することができる。代替的には、処理サブモジュール124、認識サブモジュール126および制御サブモジュール128の1つ以上を、専用回路または専用コンピュータ・プログラムにより実行することができる。ソフトウェア、専用ハードウェアまたは、プログラミングされたハードウェアとソフトウェアの融合体を用いて、サブモジュールを実行することができる。
未処理のセンサー・データ110および/または処理済みのセンサー・データ110(シーン・データ)、コンピュータ・プログラム、シーン空間モデルおよび処理モジュール120によって使用される他のデータを記憶するために、メモリ・サブモジュール122を使用することができるが、他のサブモジュールは、自身のメモリを有する可能性がある。
センサー・データ112を処理してシーン140についての意味のあるシーン・データを決定するように、処理サブモジュール124を構成することができる。
センサー・データ110がカメラ114からの画像データを含む場合に画像処理を行なうように、処理サブモジュール124を構成することができる。センサー・データ110がマイクロホン116からの音響データを含む場合に音響処理を行なうように、処理サブモジュール124を構成することができる。
シーン140にとって潜在的に意味のあるシーン・データを作成するためにセンサー・データ112を使用する以下のタスクのうちの1つ以上を自動的に行なうように、処理サブモジュール124を構成することができる。
以下のものの1つ以上を行なうためにマシン(コンピュータ)ビジョンを使用する。
(移動するまたは静止した)オブジェクトまたは人を検出すること、
(移動するまたは静止した)オブジェクトまたは人を分類すること、
(移動するまたは静止した)オブジェクトまたは人を追跡すること、
以下のものの1つ以上を行なうために空間解析を使用する。
深度決定を用いてシーン空間内に(移動するまたは静止した)オブジェクトを位置付けること、および/または、
シーン空間のマップを作成すること、および/または
潜在的に意味のあるシンボルとしてシーン140内に発生する事象を描写するために挙動解析を使用する。
画像処理の一例は、画像について強度勾配またはエッジ方向の分布を作成する「勾配特徴ヒストグラム」である。画像は、小さな連結された領域(セル)に分割でき、各セルについて、セル内部の画素のための勾配強度またはエッジの向きのヒストグラムが作成される。これらのヒストグラムの組合せは、このとき記述子を表わす。
音響処理の一例は、「メル周波数ケプストラム係数」の決定、例えば音響ビームフォーミング技術を用いた空間音響処理、音響事象の認識または分類、話者の認識または確認または発話認識、である。
モーション検出は、例えば背景モデルとの関係における(バックグラウンド除去)差分または先行する画像との関係における差分(時間的差分)を用いて、またはベクトルベースのアプローチを用いたオプティカルフロー解析などの他のいくつかのアプローチを用いて達成可能である。
オブジェクトの分類は、例えば、形状ベースの解析および/またはモーションベースの解析を用いて達成できる。
人の分類は、オブジェクトが人であるという分類または、オブジェクトが特定の人であるという分類(識別)であることができる。識別は、考えられる一群の人の中の人を一意的に識別する属性または属性の組合せを使用して達成できる。属性の例としては、人に特有のものであるかまたは特有である可能性のあるバイオメトリック特徴、例えばその人の顔または声、形態およびサイズ、挙動、が含まれる。
オブジェクト追跡は、オブジェクトを標識付けし、標識付けされたオブジェクトのシーン140内の位置を記録することにより達成できる。アルゴリズムは、シーン140へのオブジェクトの進入、シーン140からのオブジェクトの退出、シーン140へのオブジェクトの再進入、オブジェクトの閉鎖、オブジェクトのマージという事象のうちの1つ以上を扱かう必要がある可能性がある。これらの事象の扱い方は、当該技術分野において知られている。
オブジェクト追跡は、オブジェクトまたは人が変化する時点を決定するために使用可能である。例えば、大きなマクロスケールでオブジェクトを追跡することで、そのオブジェクトと共に移動する基準フレームを作成することができる。次に、オブジェクトとの関係における時間的差分を用いることによってオブジェクトの形状の時間的に推移する変化を追跡するために、この基準フレームを使用することができる。これは、ジェスチャー、手の動き、顔の動き、などの小規模な人間のモーションを検出するために使用され得る。これらは、ユーザーに関係する、シーンとは独立したユーザー(のみ)の動きである。
システム100は、例えば、人体の1つ以上の関節などの人体との関係における複数のオブジェクトおよび/またはポイントを追跡することができる。いくつかの実施例において、システム100は、人体の全身骨格追跡を行なうことができる。
人体との関係における1つ以上のオブジェクトおよび/またはポイントの追跡を、システム100は、ジェスチャー認識などにおいて使用することができる。
挙動解析には、意味のあるシンボロジーを用いたシーン140内で発生する事象の描写が必要とされる。事象は、空間・時間インスタンスにおいて発生する何かであることができ、あるいは、空間・時間シーケンス(経時的な空間・時間インスタンスのパターン)であることもできる。事象は、オブジェクト(または人)のモーションまたは人とオブジェクトの相互作用に関係するものであることができる。
必ずしも全てではないが、いくつかの実装において、マシン(コンピュータ)ビジョン解析および/または空間解析から決定されたパラメータの観点から見て定義された推定シンボルにより、事象を表現することができる。これらのパラメータは、何が起こっているか、それがどこで発生しているか、何時発生しているか、そして誰がそれを行なっているかのうちの1つ以上をエンコードする。
認識サブモジュール126は、特定の意味と結び付けられた意味のあるシンボルとして、シーン140内の事象をコードする推定シンボルを認識するように構成される。
マシン(コンピュータ)ビジョン解析および/または空間解析から決定されたパラメータの観点から見て定義され、意味を有するものとして処理サブモジュール124によって生成された推定シンボルを認識するように、認識サブモジュール126を構成することができる。認識サブモジュール126は、例えば、意味のある基準シンボルのデータベースを記憶またはアクセスすることができ、推定シンボルが意味のあるシンボルと「類似しているか」否かを決定するために類似性テストを使用できる。
認識サブモジュール126を、マシン(コンピュータ)推論エンジンまたは他の認識エンジン、例えば、人工ニューラル・ネットワークまたはパラメータ空間内のクラスタリングなどとして構成することができる。いくつかの実施例において、意味のあるシンボルを基準シンボルに類似するものとして認識するように、認識サブモジュール126をトレーニングすることができる。
制御サブモジュール128は、以下のように、事象に基づいて、シーン140内で意味のある事象が発生したことの決定に対して応答する。
a) 推論シンボルが応答シンボルと類似している場合には、意味のあるシンボルは、「応答」事象であり、制御サブモジュール128は応答アクションを行なう。
必ずしも全てではないが、いくつかの実施例において、行なわれるアクションは、ユーザーがプログラミングできる。必ずしも全てではないが、いくつかの実施例において、プログラミングは、シーン内のユーザーのモーションを介して発生できる。以下では、図5Aおよび5Bを参照して実施例が提供される。行なわれるアクションの例は、警告または通知の生成であることができる。
警告または通知は、通信モジュール130を介して提供することができる。通信モジュール130は、局所的なまたは遠隔の装置に対して、無線で、無線を介して、または有線接続を介して通信することができる。このような装置の実施例には、非限定的に、ディスプレイ、テレビ、音響出力装置、パーソナル・デバイス、例えば携帯電話またはパソコン、プロジェクタまたは他のユーザー出力装置が含まれる。
必ずしも全てではないが、いくつかの実施例において、ユーザーが応答シンボルをプログラミングすることができる。例えば、以下で図5Aおよび5Bを参照してさらに詳述する通り、ユーザーは、意味のある応答シンボルにより表わされる意味のある事象をプログラミングまたは教示する能力を有することができる。ユーザーにより作成された応答シンボルを基準シンボルのデータベースに追加することができ、あるいは別の方法で推論シンボルを意味のあるシンボルとして認識するために使用することができる。必ずしも全てではないが、いくつかの実施例において、プログラミングはシーン140内でのユーザーのモーションを介して発生することができる。意味のあるプログラミングにより表わされる意味のある事象の例としては、ユーザー入力ジェスチャーなどの実行された特定のアクションまたは動きが含まれる。
b) 推論シンボルがユーザー制御シンボルと類似している場合、意味のある事象は、「ユーザー制御」事象であり、制御サブモジュール128は、監視のユーザー制御および/または応答のユーザー制御を可能にする。
図5Aおよび5Bを参照して以下でさらに詳述するように、「ユーザー制御」事象の一例は、メッセージング・シンボルにより表わされるメッセージング事象である。推論シンボルが学習シンボルとマッチングすることの認識は、ユーザーが意味のある応答事象および/またはこの応答事象のための応答アクションをプログラミングし教示できるようにする。行なわれるアクションの例は、警告または通知の生成であることができる。
処理モジュール120の動作は、処理モジュール120のための状態マシン200を例示する図2からさらに理解できる。状態マシン200は、監視状態210、ユーザー制御状態220および自動応答状態230を有する。
監視状態210において、センサー110はセンサー・データ112を提供し、処理サブモジュール124は、潜在的な意味を有するシーン・データを作成するために、自動的にセンサー・データ112(映像および/または音響および/または深度)を処理する。認識サブモジュール126は、シーン・データ内で実際の意味、すなわち意味のあるシンボルを識別するために、シーン・データを自動的に処理する。
意味のあるシンボルは所定のものである。すなわち認識に先立ってシンボルを決定するアクションが発生している。しかしながら、「所定」というのは、正確であるあるいは定まったものであることを意味するとみなされるべきではない。類似性マッチングのために用いられるシンボルは、先行する決定を有しているにすぎず、それは動的に進化することができ、あるいは固定されることができる。
意味のある事象がシーン140内で発生したことを認識サブモジュール126が決定した場合、制御サブモジュール128は、事象に応じて自動的に応答する。意味のある事象が「応答」事象である場合には、状態マシン200は応答状態230へと移行し、制御サブモジュール128は、その応答事象に結び付けられた応答アクションを行なう。事象が「ユーザー制御」事象である場合には、状態マシン200はユーザー制御状態220に移行し、監視および/または応答のユーザー制御が、ユーザー制御状態220と結び付けられた形で可能になる。
「ユーザー制御」事象として、特定のジェスチャー・ユーザー入力を使用することができる。ジェスチャー・ユーザー入力は、システム100に対してユーザー入力としての意味を持つジェスチャーである。ジェスチャーは、静止ジェスチャーまたは移動ジェスチャーであることができる。移動ジェスチャーは、動きまたは一連の動きを含む動きパターンを含むことができる。例えば、それは、旋回モーションまたは横方向モーションまたは上下モーションまたは空間内での合図のトレーシングを行なうことであり得る。移動ジェスチャーは、例えば、装置独立型ジェスチャーまたは装置依存型ジェスチャーであることができる。移動ジェスチャーには、ユーザー入力オブジェクト、例えばユーザーの体の一部分またはさらなる装置の、センサー110との関係における動きが関与することができる。体の一部分は、ユーザーの手またはユーザーの手の一部分、例えば1本以上の指または親指を含むことができる。他の実施例において、ユーザー入力オブジェクトは、ユーザーの体の異なる部分、例えば頭または腕を含むことができる。三次元の動きは、任意の3つの直交する方向におけるユーザー入力オブジェクトのモーションを含むことができる。モーションは、センサー110に向かってまたはセンサーから離れるように動くオブジェクトならびにセンサーに対し平行な平面内で動くユーザー入力オブジェクトまたはこのようなモーションの任意の組合せを含むことができる。ジェスチャーは、非接触ジェスチャーであることができる。非接触ジェスチャーは、ジェスチャー中のどの時点においても装置センサーと接触しない。ジェスチャーは、センサー110からの絶対的変位の観点から見て定義される絶対ジェスチャーであることができる。このようなジェスチャーは、それがシーン空間内で正確なロケーションにおいて行なわれるという点で、束縛(tetherd)ジェスチャーであることができる。代替的には、ジェスチャーは、ジェスチャー中の相対変位の観点から見て定義される相対ジェスチャーであることができる。このようなジェスチャーは、それがシーン空間内で相対的に正確なロケーションにおいて行なわれる必要がなく、多数の任意のロケーションにおいて行なわれることができるという点において、非束縛(un−tetherd)ジェスチャーであることができる。ジェスチャーは、原点との関係における追跡対照ポイントの経時的変位の推移として定義づけすることができる。例えば、ジェスチャーは、変位、速度などの時間変化型パラメータを用いて、または他の運動パラメータを用いてモーションの観点から見て定義することができる。非束縛(un−tetherd)ジェスチャーを、相対的時間Δtに伴う相対変位Δdの推移として定義することができる。ジェスチャーを、1空間次元(1Dジェスチャー)、2空間次元(2Dジェスチャー)または3空間次元(3Dジェスチャー)で行なうことができる。
いくつかの実施例で、システム100は、ジェスチャー認識において人体との関係において1つ以上のオブジェクトおよび/またはポイントを追跡することができる。例えば、システム100は、ジェスチャー認識において人体の全骨格追跡を行なうことができる。
プロセッサ・モジュール120またはプロセッサ・モジュール120の一部分の実装は、コントローラ回路としてのものであることができる。コントローラ回路120は、ハードウェア単独で実装されるか、ファームウェア単独を含めたソフトウェア内に一定の態様を有することができ、または、ハードウェアとソフトウェア(ファームウェアを含む)の組合せであり得る。
図3に例示されているように、例えば、汎用または専用プロセッサ310により実行されるべきコンピュータ可読記憶媒体(ディスク、メモリなど)上に記憶できるこのようなプロセッサ310内の実行可能なコンピュータ・プログラム命令322を使用することによって、ハードウェア機能性を可能にする命令を用いてコントローラ120を実装することができる。
プロセッサ310は、メモリ320から読み取りメモリ320に書込むように構成される。プロセッサ310は同様に、データおよび/またはコマンドがプロセッサ310により出力されるときに経由する出力インタフェースおよびデータおよび/またはコマンドがプロセッサ310に入力されるときに経由する入力インタフェースを備えることもできる。
メモリ320は、プロセッサ310内にロードされた場合に処理モジュール120の動作を制御するコンピュータ・プログラム命令(コンピュータ・プログラム・コード)を含むコンピュータ・プログラム322を記憶する。コンピュータ・プログラム322のコンピュータ・プログラム命令は、図1および2を参照して論述されている方法を処理モジュールが行なうことができるようにする論理およびルーチンを提供する。プロセッサ310は、メモリ320を読み取ることにより、コンピュータ・プログラム322をロードし実行することができる。
したがって、システム100は、少なくとも1つのプロセッサ310と、コンピュータ・プログラム・コード322を含む少なくとも1つのメモリ320とを備え、少なくとも1つのメモリ320およびコンピュータ・プログラム・コード322が、少なくとも1つのプロセッサ310を用いて装置120に図1のブロック124、126、128の1つ以上を行なわせるように構成されている装置120を含むことができる。
図4に例示されているように、コンピュータ・プログラム322は、任意の好適なデリバリ・メカニズム324を介してこのような装置に到達することができる。デリバリ・メカニズム324は、例えば、非一時的コンピュータ可読記憶媒体、コンピュータ・プログラム・プロダクト、メモリ・デバイス、記録媒体、例えばコンパクト・ディスク読取り専用メモリ(CD−ROM)またはデジタル多用途ディスク(DVD)、コンピュータ・プログラム322を有形で具体化する製造品であることができる。デリバリ・メカニズムは、コンピュータ・プログラムを高い信頼性で転送するように構成された信号であることができる。装置120は、コンピュータ・プログラム322をコンピュータ・データ信号として伝搬または伝送することができる。
メモリ320は単一の構成要素/回路として例示されているものの、そのいくつかまたは全てが一体型/着脱式であることのできるおよび/または永久/半永久的/ダイナミック/キャッシュ記憶装置を提供することができるものである、1つ以上の別個の構成要素/回路として、このメモリ320を実装することができる。
プロセッサ310は、単一の構成要素/回路として例示されているが、そのいくつかまたは全てが一体型/着脱式であることのできる1つ以上の別個の構成要素/回路としてこのプロセッサ310を実装することができる。プロセッサ310は、シングル・コアまたはマルチ・コア・プロセッサであることができる。
「コンピュータ可読記憶媒体」、「コンピュータ・プログラム・プロダクト」、「有形で具体化されたコンピュータ・プログラム」など、または「コントローラ」、「コンピュータ」、「プロセッサ」などに対する言及は、シングル/マルチ・プロセッサ・アーキテクチャおよびシーケンシャル(フォン・ノイマン)/パラレル・アーキテクチャなどの異なるアーキテクチャを有するコンピュータのみならず、フィールド・プログラマブル・ゲート・アレイ(FPGA)、特定用途向け回路(ASIC)、信号処理デバイスおよび他の回路などの特殊回路を包含するものとして理解されるべきである。コンピュータ・プログラム、命令、コードなどに対する言及は、プログラマブル・プロセッサのためのソフトウェアまたはファームウェア、例えば、プロセッサのための命令であるかまたは固定機能デバイス、ゲート・アレイまたはプログラマブル論理デバイスなどのための構成設定値であるかに関わらず、ハードウェア・デバイスのプログラマブル・コンテンツなどを包含するものとして理解されるべきである。
本出願で使用されている「回路」なる用語は、以下のものの全てを意味する。
(a)ハードウェア専用回路実装(例えばアナログおよび/またはデジタル回路のみでの実装)および
(b)回路とソフトウェア(および/またはファームウェア)の組合せ、例えば(該当する場合)、(i)プロセッサの組合せ、または(ii)モバイル・フォンまたはサーバーなどの装置にさまざまな機能を行なわせるために協働するプロセッサ/ソフトウェア(デジタル信号プロセッサを含む)ソフトウェアの一部分、ソフトウェアおよびメモリ、および
(c)たとえソフトウェアまたはファームウェアが物理的に存在しなくても、動作のためにソフトウェアまたはファームウェアを必要とするマイクロプロセッサまたはマイクロプロセッサの一部分などの回路。
「回路」のこの定義は、任意のクレーム内を含めた本出願中でのこの用語の全ての使用に適用される。さらなる例として、本出願中で使用されている「回路」なる用語は、同様にプロセッサ(または多数のプロセッサ)または一つのプロセッサの一部分、およびその(またはそれらの)随伴するソフトウェアおよび/またはファームウェアの実装をもカバーするものと考えられる。「回路」なる用語は、同様に、一つの例として、および特定のクレーム要素に該当する場合には、モバイル・フォン用のベースバンド集積回路またはアプリケーション・プロセッサ集積回路またはサーバー、セルラ・ネットワーク・デバイスまたは他のネットワーク・デバイス内の類似の集積回路をもカバーするものと考えられる。
図1に例示されているブロック124、126、128は、一つの方法中のステップおよび/またはコンピュータ・プログラム322内のコード・セクションを表わすことができる。ブロックに対する特定の順序の例示は、必ずしも、ブロックについての所要のまたは好ましい順序が存在することを暗示しておらず、ブロックの順序および配置は変動することができる。さらに、いくつかのブロックを削除することも可能であり得る。
[メッセージの提示の制御]
図5Aおよび5Bは、前述の状態マシン200がユーザーによって、および詳細にはシーン140内でのユーザー・アクションによっていかにプログラミングされ得るかを例示している。図5Aは、状態マシン200のための新しい応答状態230(提示状態232)を作成するために新しいユーザー制御状態220(メッセージング状態222)を使用するプロセスを例示している。図5Bは、監視状態210から新しい提示状態232へと移行し213、結び付けられた提示アクションを行なうプロセスを例示している。
前述のように、監視状態210において、センサー110は、センサー・データ112を提供し、処理サブモジュール124は、潜在的意味を有するシーン・データを作成するためにセンサー・データ112(映像および/または音響および/または深度データ)を自動的に処理する。認識サブモジュール126は、シーン・データ内の実際の意味を識別するために、シーン・データを自動的に処理する。
例えば、再び図1を参照すると、メッセージ170を、シーン内の1つ以上の提示基準および物理ロケーション180と結び付けることができる。認識サブモジュール126は、1つ以上の提示基準の充足を自動的に認識するために、シーン・データを自動的に処理することができる。1つ以上の提示基準の充足の認識に応答して、状態マシン200は、提示エンジン160による物理ロケーション180におけるシーン140内へのメッセージ170の自動的提示を可能にする提示状態232を入力する。
提示エンジン160の例は、メッセージを視覚的に提示する可視提示エンジン、メッセージを視覚的に提示する可聴提示エンジンおよび、メッセージを接触を介して提示する触覚提示エンジンを含むことができる。
メッセージを提示する目的のためだけに、またはいくつかの他の目的のために、提示エンジンを提供することができる。
可視提示エンジンの例には、非限定的に、シーン140内でメッセージ170を表示するシーン140内の視覚表示スクリーン、および例えば壁および床などのシーン140内の表面上など、シーン140内でメッセージ170を投影する1つ以上の視覚プロジェクタが含まれる。
[メッセージング状態]
再び図5Aを参照すると、監視状態210において、センサー110は、センサー・データ112を提供し、処理サブモジュール124は、潜在的意味を有するシーン・データを作成するためにセンサー・データ112(映像および/または音響および/または深度データ)を自動的に処理する。認識サブモジュール126はシーン・データを自動的に処理する。
認識サブモジュール126は、状態をメッセージング状態222に変化させるためユーザー入力コマンドとしてシーン・データ112内でユーザーにより作成されたメッセージング・シンボルを認識することにより、シーン140内でメッセージング事象が発生した時点を決定する。制御サブモジュール128は、メッセージング状態222に移行すること211によって、この決定に対して自動的に応答する。例えばメッセージング状態222が入力されたことの可聴または可視的確認などのフィードバック標示を、ユーザーに提供することができる。
例えば、センサー・データ112から取得した映像データ、音響データおよび深度データのうちのいずれか1つ以上を用いて、メッセージング・シンボルを定義することができる。
必ずしも全てではないが、いくつかの実施例において、メッセージング・シンボルを認識するために、映像データのみが使用される。この実施例において、メッセージング・シンボルは、先に説明したように、追跡対象のユーザーにおける基準フレームとの関係における追跡対象のユーザーのモーションによって定義される、時間的に推移しシーンとは独立したシンボル・シーケンスであることができる。メッセージング・シンボルの一例は、ジェスチャー・ユーザー入力である。
必ずしも全てではないが、いくつかの実施例において、メッセージング・シンボルを認識するために、音響データおよび/または深度データが使用される。この実施例において、メッセージング・シンボルは、追跡対象ユーザーのアクションによって定義される、時間的に推移しシーンとは独立したシンボル・シーケンスであることができる。例えば、深度マップを決定することができ、次にユーザーの変化する体の位置を、マシン学習を用いて推論することができる。これは、例えば、毎秒およそ30フレームの速度で行なうことができる。ユーザーの関節の位置は出力として生成され、ユーザーの関節の位置を含むシンボルとしてジェスチャーを定義することができる。音響入力の場合、検出可能なジェスチャーの一例は、手をたたくことであり得る。
必ずしも全てではないが、いくつかの実施例において、認識サブモジュール126は、メッセージング事象がシーン140内で発生したことを決定でき、異常挙動などの異常な状況または認識された人についての異常挙動を検出するかまたは認識されていない人を検出した場合に、メッセージング状態222へと移行する211ことができる。異常の認識は、シーン140の履歴監視に基づくものであることができる。
プログラム・トリガー
メッセージング状態222において、ユーザーは、シーン140内でアクションを行なうことにより、新しい「応答事象」(提示事象)および対応する新たな応答シンボル(提示シンボル)を定義し、図5Bに例示されているように、状態マシン200内で新しい応答状態(提示状態232)を作成することができる。
メッセージング状態222では、システム100は、1つ以上の提示基準、物理ロケーション180、およびメッセージ170の構成(コンテンツ)のうちの1つ以上のユーザー・プログラミングを可能にするため、シーン140内のユーザー・アクションに関するシーン140からの記録されたセンサー・データ112を自動的に処理する。
ユーザー・プログラミング中、システム100は、提示エンジン160を用いたプログラミングのためのユーザー・インターフェースを提供することができる。提示エンジン160は例えば、メニュまたはキーボードなどとして選択可能なオプションを提示することができる。ユーザーは、それぞれのオプションに関するポインティングなどのジェスチャーを行なうことにより、異なるオプションを選択することができる。
必ずしも全てではないが、いくつかの実施例において、ユーザー・アクションは、発話を含むことができ、記録されたセンサー・データの処理は、発話認識処理を含む。例えば発話することによって、ユーザー・プログラミングを達成することができる。
必ずしも全てではないが、いくつかの実施例において、ユーザー・アクションは、追跡対象ユーザーにおける基準フレームとの関係における追跡対象ユーザーのモーションによって定義される、時間的に推移しシーンとは独立したシンボル・シーケンスを含むことができる。ユーザー・プログラミングは、例えば空間内の文字描画によって達成できる。
シーン140内のユーザー・アクションにより、1つ以上の提示基準を決定することができる。
必ずしも全てではないが、いくつかの実施例において、1つ以上の提示基準は、
シーン140内のオブジェクトまたは人の存在、
シーン140内のオブジェクトまたは人の特定の分類または識別、
シーン140内のオブジェクトまたは人の特定の追跡、
シーン140内のオブジェクトまたは人の特定の位置付け、
シーン空間の特定の深さマップ、および/または
シーン140内で発生する事象を描写する特定の決定されたシンボル、
のうちの1つ以上を含むことができる。
多数の基準が使用される場合には、これらの基準を、ブール論理を用いて組合せることができる。例えば、基準のうちの1つだけの達成が必要である場合の代替基準を、「OR」を用いた組合せとして定義することができる。例えば、多数の基準の充足が必要である場合の必要基準を「AND」を用いた組合せとして定義することができる。当該技術分野において知られているように、他の組合せの内部で組合せをネスティングすることによって、複雑な論理的表現を作成できるということが分かるだろう。
必ずしも全てではないが、いくつかの実施例において、ユーザーにより定義される1つ以上の提示基準が、メッセージ170の提示のために必要な条件であることができる。
必ずしも全てではないが、いくつかの実施例において、ユーザーにより定義される1つ以上の提示基準が、メッセージ170の提示のための必要かつ充分な条件であることができる。
一つの例として、1つ以上の提示基準は、少なくとも1つの人特定的提示基準を含むことができる。システム100は、シーン140内の特定の人を自動的に認識するためにシーン140からの記録されたセンサー・データ112を処理することにより、1つ以上の提示基準の充足を自動的に認識するためにシーン140からの記録されたセンサー・データ112を処理する。これは、顔認識処理および/または音声認識処理を行なうことによって達成可能である。
一つの例として、1つ以上の提示基準は、少なくとも1つの挙動特定的提示基準を含むことができる。システム100は、シーン140内の特定の人を自動的に認識するためにシーン140からの記録されたセンサー・データ112を処理することにより、1つ以上の提示基準の充足を自動的に認識するためにシーン140からの記録されたセンサー・データ112を処理する。これは、マシン・ビジョン処理、空間解析処理、挙動解析処理、発話認識処理、および/または顔認識処理を行なうことによって達成可能である。このようにして、シーン140内の挙動またはアクティビティおよび該当する場合にはそのアクティビティに関与する人を特徴付けすることが可能であり得る。
1つ以上の提示基準は、メッセージ170がシーン140内で提示される前の充足のために必要である他の条件を含むことができる。
例えば、1つ以上の提示基準は、日付または時刻または遅延または持続時間を規定する1つ以上の時間基準を含むことができる。例えば、メッセージ170を、その日付および/またはその時刻においてのみ、シーン内で提示することができる。
代替的には、例えば、メッセージ170を遅延の後にのみシーン内で提示することができる。例えば、該持続時間の間のみメッセージ170を提示することができる。
シーン140内でのメッセージ170の提示を制御するために使用される1つ以上の提示基準のいくつかまたは全てとしての選択のために1つ以上の提示基準をユーザーに提案するように、システム100を構成することができる。
例えば、ユーザーの物理ロケーション、通常シーン140内にいるかまたはシーン140内のユーザー・ロケーションにいる人、メッセージのコンテンツのうちの1つ以上に基づいて、提案された提示基準を自動的に決定することができる。
例えば、物理ロケーション180がユーザー・ロケーションであることを決定することができる。物理ロケーション180を、1つ以上の提示基準のうちの1つとして使用することができる。
プログラム提示
メッセージング・状態222において、ユーザーは、シーン140内で追加のアクションを行なうことによって、新しい提示状態232と結び付けられた応答アクション(提示アクション)を定義する能力を有することができる。
提示アクションは、例えば、物理ロケーション180におけるユーザーが決定したコンテンツを有するメッセージを提示であることができる。
シーン140内の物理ロケーション180は、ユーザー・アクション中のユーザーのロケーションおよびメッセージのコンテンツのうちの1つ以上に基づいて自動的に決定できる。
提示アクションのプログラミングは、特定の提示アクションに結び付けられた所定のアクション・シンボルの認識サブモジュール126による自動認識を可能にするため、シーン140のセンサー・データ112(映像および/または音響および/または深度データ)をプロセッサ・サブモジュール124において自動的に処理することによって、メッセージング状態222で発生することができる。前記認識に応答して、制御サブモジュール128は、提示状態232が入力された時定で提示アクションが行なわれるように状態マシン200をプログラミングする。
所定のアクション・シンボルは、追跡対象ユーザーにおける基準フレームとの関係における追跡対象ユーザーのモーションによって定義される、時間的に推移しシーンとは独立したシンボル・シーケンスであることができる。所定のアクション・シンボルは、ユーザー入力ジェスチャーであることができる。例えば、深度マップを決定することができ、次にユーザーの変化する体の位置を、マシン学習を用いて推論することができる。これは、例えば、毎秒およそ30フレームの速度で行なうことができる。ユーザーの関節の位置は出力として生成され、ユーザーの関節の位置を含むシンボルとしてジェスチャーを定義することができる。
したがって、ユーザーは、空間内に文字を描画することおよび/または発話することおよび/または提示エンジン160を介して提供されるユーザー・インターフェースを使用することによって、シーン140内からのメッセージを構成する能力を有することができる。シーン140からの記録されたセンサー・データ112は、メッセージ170を作成するために処理される。
必ずしも全てではないが、いくつかの実施例において、メッセージ170は、テキスト・メッセージであることができる。
[監視状態への復帰]
再び図5Aを参照すると、メッセージング状態222から監視状態210に戻る移行212は、多くの方法で発生することができる。いくつかの実施例において、それは、ユーザーが新しい提示状態232の作成およびその新しい状態232へと移行するための提示事象を制御した後に自動的に発生することができ、または可聴事象などのユーザー・アクションに応答して発生することができる。他の実施例においては、それは、提示状態232と結び付けられた提示アクション(メッセージ170および/または物理ロケーション180)をユーザーが付加的にプログラミングした後に、自動的に発生することができる。
[提示状態]
図5Bを参照すると、前述のように、監視状態210において、センサー110は、センサー・データ112を提供し、処理サブモジュール124は、潜在的意味を有するシーン・データを作成するためにセンサー・データ112(映像および/または音響および/または深度データ)を自動的に処理する。認識サブモジュール126は、シーン・データ内の実際の意味のある事象を識別するため、シーン・データを自動的に処理する。意味のある事象が、例えば「提示」事象である場合には、状態マシン200は提示状態232へと移行213し、制御サブモジュール128は、該提示状態232と結び付けられた提示アクションを行なう。
システム100は、メッセージ170を、シーン140内の物理ロケーション180および1つ以上の提示基準と結び付ける。システム100は、1つ以上の提示基準の充足を自動的に認識するためにシーンからの記録されたセンサー・データ112を自動的に処理し、1つ以上の提示基準の充足の認識に応答して、提示状態232を入力する。提示状態232は、物理ロケーション180におけるシーン140内へのメッセージ170の自動的提示を可能にする。
1つ以上の提示基準は、少なくとも1つの人特定的提示基準を含むことができる。このとき、1つ以上の提示基準の充足を自動的に認識するためにシーン140からの記録されたセンサー・データ112を処理することは、シーン140内の特定の人を自動的に認識するためにシーン140からの記録されたセンサー・データ112を処理することを含む。
1つ以上の提示基準は、前述のように、メッセージング状態222において所定のものであることができる。
物理ロケーション180は、前述のように、メッセージング状態222において所定のものであることができる。
メッセージ170は、前述のように、メッセージング状態222において所定のものであることができる。
メッセージ170が制限された持続時間の間一時的にシーン140内で提示されるように、提示状態232を一時的に入力することができる。
物理ロケーション180におけるシーン140内のメッセージ170の提示は、前述のように、物理ロケーション180においてディスプレイからのメッセージ170を表示することおよび/または物理ロケーション180で表面上にメッセージを投影することを含むことができる。
提示状態232において、ユーザーは、シーン140内で追加のアクションを行なうことにより、1つ以上の提示基準、物理ロケーション180、およびメッセージ構成のうちの1つ以上を再プログラミングする能力を有することができる。
提示状態232において、ユーザーは、シーン140内で追加のアクションを行なうことにより、状態マシン200を再プログラミングする能力を有することができる。
例えば、ユーザーは、メッセージ170が読み取られたことを確認することができ、これは、そのユーザーまたは任意のユーザーに対するそのメッセージ170の将来にわたる提示を妨げるという結果をもたらすことができる。ユーザーは、メッセージ170が(彼女のために)読み取られたことを確認することができ、これは、彼女に対するそのメッセージ170の将来にわたる提示を妨げるという結果をもたらすことができる。ユーザーは、メッセージ170が(全ての人のために)読み取られたことを確認することができ、これは、他の誰かに対するそのメッセージ170の将来にわたる提示を妨げるという結果をもたらすことができる。
例えば、ユーザーは、メッセージ170を拒絶することができる。これは、そのユーザーに対するそのメッセージ170の将来にわたる提示を妨げるという結果をもたらすことができる。その結果、1つ以上の提示基準および/または物理ロケーションおよび/またはメッセージ構成が変更され得る。例えば、これは、後に、同じ/異なるメッセージ170を同じ/異なる物理ロケーション180において異なるユーザーに提示させることができる。
例えば、ユーザーは、特定の人に対しメッセージ170をデリゲートすることができる。ユーザーは、その特定の人を識別することができ、システム100はその特定の人を自動的に識別することができる。これは、ユーザーに対するそのメッセージ170の将来にわたる提示を妨げるという結果をもたらすことができる。その結果、1つ以上の提示基準および/または物理ロケーションおよび/またはメッセージ構成が変更され得る。例えば、これは、後に、同じ/異なるメッセージ170を同じ/異なる物理ロケーション180において特定の人に提示させることができる。
提示状態232において、ユーザーがシーン140内で追加のアクションを行ない、1つ以上の提示基準、物理ロケーション180、およびメッセージ構成のうちの1つ以上を再プログラミングする場合、これらのアクションは、全ての状況下で、1つ以上の提示基準、物理ロケーション180、およびメッセージ構成のうちの1つ以上を再プログラミングするために使用できる専用再プログラミング・アクションであることができる。すなわち、同じ再プログラミング・アクションが全ての提示状態のために使用される。例えば、提示されたメッセージ170を確認するための一般的ジェスチャー、提示されたメッセージ170を拒絶するための異なる一般的ジェスチャー、および提示されたメッセージ170をデリゲートするための異なる一般的ジェスチャーが存在できる。
代替的には、他の実施例において、これらの追加のアクションは、この特定の提示状態232だけのために定義される再プログラミング・アクションであることができる。例えば、提示されたメッセージ170は、ユーザーが特定の挙動を行なうことを要求することができる。この挙動の実行が認識された場合、それは、ユーザー確認として自動的に使用されることができる。上述のように、これは、そのユーザーまたは任意のユーザーに対するそのメッセージの将来にわたる提示を妨げるという結果をもたらすことができる。
本発明をより良く理解するために、家庭、事務所、工場または公共の環境内で本発明をいかに使用できるかのいくつかの実施例を以下で提供する。ただし、本発明は、これらの実施例に限定されない。
一実施例において、サーベイランス・カメラ114がアパートの内部に組付けられる。サーベイランス・カメラ114は、映像データおよび光学的深度データおよび光学的音響データについての解析アルゴリズムを実行するコンピュータ・システムに接続される。解析は、映像データに対し適用される顔認識および任意には音響データに対して適用される発話者認識方法を用いた人の認識を含む。
システムは同様に、人のアクティビティも監視する。典型的な認識されるアクティビティとしては、歩行、起立、花の水やり、ごみ出し、皿洗い、洗濯、窓ふき、床掃除、プリンタへの用紙補充などが含まれる可能性がある。認識されるアクティビティは、システム100が展開されている状況、例えばそれが工場の床であるか人の自宅であるかに依存することができる。
システム100は同様に、人のジェスチャーを監視する。典型的なジェスチャーには、壁に手を保持すること、壁面ディスプレイとインタラクトすること、例えば投影されたボタン・アイコンを押すこと、または文字を書込むこと、が含まれる。
ユーザー(夫)が植木鉢に歩いて近づき、映像サーベイランス・システム100によって認識される。ユーザーは、手を壁に置き、数秒間そこに手を保持する。これは、映像サーベイランス・システム100によって認識され、システムはユーザーに対し、ユーザーがその妻にメッセージ170を残したいか否かをプロンプトする。
一実施形態において、メッセージ170の提示は、情報を壁または床上に投影できるようにする1つ以上のプロジェクタ160を用いて行なわれる。いくつかの他の実施形態においては、コンピュータ・ディスプレイまたはTVモニターなどの上にメッセージを示すことができると考えられる。
システム100は、妻が植木鉢に水をやりながら植木鉢のロケーションの近くで何度もインタラクトしたことをアクティビティ監視データに基づいて観察したことから、妻に対しメッセージ170を残すことを自動的に提案する。
この場合、ユーザー(夫)は、妻に花の水やりを求めるメッセージ170を妻に残すことを決断する。
ユーザーは、(ジェスチャー認識方法によって認識される)ジェスチャーで壁上に文字を作成することによって、または発話認識技術を用いて認識可能な音声プロンプトをシステム100に与えることによって、メッセージ170を残す。メッセージ170は壁上に投影される。
いくつかの実施形態において、システム100は、メッセージのコンテンツおよび/またはメッセージ170が残される物理ロケーション180に基づいて、メッセージ170の受信者を自動的に提案することができる。メッセージ170が植木鉢の近くに残されている場合、システム100は、最も頻繁に花とインタラクトするユーザーを決定することができる。システム100は、提案された受信者を壁上に投影された形で示すことができ、ユーザーは、受信者の名前の上にスワイプ・ジェスチャーを適用することにより受信者間で選択または変更を行なうことができる。
任意には、システム100は、テキスト・コンテンツ解析を用いてメッセージ・コンテンツを解析する。詳細には、システム100は、メッセージ内に言及されたアクションが存在するか否かを決定するために、メッセージ内のテキスト・コンテンツを解析することができる。この場合、メッセージ内に「花に水やり」のアクションが含まれている。
ユーザー(夫)は立ち去り、メッセージ170は消失する。システム100は、ユーザーが立ち去ったことを認識し、メッセージ170をフェード・アウェイさせるか、または、ユーザーが所定の時間中メッセージ170とのインタラクションを停止した後、自動的にフェード・アウェイする。
妻がアパートに到着し植木鉢の近傍まで歩いた場合、妻を認識するために人認識方法が使用され、妻が植木鉢の近くにいることを認識するためにアクティビティ認識が使用される。
システム100は、人を認識した後、この人向けのメッセージ170が存在するか否かをチェックすることができる。
任意には、システム100は、ユーザーの特定のロケーションと結び付けられたメッセージ170が存在するか否かをチェックすることができる。
提供すべきメッセージ170が存在する場合、システム100は、そのメッセージに関与するアイテムの近くで、壁または天井にメッセージを表示するためにプロジェクタ160を使用する。
メッセージ170を提示した後、システム100は、ひきつづき、ユーザーのアクティビティを監視する。詳細には、システム100は、メッセージ170を受け取ったばかりのユーザーのアクティビティを監視し続ける。一実施形態において、メッセージの受信者は、メッセージ170上またはメッセージ170の近傍に手でチェック・マークを描画することなどのジェスチャーを提供することによって、メッセージを確認することができる。この場合、メッセージは消失し、再び示されることはなく、それは完了したものとして確認される。ユーザーは同様に、例えばメッセージ170の頂部にジェスチャーで十字形を描画することなどにより、ジェスチャーでメッセージ170を拒絶することもできる。この場合、メッセージ170は、誰かがそれを確認したものとしてマークするまで、別のユーザーまたは同じユーザーに異なる時点で、再び示されることが可能である。メッセージ170が別のユーザーに関係するものであると考えた場合、ユーザーは、それをさらにデリゲートすることができる。例えば、ユーザーは、あたかもメッセージ170を掴み取るかのようなジェスチャーを行ない、次にそれを側方向にわずかに引っ張ることができる。結果として、システム100は、別のユーザーにデリゲートするオプションを提起し、考えられる他の受信者のリストを示すことができる。他の受信者は、メッセージ170中で言及されているアクティビティを頻繁に行ない、および/またはメッセージ170中で言及されているオブジェクトとインタラクトする他の人として、決定されることができる。
別の実施形態において、システム100は、センサー・データ112についてのアクティビティ認識を実行し、妻がメッセージ170内に言及されているアクションを実行したことを決定する。システム100は、それ以前にメッセージ170が花の水やりを含んでいたことを決定するためにテキスト・コンテンツ解析を使用した。この場合、システム100は、メッセージ170が関係していたアクティビティを妻が行ない始めるか否かを決定するため、ユーザー・アクティビティを解析する。妻は今花に水をやっていることから、システム100は、これを検出し、メッセージ170をフェード・アウェイさせる。
いくつかの実施形態において、システム100は、メッセージ170を残すことを自動的に提案することができる。詳細には、ユーザーが、所定の時間の間、アイテム(トイレット・ペーパー・ホルダー、植木鉢)を見ている場合、システム100は、このアイテムを考慮するメッセージ170を残すべきか否か、自動的に提案/質問する。アイテムを見る行為は、サーベイランス・システム100内のアクティビティ認識を用いて検出される。
いくつかの実施形態において、システム100は、この種の状況にある異なる人(最近花に水をやった人)の過去のインタラクションに基づいて、メッセージの受信者を提案することができる。
システム100は、現場でまたは遠隔でのいずれの形でも使用可能である。
いくつかの実施形態において、システム100は、異常な状況を検出し、それを次にユーザーに強調表示するために使用される。強調表示は、異常な状況が関係するオブジェクトの近くにメッセージ170を投影することを意味することができる。例えば、花がしおれている場合、サーベイランス・システム100のプロジェクタ160で植木鉢を強調表示することができると考えられる。ユーザーがユーザー・インターフェースを介して遠隔でシステム100にアクセスしている場合、植木鉢とマッチングするユーザー・インターフェース上の部分を強調表示できると考えられる。
システム100は、(行なわれる必要のあるアクションの近くで)メッセージ170に好適なロケーションを自動的に選択することができる。システム100は、メッセージ170のテキスト・コンテンツを解析し、メッセージ170が関係するのはどのオブジェクトまたはアクティビティであるかを決定する。この決定に基づいて、システムは、例えばオブジェクトのロケーションの近く、またはアクティビティが典型的に行なわれるところなど、メッセージ170に好適な物理ロケーション180を決断する。
各メッセージ170は、その後はもう提示されなくなる一定の有効期間を有することができる。有効期間は、システムの選好性において定義でき、または、ユーザー自身が有効期間を設定することができる。
代替的には、システム100は、メッセージがもはや関連性がないものであることを自動的に決定することができる。例えば、より多くの食料の購入に関するメッセージ170が存在し、次に誰かが食料品を持って来て冷蔵庫に入れた場合、メッセージ170を自動的に削除することができる。
メッセージ170は同様に、タイミング情報と共に残される可能性もある。花の水やりの例では、夫は、旅行に出かけようとしている可能性があり、旅行中(現在から1週間)に一回花に水やりして欲しいと考えている。タイミング情報は、メッセージ内にテキストとして入力可能である。「花に水をやって下さい。(翌水曜日)」。これにより、メッセージは、メッセージ170内に標示された時間中のみ示されることになる。上述の例示的メッセージ「花に水をやって下さい。(翌水曜日)」に関して言うと、このメッセージは、規定された日付(翌水曜日)にのみ、妻に示されることになる。
家族の他のメンバーに対して、「花に水をやって下さい」、「トイレット・ペーパーがなくなりました」などの一時的メッセージ170を残すため、または事務所、工場、店舗または他の仕事場の中の他の労働者に対して、例えば「プリンタに用紙を追加して下さい」、「コーヒーが切れています」、「この機械には注油が必要です」、「この部品は在庫切れです」などの一時的メッセージ170を残すために、システム100を使用することができる。
以上の実施例において、メッセージング状態220において発生する映像捕捉が、監視状態210において発生する映像監視と同じシーン140に関するものであることができるという点を、認識すべきである。事実、メッセージング状態220において発生する映像捕捉は、監視状態210において発生する映像監視と同じカメラによるものであることができる。
本願明細書中では、「comprise(備える、含む)」なる用語は、排他的な意味ではなく包括的な意味で使用されている。すなわち、「Yを含むX」との表現は、Xが1つだめYを含む、または、2つ以上のYを含むことができることを示す。排他的な意味で「comprise」を使用することが意図されている場合には、「1つのみを含む(comprising only one)」に表現することによって、または「〜で構成されている(consisting)」を使用することによって、そのことが文脈内で明白にされる。
本願明細書の説明において、さまざまな実施例が参照されてきた。1つの実施例に関係する特徴または機能の説明は、これらの特徴または機能がその実施例中に存在することを標示する。テキスト中の「example(実施例)」または「for example(例えば)」または「may(〜できる)」なる用語の使用は、明示的に述べられているか否かに関わらず、このような特徴または機能が、実施例として記載されているか否かに関わらず少なくとも記載された実施例の中に存在すること、およびそれらが、必ずしもそうであるわけではないものの、他の実施例のいくつかまたは全てにおいて存在し得ることを意味する。こうして、「example」、「for example」、または「may」は、実施例集合中の特定のインスタンスを意味する。インスタンスの特性は、このインスタンスのみの特性または、この集合の特性、またはこの集合のインスタンスの全てではないもののいくつかのインスタンスを含むこの集合の下位集合の特性であり得る。したがって、1つの実施例に関連して説明されたものの別の実施例に関連しては説明されていない特徴は、可能な場合、そのもう一方の実施例中で使用され得るものの、必ずしもそのもう一方の実施例の中で使用されなければならない訳ではない、ということが暗示的に開示される。
以上の段落では、本発明の実施形態がさまざまな実施例に関連して説明されてきたが、提供された実施例に対し、請求されている本発明の範囲から逸脱することなく、修正を加えることができる、ということを認識すべきである。
先の説明において記載されている特徴は、明示的に説明された組合せ以外の組合せでも使用することができる。
一定の特徴に関連して機能を説明してきたが、これらの機能は、記載されているか否かに関わらず他の特徴によって行なうことができる。
一定の実施形態に関連して特徴を説明してきたが、これらの特徴は、記載されているか否かに関わらず、他の実施形態にも同様に存在することができる。
以上の明細書の記載において、特に重要であると考えている本発明の特徴が注目されるよう努めてきたが、特に強調されているか否かに関わらず、出願人は、上で述べられ、または、図面中に示されたあらゆる特許性のある特徴または特徴の組合せに関する保護を請求するものであることが、理解されなければならない。

Claims (15)

  1. 1つ以上の提示基準およびシーン内の物理ロケーションとメッセージを結び付けるステップと、
    前記1つ以上の提示基準の充足を自動的に認識するために前記シーンからの記録された第1のセンサー・データを自動的に処理するステップと、
    前記1つ以上の提示基準の充足の認識に応答して、
    前記物理ロケーションにおける前記シーン内への前記メッセージの自動的提示、
    を可能にするために、提示状態を入力するステップと、
    を含む方法。
  2. 前記1つ以上の提示基準は少なくとも1つの人特定的提示基準を含み、前記1つ以上の提示基準の充足を自動的に認識するために前記シーンからの記録された第1のセンサー・データを処理するステップは、前記シーン内の特定の人を自動的に認識するために前記シーンからの記録された第1のセンサー・データを処理するステップを含む、請求項1に記載の方法。
  3. 前記1つ以上の提示基準は少なくとも1つの挙動特定的提示基準を含み、前記1つ以上の提示基準の充足を自動的に認識するために前記シーンからの記録された第1のセンサー・データを処理するステップは、前記シーン内の特定の挙動を自動的に認識するために、前記シーンから記録された第1のセンサー・データを処理するステップを含む、請求項1ないし2のいずれか1項に記載の方法。
  4. 前記1つ以上の提示基準は、
    前記シーン内のオブジェクトまたは人の存在、
    前記シーン内のオブジェクトまたは人の特定の分類または識別、
    前記シーン内のオブジェクトまたは人の特定の追跡、
    前記シーン内のオブジェクトまたは人の特定の位置付け、
    前記シーン空間の特定の深さマップ、および/または
    前記シーン内で発生する事象を描写する特定の決定されたシンボル、
    のうちの1つ以上を含む、請求項1ないし3のいずれか1項に記載の方法。
  5. 前記1つ以上の提示基準は、日付、時刻、遅延、持続時間のうちの1つ以上を特定する時間基準を含む、請求項1ないし4のいずれか1項に記載の方法。
  6. 1つ以上の提示基準、
    物理ロケーション、
    メッセージ構成、
    のうちの1つ以上をユーザー・プログラミングがプログラミングできるようにするために、前記シーン内のユーザー・アクションに関する前記シーンからの記録されたセンサー・データを自動的に処理するステップ、
    を含む、請求項1ないし5のいずれか1項に記載の方法。
  7. 前記ユーザー・アクションは発話を含み、前記記録されたセンサー・データの処理ステップは発話認識処理を含む、請求項6に記載の方法。
  8. 前記ユーザー・アクション中の前記ユーザーのロケーション、前記メッセージのコンテンツ、
    のうちの1つ以上に基づいて前記シーン内の前記物理ロケーションを決定するステップを含む、請求項6または7に記載の方法。
  9. 前記少なくとも1つの提示基準の充足を自動的に認識するために前記シーンからの前記記録された第1のセンサー・データを自動的に処理するときに使用される、
    前記1つ以上の提示基準のいくつかまたは全てとして選択するための1つ以上の提示基準をユーザーに対して提案するステップを含む、請求項1ないし8のいずれか1項に記載の方法。
  10. 提案される提示基準は、
    前記ユーザーの物理ロケーション、
    一般に前記シーン内、または前記シーン内でユーザー・アクションを行なうユーザーのロケーションにいる、1人または複数の人、および
    前記メッセージのコンテンツ、
    のうちの1つ以上に基づいて決定される、請求項1ないし9のいずれか1項に記載の方法。
  11. 前記メッセージの構成を可能にするために前記シーンからの記録されたセンサー・データを処理するステップを含む、請求項1ないし10のいずれか1項に記載の方法。
  12. 1つ以上の提示基準、
    前記物理ロケーション、
    前記メッセージ構成、
    のうちの1つ以上の定義を可能にすることを目的としてメッセージング状態の自動入力を可能にするため、前記シーンからの記録されたセンサー・データを自動的に処理するステップ、
    を含む、請求項1ないし11のいずれか1項に記載の方法。
  13. 前記物理ロケーションにおける前記シーン内への前記メッセージの提示は、前記物理ロケーションにおいてディスプレイからの前記メッセージを表示するステップおよび/または前記物理ロケーションにおいて表面上に前記メッセージを投影するステップを含む、請求項1ないし12のいずれか1項に記載の方法。
  14. 1つ以上の提示基準、
    前記物理ロケーション、
    前記メッセージ構成、
    のうちの1つ以上の前記シーン内におけるアクティビティの結果としての再プログラミングを可能にするステップを含む、請求項1ないし13のいずれか1項に記載の方法。
  15. 請求項1ないし14のいずれか1項に記載の方法を行なうための手段を備えた装置またはシステム。
JP2017540151A 2015-01-30 2016-01-20 サーベイランス Active JP6568224B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
EP15153375.9A EP3051810B1 (en) 2015-01-30 2015-01-30 Surveillance
EP15153375.9 2015-01-30
PCT/FI2016/050025 WO2016120520A1 (en) 2015-01-30 2016-01-20 Surveillance

Publications (2)

Publication Number Publication Date
JP2018510537A true JP2018510537A (ja) 2018-04-12
JP6568224B2 JP6568224B2 (ja) 2019-08-28

Family

ID=52464175

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017540151A Active JP6568224B2 (ja) 2015-01-30 2016-01-20 サーベイランス

Country Status (7)

Country Link
US (1) US10936880B2 (ja)
EP (1) EP3051810B1 (ja)
JP (1) JP6568224B2 (ja)
CN (1) CN107211113B (ja)
MX (1) MX2017009797A (ja)
WO (1) WO2016120520A1 (ja)
ZA (1) ZA201705736B (ja)

Families Citing this family (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3051810B1 (en) 2015-01-30 2021-06-30 Nokia Technologies Oy Surveillance
US10547658B2 (en) * 2017-03-23 2020-01-28 Cognant Llc System and method for managing content presentation on client devices
US11004567B2 (en) 2017-08-15 2021-05-11 Koko Home, Inc. System and method for processing wireless backscattered signal using artificial intelligence processing for activities of daily life
CN107846578A (zh) * 2017-10-30 2018-03-27 北京小米移动软件有限公司 信息订阅方法及装置
WO2020028040A1 (en) 2018-07-30 2020-02-06 Carrier Corporation Method for activating an alert when an object is left proximate a room entryway
KR20200020590A (ko) * 2018-08-16 2020-02-26 한화테크윈 주식회사 시각화된 객체에서 특정영역의 소리를 추출하는 감시 카메라 시스템 및 그 동작 방법
US11997455B2 (en) 2019-02-11 2024-05-28 Koko Home, Inc. System and method for processing multi-directional signals and feedback to a user to improve sleep
US11971503B2 (en) 2019-02-19 2024-04-30 Koko Home, Inc. System and method for determining user activities using multiple sources
US10810850B2 (en) 2019-02-19 2020-10-20 Koko Home, Inc. System and method for state identity of a user and initiating feedback using multiple sources
CN110097725A (zh) * 2019-05-07 2019-08-06 上海墨工文化传播有限公司 一种场景信息自动识别系统
US11240635B1 (en) * 2020-04-03 2022-02-01 Koko Home, Inc. System and method for processing using multi-core processors, signals, and AI processors from multiple sources to create a spatial map of selected region
US11184738B1 (en) 2020-04-10 2021-11-23 Koko Home, Inc. System and method for processing using multi core processors, signals, and AI processors from multiple sources to create a spatial heat map of selected region

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11197116A (ja) * 1998-01-08 1999-07-27 Mitsubishi Electric Corp 健康管理装置
JP2005056213A (ja) * 2003-08-06 2005-03-03 Matsushita Electric Ind Co Ltd 情報提供システム、情報提供サーバ、情報提供方法
JP2005275842A (ja) * 2004-03-25 2005-10-06 Advanced Telecommunication Research Institute International 情報提示システム
JP2005303832A (ja) * 2004-04-14 2005-10-27 Nec Corp 携帯端末装置、着信応答メッセージ送信方法およびサーバ装置
JP2009177554A (ja) * 2008-01-25 2009-08-06 Bee:Kk 被写体情報編集システム
JP2011253375A (ja) * 2010-06-02 2011-12-15 Sony Corp 情報処理装置、および情報処理方法、並びにプログラム
JP2013088906A (ja) * 2011-10-14 2013-05-13 Cyber Ai Entertainment Inc 画像認識システムを備えた知識情報処理サーバシステム
JP2014089524A (ja) * 2012-10-29 2014-05-15 Sharp Corp メッセージ管理装置、メッセージ提示装置、メッセージ提示システム、メッセージ管理装置およびメッセージ提示装置の制御方法、制御プログラム、および記録媒体

Family Cites Families (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6061659A (en) * 1997-06-03 2000-05-09 Digital Marketing Communications, Inc. System and method for integrating a message into a graphical environment
US8725567B2 (en) * 2006-06-29 2014-05-13 Microsoft Corporation Targeted advertising in brick-and-mortar establishments
EP2147514A4 (en) * 2007-05-15 2012-12-12 Intel Corp METHOD AND SYSTEM FOR PUBLIC MEASUREMENT AND TARGETED MEDIA
US20100328419A1 (en) * 2009-06-30 2010-12-30 Walter Etter Method and apparatus for improved matching of auditory space to visual space in video viewing applications
US8799037B2 (en) * 2010-10-14 2014-08-05 Palto Alto Research Center Incorporated Computer-implemented system and method for managing motor vehicle parking reservations
US9432631B2 (en) * 2011-04-04 2016-08-30 Polaris Wireless, Inc. Surveillance system
CN102196251B (zh) 2011-05-24 2014-05-21 中国科学院深圳先进技术研究院 智慧城市智能监控方法和系统
US20140306799A1 (en) * 2013-04-15 2014-10-16 Flextronics Ap, Llc Vehicle Intruder Alert Detection and Indication
JP5506989B1 (ja) * 2013-07-11 2014-05-28 パナソニック株式会社 追跡支援装置、追跡支援システムおよび追跡支援方法
CN104065928B (zh) * 2014-06-26 2018-08-21 北京小鱼在家科技有限公司 一种行为模式统计装置与方法
EP3051810B1 (en) 2015-01-30 2021-06-30 Nokia Technologies Oy Surveillance

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11197116A (ja) * 1998-01-08 1999-07-27 Mitsubishi Electric Corp 健康管理装置
JP2005056213A (ja) * 2003-08-06 2005-03-03 Matsushita Electric Ind Co Ltd 情報提供システム、情報提供サーバ、情報提供方法
JP2005275842A (ja) * 2004-03-25 2005-10-06 Advanced Telecommunication Research Institute International 情報提示システム
JP2005303832A (ja) * 2004-04-14 2005-10-27 Nec Corp 携帯端末装置、着信応答メッセージ送信方法およびサーバ装置
JP2009177554A (ja) * 2008-01-25 2009-08-06 Bee:Kk 被写体情報編集システム
JP2011253375A (ja) * 2010-06-02 2011-12-15 Sony Corp 情報処理装置、および情報処理方法、並びにプログラム
JP2013088906A (ja) * 2011-10-14 2013-05-13 Cyber Ai Entertainment Inc 画像認識システムを備えた知識情報処理サーバシステム
JP2014089524A (ja) * 2012-10-29 2014-05-15 Sharp Corp メッセージ管理装置、メッセージ提示装置、メッセージ提示システム、メッセージ管理装置およびメッセージ提示装置の制御方法、制御プログラム、および記録媒体

Also Published As

Publication number Publication date
MX2017009797A (es) 2018-06-07
JP6568224B2 (ja) 2019-08-28
CN107211113B (zh) 2021-09-03
CN107211113A (zh) 2017-09-26
US10936880B2 (en) 2021-03-02
EP3051810A1 (en) 2016-08-03
ZA201705736B (en) 2019-09-25
WO2016120520A1 (en) 2016-08-04
EP3051810B1 (en) 2021-06-30
US20180025232A1 (en) 2018-01-25

Similar Documents

Publication Publication Date Title
JP6568224B2 (ja) サーベイランス
JP6592183B2 (ja) モニタリング
US11429189B2 (en) Monitoring
KR102032662B1 (ko) 장면 공간 모니터링을 통한 사람-컴퓨터 상호 작용
US10144135B2 (en) System, method and computer program product for handling humanoid robot interaction with human
US11188145B2 (en) Gesture control systems
JP6600359B2 (ja) モニタリング
US10444852B2 (en) Method and apparatus for monitoring in a monitoring space
JP2019198077A (ja) 監視
JP2018523231A5 (ja)
CN111919250B (zh) 传达非语言提示的智能助理设备

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170927

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20170927

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20181031

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20181113

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190213

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20190702

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20190801

R150 Certificate of patent or registration of utility model

Ref document number: 6568224

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250