JP2020522828A - コンピュータービジョンベースの監視システムおよび方法 - Google Patents

コンピュータービジョンベースの監視システムおよび方法 Download PDF

Info

Publication number
JP2020522828A
JP2020522828A JP2020510506A JP2020510506A JP2020522828A JP 2020522828 A JP2020522828 A JP 2020522828A JP 2020510506 A JP2020510506 A JP 2020510506A JP 2020510506 A JP2020510506 A JP 2020510506A JP 2020522828 A JP2020522828 A JP 2020522828A
Authority
JP
Japan
Prior art keywords
sensor
designated area
monitoring
local processing
processing system
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2020510506A
Other languages
English (en)
Inventor
ゴンチャロフ,マキシム
ダヴィドフ,ニコライ
ヴェレテニコフ,スタニスラフ
ゴリロブスキー,ドミトリー
Original Assignee
チェリー ラボ,インコーポレイテッド
チェリー ラボ,インコーポレイテッド
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from US15/647,129 external-priority patent/US11037300B2/en
Priority claimed from GBGB1717244.6A external-priority patent/GB201717244D0/en
Application filed by チェリー ラボ,インコーポレイテッド, チェリー ラボ,インコーポレイテッド filed Critical チェリー ラボ,インコーポレイテッド
Publication of JP2020522828A publication Critical patent/JP2020522828A/ja
Pending legal-status Critical Current

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/34Smoothing or thinning of the pattern; Morphological operations; Skeletonisation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/52Surveillance or monitoring of activities, e.g. for recognising suspicious objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/20Movements or behaviour, e.g. gesture recognition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/20Movements or behaviour, e.g. gesture recognition
    • G06V40/23Recognition of whole body movements, e.g. for sport training
    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B13/00Burglar, theft or intruder alarms
    • G08B13/18Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength
    • G08B13/189Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems
    • G08B13/194Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems
    • G08B13/196Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems using television cameras
    • G08B13/19602Image analysis to detect motion of the intruder, e.g. by frame subtraction
    • G08B13/19613Recognition of a predetermined image pattern or behaviour pattern indicating theft or intrusion
    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B13/00Burglar, theft or intruder alarms
    • G08B13/18Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength
    • G08B13/189Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems
    • G08B13/194Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems
    • G08B13/196Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems using television cameras
    • G08B13/19663Surveillance related processing done local to the camera
    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B25/00Alarm systems in which the location of the alarm condition is signalled to a central station, e.g. fire or police telegraphic systems
    • G08B25/01Alarm systems in which the location of the alarm condition is signalled to a central station, e.g. fire or police telegraphic systems characterised by the transmission medium
    • G08B25/08Alarm systems in which the location of the alarm condition is signalled to a central station, e.g. fire or police telegraphic systems characterised by the transmission medium using communication transmission lines
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L9/00Cryptographic mechanisms or cryptographic arrangements for secret or secure communications; Network security protocols
    • H04L9/32Cryptographic mechanisms or cryptographic arrangements for secret or secure communications; Network security protocols including means for verifying the identity or authority of a user of the system or for message authentication, e.g. authorization, entity authentication, data integrity or data verification, non-repudiation, key authentication or verification of credentials
    • H04L9/3226Cryptographic mechanisms or cryptographic arrangements for secret or secure communications; Network security protocols including means for verifying the identity or authority of a user of the system or for message authentication, e.g. authorization, entity authentication, data integrity or data verification, non-repudiation, key authentication or verification of credentials using a predetermined code, e.g. password, passphrase or PIN
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • H04N7/181Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast for receiving images from a plurality of remote sources
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W12/00Security arrangements; Authentication; Protecting privacy or anonymity
    • H04W12/06Authentication
    • H04W12/065Continuous authentication

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Signal Processing (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Human Computer Interaction (AREA)
  • Psychiatry (AREA)
  • Social Psychology (AREA)
  • General Health & Medical Sciences (AREA)
  • Computer Security & Cryptography (AREA)
  • Health & Medical Sciences (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Business, Economics & Management (AREA)
  • Emergency Management (AREA)
  • Alarm Systems (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Studio Devices (AREA)
  • Image Analysis (AREA)

Abstract

監視システムには、指定された領域内のアクティビティを監視するセンサーが含まれる。センサーには、ビデオ録画を行う視覚センサーが含まれる。指定された領域内またはその近くに配置されたローカル処理システムが、センサーから信号を受信する。ローカル処理システムは、センサーからの信号を処理および分析して、センサーによって監視されたように指定された領域内のアクティビティを説明するメッセージを生成する。メッセージには、指定された領域内の人物の身元を直接明らかにする音声、視覚、またはその他の直接識別情報は含まれない。指定された領域外の監視ステーションは、ローカル処理システムによって生成されたメッセージを受信し、そのメッセージを外部監視者が利用できるようにする。【選択図】図1

Description

1.発明の分野
本発明の分野は、監視、セキュリティおよび制御のための電子システムに関する。本発明の一実装は、方法およびコンピュータービジョンシステムからのデータを表すコンピューターベースのシステムに関する。
本特許文書の開示の一部には、著作権保護の対象となる資料が含まれている。著作権所有者は、特許商標局の特許ファイルまたは記録に記載されている通りの特許文献または特許開示のいかなる者によるファクシミリ複製に異議を唱えないが、ただし、それ以外の場合はすべての著作権を留保する。
2.従来技術の説明
カメラ、追加のセンサーを備えたセキュリティ、監視、制御システムを使用して、侵入、火災、煙、洪水などのさまざまな脅威を検出できる。動き検出は、多くの場合、空いているまたは占有されている建物や家庭環境への侵入者を検出するためにも使用される。侵入者の検出により、音声またはサイレントアラームが発生し、セキュリティ担当者に連絡する場合がある。
セキュリティ分野のコンピューターベースの技術が近年急速に発展しているという事実により、カメラと追加のセンサーを備えた非常に多様なセキュリティ、監視および制御システムが存在する。従来のセキュリティ、監視、および制御システムは、ユーザーが、ユーザープロセッサ制御デバイスのディスプレイ上のカメラと追加のセンサーのセットからの情報(ビデオおよび音声信号など)を見ることができる、ユーザーインターフェースユニットを備えてもよい。
一般的なアプローチはビデオおよび音声の情報をスキャンすることであるため、現在のソリューションでは、多くの場合、ユーザーは、人々が監視下の領域で何をしているのか、監視オブジェクトの動作中にどの画面を使用するか、を理解するために、ビデオを見て、音声情報を聞く必要がある。
その結果、このようなシステムのユーザーは、疑わしいものを識別し、GUIを使用して表示された情報に基づいて監視システムに応答する機会を得るために、カメラからのすべてのデータを継続的に見る必要がある場合がある。
さらに、さまざまなカメラからのビデオストリームが、画像のグリッドとして同時にディスプレイに表示される場合がある。そのため、ユーザーはすべての情報を取得して、監視されている領域の状況の概要を受け取るために、画像から画像へ視線を移さなければならないことがよくある。
監視下のエリアで人々が何をしているのかを理解するために、ユーザーがビデオを注意深く見る必要のない、コンパクトで有益な高レベルのインターフェースが必要である。
本発明は、上記の脆弱性、および上記以外の問題にも対処する。
本発明の第1の態様は、監視システムであって、この監視システムが、
指定された領域内のアクティビティを監視するセンサーであって、このセンサーが、視覚センサーまたは画像センサー、たとえば、ビデオ録画を行うセンサーを備える、センサーと、
指定された領域内またはその近くに配置されたローカル処理システムであって、このローカル処理システムがセンサーから信号を受信し、このローカル処理システムがセンサーからの信号を処理および分析して、センサーによって監視されたように指定された領域内のアクティビティを説明するメッセージを生成し、このメッセージは、指定された領域内の人物の身元を直接明らかにする音声、視覚、またはその他の直接識別情報を含まない、ローカル処理システムと、
指定された領域外の監視ステーションであって、この監視ステーションが、ローカル処理システムによって生成されたメッセージを受信し、外部監視者が利用できるようにする、監視ステーションと、を備える監視システムである。
オプションの特徴として、次のいずれかが含まれる。
●メッセージは、指定された領域内で人物または動物が実行したアクションを十分に説明し、外部監視者が、外部介入がいつ必要かを判断できるようにする。
●監視ステーションは、メッセージが、外部介入が必要とされ得ると示す人物または動物によって実行されるアクションを説明するとき、アラームを生成する。
●センサーは、子供、障害者、病人、または老人を監視するために選択される。
●監視ステーションは、ローカル処理システムに
外部監視者からのクエリを転送し、ローカルプロセッサはメッセージで応答し、ここにおいて、メッセージの内容は、センサーからの信号を処理および分析することによって検出された、指定された領域内のアクティビティに基づく。
●メッセージがセンサーによって所定のジェスチャまたは所定のフレーズが検出されたことを示すと、監視ステーションはアラートを生成する。
●監視ステーションは、メッセージが、所定のキャンセルジェスチャまたは所定のキャンセルフレーズがセンサーによって検出されることを示すと、アラートをキャンセルする。
●ローカル処理システムは、以下の技術の少なくとも1つを使用して、ビデオデータに基づいて指定された領域内の人々および動物の身体を内部的に識別する。
顔の特徴を識別して記録する顔指標識別、身体上の衣服のタイプを検出および記録する衣服指標
識別、身体の形状を検出および記録する身体指標識別、
身体の現在のアクティビティを検出および記録するアクティビティ指標識別、ヘアカットスタイルを検出および記録するヘアカット指標識別、
保持しているか、または身体の近くにある物体を検出および記録するツール指標識別
●ローカル処理システムは、指定された領域内の身体に加えられた変更を認識し、影響を受ける指標識別を更新する。
●ローカル処理システムは、識別された身体の運動学的な動きを分析して、物理法則と一致する動きを保証し、身体を内部的に識別する際の矛盾を検出して解決する。
●ローカル処理システムはさらに、音声データを使用して、指定された領域内の人々および動物の身体を内部的に識別し、音声データには、音色の指標と相対的な音の振幅とが含まれる。
●ローカル処理システムは、以下の手法の2つ以上を使用して、ビデオデータに基づいて指定された領域内で人々および動物の身体を内部的に識別する。
顔の特徴を識別して記録する顔指標識別、
身体上の衣服のタイプを検出および記録する衣服指標識別、身体の形状を検出および記録する身体指標識別、
身体の現在のアクティビティを検出および記録するアクティビティ指標識別、ヘアカットスタイルを検出および記録するヘアカット指標識別、
保持しているか、または身体の近くにある物体を検出および記録するツール指標識別
●指定された領域には、次の少なくとも1つのエリアが含まれる。
学校、
刑務所、病院、
ショッピングモール、通り、
オフィス、
駐車場。
●指定された領域は複数の部屋を備え、ローカル処理システムはセンサーからのビデオデータを使用して、領域のレイアウト計画を構築する。
●ローカル処理システムは、さらに音声データを使用してレイアウト計画を構築する。
●領域のレイアウト計画を構築するとき、ローカル処理システムは、以下の少なくとも1つを利用する。
水平線と垂直線を検出することに基づく部屋の形状の推定値、
ビデオセンサーの視野内の主要なオブジェクトの検出、
既知の部屋タイプのデータベースに基づいて部屋タイプフォームを認識するニューラルネットワークアルゴリズム、
部屋内のユーザーの要求された構成アクティビティに基づく測定値、
音声センサーによって検出された構成音声信号。
別の態様は、指定された領域内のアクティビティを監視する方法であって、この方法が、
センサーを使用してビデオ録画を行うこと、
センサーから指定された領域内またはその近くにあるローカル処理システムに信号を転送すること、
ローカル処理システムを使用して、センサーからの信号を処理し、分析して、センサーによって監視されたように指定された領域内のアクティビティを説明するメッセージを生成することであって、ここで、メッセージが、指定された領域内の人物の身元を直接明らかにする、音声、視覚または他の直接識別情報を含まない、生成すること、
指定された領域外の監視ステーションにメッセージを送信することであって、監視ステーションが外部監視者にメッセージを使用可能にする、送信すること、を備える。
オプションのステップには、次のいずれかが含まれる。
●メッセージが、センサーによって所定のジェスチャまたは所定のフレーズが検出されたことを示すと、監視ステーションがアラートを生成すること。
●以下の1つ以上の技術を使用して、ビデオデータに基づいて指定された領域内の人々および動物の身体を内部的に識別すること。
顔の特徴を識別して記録する顔指標識別、
身体上の衣服のタイプを検出および記録する衣服指標識別、
身体の形状を検出および記録する身体指標識別、
身体の現在のアクティビティを検出および記録するアクティビティ指標識別、ヘアカットスタイルを検出および記録するヘアカット指標識別、および、
保持しているか、または身体の近くにある物体を検出および記録するツール指標識別
●センサーによって音声データを記録することであって、音声データが、指定された領域内の人々および動物の身体を内部的に識別するために使用され、音声データが、音色指標と相対的な音の振幅とを含む、記録すること。
ここで、本発明の態様を、それぞれ、本発明の特徴を示す以下の図を参照して、例として説明する。
図1は、監視システムを示す。 図2は、センサーノード起動図を示す。 図3は、例示的なセンサーを示す。 図4は、例示的なコンピュータ処理ユニットを示す。 図5は、システム較正の例示的なブロック図を示す。 図6は、監視およびアラーム状態の検出を表す例示的なブロック図を示す。 図7は、監視およびアラーム状態の検出を表す例示的なブロック図を示す。 図8は、ビューファインダー内の識別されたオブジェクトを備えたフレームを含むユーザープロセッサ制御電子デバイスの例示的な画面を示す。 図9は、ビューファインダー内の識別されたオブジェクトを備えたフレームを含むユーザープロセッサ制御電子デバイスの例示的な画面を示す。 図10は、さまざまなモードのシステム動作の例示的なブロック図を示す。 図11は、秘密信号検出の場合のシステム動作の例示的なブロック図を示す。 図12は、画面上のダッシュボードのユーザーインターフェースが動作している例示的なユーザープロセッサ制御デバイスを示す。 図13は、ミニ2マップを備えたダッシュボードの例示的なグラフィカルユーザーインターフェースと、ユーザープロセッサ制御デバイスの画面上のスライダーを備えたタイムラインとを示す。 図14は、システムとのユーザーのインタラクションの例示的なブロック図を示す。 図15は、ホームモニタリングおよびセキュリティシステムのさらなる例を示す。 図16は、単一のカメラを含むセンサーノードの主要コンポーネントを示す。 図17は、例示的なセンサーノードを示す。 図18は、例示的なセンサーノードを示す。
本明細書では、例示的な態様を監視システムの文脈で説明し、オブジェクトの方法は、識別、オブジェクトの位置検出、および、
検出されたオブジェクトのアクティビティのタイプとアクティビティの時間の認識である。特に、システムは、複数のセンサーからデータを収集し、データを処理し、処理されたデータに基づいてアラートを送信して、緊急事態を防止または緊急事態に反応することができる。
たとえば、説明されているシステムは、夜中に家の中に見知らぬ人が現れる、昼間に主寝室に見知らぬ人が現れる、窓が割れる、浴室の水の止め忘れ、暖炉に向かってハイハイしていく赤ちゃん、近くに大人のいない状態でスイミングプールに近づいていく赤ちゃん、転倒した人、床に横たわっている人、または他のあらゆる異常な場所に長時間横たわっている人、助けを求めて泣いている人、通常の時間に学校から戻らない子供などの状況に対して、自動的に反応することができる。
当業者は、以下の説明が例示にすぎず、決して限定することを意図していないことを理解するであろう。他の態様は、本開示の利益を有する当業者に容易に示唆されるであろう。次に、添付の図面に示される例示的な態様の実装について詳細に説明する。図面および以下の説明全体を通して可能な限り、同じ参照インジケータを使用して、同じまたは同様のアイテムに言及する。
本明細書における「一実施形態」または「実施形態」への言及は、実施形態に関連して説明される特定の特徴、構造、または特性が本発明の少なくとも1つの実施形態に含まれることを意味する。本明細書の様々な箇所での「一実施形態では」というフレーズの出現は、必ずしもすべてが同じ実施形態を指しているわけではなく、また、他の実施形態と相互に排他的である別個の実施形態でも代替の実施形態でもない。
さらに、いくつかの実施形態によって示され、他の実施形態によって示されない可能性があるさまざまな特徴が説明されている。同様に、他の実施形態ではなく、いくつかの実施形態の要件であり得るさまざまな要件が説明されている。本発明の文脈において、用語「a」および「an」は「少なくとも1つ」を意味する。
本明細書における「フレーム」という用語は、ビデオデータ、音声データ、および、特定の時間、たとえば1秒で監視システムのすべてのカメラとセンサーからキャプチャされるその他の利用可能な感覚データを指し得る。
本明細書における「オブジェクト」という用語は、監視システムによって観察される物体を指す場合がある。「オブジェクト」という用語は、アニメートオブジェクト、たとえば人物(つまり、個人、人間)、ペットなどを指す場合がある。オブジェクトは「既知」である可能性があり、-つまり、オブジェクトは、既知の人々とペットのシステム内部データベースに含まれることを意味し、言い換えると、システムのメモリ内に保存されたIDや特性をもっているということである、あるいはオブジェクトは「未知」である可能性があり、-つまり、オブジェクトがデータベースに含まれていないことを意味し、または監視システムにとって新しい特性であることを意味する。
本明細書における「領域」という用語は、監視システムによって監視される領域を指す場合がある。たとえば、「領域」という用語は、居住区を、アパートを、病院、学校、老人ホーム、民家の建物を、、隣接する領域などを指す場合がある。物理的および論理的な場所であり得る。
本明細書における「ユーザー」という用語は、監視システムとインタラクトする可能性のあるいかなる人物または人々のグループをも指し得る。たとえば、ユーザーは家の所有者でも、高齢者の世話をする医療従事者でもかまわない。
本明細書の「ゾーン」という用語は、少なくとも領域の一部、例えば、スイミングプール、暖炉、部屋などを指す場合がある。
本明細書の「禁止」ゾーンという用語は、特定のオブジェクトに対して許可されていない、監視システムによって監視される領域の特定の部分を指す場合がある。監視システムは、オブジェクトが禁止ゾーンの境界を越えたことを検出すると反応する場合がある。
本明細書の「許可された」ゾーンという用語は、特定のオブジェクトに対して許可されている、監視システムによって監視される領域の特定の部分を指す場合がある。本明細書における「異常事象」という用語は、監視システムが反応する可能性がある、フレーム内の事前定義されたタイプのアクティビティを指す場合がある。たとえば、事前定義されたタイプのアクティビティには、侵入に関連する動き(窓からの侵入、戦闘、武器の提示など)を含み得る。事前定義されたタイプのアクティビティは、特定の病状に典型的であり得るアクティビティ(たとえば、転倒、苦痛、目に見える血液や怪我、家具の動きなど)などに関連する場合もある。
本明細書における「アラーム状態」という用語は、通常の健康で安心な状態にとって危険なまたは安全でないと考えることができるような状況を説明する一連のルールを指す場合がある。
一実施形態では、ルールのいくつかは、監視システムによって事前定義されてもよい。別の実施形態では、所有者または他のユーザーは、ルールを作成および/または調整することができる。定義された一連のルールは、監視システムのシナリオまたはアプリケーションによって異なる。
監視システムがどのように活用され得るかについては、複数のシナリオがある。例示的な例の1つは、危険な状況から人々を保護し、異常事象を検出して生命を保護し、警官などの外部サービス、またはユーザープロセッサ制御電子デバイスにアラート通知を送信するための所与の監視システムを民家に装備することである。
たとえば、監視システムは、物理的な侵入から保護し、医療問題から人々を保護し、赤ちゃんが近くに大人のいない状態でスイミングプールに近づいている場合に反応し、誰かが倒れたり、脳卒中になった場合に反応し得る。
別の例示的な例は、病院または高齢者の自宅への装備である。監視システムは、部屋にいる対象者を監視し、監視対象者が脳卒中、意識喪失、転倒、失神などを起こした場合に反応し、アラートを発するか、または医療従事者を呼び出す。
監視対象者は、アラーム通知をトリガーするアラーム信号を提供することもできる。本明細書における「アラーム信号」という用語は、特定のジェスチャまたは特定の音信号を指す場合があり、これは、監視システムをアラームモードに切り替え、外部サービスまたはデバイスにアラーム通知を送信する手順を開始する。アラーム信号は、監視システムが自動的に問題を認識できない場合に必要であり、そこで監視対象者が問題について信号を送ることができる。
図1は、例示的な監視システム100を示す。当業者は、
図1に示すハードウェアユニットおよびソフトウェアユニットが本開示の範囲を限定することなく変化する場合があることを理解するであろう。
一実施形態では、監視システム100は、少なくともビデオカメラ、暗視用の赤外線照明、および複数のマイクを含むことができるセンサー110のセットを含む。さらに、記載されている監視システムには、ジャイロスコープ、モーション検知器、煙センサー、サーモグラフィーカメラ(熱検知器)、侵入検知器(窓またはドアから)、温度計、匂い検知器、およびその他の情報源が含まれる場合がある。センサー110は、領域内のアクティビティに関係するすべての情報を含む信号をキャプチャするように、監視されている領域内に割り当てられ売る。例えば、異なるタイプのセンサー110は、信号の高密度表現を生成し、他のセンサーから受信したデータを増強して完全なフレームを復元する。検出器のリストは例示である。
さらに、モーションセンサーを使用してカメラの位置を記録したり、交換時に調整したりすることができる。加速度計/磁力計を使用して、コンパスポイントに応じてカメラを調整できる。圧力センサーを使用して、カメラのポジショニングの高さを確認できる(ポジショニングの決定のための同じメカニックフォンの使用。複数のレンズセット(可視光や赤外線など)を使用して、立体画像の作成とともに深度画像を作成できる。
いくつかのカメラモードがあり、センサーのセット(またはセンサーノード)は、図2に示す状態遷移図を利用できる。カメラモードの例は、これに限定されるものではないが、アイドルモード(エネルギーを節約するための非常に低い電力消費)、低解像度モード(360pなど)、および最大解像度モード(最大電力消費)である。1つ以上のセンサーで動きが検出されると、カメラモードが1つのモードから別のモードに切り替わる場合がある。低品質のビデオモードでもエネルギーを節約でき、ノードの最大の潜在能力は必要な場合にのみ使用される。
センサーアレイは、低品質モードで十分に照明された期間中に、赤外線フィルターレンズを使用するため、メインカメラモードはほとんどのバッテリー寿命を提供する。たとえば、低品質モードは次を意味する場合がある。
●1秒あたり5〜30フレーム(認識可能な事象の発生に基づいて中央コンピュータユニットによって変更可能)、
●低解像度(360p)、
●単一レンズ−ステレオ画像なし、
●アクティブな追加のセンサーなし。
デフォルトでは、センサーノードは、アイドルモードにあり、これはビデオ録画もビデオフィードもないことを意味する。アクティブエリア内での動きにより起動されることができる。
動いているオブジェクトがモーションセンサーをトリガーすると、低品質のビデオフィードが起動される。中央演算ユニットが高品質のビデオフィードを要求すると、センサーノードが高品質モードに切り替わる。
高品質モードは、コンピュータ処理ユニット120によってトリガーされる。単一のレンズアレイのフル機能を利用して、1秒あたりのフレーム数を減らしてFULL HD 60 FPSビデオまたはUHDビデオフィードを出力できる。このモードは顔認識に自動的に使用され、緊急事態の場合にユーザーによって要求されるか、中央演算ユニットによって要求されることができる。
正しい被写界深度を確保するために、センサーノードは両方のレンズアレイを使用して、ISP(画像信号プロセッサ)が内部FPGAを使用する前に、立体画像を作成しそれを単一の画像に編集することができる。夜間モードでは、赤外線フィルターと赤外線照明とを備えたレンズアレイを利用する。
図3は、例示的なセンサー、特に、実装による例示的なビデオカメラ200を示す。ビデオカメラ200は、例えば、スピーカー201、赤外線ナイトライト202、レンズ203、マイク204、パススルーアダプター205、Wi−Fiユニット206、ARMコントローラー207、およびバックアップバッテリー208を含む。
図1を参照すると、コンピュータ処理ユニット120は、センサー110のセットとインタラクトし、制御ループがそれらを管理する。例えば、コンピュータ処理ユニット120は、センサー110がアクティビティを監視する指定された領域内またはその近くに配置されたローカル処理システムである。例えば、コンピュータ処理ユニット120は、センサー110から信号を受信し、信号を処理および分析して、センサー110によって監視される指定された領域内のアクティビティを説明するメッセージを生成する。メッセージには、指定された領域内の人物の身元を直接明らかにする音声、視覚、またはその他のタイプのデータは含まれない。たとえば、指定された領域は、学校、刑務所、病院、ショッピングモール、通り、オフィス、駐車場のエリア、または別のタイプのエリアであり得る。
センサー110のセットから受信した処理されたデータは、メモリ130に保存されてもよい。
機械学習技術を使用して、写真とビデオを使用して計算ユニットをトレーニングすることにより、誰が家にいて、その人がその世帯のメンバーであるかどうかを判断する能力を提供することもできる。
センサーのセットは、Wi−Fi接続を介してコンピュータ処理ユニットのハブに接続される。セキュリティ上の理由から、機械学習の目的で使用される映像は、中央のハブが存在するときにその世帯を離れることはない。しかしながら、中央のハブがなくてもシステムは動作可能である。中央のハブは、機械学習アルゴリズムを実行する小さなフォームファクタGPUであってもよい。
コンピュータ処理ユニットは、好ましくは以下のインターフェースを有する。
●2つのWi−Fi接続モジュール−モジュールの1つはインターネットへの接続に使用され、もう1つはカメラノードのトラフィックのために個別のチャネルを作成するために使用される、
●イーサネット(登録商標)、
●Bluetooth(登録商標)-設定を調整し、システムを制御する目的で、また予備の通信チャネルとして、ユーザーの電話に直接接続する。
コンピュータ処理ユニットがインストールされていない場合、システムは、クラウドが提供するサーバーベースのシステムを介して動作することができるが、ブロードバンド接続をより多く使用する。
コンピュータ処理ユニット120は、充電ステーションを含む。バッテリーは、充電ステーションに取り付けられている間、50%の充電状態を維持する。センサーノードが低電力レベルを示す信号をコンピュータ処理ユニット120に送信する場合、バッテリーは100%に充電され、バッテリー寿命を延長し、バッテリー寿命を最適化する。バッテリー本体にある個別のLEDインジケータは、センサーノードから取り外すときにのみ充電レベルを示す。
たとえば、コンピュータ処理ユニット120は、顔の特徴を識別して記録する顔指標識別、身体上の衣服のタイプを検出および記録する衣服指標識別、身体の形状を検出および記録する身体指標識別、身体の現在のアクティビティを検出および記録するアクティビティ指標識別、ヘアカットスタイルを検出および記録するヘアカット指標識別保持しているか、または身体の近くにある物体を検出および記録するツール指標識別、または別の技術を使用して、ビデオデータの1つまたは組み合わせに基づいて、指定された領域内の人々および動物の身体を内部的に識別する。
たとえば、接続されているデバイスのリストを使用して、一定の人数の人々がいるときに存在するデバイスのリストと、人々が動作ゾーンに出入りする間にそのリストに加えられた変更とを調べることにより、世帯内の人々を明確に識別することができる。
例えば、コンピュータ処理ユニット120は、指定された領域内の身体に加えられた変更を認識し、影響を受ける指標識別を更新する。
例えば、コンピュータ処理ユニット120は、識別された身体の運動学的な動きを分析して、物理法則と一致する動きを保証し、身体を内部的に識別する際の矛盾を検出および解決する。たとえば、コンピュータ処理ユニット120はさらに、音声データを使用して、指定された領域内の人々および動物の身体を内部的に識別し、ここで、音声データは音色の指標および相対的な音の振幅を含む。
図4は、実装によるコンピュータ処理ユニット120の一例を提供する。処理ユニット120は、例えば、Wi-Fiルータ231、バックアップバッテリー232、バックアップモバイルインターネットモジュール233、CPUボード234、およびGPUボード235を含むことができる。
一実施形態では、コンピュータ処理ユニット120は、ローカルサーバー140に含まれてもよい。「ローカル」という用語は、ローカルサーバーが監視システム100によって監視される領域内に割り当てられることを意味する。処理ユニットとローカルサーバーとの説明された割り当ては、インターネットチャネルを過負荷にせず、監視システム100の有効性を高める。プライバシー、データ保護、およびデータセキュリティは、たとえばデータ暗号化によって保護される。さらに、監視システム100がインターネットから独立していることにより、プライバシー、データ保護、およびデータセキュリティが強化される。このようなインターネットからの独立性により、監視システム100はユーザーにとってより機密性が高く信頼できるものになっている。
監視システム100は、プライベートソースデータを、クラウドストレージシステムなどの外部ストレージリソースや、領域外にある他の外部ストレージシステムに一切送信しない。
センサー110のセットからの信号は、中央コンピュータ処理ユニット120に転送され、ここで、信号が処理され分析される。コンピュータ処理ユニット120は、センサー110からの信号を処理して、ソース着信データの低レベルの説明を作成する。低レベルのビデオの説明には、階層のさまざまなレベルで認識されるオブジェクト(生物および無生物)が含まれる場合がある。たとえば、低レベルのビデオの説明には、身体、身体の部分、骨格の関節座標、体型測定値、ならびに衣服、肌の色、および身体のさまざまな部分の質感のサンプルの説明を含み得る。たとえば、低レベルのビデオの説明には、顔、顔の特徴の座標、ヘアカットのタイプ、外部オブジェクト(イヤリングなど)、ならびに唇、耳、髪、目、および歯の色と質感とのサンプルの説明も含み得る。たとえば、低レベルのビデオの説明には、手、指関節の座標、指およびつま先の爪のタイプ、ならびに指、爪、および手のひらの色と質感とのサンプルの説明も含み得る。低レベルの音声の説明には、たとえば、階層のさまざまなレベルで認識される音が含まれ得る。たとえば、低レベルの音声の説明には、単一の音または形態素、そのスペクトル、さまざまなマイクでのその相対的な振幅、または、たとえば、アラームをオンまたはオフに設定するフレーズ、または監視を有効/無効にするフレーズなど、既知と認識されるより長い持続時間のオーディオサウンドを含み得る。データの低レベルの説明121に基づいて、高レベルの説明122を生成することができる。センサー110から受信した処理されたデータは、正確な高レベルの説明ファイル135、例えばテキストログファイルのメモリ130に保存される。一実施形態では、高レベルの説明ファイル135の情報には、次の情報が含まれる場合がある。「午後1時53分13秒:人物ID=「ジョン」、人物の場所=(x,y)、人物のアクティビティ=「読書」」。低レベルの説明アルゴリズムを作成するために使用されるアクティビティ検出の例については(Serena Yeung、et al.「Learning of Action Detection from Frame Glimpses in Videos」、arXiv:1511.06984、52015 .を参照。)
高レベルの説明135は、メモリストレージから抽出され、いつでも処理され得る。例えば、高レベルの説明ファイル135はカスタマイズされ、任意の他の外部システムのスクリプトに転送されてもよい。たとえば、ファイル135からの情報は、テキストからスピーチに加工することができる。
コンピュータ処理ユニット120は、センサー110からのソース信号(ビデオ信号、音声信号、煙探知器からのデータなど)を使用して、フレーム内のオブジェクトを認識および区別し、検出されたオブジェクトのタイプおよび空間位置を識別する。コンピュータ処理ユニット120によって生成された結果は、正確な高レベルの説明ファイル135に保存される。コンピュータ処理ユニット120は、顔の指標、身体の指標、衣服の指標、ヘアカットの指標、姿勢および手足の座標の推定、人々およびペットの空間位置の検出、アクティビティの検出、視覚的ジェスチャと聴覚信号とを制御することの検出、特定の病状の検出、周囲のオブジェクトとの人々やペットのインタラクションの「シナリオ」の検出などに基づいて、人々およびペットの識別ならびに再識別ユニットを生成し得る。
たとえば、音声信号に基づいた空間位置確認は、相対的な振幅を使用する。つまり、オブジェクトがマイクに近づいたり離れたりすると、オブジェクトからの音に基づく音声信号の検出された振幅は、場所によって異なる。振幅は、どのマイクが音に基づく音声信号を生成するかによって異なるであろう。コンピュータ処理ユニット120が、オブジェクトの空間位置に関係する音声信号サンプルと、較正段階中に収集され、システム動作中にさらに更新された対応するマイク信号振幅とを受信すると、コンピュータ処理ユニット120は、領域上のすべてのマイクでの音声信号振幅の分布をオブジェクトの既知の空間的位置と統計的に相関させることができる。この統計的相関の結果は、聴覚振幅の空間の、領域の計画へのマッピングである。したがって、ある期間のオブジェクトがビデオカメラのいずれにも見られない場合、監視システム100は、マイク信号と較正段階中に実行されたマッピングとを使用して、オブジェクトの空間的位置を復元することができる。
コンピュータ処理ユニット120は、メモリストレージユニット130とインタラクトして、例えば、高レベルの説明135の形式で、処理された情報を保存し、さらに詳細な分析のために保存された情報を抽出する。メモリストレージユニット130は、例えば、既知の人物474のデータベース、以前の目印位置の短期メモリユニット425、顔、身体および衣服の指標の短期メモリ435、幾何学的位置および個人識別の短期メモリ485、事前設定されたアラート条件のデータベース492、および音声フレームの短期メモリ850を含むことができる。監視システム100の信頼性を高めるために、センサーからのソース未処理信号は、短時間だけメモリに保存されてもよい。
監視システム100は、「ユーザー」と監視システム100とのインタラクションの機会を提供するアプリケーションプログラミングインターフェース(API)モジュール155を含むことができる。グラフィカルユーザーインターフェース(GUI)160によるユーザープロセッサ制御電子デバイス180上のアプリケーションは、ソフトウェアインターフェースであるアプリケーションプログラミングインターフェース(API)155を介してサーバー140にアクセスすることができる。監視システム100とのユーザーのインタラクションは、例えば、モバイルアプリケーションを介して、またはデスクトッププログラム180のユーザーインターフェースを介して実行され得る。ユーザープロセッサ制御電子デバイス180のグラフィカルユーザーインターフェースにより、ユーザーはリクエストを監視システム100に送信し、監視システム100はリクエストに従ってアクションを実行し、センサー110から受信され、処理ユニット120によって処理されたデータ分析の結果に基づいてユーザーに応答を送信することができる。一実施形態は、例えば、クライアントサーバーシステムまたは要求−応答モデルで表すことができる。
ユーザープロセッサ制御デバイス180上のグラフィカルユーザーインターフェース(GUI)160は、監視システム100からアラートを受信し、センサーから収集、保存、分析されたデータを表示し、監視システム100を較正する可能性をユーザーに提供して、危険な状況を説明するルールを定義し、監視システム100のデータベースに新しいオブジェクトを追加する。
一実施形態では、センサー110のセットからの信号は、ユーザー制御デバイス(携帯電話、ラップトップ、スマートフォン、またはパーソナルコンピュータなど)のディスプレイを介して、一切修正を加えずにリアルタイムで表すことができる。言い換えれば、監視システム100は、自宅で起きていることに関する情報をユーザーに提供することができる。例えば、ユーザー制御デバイス上のシステムのGUI 160は、すべてのカメラからキャプチャされたすべてのビデオと画像を表示し、記録された音声トラックを再生することができる。ユーザーは、GUI160によって表示された情報に基づいて、監視システム100に応答することができる。例えば、ユーザーは監視システム100に、センサー110からのより詳細な情報を提供し、センサー110からのデータの分析に基づいて報告を行い、アラートを発するか、アラートを取り消し、警察、救急車、または緊急サービスなどを呼ぶように要求することができる。言い換えれば、監視システム100はユーザーに、情報を見るための、サーバー140のメモリストレージ130に保存されたデータへのアクセスを取得するための、および監視システム100を制御するためのアクセスを与える。
一実施形態では、ユニット120のデータによって処理された情報の結果をユーザーに提供することができる。1つまたはいくつかのフレームの高レベルの説明135は、ユーザー制御デバイス180上に情報を表示するために前処理され得る。情報はいくつかの方法で表すことができる、たとえば、テキストレポートの形式、地図の形式、グラフィカルな複製または漫画の形式、あるいは要求された期間の主な事象を説明する声の形式など。
たとえば、テキストレポートには、主な事象に関するテキスト情報が含まれる場合がある。たとえば、テキストレポートには、「ジョンは午前9時に起きて、キッチンに行き、看護師と朝食をとり、学習室で2時間過ごし、スイミングプールの近くで1時間過ごした」、「看護師が午前8時30分に朝食を調理し、部屋を掃除し、ジョンと部屋Bで2時間過ごした…」、「患者のメアリーG.は午前8時に薬を服用し、3時間本を読み、午後1時に部屋を出た…」などと書かれていてもよい。
プロセッサ制御のユーザーデバイス180内のユーザーのデスクトップまたはモバイルアプリケーション160は、監視システム100と情報を交換する。コンピュータシステム間の電子通信には、一般に、データグラムと呼ばれ、プロセッサ制御のユーザーデバイス180からローカルサーバーに転送され、ローカルサーバーからプロセッサ制御のユーザーデバイス180に転送される情報のパケットが含まれる。システムの要素は、Wi−Fi経由で情報を交換する。
情報転送の他の可能なチャネルも使用できる。
他の既知の電子通信と比較して、監視システム100とのユーザー/クライアントの現在のインタラクションは、監視システム100内に情報を追加および保存して、この情報が監視システム100が設置されている領域内に位置するローカルサーバー140のメモリストレージに保存されるようにすることを含む。これにより、所与のシステムのユーザーの私生活に関する情報のプライバシーが確保される。監視システム100は、例えばスマートハウスシステム、警察システム、医療サービスなどの、外部システムまたはサービスとインタラクトすることができる。
たとえば、監視、セキュリティ、および制御用の説明されたシステム100は、センサー110からのデータの分析に基づいて、外部サービスおよびシステム170、ユーザープロセッサ制御デバイス180にアラート通知を送信する。アラートは、たとえばディスプレイ上のGUIを使用してユーザーに表すことができる。たとえば、外部サービスおよびシステム170は、コンピュータ処理ユニット120によって生成されたメッセージを受信し、そのメッセージを外部監視者が利用できるようにする監視ステーションである。
たとえば、メッセージには、指定された領域内で人物または動物が実行するアクションが十分に説明されており、外部監視者がいつ外部介入が必要か決定することが可能である。例えば、外部デバイスまたはサービス170は、コンピュータ処理ユニット120からのメッセージが、外部介入が必要とされる可能性があることを示す人物または動物によって実行されるアクションを説明するときに、アラームを生成する監視ステーションを含む。例えば、子供、障害者、病人または老人を監視するためにセンサー110が選択される。たとえば、監視ステーションはコンピュータ処理ユニット120に外部監視者からのクエリを転送し、コンピュータ処理ユニット120はメッセージで応答する、ここにおいて、メッセージの内容は、センサー110からの信号を処理および分析することによって検出された指定された領域内のアクティビティに基づく。
どのような所定の事象が発生した場合でも、モバイルデバイスを介して所有者に通知できる。通知には、ユーザーが定義した設定に従ってカメラが提供するビデオまたは画像を添付できる。誤検知の結果を防ぐために、ユーザーはカメラからのビデオフィードを見ることができる。各状況の後、システムは結果を記憶して、将来の誤検知を防ぐ。
較正は、未知の領域内で監視システム100を実行する最初のステップである。較正中、監視システム100は、領域の基本的なパラメータを特定する、領域のタイプを特定する、領域のマップを作成するなど行う。たとえば、指定された領域が複数の部屋を含む場合、ローカル処理システムは、センサーからのビデオデータを使用して領域のレイアウト計画を構築する。たとえば、ローカル処理システムはさらに、音声データも使用してレイアウト計画を構築する。たとえば、部屋の形状の推定値は、水平線と垂直線の検出に基づいている。
たとえば、ビデオセンサーの視野内の主要なオブジェクトが検出され、レイヤーの構築に使用される。たとえば、ニューラルネットワークアルゴリズムを使用して、既知の部屋タイプのデータベースに基づいて部屋タイプフォームを認識する。たとえば、測定値は、部屋内のユーザーの要求された構成アクティビティに基づくことができる。
図5は、1つ以上の態様による監視システム100の較正方法の例示的なブロック図を示す。監視システム100の較正方法は、ステップ300で始まり、ステップ370まで進む。
ステップ310で、センサー110のセットからのソース信号が同期される。
監視システム100の重要な特性の1つは、すべての信号の時間との同期である。時間は、さらなる分析のための追加の座標として使用される情報源である。
ステップ320で、監視システム100は、領域の幾何学的パラメータを決定する。特に、監視システム100は、監視された建物内の部屋の割り当て、部屋の大きさ、それらの機能、部屋内の家具、隣接する領域、例えば庭、ガレージ、運動場などのパラメータを特定することができる。監視システム100はまた、窓と入り口の割り当て、光源、暖炉、階段、他の部屋との接続などを識別することができる。
領域のタイプと機能は、監視システム100がどのように、センサーからのデータ、フレーム内の異常事象のタイプを処理するかに影響を与える可能性がある。たとえば、領域が個人の家を表す場合、そのシナリオは高齢者のための病院の監視システム100のシナリオとは異なるであろう。領域のタイプおよび機能は、ステップ330でユーザーによって示されてもよい。
ステップ320で、監視システム100は、特定された幾何学的パラメータに基づいて領域の計画を生成することができる。部屋の形状の推定は、水平線と垂直線の検出、ジャイロスコープの角度位置、ビデオセンサーの視野内の主要なオブジェクトの検出、および既知の部屋タイプのデータベースに基づいて部屋タイプフォームを認識するニューラルネットワークアルゴリズムに基づいている場合がある。
あるいは、本発明の範囲を限定することなく、他の可能な方法で領域の計画を生成することができる。たとえば、領域の計画はユーザーによって生成される場合がある。
センサーノードが以前に指定された位置から削除されると、センサーノードがセンサーアレイを起動し、周囲のエリアを再マップして、移動中に空間内および他のセンサーノードに対する位置を再定義する。
監視システムに新しいセンサーノードが追加された場合、そのセンサーノード自身が、(そのシステム内に含まれた)センサーノードのデータベースに一意のIDを追加することで自動的に構成される。中央演算ユニットによってBLEおよびWi−Fiアクセスデータが自動的にルーティングされる。
システムを提供されるセンサーノードは同じ方法で構成されるが、唯一の違いは、一緒に販売されるセンサーノードがオンラインデータベースに書き込まれ、構成時に演算ユニットに転送されることである。
実施形態の1つにおいて、ユーザーは、較正中に1つのビデオカメラから別のビデオカメラへ、そして1つのマイクから別のマイクへ歩くように要求され、それにより監視システム100が、ユーザーが既知の軌道に沿って移動して得た測定値に基づいて領域の計画を作成できる。監視システム100はまた、例えば、すべてのマイクの相対的な音の振幅を領域計画上のオブジェクトの空間的位置と相関させる。設計計画には、たとえば、部屋の割り当て、その幾何学的サイズ、窓、ドア、階段、光源、部屋のタイプなどを含む、領域に関するすべての利用可能な情報が含まれる場合がある。言い換えれば、生成された計画は、領域のグラフィックイメージを表現し、監視システム100のセンサーから受信および処理されたデータを、ユーザーに概略的に表すために作成される。
領域マップの生成は、センサー110からのデータに基づいて半自動で実行できる。一実施形態では、監視システム100は、予備計画の説明を作成し、ユーザーは、ステップ330で作成された計画の結果を修正して、領域の特定されたパラメータの精度を高めることができる。ステップ330はオプションであり、スキップしてもよい。一実施形態では、監視システム100は、オペレータの支援なしで自動的な方法での生活空間の説明を作成する。
領域の計画は、慣例的に「禁止」ゾーンと「許可」ゾーンに分けられる。一実施形態では、「禁止」および「許可」ゾーンは、すべての監視されるオブジェクトに共通であり得る。別の実施形態では、「許可」および「禁止」ゾーンは特定のオブジェクト毎に対して具体的に示されている。たとえば、子供にはスイミングプール、キッチン、階段などの「禁止ゾーン」があってもよい。看護師とメイドは、たとえば個人的な勉強部屋や寝室などのさまざまな「禁止ゾーン」を持つことがある。
ステップ340で、監視システム100は、特定のオブジェクトに対する禁止ゾーンを自動的に定義することができる。たとえば、暖炉とプールは子供には禁止されていると定義できる。オペレータは、どのオブジェクトに対してどのゾーンが禁止されているかも示すことができる。たとえば、ユーザーは、監視されるオブジェクトごとに、計画で「禁止」および「許可」ゾーンにタグを付けることができる。これらのゾーンは、さらに変更または調整できる。
空間を「許可」ゾーンと「禁止」ゾーンに分割する目的は、制御と安全性である。一実施形態では、監視システム100は、アラーム条件が満たされた場合、例えば監視システム100が認識したときに、反応し得る。
さらに、一部のユーザー定義のルールは、子供がスイミングプールに近づく「異常な」事象を検証する手順を増強することができる。例えば、監視システム100は、付近に数人の他のオブジェクト(大人)がいるかどうかを確認することができる。監視システム100は、「禁止ゾーン」を認識し、これらのゾーンの境界への接近および横断に反応する。アラーム状態を検証する技術については、図6、図7、図11でさらに説明する。
ステップ350で、すべての監視されるオブジェクトは、監視システム100によって「既知」および「未知」として分類される。。この領域に住むすべての人々とペット、およびまた重要な無生物オブジェクトは、ユーザーが監視システム100に「導入」することができ、「既知の」オブジェクト474のデータベースに追加することになる。ユーザーはそれらに名前を付け、「禁止」ゾーンと「許可」ゾーンへのアクセス権限を付与する。
ステップ360で、ユーザーは、アラーム状態を説明することができるいくつかのルールを作成および増強することができる。事前定義されたルールは、危険である可能性がある状況の説明を表す。言い換えると、次のような主要な質問の形式で文法ツールを提供するユーザープロセッサ制御デバイスのGUIを使用してルールを説明できる。 「誰が何をしているのか?」、「彼女/彼はどこでやっているのか?」、「いつ彼女/彼はやっているのか?」、および「彼女/彼は何をしているのか?」監視システム100は、アラーム状態に関するいくつかのルールを既に有している場合がある。また、ユーザーは、異常事象と考えられるいくつかのタイプのアクティビティを追加する場合がある。
図6および図7は、本開示の1つ以上の態様に従って動作してアラーム状態を検証し、外部システムまたはユーザープロセッサ制御デバイスにアラート通知を送信する、コンピュータ処理ユニット120の例示的なブロック図を提供する。
ステップ410で、コンピュータ処理ユニット120は、少なくとも1つのセンサー、例えばカメラビューファインダー200から、ビデオフレームのデータを受信する。フレームは、既知の画像処理技術に基づいて分析される。
ステップ420で、フレーム上の人体の解剖学的目印の検出および位置特定が実行される。人体の解剖学的目印には、たとえば、額、顎、右肩、左肩、右手のひら、左手のひら、右肘、右肘、右腰、左腰、右膝、左膝、右足、左足などが挙げられる。このリストは例示であり、人体の他の部分が検出されてもよい。身体部分の階層が存在し、オブジェクトの正しい検出の検証に使用できる。
図8は、一実装による、ビューファインダー内の識別されたオブジェクトを有するフレームを含むユーザープロセッサ制御電子デバイスの例示的な画面を概略的に示す。人体の、額501、顎502、右肩503、左肩504、右手のひら505、左手のひら506、右肘507、左肘508、右腰509、左腰510、右膝511、左膝512、右足513、左足514などなどの解剖学的目印がフレーム500内で識別される。ステップ420で、監視システム100は、短期メモリストレージ425とインタラクトして、以前の目印位置に関するデータを抽出することができる。「前の」という用語は、前に分析されたフレームから抽出された情報を指す場合がある。
特定された解剖学的目印は、人間の骨格を生成し、人間の姿勢とアクティビティを検出するための基本ポイントである。人体は、物体認識の深層学習アルゴリズムに基づいて識別される。たとえば、Zhe Cao、Tomas Simon、Shih−En Wei Yaser Sheikh、arXiv:1611.08050、2016のアプローチ「Real−time Multi−Person 2D Pose Estimation using Part Affinity Fields」を使用できる。ここでは、「長・短期記憶」(リカレントニューラルネットワーク)などの機械学習の他のいかなるアルゴリズムも使用できる。
図8を参照すると、2人の人物500aおよび500bとペットがフレーム内で識別される。各人は、人体の解剖学的目印に基づいて設計された記述長方形に含まれている。図9は、一実装による監視システム100の例示的なユーザーインターフェースを示す。つまり図9は、より大きなスケールでの人間の骨格の復元、個人の識別、姿勢検出の例示的な結果を示す。
人物は、彼/彼女の顔または音声の音色によって確実に識別できる。ただし、ほとんどの場合、顔はビデオカメラから見えない。実施形態の1つでは、ビデオカメラの1つは、領域への入り口に向けられているので、少なくともそれは、入ってくるすべての人の顔をキャプチャする。顔または音声の音色によって人物が識別されると、彼/彼女の今日の衣服、髪型、イヤリング、指輪、ブレスレットなどの付属物、彼女の唇の色のサンプル、体型測定値など、この人物の他のすべての指標が測定され、更新される。
そのような指標のいくつかは、監視システム100に組み込まれている。しかし、実施形態の1つでは、自らに挑戦するかの如く監視システム100はそれ自体に新たな指標を追加することができ、少しの手がかりさえ使用して、この領域においてさらにより良く「既知」の人々を認識するために自動的に学習する。たとえば、一定時間後、監視システム100は、例えば、彼/彼女の手の断片のみによって人物を認識するであろう。
たとえば、顔の特徴、音声の音色、または体型測定値など、一部の指標は長期間にわたって一定であることが知られている。衣服などその他の指標は、人が衣服を着替えることができるため、短時間のみ有効である。ただし、そのような「短時間」の指標は、短期間の追跡に対しては非常に堅牢である。多くの場合、衣服は顔よりもカメラに見えやすい。他のいくつかの指標、たとえば髪型などは「中程度の持続時間」を持つことができる。
図6を参照すると、監視システム100は、検出された人物を「既知」または「未知」と認識する。その人物は正確に識別され、その人物の識別が割り当てられる。図8はまた、識別されたオブジェクトに関する主要な情報、例えば、オブジェクトのタイプ(人物またはペット)、識別、名前、姿勢(立っている、座っている)および状態を表現している。
図6を参照すると、ステップ430において、顔の指標、身体の指標、および衣服の指標の読み取りが実行される。監視システム100は、ビデオストリームのフレーム内の人間の生体パラメータを認識する。監視システム100は、人間の体の形、ヘアカット、または衣服に基づく識別を使用してもよい。このタイプの識別は信頼性は高くないが、識別レベルの1つで使用できる。行動特性は、限定されないがタイピングリズム、歩行、および声を含む個人の行動パターンに関連している。一実施形態では、人物は声の音色に基づいて識別されてもよい。プライバシーのため、声が録音されない場合がある。監視システム100は、音の強度および音のスペクトル特性を追跡する。行動特性は監視システム100のメモリに保存され、分析される。
監視システム100は、特定のオブジェクトについて典型的なアクティビティの行動、タイプ、および時間を知っている場合がある。ステップ430で、監視システム100は、前のフレームで検出された、検出された顔、身体、衣服の指標に関する情報を含む短期メモリストレージ435顔、身体、衣服の指標とインタラクトすることができる。
ステップ440で、前のステップから集められ、既知の人物474のデータベースから抽出された情報に基づいて個人識別が実行される。
さらに、監視システム100は、衣服を着替えたばかりの「既知の」人物の識別を可能にする。ステップ450で、監視システム100は、検出された人物が衣服を着替えたかどうかを検証する。誰かが衣服を着替えた場合、監視システム100はステップ460に進み、衣服の指標データを更新し、それを顔、身体、および衣服の指標の短期記憶435に追加する。
フレーム内の誰も衣服を着替えていない場合、監視システム100は、ステップ470で、すべての人物が識別されているかどうかをチェックする。識別されたオブジェクトがない場合、監視システム100は、人物を一意に識別する必要があるかどうか、確認する471。例えば、監視システム100は要求をユーザーに送信して、新しい「未知の」人物を「既知の」人物のデータベース474に追加することができる473。使用は、リクエストを承認し、個人識別手順でさらに使用され得る検出されたオブジェクトに関する情報(名前、年齢など)を提供する。人物を識別する必要がない場合、監視システム100は、ステップ472でID=「未知」を割り当てる。緊急事態(アラーム状態)の場合、この未知の人物の生体認証日付は、外部サービス、たとえばポリシーに転送される。
図7は、図6の続きを示している。ステップ480で、監視システム100は幾何学的位置と個人IDの短期メモリからの情報に基づいたすべてのオブジェクトの幾何学的(空間)位置を更新する485。
ステップ490で、監視システム100は、人々のID、彼らの空間位置、タイムスタンプおよびアクティビティタイプをアラートトリガーのリストと比較する。ここで、事前設定されたアラート条件のデータベース492を使用できる。事前設定されたアラート/アラーム条件のデータベース492は、血液や武器などの特定のオブジェクトの説明を含むことができる。ステップ491でアラートが生成された場合、監視システム100は、外部システムまたはデバイスおよびユーザー制御デバイスにアラート通知494を送信することができる。
ステップ491でアラートが生成されない場合、監視システム100は次のフレームからのデータを処理し続ける493。識別の改善のための技術を使用して、監視システム100の精度を高めることができる。たとえば、そのような技術は、座っていたり、カメラに背を向けてとどまっていたり、1つの部屋から別の部屋へ移動したり、衣服を着替えたり、家具の後ろに隠れている人物を追跡するために使用できる。マイクからの音声データを使用して、人物を追跡する技術を強化することができる。識別されたオブジェクトが1つのカメラのビューファインダーから消え、別のカメラのビューファインダーに表示されない場合に人物を追跡する技術は増強され、システムはそのような識別されたオブジェクトの足跡を失わないようにするために重要である。人物の位置が既知である場合、マイクからの信号と相関している。次に、監視システム100は、マイクからの信号のみに基づいて人物の協調を回復することができる。
提案された監視システム100は、例えば、猫、犬などの動物を識別することができる。ペットの識別は、さらなるビデオフレーム分解および分析のために必要である。例えば、監視システム100は、家が所有者によって一時的に去られている場合、ペットの動きに反応しない。一方、ペットが子供を噛んだ場合、監視システム100は反応し、アラートを発したり、子供に最も近い指定された大人と接触したりする。この危険な状況を説明するそのようなルールは、ユーザーが監視システム100に追加することができる。
説明された監視システム100は適応的である。これは、監視システム100がさまざまなモードで動作してエネルギーとリソースを節約できることを意味する。図10は、一実装によるいくつかのモードでの監視システム100を実行する例示的なブロック図を示す。ステップ720で、監視システム100が起動される。監視システム100は動作時間の大半を、省エネモードで動作する。ステップ730で、監視システム100は、センサー100から信号、すなわち低解像度低周波音声およびビデオデータを受信する。ステップ740で、監視システム100は、オブジェクトのわずかなカテゴリとそれらの粗いアクティビティのみを検出する。フレーム内のステップ750でアクティビティが検出されない場合、監視システム100はステップ720に戻る。
アクティビティがステップで検出された場合、750監視システム100は、図6および図7に従って上述したように、ステップ770でアクティビティのタイプを正確に検出するために、全処理モード760に変わる。監視システム100は、ステップ780でのようにいくつかの条件、たとえば、すべてのオブジェクトが領域を離れてN秒が経過したかどうかなどを検証してもよい。これらの条件が満たされていない場合、監視システム100はステップ720に戻る。
説明された監視システム100は、ジェスチャ、話されたフレーズ、または音声信号などの事前に定義されたアラーム信号を認識して、危険な事象の防止の精度を高めることができる。アラーム信号は、監視システム100が問題を自動的に認識できない場合に必要であり、人が問題について合図する必要がある。図11は、一実装による、アラーム信号を検出し、外部サービスまたはユーザープロセッサ制御デバイスにアラーム通知を送信するための例示的なブロック図を示す。
ステップ810で、監視システム100は、以前に検出されたアクティビティのタイプの説明を受信する。図11のフローチャートは、より詳細を提供する。ステップ820で、「アラームオン」および「アラームオフ」の秘密のジェスチャの認識が実行される。たとえば、秘密のジェスチャは、監視システム100の較正段階中に監視システム100に含まれる。秘密のジェスチャは、異常事象について監視システム100に通知することを目的とする。秘密のジェスチャは、アラーム通知送信(「アラームオン」秘密のジェスチャ)をトリガーするか、監視システム100(「アラームオフ」秘密のジェスチャ)が誤ったトリガーに基づいてアクションを実行するのを停止することができる。実施形態の1つでは、監視システム100は、監視システム100による認識が特に容易であることが知られているような、事前に訓練された視覚的および聴覚的アラームオン/オフジェスチャまたはフレーズの事前設定リストを有することができる。ユーザーは、このリストから1つまたはいくつかを選択する。
さらに、監視システム100は、秘密の音声信号を認識することができる。
したがって、ステップ830で、監視システム100は音声フレームを受信することができる。ステップ840で、「アラームオン」および「アラームオフ」秘密のフレーズの認識が実行される。例えば、音声フレームの短いメモリ850がこの目的のために使用される。
ステップ860で、「アラームオン」手動信号が受信され、「アラームオフ」手動信号を受信することにより、M秒中に「アラームオン」手動信号がキャンセルされなかったかどうかが検証される。これらの条件が満たされない場合、監視システム100は次のフレームに進み、ステップ880で、監視を継続し、検出されたオブジェクトの追跡を続ける。これらの条件が満たされた場合、監視システム100はステップ870でアラート通知を送信する。
次に、監視されている領域に関する情報を有益でコンパクトな方法で提供する高レベルインターフェースについて説明する。提案されている表現技術では、監視下のあるエリアで人々が何をしているのかを理解するために、ユーザーがビデオを見て音声を聞く必要はない。
提案された表現技術により、ユーザーはわずか数秒で監視されている領域の正確な概要を受け取ることができる。結果として、本開示の態様は、追跡プロセスの速度の増加を可能にし、ユーザーの認知的負荷を低減させる。さらに、本開示の態様により、ユーザーはデータを見直して、過去の任意の瞬間を選んで、過去の状況を分析することができる。システムは、過去のオブジェクトの空間的位置を示すトラックを提案する。それは、正確な時刻を選択せずに、現在の瞬間だけでなく過去の領域の状況をも確認するのに役立つ。
図12は、本発明の一態様に従って動作する例示的なユーザープロセッサ制御デバイス1200を示す。例示的な例では、ユーザープロセッサ制御デバイスは、ラップトップコンピュータ、パーソナルコンピュータ、スマートフォン、タブレットコンピュータなどを含む任意の電子デバイスによって表され得る。ユーザープロセッサ制御デバイスは、プロセッサ、メモリストレージ、ディスプレイ1201、キーボード、入力デバイスなどを含み得る。ユーザープロセッサ制御デバイスは、タッチ入力に反応するエリアによって表され得るタッチ画面入力ユニットを含み得る。ユーザープロセッサ制御デバイス1200の画面上の、ミニマップを備えた例示的なグラフィカルユーザーインターフェースが表されている。
一実施形態では、監視システムのセンサーからの処理されたデータは、ダッシュボード上に表示され、ユーザーは監視オブジェクトの位置を追跡できる。一実施形態では、コンピュータ処理ユニット120によって処理されたデータは、メモリストレージ130から抽出されて、ユーザープロセッサ制御デバイス150のディスプレイ上に視覚形式で表され得る。
図13は、ミニマップ405と、ユーザープロセッサ制御デバイス150の画面上のスライダー1350を備えたタイムライン1340とを備えたダッシュボード1300の例示的なグラフィカルユーザーインターフェースを示す。ダッシュボード1300は、システムのさまざまな態様に関する重要な情報をコンパクトかつ視覚的に表示するカスタマイズ可能な画面を備えている。ダッシュボード1300は、最も重要な情報、より具体的には、すべての監視されるオブジェクト、そのアクティビティ、および領域内でのその割り当てに関する情報を収集して表す。
たとえば、ダッシュボードはミニマップ(または生成された計画)1305を備え得る。ミニマップ1305(または言い換えれば、領域の計画)は、特定された幾何学的パラメータに基づいてセキュリティシステム105によって生成されてもよい。領域ミニマップの生成は、センサー110からのデータに基づいて半自動で実行されてもよい。
たとえば、ジャイロスコープからのカメラの角度に関する情報は、領域の計画をより正確に定義できる。一実施形態では、システムは予備計画の説明を作成し、ユーザーはステップ330(図5)で作成された計画の結果を修正して、領域の特定されたパラメータの精度を高めることができる。別の実施形態では、システムは生活空間の説明を、オペレータ支援なしで自動的な方法で作成する。
図13を参照すると、GUIインターフェースは、領域の生成されたミニマップ1300を有する例示的なダッシュボード1300を表し、監視されるオブジェクトに関する情報は特定の瞬間に示される。設計計画405には、すべての領域に関する利用可能な情報、すなわち部屋の割り当て、それらの幾何学的サイズ、窓、ドア、階段、光源、部屋のタイプなどが含まれる場合がある。言い換えれば、生成された計画は、領域のグラフィックイメージを表現し、かつ、監視システムのセンサーから受信および処理されたデータをユーザーに概略的に表すために生成される。たとえば、監視された領域の複数のフロアのための情報、インターフェースは複数のミニマップを互いに接続できる。
ダッシュボード1305は、ユーザープロセッサ制御デバイス150上のカスタマイズされた画面を表し、グラフィカルユーザーインターフェース(GUI)160は、アプリケーションの設定を変更する可能性をユーザーに提供する。
例えば、GUI 160により、ユーザーはミニマップの表示モードを定義できる。本明細書では、「ビューモード」という用語は、ミニマップがディスプレイ上でユーザーに表示される方法を指す場合がある。一実施形態では、領域のミニマップは、ユーザープロセッサ制御デバイス150の画面上に、概略図または上からの領域の図面として表示されてもよい。本技術の主な特徴の1つは、概略図または漫画の形で情報を表すことである。既存のセキュリティ、監視および制御システムは、ユーザープロセッサ制御デバイスのディスプレイの画面にすべての完全な情報を表示するため、ユーザーの認知的負荷を増大させ、追跡プロセスの速度を低下させる。センサーからのデータの概略的なグラフィックイメージの表示により、システムは最も重要な詳細のみを表示できるため、ユーザーの注意を最も重要な情報に集中させ、追跡プロセスの時間を短縮できる。
別の実施形態では、領域のミニマップは、任意の特定の角度から表示され、ユーザーに存在感を与えることができる。ユーザーは、ミニマップ内を移動して、監視されるべき領域の状況を概観できる。
説明した発明により、ユーザーはユーザープロセッサ制御デバイス150の画面上に表されるべき新しい詳細を、ダッシュボードに追加できる。詳細度は、アプリケーションの設定で変更できる。例示的な一実施形態では、ミニマップは、部屋の割り当て、部屋のタイトル(例えば「子供用寝室」1321、「子供用浴室」1322、「リビングルーム」423、「主寝室」1324、「主浴室」1325)などを示した領域の計画のみを含んでもよい。別の例示的な実施形態では、ミニマップは、ドアおよび窓、家具、または暖炉、スイミングプール、風呂などのその他のオブジェクトの割り当てを含んでもよい。
ミニマップ1300は、カメラ420、マイク、および追加のセンサーの位置に関する情報を含むことができる。
監視されるオブジェクトは、ミニマップ400上に示され得る。既存の技術と比較して、ミニマップ内の監視されるオブジェクトは、アバター1320および概略図によって表され得る。アバターはデフォルトで選択されるか、システムのユーザーによって変更されてもよい。このタイプのオブジェクト表現は、所与のシステムのユーザーの私生活に関する情報のプライバシーを提供する。
さらに、ダッシュボード1300は、ユーザーがタイムライン1340で、一瞬の時間を選択できるようにするスライダー1350を備えたタイムライン1340を備えてもよい。ユーザーは過去の状況を確認するために、過去のいずれの時間でも選択できる。スライダー1350をスクロールすることにより、ユーザーはミニマップ内の情報のグラフィックイメージ表現の動的な変更を開始する。「動的」という用語は、時間内の情報(オブジェクト、オブジェクトのアクティビティ、オブジェクトの割り当て)の変化を意味する。ユーザーは、タッチ入力またはカーソル1202を使用して、短時間でスライダーをスクロールして情報を概観でき、情報提供の大幅な高速化を実現する。従来のシステムでは、ユーザーはすべてのビデオデータを見る必要がある。
さらに、現在のユーザーインターフェースは、過去のオブジェクトの空間的位置を示すトラック1350を備えてもよい。「トラック」という用語は、オブジェクトの幾何学的パラメータに基づいて識別されるオブジェクトの跡を指す。ミニマップ1305内のトラック460の表現は、領域内の時間中のオブジェクトの割り当ておよび動きに関する視覚情報を提供する。トラック表示の期間は、例えば30分など、デフォルトでインストールされる場合があるが、または、ユーザーによって変更されてもよい。
トラックはさまざまな方法でミニマップに表示できる。例えば、トラック1360は、異なる強度の色の曲線として描かれてもよい。色の強さは、領域内のオブジェクトの動きの速度を示す場合がある。高強度の色付けが、動きの速い速度を示してもよい。色付けの強度が低いことが、動きの速度が遅いことを示してもよい。
ミニマップ1305は、オブジェクトの検出されたアクティビティに関する短く正確な情報を提供し得る。たとえば、GUIは、例えば「リリーは手を洗っている」1332、「ママはソファに座っている」1334、「ボブは10分前に出かけた」1333など、アクティビティに関するメモを提供することができる。
一実施形態では、ユーザーは、例えばタッチによってオブジェクトを示し、特定のオブジェクトに関する正確で短い情報を受け取ることができる。たとえば1つリリーアバター1320をユーザーが選択するのに応じて、システムは日中のリリーのアクティビティに関する完全な情報を提供できる。たとえば、テキストレポートには、主な事象に関するテキスト情報が含まれる場合がある。たとえば、「リリーは午前9時に目を覚まし、キッチンに行き、看護師と朝食をとり、学習室で2時間過ごし、スイミングプールの近くで1時間過ごした。」、「ママは午前8時30分に朝食を作り、部屋を掃除し、子供の寝室でリリーと2時間過ごした…」、「ボブは午前8時に薬を飲んだ、本を3時間読んだ、午後1時に家を出た…」など。任意のテキスト読み上げ機能をここで使って、要求された期間の事象を再生することができる。
図14は、本発明の一態様による、システムのグラフィカルインターフェースとユーザーがインタラクトする例示的なブロック図を示す。システム100のグラフィカルインターフェースとユーザーをインタラクトさせる方法は、ステップ1400で始まり、ステップ1470まで進む。
ステップ1410で、ユーザーはシステムアプリケーションウィンドウを起動し、表示モードを選択できる。次に、ステップ1420で、ユーザーは、ユーザープロセッサ制御デバイスのディスプレイ上のダッシュボード1300上のミニマップ上に監視されている領域に関する情報を示す要求を送信することができる。また、ユーザーは、スライダー1350を備えたタイムライン1340によってデータ表現の期間を選択してもよい。ユーザーは、光学式マウスやタッチ画面ディスプレイなどの入力デバイスを使用して、タイムライン上に時間を示すことができる。
アプリケーションは、起動すると、セキュリティおよび監視システム105のセンサーから受信したユーザーの入力に応答する。一実施形態では、コンピュータ処理ユニット120によって処理されたデータは、メモリストレージ130から抽出されて、ユーザープロセッサ制御デバイス150のディスプレイ上に視覚的な形で表される。
識別されたオブジェクト、それらの位置、および識別されたアクティビティは、ステップ1450でダッシュボード1305のミニマップに表示される。すべての情報が表されていない場合、ユーザーは次に、ステップ1420で追加情報を要求することができ、例えば、ユーザーは、タイムライン1340上のスライダー1350で特定の瞬間を示す。そうでない場合、ユーザーは領域を監視したり、システムアプリケーションウィンドウを閉じたりしてもよい。
図15は、家庭環境内に統合されたホームモニタリングおよびセキュリティ監視システムの図を含むさらなる例を提供する。このシステムには、一連のセンサーに接続された処理ユニットが含まれており、通知および緊急通報の機能を備えたインテリジェントなホームモニタリングを提供する。
図16は、家の中の処理ユニットに接続するWi−Fi/Bluetooth(登録商標)経由でセンサーおよびビデオ/音声データストリームを提供し、ソフトウェア要求に従って動く、CherryCamと呼ばれる単一のカメラを備えたセンサーノードの主要コンポーネントの例を示す。それは、次の3つの主要コンポーネントで構成される。
● メインPCB、
● カメラPCB、
● バッテリー(取り外し可能および充電可能)。
図17および18に、CherryCamの設計例を示す。
メインPCBに含まれるもの。
a.低電力32ビットマイクロコントローラーSTM32 F4シリーズ、
b.ビデオプロセッサOV798、
c.バロメーター、
d.加速度計、
e.ジャイロスコープ、
f.磁力計、
g.2x MEMSマイク、
h.光センサー、
i.LEDインジケータ、
j.フラッシュメモリー、
k.WiFi、Bluetooth(登録商標) 4.0、およびFM RXモジュール、
l.Micro−SDソケット、
m.スピーカーと音声アンプ、
n.ディスプレイモードスイッチ。
カメラPCBに含まれるもの。
a.2x CMOS RGB画像センサーOV4689:恒久的なIRフィルター付き
b.赤外線LED、
c.モーションセンサー(PIR)。
取り外し可能なバッテリーに含まれるもの(3500 mAhを超える)。
a.マイクロコントローラーSTM32 L0シリーズ、
b.USB−Cポート、
c.充電およびバッテリー残量ゲージ、
d.LEDインジケータ、
e.Li−Pol 3.7Vバッテリー、
f.QI 1.2充電モジュール。
使用シナリオの例について説明する。
処理ユニットのホームWi−Fiネットワークへの接続。
1.ユニットを電源に接続する。LEDインジケータが白く点滅し始める。
2.携帯電話にアプリケーションをインストールする。必要に応じてサインアップしてアカウントを作成する。
3.アプリケーションはユニットを検索し、Bluetooth(登録商標)経由で接続を実行する。
4.ユーザーはアプリケーションを介して必要なデータを入力する。Wi−Fiネットワークを選択し、キーを入力する。
5.接続が成功した場合、LEDインジケータは点滅を停止し、白く点灯し始める。
6.イーサネット(登録商標)ケーブルを使用する場合−入力データは不要。
処理ユニットへの接続。
1.CherryCamにバッテリーを挿入する。LEDインジケータが白く点滅し始め、音信号が発生する。
2.Bluetooth(登録商標)を介した直接接続(近距離)。
a.Cherrycamがユニットの近くにある場合、Bluetooth(登録商標)経由で直接接続を確立できる。
b.カメラはBluetooth(登録商標)経由でユニットを検出し、接続し、ユニットから内部Wi−Fiパラメータを取得する。
3.電話機アプリケーションを介した接続(遠距離)。
a.Cherrycamがユニットから遠く離れている場合、電話機アプリケーションを使用して間接的に接続を確立できる。
b.電話機がBluetooth(登録商標)経由でカメラを検出し、接続を確立する。
c.電話機はWi−Fi経由でユニットとの接続を確立し、内部Wi−Fiパラメータを取得して、それをBluetooth(登録商標)経由でCherryCamに送信する。
4.接続が成功した場合、LEDインジケータは点滅を停止し、約20秒間白く光り始め、その後にオフになる。
スタンバイ状態またはモードが利用可能。次の事象により、スタンバイ状態を起動する場合がある。
● ユニットへの接続後のCherryCamのデフォルト状態。
● 対応するセンサーで動き/ノイズが検出されない場合、タイムアウトが開始される。
●タイムアウト満了で、待機状態が開始される。
● Wi−Fi/Bluetooth(登録商標)経由の処理ユニット要求。
スタンバイ状態では、モーションセンサー、マイクセット、およびBluetooth(登録商標)がアクティブである。他のコンポーネントはスリープモードである。「キープアライブ」信号も処理ユニットにWi−Fi/Bluetooth(登録商標)経由で定期的に送信される。
限定されないが、以下のような他の状態またはモードが利用可能である。
● シングル、480pおよびデイモード。
● シングル、480pおよびナイトモード、
● シングル、720Pおよびデイモード、
● シングル、720pおよびナイトモード、
● シングル、1080pおよびナイトモード、
● ステレオ、480pおよびデイモード。
● ステレオ、480pおよびナイトモード、
● ステレオ、720pおよびデイモード、
● ステレオ、720pおよびナイトモード、
● ステレオ、1080pおよびナイトモード、
例として、「シングル、480p、およびデイモード」は次のパラメータを有する。
●状態をアクティブにすることができる事象の例は次のとおりである。
o センサーの範囲内で任意の動きが検出された場合のモーションセンサートリガー。
o マイクセットトリガー:マイクセットによって、任意の閾値を超えるノイズが検出された場合。
o 処理ユニットトリガー:起動は、Bluetooth(登録商標)/Wi−Fiを介して処理ユニット信号によって行われる。
o 光センサーコマンド、
o 処理ユニット要求。
● 操作:ビデオ/音声ストリーム、センサーデータをWi−Fi/Bluetooth(登録商標)経由で処理ユニットに転送する、および処理ユニット要求に応じた4MP静止画。4MP静止画要求があると、カメラは対応するシングルモードに切り替えられ(約1秒間)、静止画を撮影して現在のモードに戻る。
例として、「シングル、480pおよびナイトモード」は次のパラメータを有する。
● 状態をアクティブにすることができる事象の例は次のとおりである。
o センサーの範囲内で任意の動きが検出された場合のモーションセンサートリガー、
o マイクセットトリガー:マイクセットによって、任意の閾値を超えるノイズが検出された場合、
o 処理ユニットトリガー:起動は、Bluetooth(登録商標)/Wi−Fiを介して処理ユニット信号によって行われる。
o 光センサーコマンド;
o 処理ユニット要求。
● 操作:ビデオ/音声ストリーム、センサーデータをWiFi/Bluetooth(登録商標)経由で処理ユニットに転送する。

上記で参照された構成は、本発明の原理の応用の例示にすぎないことを理解されたい。本発明の精神および範囲から逸脱することなく、多数の修正および代替の構成を考案することができる。本発明は図面に示されているが、現在、本発明の最も実用的で好ましい例と考えられるものに関連して、特殊性および詳細を用いて上記で十分に説明したが、当業者には、本明細書に記載される本発明の原理および概念から逸脱することなく多くの修正を行うことができることが明らかであろう。

Claims (20)

  1. 監視システムであって、前記監視システムが、
    指定された領域内のアクティビティを監視するセンサーであって、前記センサーが
    ビデオ録画を行う視覚センサーを備える、前記センサーと、
    前記指定された領域内またはその近くに配置されたローカル処理システムであって、前記ローカル処理システムが前記センサーから信号を受信し、前記ローカル処理システムが前記センサーからの前記信号を処理および分析して、前記センサーによって監視されたように前記指定された領域内のアクティビティを説明するメッセージを生成し、
    前記メッセージが、前記指定された領域内の人物の身元を直接明らかにする音声、視覚、またはその他の直接識別情報を含まない、前記ローカル処理システムと、
    前記指定された領域外の監視ステーションであって、前記監視ステーションが、前記ローカル処理システムによって生成された前記メッセージを受信し、前記メッセージを外部監視者が利用できるようにする、前記監視ステーションと、を備える前記監視システム。
  2. 前記メッセージが、前記指定された領域内の人物または動物によって実行されるアクションを十分に説明し、外部監視者が、外部介入がいつ必要かを決定できるようにする、請求項1に記載の監視システム。
  3. 前記メッセージが、外部介入が必要とされる可能性があることを示す人物または動物によって実行されるアクションを説明するときに、前記監視ステーションがアラームを生成する、請求項1または2に記載の監視システム。
  4. 前記センサーが、
    子ども、障害者、病人、または老人を監視するように選択される、請求項1〜3に記載の監視システム。
  5. 前記監視ステーションが前記ローカル処理システムに外部監視者からのクエリを転送するとき、ローカルプロセッサがメッセージで応答し、前記メッセージの内容が、
    前記センサーからの前記信号を処理および分析することにより検出された、前記指定された領域内のアクティビティに基づく、請求項1〜4に記載の監視システム。
  6. 前記メッセージが、前記センサーによって所定のジェスチャまたは所定のフレーズが検出されたことを示すときに、前記監視ステーションがアラートを生成する、請求項1〜5に記載の監視システム。
  7. 前記メッセージが、前記センサーによって所定のキャンセルジェスチャまたは所定のキャンセルフレーズが検出されたことを示すときに、前記監視ステーションが前記アラートをキャンセルする、請求項6に記載の監視システム。
  8. 前記ローカル処理システムが、
    以下の技術、
    顔の特徴を識別して記録する顔指標識別、身体上の衣服のタイプを検出および記録する衣服指標識別、
    身体の形状を検出および記録する身体指標識別、
    身体の現在のアクティビティを検出および記録するアクティビティ指標識別、ヘアカットスタイルを検出および記録するヘアカット指標識別、
    保持しているか、または身体の近くにある物体を検出および記録するツール指標識別、のうちの少なくとも1つを使用して、ビデオデータに基づいて、前記指定された領域内の人々および動物の身体を内部的に識別する、請求項1〜7に記載の監視システム。
  9. 前記ローカル処理システムが、前記指定された領域内の身体に加えられた変更を認識し、影響を受ける指標識別を更新する、請求項8に記載の監視システム。
  10. 前記ローカル処理システムが、
    識別された身体の運動学的な動きを分析して、物理法則と一致する動きを保証し、身体を内部的に識別する際の矛盾を検出および解決する、請求項8に記載の監視システム。
  11. 前記ローカル処理システムが、音声データをさらに使用して、前記指定された領域内の人々および動物の身体を内部的に識別し、
    前記音声データが、音色指標と相対的な音の振幅とを含む、請求項10に記載の監視システム。
  12. 前記ローカル処理システムが、以下の技術、
    顔の特徴を識別して記録する顔指標識別、
    身体上の衣服のタイプを検出および記録する衣服指標識別、身体の形状を検出および記録する身体指標識別、
    身体の現在のアクティビティを検出および記録するアクティビティ指標識別、ヘアカットスタイルを検出および記録するヘアカット指標識別、
    保持しているか、または身体の近くにある物体を検出および記録するツール指標識別、
    のうちの2つ以上を使用して、ビデオデータに基づいて、前記指定された領域内の人々および動物の身体を内部的に識別する、請求項1〜11に記載の監視システム。
  13. 前記指定された領域が、以下の、
    学校、
    刑務所、
    病院、
    ショッピングモール、通り、
    オフィス、
    駐車場、のうちの少なくとも1つのエリアを含む、請求項1〜12に記載の監視システム
  14. 前記指定された領域が、複数の部屋を備え、前記ローカル処理システムが、前記センサーからのビデオデータを使用して前記領域のレイアウト計画を構築する、請求項1〜13に記載の監視システム。
  15. 前記ローカル処理システムが、音声データをさらに使用して、前記レイアウト計画を構築する、請求項14に記載の監視システム。
  16. 前記領域の前記レイアウト計画を構築するとき、
    前記ローカル処理システムが、以下の、水平線と垂直線を検出することに基づく部屋の形状の推定値、ビデオセンサーの視野内の主要なオブジェクトの検出、
    既知の部屋タイプのデータベースに基づいて部屋タイプフォームを認識するニューラルネットワークアルゴリズム、
    ルーム、
    音声センサーによって検出された構成音声信号内のユーザーの要求された構成アクティビティに基づく測定値、のうちの少なくとも1つを利用する、請求項14に記載の監視システム。
  17. 指定された領域内のアクティビティを監視する方法であって、前記方法が、
    センサーを使用してビデオ録画を行うこと、
    前記センサーから前記指定された領域内またはその近くにあるローカル処理システムに信号を転送すること、
    前記ローカル処理システムを使用して、前記センサーからの信号を処理し、分析して、前記センサーによって監視されたように前記指定された領域内のアクティビティを説明するメッセージを生成することであって、ここで、前記メッセージが、前記指定された領域内の人物の身元を直接明らかにする、音声、視覚または他の直接識別情報を含まない、生成すること、
    前記指定された領域外の監視ステーションに前記メッセージを送信することであって、前記監視ステーションが前記メッセージを外部監視者に使用可能にする、送信すること、を備える方法。
  18. 前記メッセージが、前記センサーによって所定のジェスチャまたは所定のフレーズが検出されたことを示すとき、前記監視ステーションがアラートを生成すること、をさらに含む、請求項17に記載の方法。
  19. 以下の技術の、
    顔の特徴を識別して記録する顔指標識別、
    身体上の衣服のタイプを検出および記録する衣服指標識別、身体の形状を検出および記録する身体指標識別、
    身体の現在のアクティビティを検出および記録するアクティビティ指標識別、ヘアカットスタイルを検出および記録するヘアカット指標識別、および、
    保持しているか、または身体の近くにある物体を検出および記録するツール指標識別、のうちの1つ以上を使用して、ビデオデータに基づいて前記指定された領域内の人々および動物の身体を内部的に識別することをさらに含む、請求項17に記載の方法。
  20. 前記センサーによって音声データを記録することであって、前記音声データが、前記指定された領域内の人々および動物の身体を内部的に識別するために使用され、前記音声データが、音色指標と相対的な音の振幅とを含む、記録すること、をさらに含む、請求項17に記載の方法。
JP2020510506A 2017-04-28 2018-04-30 コンピュータービジョンベースの監視システムおよび方法 Pending JP2020522828A (ja)

Applications Claiming Priority (9)

Application Number Priority Date Filing Date Title
US201762491832P 2017-04-28 2017-04-28
US62/491,832 2017-04-28
US201762501545P 2017-05-04 2017-05-04
US62/501,545 2017-05-04
US15/647,129 2017-07-11
US15/647,129 US11037300B2 (en) 2017-04-28 2017-07-11 Monitoring system
GBGB1717244.6A GB201717244D0 (en) 2017-10-20 2017-10-20 Cherry I
GB1717244.6 2017-10-20
PCT/US2018/030103 WO2018201121A1 (en) 2017-04-28 2018-04-30 Computer vision based monitoring system and method

Publications (1)

Publication Number Publication Date
JP2020522828A true JP2020522828A (ja) 2020-07-30

Family

ID=63920130

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020510506A Pending JP2020522828A (ja) 2017-04-28 2018-04-30 コンピュータービジョンベースの監視システムおよび方法

Country Status (3)

Country Link
EP (1) EP3616095A4 (ja)
JP (1) JP2020522828A (ja)
WO (1) WO2018201121A1 (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019168989A (ja) * 2018-03-23 2019-10-03 富士ゼロックス株式会社 噛みつき検知装置及びプログラム
WO2022074787A1 (ja) * 2020-10-08 2022-04-14 日本電気株式会社 画像処理装置、画像処理方法、プログラム

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102021441B1 (ko) * 2019-05-17 2019-11-04 정태웅 인공지능을 이용한 영상 기반의 실시간 침입 감지 방법 및 감시카메라
CN117423197B (zh) * 2023-12-18 2024-02-20 广东省华视安技术有限公司 一种智能安防软件监控方法及系统

Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005521975A (ja) * 2002-04-05 2005-07-21 アイデンティクス・インコーポレーテッド 映像を用いたオペレーティング方法およびシステム
JP2006018818A (ja) * 2004-06-04 2006-01-19 Canon Inc 状況モニタリング装置及び状況モニタリングシステム
JP2007317116A (ja) * 2006-05-29 2007-12-06 Honda Motor Co Ltd 顔認証システム搭載車両
JP2009088789A (ja) * 2007-09-28 2009-04-23 Toshiba Corp カメラ監視システム
JP2009252215A (ja) * 2008-04-11 2009-10-29 Sogo Keibi Hosho Co Ltd 警備装置および情報表示方法
JP2014007685A (ja) * 2012-06-27 2014-01-16 Panasonic Corp 介護システム
WO2015093330A1 (ja) * 2013-12-17 2015-06-25 シャープ株式会社 認識データ伝送装置
JP2016162075A (ja) * 2015-02-27 2016-09-05 Kddi株式会社 オブジェクト追跡方法、装置およびプログラム
US9519969B1 (en) * 2011-07-12 2016-12-13 Cerner Innovation, Inc. System for determining whether an individual suffers a fall requiring assistance

Family Cites Families (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7634662B2 (en) * 2002-11-21 2009-12-15 Monroe David A Method for incorporating facial recognition technology in a multimedia surveillance system
US20060136743A1 (en) * 2002-12-31 2006-06-22 Polcha Andrew J System and method for performing security access control based on modified biometric data
WO2006034135A2 (en) 2004-09-17 2006-03-30 Proximex Adaptive multi-modal integrated biometric identification detection and surveillance system
US20070036395A1 (en) * 2005-08-15 2007-02-15 Okun Sheri L Reverse identity profiling system with alert function
US7437755B2 (en) * 2005-10-26 2008-10-14 Cisco Technology, Inc. Unified network and physical premises access control server
US7636033B2 (en) * 2006-04-05 2009-12-22 Larry Golden Multi sensor detection, stall to stop and lock disabling system
WO2010143290A1 (ja) * 2009-06-11 2010-12-16 富士通株式会社 不審者検出装置、不審者検出方法、および、不審者検出プログラム
WO2014182898A1 (en) * 2013-05-09 2014-11-13 Siemens Aktiengesellschaft User interface for effective video surveillance
US9697656B2 (en) * 2014-08-19 2017-07-04 Sensormatic Electronics, LLC Method and system for access control proximity location
US20170032092A1 (en) * 2016-06-16 2017-02-02 Benjamin Franklin Mink Real Time Multispecialty Telehealth Interactive Patient Wellness Portal (IPWP)

Patent Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005521975A (ja) * 2002-04-05 2005-07-21 アイデンティクス・インコーポレーテッド 映像を用いたオペレーティング方法およびシステム
JP2006018818A (ja) * 2004-06-04 2006-01-19 Canon Inc 状況モニタリング装置及び状況モニタリングシステム
JP2007317116A (ja) * 2006-05-29 2007-12-06 Honda Motor Co Ltd 顔認証システム搭載車両
JP2009088789A (ja) * 2007-09-28 2009-04-23 Toshiba Corp カメラ監視システム
JP2009252215A (ja) * 2008-04-11 2009-10-29 Sogo Keibi Hosho Co Ltd 警備装置および情報表示方法
US9519969B1 (en) * 2011-07-12 2016-12-13 Cerner Innovation, Inc. System for determining whether an individual suffers a fall requiring assistance
JP2014007685A (ja) * 2012-06-27 2014-01-16 Panasonic Corp 介護システム
WO2015093330A1 (ja) * 2013-12-17 2015-06-25 シャープ株式会社 認識データ伝送装置
JP2016162075A (ja) * 2015-02-27 2016-09-05 Kddi株式会社 オブジェクト追跡方法、装置およびプログラム

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019168989A (ja) * 2018-03-23 2019-10-03 富士ゼロックス株式会社 噛みつき検知装置及びプログラム
JP7225551B2 (ja) 2018-03-23 2023-02-21 富士フイルムビジネスイノベーション株式会社 噛みつき検知装置及びプログラム
WO2022074787A1 (ja) * 2020-10-08 2022-04-14 日本電気株式会社 画像処理装置、画像処理方法、プログラム

Also Published As

Publication number Publication date
WO2018201121A1 (en) 2018-11-01
EP3616095A1 (en) 2020-03-04
EP3616095A4 (en) 2020-12-30

Similar Documents

Publication Publication Date Title
US11120559B2 (en) Computer vision based monitoring system and method
US11875656B2 (en) Virtual enhancement of security monitoring
KR100838099B1 (ko) 수시 도움을 요구하는 독거인을 모니터링하기 위한 자동시스템
Lloret et al. A smart communication architecture for ambient assisted living
JP2020522828A (ja) コンピュータービジョンベースの監視システムおよび方法
JP7375770B2 (ja) 情報処理装置、情報処理方法、およびプログラム
JP6093124B2 (ja) 監督システム
JPWO2015093330A1 (ja) 認識データ伝送装置、認識データ記録装置及び認識データ記録方法
KR102277967B1 (ko) 인공지능 기반 영유아 모니터링 서비스 제공 시스템
US11011044B2 (en) Information processing system, information processing apparatus, and information processing method
Guerrero-Ulloa et al. IoT-based system to help care for dependent elderly
US20230326318A1 (en) Environment sensing for care systems
TWI713368B (zh) 影像式小偷偵測裝置及方法
Cao et al. An event-driven context model in elderly health monitoring
Bala et al. Survey on women safety using IoT
EP3992987A1 (en) System and method for continously sharing behavioral states of a creature
KR102544147B1 (ko) 영상분석 기반 1인 낙상 감지 시스템 및 방법
WO2020075283A1 (ja) 異常者予知システム、異常者予知方法、およびプログラム
US11521384B1 (en) Monitoring system integration with augmented reality devices
KR102668931B1 (ko) 맞춤형 서비스 제공 장치 및 방법
KR101571838B1 (ko) 비콘의 다기능 시스템을 이용한 다기능 방법.
Pérez‐Rodríguez Smart Homes
Iliev et al. An Approach for Improving the Older people’s Perception of Video-Based Applications in AAL Systems–Initial Study
JP2023123555A (ja) 日常生活を記録する自律行動型ロボット
Tangtisanon Telecare application and tools for older adults

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210428

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20220428

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220523

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20220812

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20230130