JP2020522828A - コンピュータービジョンベースの監視システムおよび方法 - Google Patents
コンピュータービジョンベースの監視システムおよび方法 Download PDFInfo
- Publication number
- JP2020522828A JP2020522828A JP2020510506A JP2020510506A JP2020522828A JP 2020522828 A JP2020522828 A JP 2020522828A JP 2020510506 A JP2020510506 A JP 2020510506A JP 2020510506 A JP2020510506 A JP 2020510506A JP 2020522828 A JP2020522828 A JP 2020522828A
- Authority
- JP
- Japan
- Prior art keywords
- sensor
- designated area
- monitoring
- local processing
- processing system
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N7/00—Television systems
- H04N7/18—Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/34—Smoothing or thinning of the pattern; Morphological operations; Skeletonisation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/52—Surveillance or monitoring of activities, e.g. for recognising suspicious objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/20—Movements or behaviour, e.g. gesture recognition
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/20—Movements or behaviour, e.g. gesture recognition
- G06V40/23—Recognition of whole body movements, e.g. for sport training
-
- G—PHYSICS
- G08—SIGNALLING
- G08B—SIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
- G08B13/00—Burglar, theft or intruder alarms
- G08B13/18—Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength
- G08B13/189—Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems
- G08B13/194—Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems
- G08B13/196—Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems using television cameras
- G08B13/19602—Image analysis to detect motion of the intruder, e.g. by frame subtraction
- G08B13/19613—Recognition of a predetermined image pattern or behaviour pattern indicating theft or intrusion
-
- G—PHYSICS
- G08—SIGNALLING
- G08B—SIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
- G08B13/00—Burglar, theft or intruder alarms
- G08B13/18—Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength
- G08B13/189—Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems
- G08B13/194—Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems
- G08B13/196—Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems using television cameras
- G08B13/19663—Surveillance related processing done local to the camera
-
- G—PHYSICS
- G08—SIGNALLING
- G08B—SIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
- G08B25/00—Alarm systems in which the location of the alarm condition is signalled to a central station, e.g. fire or police telegraphic systems
- G08B25/01—Alarm systems in which the location of the alarm condition is signalled to a central station, e.g. fire or police telegraphic systems characterised by the transmission medium
- G08B25/08—Alarm systems in which the location of the alarm condition is signalled to a central station, e.g. fire or police telegraphic systems characterised by the transmission medium using communication transmission lines
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04L—TRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
- H04L9/00—Cryptographic mechanisms or cryptographic arrangements for secret or secure communications; Network security protocols
- H04L9/32—Cryptographic mechanisms or cryptographic arrangements for secret or secure communications; Network security protocols including means for verifying the identity or authority of a user of the system or for message authentication, e.g. authorization, entity authentication, data integrity or data verification, non-repudiation, key authentication or verification of credentials
- H04L9/3226—Cryptographic mechanisms or cryptographic arrangements for secret or secure communications; Network security protocols including means for verifying the identity or authority of a user of the system or for message authentication, e.g. authorization, entity authentication, data integrity or data verification, non-repudiation, key authentication or verification of credentials using a predetermined code, e.g. password, passphrase or PIN
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N7/00—Television systems
- H04N7/18—Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
- H04N7/181—Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast for receiving images from a plurality of remote sources
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04W—WIRELESS COMMUNICATION NETWORKS
- H04W12/00—Security arrangements; Authentication; Protecting privacy or anonymity
- H04W12/06—Authentication
- H04W12/065—Continuous authentication
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Multimedia (AREA)
- Theoretical Computer Science (AREA)
- Signal Processing (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Human Computer Interaction (AREA)
- Psychiatry (AREA)
- Social Psychology (AREA)
- General Health & Medical Sciences (AREA)
- Computer Security & Cryptography (AREA)
- Health & Medical Sciences (AREA)
- Computer Networks & Wireless Communication (AREA)
- Business, Economics & Management (AREA)
- Emergency Management (AREA)
- Alarm Systems (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
- Closed-Circuit Television Systems (AREA)
- Studio Devices (AREA)
- Image Analysis (AREA)
Abstract
Description
本発明の分野は、監視、セキュリティおよび制御のための電子システムに関する。本発明の一実装は、方法およびコンピュータービジョンシステムからのデータを表すコンピューターベースのシステムに関する。
カメラ、追加のセンサーを備えたセキュリティ、監視、制御システムを使用して、侵入、火災、煙、洪水などのさまざまな脅威を検出できる。動き検出は、多くの場合、空いているまたは占有されている建物や家庭環境への侵入者を検出するためにも使用される。侵入者の検出により、音声またはサイレントアラームが発生し、セキュリティ担当者に連絡する場合がある。
指定された領域内のアクティビティを監視するセンサーであって、このセンサーが、視覚センサーまたは画像センサー、たとえば、ビデオ録画を行うセンサーを備える、センサーと、
指定された領域内またはその近くに配置されたローカル処理システムであって、このローカル処理システムがセンサーから信号を受信し、このローカル処理システムがセンサーからの信号を処理および分析して、センサーによって監視されたように指定された領域内のアクティビティを説明するメッセージを生成し、このメッセージは、指定された領域内の人物の身元を直接明らかにする音声、視覚、またはその他の直接識別情報を含まない、ローカル処理システムと、
指定された領域外の監視ステーションであって、この監視ステーションが、ローカル処理システムによって生成されたメッセージを受信し、外部監視者が利用できるようにする、監視ステーションと、を備える監視システムである。
●メッセージは、指定された領域内で人物または動物が実行したアクションを十分に説明し、外部監視者が、外部介入がいつ必要かを判断できるようにする。
●監視ステーションは、メッセージが、外部介入が必要とされ得ると示す人物または動物によって実行されるアクションを説明するとき、アラームを生成する。
●センサーは、子供、障害者、病人、または老人を監視するために選択される。
●監視ステーションは、ローカル処理システムに
外部監視者からのクエリを転送し、ローカルプロセッサはメッセージで応答し、ここにおいて、メッセージの内容は、センサーからの信号を処理および分析することによって検出された、指定された領域内のアクティビティに基づく。
●メッセージがセンサーによって所定のジェスチャまたは所定のフレーズが検出されたことを示すと、監視ステーションはアラートを生成する。
●監視ステーションは、メッセージが、所定のキャンセルジェスチャまたは所定のキャンセルフレーズがセンサーによって検出されることを示すと、アラートをキャンセルする。
●ローカル処理システムは、以下の技術の少なくとも1つを使用して、ビデオデータに基づいて指定された領域内の人々および動物の身体を内部的に識別する。
顔の特徴を識別して記録する顔指標識別、身体上の衣服のタイプを検出および記録する衣服指標
識別、身体の形状を検出および記録する身体指標識別、
身体の現在のアクティビティを検出および記録するアクティビティ指標識別、ヘアカットスタイルを検出および記録するヘアカット指標識別、
保持しているか、または身体の近くにある物体を検出および記録するツール指標識別
●ローカル処理システムは、指定された領域内の身体に加えられた変更を認識し、影響を受ける指標識別を更新する。
●ローカル処理システムは、識別された身体の運動学的な動きを分析して、物理法則と一致する動きを保証し、身体を内部的に識別する際の矛盾を検出して解決する。
●ローカル処理システムはさらに、音声データを使用して、指定された領域内の人々および動物の身体を内部的に識別し、音声データには、音色の指標と相対的な音の振幅とが含まれる。
●ローカル処理システムは、以下の手法の2つ以上を使用して、ビデオデータに基づいて指定された領域内で人々および動物の身体を内部的に識別する。
顔の特徴を識別して記録する顔指標識別、
身体上の衣服のタイプを検出および記録する衣服指標識別、身体の形状を検出および記録する身体指標識別、
身体の現在のアクティビティを検出および記録するアクティビティ指標識別、ヘアカットスタイルを検出および記録するヘアカット指標識別、
保持しているか、または身体の近くにある物体を検出および記録するツール指標識別
●指定された領域には、次の少なくとも1つのエリアが含まれる。
学校、
刑務所、病院、
ショッピングモール、通り、
オフィス、
駐車場。
●指定された領域は複数の部屋を備え、ローカル処理システムはセンサーからのビデオデータを使用して、領域のレイアウト計画を構築する。
●ローカル処理システムは、さらに音声データを使用してレイアウト計画を構築する。
●領域のレイアウト計画を構築するとき、ローカル処理システムは、以下の少なくとも1つを利用する。
水平線と垂直線を検出することに基づく部屋の形状の推定値、
ビデオセンサーの視野内の主要なオブジェクトの検出、
既知の部屋タイプのデータベースに基づいて部屋タイプフォームを認識するニューラルネットワークアルゴリズム、
部屋内のユーザーの要求された構成アクティビティに基づく測定値、
音声センサーによって検出された構成音声信号。
センサーを使用してビデオ録画を行うこと、
センサーから指定された領域内またはその近くにあるローカル処理システムに信号を転送すること、
ローカル処理システムを使用して、センサーからの信号を処理し、分析して、センサーによって監視されたように指定された領域内のアクティビティを説明するメッセージを生成することであって、ここで、メッセージが、指定された領域内の人物の身元を直接明らかにする、音声、視覚または他の直接識別情報を含まない、生成すること、
指定された領域外の監視ステーションにメッセージを送信することであって、監視ステーションが外部監視者にメッセージを使用可能にする、送信すること、を備える。
●メッセージが、センサーによって所定のジェスチャまたは所定のフレーズが検出されたことを示すと、監視ステーションがアラートを生成すること。
●以下の1つ以上の技術を使用して、ビデオデータに基づいて指定された領域内の人々および動物の身体を内部的に識別すること。
顔の特徴を識別して記録する顔指標識別、
身体上の衣服のタイプを検出および記録する衣服指標識別、
身体の形状を検出および記録する身体指標識別、
身体の現在のアクティビティを検出および記録するアクティビティ指標識別、ヘアカットスタイルを検出および記録するヘアカット指標識別、および、
保持しているか、または身体の近くにある物体を検出および記録するツール指標識別
●センサーによって音声データを記録することであって、音声データが、指定された領域内の人々および動物の身体を内部的に識別するために使用され、音声データが、音色指標と相対的な音の振幅とを含む、記録すること。
●1秒あたり5〜30フレーム(認識可能な事象の発生に基づいて中央コンピュータユニットによって変更可能)、
●低解像度(360p)、
●単一レンズ−ステレオ画像なし、
●アクティブな追加のセンサーなし。
●2つのWi−Fi接続モジュール−モジュールの1つはインターネットへの接続に使用され、もう1つはカメラノードのトラフィックのために個別のチャネルを作成するために使用される、
●イーサネット(登録商標)、
●Bluetooth(登録商標)-設定を調整し、システムを制御する目的で、また予備の通信チャネルとして、ユーザーの電話に直接接続する。
監視システム100の重要な特性の1つは、すべての信号の時間との同期である。時間は、さらなる分析のための追加の座標として使用される情報源である。
したがって、ステップ830で、監視システム100は音声フレームを受信することができる。ステップ840で、「アラームオン」および「アラームオフ」秘密のフレーズの認識が実行される。例えば、音声フレームの短いメモリ850がこの目的のために使用される。
● メインPCB、
● カメラPCB、
● バッテリー(取り外し可能および充電可能)。
a.低電力32ビットマイクロコントローラーSTM32 F4シリーズ、
b.ビデオプロセッサOV798、
c.バロメーター、
d.加速度計、
e.ジャイロスコープ、
f.磁力計、
g.2x MEMSマイク、
h.光センサー、
i.LEDインジケータ、
j.フラッシュメモリー、
k.WiFi、Bluetooth(登録商標) 4.0、およびFM RXモジュール、
l.Micro−SDソケット、
m.スピーカーと音声アンプ、
n.ディスプレイモードスイッチ。
a.2x CMOS RGB画像センサーOV4689:恒久的なIRフィルター付き
b.赤外線LED、
c.モーションセンサー(PIR)。
a.マイクロコントローラーSTM32 L0シリーズ、
b.USB−Cポート、
c.充電およびバッテリー残量ゲージ、
d.LEDインジケータ、
e.Li−Pol 3.7Vバッテリー、
f.QI 1.2充電モジュール。
1.ユニットを電源に接続する。LEDインジケータが白く点滅し始める。
2.携帯電話にアプリケーションをインストールする。必要に応じてサインアップしてアカウントを作成する。
3.アプリケーションはユニットを検索し、Bluetooth(登録商標)経由で接続を実行する。
4.ユーザーはアプリケーションを介して必要なデータを入力する。Wi−Fiネットワークを選択し、キーを入力する。
5.接続が成功した場合、LEDインジケータは点滅を停止し、白く点灯し始める。
6.イーサネット(登録商標)ケーブルを使用する場合−入力データは不要。
1.CherryCamにバッテリーを挿入する。LEDインジケータが白く点滅し始め、音信号が発生する。
2.Bluetooth(登録商標)を介した直接接続(近距離)。
a.Cherrycamがユニットの近くにある場合、Bluetooth(登録商標)経由で直接接続を確立できる。
b.カメラはBluetooth(登録商標)経由でユニットを検出し、接続し、ユニットから内部Wi−Fiパラメータを取得する。
3.電話機アプリケーションを介した接続(遠距離)。
a.Cherrycamがユニットから遠く離れている場合、電話機アプリケーションを使用して間接的に接続を確立できる。
b.電話機がBluetooth(登録商標)経由でカメラを検出し、接続を確立する。
c.電話機はWi−Fi経由でユニットとの接続を確立し、内部Wi−Fiパラメータを取得して、それをBluetooth(登録商標)経由でCherryCamに送信する。
4.接続が成功した場合、LEDインジケータは点滅を停止し、約20秒間白く光り始め、その後にオフになる。
● ユニットへの接続後のCherryCamのデフォルト状態。
● 対応するセンサーで動き/ノイズが検出されない場合、タイムアウトが開始される。
●タイムアウト満了で、待機状態が開始される。
● Wi−Fi/Bluetooth(登録商標)経由の処理ユニット要求。
● シングル、480pおよびデイモード。
● シングル、480pおよびナイトモード、
● シングル、720Pおよびデイモード、
● シングル、720pおよびナイトモード、
● シングル、1080pおよびナイトモード、
● ステレオ、480pおよびデイモード。
● ステレオ、480pおよびナイトモード、
● ステレオ、720pおよびデイモード、
● ステレオ、720pおよびナイトモード、
● ステレオ、1080pおよびナイトモード、
●状態をアクティブにすることができる事象の例は次のとおりである。
o センサーの範囲内で任意の動きが検出された場合のモーションセンサートリガー。
o マイクセットトリガー:マイクセットによって、任意の閾値を超えるノイズが検出された場合。
o 処理ユニットトリガー:起動は、Bluetooth(登録商標)/Wi−Fiを介して処理ユニット信号によって行われる。
o 光センサーコマンド、
o 処理ユニット要求。
● 操作:ビデオ/音声ストリーム、センサーデータをWi−Fi/Bluetooth(登録商標)経由で処理ユニットに転送する、および処理ユニット要求に応じた4MP静止画。4MP静止画要求があると、カメラは対応するシングルモードに切り替えられ(約1秒間)、静止画を撮影して現在のモードに戻る。
o センサーの範囲内で任意の動きが検出された場合のモーションセンサートリガー、
o マイクセットトリガー:マイクセットによって、任意の閾値を超えるノイズが検出された場合、
o 処理ユニットトリガー:起動は、Bluetooth(登録商標)/Wi−Fiを介して処理ユニット信号によって行われる。
o 光センサーコマンド;
o 処理ユニット要求。
● 操作:ビデオ/音声ストリーム、センサーデータをWiFi/Bluetooth(登録商標)経由で処理ユニットに転送する。
上記で参照された構成は、本発明の原理の応用の例示にすぎないことを理解されたい。本発明の精神および範囲から逸脱することなく、多数の修正および代替の構成を考案することができる。本発明は図面に示されているが、現在、本発明の最も実用的で好ましい例と考えられるものに関連して、特殊性および詳細を用いて上記で十分に説明したが、当業者には、本明細書に記載される本発明の原理および概念から逸脱することなく多くの修正を行うことができることが明らかであろう。
Claims (20)
- 監視システムであって、前記監視システムが、
指定された領域内のアクティビティを監視するセンサーであって、前記センサーが
ビデオ録画を行う視覚センサーを備える、前記センサーと、
前記指定された領域内またはその近くに配置されたローカル処理システムであって、前記ローカル処理システムが前記センサーから信号を受信し、前記ローカル処理システムが前記センサーからの前記信号を処理および分析して、前記センサーによって監視されたように前記指定された領域内のアクティビティを説明するメッセージを生成し、
前記メッセージが、前記指定された領域内の人物の身元を直接明らかにする音声、視覚、またはその他の直接識別情報を含まない、前記ローカル処理システムと、
前記指定された領域外の監視ステーションであって、前記監視ステーションが、前記ローカル処理システムによって生成された前記メッセージを受信し、前記メッセージを外部監視者が利用できるようにする、前記監視ステーションと、を備える前記監視システム。 - 前記メッセージが、前記指定された領域内の人物または動物によって実行されるアクションを十分に説明し、外部監視者が、外部介入がいつ必要かを決定できるようにする、請求項1に記載の監視システム。
- 前記メッセージが、外部介入が必要とされる可能性があることを示す人物または動物によって実行されるアクションを説明するときに、前記監視ステーションがアラームを生成する、請求項1または2に記載の監視システム。
- 前記センサーが、
子ども、障害者、病人、または老人を監視するように選択される、請求項1〜3に記載の監視システム。 - 前記監視ステーションが前記ローカル処理システムに外部監視者からのクエリを転送するとき、ローカルプロセッサがメッセージで応答し、前記メッセージの内容が、
前記センサーからの前記信号を処理および分析することにより検出された、前記指定された領域内のアクティビティに基づく、請求項1〜4に記載の監視システム。 - 前記メッセージが、前記センサーによって所定のジェスチャまたは所定のフレーズが検出されたことを示すときに、前記監視ステーションがアラートを生成する、請求項1〜5に記載の監視システム。
- 前記メッセージが、前記センサーによって所定のキャンセルジェスチャまたは所定のキャンセルフレーズが検出されたことを示すときに、前記監視ステーションが前記アラートをキャンセルする、請求項6に記載の監視システム。
- 前記ローカル処理システムが、
以下の技術、
顔の特徴を識別して記録する顔指標識別、身体上の衣服のタイプを検出および記録する衣服指標識別、
身体の形状を検出および記録する身体指標識別、
身体の現在のアクティビティを検出および記録するアクティビティ指標識別、ヘアカットスタイルを検出および記録するヘアカット指標識別、
保持しているか、または身体の近くにある物体を検出および記録するツール指標識別、のうちの少なくとも1つを使用して、ビデオデータに基づいて、前記指定された領域内の人々および動物の身体を内部的に識別する、請求項1〜7に記載の監視システム。 - 前記ローカル処理システムが、前記指定された領域内の身体に加えられた変更を認識し、影響を受ける指標識別を更新する、請求項8に記載の監視システム。
- 前記ローカル処理システムが、
識別された身体の運動学的な動きを分析して、物理法則と一致する動きを保証し、身体を内部的に識別する際の矛盾を検出および解決する、請求項8に記載の監視システム。 - 前記ローカル処理システムが、音声データをさらに使用して、前記指定された領域内の人々および動物の身体を内部的に識別し、
前記音声データが、音色指標と相対的な音の振幅とを含む、請求項10に記載の監視システム。 - 前記ローカル処理システムが、以下の技術、
顔の特徴を識別して記録する顔指標識別、
身体上の衣服のタイプを検出および記録する衣服指標識別、身体の形状を検出および記録する身体指標識別、
身体の現在のアクティビティを検出および記録するアクティビティ指標識別、ヘアカットスタイルを検出および記録するヘアカット指標識別、
保持しているか、または身体の近くにある物体を検出および記録するツール指標識別、
のうちの2つ以上を使用して、ビデオデータに基づいて、前記指定された領域内の人々および動物の身体を内部的に識別する、請求項1〜11に記載の監視システム。 - 前記指定された領域が、以下の、
学校、
刑務所、
病院、
ショッピングモール、通り、
オフィス、
駐車場、のうちの少なくとも1つのエリアを含む、請求項1〜12に記載の監視システム - 前記指定された領域が、複数の部屋を備え、前記ローカル処理システムが、前記センサーからのビデオデータを使用して前記領域のレイアウト計画を構築する、請求項1〜13に記載の監視システム。
- 前記ローカル処理システムが、音声データをさらに使用して、前記レイアウト計画を構築する、請求項14に記載の監視システム。
- 前記領域の前記レイアウト計画を構築するとき、
前記ローカル処理システムが、以下の、水平線と垂直線を検出することに基づく部屋の形状の推定値、ビデオセンサーの視野内の主要なオブジェクトの検出、
既知の部屋タイプのデータベースに基づいて部屋タイプフォームを認識するニューラルネットワークアルゴリズム、
ルーム、
音声センサーによって検出された構成音声信号内のユーザーの要求された構成アクティビティに基づく測定値、のうちの少なくとも1つを利用する、請求項14に記載の監視システム。 - 指定された領域内のアクティビティを監視する方法であって、前記方法が、
センサーを使用してビデオ録画を行うこと、
前記センサーから前記指定された領域内またはその近くにあるローカル処理システムに信号を転送すること、
前記ローカル処理システムを使用して、前記センサーからの信号を処理し、分析して、前記センサーによって監視されたように前記指定された領域内のアクティビティを説明するメッセージを生成することであって、ここで、前記メッセージが、前記指定された領域内の人物の身元を直接明らかにする、音声、視覚または他の直接識別情報を含まない、生成すること、
前記指定された領域外の監視ステーションに前記メッセージを送信することであって、前記監視ステーションが前記メッセージを外部監視者に使用可能にする、送信すること、を備える方法。 - 前記メッセージが、前記センサーによって所定のジェスチャまたは所定のフレーズが検出されたことを示すとき、前記監視ステーションがアラートを生成すること、をさらに含む、請求項17に記載の方法。
- 以下の技術の、
顔の特徴を識別して記録する顔指標識別、
身体上の衣服のタイプを検出および記録する衣服指標識別、身体の形状を検出および記録する身体指標識別、
身体の現在のアクティビティを検出および記録するアクティビティ指標識別、ヘアカットスタイルを検出および記録するヘアカット指標識別、および、
保持しているか、または身体の近くにある物体を検出および記録するツール指標識別、のうちの1つ以上を使用して、ビデオデータに基づいて前記指定された領域内の人々および動物の身体を内部的に識別することをさらに含む、請求項17に記載の方法。 - 前記センサーによって音声データを記録することであって、前記音声データが、前記指定された領域内の人々および動物の身体を内部的に識別するために使用され、前記音声データが、音色指標と相対的な音の振幅とを含む、記録すること、をさらに含む、請求項17に記載の方法。
Applications Claiming Priority (9)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US201762491832P | 2017-04-28 | 2017-04-28 | |
US62/491,832 | 2017-04-28 | ||
US201762501545P | 2017-05-04 | 2017-05-04 | |
US62/501,545 | 2017-05-04 | ||
US15/647,129 | 2017-07-11 | ||
US15/647,129 US11037300B2 (en) | 2017-04-28 | 2017-07-11 | Monitoring system |
GBGB1717244.6A GB201717244D0 (en) | 2017-10-20 | 2017-10-20 | Cherry I |
GB1717244.6 | 2017-10-20 | ||
PCT/US2018/030103 WO2018201121A1 (en) | 2017-04-28 | 2018-04-30 | Computer vision based monitoring system and method |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2020522828A true JP2020522828A (ja) | 2020-07-30 |
Family
ID=63920130
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020510506A Pending JP2020522828A (ja) | 2017-04-28 | 2018-04-30 | コンピュータービジョンベースの監視システムおよび方法 |
Country Status (3)
Country | Link |
---|---|
EP (1) | EP3616095A4 (ja) |
JP (1) | JP2020522828A (ja) |
WO (1) | WO2018201121A1 (ja) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2019168989A (ja) * | 2018-03-23 | 2019-10-03 | 富士ゼロックス株式会社 | 噛みつき検知装置及びプログラム |
WO2022074787A1 (ja) * | 2020-10-08 | 2022-04-14 | 日本電気株式会社 | 画像処理装置、画像処理方法、プログラム |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR102021441B1 (ko) * | 2019-05-17 | 2019-11-04 | 정태웅 | 인공지능을 이용한 영상 기반의 실시간 침입 감지 방법 및 감시카메라 |
CN117423197B (zh) * | 2023-12-18 | 2024-02-20 | 广东省华视安技术有限公司 | 一种智能安防软件监控方法及系统 |
Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2005521975A (ja) * | 2002-04-05 | 2005-07-21 | アイデンティクス・インコーポレーテッド | 映像を用いたオペレーティング方法およびシステム |
JP2006018818A (ja) * | 2004-06-04 | 2006-01-19 | Canon Inc | 状況モニタリング装置及び状況モニタリングシステム |
JP2007317116A (ja) * | 2006-05-29 | 2007-12-06 | Honda Motor Co Ltd | 顔認証システム搭載車両 |
JP2009088789A (ja) * | 2007-09-28 | 2009-04-23 | Toshiba Corp | カメラ監視システム |
JP2009252215A (ja) * | 2008-04-11 | 2009-10-29 | Sogo Keibi Hosho Co Ltd | 警備装置および情報表示方法 |
JP2014007685A (ja) * | 2012-06-27 | 2014-01-16 | Panasonic Corp | 介護システム |
WO2015093330A1 (ja) * | 2013-12-17 | 2015-06-25 | シャープ株式会社 | 認識データ伝送装置 |
JP2016162075A (ja) * | 2015-02-27 | 2016-09-05 | Kddi株式会社 | オブジェクト追跡方法、装置およびプログラム |
US9519969B1 (en) * | 2011-07-12 | 2016-12-13 | Cerner Innovation, Inc. | System for determining whether an individual suffers a fall requiring assistance |
Family Cites Families (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US7634662B2 (en) * | 2002-11-21 | 2009-12-15 | Monroe David A | Method for incorporating facial recognition technology in a multimedia surveillance system |
US20060136743A1 (en) * | 2002-12-31 | 2006-06-22 | Polcha Andrew J | System and method for performing security access control based on modified biometric data |
WO2006034135A2 (en) | 2004-09-17 | 2006-03-30 | Proximex | Adaptive multi-modal integrated biometric identification detection and surveillance system |
US20070036395A1 (en) * | 2005-08-15 | 2007-02-15 | Okun Sheri L | Reverse identity profiling system with alert function |
US7437755B2 (en) * | 2005-10-26 | 2008-10-14 | Cisco Technology, Inc. | Unified network and physical premises access control server |
US7636033B2 (en) * | 2006-04-05 | 2009-12-22 | Larry Golden | Multi sensor detection, stall to stop and lock disabling system |
WO2010143290A1 (ja) * | 2009-06-11 | 2010-12-16 | 富士通株式会社 | 不審者検出装置、不審者検出方法、および、不審者検出プログラム |
WO2014182898A1 (en) * | 2013-05-09 | 2014-11-13 | Siemens Aktiengesellschaft | User interface for effective video surveillance |
US9697656B2 (en) * | 2014-08-19 | 2017-07-04 | Sensormatic Electronics, LLC | Method and system for access control proximity location |
US20170032092A1 (en) * | 2016-06-16 | 2017-02-02 | Benjamin Franklin Mink | Real Time Multispecialty Telehealth Interactive Patient Wellness Portal (IPWP) |
-
2018
- 2018-04-30 WO PCT/US2018/030103 patent/WO2018201121A1/en active Application Filing
- 2018-04-30 JP JP2020510506A patent/JP2020522828A/ja active Pending
- 2018-04-30 EP EP18790579.9A patent/EP3616095A4/en not_active Withdrawn
Patent Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2005521975A (ja) * | 2002-04-05 | 2005-07-21 | アイデンティクス・インコーポレーテッド | 映像を用いたオペレーティング方法およびシステム |
JP2006018818A (ja) * | 2004-06-04 | 2006-01-19 | Canon Inc | 状況モニタリング装置及び状況モニタリングシステム |
JP2007317116A (ja) * | 2006-05-29 | 2007-12-06 | Honda Motor Co Ltd | 顔認証システム搭載車両 |
JP2009088789A (ja) * | 2007-09-28 | 2009-04-23 | Toshiba Corp | カメラ監視システム |
JP2009252215A (ja) * | 2008-04-11 | 2009-10-29 | Sogo Keibi Hosho Co Ltd | 警備装置および情報表示方法 |
US9519969B1 (en) * | 2011-07-12 | 2016-12-13 | Cerner Innovation, Inc. | System for determining whether an individual suffers a fall requiring assistance |
JP2014007685A (ja) * | 2012-06-27 | 2014-01-16 | Panasonic Corp | 介護システム |
WO2015093330A1 (ja) * | 2013-12-17 | 2015-06-25 | シャープ株式会社 | 認識データ伝送装置 |
JP2016162075A (ja) * | 2015-02-27 | 2016-09-05 | Kddi株式会社 | オブジェクト追跡方法、装置およびプログラム |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2019168989A (ja) * | 2018-03-23 | 2019-10-03 | 富士ゼロックス株式会社 | 噛みつき検知装置及びプログラム |
JP7225551B2 (ja) | 2018-03-23 | 2023-02-21 | 富士フイルムビジネスイノベーション株式会社 | 噛みつき検知装置及びプログラム |
WO2022074787A1 (ja) * | 2020-10-08 | 2022-04-14 | 日本電気株式会社 | 画像処理装置、画像処理方法、プログラム |
Also Published As
Publication number | Publication date |
---|---|
WO2018201121A1 (en) | 2018-11-01 |
EP3616095A1 (en) | 2020-03-04 |
EP3616095A4 (en) | 2020-12-30 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11120559B2 (en) | Computer vision based monitoring system and method | |
US11875656B2 (en) | Virtual enhancement of security monitoring | |
KR100838099B1 (ko) | 수시 도움을 요구하는 독거인을 모니터링하기 위한 자동시스템 | |
Lloret et al. | A smart communication architecture for ambient assisted living | |
JP2020522828A (ja) | コンピュータービジョンベースの監視システムおよび方法 | |
JP7375770B2 (ja) | 情報処理装置、情報処理方法、およびプログラム | |
JP6093124B2 (ja) | 監督システム | |
JPWO2015093330A1 (ja) | 認識データ伝送装置、認識データ記録装置及び認識データ記録方法 | |
KR102277967B1 (ko) | 인공지능 기반 영유아 모니터링 서비스 제공 시스템 | |
US11011044B2 (en) | Information processing system, information processing apparatus, and information processing method | |
Guerrero-Ulloa et al. | IoT-based system to help care for dependent elderly | |
US20230326318A1 (en) | Environment sensing for care systems | |
TWI713368B (zh) | 影像式小偷偵測裝置及方法 | |
Cao et al. | An event-driven context model in elderly health monitoring | |
Bala et al. | Survey on women safety using IoT | |
EP3992987A1 (en) | System and method for continously sharing behavioral states of a creature | |
KR102544147B1 (ko) | 영상분석 기반 1인 낙상 감지 시스템 및 방법 | |
WO2020075283A1 (ja) | 異常者予知システム、異常者予知方法、およびプログラム | |
US11521384B1 (en) | Monitoring system integration with augmented reality devices | |
KR102668931B1 (ko) | 맞춤형 서비스 제공 장치 및 방법 | |
KR101571838B1 (ko) | 비콘의 다기능 시스템을 이용한 다기능 방법. | |
Pérez‐Rodríguez | Smart Homes | |
Iliev et al. | An Approach for Improving the Older people’s Perception of Video-Based Applications in AAL Systems–Initial Study | |
JP2023123555A (ja) | 日常生活を記録する自律行動型ロボット | |
Tangtisanon | Telecare application and tools for older adults |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20210428 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20220428 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20220523 |
|
A601 | Written request for extension of time |
Free format text: JAPANESE INTERMEDIATE CODE: A601 Effective date: 20220812 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20230130 |