JP2022033196A - 情報処理システム、情報処理方法およびプログラム - Google Patents
情報処理システム、情報処理方法およびプログラム Download PDFInfo
- Publication number
- JP2022033196A JP2022033196A JP2021206613A JP2021206613A JP2022033196A JP 2022033196 A JP2022033196 A JP 2022033196A JP 2021206613 A JP2021206613 A JP 2021206613A JP 2021206613 A JP2021206613 A JP 2021206613A JP 2022033196 A JP2022033196 A JP 2022033196A
- Authority
- JP
- Japan
- Prior art keywords
- event
- camera
- sensor
- analysis unit
- information processing
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N7/00—Television systems
- H04N7/18—Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
- H04N7/181—Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast for receiving images from a plurality of remote sources
-
- G—PHYSICS
- G08—SIGNALLING
- G08B—SIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
- G08B13/00—Burglar, theft or intruder alarms
- G08B13/16—Actuation by interference with mechanical vibrations in air or other fluid
- G08B13/1654—Actuation by interference with mechanical vibrations in air or other fluid using passive vibration detection systems
- G08B13/1672—Actuation by interference with mechanical vibrations in air or other fluid using passive vibration detection systems using sonic detecting means, e.g. a microphone operating in the audio frequency range
-
- G—PHYSICS
- G08—SIGNALLING
- G08B—SIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
- G08B13/00—Burglar, theft or intruder alarms
- G08B13/18—Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength
- G08B13/189—Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems
- G08B13/194—Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems
- G08B13/196—Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems using television cameras
- G08B13/19602—Image analysis to detect motion of the intruder, e.g. by frame subtraction
-
- G—PHYSICS
- G08—SIGNALLING
- G08B—SIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
- G08B25/00—Alarm systems in which the location of the alarm condition is signalled to a central station, e.g. fire or police telegraphic systems
- G08B25/01—Alarm systems in which the location of the alarm condition is signalled to a central station, e.g. fire or police telegraphic systems characterised by the transmission medium
- G08B25/08—Alarm systems in which the location of the alarm condition is signalled to a central station, e.g. fire or police telegraphic systems characterised by the transmission medium using communication transmission lines
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N7/00—Television systems
- H04N7/18—Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/52—Surveillance or monitoring of activities, e.g. for recognising suspicious objects
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Business, Economics & Management (AREA)
- Emergency Management (AREA)
- Alarm Systems (AREA)
- Closed-Circuit Television Systems (AREA)
- Burglar Alarm Systems (AREA)
- Studio Devices (AREA)
Abstract
【課題】 リアルタイムで異常事象に対して検出および反応することが可能である監視システムを開示する。【解決手段】 本開示の一態様に係る情報処理システムは、センサデータに基づいて事象が発生した事象位置を特定する特定部と、前記特定された事象位置及びカメラ駆動部の性能に基づいて制御するカメラを選択する選択部と、前記事象を含むように前記選択されたカメラの方向を制御する制御部と、を備える。【選択図】図14
Description
本発明は、情報を処理する技術に関する。
例えば動画分析および音声分析などである上記リアルタイム分析技術は、現場において異常事象を検出することが可能である。概して、管理者は事象近くに位置するセンサからのデータを人手により分析して、状況を認識し、または、事象の詳細を学習する。上記管理者は、周期的または連続的なセンサデータから関連する情報を人手により選択して、上記状況をより認識し、または、上記事象のより詳細を学習する。その分析結果および上記分析に用いる上記センサデータは、上記事象に対して決定をなすには不十分であることがあるため、この手続きは、異常事象に対する上記管理者の反応の遅れを招く。
より詳しく見ることを提供する表示(view)と、上記事象をそれが展開するままに、より広範に見ることを提供する概観とを含む上記事象の詳細を示すように、センサを自動的に選択および制御することが可能なシステムが必要である。それは管理者が、提供された表示内の情報に基づいて即座に応じることを可能とするためである。さらに、他の望ましい特徴および特性は、添付の図面およびこの開示の背景とあわせて、後述の詳細な説明および添付の特許請求の範囲から明らかになることとなる。
上記を鑑みて、本発明の主たる目的は、リアルタイムで異常事象に対して検出および反応することが可能である監視システム等を提供することである。
本開示の一態様に係る情報処理システムは、センサデータに基づいて事象が発生した事象位置を特定する特定手段と、前記特定された事象位置及びカメラ駆動部の性能に基づいて制御するカメラを選択する選択手段と、前記事象を含むように前記選択されたカメラの方向を制御する制御手段と、を備える。
本開示の一態様に係る情報処理方法は、センサデータに基づいて事象が発生した事象位置を特定し、前記特定された事象位置及びカメラ駆動部の性能に基づいて制御するカメラを選択し、前記事象を含むように前記選択されたカメラの方向を制御する。
本開示の一態様に係るプログラムは、センサデータに基づいて事象が発生した事象位置を特定する特定処理と、前記特定された事象位置及びカメラ駆動部の性能に基づいて制御するカメラを選択する選択処理と、前記事象を含むように前記選択されたカメラの方向を制御する制御処理と、をコンピュータに実行させる。
本発明によれば、リアルタイムで異常事象に対して検出および反応することが可能である監視システム等を提供することが可能である。
その別個の各図にわたって同一または機能的に類似の要素には同様の参照符号を付し、かつ、下記詳細な説明と共に明細書に組み込まれてその一部を形成する添付図面は、本発明に係る様々な実施形態の説明ならびに様々な原理および例示である利点の説明に役立つ。本発明の例示である特徴および利点は、以下の添付図面と合わせたときに次の詳細な説明から明らかになることとなる。
図1は、関連技術の監視システムで用いるセンサの概略図である。
図2は、本発明の実施形態に係る監視システムで用いるセンサの概略図である。
図3は、本発明の実施形態に係る監視システムのブロック図である。
図4は、本発明の実施形態に係るフローチャートである。
図5は、本発明の別の実施形態に係る監視システムのブロック図である。
図6は、本発明の別の実施形態に係るフローチャートである。
図7は、本発明の第1の実施形態における監視システムで用いるセンサの概略図である。
図8は、本発明の第1の実施形態における上記監視システムで用いる上記センサの第1の状況の概略図である。
図9は、本発明の第1の実施形態における上記監視システムで用いる上記センサの第2の状況の概略図である。
図10は、本発明の第1の実施形態における上記監視システムで用いる上記センサの第3の状況の概略図である。
図11は、本発明の第2の実施形態における監視システムで用いるセンサの第1の状況の概略図である。
図12は、本発明の第2の実施形態における上記監視システムで用いる上記センサの第2の状況の概略図である。
図13Aは、本発明の第3の実施形態における複数の区画に関する監視システムで用いるセンサの第1の状況の概略図である。
図13Bは、本発明の第3の実施形態における複数の区画に関する上記監視システムで用いる上記センサの別の状況の概略図である。
図14は、本発明の第4の実施形態における監視システムのブロック図である。
図15は、本発明の実施形態における監視システムを実現する情報処理装置のブロック図である。
当業者は、上記図中の要素は簡単かつ明瞭に示されており、必ずしも縮尺通りに描かれていないということを認識しているであろう。例えば、集積回路構成を示している上記図中の一部の要素の寸法は、本実施形態および別の実施形態の理解の向上に役立つように、他の要素に対して大きく示すことがある。
次の詳細な説明は、事実上の例にすぎず、この発明またはこの発明の用途および使用を限定することを意図していない。また、前述の発明の背景または次の詳細な説明において提示するいずれの理論によっても制限する意図はない。
はじめに、本発明の実施形態の基本概念を説明する。図1を参照すると、関連技術の監視システムで用いるセンサを示している。当該システムは、第1のセンサ(マイクロホン)30によって事象領域12内の異常事象位置10を検出し、異常事象位置10に最も近いカメラであるカメラ32を選択する。しかしながら、最も近いカメラ32は異常事象位置10の一部のみを撮影し、管理者は、異常事象位置10に関する限られた情報のみ(カメラ画面34内の情報)をカメラ32から受信しうる。この場合、最も近いカメラ32は床に横たわる人々ではなく周囲の人々の一部を撮影しているため、管理者は、床に横たわる人または人々を認識していない。管理者は、異常事象位置10周辺のいくつかのセンサを人手により操作することによって、その状況を学習しようとすることができる。しかしながら、時間を取って、何が発生しているかを学習し、例えば医療従事者を呼び出すことで上記事象に応じている。いくつかの場合では、対応の遅延が致命的になりうる。
図2を参照すると、本発明の実施形態に係る監視システムで用いるセンサを示している。監視システムは、第1のセンサ30で異常事象位置10を検出して、事象領域12内の異常事象位置10を推定する。監視システムは、異常事象位置10の近くに位置する他のセンサ(カメラ42および他のセンサ)を選択する。監視システムは、他のセンサの指向性固定センサに関するFOV(Field of View)および/または無指向性もしくは可動センサに関するFOR(Field of Regarding)の組み合わせで、事象領域12全体をカバーする。監視システムは、検出した異常事象位置10を感知するように、選択したセンサ(マイクロホン30、マイクロホン40および/またはカメラ42)を制御する。この際、選択したセンサ(カメラ42)が、事象領域画像46(カメラ42による)の全体を撮影する。その後管理者は、人手による操作なしに、床に横たわる人(人々)を認識するようになる。管理者は、遅延なしにその状況に対して学習し、応じることができるため、致命的になる前に状況に対処することが可能となりうる。
本発明の実施形態によれば、管理者は、事象のより近い表示だけでなく、より広範な表示を伴う事象の外観で事象の詳細を学習することによって事象を認識するようになることが可能である。それは、監視システムが以下に記載するようにセンサを選択および制御することが可能であるからである。この利点により、管理者は、即座に事象に応じることができるようになる。
図3および図4を参照すると、本発明の実施形態に係るブロック図およびフローチャートを開示している。監視システム1000が、センサデータ受信部100で、センサ(図示せず)からセンサデータを連続的に受信する(ステップ200)。センサデータ受信部100が、受信したデータをカバレッジ分析部102に送信する。カバレッジ分析部102が、カバレッジ(coverage)情報を、例えば事象の大きさおよび/または事象の動きなどである事象関連データと比較することによってセンサのカバレッジ情報を分析するものであるカバレッジ分析を実行する。カバレッジ分析部102は、異常事象位置10における異常事象を観測する最良のセンサを特定する(ステップ202)。センサ選択部104が、カバレッジ分析部102によるカバレッジ分析に基づいて、1つ以上のセンサ(最良のセンサ)を選択する(ステップ204)。センサ駆動部106が、センサ選択部104からの信号に応じて、1つ以上のセンサを駆動する(ステップ206)。したがって、図3のシステムは、図4の方法に従って動作して、異常事象をそれが展開するままに観測する最良のセンサを自動的に選択および駆動するということが理解されうる。このように、管理者は、有利に、事象の展開を一見して、適切かつ時を得た対応のきっかけとなることが可能である。
図5および図6を参照すると、別の実施形態に係るブロック図およびフローチャートを開示している。別の実施形態に係る監視システム2000は、センサデータ受信部100で、センサ(図示せず。)からセンサデータを連続的に受信し(ステップ200)、データ分析部108によって受信したデータを分析する(ステップ208)。センサデータ受信部100が受信したデータをデータ分析部108に送信するとき、データ分析部108は、受信したデータを分析して事象関連情報を特定する。データ分析部108は、事象関連情報、すなわち、異常事象位置10および事象の大きさを特定し、この事象関連情報をカバレッジ分析部102へ転送する(ステップ208)。このように、データ分析部108は、センサデータ受信部100からの受信したデータを連続的に検討する。データ分析部108が、管理者が関心を持つ事象が発生していると判断するとき、データ分析部108は、関心の異常事象位置10および事象の大きさを判断する。そしてデータ分析部108はカバレッジ分析部102にその事象関連情報を転送し、カバレッジ分析部102の事象カバレッジ動作(カバレッジ分析)のきっかけとなる。カバレッジ分析部102はその後、カバレッジ分析を実行して、事象をそれが展開するままに観測する最良のセンサを特定する(ステップ202)。センサ選択部104が、事象を観測する最良のセンサを特定する情報を受信して、カバレッジ分析からの情報に応じてセンサを駆動するために選択する(ステップ204)。管理者がシステムから利用可能な最良のカバレッジで事象を有利に追跡できるように、センサ駆動部106がセンサを駆動する(ステップ206)。
カバレッジ分析部102は、センサそれぞれのカバレッジを分析し、検出した事象を観測する好適なセンサを特定する。カバレッジ分析部102は、カバレッジ情報を、例えば事象の大きさおよび/または事象の動きなどである事象関連データと比較することによって、センサカバレッジ情報を分析する。その後、カバレッジ分析部102は、センサ選択部104に結果を送信する。これは、センサ選択部104が、事象をとらえるのに十分に大きい、指向性固定センサのFOV(Field Of View)および無指向性または可動センサのFOR(Field of Regarding)を有するような、検出した事象に最も近いセンサの選択を可能とするためである。
カバレッジ分析部102によるカバレッジ分析は、事象のタイプに基づいた分析を含みうる。いくつかのタイプの監視対象の事象があり、管理者に有用な情報は、事象のタイプごとに異なる。本実施形態に係るカバレッジ分析部102は、事象のタイプに合わせてカスタマイズされ、事象ごとに管理者に有用な情報を提供する。
ある場合のシナリオでは、公衆エリア内の放棄された物体について、それらが安全上のリスクを引き起こす可能性があるため、管理者が懸念している場合がある。例えば、鉄道駅にある物体追跡システムでは、静止したままのものを判断し、その後その物体を近くで観測可能なカメラを選択することができる。別の場合のシナリオでは、管理者が混雑について懸念している場合がある。混雑事象を監視するには、事象シーンの一部では、管理者が決定を下し、即座に応じるのに不十分である場合がある。したがって、全景の表示で事象を観測可能なカメラが選択される。
カバレッジ分析部102によるカバレッジ分析は、地図情報を考慮に入れてよい。地図情報は、壁または構造を規定する他の空間に関する情報を含む。実際の状況では、センサのカバレッジは、様々な物によって妨げられる傾向がある。本実施形態に係るカバレッジ分析部102は、最適なFOVおよび/またはFORを決定するときに、例えば壁または構造を規定する他の空間である物を考慮に入れる。
ある場合のシナリオでは、事象位置とカメラとの間に壁があり、カメラで事象を撮影することができない。管理者に有用な情報を提供するために、センサ選択の一覧から、壁によって事象を撮影することができないカメラを除外し、事象を撮影することができるカメラが選択される。その事象領域を直接撮影することができるカメラがなければ、そのとき、当該領域をとらえることができるマイクロホンが選択される。
また、カバレッジ分析部102によるカバレッジ分析は、センサ駆動部の性能に基づいた分析を含みうる。センサ駆動部106は、センサ選択部104からの情報に基づいて、例えば、パン‐チルト‐ズーム(PTZ)であるセンサ設定を変更することができる。また、センサ駆動部106は、センサの方向を変更することができうる。センサ駆動部106およびセンサのこれらの性能を考慮に入れることによって、各センサのカバレッジが特定されて、事象をとらえる最良のセンサが本実施形態に係るカバレッジ分析202によって特定されることとなる。
(第1の実施形態)
図7を参照すると、本発明の第1の実施形態を開示している。この第1の実施形態では、監視システム(監視システム2000)が、検出された事象の観測に好適であるセンサを選択する。例えばマイクロホンをもつ監視カメラである多感覚併用の監視デバイスを、監視領域に配置する。例示である監視領域内のカメラ構成を、マイクロホン(30、40、50、60および70)を伴う固定カメラ(32、42、52、62および72)として示す。例えばマイクロホンのない固定カメラまたはマイクロホン単独である単一のセンサデバイスもまた用いてよい。センサデータ受信部100が、これらのセンサデバイスからのデータを受信し、当該データをデータ分析部108に渡す。センサデータ受信部100は、必要であれば、例えば復号化、符号化、トランスコーディングおよび解像度変換などの媒体変換の処理をしてもよい。
図7を参照すると、本発明の第1の実施形態を開示している。この第1の実施形態では、監視システム(監視システム2000)が、検出された事象の観測に好適であるセンサを選択する。例えばマイクロホンをもつ監視カメラである多感覚併用の監視デバイスを、監視領域に配置する。例示である監視領域内のカメラ構成を、マイクロホン(30、40、50、60および70)を伴う固定カメラ(32、42、52、62および72)として示す。例えばマイクロホンのない固定カメラまたはマイクロホン単独である単一のセンサデバイスもまた用いてよい。センサデータ受信部100が、これらのセンサデバイスからのデータを受信し、当該データをデータ分析部108に渡す。センサデータ受信部100は、必要であれば、例えば復号化、符号化、トランスコーディングおよび解像度変換などの媒体変換の処理をしてもよい。
データ分析部108が、センサデバイスからのデータを分析する。データは、あるカメラで検出された例えば集合して解散する群衆などの異常な群集行動を含みうる。データはまた、あるマイクロホンで検出された例えば叫び声または破壊音などの異常音を含みうる。データ分析部108は、単一のセンサまたは複数のセンサによって検出されたデータを分析しうる。データ分析部108は、データ分析の結果をカバレッジ分析部102に渡す。データ分析部108は、例えば事象の位置、事象と同種の可能性、事象の時間、可能性のある事象一覧および可能性のある次の事象候補などの検出された事象についてのメタデータを渡しうる。
図8を参照すると、本発明の第1の実施形態の監視システム2000で用いるセンサの第1の状況を開示している。カバレッジ分析部102は、データ分析部108によって検出された事象の観測に好適であるセンサを特定する。カバレッジ分析部102は、例えば指向性固定センサのFOV(field of view)もしくは無指向性または可動センサのFOR(field of regard)であるセンサカバレッジ情報を、センサごとに特定する。一例では、カバレッジ分析部102は、検出された事象の位置と重複するFOVまたはFORを有するセンサを特定する。マイクロホン60によって検出された事象に関しては、カバレッジ分析部102が、カメラ52またはカメラ62ではなくカメラ32を特定するが、これはカメラ32のFOV36が、マイクロホン60のFOR68と最大に重複するFOVを有するからである。また、カメラ62によって検出された事象に関しては、カバレッジ分析部102が、カメラ52ではなくカメラ32を特定する。これはカメラ32のFOV36が、カメラ52のFOVと比較してカメラ62のFOV66とより大きく重複するカバレッジ領域を有するからである。
図9を参照すると、本発明の第1の実施形態の第2の状況を開示している。カバレッジ分析部102が、データ分析部108によって推定される事象の大きさをカバーするFOVまたはFORを有するカメラを特定する。マイクロホン60で検出された事象に関しては、カバレッジ分析部102が、カメラ32またはカメラ62ではなく、カメラ52を特定する。これは、カメラ62のFOVが部分的に事象をカバーする一方で、カメラ52のFOV56が異常事象位置10の推定された事象領域の全体をカバーするからである。また、カメラ52は、カメラ32と比べて異常事象位置10により近い。したがって、カバレッジ分析部102により、カメラ52が特定される。
図10を参照すると、本発明の第1の実施形態の第3の状況を開示している。カバレッジ分析部102が、壁または構造を規定する他の空間を含む地図情報に基づいてカメラを特定する。センサのカバレッジ内に壁または構造を規定する他の空間があれば、カバレッジ分析202は、当該壁または構造を規定する他の空間を考慮に入れる。マイクロホン40で検出された事象に関しては、カバレッジ分析部102が、カメラ52ではなくマイクロホン40およびマイクロホン30を特定するが、これはカメラ52の表示が壁20によって妨げられているからである。壁または構造を規定する他の空間は、センサの特定において相当な影響を有しうるため、カバレッジ分析で地図情報を考慮に入れることは、管理者に対して正確な情報を提供することに役立つ。
別の例では、カバレッジ分析部102は、センサの設置構成に基づいてカメラを特定してよい。管理者の要求には様々なタイプがある。管理者は、ある状況において事象自体ではなく、事象の周辺に関しての情報の取得を希望することがある。そうした状況では、センサの設置構成に基づいたカバレッジ分析202が、管理者にとって有用となることとなる。カバレッジ分析部102は、センサの設置構成および事象関連データに応じて、事象位置から立ち去るような物体または人をとらえることができる複数個のセンサのうちの1つまたは複数を決定しうる。また、カバレッジ分析部102は、展開する事象を監視することができる複数個のセンサのうちの1つまたは複数を決定することができる。そうした複数個のセンサのうちの1つまたは複数は、地図情報の、構造を規定する空間の範囲内に規定された空間のうちの大部分をとらえるものである複数個のセンサのうちの少なくとも1つを含む。
本発明の第1の実施形態によれば、監視システムは、リアルタイムで異常事象に対して検出および反応することが可能である。これは、カバレッジ分析部102が、ルールベースのアルゴリズム法、機械学習アルゴリズム法および/または地理的な地図ベースのアルゴリズムに従って、データを分析することを理由とする。また、壁または構造を規定する他の空間の情報は、地図情報ではなくFOVの情報に含まれていてよい。
カバレッジ分析部102はさらに、ブール式(Boolean formula)に従って1つ以上のアルゴリズム法を組み合わせることによってデータを分析する、アルゴリズム法のうちの1つまたは複数のそれぞれの結果のスコアに応じてアルゴリズム法のうちの1つまたは複数のそれぞれの結果を計算する、および/またはアルゴリズム法のうちの1つまたは複数のそれぞれの所定の優先度に応じてアルゴリズム法による上記結果に優先順位を付けることができる。カバレッジ分析部102は、機械学習アルゴリズム法に従ってデータを分析してもよく、機械学習アルゴリズム法は、これらのアルゴリズム法を弱学習器とみなすAdaBoostに基づいている。さらに、カバレッジ分析部102は、複数個のセンサを1つ以上の好適なセンサのクラスタと1つ以上の好適でないセンサのクラスタとに分けるために、クラスタリングアルゴリズムに従ってデータを分析してもよい。
カバレッジ分析部102が、特定されたセンサの情報をセンサ選択部104に渡す。センサ選択部104が、センサを選択し、選択されたセンサの情報をセンサ駆動部106に送信する。センサ選択部104は、例えば事象情報であるメタデータをセンサ駆動部106に渡しうる。センサ選択部104はまた、センサ一覧およびメタデータを、管理者に提示するためにアプリケーションシステムに渡し、選択されたセンサを監視するように管理者を促しうる。センサ選択部104はまた、1つより多いセンサを選択してよい。センサ選択部104が複数のセンサを選択する場合、センサ選択部104は、最適なセンサの優先順位またはランク付けを示すセンサ優先順位スコアをもつセンサ一覧を出力しうる。
センサ駆動部106は、必要であれば、センサ選択部104からの情報に基づいてセンサ設定を変更できる。局所的事象をとらえ、事象を近くで観測するためには、センサ駆動部106が、事象位置の最適に近接なカバレッジのために、音量、解像度またはPTZズーム設定を変更することによって、センサ設定を変更しうる。また、広域の事象をとらえ、事象のシーン全体を観測するためには、センサ駆動部106が、事象位置の最適に広域なカバレッジのために、音量、解像度またはPTZズーム設定を変更することによって、センサ設定を変更する。
(第2の実施形態)
本発明の第2の実施形態では、監視システムは好適なセンサを選択せず、代わりに様々な視界(viewing)のための候補を一覧にする。視界は、限定するものではないが、事象を取り囲む様々な表示を含む。監視システムは、ズームアウトカメラから事象の領域をとらえ、事象周辺で何が発生しているかを学習する。あるいは、監視システムは、室内で事象が発生した場合に当該室の出口をとらえる。視界はまた、事象の被写体(subject)間近の視界を含みうる。監視システムは、事象の被写体または原因を学習するように、事象を近くでとらえる。
本発明の第2の実施形態では、監視システムは好適なセンサを選択せず、代わりに様々な視界(viewing)のための候補を一覧にする。視界は、限定するものではないが、事象を取り囲む様々な表示を含む。監視システムは、ズームアウトカメラから事象の領域をとらえ、事象周辺で何が発生しているかを学習する。あるいは、監視システムは、室内で事象が発生した場合に当該室の出口をとらえる。視界はまた、事象の被写体(subject)間近の視界を含みうる。監視システムは、事象の被写体または原因を学習するように、事象を近くでとらえる。
カバレッジ分析部102が、展開する事象を監視することができる複数個のセンサのうちの1つまたは複数を決定し、選択データをセンサ選択部104に出力する。センサ選択部104は、展開する事象を監視することができる複数個のセンサのうちの1つまたは複数の特定を含む。
図11を参照すると、カバレッジ分析部102は、様々な視界のためにセンサを特定する。例えば、視界は、事象のFOVまたはFORのカバレッジに基づいてカメラを特定することを含む。この例では、カバレッジ分析部102が、マイクロホン60で検出されるような異常事象位置10の周囲を表示するカメラ32を特定するが、これはカメラ32のFOVが異常事象位置10の周囲をカバーするからである。また、カバレッジ分析部102は、マイクロホン60によって近くで検出されるような事象の被写体を表示するカメラ52を特定する。これは、カメラ52のFOVが異常事象位置10をカバーし、かつ、カメラ32と比較して、カメラ52が異常事象位置10により近いからである。したがって、管理者が、所望の視界に基づいて各表示を選択することができるように、システムは、カメラ32および52をそれらの視界(例えば、近接、広域)とともに一覧にする。
図12を参照すると、視界はまた、FOVおよび/またはFORのカバレッジに基づいてカメラを特定することを含む。この例では、カバレッジ分析部102が、マイクロホン60で検出される事象周囲を表示するカメラ32を特定するが、これはカメラ32のFOVが、マイクロホン60のFORと最大に重複するFOVを有するからである。また、カバレッジ分析部102は、マイクロホン60で検出される事象の被写体を間近で表示するカメラ52を特定する。これはカメラ52のFOVが、マイクロホン60のFORと重複するカバレッジを有し、かつ、カメラ52がマイクロホン60に近いからである。したがって、この例では、管理者が、所望の視界に基づいて各表示を選択することができるように、システムはカメラ32および52を一覧にする。
カバレッジ分析部102は、その結果をセンサ選択部104に渡す。センサ選択部104が、視界情報を含む情報をセンサ駆動部106に渡す。センサ選択部104は、そのセンサ一覧およびメタデータを、利用者/管理者に情報を提示するアプリケーションシステムに渡し、選択されたセンサのうちの1つまたは複数を監視するように利用者を促しうる。センサ駆動部106は、必要であれば、センサ選択部104からの視界情報に基づいてセンサ設定を変更しうる。センサ選択部104は、管理者が監視するものである選択データに応じて複数個のセンサのうちの1つまたは複数を選択する。選択データは、センサ優先順位スコアを含む。センサ選択部は、センサ優先順位スコアに従う、管理者が監視するものである選択データに応じて複数個のセンサのうちの1つより多くを選択する。センサ選択部はさらに、複数個のセンサのうちの1つまたは複数についての一覧を、提案された最適な監視を管理者がするためのものである対応するセンサ優先順位スコアとともに、出力する。
本発明の第2の実施形態によれば、監視システムは、リアルタイムで異常事象に対して検出および反応することが可能である。それは、管理者が、様々な視界のための一覧候補に基づいて各表示を選択できることが理由である。視界は、限定するものではないが、事象を取り囲む様々な表示を含む。監視システムは、ズームアウトカメラから事象領域をとらえ、事象周辺で何が発生しているかを学習する。
(第3の実施形態)
本発明の第3の実施形態では、カバレッジ分析部102は、センサカバレッジ分析およびセンサ特定に、地図情報を用いうる。この第3の実施形態では、監視フィールド内に複数の区画があり、各区画に1つ以上のカメラおよび/またはマイクロホンを有する。音は、区画のうちの1つにおけるマイクロホンのみで検出するのではなく、近接する区画内のマイクロホンによっても検出可能である。したがって、事象位置を特定し、事象が発生した区画にあるカメラを選択することができるシステムが要求される。
本発明の第3の実施形態では、カバレッジ分析部102は、センサカバレッジ分析およびセンサ特定に、地図情報を用いうる。この第3の実施形態では、監視フィールド内に複数の区画があり、各区画に1つ以上のカメラおよび/またはマイクロホンを有する。音は、区画のうちの1つにおけるマイクロホンのみで検出するのではなく、近接する区画内のマイクロホンによっても検出可能である。したがって、事象位置を特定し、事象が発生した区画にあるカメラを選択することができるシステムが要求される。
図13Aおよび図13Bを参照すると、複数個のセンサのうちの1つはマイクロホンである。センサデータ受信部100が、マイクロホンから、音声入力の方向を含む事象関連データを受信する。カバレッジ分析部102は、複数のマイクロホンからのこうした方向情報を用いる。音が、ある区画の内部からであれば、その後システムは区画内にあるカメラを選択する。図13Aの場合では、システムはカメラ42を選択するが、これはマイクロホン40が、音はカメラ42を含む区画内部からであったということを検出したからである。また、他のマイクロホン30、50および60が、音はカメラ42で監視する区画からであるとカバレッジ分析部102で解釈されうるような音の方向を検出した。
一方、全ての音が区画外部からであった場合、その後システムは、区画外部をとらえるカメラを選択する。図13Bの場合では、システムはカメラ72を選択するが、これはマイクロホン30、40、50および60の全てが、音は全ての区画の外部からであったということを検出したからである。
本発明の第3の実施形態によれば、監視システムは、リアルタイムで異常事象に対して検出および反応することが可能である。それは、カバレッジ分析部102は、センサカバレッジ分析およびセンサ特定のために、地図情報を用いることができることが理由である。
(第4の実施形態)
図14を参照することにより、本発明の第4の実施形態における監視システム1が説明される。第4の実施形態の監視システム1は、受信部2、カバレッジ分析部3およびセンサ選択部4を含む。
図14を参照することにより、本発明の第4の実施形態における監視システム1が説明される。第4の実施形態の監視システム1は、受信部2、カバレッジ分析部3およびセンサ選択部4を含む。
受信部2が、複数個のセンサから事象関連データを受信する。カバレッジ分析部3が、受信部からの所定のデータおよび事象関連データを分析するものであって、所定のデータは地図情報およびセンサカバレッジ情報を含む。センサ選択部4が、カバレッジ分析部3と接続し、カバレッジ分析部3による分析に基づいて複数個のセンサのうちの1つまたは複数を選択する。
本発明の第4の実施形態によれば、監視システム1は、リアルタイムで異常事象に対して検出および反応することが可能である。それは、カバレッジ分析部3が、選択可能な受信部からの所定のデータおよび事象関連データを分析して、所望の表示を含む事象の詳細を示すことが理由である。
実施形態はほんの例であり、どのような方法であっても、この発明の範囲、適用性、重要性または構成を限定することを意図していないことをさらに認識されたい。むしろ、先述の詳細な説明は、当業者に対して、この発明のある実施形態を実施するための簡便な道筋を提供することとなる。様々な変更が、添付の特許請求の範囲に記載されるこの発明の範囲から逸脱することなく、ある実施形態において記載した要素の機能ならびに配置および製造方法に対してなされてよいということが理解される。
例として、図15に、本発明のある実施形態に関する監視システムを実施することが可能である情報処理装置900(コンピュータ)の構成を示している。すなわち、図15は、図2および図7から13Bにおけるシステムを実施することができるコンピュータ(情報処理装置)の構成を示しており、した実施形態における個々の機能を実施することが可能であるハードウェア環境を表す。
図15に示す情報処理装置900は、構成要素として以下を含む。
-CPU901(中央処理装置)
-ROM902(リードオンリメモリ)
-RAM903(ランダムアクセスメモリ)
-ハードディスク904(記憶装置)
-外部装置905への通信インタフェース(インタフェース:以下「I/F」と称する。)
-CD-ROM(コンパクトディスクリードオンリメモリ)などの記憶媒体907に記憶されたデータを読み出しおよび書き込み可能なリーダ/ライタ908
-入力/出力インタフェース909
-ROM902(リードオンリメモリ)
-RAM903(ランダムアクセスメモリ)
-ハードディスク904(記憶装置)
-外部装置905への通信インタフェース(インタフェース:以下「I/F」と称する。)
-CD-ROM(コンパクトディスクリードオンリメモリ)などの記憶媒体907に記憶されたデータを読み出しおよび書き込み可能なリーダ/ライタ908
-入力/出力インタフェース909
情報処理装置900は、これらの構成要素がバス906(通信回線)を介して接続される概括的なコンピュータである。
例としてした実施形態で説明した本発明は、コンピュータプログラムを伴う図15に示す情報処理装置900を提供し、その後そうしたハードウェア内のCPU901にコンピュータプログラムを読み出し、それを解釈し、それを実行することで達成される。コンピュータプログラムは、これら実施形態の説明で参照したブロック図(図3、5、14)またはフローチャート(図3、5)に示した機能を実施することが可能である。装置に対して提供されるコンピュータプログラムは、揮発性の読み書き可能な記憶メモリ(RAM903)またはハードディスク904などの不揮発性記憶装置内に記憶することが可能である。
また、で説明した場合では、ここで、通常の手続きを用いてそうしたハードウェアに対してコンピュータプログラムを提供することが可能である。これらの手続きとしては、例えば、CD-ROMなどの任意の様々な記憶媒体907を介して装置に対してコンピュータプログラムをインストールすること、または、インターネットなどの通信回線を介して外部ソースからコンピュータプログラムをダウンロードすることを含む。これらの場合では、本発明を、そうしたコンピュータプログラムを形成するコードからなるもの、または、当該コードを記憶する記憶媒体907からなるものとして理解することが可能である。
この出願は、2014年10月30日に出願のシンガポール特許出願第201407100-0号に基づき、その優先権の利益を主張し、その開示は参照によりその全体が本明細書に組み入れられたものとする。
実施形態の先の説明は、当業者に対して、本発明をなし、本発明を用いることを可能とするように提供される。さらに、これらの実施形態に対する様々な変形が、当業者に対して容易に明らかとなることとなり、本明細書において規定した共通の原理および特定の例は、発明能力を用いることなく他の実施形態に適用されてよい。したがって、本発明は、本明細書で説明した実施形態に限定されることを意図せず、特許請求の範囲および均等物による限定によって規定される最も広い範囲が与えられる。さらに、出願経過において特許請求の範囲が補正されたとしても、発明者の意図は、特許請求の範囲に記載の発明の全ての均等物を維持することであるということに留意されたい。
10 異常事象位置
12 事象領域
14 音の方向
20 壁
30 マイクロホン
32 カメラ
34 カメラ32による画像
36 カメラ32のFOV
40 マイクロホン
42 カメラ
44 カメラ42のFOV
46 カメラ42による画像
50 マイクロホン
52 カメラ
56 カメラ52のFOV
60 マイクロホン
62 カメラ
66 カメラ62のFOV
68 マイクロホン60のFOR
70 マイクロホン
72 カメラ
100 センサデータ受信部
102 カバレッジ分析部
104 センサ選択部
106 センサ駆動部
108 データ分析部
200 センサデータ受信
202 カバレッジ分析
204 センサ選択
206 センサ駆動
208 データ分析
12 事象領域
14 音の方向
20 壁
30 マイクロホン
32 カメラ
34 カメラ32による画像
36 カメラ32のFOV
40 マイクロホン
42 カメラ
44 カメラ42のFOV
46 カメラ42による画像
50 マイクロホン
52 カメラ
56 カメラ52のFOV
60 マイクロホン
62 カメラ
66 カメラ62のFOV
68 マイクロホン60のFOR
70 マイクロホン
72 カメラ
100 センサデータ受信部
102 カバレッジ分析部
104 センサ選択部
106 センサ駆動部
108 データ分析部
200 センサデータ受信
202 カバレッジ分析
204 センサ選択
206 センサ駆動
208 データ分析
Claims (7)
- センサデータに基づいて事象が発生した事象位置を特定する特定手段と、
前記特定された事象位置及びカメラ駆動部の性能に基づいて制御するカメラを選択する選択手段と、
前記事象を含むように前記選択されたカメラの方向を制御する制御手段と、
を備える情報処理システム。 - 前記選択手段は、空間に関する地図情報に基づいてカメラを選択する
請求項1に記載の情報処理システム。 - 前記地図情報は、壁または構造を規定する他の空間に関する情報であり、
前記選択手段は、前記構造を規定する空間の範囲内に規定された空間の大部分をとらえるものであるカメラを選択する、
請求項2に記載の情報処理システム。 - 前記選択手段は、前記事象の空間的大きさに基づいてカメラを選択する
請求項1乃至3のいずれか一項に記載の情報処理システム。 - 前記選択手段は、複数のセンサのうち、前記事象の空間的大きさに基づいて、事象の近接を視界に含む第1センサ及び前記事象の広域を視界に含む第2センサを選択する
請求項1乃至4のいずれか一項に記載の情報処理システム。 - センサデータに基づいて事象が発生した事象位置を特定し、
前記特定された事象位置及びカメラ駆動部の性能に基づいて制御するカメラを選択し、
前記事象を含むように前記選択されたカメラの方向を制御する、
情報処理方法。 - センサデータに基づいて事象が発生した事象位置を特定する特定処理と、
前記特定された事象位置及びカメラ駆動部の性能に基づいて制御するカメラを選択する選択処理と、
前記事象を含むように前記選択されたカメラの方向を制御する制御処理と、
をコンピュータに実行させるプログラム。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2023138974A JP2023155362A (ja) | 2014-10-30 | 2023-08-29 | プログラム、監視装置及び監視方法 |
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
SG10201407100PA SG10201407100PA (en) | 2014-10-30 | 2014-10-30 | System For Monitoring Event Related Data |
SG10201407100P | 2014-10-30 | ||
JP2020072096A JP7044128B2 (ja) | 2014-10-30 | 2020-04-14 | 監視システム、監視方法およびプログラム |
Related Parent Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020072096A Division JP7044128B2 (ja) | 2014-10-30 | 2020-04-14 | 監視システム、監視方法およびプログラム |
Related Child Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2023138974A Division JP2023155362A (ja) | 2014-10-30 | 2023-08-29 | プログラム、監視装置及び監視方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2022033196A true JP2022033196A (ja) | 2022-02-28 |
Family
ID=56080182
Family Applications (4)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2017520996A Active JP6693517B2 (ja) | 2014-10-30 | 2015-10-28 | 監視システム、監視方法およびプログラム |
JP2020072096A Active JP7044128B2 (ja) | 2014-10-30 | 2020-04-14 | 監視システム、監視方法およびプログラム |
JP2021206613A Pending JP2022033196A (ja) | 2014-10-30 | 2021-12-21 | 情報処理システム、情報処理方法およびプログラム |
JP2023138974A Pending JP2023155362A (ja) | 2014-10-30 | 2023-08-29 | プログラム、監視装置及び監視方法 |
Family Applications Before (2)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2017520996A Active JP6693517B2 (ja) | 2014-10-30 | 2015-10-28 | 監視システム、監視方法およびプログラム |
JP2020072096A Active JP7044128B2 (ja) | 2014-10-30 | 2020-04-14 | 監視システム、監視方法およびプログラム |
Family Applications After (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2023138974A Pending JP2023155362A (ja) | 2014-10-30 | 2023-08-29 | プログラム、監視装置及び監視方法 |
Country Status (4)
Country | Link |
---|---|
US (9) | US10362274B2 (ja) |
JP (4) | JP6693517B2 (ja) |
SG (2) | SG10201407100PA (ja) |
WO (1) | WO2016067610A1 (ja) |
Families Citing this family (26)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11669090B2 (en) | 2014-05-20 | 2023-06-06 | State Farm Mutual Automobile Insurance Company | Autonomous vehicle operation feature monitoring and evaluation of effectiveness |
US9972054B1 (en) | 2014-05-20 | 2018-05-15 | State Farm Mutual Automobile Insurance Company | Accident fault determination for autonomous vehicles |
US10599155B1 (en) | 2014-05-20 | 2020-03-24 | State Farm Mutual Automobile Insurance Company | Autonomous vehicle operation feature monitoring and evaluation of effectiveness |
US10223479B1 (en) | 2014-05-20 | 2019-03-05 | State Farm Mutual Automobile Insurance Company | Autonomous vehicle operation feature evaluation |
US10373259B1 (en) | 2014-05-20 | 2019-08-06 | State Farm Mutual Automobile Insurance Company | Fully autonomous vehicle insurance pricing |
US10540723B1 (en) | 2014-07-21 | 2020-01-21 | State Farm Mutual Automobile Insurance Company | Methods of providing insurance savings based upon telematics and usage-based insurance |
US20210118249A1 (en) | 2014-11-13 | 2021-04-22 | State Farm Mutual Automobile Insurance Company | Autonomous vehicle salvage and repair |
SG10201501222XA (en) * | 2015-02-17 | 2016-09-29 | Nec Asia Pacific Pte Ltd | System for monitoring event related data |
US9805601B1 (en) | 2015-08-28 | 2017-10-31 | State Farm Mutual Automobile Insurance Company | Vehicular traffic alerts for avoidance of abnormal traffic conditions |
US10134278B1 (en) | 2016-01-22 | 2018-11-20 | State Farm Mutual Automobile Insurance Company | Autonomous vehicle application |
US11719545B2 (en) | 2016-01-22 | 2023-08-08 | Hyundai Motor Company | Autonomous vehicle component damage and salvage assessment |
US10308246B1 (en) | 2016-01-22 | 2019-06-04 | State Farm Mutual Automobile Insurance Company | Autonomous vehicle signal control |
US11242051B1 (en) | 2016-01-22 | 2022-02-08 | State Farm Mutual Automobile Insurance Company | Autonomous vehicle action communications |
US11441916B1 (en) | 2016-01-22 | 2022-09-13 | State Farm Mutual Automobile Insurance Company | Autonomous vehicle trip routing |
KR101695278B1 (ko) * | 2016-04-26 | 2017-01-23 | (주)시큐레이어 | 실시간성 이벤트를 탐지하는 방법 및 이를 이용한 서버 |
US10818109B2 (en) * | 2016-05-11 | 2020-10-27 | Smartdrive Systems, Inc. | Systems and methods for capturing and offloading different information based on event trigger type |
SG10201705480UA (en) | 2017-07-03 | 2019-02-27 | Nec Asia Pacific Pte Ltd | System and method for determining event |
US10354169B1 (en) * | 2017-12-22 | 2019-07-16 | Motorola Solutions, Inc. | Method, device, and system for adaptive training of machine learning models via detected in-field contextual sensor events and associated located and retrieved digital audio and/or video imaging |
CN108391084A (zh) * | 2018-01-29 | 2018-08-10 | 深圳市汉锐信息技术股份有限公司 | 一种基于ftz的自动跟踪系统 |
DE112019005425T5 (de) * | 2018-10-30 | 2021-07-22 | Motional Ad Llc | Redundanz in autonomen fahrzeugen |
US11176744B2 (en) * | 2019-07-22 | 2021-11-16 | Microsoft Technology Licensing, Llc | Mapping sensor data using a mixed-reality cloud |
US11812336B2 (en) * | 2019-10-29 | 2023-11-07 | Qualcomm Incorporated | Position accuracy improvement using smart satellite vehicle selection |
US20230162503A1 (en) * | 2020-04-13 | 2023-05-25 | Kaoru Watanabe | Monitoring information management system, monitoring information management program, and monitoring information management method |
JP7501268B2 (ja) | 2020-09-16 | 2024-06-18 | 日産自動車株式会社 | 測定システムの制御方法、及び、測定システム |
CN113554019A (zh) * | 2021-08-13 | 2021-10-26 | 珠海格力电器股份有限公司 | 图像报告生成方法、电子装置、服务器及可读存储介质 |
DE102022203740A1 (de) | 2022-04-13 | 2023-10-19 | Robert Bosch Gesellschaft mit beschränkter Haftung | Überwachungssystem, Verfahren zum Zuordnen einer Überwachungskamera zu einem Überlappungsüberwachungsbereich, Computerprogramm und Speichermedium |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2005012415A (ja) * | 2003-06-18 | 2005-01-13 | Matsushita Electric Ind Co Ltd | 監視映像モニタリングシステム、監視映像生成方法、および監視映像モニタリングサーバ |
JP2009290501A (ja) * | 2008-05-29 | 2009-12-10 | Funai Electric Co Ltd | 監視カメラ及び監視システム |
JP2011107839A (ja) * | 2009-11-13 | 2011-06-02 | Fujitsu Ltd | 追跡方法、監視システム及びプログラム |
Family Cites Families (63)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR0176157B1 (ko) | 1995-08-14 | 1999-05-01 | 김광호 | 개선된 검색기능을 갖는 cctv시스템 및 이에 적합한 검색방법 |
US7522186B2 (en) * | 2000-03-07 | 2009-04-21 | L-3 Communications Corporation | Method and apparatus for providing immersive surveillance |
US6891566B2 (en) * | 2000-03-14 | 2005-05-10 | Joseph Robert Marchese | Digital video system using networked cameras |
JP2002092751A (ja) * | 2000-09-18 | 2002-03-29 | Matsushita Electric Ind Co Ltd | 監視システム |
US6944700B2 (en) * | 2001-06-15 | 2005-09-13 | Logitech Europe S.A. | Method and system for transferring data between a digital camera and a host |
US20040100376A1 (en) * | 2002-11-26 | 2004-05-27 | Kimberly-Clark Worldwide, Inc. | Healthcare monitoring system |
JP4349199B2 (ja) | 2003-05-21 | 2009-10-21 | 株式会社日立製作所 | 時空間通信システム |
US20080274798A1 (en) * | 2003-09-22 | 2008-11-06 | Walker Digital Management, Llc | Methods and systems for replaying a player's experience in a casino environment |
US20050134695A1 (en) * | 2003-12-17 | 2005-06-23 | Deshpande Sachin G. | Systems and methods for providing remote camera control |
US8427538B2 (en) * | 2004-04-30 | 2013-04-23 | Oncam Grandeye | Multiple view and multiple object processing in wide-angle video camera |
EP1772752A4 (en) * | 2004-07-30 | 2009-07-08 | Panasonic Elec Works Co Ltd | Single detector and additional detector |
US7796154B2 (en) * | 2005-03-07 | 2010-09-14 | International Business Machines Corporation | Automatic multiscale image acquisition from a steerable camera |
JP4882276B2 (ja) * | 2005-05-23 | 2012-02-22 | 富士通株式会社 | 画像配信方法、及び画像配信装置 |
US9036028B2 (en) * | 2005-09-02 | 2015-05-19 | Sensormatic Electronics, LLC | Object tracking and alerts |
JP2007074217A (ja) | 2005-09-06 | 2007-03-22 | Kansai Electric Power Co Inc:The | 撮影システムおよび撮影部を選択させるためのプログラム |
US20070242066A1 (en) * | 2006-04-14 | 2007-10-18 | Patrick Levy Rosenthal | Virtual video camera device with three-dimensional tracking and virtual object insertion |
US20080010273A1 (en) * | 2006-06-12 | 2008-01-10 | Metacarta, Inc. | Systems and methods for hierarchical organization and presentation of geographic search results |
US8274564B2 (en) * | 2006-10-13 | 2012-09-25 | Fuji Xerox Co., Ltd. | Interface for browsing and viewing video from multiple cameras simultaneously that conveys spatial and temporal proximity |
US8368720B2 (en) * | 2006-12-13 | 2013-02-05 | Adobe Systems Incorporated | Method and apparatus for layer-based panorama adjustment and editing |
US8760519B2 (en) * | 2007-02-16 | 2014-06-24 | Panasonic Corporation | Threat-detection in a distributed multi-camera surveillance system |
JP4451892B2 (ja) | 2007-03-19 | 2010-04-14 | 株式会社リコー | 映像再生装置、映像再生方法、及び映像再生プログラム |
ITMI20071016A1 (it) | 2007-05-19 | 2008-11-20 | Videotec Spa | Metodo e sistema per sorvegliare un ambiente |
US20080294012A1 (en) * | 2007-05-22 | 2008-11-27 | Kurtz Andrew F | Monitoring physiological conditions |
US8627470B2 (en) * | 2007-11-13 | 2014-01-07 | Cisco Technology, Inc. | System and method for wireless network and physical system integration |
US20090121861A1 (en) | 2007-11-14 | 2009-05-14 | Joel Pat Latham | Detecting, deterring security system |
US8593476B2 (en) * | 2008-02-13 | 2013-11-26 | Gary Demos | System for accurately and precisely representing image color information |
US8345935B2 (en) * | 2008-03-17 | 2013-01-01 | International Business Machines Corporation | Detecting behavioral deviations by measuring eye movements |
DE102008001076A1 (de) * | 2008-04-09 | 2009-10-15 | Robert Bosch Gmbh | Verfahren, Vorrichtung sowie Computerprogramm zur Auflösungsreduktion eines Eingangsbilds |
US8405720B2 (en) * | 2008-08-08 | 2013-03-26 | Objectvideo, Inc. | Automatic calibration of PTZ camera system |
JP5192414B2 (ja) | 2009-02-06 | 2013-05-08 | 株式会社日立製作所 | 音声情報表示システム |
US9299231B2 (en) * | 2009-02-26 | 2016-03-29 | Tko Enterprises, Inc. | Image processing sensor systems |
US9451183B2 (en) | 2009-03-02 | 2016-09-20 | Flir Systems, Inc. | Time spaced infrared image enhancement |
US20110234750A1 (en) * | 2010-03-24 | 2011-09-29 | Jimmy Kwok Lap Lai | Capturing Two or More Images to Form a Panoramic Image |
US20110261203A1 (en) * | 2010-04-22 | 2011-10-27 | Hand Held Products, Inc. | Imaging scanner utilized as a cctv camera |
JP5269026B2 (ja) * | 2010-09-29 | 2013-08-21 | 日立建機株式会社 | 作業機械の周囲監視装置 |
JP5845608B2 (ja) * | 2011-03-31 | 2016-01-20 | 株式会社ニデック | 眼科撮影装置 |
AU2011201953B2 (en) * | 2011-04-29 | 2013-09-19 | Canon Kabushiki Kaisha | Fault tolerant background modelling |
WO2012162391A2 (en) * | 2011-05-25 | 2012-11-29 | University Of Central Florida Research Foundation, Inc. | Systems and methods for detecting small pattern changes in sensed data |
US8868039B2 (en) * | 2011-10-12 | 2014-10-21 | Digimarc Corporation | Context-related arrangements |
US9361810B2 (en) * | 2012-03-30 | 2016-06-07 | Pegasus Global Strategic Solutions Llc | Uninhabited test city |
CN106169215A (zh) | 2012-06-08 | 2016-11-30 | 爱克斯崔里斯科技有限公司 | 多模式检测 |
DE102012211298A1 (de) | 2012-06-29 | 2014-01-02 | Robert Bosch Gmbh | Anzeigevorrichtung für ein Videoüberwachungssystem sowie Videoüberwachungssystem mit der Anzeigevorrichtung |
EP2725552A1 (en) | 2012-10-29 | 2014-04-30 | ATS Group (IP Holdings) Limited | System and method for selecting sensors in surveillance applications |
US9124762B2 (en) * | 2012-12-20 | 2015-09-01 | Microsoft Technology Licensing, Llc | Privacy camera |
US11165994B2 (en) * | 2013-05-13 | 2021-11-02 | Texas Instruments Incorporated | Analytics-driven summary views for surveillance networks |
US9679491B2 (en) * | 2013-05-24 | 2017-06-13 | Qualcomm Incorporated | Signaling device for teaching learning devices |
KR20150021353A (ko) | 2013-08-20 | 2015-03-02 | 삼성테크윈 주식회사 | 영상 융합 시스템 및 그 방법 |
US20150116501A1 (en) * | 2013-10-30 | 2015-04-30 | Sony Network Entertainment International Llc | System and method for tracking objects |
US9449239B2 (en) * | 2014-05-30 | 2016-09-20 | Apple Inc. | Credit card auto-fill |
US9729791B2 (en) * | 2014-10-31 | 2017-08-08 | Ubiquiti Networks, Inc. | Micro camera and multi-purpose mounting base |
US9906720B2 (en) * | 2014-12-05 | 2018-02-27 | Ricoh Company, Ltd. | Service system, information processing apparatus, and service providing method |
JP2018515840A (ja) * | 2015-04-28 | 2018-06-14 | フィリップス ライティング ホールディング ビー ヴィ | 多画像シーン内のメタデータ |
GB201508074D0 (en) * | 2015-05-12 | 2015-06-24 | Apical Ltd | People detection |
US20160350826A1 (en) * | 2015-05-29 | 2016-12-01 | Ebay Inc. | High-quality image marketplace |
US9697648B1 (en) * | 2015-12-23 | 2017-07-04 | Intel Corporation | Text functions in augmented reality |
US10771751B2 (en) * | 2016-02-02 | 2020-09-08 | Panasonic Intellectual Property Management Co., Ltd. | Projection image adjustment system and projection image adjustment method |
US10414052B2 (en) * | 2016-02-09 | 2019-09-17 | Cobalt Robotics Inc. | Building-integrated mobile robot |
US20170289504A1 (en) * | 2016-03-31 | 2017-10-05 | Ants Technology (Hk) Limited. | Privacy Supporting Computer Vision Systems, Methods, Apparatuses and Associated Computer Executable Code |
US11068696B2 (en) * | 2016-08-24 | 2021-07-20 | International Business Machines Corporation | Protecting individuals privacy in public through visual opt-out, signal detection, and marker detection |
US10242282B2 (en) * | 2017-03-20 | 2019-03-26 | Conduent Business Services, Llc | Video redaction method and system |
WO2019040668A1 (en) * | 2017-08-22 | 2019-02-28 | Alarm.Com Incorporated | PRESERVING CONFIDENTIALITY IN MONITORING |
US11157646B2 (en) * | 2018-09-27 | 2021-10-26 | Intel Corporation | Systems and methods for processing and handling privacy-sensitive image data |
US11178123B2 (en) * | 2019-09-26 | 2021-11-16 | At&T Intellectual Property I, L.P. | Video communication data security |
-
2014
- 2014-10-30 SG SG10201407100PA patent/SG10201407100PA/en unknown
-
2015
- 2015-10-28 SG SG11201703151QA patent/SG11201703151QA/en unknown
- 2015-10-28 US US15/519,271 patent/US10362274B2/en active Active
- 2015-10-28 WO PCT/JP2015/005419 patent/WO2016067610A1/en active Application Filing
- 2015-10-28 JP JP2017520996A patent/JP6693517B2/ja active Active
-
2019
- 2019-03-07 US US16/295,150 patent/US10893240B2/en active Active
- 2019-06-12 US US16/438,628 patent/US10735693B2/en active Active
-
2020
- 2020-04-14 JP JP2020072096A patent/JP7044128B2/ja active Active
- 2020-12-16 US US17/123,737 patent/US11800063B2/en active Active
-
2021
- 2021-12-21 JP JP2021206613A patent/JP2022033196A/ja active Pending
-
2023
- 2023-04-27 US US18/140,306 patent/US20230269349A1/en active Pending
- 2023-08-29 JP JP2023138974A patent/JP2023155362A/ja active Pending
- 2023-09-05 US US18/242,375 patent/US20230412771A1/en active Pending
- 2023-09-05 US US18/242,272 patent/US20230412770A1/en active Pending
- 2023-09-05 US US18/242,252 patent/US20230421727A1/en active Pending
- 2023-09-05 US US18/242,382 patent/US20230421728A1/en active Pending
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2005012415A (ja) * | 2003-06-18 | 2005-01-13 | Matsushita Electric Ind Co Ltd | 監視映像モニタリングシステム、監視映像生成方法、および監視映像モニタリングサーバ |
JP2009290501A (ja) * | 2008-05-29 | 2009-12-10 | Funai Electric Co Ltd | 監視カメラ及び監視システム |
JP2011107839A (ja) * | 2009-11-13 | 2011-06-02 | Fujitsu Ltd | 追跡方法、監視システム及びプログラム |
Also Published As
Publication number | Publication date |
---|---|
US20230269349A1 (en) | 2023-08-24 |
US20210105440A1 (en) | 2021-04-08 |
US20190208167A1 (en) | 2019-07-04 |
WO2016067610A1 (en) | 2016-05-06 |
US10735693B2 (en) | 2020-08-04 |
JP6693517B2 (ja) | 2020-05-13 |
JP2020127222A (ja) | 2020-08-20 |
JP2023155362A (ja) | 2023-10-20 |
JP2017539114A (ja) | 2017-12-28 |
US20230412771A1 (en) | 2023-12-21 |
US20230421727A1 (en) | 2023-12-28 |
SG11201703151QA (en) | 2017-05-30 |
US20230421728A1 (en) | 2023-12-28 |
JP7044128B2 (ja) | 2022-03-30 |
US20170237942A1 (en) | 2017-08-17 |
US10362274B2 (en) | 2019-07-23 |
SG10201407100PA (en) | 2016-05-30 |
US20190297305A1 (en) | 2019-09-26 |
US11800063B2 (en) | 2023-10-24 |
US20230412770A1 (en) | 2023-12-21 |
US10893240B2 (en) | 2021-01-12 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7044128B2 (ja) | 監視システム、監視方法およびプログラム | |
JP7420169B2 (ja) | 監視システム、監視方法及びプログラム | |
US9363361B2 (en) | Conduct and context relationships in mobile devices | |
US7940432B2 (en) | Surveillance system having a multi-area motion detection function | |
US9858486B2 (en) | Device and method for detecting circumventing behavior and device and method for processing cause of circumvention | |
JPWO2015019546A1 (ja) | 無線カメラシステム、センタ装置、画像表示方法、画像表示プログラム | |
EP3333801B1 (en) | A surveillance apparatus and a surveillance method for indicating the detection of motion | |
KR20160093253A (ko) | 영상 기반 이상 흐름 감지 방법 및 그 시스템 | |
JP6469139B2 (ja) | 情報処理装置、情報処理方法及びプログラム | |
EP3836538A1 (en) | Displaying a video stream | |
JP2006319526A (ja) | ネットワークカメラシステム及びその制御方法 | |
RU2688735C2 (ru) | Устройство и способ управления системой видеонаблюдения в реальном времени в режиме фиксации тревожных событий | |
JP6661312B2 (ja) | 監視システム、情報処理方法及びプログラム | |
KR101698864B1 (ko) | 메타 데이터를 이용한 영상 검출 방법을 실행시키는 프로그램이 기록된 기록 매체 | |
JP2005167604A (ja) | 映像監視システム | |
JP2020102676A (ja) | 情報処理装置、情報処理方法およびプログラム | |
KR20140030502A (ko) | 현장 모니터링 장치 | |
US20240155079A1 (en) | Configurable audio and video sectors | |
JP2013115566A (ja) | 撮像装置、撮像装置の制御方法及びプログラム | |
JP7256082B2 (ja) | 監視システム、プログラム、およびリスト作成方法 | |
US20220215687A1 (en) | Monitoring apparatus | |
KR20160061706A (ko) | 카메라 장치 및 카메라 제어 시스템 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20211221 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20221129 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20230530 |