JP2020187781A - 情報処理装置、情報処理方法、及びプログラム - Google Patents
情報処理装置、情報処理方法、及びプログラム Download PDFInfo
- Publication number
- JP2020187781A JP2020187781A JP2020122148A JP2020122148A JP2020187781A JP 2020187781 A JP2020187781 A JP 2020187781A JP 2020122148 A JP2020122148 A JP 2020122148A JP 2020122148 A JP2020122148 A JP 2020122148A JP 2020187781 A JP2020187781 A JP 2020187781A
- Authority
- JP
- Japan
- Prior art keywords
- information
- monitored
- risk
- spatiotemporal
- spatial area
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 230000010365 information processing Effects 0.000 title claims abstract description 109
- 238000003672 processing method Methods 0.000 title claims description 19
- 238000012544 monitoring process Methods 0.000 claims abstract description 223
- 238000003384 imaging method Methods 0.000 claims description 60
- 230000007613 environmental effect Effects 0.000 claims description 49
- 206010039203 Road traffic accident Diseases 0.000 claims description 12
- 238000000034 method Methods 0.000 abstract description 32
- 230000006870 function Effects 0.000 description 31
- 238000012545 processing Methods 0.000 description 18
- 230000008569 process Effects 0.000 description 16
- 238000004458 analytical method Methods 0.000 description 14
- 238000010586 diagram Methods 0.000 description 10
- 238000004891 communication Methods 0.000 description 9
- 230000000694 effects Effects 0.000 description 9
- 238000005516 engineering process Methods 0.000 description 8
- 230000009471 action Effects 0.000 description 5
- 238000001514 detection method Methods 0.000 description 4
- 238000012937 correction Methods 0.000 description 2
- 238000011835 investigation Methods 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 230000002265 prevention Effects 0.000 description 2
- 230000006399 behavior Effects 0.000 description 1
- 230000003542 behavioural effect Effects 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 238000009472 formulation Methods 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 239000000203 mixture Substances 0.000 description 1
- 238000012806 monitoring device Methods 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q50/00—Systems or methods specially adapted for specific business sectors, e.g. utilities or tourism
- G06Q50/10—Services
- G06Q50/26—Government or public services
- G06Q50/265—Personal security, identity or safety
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/20—Information retrieval; Database structures therefor; File system structures therefor of structured data, e.g. relational data
- G06F16/22—Indexing; Data structures therefor; Storage structures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q50/00—Systems or methods specially adapted for specific business sectors, e.g. utilities or tourism
- G06Q50/10—Services
- G06Q50/26—Government or public services
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/40—Scenes; Scene-specific elements in video content
- G06V20/41—Higher-level, semantic clustering, classification or understanding of video scenes, e.g. detection, labelling or Markovian modelling of sport events or news items
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/40—Scenes; Scene-specific elements in video content
- G06V20/46—Extracting features or characteristics from the video content, e.g. video fingerprints, representative shots or key frames
-
- G—PHYSICS
- G08—SIGNALLING
- G08B—SIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
- G08B25/00—Alarm systems in which the location of the alarm condition is signalled to a central station, e.g. fire or police telegraphic systems
- G08B25/01—Alarm systems in which the location of the alarm condition is signalled to a central station, e.g. fire or police telegraphic systems characterised by the transmission medium
- G08B25/04—Alarm systems in which the location of the alarm condition is signalled to a central station, e.g. fire or police telegraphic systems characterised by the transmission medium using a single signalling line, e.g. in a closed loop
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N7/00—Television systems
- H04N7/18—Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
- H04N7/181—Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast for receiving images from a plurality of remote sources
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/40—Scenes; Scene-specific elements in video content
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/52—Surveillance or monitoring of activities, e.g. for recognising suspicious objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V2201/00—Indexing scheme relating to image or video recognition or understanding
- G06V2201/07—Target detection
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V2201/00—Indexing scheme relating to image or video recognition or understanding
- G06V2201/08—Detecting or categorising vehicles
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N7/00—Television systems
- H04N7/18—Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
Abstract
Description
事故発生の可能性又は犯罪発生の可能性が高くなる空間領域と、その時間帯及び年月日の少なくともいずれか一方と、を示す高リスク時空間情報を取得する時空間情報取得手段と、
前記高リスク時空間情報に基づいて、複数の場所のそれぞれを撮像することにより生成された複数の映像の中から解析対象の映像を特定し、該特定された映像を解析して、監視対象候補の情報を取得する監視対象候補取得手段と、
前記監視対象候補の情報に基づいて、前記高リスク時空間情報が示す空間領域及び時間帯の中で、前記空間領域の少なくとも一部である監視すべき空間領域、又は監視すべき時間帯の少なくとも一方を特定する対象時空間特定手段と、
を備える、情報処理装置が提供される。
コンピュータが、
事故発生の可能性又は犯罪発生の可能性が高くなる空間領域と、その時間帯及び年月日の少なくともいずれか一方と、を示す高リスク時空間情報を取得し、
前記高リスク時空間情報に基づいて、複数の場所のそれぞれを撮像することにより生成された複数の映像の中から解析対象の映像を特定し、該特定された映像を解析して、監視対象候補の情報を取得し、
前記監視対象候補の情報に基づいて、前記高リスク時空間情報が示す空間領域及び時間帯の中で、前記空間領域の少なくとも一部である監視すべき空間領域、又は監視すべき時間帯の少なくとも一方を特定する、
ことを含む情報処理方法が提供される。
コンピュータを、
事故発生の可能性又は犯罪発生の可能性が高くなる空間領域と、その時間帯及び年月日の少なくともいずれか一方と、を示す高リスク時空間情報を取得する時空間情報取得手段、
前記高リスク時空間情報に基づいて、複数の場所のそれぞれを撮像することにより生成された複数の映像の中から解析対象の映像を特定し、該特定された映像を解析して、監視対象候補の情報を取得する監視対象候補取得手段、
前記監視対象候補の情報に基づいて、前記高リスク時空間情報が示す空間領域及び時間帯の中で、前記空間領域の少なくとも一部である監視すべき空間領域、又は監視すべき時間帯の少なくとも一方を特定する対象時空間特定手段、
として機能させるためのプログラムが提供される。
事故発生の可能性又は犯罪発生の可能性が高くなる空間領域と、その時間帯及び年月日の少なくともいずれか一方と、を示す高リスク時空間情報を取得する時空間情報取得手段と、
前記高リスク時空間情報に基づいて、複数の場所のそれぞれを撮像することにより生成された複数の映像の中から解析対象の映像を特定し、該特定された映像を解析して、事故又は犯罪の被害者候補の情報を取得する被害者候補情報取得手段と、
前記被害者候補の情報に基づいて、前記高リスク時空間情報が示す空間領域及び時間帯の中で、前記空間領域の少なくとも一部である監視すべき空間領域、又は監視すべき時間帯の少なくとも一方を特定する対象時空間特定手段と、
を備える、情報処理装置が提供される。
コンピュータが、
事故発生の可能性又は犯罪発生の可能性が高くなる空間領域と、その時間帯及び年月日の少なくともいずれか一方と、を示す高リスク時空間情報を取得し、
前記高リスク時空間情報に基づいて、複数の場所のそれぞれを撮像することにより生成された複数の映像の中から解析対象の映像を特定し、該特定された映像を解析して、事故又は犯罪の被害者候補の情報を取得し、
前記被害者候補の情報に基づいて、前記高リスク時空間情報が示す空間領域及び時間帯の中で、前記空間領域の少なくとも一部である監視すべき空間領域、又は監視すべき時間帯の少なくとも一方を特定する、
ことを含む情報処理方法が提供される。
コンピュータを、
事故発生の可能性又は犯罪発生の可能性が高くなる空間領域及びその時間帯を示す高リスク時空間情報を取得する時空間情報取得手段、
前記高リスク時空間情報に基づいて、複数の場所のそれぞれを撮像することにより生成された複数の映像の中から解析対象の映像を特定し、該特定された映像を解析して、事故又は犯罪の被害者候補の情報を取得する被害者候補情報取得手段、
前記被害者候補の情報に基づいて、前記高リスク時空間情報が示す空間領域及び時間帯の中で、前記空間領域の少なくとも一部である監視すべき空間領域、又は監視すべき時間帯の少なくとも一方を特定する対象時空間特定手段、
として機能させるためのプログラムが提供される。
本発明に係る情報処理装置は、例えば警察官や警備員といった、犯罪や事故などに対する監視業務に従事する人物、並びに、監視業務に従事する人物によって操作される機器などが重点的に監視すべき空間領域又は重点的に監視すべき時間を提示する。
図1は、第1実施形態の情報処理装置10の機能構成を概念的に示す図である。図1に示されるように、本実施形態の情報処理装置10は、時空間情報取得部110、監視対象候補取得部120、及び対象時空間特定部130を備える。時空間情報取得部110は、事故発生の可能性又は犯罪発生の可能性が高くなる空間領域及びその時間帯を示す高リスク時空間情報を取得する。監視対象候補取得部120は、高リスク時空間情報に基づいて、複数の場所のそれぞれを撮像することにより生成された複数の映像の中から解析対象の映像を特定する。そして、監視対象候補取得部120は、該特定された映像を解析して、監視対象候補の情報を取得する。対象時空間特定部130は、高リスク時空間情報が示す空間領域および時間帯の中で、当該空間領域の少なくとも一部である監視すべき空間領域又は監視すべき時間帯の少なくとも一方を特定する。
本実施形態によれば、高リスク時空間情報、すなわち、犯罪発生または事故発生の可能性が高い(以下、"高リスク"とも表記)空間領域およびその時間帯に関連する映像(静止画像または動画像)が解析されて、監視対象候補(詳しくは後述するが、人物または物体)の情報が取得される。そして、その監視対象候補の情報を用いて、高リスク時空間情報が示す空間領域および時間帯の中から、重点的に監視すべき空間領域又は重点的に監視すべき時間帯が特定される。この「重点的に監視すべき空間領域または重点的に監視すべき時間帯」は、図示しない表示装置などに提示される。本実施形態に係る情報処理装置10により提示される情報は、監視業務に携わる有限リソース(警察官や警備員などの人的リソース、ドローンやその他の移動型機器などの物的リソース)の効果的な配置計画を立案するための有益な情報となる。例えば、監視業務の責任者などが、重点的に監視すべき空間領域を中心にリソースを集中させる、重点的に監視すべき時間を軸としてリソースを集中させる、といった戦略を容易に立てることができる。
情報処理装置10の各機能構成部は、各機能構成部を実現するハードウエア(例:ハードワイヤードされた電子回路など)で実現されてもよいし、ハードウエアとソフトウエアとの組み合わせ(例:電子回路とそれを制御するプログラムの組み合わせなど)で実現されてもよい。以下、情報処理装置10の各機能構成部がハードウエアとソフトウエアとの組み合わせで実現される場合について、さらに説明する。
図3を用いて、本実施形態の情報処理装置10で実行される処理の流れを説明する。図3は、第1実施形態の情報処理装置10の処理の流れを示すフローチャートである。
本例では、時空間情報取得部110は、少なくとも、犯罪に関する高リスク時空間情報を取得する。ここで取得された高リスク時空間情報を基に、解析対象の映像が特定される。なお時空間情報取得部110は、ある特定の種別の犯罪に関する高リスク時空間情報を取得し、その種別に応じて解析対象の映像を特定してもよい。監視対象候補取得部120は、解析対象として特定された映像の範囲(撮像装置の撮像範囲)内の人物を、例えば顔または人物認識技術などを用いて認識する。これにより、監視対象候補取得部120は、解析対象の映像の範囲内に立ち入った人物、立ち去った人物、滞在し続ける人物などを認識する。そして監視対象候補取得部120は、認識した人物を、既存の要監視者と照合する。要監視者とは、特に限定されないが、例えば、犯罪歴のある人物、手配中の人物、或いは、何らかの理由で監視対象に挙げられている人物などである。ここで時空間情報取得部110が特定の種別の犯罪に関する高リスク時空間情報を取得している場合、監視対象候補取得部120は、その種別を用いて照合に用いる既存の要監視者の情報を絞り込むことができる。既存の要監視者の情報は所定の記憶部(図示せず)に登録されており、この記憶部は、例えば警察機関のシステムに備えられている。そして監視対象候補取得部120は、その記憶部の中で該当する人物を監視対象候補として特定する。
本例では、時空間情報取得部110は、少なくとも、犯罪に関する高リスク時空間情報を取得する。ここで取得された高リスク時空間情報を基に、解析対象の映像が特定される。なお時空間情報取得部110は、ある特定の種別の犯罪に関する高リスク時空間情報を取得し、その種別に応じて解析対象の映像を特定してもよい。監視対象候補取得部120は、解析対象として特定された映像を解析した結果、同一と推定される人物を所定範囲の場所において所定回数以上又は所定時間以上検出した場合に、その映像を解析して得られる該人物の特徴を監視対象候補として特定する。監視対象候補取得部120は、例えば、同一と推定される人物をトラッキングする画像認識技術などを用いて、解析対象の映像において同一と推定される人物が検出された回数、又は、検出された時間の長さなどの情報を取得することができる。検出された回数が多い人物は、その所定範囲で頻繁に出現する人物と言える。また検出された時間が長い人物は、その所定範囲を長時間徘徊する人物と言える。このような人物は、犯罪の下見を行っている可能性がある不審人物とも考えられる。そこで、監視対象候補取得部120は、映像の解析結果に基づいて、このような人物を監視対象候補として特定する。ここで時空間情報取得部110が特定の種別の犯罪に関する高リスク時空間情報を取得している場合、監視対象候補取得部120は、その犯罪の種別に紐付けて予め定義された特徴を用いて、監視対象候補を精度よく特定することができる。なお、検出された回数が多い、或いは、検出された時間が長いと判断する閾値などを設けることで、監視対象候補取得部120は、その閾値を基に上述したような人物の有無を、解析対象の映像から判断することができる。この閾値などの情報は、例えば、図2のストレージ104等に予め格納されていてもよいし、図2の入出力インタフェース105や通信インタフェース106を介して取得されてもよい。
本例では、時空間情報取得部110は、少なくとも、犯罪に関する高リスク時空間情報を取得する。ここで取得された高リスク時空間情報を基に、解析対象の映像が特定される。なお時空間情報取得部110は、ある特定の種別の犯罪に関する高リスク時空間情報を取得し、その種別に応じて解析対象の映像を特定してもよい。監視対象候補取得部120は、解析対象として特定された映像を解析した結果、同一と推定される二輪又は三輪の車両であって、二人乗りをしている二輪又は三輪の車両を所定範囲の場所において所定回数以上又は所定時間以上検出した場合に、該二輪又は三輪の車両を監視対象候補として特定する。監視対象候補取得部120は、例えば、同一と推定される物体をトラッキングする画像認識技術などを用いて、解析対象の映像において同一と推定される車両が検出された回数、又は、検出された時間の長さなどの情報を取得することができる。検出された回数が多い車両は、その所定範囲で頻繁に出現する車両と言える。また検出された時間が長い車両は、その所定範囲を長時間徘徊する車両と言える。そして、このような車両が二輪または三輪の車両であって、二人乗りの車両である場合、当該車両はひったくりなどの犯罪を起こし得る不審車両とも考えられる。そこで監視対象候補取得部120は、映像の解析結果に基づいて、このような車両を監視対象候補として特定する。ここで時空間情報取得部110が特定の種別の犯罪に関する高リスク時空間情報を取得している場合、監視対象候補取得部120は、その犯罪の種別に紐付けて予め定義された特徴を用いて、監視対象候補を精度よく特定することができる。なお、検出された回数が多い、或いは、検出された時間が長いと判断する閾値などを設けることで、監視対象候補取得部120は、その閾値を基に上述したような車両の有無を、解析対象の映像から判断することができる。この閾値などの情報は、例えば、図2のストレージ104等に予め格納されていてもよいし、図2の入出力インタフェース105や通信インタフェース106を介して取得されてもよい。
本例では、時空間情報取得部110は、少なくとも、犯罪に関する高リスク時空間情報を取得する。ここで取得された高リスク時空間情報を基に、解析対象の映像が特定される。なお時空間情報取得部110は、ある特定の種別の犯罪に関する高リスク時空間情報を取得し、その種別に応じて解析対象の映像を特定してもよい。監視対象候補取得部120は、解析対象として特定された映像の範囲(撮像装置の撮像範囲)内の車両を認識する。監視対象候補取得部120は、様々な画像認識技術を用いることにより、解析対象の映像の範囲内の各車両(解析対象の映像の範囲内に立ち入った車両、立ち去った車両、滞在し続ける車両など)を認識する。そして監視対象候補取得部120は、各車両の所有者を含む情報を登録する記憶部(図示せず)を参照して該認識した車両の所有者を特定する。この記憶部は、例えば、地方の自治体のシステムに備えられている。監視対象候補取得部120は、特定した所有者を、既存の要監視者と照合する。要監視者とは、特に限定されないが、例えば、犯罪歴のある人物、手配中の人物、或いは、何らかの理由で監視対象に挙げられている人物などである。ここで時空間情報取得部110が特定の種別の犯罪に関する高リスク時空間情報を取得している場合、監視対象候補取得部120は、その種別を用いて照合に用いるデータを絞り込むことができる。既存の要監視者の情報は所定の記憶部(図示せず)に登録されており、この記憶部は、例えば警察機関のシステムに備えられている。そして監視対象候補取得部120は、その記憶部の中で該当する人物を監視対象候補として特定する。
本例では、時空間情報取得部110は、少なくとも、交通事故や交通事故違反に関する高リスク時空間情報を取得する。なお時空間情報取得部110は、ある特定の種別の交通事故または交通規則違反に関する高リスク時空間情報を取得し、その種別に応じて解析対象の映像を特定してもよい。そして監視対象候補取得部120は、解析対象として特定された映像の範囲(撮像装置の撮像範囲)内の車両を認識する。監視対象候補取得部120は、様々な画像認識技術を用いることにより、解析対象の映像の範囲内の各車両(解析対象の映像の範囲内に立ち入った車両、立ち去った車両、滞在し続ける車両など)を認識する。そして監視対象候補取得部120は、認識した車両が、交通事故を起こした人物又は交通規則に違反した人物が所有する車両か否かを照合する。ここで時空間情報取得部110が特定の種別の交通事故または交通規則違反に関する高リスク時空間情報を取得している場合、監視対象候補取得部120は、その種別を用いて照合に用いるデータを絞り込むことができる。交通事故を起こした人物又は交通規則に違反した人物が所有する車両の情報は所定の記憶部(図示せず)に登録されており、この記憶部は、例えば地方の自治体のシステムに備えられている。そして監視対象候補取得部120は、その記憶部で該当する車両を監視対象候補として特定する。
また、監視対象候補取得部120は、映像を取得する代わりに、現在捜査中の犯罪に関する情報の入力を受け付け、その情報を基に監視対象候補の情報を取得することもできる。例えば、監視対象候補取得部120は、現在捜査中の犯罪の手口を入力情報として取得した場合、既存の犯罪者や手配者の情報を記憶するデータベースを参照してプロファイリング結果を得ることができる。具体的には、監視対象候補取得部120は、同様の手口を使って犯罪を起こした人物、及びその人物の居住所や活動時間などの情報を監視対象候補の情報として取得することができる。
本実施形態は、以下の点を除いて、第1実施形態と同様の機能構成、及び、ハードウエア構成を備える。
図7は、第2実施形態の情報処理装置10の機能構成を概念的に示す図である。図7に示されるように、本実施形態の情報処理装置10は、第1実施形態の構成に加えて、被害者候補情報取得部140を更に備える。本実施形態の情報処理装置10は、後述する被害者候補情報取得部140の機能を実現するプログラムを図2のストレージ104に更に記憶している。プロセッサ102は、このプログラムモジュールを実行することにより、被害者候補情報取得部140の機能を更に実現する。
図8を用いて、本実施形態の情報処理装置10で実行される処理の流れを説明する。図8は、第2実施形態の情報処理装置10の処理の流れを示すフローチャートである。以下では、第1実施形態における処理と異なる部分について主に説明する。
なお、図8の例において、S106の処理とS202の処理は並列に実行されてもよい。また、図8の例において、S106の処理を実行せずにS202の処理のみが実行されてもよい。この場合、情報処理装置10は、監視対象候補取得部120を備えていなくてもよい。対象時空間特定部130は、S202で得られる被害者候補の数(被害者候補の情報の数)が多い空間領域又は時間帯を、監視すべき空間領域又は監視すべき時間帯としてS204で特定する。なお、被害者候補の数が多いと判断する閾値などを設けることで、対象時空間特定部130は、その閾値を基に監視すべき空間領域又は監視すべき時間帯を特定することができる。この閾値などの情報は、例えば、図2のストレージ104等に予め格納されていてもよいし、図2の入出力インタフェース105や通信インタフェース106を介して取得されてもよい。このようにすることで、被害者となり得る人物の数に基づいて特定された空間領域又は時間帯を中心に、警備や防犯活動といった監視業務に係る戦略を責任者が容易に立てることができる。
以上、本実施形態によれば、被害者候補の情報を用いて、監視すべき空間領域又は監視すべき時間帯の少なくとも一方が調整される。これにより、本実施形態によれば、重点的に監視すべき空間領域または重点的に監視すべき時間帯をより精度よく特定することができる。例えば、監視対象候補が特定されたとしても、被害者候補が存在しない場合には、事故や犯罪が発生する可能性は低いと判断できる。一方、監視対象候補と被害者候補の双方が近い場所で検出された場合、事故や犯罪が発生する可能性は高いと判断できる。また、監視対象候補と被害者候補の双方が近い時間帯で検出された場合、事故や犯罪が発生する可能性は高いと判断できる。本実施形態の情報処理装置10は、この監視対象候補の情報と被害者候補の情報との組み合わせによって判断されるリスクに応じて、監視すべき空間領域と監視すべき時間帯とを精度よく特定できる。なお、第1実施形態と同様に、本実施形態の情報処理装置10は、現在時刻の映像、または、直近の時間範囲における映像からリアルタイムな被害者候補を特定してリスクを判断することもできるし、過去の映像から被害者候補の行動傾向を特定してリスクを判断することもできる。
本実施形態は、以下の点を除き、第1実施形態及び第2実施形態と同様の機能構成およびハードウエア構成を備える。なお、以下では第1実施形態の構成をベースとする例を示す。
図10は、第3実施形態の情報処理装置10の機能構成を概念的に示す図である。図10に示されるように、本実施形態の情報処理装置10は、第1実施形態の構成に加えて、環境情報取得部150を更に有する。本実施形態の情報処理装置10は、後述する環境情報取得部150の機能を実現するプログラムをストレージ104に更に記憶している。プロセッサ102は、このプログラムモジュールを実行することにより、環境情報取得部150の機能を更に実現する。
図11を用いて、本実施形態の情報処理装置10で実行される処理の流れを説明する。図11は、第3実施形態の情報処理装置10の処理の流れを示すフローチャートである。以下では、第1実施形態における処理と異なる部分について主に説明する。
なお、図11の例において、S106の処理とS302の処理は並列に実行されてもよい。また、図11の例において、S106の処理を実行せずにS302の処理のみが実行されてもよい。この場合、情報処理装置10は、監視対象候補取得部120を備えていなくてもよい。対象時空間特定部130は、例えば、S302で取得した環境情報によって示される死角の数や混雑度合などをパラメータとして、監視すべき空間領域の優先度や、監視すべき時間帯(時間の長さ)を算出する所定の数式を用いて、監視すべき空間領域又は監視すべき時間帯を特定する。このようにすることで、被害者候補を抽出しない場合でも、解析対象の映像から抽出される環境情報又は予め設定された環境情報に応じて監視すべき空間領域又は監視すべき時間帯を特定することができる。そして、ここで特定された情報に基づいて、警備や防犯活動といった監視業務に係る戦略を責任者が容易に立てることができる。
以上、本実施形態では、解析対象の映像、又は、該映像を特定する情報を基に得られる環境情報に基づいて、監視すべき空間領域および監視すべき時間帯の少なくとも一方が調整される。ここで、上述したように、死角の多い場所などでは、事故や犯罪のリスクが高くなると言える。本実施形態の情報処理装置10は、死角を生じさせる物体の有無またはそのような物体の数などを示す環境情報を、監視すべき空間領域または監視すべき時間帯を特定する処理に用いている。これにより、本実施形態によれば、重点的に監視すべき空間領域または重点的に監視すべき時間帯をより精度よく特定することができる。なお本実施形態の情報処理装置10は、映像から環境情報を取得する場合、現在時刻の映像、または、直近の時間範囲における映像から環境情報をしてもよいし、過去の映像からその場所の環境の傾向を判定して環境情報を取得してもよい。
本実施形態は、以下の点を除き、第1実施形態乃至第3実施形態と同様の機能構成およびハードウエア構成を備える。なお、以下では第1実施形態の構成をベースとする例を示す。
図13は、第4実施形態の情報処理装置10の機能構成を概念的に示す図である。本実施形態の情報処理装置10は、第1実施形態の構成に加えて、データベース生成部160を更に有する。本実施形態の情報処理装置10は、後述するデータベース生成部160の機能を実現するプログラムをストレージ104に更に記憶している。プロセッサ102は、このプログラムモジュールを実行することにより、データベース生成部160の機能を更に実現する。
以上、本実施形態では、監視業務を行った結果がデータベース化され、そのデータベース化された結果が、監視すべき空間領域または監視すべき時間帯の特定する処理で用いられる。これにより、本実施形態によれば、例えば監視業務の責任者が、実際に得られる監視業務の効果に応じて、より効果的な配置計画を立案することができる。
本実施形態では、監視業務を行った結果を、高リスク時空間の予測に活用する形態を例示する。
本実施形態の情報処理装置10は、第4実施形態と同様に、図13に示すような機能構成を備える。また、本実施形態の情報処理装置10は、各実施形態と同様に、図2に示すようなハードウエア構成を備える。
以上、本実施形態では、監視業務を行った結果がデータベース化されており、そのデータベース化された結果(フィードバック情報)が、高リスク時空間を予測する処理の補正パラメータとして利用される。本実施形態によれば、監視業務を実際に行った結果を用いて、高リスク時空間をより精度よく予測することが可能となる。
1.
事故発生の可能性又は犯罪発生の可能性が高くなる空間領域及びその時間帯を示す高リスク時空間情報を取得する時空間情報取得手段と、
前記高リスク時空間情報に基づいて、複数の場所のそれぞれを撮像することにより生成された複数の映像の中から解析対象の映像を特定し、該特定された映像を解析して、監視対象候補の情報を取得する監視対象候補取得手段と、
前記監視対象候補の情報に基づいて、前記高リスク時空間情報が示す空間領域及び時間帯の中で、前記空間領域の少なくとも一部である監視すべき空間領域、又は監視すべき時間帯の少なくとも一方を特定する対象時空間特定手段と、
を備える、情報処理装置。
2.
事故又は犯罪の被害者候補の情報を取得する被害者候補情報取得手段を更に備え、
前記対象時空間特定手段は、
前記被害者候補の情報を用いて、前記監視すべき空間領域又は前記監視すべき時間帯の少なくとも一方を調整する、
1.に記載の情報処理装置。
3.
前記被害者候補情報取得手段は、
前記監視対象候補の情報に関連する事故又は犯罪の情報を基に、前記被害者候補を選択する、
2.に記載の情報処理装置。
4.
前記特定された映像又は該映像の場所を特定する情報に基づいて、該映像に含まれる領域の環境情報を取得する環境情報取得手段を更に備え、
前記対象時空間特定手段は、
前記環境情報を用いて、前記監視すべき空間領域又は前記監視すべき時間帯の少なくとも一方を調整する、
1.から3.のいずれか1つに記載の情報処理装置。
5.
前記監視すべき空間領域又は前記監視すべき時間帯の少なくとも一方に応じた監視の結果の入力を受け付け、該入力された結果をデータベース化するデータベース化手段を更に備える、
1.から4.のいずれか1つに記載の情報処理装置。
6.
前記対象時空間特定手段は、
前記データベース化された結果を用いて、前記監視すべき空間領域又は前記監視すべき時間帯の少なくとも一方を調整する、
5.に記載の情報処理装置。
7.
前記時空間情報取得手段は、
前記データベース化された結果をフィードバック情報として取得し、
当該取得したフィードバック情報を、事故発生の可能性又は犯罪発生の可能性が高くなる空間領域及び時間帯の予測処理に利用し、前記高リスク時空間情報を取得する、
5.に記載の情報処理装置。
8.
前記監視対象候補取得手段は、
前記特定された映像の範囲内の人物を認識し、
該認識した人物と、既存の要監視者の情報を登録する記憶手段の前記要監視者と照合し、
該記憶手段の中で該当する人物を前記監視対象候補として特定する、
1.から7.のいずれか1つに記載の情報処理装置。
9.
前記監視対象候補取得手段は、
前記特定された映像を解析した結果、同一と推定される人物を所定範囲の場所において所定回数以上又は所定時間以上検出した場合に、該人物を前記監視対象候補として特定する、
1.から8.のいずれか1つに記載の情報処理装置。
10.
前記監視対象候補取得手段は、
前記特定された映像を解析した結果、同一と推定される二輪又は三輪の車両であって、二人乗りをしている二輪又は三輪の車両を所定範囲の場所において所定回数以上又は所定時間以上検出した場合に、該二輪又は三輪の車両を前記監視対象候補として特定する、
1.から9.のいずれか1つに記載の情報処理装置。
11.
前記監視対象候補取得手段は、
前記特定された映像の範囲内の車両を認識し、
各車両の所有者を含む情報を登録する記憶手段を参照して該認識した車両の所有者を特定し、
該特定した所有者と、既存の要監視者の情報を登録する記憶手段の前記要監視者と照合し、
該記憶手段の中で該当する人物を前記監視対象候補として特定する、
1.から10.のいずれか1つに記載の情報処理装置。
12.
前記監視対象候補取得手段は、
前記特定された映像の範囲内の車両を認識し、
該認識した車両を、交通事故を起こした人物又は交通規則に違反した人物が所有する車両の情報を登録する記憶手段の前記車両と照合し、
該記憶手段で該当する車両を前記監視対象候補として特定する、
1.から11.のいずれか1つに記載の情報処理装置。
13.
コンピュータが、
事故発生の可能性又は犯罪発生の可能性が高くなる空間領域及びその時間帯を示す高リスク時空間情報を取得し、
前記高リスク時空間情報に基づいて、複数の場所のそれぞれを撮像することにより生成された複数の映像の中から解析対象の映像を特定し、該特定された映像を解析して、監視対象候補の情報を取得し、
前記監視対象候補の情報に基づいて、前記高リスク時空間情報が示す空間領域及び時間帯の中で、前記空間領域の少なくとも一部である監視すべき空間領域、又は監視すべき時間帯の少なくとも一方を特定する、
ことを含む情報処理方法。
14.
前記コンピュータが、
事故又は犯罪の被害者候補の情報を取得し、
前記被害者候補の情報を用いて、前記監視すべき空間領域又は前記監視すべき時間帯の少なくとも一方を調整する、
ことを更に含む13.に記載の情報処理方法。
15.
前記コンピュータが、
前記監視対象候補の情報に関連する事故又は犯罪の情報を基に、前記被害者候補を選択する、
ことを更に含む14.に記載の情報処理方法。
16.
前記コンピュータが、
前記特定された映像又は該映像の場所を特定する情報に基づいて、該映像に含まれる領域の環境情報を取得し、
前記環境情報を用いて、前記監視すべき空間領域又は前記監視すべき時間帯の少なくとも一方を調整する、
ことを更に含む13.から15.のいずれか1つに記載の情報処理方法。
17.
前記コンピュータが、
前記監視すべき空間領域又は前記監視すべき時間帯の少なくとも一方に応じた監視の結果の入力を受け付け、該入力された結果をデータベース化する、
ことを更に含む13.から16.のいずれか1つに記載の情報処理方法。
18.
前記コンピュータが、
前記データベース化された結果を用いて、前記監視すべき空間領域又は前記監視すべき時間帯の少なくとも一方を調整する、
ことを更に含む17.に記載の情報処理方法。
19.
前記コンピュータが、
前記データベース化された結果をフィードバック情報として取得し、
当該取得したフィードバック情報を、事故発生の可能性又は犯罪発生の可能性が高くなる空間領域及び時間帯の予測処理に利用し、前記高リスク時空間情報を取得する、
ことを更に含む17.に記載の情報処理方法。
20.
前記コンピュータが、
前記特定された映像の範囲内の人物を認識し、
該認識した人物と、既存の要監視者の情報を登録する記憶手段の前記要監視者と照合し、
該記憶手段の中で該当する人物を前記監視対象候補として特定する、
ことを更に含む13.から19.のいずれか1つに記載の情報処理方法。
21.
前記コンピュータが、
前記特定された映像を解析した結果、同一と推定される人物を所定範囲の場所において所定回数以上又は所定時間以上検出した場合に、該人物を前記監視対象候補として特定する、
ことを更に含む13.から20.のいずれか1つに記載の情報処理方法。
22.
前記コンピュータが、
前記特定された映像を解析した結果、同一と推定される二輪又は三輪の車両であって、二人乗りをしている二輪又は三輪の車両を所定範囲の場所において所定回数以上又は所定時間以上検出した場合に、該二輪又は三輪の車両を前記監視対象候補として特定する、
ことを更に含む13.から21.のいずれか1つに記載の情報処理方法。
23.
前記コンピュータが、
前記特定された映像の範囲内の車両を認識し、
各車両の所有者を含む情報を登録する記憶手段を参照して該認識した車両の所有者を特定し、
該特定した所有者と、既存の要監視者の情報を登録する記憶手段の前記要監視者と照合し、
該記憶手段の中で該当する人物を前記監視対象候補として特定する、
ことを更に含む13.から22.のいずれか1つに記載の情報処理方法。
24.
前記コンピュータが、
前記特定された映像の範囲内の車両を認識し、
該認識した車両を、交通事故を起こした人物又は交通規則に違反した人物が所有する車両の情報を登録する記憶手段の前記車両と照合し、
該記憶手段で該当する車両を前記監視対象候補として特定する、
ことを更に含む13.から23.のいずれか1つに記載の情報処理方法。
25.
コンピュータを、
事故発生の可能性又は犯罪発生の可能性が高くなる空間領域及びその時間帯を示す高リスク時空間情報を取得する時空間情報取得手段、
前記高リスク時空間情報に基づいて、複数の場所のそれぞれを撮像することにより生成された複数の映像の中から解析対象の映像を特定し、該特定された映像を解析して、監視対象候補の情報を取得する監視対象候補取得手段、
前記監視対象候補の情報に基づいて、前記高リスク時空間情報が示す空間領域及び時間帯の中で、前記空間領域の少なくとも一部である監視すべき空間領域、又は監視すべき時間帯の少なくとも一方を特定する対象時空間特定手段、
として機能させるためのプログラム。
26.
前記コンピュータを、
事故又は犯罪の被害者候補の情報を取得する被害者候補情報取得手段、
前記被害者候補の情報を用いて、前記監視すべき空間領域又は前記監視すべき時間帯の少なくとも一方を調整する手段、
として更に機能させるための25.に記載のプログラム。
27.
前記コンピュータを、
前記監視対象候補の情報に関連する事故又は犯罪の情報を基に、前記被害者候補を選択する手段、
として更に機能させるための26.に記載のプログラム。
28.
前記コンピュータを、
前記特定された映像又は該映像の場所を特定する情報に基づいて、該映像に含まれる領域の環境情報を取得する環境情報取得手段、
前記環境情報を用いて、前記監視すべき空間領域又は前記監視すべき時間帯の少なくとも一方を調整する手段、
として更に機能させるための25.から27.のいずれか1つに記載のプログラム。
29.
前記コンピュータを、
前記監視すべき空間領域又は前記監視すべき時間帯の少なくとも一方に応じた監視の結果の入力を受け付け、該入力された結果をデータベース化するデータベース化手段、
として更に機能させるための25.から28.のいずれか1つに記載のプログラム。
30.
前記コンピュータを、
前記データベース化された結果を用いて、前記監視すべき空間領域又は前記監視すべき時間帯の少なくとも一方を調整する手段、
として更に機能させるための29.に記載のプログラム。
31.
前記コンピュータを、
前記データベース化された結果をフィードバック情報として取得する手段、
当該取得したフィードバック情報を、事故発生の可能性又は犯罪発生の可能性が高くなる空間領域及び時間帯の予測処理に利用し、前記高リスク時空間情報を取得する手段、
として更に機能させるための29.に記載のプログラム。
32.
前記コンピュータを、
前記特定された映像の範囲内の人物を認識する手段、
該認識した人物と、既存の要監視者の情報を登録する記憶手段の前記要監視者と照合する手段、
該記憶手段の中で該当する人物を前記監視対象候補として特定する手段、
として更に機能させるための25.から31.のいずれか1つに記載のプログラム。
33.
前記コンピュータを、
前記特定された映像を解析した結果、同一と推定される人物を所定範囲の場所において所定回数以上又は所定時間以上検出した場合に、該人物を前記監視対象候補として特定する手段、
として更に機能させるための25.から32.のいずれか1つに記載のプログラム。
34.
前記コンピュータを、
前記特定された映像を解析した結果、同一と推定される二輪又は三輪の車両であって、二人乗りをしている二輪又は三輪の車両を所定範囲の場所において所定回数以上又は所定時間以上検出した場合に、該二輪又は三輪の車両を前記監視対象候補として特定する手段、
として機能させるための25.から33.のいずれか1つに記載のプログラム。
35.
前記コンピュータを、
前記特定された映像の範囲内の車両を認識する手段、
各車両の所有者を含む情報を登録する記憶手段を参照して該認識した車両の所有者を特定する手段、
該特定した所有者と、既存の要監視者の情報を登録する記憶手段の前記要監視者と照合する手段、
該記憶手段の中で該当する人物を前記監視対象候補として特定する手段、
として更に機能させるための25.から34.のいずれか1つに記載のプログラム。
36.
前記コンピュータを、
前記特定された映像の範囲内の車両を認識する手段、
該認識した車両を、交通事故を起こした人物又は交通規則に違反した人物が所有する車両の情報を登録する記憶手段の前記車両と照合する手段、
該記憶手段で該当する車両を前記監視対象候補として特定する手段、
として機能させるための25.から35.のいずれか1つに記載のプログラム。
37.
事故発生の可能性又は犯罪発生の可能性が高くなる空間領域及びその時間帯を示す高リスク時空間情報を取得する時空間情報取得手段と、
前記高リスク時空間情報に基づいて、複数の場所のそれぞれを撮像することにより生成された複数の映像の中から解析対象の映像を特定し、該特定された映像を解析して、事故又は犯罪の被害者候補の情報を取得する被害者候補情報取得手段と、
前記被害者候補の情報に基づいて、前記高リスク時空間情報が示す空間領域及び時間帯の中で、前記空間領域の少なくとも一部である監視すべき空間領域、又は監視すべき時間帯の少なくとも一方を特定する対象時空間特定手段と、
を備える、情報処理装置。
38.
コンピュータが、
事故発生の可能性又は犯罪発生の可能性が高くなる空間領域及びその時間帯を示す高リスク時空間情報を取得し、
前記高リスク時空間情報に基づいて、複数の場所のそれぞれを撮像することにより生成された複数の映像の中から解析対象の映像を特定し、該特定された映像を解析して、事故又は犯罪の被害者候補の情報を取得し、
前記被害者候補の情報に基づいて、前記高リスク時空間情報が示す空間領域及び時間帯の中で、前記空間領域の少なくとも一部である監視すべき空間領域、又は監視すべき時間帯の少なくとも一方を特定する、
ことを含む情報処理方法。
39.
コンピュータを、
事故発生の可能性又は犯罪発生の可能性が高くなる空間領域及びその時間帯を示す高リスク時空間情報を取得する時空間情報取得手段、
前記高リスク時空間情報に基づいて、複数の場所のそれぞれを撮像することにより生成された複数の映像の中から解析対象の映像を特定し、該特定された映像を解析して、事故又は犯罪の被害者候補の情報を取得する被害者候補情報取得手段、
前記被害者候補の情報に基づいて、前記高リスク時空間情報が示す空間領域及び時間帯の中で、前記空間領域の少なくとも一部である監視すべき空間領域、又は監視すべき時間帯の少なくとも一方を特定する対象時空間特定手段、
として機能させるためのプログラム。
事故発生の可能性又は犯罪発生の可能性が高くなる空間領域と、その時間帯及び年月日の少なくともいずれか一方と、を示す高リスク時空間情報を取得する時空間情報取得手段と、
撮像装置により撮像された映像に基づいて、前記高リスク時空間情報が示す空間領域及び時間帯の中で、前記空間領域の少なくとも一部である監視すべき空間領域、又は監視すべき時間帯の少なくとも一方を特定する対象時空間特定手段と、
を備える、情報処理装置が提供される。
コンピュータが、
事故発生の可能性又は犯罪発生の可能性が高くなる空間領域と、その時間帯及び年月日の少なくともいずれか一方と、を示す高リスク時空間情報を取得し、
撮像装置により撮像された映像に基づいて、前記高リスク時空間情報が示す空間領域及び時間帯の中で、前記空間領域の少なくとも一部である監視すべき空間領域、又は監視すべき時間帯の少なくとも一方を特定する、
ことを含む情報処理方法が提供される。
コンピュータを、
事故発生の可能性又は犯罪発生の可能性が高くなる空間領域と、その時間帯及び年月日の少なくともいずれか一方と、を示す高リスク時空間情報を取得する時空間情報取得手段、
撮像装置により撮像された映像に基づいて、前記高リスク時空間情報が示す空間領域及び時間帯の中で、前記空間領域の少なくとも一部である監視すべき空間領域、又は監視すべき時間帯の少なくとも一方を特定する対象時空間特定手段、
として機能させるためのプログラムが提供される。
Claims (17)
- 事故発生の可能性又は犯罪発生の可能性が高くなる空間領域と、その時間帯及び年月日の少なくともいずれか一方と、を示す高リスク時空間情報を取得する時空間情報取得手段と、
前記高リスク時空間情報に基づいて、複数の場所のそれぞれを撮像することにより生成された複数の映像の中から解析対象の映像を特定し、該特定された映像を解析して、監視対象候補の情報を取得する監視対象候補取得手段と、
前記監視対象候補の情報に基づいて、前記高リスク時空間情報が示す空間領域及び時間帯の中で、前記空間領域の少なくとも一部である監視すべき空間領域、又は監視すべき時間帯の少なくとも一方を特定する対象時空間特定手段と、
を備える、情報処理装置。 - 事故又は犯罪の被害者候補の情報を取得する被害者候補情報取得手段を更に備え、
前記対象時空間特定手段は、
前記被害者候補の情報を用いて、前記監視すべき空間領域又は前記監視すべき時間帯の少なくとも一方を調整する、
請求項1に記載の情報処理装置。 - 前記被害者候補情報取得手段は、
前記監視対象候補の情報に関連する事故又は犯罪の情報を基に、前記被害者候補を選択する、
請求項2に記載の情報処理装置。 - 前記特定された映像又は該映像の場所を特定する情報に基づいて、該映像に含まれる領域の環境情報を取得する環境情報取得手段を更に備え、
前記対象時空間特定手段は、
前記環境情報を用いて、前記監視すべき空間領域又は前記監視すべき時間帯の少なくとも一方を調整する、
請求項1から3のいずれか1つに記載の情報処理装置。 - 前記監視すべき空間領域又は前記監視すべき時間帯の少なくとも一方に応じた監視の結果の入力を受け付け、該入力された結果をデータベース化するデータベース化手段を更に備える、
請求項1から4のいずれか1つに記載の情報処理装置。 - 前記対象時空間特定手段は、
前記データベース化された結果を用いて、前記監視すべき空間領域又は前記監視すべき時間帯の少なくとも一方を調整する、
請求項5に記載の情報処理装置。 - 前記時空間情報取得手段は、
前記データベース化された結果をフィードバック情報として取得し、
当該取得したフィードバック情報を、事故発生の可能性又は犯罪発生の可能性が高くなる空間領域及び時間帯の予測処理に利用し、前記高リスク時空間情報を取得する、
請求項5に記載の情報処理装置。 - 前記監視対象候補取得手段は、
前記特定された映像の範囲内の人物を認識し、
該認識した人物と、既存の要監視者の情報を登録する記憶手段の前記要監視者と照合し、
該記憶手段の中で該当する人物を前記監視対象候補として特定する、
請求項1から7のいずれか1つに記載の情報処理装置。 - 前記監視対象候補取得手段は、
前記特定された映像を解析した結果、同一と推定される人物を所定範囲の場所において所定回数以上又は所定時間以上検出した場合に、該人物を前記監視対象候補として特定する、
請求項1から8のいずれか1つに記載の情報処理装置。 - 前記監視対象候補取得手段は、
前記特定された映像を解析した結果、同一と推定される二輪又は三輪の車両であって、二人乗りをしている二輪又は三輪の車両を所定範囲の場所において所定回数以上又は所定時間以上検出した場合に、該二輪又は三輪の車両を前記監視対象候補として特定する、
請求項1から9のいずれか1つに記載の情報処理装置。 - 前記監視対象候補取得手段は、
前記特定された映像の範囲内の車両を認識し、
各車両の所有者を含む情報を登録する記憶手段を参照して該認識した車両の所有者を特定し、
該特定した所有者と、既存の要監視者の情報を登録する記憶手段の前記要監視者と照合し、
該記憶手段の中で該当する人物を前記監視対象候補として特定する、
請求項1から10のいずれか1つに記載の情報処理装置。 - 前記監視対象候補取得手段は、
前記特定された映像の範囲内の車両を認識し、
該認識した車両を、交通事故を起こした人物又は交通規則に違反した人物が所有する車両の情報を登録する記憶手段の前記車両と照合し、
該記憶手段で該当する車両を前記監視対象候補として特定する、
請求項1から11のいずれか1つに記載の情報処理装置。 - コンピュータが、
事故発生の可能性又は犯罪発生の可能性が高くなる空間領域と、その時間帯及び年月日の少なくともいずれか一方と、を示す高リスク時空間情報を取得し、
前記高リスク時空間情報に基づいて、複数の場所のそれぞれを撮像することにより生成された複数の映像の中から解析対象の映像を特定し、該特定された映像を解析して、監視対象候補の情報を取得し、
前記監視対象候補の情報に基づいて、前記高リスク時空間情報が示す空間領域及び時間帯の中で、前記空間領域の少なくとも一部である監視すべき空間領域、又は監視すべき時間帯の少なくとも一方を特定する、
ことを含む情報処理方法。 - コンピュータを、
事故発生の可能性又は犯罪発生の可能性が高くなる空間領域と、その時間帯及び年月日の少なくともいずれか一方と、を示す高リスク時空間情報を取得する時空間情報取得手段、
前記高リスク時空間情報に基づいて、複数の場所のそれぞれを撮像することにより生成された複数の映像の中から解析対象の映像を特定し、該特定された映像を解析して、監視対象候補の情報を取得する監視対象候補取得手段、
前記監視対象候補の情報に基づいて、前記高リスク時空間情報が示す空間領域及び時間帯の中で、前記空間領域の少なくとも一部である監視すべき空間領域、又は監視すべき時間帯の少なくとも一方を特定する対象時空間特定手段、
として機能させるためのプログラム。 - 事故発生の可能性又は犯罪発生の可能性が高くなる空間領域と、その時間帯及び年月日の少なくともいずれか一方と、を示す高リスク時空間情報を取得する時空間情報取得手段と、
前記高リスク時空間情報に基づいて、複数の場所のそれぞれを撮像することにより生成された複数の映像の中から解析対象の映像を特定し、該特定された映像を解析して、事故又は犯罪の被害者候補の情報を取得する被害者候補情報取得手段と、
前記被害者候補の情報に基づいて、前記高リスク時空間情報が示す空間領域及び時間帯の中で、前記空間領域の少なくとも一部である監視すべき空間領域、又は監視すべき時間帯の少なくとも一方を特定する対象時空間特定手段と、
を備える、情報処理装置。 - コンピュータが、
事故発生の可能性又は犯罪発生の可能性が高くなる空間領域と、その時間帯及び年月日の少なくともいずれか一方と、を示す高リスク時空間情報を取得し、
前記高リスク時空間情報に基づいて、複数の場所のそれぞれを撮像することにより生成された複数の映像の中から解析対象の映像を特定し、該特定された映像を解析して、事故又は犯罪の被害者候補の情報を取得し、
前記被害者候補の情報に基づいて、前記高リスク時空間情報が示す空間領域及び時間帯の中で、前記空間領域の少なくとも一部である監視すべき空間領域、又は監視すべき時間帯の少なくとも一方を特定する、
ことを含む情報処理方法。 - コンピュータを、
事故発生の可能性又は犯罪発生の可能性が高くなる空間領域と、その時間帯及び年月日の少なくともいずれか一方と、を示す高リスク時空間情報を取得する時空間情報取得手段、
前記高リスク時空間情報に基づいて、複数の場所のそれぞれを撮像することにより生成された複数の映像の中から解析対象の映像を特定し、該特定された映像を解析して、事故又は犯罪の被害者候補の情報を取得する被害者候補情報取得手段、
前記被害者候補の情報に基づいて、前記高リスク時空間情報が示す空間領域及び時間帯の中で、前記空間領域の少なくとも一部である監視すべき空間領域、又は監視すべき時間帯の少なくとも一方を特定する対象時空間特定手段、
として機能させるためのプログラム。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2021160688A JP2022008672A (ja) | 2016-01-29 | 2021-09-30 | 情報処理装置、情報処理方法、及びプログラム |
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2016015713 | 2016-01-29 | ||
JP2016015713 | 2016-01-29 | ||
JP2017564235A JP6737290B2 (ja) | 2016-01-29 | 2017-01-23 | 情報処理装置、情報処理方法、及びプログラム |
Related Parent Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2017564235A Division JP6737290B2 (ja) | 2016-01-29 | 2017-01-23 | 情報処理装置、情報処理方法、及びプログラム |
Related Child Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2021160688A Division JP2022008672A (ja) | 2016-01-29 | 2021-09-30 | 情報処理装置、情報処理方法、及びプログラム |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2020187781A true JP2020187781A (ja) | 2020-11-19 |
JP6954420B2 JP6954420B2 (ja) | 2021-10-27 |
Family
ID=59398051
Family Applications (3)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2017564235A Active JP6737290B2 (ja) | 2016-01-29 | 2017-01-23 | 情報処理装置、情報処理方法、及びプログラム |
JP2020122148A Active JP6954420B2 (ja) | 2016-01-29 | 2020-07-16 | 情報処理装置、情報処理方法、及びプログラム |
JP2021160688A Pending JP2022008672A (ja) | 2016-01-29 | 2021-09-30 | 情報処理装置、情報処理方法、及びプログラム |
Family Applications Before (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2017564235A Active JP6737290B2 (ja) | 2016-01-29 | 2017-01-23 | 情報処理装置、情報処理方法、及びプログラム |
Family Applications After (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2021160688A Pending JP2022008672A (ja) | 2016-01-29 | 2021-09-30 | 情報処理装置、情報処理方法、及びプログラム |
Country Status (3)
Country | Link |
---|---|
US (4) | US11494579B2 (ja) |
JP (3) | JP6737290B2 (ja) |
WO (1) | WO2017130902A1 (ja) |
Families Citing this family (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP6627842B2 (ja) * | 2017-10-18 | 2020-01-08 | 日本電気株式会社 | 情報処理装置、リスク予測方法、およびプログラム |
JP7200493B2 (ja) * | 2018-03-29 | 2023-01-10 | 京セラドキュメントソリューションズ株式会社 | 監視システム |
SG10201807678WA (en) * | 2018-09-06 | 2020-04-29 | Nec Asia Pacific Pte Ltd | A method for identifying potential associates of at least one target person, and an identification device |
SG10201807663PA (en) * | 2018-09-06 | 2020-04-29 | Nec Asia Pacific Pte Ltd | System and method for multi-layer potential associates discovery |
JP7151449B2 (ja) * | 2018-12-14 | 2022-10-12 | トヨタ自動車株式会社 | 情報処理システム、プログラム、及び情報処理方法 |
JP7198196B2 (ja) * | 2019-12-26 | 2022-12-28 | 株式会社日立ハイテク | 計測装置及び計測方法 |
JP7284842B1 (ja) * | 2022-02-17 | 2023-05-31 | 東芝エレベータ株式会社 | 乗客コンベア管理装置および乗客コンベア管理方法 |
Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2009140264A (ja) * | 2007-12-06 | 2009-06-25 | Takenaka Komuten Co Ltd | 犯罪防止装置及び犯罪防止プログラム |
JP2009244956A (ja) * | 2008-03-28 | 2009-10-22 | Takenaka Komuten Co Ltd | 犯罪リスク評価装置及び犯罪リスク評価プログラム |
JP2010250775A (ja) * | 2009-04-20 | 2010-11-04 | Takenaka Komuten Co Ltd | 犯罪防止装置およびプログラム |
JP2011243056A (ja) * | 2010-05-19 | 2011-12-01 | Takenaka Komuten Co Ltd | 犯罪防止装置およびプログラム |
US20130057551A1 (en) * | 2007-10-01 | 2013-03-07 | David S. Ebert | Visual Analytics Law Enforcement Tools |
JP2013131153A (ja) * | 2011-12-22 | 2013-07-04 | Welsoc Co Ltd | 自律型防犯警戒システム及び自律型防犯警戒方法 |
JP2014215747A (ja) * | 2013-04-24 | 2014-11-17 | 株式会社日立製作所 | 追跡装置、追跡システム、及び、追跡方法 |
US8949164B1 (en) * | 2011-09-08 | 2015-02-03 | George O. Mohler | Event forecasting system |
JP2015139007A (ja) * | 2014-01-20 | 2015-07-30 | 株式会社竹中工務店 | 犯罪リスク値導出装置およびプログラム |
Family Cites Families (53)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6028626A (en) * | 1995-01-03 | 2000-02-22 | Arc Incorporated | Abnormality detection and surveillance system |
US6940998B2 (en) * | 2000-02-04 | 2005-09-06 | Cernium, Inc. | System for automated screening of security cameras |
US8564661B2 (en) * | 2000-10-24 | 2013-10-22 | Objectvideo, Inc. | Video analytic rule detection system and method |
JP2003085662A (ja) * | 2001-07-06 | 2003-03-20 | Rando Business:Kk | 防犯システム、防犯管理装置、防犯方法、防犯管理方法およびコンピュータプログラム |
JP3801044B2 (ja) | 2001-07-26 | 2006-07-26 | 松下電工株式会社 | 防犯監視システム |
JP2003141657A (ja) * | 2001-11-01 | 2003-05-16 | Takeshi Ikeda | 防犯システム |
WO2004045215A1 (en) * | 2002-11-12 | 2004-05-27 | Intellivid Corporation | Method and system for tracking and behavioral monitoring of multiple objects moving throuch multiple fields-of-view |
JP4349199B2 (ja) * | 2003-05-21 | 2009-10-21 | 株式会社日立製作所 | 時空間通信システム |
US7999857B2 (en) * | 2003-07-25 | 2011-08-16 | Stresscam Operations and Systems Ltd. | Voice, lip-reading, face and emotion stress analysis, fuzzy logic intelligent camera system |
WO2005079178A2 (en) * | 2003-11-20 | 2005-09-01 | Richard Steven Trela | Anti terrorist and homeland security public safety warning system |
JP4479267B2 (ja) * | 2004-02-18 | 2010-06-09 | 株式会社日立製作所 | 監視カメラ映像配信システム |
US7280042B2 (en) * | 2004-03-24 | 2007-10-09 | Richard Steven Trela | Standoff security and real-time vendor verification system and apparatus |
JP2007025940A (ja) * | 2005-07-14 | 2007-02-01 | Fujifilm Holdings Corp | 防犯システム、防犯装置、防犯方法、及びプログラム |
US20070112713A1 (en) * | 2005-11-10 | 2007-05-17 | Motorola, Inc. | Method and apparatus for profiling a potential offender of a criminal incident |
JP2007183745A (ja) * | 2006-01-05 | 2007-07-19 | Hitachi Software Eng Co Ltd | 不動産情報提供システム |
JP2007333423A (ja) * | 2006-06-12 | 2007-12-27 | Nec Corp | 安全なルートを案内するルート情報システム |
JP2009049568A (ja) * | 2007-08-15 | 2009-03-05 | Fujifilm Corp | 通報方法および通報システム |
JP4470992B2 (ja) * | 2007-12-05 | 2010-06-02 | セイコーエプソン株式会社 | 映像管理システム |
US8559914B2 (en) * | 2008-01-16 | 2013-10-15 | M. Kelly Jones | Interactive personal surveillance and security (IPSS) system |
JP2010136032A (ja) * | 2008-12-04 | 2010-06-17 | Hitachi Ltd | 映像監視システム |
TWI389559B (zh) * | 2009-08-14 | 2013-03-11 | Ind Tech Res Inst | 前景影像分離方法 |
WO2011116199A1 (en) * | 2010-03-17 | 2011-09-22 | Jose Cordero | Method and system for light-based intervention |
US20110261202A1 (en) * | 2010-04-22 | 2011-10-27 | Boris Goldstein | Method and System for an Integrated Safe City Environment including E-City Support |
JP2012021851A (ja) * | 2010-07-13 | 2012-02-02 | Kyocera Corp | 携帯端末及び制御方法 |
US9134399B2 (en) | 2010-07-28 | 2015-09-15 | International Business Machines Corporation | Attribute-based person tracking across multiple cameras |
EP2614464A2 (de) * | 2010-09-10 | 2013-07-17 | ATG Advanced Swiss Technology Group AG | Verfahren zum auffinden und digitalen auswerten von illegalem bildmaterial |
US8836784B2 (en) * | 2010-10-27 | 2014-09-16 | Intellectual Ventures Fund 83 Llc | Automotive imaging system for recording exception events |
US8831677B2 (en) * | 2010-11-17 | 2014-09-09 | Antony-Euclid C. Villa-Real | Customer-controlled instant-response anti-fraud/anti-identity theft devices (with true-personal identity verification), method and systems for secured global applications in personal/business e-banking, e-commerce, e-medical/health insurance checker, e-education/research/invention, e-disaster advisor, e-immigration, e-airport/aircraft security, e-military/e-law enforcement, with or without NFC component and system, with cellular/satellite phone/internet/multi-media functions |
US9268964B1 (en) * | 2011-04-04 | 2016-02-23 | Symantec Corporation | Techniques for multimedia metadata security |
CN103733633B (zh) * | 2011-05-12 | 2017-11-21 | 索林科集团 | 视频分析系统 |
JP2013065187A (ja) * | 2011-09-16 | 2013-04-11 | Nec Casio Mobile Communications Ltd | 防犯システム、情報処理装置、防犯システムの管理方法及びプログラム |
US20140057590A1 (en) * | 2011-11-14 | 2014-02-27 | Optivon, Inc. | Method and system for communicating information associated with an incident and/or emergency situation |
US20140063239A1 (en) * | 2012-02-10 | 2014-03-06 | Visualant, Inc. | Area surveillance systems and methods |
WO2013179335A1 (ja) * | 2012-05-30 | 2013-12-05 | 株式会社 日立製作所 | 監視カメラ制御装置及び映像監視システム |
JP6151891B2 (ja) * | 2012-07-27 | 2017-06-21 | 株式会社リテールサポート | 防犯システム |
WO2014058406A1 (ru) * | 2012-10-12 | 2014-04-17 | Golovatskyy Dmytriy Vasilyevich | Способ идентификации человека |
KR101961258B1 (ko) * | 2013-03-12 | 2019-07-17 | 한화테크윈 주식회사 | 다채널 네트워크 카메라 감시 시스템 및 이의 구축 방법 |
US9251692B2 (en) | 2013-03-15 | 2016-02-02 | Honeywell International Inc. | GPS directed intrusion system with data acquisition |
JP6003752B2 (ja) * | 2013-03-22 | 2016-10-05 | 富士通株式会社 | 防犯装置、防犯方法及び防犯プログラム |
US20140354820A1 (en) * | 2013-05-03 | 2014-12-04 | Daniel Danialian | System and method for live surveillance property monitoring |
US9721166B2 (en) | 2013-05-05 | 2017-08-01 | Qognify Ltd. | System and method for identifying a particular human in images using an artificial image composite or avatar |
US10275657B2 (en) * | 2013-06-28 | 2019-04-30 | Nec Corporation | Video surveillance system, video processing apparatus, video processing method, and video processing program |
US9336670B2 (en) | 2013-11-06 | 2016-05-10 | Nettalon Security Systems, Inc. | Method for remote initialization of targeted nonlethal counter measures in an active shooter suspect incident |
JP6443770B2 (ja) * | 2014-09-29 | 2018-12-26 | パナソニックIpマネジメント株式会社 | 防犯管理装置、防犯管理方法、制御プログラム及び防犯管理システム |
US10359511B2 (en) * | 2014-12-29 | 2019-07-23 | Sony Corporation | Surveillance apparatus having a radar sensor |
US10133935B2 (en) | 2015-01-13 | 2018-11-20 | Vivint, Inc. | Doorbell camera early detection |
TWI550421B (zh) * | 2015-03-06 | 2016-09-21 | 視頻搜尋方法與系統 | |
JP2017049867A (ja) * | 2015-09-03 | 2017-03-09 | 日本電気株式会社 | 認証装置、防犯システム、認証方法およびプログラム |
US20170069051A1 (en) * | 2015-09-08 | 2017-03-09 | Felix Houston Petitt, SR. | ATMS Bank Emergency Response System |
US9945640B2 (en) | 2015-11-19 | 2018-04-17 | Philip Scott Lyren | Firearm system that tracks points of aim of a firearm |
US10997422B2 (en) | 2016-01-29 | 2021-05-04 | Nec Corporation | Information processing apparatus, information processing method, and program |
JP6885682B2 (ja) | 2016-07-15 | 2021-06-16 | パナソニックi−PROセンシングソリューションズ株式会社 | 監視システム、管理装置、及び監視方法 |
AU2018275266B2 (en) | 2017-06-01 | 2022-08-25 | Alarm.Com Incorporated | Control access utilizing video analytics |
-
2017
- 2017-01-23 US US16/073,457 patent/US11494579B2/en active Active
- 2017-01-23 WO PCT/JP2017/002115 patent/WO2017130902A1/ja active Application Filing
- 2017-01-23 JP JP2017564235A patent/JP6737290B2/ja active Active
-
2020
- 2020-07-16 JP JP2020122148A patent/JP6954420B2/ja active Active
-
2021
- 2021-09-30 JP JP2021160688A patent/JP2022008672A/ja active Pending
-
2023
- 2023-10-24 US US18/383,148 patent/US20240054790A1/en active Pending
- 2023-10-24 US US18/383,183 patent/US20240054791A1/en active Pending
- 2023-11-06 US US18/502,390 patent/US20240071086A1/en active Pending
Patent Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20130057551A1 (en) * | 2007-10-01 | 2013-03-07 | David S. Ebert | Visual Analytics Law Enforcement Tools |
JP2009140264A (ja) * | 2007-12-06 | 2009-06-25 | Takenaka Komuten Co Ltd | 犯罪防止装置及び犯罪防止プログラム |
JP2009244956A (ja) * | 2008-03-28 | 2009-10-22 | Takenaka Komuten Co Ltd | 犯罪リスク評価装置及び犯罪リスク評価プログラム |
JP2010250775A (ja) * | 2009-04-20 | 2010-11-04 | Takenaka Komuten Co Ltd | 犯罪防止装置およびプログラム |
JP2011243056A (ja) * | 2010-05-19 | 2011-12-01 | Takenaka Komuten Co Ltd | 犯罪防止装置およびプログラム |
US8949164B1 (en) * | 2011-09-08 | 2015-02-03 | George O. Mohler | Event forecasting system |
JP2013131153A (ja) * | 2011-12-22 | 2013-07-04 | Welsoc Co Ltd | 自律型防犯警戒システム及び自律型防犯警戒方法 |
JP2014215747A (ja) * | 2013-04-24 | 2014-11-17 | 株式会社日立製作所 | 追跡装置、追跡システム、及び、追跡方法 |
JP2015139007A (ja) * | 2014-01-20 | 2015-07-30 | 株式会社竹中工務店 | 犯罪リスク値導出装置およびプログラム |
Also Published As
Publication number | Publication date |
---|---|
JP2022008672A (ja) | 2022-01-13 |
US20240071086A1 (en) | 2024-02-29 |
US20210192224A1 (en) | 2021-06-24 |
JP6954420B2 (ja) | 2021-10-27 |
US11494579B2 (en) | 2022-11-08 |
US20240054790A1 (en) | 2024-02-15 |
JPWO2017130902A1 (ja) | 2018-11-22 |
WO2017130902A1 (ja) | 2017-08-03 |
US20240054791A1 (en) | 2024-02-15 |
JP6737290B2 (ja) | 2020-08-05 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6954420B2 (ja) | 情報処理装置、情報処理方法、及びプログラム | |
US10977917B2 (en) | Surveillance camera system and surveillance method | |
US20210406550A1 (en) | Information processing apparatus, information processing method, and program | |
US10599929B2 (en) | Event monitoring with object detection systems | |
US11328163B2 (en) | Methods and apparatus for automated surveillance systems | |
Peng et al. | Vehicle safety improvement through deep learning and mobile sensing | |
EP3497590B1 (en) | Distributed video storage and search with edge computing | |
JP7040463B2 (ja) | 解析サーバ、監視システム、監視方法及びプログラム | |
US7944468B2 (en) | Automated asymmetric threat detection using backward tracking and behavioral analysis | |
RU2714389C1 (ru) | Система спасения и способ спасения, и сервер, используемый для системы спасения и способа спасения | |
CN113011833A (zh) | 施工现场的安全管理方法、装置、计算机设备和存储介质 | |
WO2021014464A1 (en) | System, multi-utility device and method to monitor vehicles for road saftey | |
US10586130B2 (en) | Method, system and apparatus for providing access to videos | |
CN112580470A (zh) | 城市视觉感知方法、装置、电子设备和存储介质 | |
CN115146878A (zh) | 指挥调度方法、系统、车载设备及计算机可读存储介质 | |
Ahmad et al. | Comparative study of dashcam-based vehicle incident detection techniques | |
US20240163402A1 (en) | System, apparatus, and method of surveillance | |
WO2022219848A1 (ja) | 制御装置、制御方法、及びプログラム | |
Yun et al. | Research Article A Before-and-After Study of a Collision Risk Detecting and Warning System on Local Roads | |
CN117542009A (zh) | 一种巡逻机器人的识别方法及装置 | |
KR20220107679A (ko) | 객체 추적 엣지 컴퓨팅 장치, 그 제어 방법, 및 서버 | |
CN115272951A (zh) | 重复报警优化处理方法、装置、计算机设备和存储介质 | |
CN117333805A (zh) | 一种摄像机盲点区域分析方法、终端设备及存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20200716 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20200716 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20210831 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20210913 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6954420 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |