JP2020187781A - 情報処理装置、情報処理方法、及びプログラム - Google Patents

情報処理装置、情報処理方法、及びプログラム Download PDF

Info

Publication number
JP2020187781A
JP2020187781A JP2020122148A JP2020122148A JP2020187781A JP 2020187781 A JP2020187781 A JP 2020187781A JP 2020122148 A JP2020122148 A JP 2020122148A JP 2020122148 A JP2020122148 A JP 2020122148A JP 2020187781 A JP2020187781 A JP 2020187781A
Authority
JP
Japan
Prior art keywords
information
monitored
risk
spatiotemporal
spatial area
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2020122148A
Other languages
English (en)
Other versions
JP6954420B2 (ja
Inventor
中川 淳子
Junko Nakagawa
淳子 中川
亮磨 大網
Ryoma Oami
亮磨 大網
健一朗 猪田
Kenichiro Inota
健一朗 猪田
美賀 齊藤
Mika Saito
美賀 齊藤
昌三 長浜
Shozo Nagahama
昌三 長浜
昭成 古川
Akinari Furukawa
昭成 古川
恭正 大塚
Yasumasa Otsuka
恭正 大塚
純一 福田
Junichi Fukuda
純一 福田
富美 池田
Tomi Ikeda
富美 池田
学 森山
Manabu Moriyama
学 森山
文恵 栄長
Fumie Einaga
文恵 栄長
辰典 山上
Tatsunori Yamagami
辰典 山上
景介 平山
Keisuke Hirayama
景介 平山
祥次 熊野
Yoshitsugu KUMANO
祥次 熊野
浩基 足立
Hiroki Adachi
浩基 足立
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NEC Corp
Original Assignee
NEC Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NEC Corp filed Critical NEC Corp
Publication of JP2020187781A publication Critical patent/JP2020187781A/ja
Priority to JP2021160688A priority Critical patent/JP2022008672A/ja
Application granted granted Critical
Publication of JP6954420B2 publication Critical patent/JP6954420B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Systems or methods specially adapted for specific business sectors, e.g. utilities or tourism
    • G06Q50/10Services
    • G06Q50/26Government or public services
    • G06Q50/265Personal security, identity or safety
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/20Information retrieval; Database structures therefor; File system structures therefor of structured data, e.g. relational data
    • G06F16/22Indexing; Data structures therefor; Storage structures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Systems or methods specially adapted for specific business sectors, e.g. utilities or tourism
    • G06Q50/10Services
    • G06Q50/26Government or public services
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/40Scenes; Scene-specific elements in video content
    • G06V20/41Higher-level, semantic clustering, classification or understanding of video scenes, e.g. detection, labelling or Markovian modelling of sport events or news items
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/40Scenes; Scene-specific elements in video content
    • G06V20/46Extracting features or characteristics from the video content, e.g. video fingerprints, representative shots or key frames
    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B25/00Alarm systems in which the location of the alarm condition is signalled to a central station, e.g. fire or police telegraphic systems
    • G08B25/01Alarm systems in which the location of the alarm condition is signalled to a central station, e.g. fire or police telegraphic systems characterised by the transmission medium
    • G08B25/04Alarm systems in which the location of the alarm condition is signalled to a central station, e.g. fire or police telegraphic systems characterised by the transmission medium using a single signalling line, e.g. in a closed loop
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • H04N7/181Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast for receiving images from a plurality of remote sources
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/40Scenes; Scene-specific elements in video content
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/52Surveillance or monitoring of activities, e.g. for recognising suspicious objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V2201/00Indexing scheme relating to image or video recognition or understanding
    • G06V2201/07Target detection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V2201/00Indexing scheme relating to image or video recognition or understanding
    • G06V2201/08Detecting or categorising vehicles
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast

Abstract

【課題】監視業務に関わる有限のリソースを効果的に配置することを可能とする技術を提供する。【解決手段】情報処理装置(10)は、事故発生の可能性又は犯罪発生の可能性が高くなる空間領域及びその時間帯を示す高リスク時空間情報を取得する時空間情報取得部(110)と、高リスク時空間情報に基づいて、複数の場所のそれぞれを撮像することにより生成された複数の映像の中から解析対象の映像を特定し、該特定された映像を解析して、監視対象候補の情報を取得する監視対象候補取得部(120)と、監視対象候補の情報に基づいて、高リスク時空間情報が示す空間領域及び時間帯の中で、当該空間領域の少なくとも一部である監視すべき空間領域、又は監視すべき時間帯の少なくとも一方を特定する対象時空間特定部(130)と、を備える。【選択図】図1

Description

本発明は、監視業務の計画立案を支援する技術に関する。
下記特許文献1には追跡すべき人物が所在する可能性の高いエリアを特定する技術が開示されている。また、下記特許文献2及び下記特許文献3には、過去の犯罪データや過去の交通/民事の事故のデータに基づいて、犯罪や事故が発生する可能性の高い時空間を予測し、該予測した時空間の情報に基づいて警察の人員配置計画の立案を支援する技術が開示されている。
またこの他にも、事件が発生した場合を対象としたセキュリティ技術の一例が、例えば、下記の特許文献4乃至特許文献6に開示されている。特許文献4は、監視区域内に備えられる発報装置を開示している。該発報装置は、事件の発生を通知する信号を出力するためのスイッチを有し、該スイッチが被害者によって押下されると、該スイッチを押下した時間又はそれ以前に撮影された監視区域の画像を解析して、被害者と注目人物を特定する。また特許文献5は、監視対象の建物に設けられた監視用装置(センサ等)で脅威となる出来事や犯人を検知した場合に、該検知した脅威の位置を監視するカメラの映像や該映像から判断される追加情報(どのように犯人が侵入したかを示す情報、犯人を識別する情報、被害者の情報、犯人の動きを示す情報、犯人の移動方向を示す情報など)を、当局者の保持する装置に送信する技術を開示している。また特許文献6は、映像監視によって要注意人物を確認し、建物内における要注意人物の予想位置や建物内における要注意人物の動きに関するリアルタイムの電子情報を提供する装置を開示している。
特開2014−215747号公報 米国特許第8949164号明細書 米国特許第8849728号明細書 特開2003−109155号公報 欧州特許出願公開第2779130号明細書 米国特許出願公開第2015/0124087号明細書
監視業務に関わるリソース(警察官や警備員などの人的リソース、ドローンやその他の移動型機器などの物的リソース)には限りがある。そのため上記特許文献1の技術において、追跡すべき人物が所在する可能性が高いエリアが広い場合、その広大なエリア全てをカバーして追跡することは難しい。また、上記特許文献2および特許文献3の技術も同様に、予測されたエリアと時間が広範囲に亘る場合、有限のリソースではカバーしきれない可能性がある。よって、監視業務に関わる有限のリソースを効果的に配置することを可能とする技術が望まれる。
本発明の目的は、監視業務に関わる有限のリソースを効果的に配置することを可能とする技術を提供することにある。
本発明によれば、
事故発生の可能性又は犯罪発生の可能性が高くなる空間領域と、その時間帯及び年月日の少なくともいずれか一方と、を示す高リスク時空間情報を取得する時空間情報取得手段と、
前記高リスク時空間情報に基づいて、複数の場所のそれぞれを撮像することにより生成された複数の映像の中から解析対象の映像を特定し、該特定された映像を解析して、監視対象候補の情報を取得する監視対象候補取得手段と、
前記監視対象候補の情報に基づいて、前記高リスク時空間情報が示す空間領域及び時間帯の中で、前記空間領域の少なくとも一部である監視すべき空間領域、又は監視すべき時間帯の少なくとも一方を特定する対象時空間特定手段と、
を備える、情報処理装置が提供される。
本発明によれば、
コンピュータが、
事故発生の可能性又は犯罪発生の可能性が高くなる空間領域と、その時間帯及び年月日の少なくともいずれか一方と、を示す高リスク時空間情報を取得し、
前記高リスク時空間情報に基づいて、複数の場所のそれぞれを撮像することにより生成された複数の映像の中から解析対象の映像を特定し、該特定された映像を解析して、監視対象候補の情報を取得し、
前記監視対象候補の情報に基づいて、前記高リスク時空間情報が示す空間領域及び時間帯の中で、前記空間領域の少なくとも一部である監視すべき空間領域、又は監視すべき時間帯の少なくとも一方を特定する、
ことを含む情報処理方法が提供される。
本発明によれば、
コンピュータを、
事故発生の可能性又は犯罪発生の可能性が高くなる空間領域と、その時間帯及び年月日の少なくともいずれか一方と、を示す高リスク時空間情報を取得する時空間情報取得手段、
前記高リスク時空間情報に基づいて、複数の場所のそれぞれを撮像することにより生成された複数の映像の中から解析対象の映像を特定し、該特定された映像を解析して、監視対象候補の情報を取得する監視対象候補取得手段、
前記監視対象候補の情報に基づいて、前記高リスク時空間情報が示す空間領域及び時間帯の中で、前記空間領域の少なくとも一部である監視すべき空間領域、又は監視すべき時間帯の少なくとも一方を特定する対象時空間特定手段、
として機能させるためのプログラムが提供される。
本発明によれば、
事故発生の可能性又は犯罪発生の可能性が高くなる空間領域と、その時間帯及び年月日の少なくともいずれか一方と、を示す高リスク時空間情報を取得する時空間情報取得手段と、
前記高リスク時空間情報に基づいて、複数の場所のそれぞれを撮像することにより生成された複数の映像の中から解析対象の映像を特定し、該特定された映像を解析して、事故又は犯罪の被害者候補の情報を取得する被害者候補情報取得手段と、
前記被害者候補の情報に基づいて、前記高リスク時空間情報が示す空間領域及び時間帯の中で、前記空間領域の少なくとも一部である監視すべき空間領域、又は監視すべき時間帯の少なくとも一方を特定する対象時空間特定手段と、
を備える、情報処理装置が提供される。
本発明によれば、
コンピュータが、
事故発生の可能性又は犯罪発生の可能性が高くなる空間領域と、その時間帯及び年月日の少なくともいずれか一方と、を示す高リスク時空間情報を取得し、
前記高リスク時空間情報に基づいて、複数の場所のそれぞれを撮像することにより生成された複数の映像の中から解析対象の映像を特定し、該特定された映像を解析して、事故又は犯罪の被害者候補の情報を取得し、
前記被害者候補の情報に基づいて、前記高リスク時空間情報が示す空間領域及び時間帯の中で、前記空間領域の少なくとも一部である監視すべき空間領域、又は監視すべき時間帯の少なくとも一方を特定する、
ことを含む情報処理方法が提供される。
本発明によれば、
コンピュータを、
事故発生の可能性又は犯罪発生の可能性が高くなる空間領域及びその時間帯を示す高リスク時空間情報を取得する時空間情報取得手段、
前記高リスク時空間情報に基づいて、複数の場所のそれぞれを撮像することにより生成された複数の映像の中から解析対象の映像を特定し、該特定された映像を解析して、事故又は犯罪の被害者候補の情報を取得する被害者候補情報取得手段、
前記被害者候補の情報に基づいて、前記高リスク時空間情報が示す空間領域及び時間帯の中で、前記空間領域の少なくとも一部である監視すべき空間領域、又は監視すべき時間帯の少なくとも一方を特定する対象時空間特定手段、
として機能させるためのプログラムが提供される。
本発明によれば、監視業務に関わる有限のリソースを効果的に配置することが可能となる。
上述した目的、およびその他の目的、特徴および利点は、以下に述べる好適な実施の形態、およびそれに付随する以下の図面によってさらに明らかになる。
第1実施形態の情報処理装置の機能構成を概念的に示す図である。 情報処理装置のハードウエア構成を例示する図である。 第1実施形態の情報処理装置の処理の流れを示すフローチャートである。 高リスク時空間情報の一例を示す図である。 各撮像装置の位置情報を記憶する記憶部の情報を例示する図である。 各撮像装置で生成された映像を収集及び管理する記憶部の一例を示す図である。 第2実施形態の情報処理装置の機能構成を概念的に示す図である。 第2実施形態の情報処理装置の処理の流れを示すフローチャートである。 テンプレート情報記憶部が記憶する情報の一例を示す図である。 第3実施形態の情報処理装置の機能構成を概念的に示す図である。 第3実施形態の情報処理装置の処理の流れを示すフローチャートである。 環境情報記憶部が記憶する情報の一例を示す図である。 第4実施形態の情報処理装置の機能構成を概念的に示す図である。
以下、本発明の実施形態について、図面を用いて説明する。尚、すべての図面において、同様な構成要素には同様の符号を付し、適宜説明を省略する。また、ハードウエア構成図を除く各ブロック図において、各ブロックはハードウエア単位の構成ではなく、機能単位の構成を表している。
[第1実施形態]
本発明に係る情報処理装置は、例えば警察官や警備員といった、犯罪や事故などに対する監視業務に従事する人物、並びに、監視業務に従事する人物によって操作される機器などが重点的に監視すべき空間領域又は重点的に監視すべき時間を提示する。
〔機能構成〕
図1は、第1実施形態の情報処理装置10の機能構成を概念的に示す図である。図1に示されるように、本実施形態の情報処理装置10は、時空間情報取得部110、監視対象候補取得部120、及び対象時空間特定部130を備える。時空間情報取得部110は、事故発生の可能性又は犯罪発生の可能性が高くなる空間領域及びその時間帯を示す高リスク時空間情報を取得する。監視対象候補取得部120は、高リスク時空間情報に基づいて、複数の場所のそれぞれを撮像することにより生成された複数の映像の中から解析対象の映像を特定する。そして、監視対象候補取得部120は、該特定された映像を解析して、監視対象候補の情報を取得する。対象時空間特定部130は、高リスク時空間情報が示す空間領域および時間帯の中で、当該空間領域の少なくとも一部である監視すべき空間領域又は監視すべき時間帯の少なくとも一方を特定する。
〔作用・効果〕
本実施形態によれば、高リスク時空間情報、すなわち、犯罪発生または事故発生の可能性が高い(以下、"高リスク"とも表記)空間領域およびその時間帯に関連する映像(静止画像または動画像)が解析されて、監視対象候補(詳しくは後述するが、人物または物体)の情報が取得される。そして、その監視対象候補の情報を用いて、高リスク時空間情報が示す空間領域および時間帯の中から、重点的に監視すべき空間領域又は重点的に監視すべき時間帯が特定される。この「重点的に監視すべき空間領域または重点的に監視すべき時間帯」は、図示しない表示装置などに提示される。本実施形態に係る情報処理装置10により提示される情報は、監視業務に携わる有限リソース(警察官や警備員などの人的リソース、ドローンやその他の移動型機器などの物的リソース)の効果的な配置計画を立案するための有益な情報となる。例えば、監視業務の責任者などが、重点的に監視すべき空間領域を中心にリソースを集中させる、重点的に監視すべき時間を軸としてリソースを集中させる、といった戦略を容易に立てることができる。
また本実施形態では、高リスク時空間情報を用いることにより、解析対象の映像が多数の映像の中から絞り込まれる。これにより、全ての映像を解析対象とした場合と比較して、有限リソースの効果的な配置を検討する処理を行う際にマシンにかかる負荷を低減させる効果も見込める。
以下、本実施形態の情報処理装置10を更に詳細に説明する。
〔ハードウエア構成〕
情報処理装置10の各機能構成部は、各機能構成部を実現するハードウエア(例:ハードワイヤードされた電子回路など)で実現されてもよいし、ハードウエアとソフトウエアとの組み合わせ(例:電子回路とそれを制御するプログラムの組み合わせなど)で実現されてもよい。以下、情報処理装置10の各機能構成部がハードウエアとソフトウエアとの組み合わせで実現される場合について、さらに説明する。
図2は、情報処理装置10のハードウエア構成を例示する図である。情報処理装置10は、バス101、プロセッサ102、メモリ103、ストレージ104、入出力インタフェース105、及び通信インタフェース106を有する。バス101は、データを送受信するためのデータ伝送路である。プロセッサ102、メモリ103、ストレージ104、入出力インタフェース105、及び通信インタフェース106は、バス101を介して相互にデータを送受信する。但し、プロセッサ102などを互いに接続する方法は、バス接続に限定されない。プロセッサ102は、CPU(Central Processing Unit)やGPU(Graphics Processing Unit)などの演算処理装置である。メモリ103は、RAM(Random Access Memory)やROM(Read Only Memory)などのメモリである。ストレージ104は、HDD(Hard Disk Drive)、SSD(Solid State Drive)、又はメモリカードなどの記憶装置である。また、ストレージ104は、RAMやROMなどのメモリであってもよい。
入出力インタフェース105は、情報処理装置10と入出力デバイスとを接続するためのインタフェースである。例えば入出力インタフェース105には、マウス、キーボードなどの入力装置や、CRT(Cathode Ray Tube)ディスプレイやLCD(Liquid Crystal Display)などの表示装置、入力装置と表示装置が一体化したタッチパネルなどが接続される。
通信インタフェース106は、情報処理装置10をインターネットなどのネットワークに接続させて、該ネットワークを介して外部の装置と通信可能にするためのインタフェースである。例えば情報処理装置10は、ネットワークを介して撮像装置20と接続される。但し、情報処理装置10は撮像装置20と接続されていなくてもよい。
ここで撮像装置20は、例えば監視カメラなどの所定の位置に固定されたカメラであってもよいし、車載カメラ、又は、警備員や警察官が身に着けるウェアラブルカメラなどの移動型カメラであってもよい。移動型カメラは、自身の位置情報を取得する機能(例えば、GPS(Global Positioning System)情報や無線通信で帰属する基地局の情報を取得する機能)を備える。移動型カメラは、映像を生成する際に、その時点の位置情報を取得して、当該生成した映像と紐付ける。これにより、監視対象候補取得部120は、移動型の撮像装置で撮像された映像が解析対象の映像か否かを判断できるようになる。例えば、監視対象候補取得部120は、移動型の撮像装置で生成された映像に紐付けられた位置情報が高リスク時空間情報の空間領域に含まれるか否かによって、その映像が解析対象の映像か否かを判断できる。
ストレージ104は、情報処理装置10の上記各処理部の機能を実現するプログラムモジュールを記憶している。プロセッサ102は、これら各プログラムモジュールを実行することにより、そのプログラムモジュールに対応する各処理部の機能を実現する。ここでプロセッサ102は、上記各プログラムモジュールを実行する際、これらのプログラムモジュールをメモリ103上に読み出してから実行してもよいし、メモリ103上に読み出さずに実行してもよい。
なお、情報処理装置10のハードウエア構成は図2に示した構成に限定されない。例えば、各プログラムモジュールはメモリ103に格納されていてもよい。この場合、情報処理装置10はストレージ104を備えていなくてもよい。また例えば、図2中の複数の撮像装置20の少なくとも一部が、情報処理装置10として機能してもよい。この場合、当該撮像装置20は、インテリジェントカメラ(例えば、内部に解析機能を備えるIPカメラやネットワークカメラ。スマートカメラ等とも呼ばれる。)などであり、上述した情報処理装置10の各機能(時空間情報取得部110、監視対象候補取得部120、及び対象時空間特定部130)のプログラムモジュールを記憶するメモリやストレージデバイス、該プログラムモジュールを実行するプロセッサ、並びに、外部装置(例えば、他の撮像装置20)と通信するための通信インタフェースを含んで構成される。
〔動作例〕
図3を用いて、本実施形態の情報処理装置10で実行される処理の流れを説明する。図3は、第1実施形態の情報処理装置10の処理の流れを示すフローチャートである。
まず、時空間情報取得部110は高リスク時空間情報を取得する(S102)。時空間情報取得部110は、例えば、上記特許文献2や上記特許文献3の機能を実現するプログラムモジュールとしてストレージ104に記憶されていて、プロセッサ102が該プログラムを実行することで高リスク時空間を予測して取得する。またこれに限らず、時空間情報取得部110は、例えば上記特許文献2や上記特許文献3の機能を実現するプログラムを実行して高リスク時空間情報を生成する外部装置と通信して、その外部装置から高リスク時空間情報を取得してもよい。また、高リスク時空間情報を生成する手法は、上記特許文献2や上記特許文献3に開示される手法に限定されない。ここで、高リスク時空間情報の一例を図4に示す。但し、図4はあくまで一例であり、高リスク時空間情報はこれに限定されない。図4で例示される高リスク時空間情報は、犯罪発生及び事故発生の可能性が高くなる位置情報(エリア情報)と共に、その時間帯を示す時間帯情報を含む。なお図4では示されていないが、時間帯情報は年月日の情報を更に含んでいてもよい。ここで位置情報(エリア情報)には、例えば、GPS情報や住所情報などが設定される。ここで挙げた例に限らず、位置情報は、3つ以上の地点の座標情報(例えば、緯度経度など)によって指定される、ある形状のエリアを示す情報であってもよい。高リスク時空間情報は、発生する可能性のあるリスク(犯罪、交通事故、交通規則違反等)の種類やその発生確率といったその他の情報を更に含んでいてもよい。この場合、時空間情報取得部110は、例えば、リスクの種類別(例えば、犯罪の種類別、交通事故の種類別、交通規則違反の種類別)の高リスク時空間情報を取得可能に構成されていてもよい。
次いで監視対象候補取得部120は、S102で取得された高リスク時空間情報に基づいて、解析対象の映像を特定して取得する(S104)。
例えば、監視対象候補取得部120は、各撮像装置が備えられている位置を示す情報を記憶する記憶部(例:図5)を参照して、高リスク時空間情報が示す空間領域に備えられている撮像装置、或いは、撮像装置の監視対象エリア(撮像エリア)の少なくとも一部が高リスク時空間情報が示す空間領域に含まれる撮像装置を特定する。図5は、各撮像装置の位置情報を記憶する記憶部の情報を例示する図である。図5に例示される記憶部は、各撮像装置の識別情報(装置ID)と、各撮像装置の位置情報とを紐付けて記憶している。また図5に例示されるように、この記憶部は、監視対象候補取得部120が各撮像装置と通信するためのアドレス情報(例えばIP(Internet Protocol)アドレスなど)を更に記憶していてもよい。また例えば、この記憶部は、各撮像装置の監視対象エリアの情報を更に記憶していてもよい。この場合、監視対象候補取得部120は、撮像装置の監視対象エリアの少なくとも一部が高リスク時空間情報が示す空間領域に含まれるか否かを、上記記憶部の各撮像装置の監視対象エリアの情報を用いて判定することができる。監視対象エリアの情報は、例えば、その領域を多角形で表し、その頂点位置の座標情報などによって記述することができる。但し、図5はあくまで一例であり、各撮像装置の位置情報を記憶する記憶部の形態はこれに限定されない。この記憶部は、情報処理装置10に備えられていても、情報処理装置10と通信可能に接続される他の装置に備えられていてもよい。監視対象候補取得部120は、例えば図4の高リスク時空間情報に含まれる位置情報と図5の撮像装置の位置情報とを比較して、高リスク時空間情報が示す空間領域、或いは、その空間領域の近傍の場所に対応する撮像装置を特定する。そして監視対象候補取得部120は、特定した撮像装置の映像を解析対象の映像として特定する。そして、監視対象候補取得部120は、特定した撮像装置のアドレス情報を用いて当該撮像装置と通信し、解析対象の映像を取得する。
なお撮像装置が、例えば車載カメラ、ドローン、又はウェアラブルカメラのように、その位置が移動する移動型の撮像装置の場合には、当該撮像装置の位置をGPS等により測位して、記憶部に記憶する。さらに、移動型の撮像装置の高さや向きを示す情報を取得できれば、その撮像装置が監視しているエリアの情報を求めることができる。この場合、記憶部は、このような移動型の撮像装置の高さや向きといった情報を用いて求められる監視対象エリアの情報を更に記憶することができる。
ここで監視対象候補取得部120は、現時点の映像、過去の映像(例えば前日や1週間前の同じ時間帯の映像など)、所定時間前(例えば1時間前)から現時点までの映像、又は、入力装置を介して指定された時点から現時点までの映像などを、解析対象の映像として取得する。また監視対象候補取得部120は、指定された時間情報に基づいて、解析対象の映像を取得してもよい。特に限定されないが、時間情報は、平日、土日祝日、特定の時間帯、及び曜日と時間帯の組み合わせ(例:平日の児童の下校時間帯)、休校期間(例:夏休み、冬休み)、一般的な給料日、年金支給日などを示す情報である。また監視対象候補取得部120は、上記の時間以外の条件(例えば季節、天候、気温など)に基づいて、或いは、時間以外の条件を更に加えて、解析対象の映像を特定して取得してもよい。監視対象候補取得部120が解析対象として取得する映像を決定する条件は、予め決められていてもよいし、情報処理装置10の入力装置等を介して指定されてもよい。
また、撮像装置で生成された映像を収集及び管理する記憶部(例:図6)が存在する場合、監視対象候補取得部120は、該記憶部を参照して解析対象の映像を特定することができる。図6は、各撮像装置で生成された映像を収集及び管理する記憶部の一例を示す図である。図6の例では、各映像の識別情報(映像ID)と共に、該映像を生成した撮像装置の識別情報(装置ID)、その位置情報、及び撮影開始時刻と撮影終了時刻を含む撮影時刻情報が記憶されている。但し、図6はあくまで一例であり、各撮像装置で生成された映像を収集及び管理する記憶部の形態はこれに限定されない。この記憶部は、情報処理装置10に備えられていても、情報処理装置10と通信可能に接続される他の装置に備えられていてもよい。監視対象候補取得部120は、高リスク時空間情報に含まれる位置情報を用いて上述のように特定した撮像装置の識別情報、或いは、高リスク時空間情報に含まれる位置情報及び時間情報をキーとして、図6に例示される記憶部の中から、解析対象の映像を特定して取得することができる。
そして監視対象候補取得部120は、取得した映像を解析し、監視対象候補の情報を取得する(S106)。ここで、「監視対象候補」とは、犯罪や事故を起こしたことのある人物及びその人物が所有する車両、犯罪や事故を起こす可能性のある人物及び車両を含む。特に限定されないが、監視対象候補取得部120は、後述の具体例のように監視対象候補を特定し、監視対象候補の情報を生成する。なお監視対象候補の情報は、例えば、単純に監視対象候補の数であってもよいし、監視対象候補として特定された人物又は物体に関連する情報を含んでいてもよい。
<第1の具体例>
本例では、時空間情報取得部110は、少なくとも、犯罪に関する高リスク時空間情報を取得する。ここで取得された高リスク時空間情報を基に、解析対象の映像が特定される。なお時空間情報取得部110は、ある特定の種別の犯罪に関する高リスク時空間情報を取得し、その種別に応じて解析対象の映像を特定してもよい。監視対象候補取得部120は、解析対象として特定された映像の範囲(撮像装置の撮像範囲)内の人物を、例えば顔または人物認識技術などを用いて認識する。これにより、監視対象候補取得部120は、解析対象の映像の範囲内に立ち入った人物、立ち去った人物、滞在し続ける人物などを認識する。そして監視対象候補取得部120は、認識した人物を、既存の要監視者と照合する。要監視者とは、特に限定されないが、例えば、犯罪歴のある人物、手配中の人物、或いは、何らかの理由で監視対象に挙げられている人物などである。ここで時空間情報取得部110が特定の種別の犯罪に関する高リスク時空間情報を取得している場合、監視対象候補取得部120は、その種別を用いて照合に用いる既存の要監視者の情報を絞り込むことができる。既存の要監視者の情報は所定の記憶部(図示せず)に登録されており、この記憶部は、例えば警察機関のシステムに備えられている。そして監視対象候補取得部120は、その記憶部の中で該当する人物を監視対象候補として特定する。
<第2の具体例>
本例では、時空間情報取得部110は、少なくとも、犯罪に関する高リスク時空間情報を取得する。ここで取得された高リスク時空間情報を基に、解析対象の映像が特定される。なお時空間情報取得部110は、ある特定の種別の犯罪に関する高リスク時空間情報を取得し、その種別に応じて解析対象の映像を特定してもよい。監視対象候補取得部120は、解析対象として特定された映像を解析した結果、同一と推定される人物を所定範囲の場所において所定回数以上又は所定時間以上検出した場合に、その映像を解析して得られる該人物の特徴を監視対象候補として特定する。監視対象候補取得部120は、例えば、同一と推定される人物をトラッキングする画像認識技術などを用いて、解析対象の映像において同一と推定される人物が検出された回数、又は、検出された時間の長さなどの情報を取得することができる。検出された回数が多い人物は、その所定範囲で頻繁に出現する人物と言える。また検出された時間が長い人物は、その所定範囲を長時間徘徊する人物と言える。このような人物は、犯罪の下見を行っている可能性がある不審人物とも考えられる。そこで、監視対象候補取得部120は、映像の解析結果に基づいて、このような人物を監視対象候補として特定する。ここで時空間情報取得部110が特定の種別の犯罪に関する高リスク時空間情報を取得している場合、監視対象候補取得部120は、その犯罪の種別に紐付けて予め定義された特徴を用いて、監視対象候補を精度よく特定することができる。なお、検出された回数が多い、或いは、検出された時間が長いと判断する閾値などを設けることで、監視対象候補取得部120は、その閾値を基に上述したような人物の有無を、解析対象の映像から判断することができる。この閾値などの情報は、例えば、図2のストレージ104等に予め格納されていてもよいし、図2の入出力インタフェース105や通信インタフェース106を介して取得されてもよい。
<第3の具体例>
本例では、時空間情報取得部110は、少なくとも、犯罪に関する高リスク時空間情報を取得する。ここで取得された高リスク時空間情報を基に、解析対象の映像が特定される。なお時空間情報取得部110は、ある特定の種別の犯罪に関する高リスク時空間情報を取得し、その種別に応じて解析対象の映像を特定してもよい。監視対象候補取得部120は、解析対象として特定された映像を解析した結果、同一と推定される二輪又は三輪の車両であって、二人乗りをしている二輪又は三輪の車両を所定範囲の場所において所定回数以上又は所定時間以上検出した場合に、該二輪又は三輪の車両を監視対象候補として特定する。監視対象候補取得部120は、例えば、同一と推定される物体をトラッキングする画像認識技術などを用いて、解析対象の映像において同一と推定される車両が検出された回数、又は、検出された時間の長さなどの情報を取得することができる。検出された回数が多い車両は、その所定範囲で頻繁に出現する車両と言える。また検出された時間が長い車両は、その所定範囲を長時間徘徊する車両と言える。そして、このような車両が二輪または三輪の車両であって、二人乗りの車両である場合、当該車両はひったくりなどの犯罪を起こし得る不審車両とも考えられる。そこで監視対象候補取得部120は、映像の解析結果に基づいて、このような車両を監視対象候補として特定する。ここで時空間情報取得部110が特定の種別の犯罪に関する高リスク時空間情報を取得している場合、監視対象候補取得部120は、その犯罪の種別に紐付けて予め定義された特徴を用いて、監視対象候補を精度よく特定することができる。なお、検出された回数が多い、或いは、検出された時間が長いと判断する閾値などを設けることで、監視対象候補取得部120は、その閾値を基に上述したような車両の有無を、解析対象の映像から判断することができる。この閾値などの情報は、例えば、図2のストレージ104等に予め格納されていてもよいし、図2の入出力インタフェース105や通信インタフェース106を介して取得されてもよい。
<第4の具体例>
本例では、時空間情報取得部110は、少なくとも、犯罪に関する高リスク時空間情報を取得する。ここで取得された高リスク時空間情報を基に、解析対象の映像が特定される。なお時空間情報取得部110は、ある特定の種別の犯罪に関する高リスク時空間情報を取得し、その種別に応じて解析対象の映像を特定してもよい。監視対象候補取得部120は、解析対象として特定された映像の範囲(撮像装置の撮像範囲)内の車両を認識する。監視対象候補取得部120は、様々な画像認識技術を用いることにより、解析対象の映像の範囲内の各車両(解析対象の映像の範囲内に立ち入った車両、立ち去った車両、滞在し続ける車両など)を認識する。そして監視対象候補取得部120は、各車両の所有者を含む情報を登録する記憶部(図示せず)を参照して該認識した車両の所有者を特定する。この記憶部は、例えば、地方の自治体のシステムに備えられている。監視対象候補取得部120は、特定した所有者を、既存の要監視者と照合する。要監視者とは、特に限定されないが、例えば、犯罪歴のある人物、手配中の人物、或いは、何らかの理由で監視対象に挙げられている人物などである。ここで時空間情報取得部110が特定の種別の犯罪に関する高リスク時空間情報を取得している場合、監視対象候補取得部120は、その種別を用いて照合に用いるデータを絞り込むことができる。既存の要監視者の情報は所定の記憶部(図示せず)に登録されており、この記憶部は、例えば警察機関のシステムに備えられている。そして監視対象候補取得部120は、その記憶部の中で該当する人物を監視対象候補として特定する。
<第5の具体例>
本例では、時空間情報取得部110は、少なくとも、交通事故や交通事故違反に関する高リスク時空間情報を取得する。なお時空間情報取得部110は、ある特定の種別の交通事故または交通規則違反に関する高リスク時空間情報を取得し、その種別に応じて解析対象の映像を特定してもよい。そして監視対象候補取得部120は、解析対象として特定された映像の範囲(撮像装置の撮像範囲)内の車両を認識する。監視対象候補取得部120は、様々な画像認識技術を用いることにより、解析対象の映像の範囲内の各車両(解析対象の映像の範囲内に立ち入った車両、立ち去った車両、滞在し続ける車両など)を認識する。そして監視対象候補取得部120は、認識した車両が、交通事故を起こした人物又は交通規則に違反した人物が所有する車両か否かを照合する。ここで時空間情報取得部110が特定の種別の交通事故または交通規則違反に関する高リスク時空間情報を取得している場合、監視対象候補取得部120は、その種別を用いて照合に用いるデータを絞り込むことができる。交通事故を起こした人物又は交通規則に違反した人物が所有する車両の情報は所定の記憶部(図示せず)に登録されており、この記憶部は、例えば地方の自治体のシステムに備えられている。そして監視対象候補取得部120は、その記憶部で該当する車両を監視対象候補として特定する。
<その他の具体例>
また、監視対象候補取得部120は、映像を取得する代わりに、現在捜査中の犯罪に関する情報の入力を受け付け、その情報を基に監視対象候補の情報を取得することもできる。例えば、監視対象候補取得部120は、現在捜査中の犯罪の手口を入力情報として取得した場合、既存の犯罪者や手配者の情報を記憶するデータベースを参照してプロファイリング結果を得ることができる。具体的には、監視対象候補取得部120は、同様の手口を使って犯罪を起こした人物、及びその人物の居住所や活動時間などの情報を監視対象候補の情報として取得することができる。
次いで対象時空間特定部130は、S106で取得された監視対象候補の情報を基に、高リスク時空間情報が示す、高リスクな空間領域および時間帯の中から、監視すべき空間領域又は監視すべき時間のうち少なくとも一方を特定する(S108)。
一の例として、監視対象候補取得部120で、現在時刻の映像、または、直近の時間範囲における映像を解析対象として特定し、その映像から監視対象候補の情報が取得されたとする。この場合、対象時空間特定部130は、取得された監視対象候補の情報の数を、高リスク時空間情報が示す空間領域単位で集計する。そして、対象時空間特定部130は、その集計数に応じて、同じ時間帯に高リスクとなる空間領域の優先度を決定する。ここで、高い優先度を付けられた空間領域ほど、監視すべき度合が高い空間領域と言える。対象時空間特定部130は、稼働可能なリソースが対応できる範囲で、優先度が高い順に監視すべき空間領域を特定する。稼働可能なリソースの情報は、特に限定されないが、例えば情報処理装置10の所定の記憶領域に格納される。また、対象時空間特定部130は、その集計数に応じて、高リスクとなる空間領域で監視業務を行う時間を調節してもよい。対象時空間特定部130は、例えば、監視対象候補の数が多い、すなわち、潜在的なリスクが高い空間領域ほど、監視業務を行う時間と長く割り当てる。
また他の例として、監視対象候補取得部120が、高リスク時空間情報が示す空間領域および時間帯における過去の映像(例えば、前日又は1週間前の同じ空間領域かつ同じ時間帯の映像)を解析対象として特定し、その映像から監視対象候補の情報が取得されたとする。この場合、対象時空間特定部130は、取得された監視対象候補の情報の数を、例えば高リスク時空間情報が示す空間領域及び時間帯別に集計する。ここで得られる集計数は、その高リスク時空間情報が示す時空間のリスク傾向を示す情報となる。そして、対象時空間特定部130は、その集計数に応じて、同じ時間帯に高リスクとなる空間領域の優先度や、高リスクとなる空間領域で監視業務を行う時間を調節する。
さらに他の例として、監視対象候補取得部120が、空間領域及び時間帯毎に監視対象候補の情報の数を集計し、対象時空間特定部130が、その空間領域及び時間帯毎の集計数に応じて同じ時間帯に高リスクとなる空間領域の優先度や、高リスクとなる空間領域で監視業務を行う時間を調節してもよい。
このように、本実施形態において対象時空間特定部130は、監視対象候補の情報を用いて、監視すべき空間領域、監視すべき時間帯、及びその双方を調整することができる。そして当該調整された情報に基づいて、監視業務に係る戦略を監視業務の責任者が容易に立てることができる。
[第2実施形態]
本実施形態は、以下の点を除いて、第1実施形態と同様の機能構成、及び、ハードウエア構成を備える。
〔機能構成およびハードウエア構成〕
図7は、第2実施形態の情報処理装置10の機能構成を概念的に示す図である。図7に示されるように、本実施形態の情報処理装置10は、第1実施形態の構成に加えて、被害者候補情報取得部140を更に備える。本実施形態の情報処理装置10は、後述する被害者候補情報取得部140の機能を実現するプログラムを図2のストレージ104に更に記憶している。プロセッサ102は、このプログラムモジュールを実行することにより、被害者候補情報取得部140の機能を更に実現する。
被害者候補情報取得部140は、事故又は犯罪の被害者候補の情報を取得する。被害者候補情報取得部140は、例えば、犯罪や事故の典型的な被害者のテンプレート情報を用いて、被害者候補を特定することができる。このテンプレート情報は、例えば、過去に発生した犯罪や事故の被害者の統計から生成することができる。被害者候補情報取得部140は、テンプレート情報を記憶するテンプレート情報記憶部(図示せず)を参照し、解析対象として特定された映像の中から、該テンプレート情報と一致する特徴を有する人物を被害者候補として特定する。なお、ここでいう"一致"とは、一定以上の類似度を示すことを言う。テンプレート情報記憶部は、情報処理装置10に備えられていてもよいし、情報処理装置10と通信可能に接続された他の装置に備えられていてもよい。
また、詳しくは後述するが、被害者候補情報取得部140は、監視対象候補取得部120で取得された監視対象候補の情報に基づいて、被害者候補を絞り込んで選択することもできる。
本実施形態の対象時空間特定部130は、被害者候補情報取得部140により取得された被害者候補の情報を用いて、監視すべき空間領域又は監視すべき時間帯の少なくとも一方を調整する。
〔動作例〕
図8を用いて、本実施形態の情報処理装置10で実行される処理の流れを説明する。図8は、第2実施形態の情報処理装置10の処理の流れを示すフローチャートである。以下では、第1実施形態における処理と異なる部分について主に説明する。
まず、S106で監視対象候補の情報が取得されると、被害者候補情報取得部140は、該監視対象候補に対応する被害者候補を特定し、その被害者候補の情報を取得する(S202)。例えば、監視対象候補取得部120で監視対象候補として特定された人物が、過去にひったくりをしたことがある人物であったとする。また、テンプレート情報記憶部は、例えば図9に示すような情報を記憶していたとする。図9は、テンプレート情報記憶部が記憶する情報の一例を示す図である。図9の例では、ひったくりに関して、年配者が特に平日の昼間の時間帯に被害に会いやすく、また、若い女性が特に平日の夜間に被害に会いやすいことを示すテンプレート情報が記憶されている。更に、ひったくりの共通情報として、車道側でバックを手持ちしている人物が被害に会いやすいことを示すテンプレート情報が記憶されている。また、接触事故に関して、子どもが特に平日の朝又は夕方に被害に会いやすいことを示す情報が記憶されている。この場合において、被害者候補情報取得部140は、図9のひったくりに関するテンプレート情報を、ひったくりの被害者候補の情報を解析対象の映像の中から特定して取得する。この被害者候補の情報は、単純にテンプレート情報に一致すると判定された数でもよいし、被害者候補として特定された人物に関連する情報(年齢、性別、歩き方、又は、物の持ち方のなどの情報)を含んでいてもよい。
次いで、対象時空間特定部130は、S106で取得した監視対象候補の情報と、S202で取得した被害者候補の情報とを用いて、監視すべき空間領域又は監視すべき時間帯の少なくともいずれか一方を特定する(S204)。例えば、対象時空間特定部130は、監視対象候補の数と被害者候補の数との対応関係に応じて、監視すべき空間領域の優先度、または、監視すべき時間の長さを調整する。
<処理の変形例>
なお、図8の例において、S106の処理とS202の処理は並列に実行されてもよい。また、図8の例において、S106の処理を実行せずにS202の処理のみが実行されてもよい。この場合、情報処理装置10は、監視対象候補取得部120を備えていなくてもよい。対象時空間特定部130は、S202で得られる被害者候補の数(被害者候補の情報の数)が多い空間領域又は時間帯を、監視すべき空間領域又は監視すべき時間帯としてS204で特定する。なお、被害者候補の数が多いと判断する閾値などを設けることで、対象時空間特定部130は、その閾値を基に監視すべき空間領域又は監視すべき時間帯を特定することができる。この閾値などの情報は、例えば、図2のストレージ104等に予め格納されていてもよいし、図2の入出力インタフェース105や通信インタフェース106を介して取得されてもよい。このようにすることで、被害者となり得る人物の数に基づいて特定された空間領域又は時間帯を中心に、警備や防犯活動といった監視業務に係る戦略を責任者が容易に立てることができる。
〔作用・効果〕
以上、本実施形態によれば、被害者候補の情報を用いて、監視すべき空間領域又は監視すべき時間帯の少なくとも一方が調整される。これにより、本実施形態によれば、重点的に監視すべき空間領域または重点的に監視すべき時間帯をより精度よく特定することができる。例えば、監視対象候補が特定されたとしても、被害者候補が存在しない場合には、事故や犯罪が発生する可能性は低いと判断できる。一方、監視対象候補と被害者候補の双方が近い場所で検出された場合、事故や犯罪が発生する可能性は高いと判断できる。また、監視対象候補と被害者候補の双方が近い時間帯で検出された場合、事故や犯罪が発生する可能性は高いと判断できる。本実施形態の情報処理装置10は、この監視対象候補の情報と被害者候補の情報との組み合わせによって判断されるリスクに応じて、監視すべき空間領域と監視すべき時間帯とを精度よく特定できる。なお、第1実施形態と同様に、本実施形態の情報処理装置10は、現在時刻の映像、または、直近の時間範囲における映像からリアルタイムな被害者候補を特定してリスクを判断することもできるし、過去の映像から被害者候補の行動傾向を特定してリスクを判断することもできる。
[第3実施形態]
本実施形態は、以下の点を除き、第1実施形態及び第2実施形態と同様の機能構成およびハードウエア構成を備える。なお、以下では第1実施形態の構成をベースとする例を示す。
〔機能構成〕
図10は、第3実施形態の情報処理装置10の機能構成を概念的に示す図である。図10に示されるように、本実施形態の情報処理装置10は、第1実施形態の構成に加えて、環境情報取得部150を更に有する。本実施形態の情報処理装置10は、後述する環境情報取得部150の機能を実現するプログラムをストレージ104に更に記憶している。プロセッサ102は、このプログラムモジュールを実行することにより、環境情報取得部150の機能を更に実現する。
環境情報取得部150は、解析対象として特定された映像又は該映像の場所を特定する情報に基づいて、該映像に含まれる領域の環境情報を生成する。ここで「環境情報」とは、事故や犯罪の発生確率に影響を与え得る環境的要因に関する情報である。環境情報の具体的な例としては、例えば、人や車両の混雑度を示す情報、人や車両の流れを示す情報、車両の停車状況を示す情報、道の見通しの良さ・悪さを示す情報、周囲を木などの遮蔽物で囲まれていて中の状況が分かりづらい場所か否かを示す情報、照明器具がある場所か否か(十分な明るさがある場所か否か)を示す情報などが挙げられる。但し、環境情報はここで挙げた例に限定されない。例えば、車載のドライブレコーダ等から集積された情報を解析して得られる情報を用いて、環境情報を生成することもできる。具体的には、車両が急にブレーキを踏んだ情報を収集して集計し、その場所で急ブレーキがよく踏まれるか否か(すなわち、事故に繋がり得る挙動が発生しやすい場所か否か)を示す情報を環境情報として生成することができる。
本実施形態の対象時空間特定部130は、環境情報取得部150により取得された環境情報を用いて、監視すべき空間領域又は監視すべき時間帯の少なくとも一方を調整する。
〔動作例〕
図11を用いて、本実施形態の情報処理装置10で実行される処理の流れを説明する。図11は、第3実施形態の情報処理装置10の処理の流れを示すフローチャートである。以下では、第1実施形態における処理と異なる部分について主に説明する。
環境情報取得部150は、後述の具体例で示すように、解析対象として特定された映像を基に、環境情報を取得する(S302)。但し、環境情報取得部150が実行する処理は、後述の具体例に限定されない。
一の例として、環境情報取得部150は、映像を解析して、歩行者や車両の単位面積あたりの密度(混雑度)や移動方向・移動速度(車両や歩行者の流れ)などを算出し、映像の範囲(撮像装置の撮像範囲)周辺の混雑状況を示す環境情報を取得する。例えば、人や車両が混雑している場所では、混雑していない場所よりも、接触事故といった事故が起こるリスクが高いと言える。また、人や車両が少ない場所では、周囲の人目が少ないこともあり、犯罪が発生するリスクが高いと言える。環境情報取得部150は、このような混雑状況を示す情報を、環境情報として取得する。
また他の例として、環境情報取得部150は、映像を解析して、犯罪や事故を誘発させるような死角の有無を検出することもできる。例えば、植木、民家の塀、又は、停車中の車両など、死角を生じさせる物体が存在する場合、その物体により死角が生まれる。このような死角がある場合、その死角から歩行者が突然出てくる可能性がある。すなわち、死角を生じさせる物体が存在する場所は、何もない見通しが良い場所と比較して、車両や他の人物との接触事故が発生するリスクが高いと言える。また、死角を生じさせる物体が存在する場所は、何もない見通しが良い場所と比較して人目が届かないこともあり、何らかの犯罪が発生するリスクが高いとも言える。そこで、環境情報取得部150は、解析対象の映像の中から、植木、民家の塀、又は、停車中の車両などの死角を生じさせる物体を検知し、そのような物体の有無またはその数などを環境情報として取得する。
上記の具体例では、環境情報取得部150が、映像を解析して環境情報を取得する例を示したが、環境情報取得部150は、映像を解析しなくとも、該映像の場所を特定する情報に基づいて、環境情報を取得することができる。例えば、図12に示されるように、位置情報と環境情報とを紐付けて記憶する環境情報記憶部が予め用意されている場合、環境情報取得部150は、高リスク時空間情報が示す空間領域や時間帯を用いて、該環境情報記憶部から環境情報を取得することができる。例えば、S102で取得した高リスク時空間情報に基づいて、図5の撮像装置IDが「C001」の撮像装置が特定されたとする。この場合、環境情報取得部150は、該撮像装置に対応する位置情報「(xC1,yC1)」に基づいて、図12の位置情報(xC1,yC1)に対応する環境情報を取得することができる。この例では、撮像装置に対応する位置情報「(xC1,yC1)」が「映像の場所を特定する情報」である。
次いで、対象時空間特定部130は、S106で取得した監視対象候補の情報と、S302で取得した環境情報とを用いて、監視すべき空間領域または監視すべき時間帯を特定する(S304)。例えば、対象時空間特定部130は、S302で取得した環境情報によって示される死角の数や混雑度合などをパラメータとして、監視すべき空間領域の優先度や、監視すべき時間帯(時間の長さ)を調整する所定の数式を用いて、S106で取得した監視対象候補の情報に基づいて特定された監視すべき空間領域又は監視すべき時間を調整する。但し、本実施形態の対象時空間特定部130で実行される処理はこの例に制限されない。
<処理の変形例>
なお、図11の例において、S106の処理とS302の処理は並列に実行されてもよい。また、図11の例において、S106の処理を実行せずにS302の処理のみが実行されてもよい。この場合、情報処理装置10は、監視対象候補取得部120を備えていなくてもよい。対象時空間特定部130は、例えば、S302で取得した環境情報によって示される死角の数や混雑度合などをパラメータとして、監視すべき空間領域の優先度や、監視すべき時間帯(時間の長さ)を算出する所定の数式を用いて、監視すべき空間領域又は監視すべき時間帯を特定する。このようにすることで、被害者候補を抽出しない場合でも、解析対象の映像から抽出される環境情報又は予め設定された環境情報に応じて監視すべき空間領域又は監視すべき時間帯を特定することができる。そして、ここで特定された情報に基づいて、警備や防犯活動といった監視業務に係る戦略を責任者が容易に立てることができる。
〔作用・効果〕
以上、本実施形態では、解析対象の映像、又は、該映像を特定する情報を基に得られる環境情報に基づいて、監視すべき空間領域および監視すべき時間帯の少なくとも一方が調整される。ここで、上述したように、死角の多い場所などでは、事故や犯罪のリスクが高くなると言える。本実施形態の情報処理装置10は、死角を生じさせる物体の有無またはそのような物体の数などを示す環境情報を、監視すべき空間領域または監視すべき時間帯を特定する処理に用いている。これにより、本実施形態によれば、重点的に監視すべき空間領域または重点的に監視すべき時間帯をより精度よく特定することができる。なお本実施形態の情報処理装置10は、映像から環境情報を取得する場合、現在時刻の映像、または、直近の時間範囲における映像から環境情報をしてもよいし、過去の映像からその場所の環境の傾向を判定して環境情報を取得してもよい。
[第4実施形態]
本実施形態は、以下の点を除き、第1実施形態乃至第3実施形態と同様の機能構成およびハードウエア構成を備える。なお、以下では第1実施形態の構成をベースとする例を示す。
〔機能構成〕
図13は、第4実施形態の情報処理装置10の機能構成を概念的に示す図である。本実施形態の情報処理装置10は、第1実施形態の構成に加えて、データベース生成部160を更に有する。本実施形態の情報処理装置10は、後述するデータベース生成部160の機能を実現するプログラムをストレージ104に更に記憶している。プロセッサ102は、このプログラムモジュールを実行することにより、データベース生成部160の機能を更に実現する。
データベース生成部160は、監視すべき空間領域又は監視すべき時間帯の少なくとも一方に応じた監視の結果の入力を受け付け、該入力された結果をデータベース化する。データベース生成部160は、情報処理装置10の入力装置や、他の装置と通信して、監視の結果の入力を受け付ける。「監視業務の結果」は、例えば、対象時空間特定部130によって特定された監視すべき空間領域又は監視すべき時間帯に監視業務を行った人員の数や滞在時間などの情報、その空間領域内で発見した犯罪者候補や被害者候補の数、又は、その空間領域内で発見した事故または犯罪の数などを含む。データベース生成部160は、このような入力情報を受け付けると、監視結果データベース162にその入力情報を蓄積する。
本実施形態の対象時空間特定部130は、データベース生成部160によって生成、管理されるデータベースの情報を用いて、監視すべき空間領域又は監視すべき時間帯の少なくとも一方を調整する。例えば、ある空間領域において、監視の有無、および監視時間の長さにかかわらず、犯罪者候補や被害者候補の数や事故又は犯罪の件数が変わらないとする。このような空間領域は、監視業務による利益の少ない空間領域などと考えられる。一方で、ある空間領域において、監視業務の有無または監視時間の長さによって、犯罪者候補や被害者候補の数や事故又は犯罪の件数が一定以上の変動を見せたとする。このような空間領域は、監視業務による利益の多い空間領域などと考えられる。対象時空間特定部130は、このように監視結果データベース162に蓄積される情報を解析して、より効果的な監視計画(監視すべき空間領域および監視すべき時間帯)を特定することができる。
〔作用・効果〕
以上、本実施形態では、監視業務を行った結果がデータベース化され、そのデータベース化された結果が、監視すべき空間領域または監視すべき時間帯の特定する処理で用いられる。これにより、本実施形態によれば、例えば監視業務の責任者が、実際に得られる監視業務の効果に応じて、より効果的な配置計画を立案することができる。
[第5実施形態]
本実施形態では、監視業務を行った結果を、高リスク時空間の予測に活用する形態を例示する。
〔機能構成およびハードウエア構成〕
本実施形態の情報処理装置10は、第4実施形態と同様に、図13に示すような機能構成を備える。また、本実施形態の情報処理装置10は、各実施形態と同様に、図2に示すようなハードウエア構成を備える。
本実施形態の時空間情報取得部110は、例えば特許文献2や特許文献3と同様に、過去の犯罪や事故の発生履歴などを用いて高リスク時空間を予測して、高リスク時空間情報を取得する。時空間情報取得部110は、高リスク時空間を予測する際のパラメータとして、各空間領域の特性(人や車両の時間帯別の平均的な交通量、その空間領域に存在する死角の数など)を更に利用してもよい。また、本実施形態の時空間情報取得部110は、監視結果データベース162に記憶された監視業務の結果を、フィードバック情報として取得する。そして時空間情報取得部110は、高リスク時空間情報を予測処理に、取得したフィードバック情報を更に利用する。
上述したように、監視結果データベース162には、対象時空間特定部130によって特定された監視すべき空間領域又は監視すべき時間帯に監視業務を行った人員の数や滞在時間などの情報、その空間領域内で発見した犯罪者候補や被害者候補の数、又は、その空間領域内で発見した事故または犯罪の数などを含む情報が格納されている。監視結果データベース162に格納されている情報は、「高リスク」と予測された時空間における、実際のリスクの結果を示し得る。つまり、監視結果データベース162に格納されている情報(フィードバック情報)は、より精度よく高リスク時空間を予測(調整)するための補正パラメータとして利用できる。ここで、時空間情報取得部110が取得するフィードバック情報は、監視結果データベース162に格納されている一部の情報(例えば、指定された期間(数週間、数か月など)の情報)であってもよいし、監視結果データベース162に格納されている全ての情報であってもよい。
〔作用・効果〕
以上、本実施形態では、監視業務を行った結果がデータベース化されており、そのデータベース化された結果(フィードバック情報)が、高リスク時空間を予測する処理の補正パラメータとして利用される。本実施形態によれば、監視業務を実際に行った結果を用いて、高リスク時空間をより精度よく予測することが可能となる。
以上、図面を参照して本発明の実施形態について述べたが、これらは本発明の例示であり、上記各実施形態の組み合わせ、又は上記以外の様々な構成を採用することもできる。
以下、参考形態の例を付記する。
1.
事故発生の可能性又は犯罪発生の可能性が高くなる空間領域及びその時間帯を示す高リスク時空間情報を取得する時空間情報取得手段と、
前記高リスク時空間情報に基づいて、複数の場所のそれぞれを撮像することにより生成された複数の映像の中から解析対象の映像を特定し、該特定された映像を解析して、監視対象候補の情報を取得する監視対象候補取得手段と、
前記監視対象候補の情報に基づいて、前記高リスク時空間情報が示す空間領域及び時間帯の中で、前記空間領域の少なくとも一部である監視すべき空間領域、又は監視すべき時間帯の少なくとも一方を特定する対象時空間特定手段と、
を備える、情報処理装置。
2.
事故又は犯罪の被害者候補の情報を取得する被害者候補情報取得手段を更に備え、
前記対象時空間特定手段は、
前記被害者候補の情報を用いて、前記監視すべき空間領域又は前記監視すべき時間帯の少なくとも一方を調整する、
1.に記載の情報処理装置。
3.
前記被害者候補情報取得手段は、
前記監視対象候補の情報に関連する事故又は犯罪の情報を基に、前記被害者候補を選択する、
2.に記載の情報処理装置。
4.
前記特定された映像又は該映像の場所を特定する情報に基づいて、該映像に含まれる領域の環境情報を取得する環境情報取得手段を更に備え、
前記対象時空間特定手段は、
前記環境情報を用いて、前記監視すべき空間領域又は前記監視すべき時間帯の少なくとも一方を調整する、
1.から3.のいずれか1つに記載の情報処理装置。
5.
前記監視すべき空間領域又は前記監視すべき時間帯の少なくとも一方に応じた監視の結果の入力を受け付け、該入力された結果をデータベース化するデータベース化手段を更に備える、
1.から4.のいずれか1つに記載の情報処理装置。
6.
前記対象時空間特定手段は、
前記データベース化された結果を用いて、前記監視すべき空間領域又は前記監視すべき時間帯の少なくとも一方を調整する、
5.に記載の情報処理装置。
7.
前記時空間情報取得手段は、
前記データベース化された結果をフィードバック情報として取得し、
当該取得したフィードバック情報を、事故発生の可能性又は犯罪発生の可能性が高くなる空間領域及び時間帯の予測処理に利用し、前記高リスク時空間情報を取得する、
5.に記載の情報処理装置。
8.
前記監視対象候補取得手段は、
前記特定された映像の範囲内の人物を認識し、
該認識した人物と、既存の要監視者の情報を登録する記憶手段の前記要監視者と照合し、
該記憶手段の中で該当する人物を前記監視対象候補として特定する、
1.から7.のいずれか1つに記載の情報処理装置。
9.
前記監視対象候補取得手段は、
前記特定された映像を解析した結果、同一と推定される人物を所定範囲の場所において所定回数以上又は所定時間以上検出した場合に、該人物を前記監視対象候補として特定する、
1.から8.のいずれか1つに記載の情報処理装置。
10.
前記監視対象候補取得手段は、
前記特定された映像を解析した結果、同一と推定される二輪又は三輪の車両であって、二人乗りをしている二輪又は三輪の車両を所定範囲の場所において所定回数以上又は所定時間以上検出した場合に、該二輪又は三輪の車両を前記監視対象候補として特定する、
1.から9.のいずれか1つに記載の情報処理装置。
11.
前記監視対象候補取得手段は、
前記特定された映像の範囲内の車両を認識し、
各車両の所有者を含む情報を登録する記憶手段を参照して該認識した車両の所有者を特定し、
該特定した所有者と、既存の要監視者の情報を登録する記憶手段の前記要監視者と照合し、
該記憶手段の中で該当する人物を前記監視対象候補として特定する、
1.から10.のいずれか1つに記載の情報処理装置。
12.
前記監視対象候補取得手段は、
前記特定された映像の範囲内の車両を認識し、
該認識した車両を、交通事故を起こした人物又は交通規則に違反した人物が所有する車両の情報を登録する記憶手段の前記車両と照合し、
該記憶手段で該当する車両を前記監視対象候補として特定する、
1.から11.のいずれか1つに記載の情報処理装置。
13.
コンピュータが、
事故発生の可能性又は犯罪発生の可能性が高くなる空間領域及びその時間帯を示す高リスク時空間情報を取得し、
前記高リスク時空間情報に基づいて、複数の場所のそれぞれを撮像することにより生成された複数の映像の中から解析対象の映像を特定し、該特定された映像を解析して、監視対象候補の情報を取得し、
前記監視対象候補の情報に基づいて、前記高リスク時空間情報が示す空間領域及び時間帯の中で、前記空間領域の少なくとも一部である監視すべき空間領域、又は監視すべき時間帯の少なくとも一方を特定する、
ことを含む情報処理方法。
14.
前記コンピュータが、
事故又は犯罪の被害者候補の情報を取得し、
前記被害者候補の情報を用いて、前記監視すべき空間領域又は前記監視すべき時間帯の少なくとも一方を調整する、
ことを更に含む13.に記載の情報処理方法。
15.
前記コンピュータが、
前記監視対象候補の情報に関連する事故又は犯罪の情報を基に、前記被害者候補を選択する、
ことを更に含む14.に記載の情報処理方法。
16.
前記コンピュータが、
前記特定された映像又は該映像の場所を特定する情報に基づいて、該映像に含まれる領域の環境情報を取得し、
前記環境情報を用いて、前記監視すべき空間領域又は前記監視すべき時間帯の少なくとも一方を調整する、
ことを更に含む13.から15.のいずれか1つに記載の情報処理方法。
17.
前記コンピュータが、
前記監視すべき空間領域又は前記監視すべき時間帯の少なくとも一方に応じた監視の結果の入力を受け付け、該入力された結果をデータベース化する、
ことを更に含む13.から16.のいずれか1つに記載の情報処理方法。
18.
前記コンピュータが、
前記データベース化された結果を用いて、前記監視すべき空間領域又は前記監視すべき時間帯の少なくとも一方を調整する、
ことを更に含む17.に記載の情報処理方法。
19.
前記コンピュータが、
前記データベース化された結果をフィードバック情報として取得し、
当該取得したフィードバック情報を、事故発生の可能性又は犯罪発生の可能性が高くなる空間領域及び時間帯の予測処理に利用し、前記高リスク時空間情報を取得する、
ことを更に含む17.に記載の情報処理方法。
20.
前記コンピュータが、
前記特定された映像の範囲内の人物を認識し、
該認識した人物と、既存の要監視者の情報を登録する記憶手段の前記要監視者と照合し、
該記憶手段の中で該当する人物を前記監視対象候補として特定する、
ことを更に含む13.から19.のいずれか1つに記載の情報処理方法。
21.
前記コンピュータが、
前記特定された映像を解析した結果、同一と推定される人物を所定範囲の場所において所定回数以上又は所定時間以上検出した場合に、該人物を前記監視対象候補として特定する、
ことを更に含む13.から20.のいずれか1つに記載の情報処理方法。
22.
前記コンピュータが、
前記特定された映像を解析した結果、同一と推定される二輪又は三輪の車両であって、二人乗りをしている二輪又は三輪の車両を所定範囲の場所において所定回数以上又は所定時間以上検出した場合に、該二輪又は三輪の車両を前記監視対象候補として特定する、
ことを更に含む13.から21.のいずれか1つに記載の情報処理方法。
23.
前記コンピュータが、
前記特定された映像の範囲内の車両を認識し、
各車両の所有者を含む情報を登録する記憶手段を参照して該認識した車両の所有者を特定し、
該特定した所有者と、既存の要監視者の情報を登録する記憶手段の前記要監視者と照合し、
該記憶手段の中で該当する人物を前記監視対象候補として特定する、
ことを更に含む13.から22.のいずれか1つに記載の情報処理方法。
24.
前記コンピュータが、
前記特定された映像の範囲内の車両を認識し、
該認識した車両を、交通事故を起こした人物又は交通規則に違反した人物が所有する車両の情報を登録する記憶手段の前記車両と照合し、
該記憶手段で該当する車両を前記監視対象候補として特定する、
ことを更に含む13.から23.のいずれか1つに記載の情報処理方法。
25.
コンピュータを、
事故発生の可能性又は犯罪発生の可能性が高くなる空間領域及びその時間帯を示す高リスク時空間情報を取得する時空間情報取得手段、
前記高リスク時空間情報に基づいて、複数の場所のそれぞれを撮像することにより生成された複数の映像の中から解析対象の映像を特定し、該特定された映像を解析して、監視対象候補の情報を取得する監視対象候補取得手段、
前記監視対象候補の情報に基づいて、前記高リスク時空間情報が示す空間領域及び時間帯の中で、前記空間領域の少なくとも一部である監視すべき空間領域、又は監視すべき時間帯の少なくとも一方を特定する対象時空間特定手段、
として機能させるためのプログラム。
26.
前記コンピュータを、
事故又は犯罪の被害者候補の情報を取得する被害者候補情報取得手段、
前記被害者候補の情報を用いて、前記監視すべき空間領域又は前記監視すべき時間帯の少なくとも一方を調整する手段、
として更に機能させるための25.に記載のプログラム。
27.
前記コンピュータを、
前記監視対象候補の情報に関連する事故又は犯罪の情報を基に、前記被害者候補を選択する手段、
として更に機能させるための26.に記載のプログラム。
28.
前記コンピュータを、
前記特定された映像又は該映像の場所を特定する情報に基づいて、該映像に含まれる領域の環境情報を取得する環境情報取得手段、
前記環境情報を用いて、前記監視すべき空間領域又は前記監視すべき時間帯の少なくとも一方を調整する手段、
として更に機能させるための25.から27.のいずれか1つに記載のプログラム。
29.
前記コンピュータを、
前記監視すべき空間領域又は前記監視すべき時間帯の少なくとも一方に応じた監視の結果の入力を受け付け、該入力された結果をデータベース化するデータベース化手段、
として更に機能させるための25.から28.のいずれか1つに記載のプログラム。
30.
前記コンピュータを、
前記データベース化された結果を用いて、前記監視すべき空間領域又は前記監視すべき時間帯の少なくとも一方を調整する手段、
として更に機能させるための29.に記載のプログラム。
31.
前記コンピュータを、
前記データベース化された結果をフィードバック情報として取得する手段、
当該取得したフィードバック情報を、事故発生の可能性又は犯罪発生の可能性が高くなる空間領域及び時間帯の予測処理に利用し、前記高リスク時空間情報を取得する手段、
として更に機能させるための29.に記載のプログラム。
32.
前記コンピュータを、
前記特定された映像の範囲内の人物を認識する手段、
該認識した人物と、既存の要監視者の情報を登録する記憶手段の前記要監視者と照合する手段、
該記憶手段の中で該当する人物を前記監視対象候補として特定する手段、
として更に機能させるための25.から31.のいずれか1つに記載のプログラム。
33.
前記コンピュータを、
前記特定された映像を解析した結果、同一と推定される人物を所定範囲の場所において所定回数以上又は所定時間以上検出した場合に、該人物を前記監視対象候補として特定する手段、
として更に機能させるための25.から32.のいずれか1つに記載のプログラム。
34.
前記コンピュータを、
前記特定された映像を解析した結果、同一と推定される二輪又は三輪の車両であって、二人乗りをしている二輪又は三輪の車両を所定範囲の場所において所定回数以上又は所定時間以上検出した場合に、該二輪又は三輪の車両を前記監視対象候補として特定する手段、
として機能させるための25.から33.のいずれか1つに記載のプログラム。
35.
前記コンピュータを、
前記特定された映像の範囲内の車両を認識する手段、
各車両の所有者を含む情報を登録する記憶手段を参照して該認識した車両の所有者を特定する手段、
該特定した所有者と、既存の要監視者の情報を登録する記憶手段の前記要監視者と照合する手段、
該記憶手段の中で該当する人物を前記監視対象候補として特定する手段、
として更に機能させるための25.から34.のいずれか1つに記載のプログラム。
36.
前記コンピュータを、
前記特定された映像の範囲内の車両を認識する手段、
該認識した車両を、交通事故を起こした人物又は交通規則に違反した人物が所有する車両の情報を登録する記憶手段の前記車両と照合する手段、
該記憶手段で該当する車両を前記監視対象候補として特定する手段、
として機能させるための25.から35.のいずれか1つに記載のプログラム。
37.
事故発生の可能性又は犯罪発生の可能性が高くなる空間領域及びその時間帯を示す高リスク時空間情報を取得する時空間情報取得手段と、
前記高リスク時空間情報に基づいて、複数の場所のそれぞれを撮像することにより生成された複数の映像の中から解析対象の映像を特定し、該特定された映像を解析して、事故又は犯罪の被害者候補の情報を取得する被害者候補情報取得手段と、
前記被害者候補の情報に基づいて、前記高リスク時空間情報が示す空間領域及び時間帯の中で、前記空間領域の少なくとも一部である監視すべき空間領域、又は監視すべき時間帯の少なくとも一方を特定する対象時空間特定手段と、
を備える、情報処理装置。
38.
コンピュータが、
事故発生の可能性又は犯罪発生の可能性が高くなる空間領域及びその時間帯を示す高リスク時空間情報を取得し、
前記高リスク時空間情報に基づいて、複数の場所のそれぞれを撮像することにより生成された複数の映像の中から解析対象の映像を特定し、該特定された映像を解析して、事故又は犯罪の被害者候補の情報を取得し、
前記被害者候補の情報に基づいて、前記高リスク時空間情報が示す空間領域及び時間帯の中で、前記空間領域の少なくとも一部である監視すべき空間領域、又は監視すべき時間帯の少なくとも一方を特定する、
ことを含む情報処理方法。
39.
コンピュータを、
事故発生の可能性又は犯罪発生の可能性が高くなる空間領域及びその時間帯を示す高リスク時空間情報を取得する時空間情報取得手段、
前記高リスク時空間情報に基づいて、複数の場所のそれぞれを撮像することにより生成された複数の映像の中から解析対象の映像を特定し、該特定された映像を解析して、事故又は犯罪の被害者候補の情報を取得する被害者候補情報取得手段、
前記被害者候補の情報に基づいて、前記高リスク時空間情報が示す空間領域及び時間帯の中で、前記空間領域の少なくとも一部である監視すべき空間領域、又は監視すべき時間帯の少なくとも一方を特定する対象時空間特定手段、
として機能させるためのプログラム。
この出願は、2016年1月29日に出願された日本出願特願2016−015713号を基礎とする優先権を主張し、その開示の全てをここに取り込む。
本発明によれば、
事故発生の可能性又は犯罪発生の可能性が高くなる空間領域と、その時間帯及び年月日の少なくともいずれか一方と、を示す高リスク時空間情報を取得する時空間情報取得手段と、
撮像装置により撮像された映像に基づいて、前記高リスク時空間情報が示す空間領域及び時間帯の中で、前記空間領域の少なくとも一部である監視すべき空間領域、又は監視すべき時間帯の少なくとも一方を特定する対象時空間特定手段と、
を備える、情報処理装置が提供される。
本発明によれば、
コンピュータが、
事故発生の可能性又は犯罪発生の可能性が高くなる空間領域と、その時間帯及び年月日の少なくともいずれか一方と、を示す高リスク時空間情報を取得し、
撮像装置により撮像された映像に基づいて、前記高リスク時空間情報が示す空間領域及び時間帯の中で、前記空間領域の少なくとも一部である監視すべき空間領域、又は監視すべき時間帯の少なくとも一方を特定する、
ことを含む情報処理方法が提供される。
本発明によれば、
コンピュータを、
事故発生の可能性又は犯罪発生の可能性が高くなる空間領域と、その時間帯及び年月日の少なくともいずれか一方と、を示す高リスク時空間情報を取得する時空間情報取得手段、
撮像装置により撮像された映像に基づいて、前記高リスク時空間情報が示す空間領域及び時間帯の中で、前記空間領域の少なくとも一部である監視すべき空間領域、又は監視すべき時間帯の少なくとも一方を特定する対象時空間特定手段、
として機能させるためのプログラムが提供される。

Claims (17)

  1. 事故発生の可能性又は犯罪発生の可能性が高くなる空間領域と、その時間帯及び年月日の少なくともいずれか一方と、を示す高リスク時空間情報を取得する時空間情報取得手段と、
    前記高リスク時空間情報に基づいて、複数の場所のそれぞれを撮像することにより生成された複数の映像の中から解析対象の映像を特定し、該特定された映像を解析して、監視対象候補の情報を取得する監視対象候補取得手段と、
    前記監視対象候補の情報に基づいて、前記高リスク時空間情報が示す空間領域及び時間帯の中で、前記空間領域の少なくとも一部である監視すべき空間領域、又は監視すべき時間帯の少なくとも一方を特定する対象時空間特定手段と、
    を備える、情報処理装置。
  2. 事故又は犯罪の被害者候補の情報を取得する被害者候補情報取得手段を更に備え、
    前記対象時空間特定手段は、
    前記被害者候補の情報を用いて、前記監視すべき空間領域又は前記監視すべき時間帯の少なくとも一方を調整する、
    請求項1に記載の情報処理装置。
  3. 前記被害者候補情報取得手段は、
    前記監視対象候補の情報に関連する事故又は犯罪の情報を基に、前記被害者候補を選択する、
    請求項2に記載の情報処理装置。
  4. 前記特定された映像又は該映像の場所を特定する情報に基づいて、該映像に含まれる領域の環境情報を取得する環境情報取得手段を更に備え、
    前記対象時空間特定手段は、
    前記環境情報を用いて、前記監視すべき空間領域又は前記監視すべき時間帯の少なくとも一方を調整する、
    請求項1から3のいずれか1つに記載の情報処理装置。
  5. 前記監視すべき空間領域又は前記監視すべき時間帯の少なくとも一方に応じた監視の結果の入力を受け付け、該入力された結果をデータベース化するデータベース化手段を更に備える、
    請求項1から4のいずれか1つに記載の情報処理装置。
  6. 前記対象時空間特定手段は、
    前記データベース化された結果を用いて、前記監視すべき空間領域又は前記監視すべき時間帯の少なくとも一方を調整する、
    請求項5に記載の情報処理装置。
  7. 前記時空間情報取得手段は、
    前記データベース化された結果をフィードバック情報として取得し、
    当該取得したフィードバック情報を、事故発生の可能性又は犯罪発生の可能性が高くなる空間領域及び時間帯の予測処理に利用し、前記高リスク時空間情報を取得する、
    請求項5に記載の情報処理装置。
  8. 前記監視対象候補取得手段は、
    前記特定された映像の範囲内の人物を認識し、
    該認識した人物と、既存の要監視者の情報を登録する記憶手段の前記要監視者と照合し、
    該記憶手段の中で該当する人物を前記監視対象候補として特定する、
    請求項1から7のいずれか1つに記載の情報処理装置。
  9. 前記監視対象候補取得手段は、
    前記特定された映像を解析した結果、同一と推定される人物を所定範囲の場所において所定回数以上又は所定時間以上検出した場合に、該人物を前記監視対象候補として特定する、
    請求項1から8のいずれか1つに記載の情報処理装置。
  10. 前記監視対象候補取得手段は、
    前記特定された映像を解析した結果、同一と推定される二輪又は三輪の車両であって、二人乗りをしている二輪又は三輪の車両を所定範囲の場所において所定回数以上又は所定時間以上検出した場合に、該二輪又は三輪の車両を前記監視対象候補として特定する、
    請求項1から9のいずれか1つに記載の情報処理装置。
  11. 前記監視対象候補取得手段は、
    前記特定された映像の範囲内の車両を認識し、
    各車両の所有者を含む情報を登録する記憶手段を参照して該認識した車両の所有者を特定し、
    該特定した所有者と、既存の要監視者の情報を登録する記憶手段の前記要監視者と照合し、
    該記憶手段の中で該当する人物を前記監視対象候補として特定する、
    請求項1から10のいずれか1つに記載の情報処理装置。
  12. 前記監視対象候補取得手段は、
    前記特定された映像の範囲内の車両を認識し、
    該認識した車両を、交通事故を起こした人物又は交通規則に違反した人物が所有する車両の情報を登録する記憶手段の前記車両と照合し、
    該記憶手段で該当する車両を前記監視対象候補として特定する、
    請求項1から11のいずれか1つに記載の情報処理装置。
  13. コンピュータが、
    事故発生の可能性又は犯罪発生の可能性が高くなる空間領域と、その時間帯及び年月日の少なくともいずれか一方と、を示す高リスク時空間情報を取得し、
    前記高リスク時空間情報に基づいて、複数の場所のそれぞれを撮像することにより生成された複数の映像の中から解析対象の映像を特定し、該特定された映像を解析して、監視対象候補の情報を取得し、
    前記監視対象候補の情報に基づいて、前記高リスク時空間情報が示す空間領域及び時間帯の中で、前記空間領域の少なくとも一部である監視すべき空間領域、又は監視すべき時間帯の少なくとも一方を特定する、
    ことを含む情報処理方法。
  14. コンピュータを、
    事故発生の可能性又は犯罪発生の可能性が高くなる空間領域と、その時間帯及び年月日の少なくともいずれか一方と、を示す高リスク時空間情報を取得する時空間情報取得手段、
    前記高リスク時空間情報に基づいて、複数の場所のそれぞれを撮像することにより生成された複数の映像の中から解析対象の映像を特定し、該特定された映像を解析して、監視対象候補の情報を取得する監視対象候補取得手段、
    前記監視対象候補の情報に基づいて、前記高リスク時空間情報が示す空間領域及び時間帯の中で、前記空間領域の少なくとも一部である監視すべき空間領域、又は監視すべき時間帯の少なくとも一方を特定する対象時空間特定手段、
    として機能させるためのプログラム。
  15. 事故発生の可能性又は犯罪発生の可能性が高くなる空間領域と、その時間帯及び年月日の少なくともいずれか一方と、を示す高リスク時空間情報を取得する時空間情報取得手段と、
    前記高リスク時空間情報に基づいて、複数の場所のそれぞれを撮像することにより生成された複数の映像の中から解析対象の映像を特定し、該特定された映像を解析して、事故又は犯罪の被害者候補の情報を取得する被害者候補情報取得手段と、
    前記被害者候補の情報に基づいて、前記高リスク時空間情報が示す空間領域及び時間帯の中で、前記空間領域の少なくとも一部である監視すべき空間領域、又は監視すべき時間帯の少なくとも一方を特定する対象時空間特定手段と、
    を備える、情報処理装置。
  16. コンピュータが、
    事故発生の可能性又は犯罪発生の可能性が高くなる空間領域と、その時間帯及び年月日の少なくともいずれか一方と、を示す高リスク時空間情報を取得し、
    前記高リスク時空間情報に基づいて、複数の場所のそれぞれを撮像することにより生成された複数の映像の中から解析対象の映像を特定し、該特定された映像を解析して、事故又は犯罪の被害者候補の情報を取得し、
    前記被害者候補の情報に基づいて、前記高リスク時空間情報が示す空間領域及び時間帯の中で、前記空間領域の少なくとも一部である監視すべき空間領域、又は監視すべき時間帯の少なくとも一方を特定する、
    ことを含む情報処理方法。
  17. コンピュータを、
    事故発生の可能性又は犯罪発生の可能性が高くなる空間領域と、その時間帯及び年月日の少なくともいずれか一方と、を示す高リスク時空間情報を取得する時空間情報取得手段、
    前記高リスク時空間情報に基づいて、複数の場所のそれぞれを撮像することにより生成された複数の映像の中から解析対象の映像を特定し、該特定された映像を解析して、事故又は犯罪の被害者候補の情報を取得する被害者候補情報取得手段、
    前記被害者候補の情報に基づいて、前記高リスク時空間情報が示す空間領域及び時間帯の中で、前記空間領域の少なくとも一部である監視すべき空間領域、又は監視すべき時間帯の少なくとも一方を特定する対象時空間特定手段、
    として機能させるためのプログラム。
JP2020122148A 2016-01-29 2020-07-16 情報処理装置、情報処理方法、及びプログラム Active JP6954420B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2021160688A JP2022008672A (ja) 2016-01-29 2021-09-30 情報処理装置、情報処理方法、及びプログラム

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2016015713 2016-01-29
JP2016015713 2016-01-29
JP2017564235A JP6737290B2 (ja) 2016-01-29 2017-01-23 情報処理装置、情報処理方法、及びプログラム

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2017564235A Division JP6737290B2 (ja) 2016-01-29 2017-01-23 情報処理装置、情報処理方法、及びプログラム

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2021160688A Division JP2022008672A (ja) 2016-01-29 2021-09-30 情報処理装置、情報処理方法、及びプログラム

Publications (2)

Publication Number Publication Date
JP2020187781A true JP2020187781A (ja) 2020-11-19
JP6954420B2 JP6954420B2 (ja) 2021-10-27

Family

ID=59398051

Family Applications (3)

Application Number Title Priority Date Filing Date
JP2017564235A Active JP6737290B2 (ja) 2016-01-29 2017-01-23 情報処理装置、情報処理方法、及びプログラム
JP2020122148A Active JP6954420B2 (ja) 2016-01-29 2020-07-16 情報処理装置、情報処理方法、及びプログラム
JP2021160688A Pending JP2022008672A (ja) 2016-01-29 2021-09-30 情報処理装置、情報処理方法、及びプログラム

Family Applications Before (1)

Application Number Title Priority Date Filing Date
JP2017564235A Active JP6737290B2 (ja) 2016-01-29 2017-01-23 情報処理装置、情報処理方法、及びプログラム

Family Applications After (1)

Application Number Title Priority Date Filing Date
JP2021160688A Pending JP2022008672A (ja) 2016-01-29 2021-09-30 情報処理装置、情報処理方法、及びプログラム

Country Status (3)

Country Link
US (4) US11494579B2 (ja)
JP (3) JP6737290B2 (ja)
WO (1) WO2017130902A1 (ja)

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6627842B2 (ja) * 2017-10-18 2020-01-08 日本電気株式会社 情報処理装置、リスク予測方法、およびプログラム
JP7200493B2 (ja) * 2018-03-29 2023-01-10 京セラドキュメントソリューションズ株式会社 監視システム
SG10201807678WA (en) * 2018-09-06 2020-04-29 Nec Asia Pacific Pte Ltd A method for identifying potential associates of at least one target person, and an identification device
SG10201807663PA (en) * 2018-09-06 2020-04-29 Nec Asia Pacific Pte Ltd System and method for multi-layer potential associates discovery
JP7151449B2 (ja) * 2018-12-14 2022-10-12 トヨタ自動車株式会社 情報処理システム、プログラム、及び情報処理方法
JP7198196B2 (ja) * 2019-12-26 2022-12-28 株式会社日立ハイテク 計測装置及び計測方法
JP7284842B1 (ja) * 2022-02-17 2023-05-31 東芝エレベータ株式会社 乗客コンベア管理装置および乗客コンベア管理方法

Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009140264A (ja) * 2007-12-06 2009-06-25 Takenaka Komuten Co Ltd 犯罪防止装置及び犯罪防止プログラム
JP2009244956A (ja) * 2008-03-28 2009-10-22 Takenaka Komuten Co Ltd 犯罪リスク評価装置及び犯罪リスク評価プログラム
JP2010250775A (ja) * 2009-04-20 2010-11-04 Takenaka Komuten Co Ltd 犯罪防止装置およびプログラム
JP2011243056A (ja) * 2010-05-19 2011-12-01 Takenaka Komuten Co Ltd 犯罪防止装置およびプログラム
US20130057551A1 (en) * 2007-10-01 2013-03-07 David S. Ebert Visual Analytics Law Enforcement Tools
JP2013131153A (ja) * 2011-12-22 2013-07-04 Welsoc Co Ltd 自律型防犯警戒システム及び自律型防犯警戒方法
JP2014215747A (ja) * 2013-04-24 2014-11-17 株式会社日立製作所 追跡装置、追跡システム、及び、追跡方法
US8949164B1 (en) * 2011-09-08 2015-02-03 George O. Mohler Event forecasting system
JP2015139007A (ja) * 2014-01-20 2015-07-30 株式会社竹中工務店 犯罪リスク値導出装置およびプログラム

Family Cites Families (53)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6028626A (en) * 1995-01-03 2000-02-22 Arc Incorporated Abnormality detection and surveillance system
US6940998B2 (en) * 2000-02-04 2005-09-06 Cernium, Inc. System for automated screening of security cameras
US8564661B2 (en) * 2000-10-24 2013-10-22 Objectvideo, Inc. Video analytic rule detection system and method
JP2003085662A (ja) * 2001-07-06 2003-03-20 Rando Business:Kk 防犯システム、防犯管理装置、防犯方法、防犯管理方法およびコンピュータプログラム
JP3801044B2 (ja) 2001-07-26 2006-07-26 松下電工株式会社 防犯監視システム
JP2003141657A (ja) * 2001-11-01 2003-05-16 Takeshi Ikeda 防犯システム
WO2004045215A1 (en) * 2002-11-12 2004-05-27 Intellivid Corporation Method and system for tracking and behavioral monitoring of multiple objects moving throuch multiple fields-of-view
JP4349199B2 (ja) * 2003-05-21 2009-10-21 株式会社日立製作所 時空間通信システム
US7999857B2 (en) * 2003-07-25 2011-08-16 Stresscam Operations and Systems Ltd. Voice, lip-reading, face and emotion stress analysis, fuzzy logic intelligent camera system
WO2005079178A2 (en) * 2003-11-20 2005-09-01 Richard Steven Trela Anti terrorist and homeland security public safety warning system
JP4479267B2 (ja) * 2004-02-18 2010-06-09 株式会社日立製作所 監視カメラ映像配信システム
US7280042B2 (en) * 2004-03-24 2007-10-09 Richard Steven Trela Standoff security and real-time vendor verification system and apparatus
JP2007025940A (ja) * 2005-07-14 2007-02-01 Fujifilm Holdings Corp 防犯システム、防犯装置、防犯方法、及びプログラム
US20070112713A1 (en) * 2005-11-10 2007-05-17 Motorola, Inc. Method and apparatus for profiling a potential offender of a criminal incident
JP2007183745A (ja) * 2006-01-05 2007-07-19 Hitachi Software Eng Co Ltd 不動産情報提供システム
JP2007333423A (ja) * 2006-06-12 2007-12-27 Nec Corp 安全なルートを案内するルート情報システム
JP2009049568A (ja) * 2007-08-15 2009-03-05 Fujifilm Corp 通報方法および通報システム
JP4470992B2 (ja) * 2007-12-05 2010-06-02 セイコーエプソン株式会社 映像管理システム
US8559914B2 (en) * 2008-01-16 2013-10-15 M. Kelly Jones Interactive personal surveillance and security (IPSS) system
JP2010136032A (ja) * 2008-12-04 2010-06-17 Hitachi Ltd 映像監視システム
TWI389559B (zh) * 2009-08-14 2013-03-11 Ind Tech Res Inst 前景影像分離方法
WO2011116199A1 (en) * 2010-03-17 2011-09-22 Jose Cordero Method and system for light-based intervention
US20110261202A1 (en) * 2010-04-22 2011-10-27 Boris Goldstein Method and System for an Integrated Safe City Environment including E-City Support
JP2012021851A (ja) * 2010-07-13 2012-02-02 Kyocera Corp 携帯端末及び制御方法
US9134399B2 (en) 2010-07-28 2015-09-15 International Business Machines Corporation Attribute-based person tracking across multiple cameras
EP2614464A2 (de) * 2010-09-10 2013-07-17 ATG Advanced Swiss Technology Group AG Verfahren zum auffinden und digitalen auswerten von illegalem bildmaterial
US8836784B2 (en) * 2010-10-27 2014-09-16 Intellectual Ventures Fund 83 Llc Automotive imaging system for recording exception events
US8831677B2 (en) * 2010-11-17 2014-09-09 Antony-Euclid C. Villa-Real Customer-controlled instant-response anti-fraud/anti-identity theft devices (with true-personal identity verification), method and systems for secured global applications in personal/business e-banking, e-commerce, e-medical/health insurance checker, e-education/research/invention, e-disaster advisor, e-immigration, e-airport/aircraft security, e-military/e-law enforcement, with or without NFC component and system, with cellular/satellite phone/internet/multi-media functions
US9268964B1 (en) * 2011-04-04 2016-02-23 Symantec Corporation Techniques for multimedia metadata security
CN103733633B (zh) * 2011-05-12 2017-11-21 索林科集团 视频分析系统
JP2013065187A (ja) * 2011-09-16 2013-04-11 Nec Casio Mobile Communications Ltd 防犯システム、情報処理装置、防犯システムの管理方法及びプログラム
US20140057590A1 (en) * 2011-11-14 2014-02-27 Optivon, Inc. Method and system for communicating information associated with an incident and/or emergency situation
US20140063239A1 (en) * 2012-02-10 2014-03-06 Visualant, Inc. Area surveillance systems and methods
WO2013179335A1 (ja) * 2012-05-30 2013-12-05 株式会社 日立製作所 監視カメラ制御装置及び映像監視システム
JP6151891B2 (ja) * 2012-07-27 2017-06-21 株式会社リテールサポート 防犯システム
WO2014058406A1 (ru) * 2012-10-12 2014-04-17 Golovatskyy Dmytriy Vasilyevich Способ идентификации человека
KR101961258B1 (ko) * 2013-03-12 2019-07-17 한화테크윈 주식회사 다채널 네트워크 카메라 감시 시스템 및 이의 구축 방법
US9251692B2 (en) 2013-03-15 2016-02-02 Honeywell International Inc. GPS directed intrusion system with data acquisition
JP6003752B2 (ja) * 2013-03-22 2016-10-05 富士通株式会社 防犯装置、防犯方法及び防犯プログラム
US20140354820A1 (en) * 2013-05-03 2014-12-04 Daniel Danialian System and method for live surveillance property monitoring
US9721166B2 (en) 2013-05-05 2017-08-01 Qognify Ltd. System and method for identifying a particular human in images using an artificial image composite or avatar
US10275657B2 (en) * 2013-06-28 2019-04-30 Nec Corporation Video surveillance system, video processing apparatus, video processing method, and video processing program
US9336670B2 (en) 2013-11-06 2016-05-10 Nettalon Security Systems, Inc. Method for remote initialization of targeted nonlethal counter measures in an active shooter suspect incident
JP6443770B2 (ja) * 2014-09-29 2018-12-26 パナソニックIpマネジメント株式会社 防犯管理装置、防犯管理方法、制御プログラム及び防犯管理システム
US10359511B2 (en) * 2014-12-29 2019-07-23 Sony Corporation Surveillance apparatus having a radar sensor
US10133935B2 (en) 2015-01-13 2018-11-20 Vivint, Inc. Doorbell camera early detection
TWI550421B (zh) * 2015-03-06 2016-09-21 視頻搜尋方法與系統
JP2017049867A (ja) * 2015-09-03 2017-03-09 日本電気株式会社 認証装置、防犯システム、認証方法およびプログラム
US20170069051A1 (en) * 2015-09-08 2017-03-09 Felix Houston Petitt, SR. ATMS Bank Emergency Response System
US9945640B2 (en) 2015-11-19 2018-04-17 Philip Scott Lyren Firearm system that tracks points of aim of a firearm
US10997422B2 (en) 2016-01-29 2021-05-04 Nec Corporation Information processing apparatus, information processing method, and program
JP6885682B2 (ja) 2016-07-15 2021-06-16 パナソニックi−PROセンシングソリューションズ株式会社 監視システム、管理装置、及び監視方法
AU2018275266B2 (en) 2017-06-01 2022-08-25 Alarm.Com Incorporated Control access utilizing video analytics

Patent Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20130057551A1 (en) * 2007-10-01 2013-03-07 David S. Ebert Visual Analytics Law Enforcement Tools
JP2009140264A (ja) * 2007-12-06 2009-06-25 Takenaka Komuten Co Ltd 犯罪防止装置及び犯罪防止プログラム
JP2009244956A (ja) * 2008-03-28 2009-10-22 Takenaka Komuten Co Ltd 犯罪リスク評価装置及び犯罪リスク評価プログラム
JP2010250775A (ja) * 2009-04-20 2010-11-04 Takenaka Komuten Co Ltd 犯罪防止装置およびプログラム
JP2011243056A (ja) * 2010-05-19 2011-12-01 Takenaka Komuten Co Ltd 犯罪防止装置およびプログラム
US8949164B1 (en) * 2011-09-08 2015-02-03 George O. Mohler Event forecasting system
JP2013131153A (ja) * 2011-12-22 2013-07-04 Welsoc Co Ltd 自律型防犯警戒システム及び自律型防犯警戒方法
JP2014215747A (ja) * 2013-04-24 2014-11-17 株式会社日立製作所 追跡装置、追跡システム、及び、追跡方法
JP2015139007A (ja) * 2014-01-20 2015-07-30 株式会社竹中工務店 犯罪リスク値導出装置およびプログラム

Also Published As

Publication number Publication date
JP2022008672A (ja) 2022-01-13
US20240071086A1 (en) 2024-02-29
US20210192224A1 (en) 2021-06-24
JP6954420B2 (ja) 2021-10-27
US11494579B2 (en) 2022-11-08
US20240054790A1 (en) 2024-02-15
JPWO2017130902A1 (ja) 2018-11-22
WO2017130902A1 (ja) 2017-08-03
US20240054791A1 (en) 2024-02-15
JP6737290B2 (ja) 2020-08-05

Similar Documents

Publication Publication Date Title
JP6954420B2 (ja) 情報処理装置、情報処理方法、及びプログラム
US10977917B2 (en) Surveillance camera system and surveillance method
US20210406550A1 (en) Information processing apparatus, information processing method, and program
US10599929B2 (en) Event monitoring with object detection systems
US11328163B2 (en) Methods and apparatus for automated surveillance systems
Peng et al. Vehicle safety improvement through deep learning and mobile sensing
EP3497590B1 (en) Distributed video storage and search with edge computing
JP7040463B2 (ja) 解析サーバ、監視システム、監視方法及びプログラム
US7944468B2 (en) Automated asymmetric threat detection using backward tracking and behavioral analysis
RU2714389C1 (ru) Система спасения и способ спасения, и сервер, используемый для системы спасения и способа спасения
CN113011833A (zh) 施工现场的安全管理方法、装置、计算机设备和存储介质
WO2021014464A1 (en) System, multi-utility device and method to monitor vehicles for road saftey
US10586130B2 (en) Method, system and apparatus for providing access to videos
CN112580470A (zh) 城市视觉感知方法、装置、电子设备和存储介质
CN115146878A (zh) 指挥调度方法、系统、车载设备及计算机可读存储介质
Ahmad et al. Comparative study of dashcam-based vehicle incident detection techniques
US20240163402A1 (en) System, apparatus, and method of surveillance
WO2022219848A1 (ja) 制御装置、制御方法、及びプログラム
Yun et al. Research Article A Before-and-After Study of a Collision Risk Detecting and Warning System on Local Roads
CN117542009A (zh) 一种巡逻机器人的识别方法及装置
KR20220107679A (ko) 객체 추적 엣지 컴퓨팅 장치, 그 제어 방법, 및 서버
CN115272951A (zh) 重复报警优化处理方法、装置、计算机设备和存储介质
CN117333805A (zh) 一种摄像机盲点区域分析方法、终端设备及存储介质

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200716

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200716

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210831

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210913

R150 Certificate of patent or registration of utility model

Ref document number: 6954420

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150