JP2014215747A - Tracking device, tracking system, and tracking method - Google Patents
Tracking device, tracking system, and tracking method Download PDFInfo
- Publication number
- JP2014215747A JP2014215747A JP2013091418A JP2013091418A JP2014215747A JP 2014215747 A JP2014215747 A JP 2014215747A JP 2013091418 A JP2013091418 A JP 2013091418A JP 2013091418 A JP2013091418 A JP 2013091418A JP 2014215747 A JP2014215747 A JP 2014215747A
- Authority
- JP
- Japan
- Prior art keywords
- information
- person
- area
- tracking
- image data
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims description 27
- 238000000605 extraction Methods 0.000 claims abstract description 70
- 238000003860 storage Methods 0.000 claims abstract description 41
- 238000012790 confirmation Methods 0.000 claims abstract description 35
- 238000012545 processing Methods 0.000 claims description 16
- 238000013500 data storage Methods 0.000 description 28
- 230000006870 function Effects 0.000 description 11
- 238000010586 diagram Methods 0.000 description 9
- 239000000284 extract Substances 0.000 description 9
- 230000008569 process Effects 0.000 description 8
- 238000004364 calculation method Methods 0.000 description 4
- 238000011835 investigation Methods 0.000 description 4
- 230000000694 effects Effects 0.000 description 2
- 230000009897 systematic effect Effects 0.000 description 2
- 230000006399 behavior Effects 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 230000001419 dependent effect Effects 0.000 description 1
- 238000009826 distribution Methods 0.000 description 1
- 230000001771 impaired effect Effects 0.000 description 1
- 230000010365 information processing Effects 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 230000007246 mechanism Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q50/00—Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
- G06Q50/10—Services
- G06Q50/26—Government or public services
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N7/00—Television systems
- H04N7/18—Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
Landscapes
- Engineering & Computer Science (AREA)
- Business, Economics & Management (AREA)
- Tourism & Hospitality (AREA)
- Multimedia (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Health & Medical Sciences (AREA)
- Human Resources & Organizations (AREA)
- Educational Administration (AREA)
- Signal Processing (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Economics (AREA)
- General Health & Medical Sciences (AREA)
- Development Economics (AREA)
- Marketing (AREA)
- Primary Health Care (AREA)
- Strategic Management (AREA)
- General Business, Economics & Management (AREA)
- Closed-Circuit Television Systems (AREA)
- Management, Administration, Business Operations System, And Electronic Commerce (AREA)
- Image Analysis (AREA)
Abstract
Description
本発明は、追跡装置に関する。 The present invention relates to a tracking device.
指名手配犯に関する情報を処理し、指名手配犯の所在を推測する技術が従来提案されている(例えば、特許文献1及び特許文献2参照)。特許文献1は、エレベータなど、限られた範囲における指名手配犯の認識について開示する。また、特許文献2は、スイッチのオンによって監視カメラが犯罪者を追跡、及び撮影する技術である。 Conventionally, a technique for processing information related to a wanted crime and estimating the location of the wanted crime has been proposed (see, for example, Patent Literature 1 and Patent Literature 2). Patent Document 1 discloses recognition of a wanted crime in a limited range such as an elevator. Patent Document 2 is a technique in which a surveillance camera tracks and photographs a criminal by turning on a switch.
また、既存のシステムには、指名手配している車両ナンバーを認知すると、その逃走可能範囲を計算して緊急配備区域を明示するシステムがある。車両ナンバーの認識というインプット情報のみを基に逃走可能エリアを計算する。 In addition, in the existing system, there is a system that, when recognizing the number of the vehicle that has been appointed, calculates the escapeable range and specifies the emergency deployment area. The escape area is calculated based only on the input information of vehicle number recognition.
現在の指名手配犯の捜査方法では、防犯カメラ及び聞き込み調査等から得た情報を基に、人の判断を通じて、指名手配犯のいる可能性の高い場所を特定する。しかし、この場合、指名手配犯のいる場所を特定するには、人の判断が必須とされ、人によって判断結果が分かれてしまう可能性がある。つまり人によって、特に経験が浅い捜査員による判断には、防犯カメラや聞き込み調査等から得た情報が最適化されて反映されず、必ずしも最適な形で情報が使われているとは限らない。 In the current method of investigating wanted crimes, the location of the likely wanted crime is identified through human judgment based on information obtained from security cameras and interviews. However, in this case, in order to identify the place where the wanted criminal is located, it is necessary to make a judgment of a person, and the judgment result may be divided depending on the person. In other words, information obtained from security cameras, interviews, etc. is not optimized and reflected in judgments made by investigators who are inexperienced by people, and information is not necessarily used in an optimal manner.
この事は、例えば指名手配犯の情報が各所から寄せられていても、その情報の最適化が行われないため、何年にも渡り指名手配犯が検挙されない事態が起こるものと考えられる。また、各種情報の処理において、人の判断を介在させた場合、その処理スピードからリアルタイム性が損なわれる可能性が高い。刻一刻と変化する情報を有効に利用し、指名手配犯の所在を掴む為には、人の判断に依存しないシステム的な情報の処理が必須となる。また、このようなリアルタイム性は、捜査員の人員配置をより効果的に行わせる事に繋がり、検挙率の向上をもたらせるものと考える。 For example, even if information on wanted offenders is received from various places, the information is not optimized, and it is considered that there will be a situation where no wanted offenders are cleared for many years. In addition, when human information is involved in processing various types of information, there is a high possibility that real-time performance will be impaired due to the processing speed. In order to effectively use the information that changes from moment to moment and grasp the whereabouts of the wanted arranger, systematic information processing that is not dependent on human judgment is essential. In addition, such real-time property will lead to more efficient staff assignment of investigators, and will improve the clearance rate.
特許文献1は、指名手配犯を認識するのみであり、指名手配犯の行動を追跡するシステムではない。また、特許文献2は、犯罪者をカメラで追跡、及び撮影する仕組みはあるが、様々な情報から犯罪者の位置を特定するシステムではない。 Patent Document 1 only recognizes a wanted offender and is not a system for tracking the behavior of a wanted offender. Patent Document 2 has a mechanism for tracking and photographing a criminal with a camera, but is not a system for identifying the position of a criminal from various information.
本発明は、防犯カメラ及び聞き込み調査等から得られた指名手配犯に関する情報を最適化し、指名手配犯を追跡するための適切な情報をリアルタイムに出力するシステムの提供である。 The present invention provides a system for optimizing information on a wanted crime obtained from a security camera and a hearing survey and outputting in real time appropriate information for tracking the wanted crime.
本発明の代表的な一形態によると、追跡装置であって、プロセッサ、メモリ及びネットワークインタフェースを備え、複数のカメラが撮影し取得した画像データ、又は、追跡すべき人物に関する対象情報を格納する記憶装置に接続され、前記記憶装置の画像データ又は対象情報から抽出された、人物が撮影又は認識された時刻である情報確認時刻を示す情報と、当該人物が撮影又は認識された場所である情報確認位置を示す情報と、当該人物が追跡すべき人物である可能性を示す確率とを含む抽出情報を、前記ネットワークインタフェースを介して受け付け、前記追跡装置は、前記抽出情報に基づいて、前記人物が移動する可能性がある逃走可能エリアを算出し、前記算出された逃走可能エリアと、前記抽出情報に含まれる確率とに基づいて、前記追跡すべき人物が所在する可能性が高いエリアを特定する。 According to an exemplary embodiment of the present invention, a tracking device, which includes a processor, a memory, and a network interface, stores image data captured and acquired by a plurality of cameras, or object information related to a person to be tracked. Information indicating an information confirmation time that is connected to a device and extracted from image data or target information of the storage device, which is a time when a person is photographed or recognized, and information confirmation that is a place where the person is photographed or recognized Extraction information including information indicating a position and a probability indicating that the person is a person to be tracked is received via the network interface, and the tracking device detects whether the person is based on the extraction information. A possible escape area that may move is calculated, based on the calculated escape area and the probability included in the extracted information The person to be tracked to identify the high areas likely to be located.
本発明の一実施形態によると、人の判断に依存せず、指名手配犯の所在を適切に予測することができる。 According to an embodiment of the present invention, it is possible to appropriately predict the location of the wanted criminal without depending on human judgment.
上記した以外の課題、構成及び効果は、以下の実施形態の説明により明らかにされる。 Problems, configurations, and effects other than those described above will be clarified by the following description of embodiments.
以下、実施例を図面を用いて説明する。 Hereinafter, examples will be described with reference to the drawings.
本発明は、様々な情報をインプット情報として認識して、それらの情報に確率という重みを掛けて総合的に逃走エリアを生成する。また、本発明は、人物を追跡するためのシステムであり、例として、警察による指名手配犯を追跡するためのシステムを以下に示す。しかし、人物を追跡するためのシステムであれば、例えば、警備会社が用いるシステムなど、いかなるシステムでもよい。 The present invention recognizes various pieces of information as input information, and generates a comprehensive escape area by multiplying the information with a weight of probability. Further, the present invention is a system for tracking a person, and as an example, a system for tracking a wanted crime by a police is shown below. However, any system may be used as long as it is a system for tracking a person, such as a system used by a security company.
本発明では指名手配犯の捜査にあたり、防犯カメラや聞き込み調査等の情報を処理する方法を提示する。具体的には、次の方法を用いる事を本発明の特徴として挙げる。 In the present invention, a method for processing information such as a security camera and a hearing investigation is presented for investigation of a wanted crime. Specifically, the following method is used as a feature of the present invention.
1.防犯カメラから得られる情報は、可能な範囲で一元化して集約する。一元化された情報は、別途整備する顔認証装置等を通じて、指名手配されている犯人である可能性(確率)を算出する。 1. Information obtained from security cameras is centralized as much as possible. The centralized information calculates the possibility (probability) of the criminal being nominated through a face authentication device or the like separately provided.
2.聞き込み調査等から得られた情報に基づいて、その情報が示す人物が指名手配犯である確率が捜査員の判断によって算出され、その情報が本発明のシステムにおいて蓄積される。 2. Based on the information obtained from the interview survey or the like, the probability that the person indicated by the information is a wanted crime is calculated by the investigator's judgment, and the information is accumulated in the system of the present invention.
3.「1」及び「2」で得られた情報は、時間、位置、確率というパラメータとセットにして蓄積される。 3. The information obtained in “1” and “2” is accumulated as a set with parameters of time, position, and probability.
4.指名手配犯の逃走可能エリアを特定する方法としては、情報を入手した時刻と現時点の時刻との差異から指名手配犯がいる可能性が高い場所を特定する。 4). As a method for specifying the area where the wanted crime evacuation area can be identified, a place where there is a high possibility that the wanted crime is located is identified from the difference between the time when the information was obtained and the current time.
5.情報源が複数あれば、この情報源ごとの確率が重なり合う地点が出てくることになり、重なりあった場所はより指名手配犯がいる可能性が高い場所として登録される。 5. If there are a plurality of information sources, there will be points where the probabilities of the information sources overlap each other, and the overlapping locations are registered as places where there is a higher possibility that there are wanted criminals.
6.これら場所ごとの確率分布は、時間の経過と共に変化する為、指名手配犯がいる可能性の高い位置をリアルタイムに確認する事ができる。
以上の方法を用いる事によって、課題に挙げた人による判断ミス防止やリアルタイム性を確保する事ができ、より効果的な捜査員の配置を実現できるものと考える。
6). Since the probability distribution for each place changes with the passage of time, it is possible to confirm in real time the location where there is a high possibility of the wanted criminal.
By using the above method, it is possible to prevent misjudgment by a person listed in the problem and to ensure real-time performance, and to realize more effective investigator assignment.
図1は、本実施例の指名手配犯追跡システムを示すブロック図である。 FIG. 1 is a block diagram showing the wanted crime tracking system of the present embodiment.
本実施例の指名手配犯追跡システムは、追跡装置10、情報抽出装置15、キーボード16、ディスプレイ17、複数の防犯カメラ18、ネットワーク19、画像データ記憶装置101、及び、警察情報記憶装置102を有する。指名手配犯追跡システムの各構成は、ネットワーク19を介して接続される。
The wanted crime tracking system of the present embodiment includes a
ネットワーク19は、LAN、又は、イーサネット(登録商標)等のネットワークである。
The
防犯カメラ18は、指名手配犯を含む人物を撮影し、撮影によって取得された画像を含む画像データを画像データ記憶装置101に蓄積する。なお、防犯カメラ18は、画像データに、撮影日時及び撮影場所(防犯カメラ18が設置された場所)の情報を格納する。
The
画像データ記憶装置101は、データを格納する記憶装置である。画像データ記憶装置101は、複数の防犯カメラ18から送信された画像データを格納する。
The image
警察情報記憶装置102は、記憶装置であり、捜査員が聞き込み作業などにより取得した警察情報を格納する。オペレータは、情報抽出装置15を介して警察情報を警察情報記憶装置102に格納してもよい。
The police
図1に示す画像データ記憶装置101及び警察情報記憶装置102は、二つの記憶装置であるが、画像データ及び警察情報が一元管理されれば、一つの記憶装置によって実装されてもよいし、三つ以上の記憶装置によって実装されてもよい。
The image
情報抽出装置15は、オペレータが指名手配犯追跡システムを操作する際に用いられる装置であり、プロセッサ及びメモリを有する計算機である。情報抽出装置15は、例えば、キーボード16及びディスプレイ17に接続される。情報抽出装置15は、オペレータがデータを入力するためのデバイスであれば、いかなるデバイスに接続されてもよく、例えば、タブレット端末と無線によって接続されてもよい。
The
また、本実施例の情報抽出装置15は、画像データを処理する機能を有してもよい。なお、本実施例の指名手配犯追跡システムは情報抽出装置15の他に、画像処理装置を有してもよい。
Further, the
追跡装置10は、画像データ及び警察情報から抽出された情報に基づいて、指名手配犯を追跡するための情報を生成するための装置である。図1に示す追跡装置10及び情報抽出装置15は、二つの異なる計算機によって実装されるが、一つの同じ計算機によって実装されてもよい。具体的には、追跡装置10は、情報抽出装置15の機能に相当する機能部を有してもよい。
The
追跡装置10は、プロセッサ11、メモリ12、NWIF(ネットワークインタフェース)13、及び、記憶装置14を有する。
The
プロセッサ11は、プログラムを実行するための演算装置であり、例えばCPUである。メモリ12は、プログラム及びデータを一時的に展開するための記憶領域である。プロセッサ11は、記憶装置14に格納されたプログラム及びデータをメモリ12に読み出し、プログラムを実行する。
The
NWIF13は、ネットワーク19に接続するためのインタフェースであり、情報抽出装置15から送信されたデータを受信する。NWIF13によって受け付けられたデータは、本実施例において、記憶装置14に格納される。
The
記憶装置14は、ハードディスクドライブ等の記憶装置であり、プログラム及びデータを格納する。記憶装置14は、抽出情報104、逃走可能エリア情報105、及び、指名手配犯追跡マップ106をデータとして有する。また、記憶装置14は、追跡マップ生成部107及び追跡マップ出力部108をプログラムとして有する。
The
抽出情報104は、画像データ及び警察情報に基づいて生成された情報であり、情報抽出装置15を介して追跡装置10に入力される。逃走可能エリア情報105は、逃走エリアを示す情報である。指名手配犯追跡マップ106は、指名手配犯が逃走する確率の高いエリアを示す。
The extracted
追跡マップ生成部107は、指名手配犯が逃走する可能性があるエリア(逃走エリア)を算出し、指名手配犯追跡マップ106を生成する。追跡マップ出力部108は、指名手配犯追跡マップ106を、情報抽出装置15を介してオペレータに出力する。
The tracking
図2は、本実施例の指名手配犯追跡システムによる処理の概要を示す説明図である。 FIG. 2 is an explanatory diagram showing an outline of processing by the wanted crime tracking system of the present embodiment.
画像データ記憶装置101及び警察情報記憶装置102に所定の量の情報が格納された後、所定の周期において、又は、オペレータの指示によって、情報抽出装置15は、図2に示すステップ111の処理を開始する。
After a predetermined amount of information is stored in the image
本実施例の警察情報記憶装置102には、捜査で行われる聞き込み調査により取得された聞き込み調査情報、通報情報、又は、有識者の判断情報等が含まれる。また、警察情報記憶装置102に格納される情報には、指名手配犯の可能性がある人物を目撃した時刻、目撃した場所、目撃した人物の特徴(身長、髪型等)等の情報が含まれる。
The police
なお、本実施例における目撃には、目によって視認すること以外にも、話し声を聞いた、インターネットの交流サイトにおいて指名手配犯と同一人物であると認識されるような書き込みがあった、などの認識。 In addition, in the sightings in this example, in addition to visually observing, there was a writing that heard the voice and was recognized as the same person as the wanted person on the Internet exchange site, etc. recognition.
画像データ記憶装置101に格納される情報には、防犯カメラ18によって撮影された画像、並びに、当該画像が撮影(取得)された時刻及び場所を示す情報が含まれる。
The information stored in the image
なお、以下において、指名手配犯の可能性がある人物が目撃された時刻、及び、画像が撮影された時刻を、情報確認時刻と記載し、目撃された場所、及び、画像が撮影された場所を、情報確認位置と記載する。 In the following, the time at which a person who may be a wanted person is witnessed and the time at which the image was taken are described as the information confirmation time, the place where the person was witnessed, and the place at which the image was taken Is described as an information confirmation position.
情報抽出装置15は、ステップ111において、画像データ記憶装置101及び警察情報記憶装置102から、指名手配犯の可能性がある人物に関する情報を抽出する。例えば、情報抽出装置15は、警察情報記憶装置102から警察情報を、画像データ記憶装置101から画像データを取得し、取得された警察情報及び画像データをディスプレイ17に表示する。そして、情報抽出装置15は、表示された情報の中から、情報確認時刻及び情報確認位置を含む情報を、指名手配犯の可能性がある人物に関する抽出情報104として、オペレータに抽出させてもよい。
In
なお、情報抽出装置15は、オペレータによらずに画像データから抽出情報104を抽出してもよく、その方法は後述する。
The
また、情報抽出装置15は、警察情報記憶装置102及び画像データ記憶装置101から情報確認時刻及び情報確認位置を含む情報を抽出した場合、当該情報から、指名手配犯の可能性がある人物の逃走手段(例えば、車又は徒歩等)を、オペレータに特定させ、抽出情報104に含める。
Further, when the
画像データが速度を測定できる防犯カメラ18によって取得された画像データである場合、情報抽出装置15は、画像データから移動速度を取得できる。このような画像データが画像データ記憶装置101に格納される場合、情報抽出装置15は、オペレータによらず、画像データ記憶装置101から移動速度を抽出し、防犯カメラ18によって取得されたことを示す情報と抽出された移動速度とを抽出情報104に含める。
When the image data is image data acquired by the
そして、情報抽出装置15は、画像データ記憶装置101又は警察情報記憶装置102から抽出された情報に基づいて、抽出された情報の各々に指名手配犯である確率(確からしさ)を定める。そして、定められた確率を抽出情報104に格納する。
Then, the
情報抽出装置15は、画像データ記憶装置101又は警察情報記憶装置102から抽出された情報の各々に、オペレータによって入力された確率を、指名手配犯である確率として定めてもよい。
The
また、情報抽出装置15は、画像データ記憶装置101から抽出された情報の各々に、オペレータによらずに確率を定めてもよい。例えば、情報抽出装置15が、画像データ記憶装置101から抽出された情報に、指名手配犯である確率を定める際、情報抽出装置15に接続される顔認証装置(図示なし)が、画像データと指名手配犯の顔写真との類似度を算出してもよい。そして、情報抽出装置15は、顔認証装置によって算出された類似度に従って、確率を定めてもよい。また、情報抽出装置15は、顔認証装置に相当する顔認証機能を有してもよい。
Further, the
情報確認時刻、情報確認位置、逃走手段又は移動速度等を、抽出情報104に格納した後、情報抽出装置15は、ステップ111において、抽出情報104を追跡装置10に入力する。
After the information confirmation time, the information confirmation position, the escape means, the moving speed, and the like are stored in the
ステップ111の後、追跡装置10の追跡マップ生成部107は、抽出情報104に含まれる情報確認時刻と現在時刻との差と、抽出情報104に含まれる各情報が示す指名手配犯の逃走手段に関する情報(例えば、徒歩だったか、あるいは、乗用車で走行していたか、等)又は移動速度とに基づいて、指名手配犯の逃走可能エリアを算出する。そして、追跡マップ生成部107は、算出された逃走可能エリアを示す逃走可能エリア情報105を、記憶装置14に格納する(112)。
After
追跡マップ生成部107は、ステップ112において指名手配犯の所在に関する情報(逃走可能エリア情報105)を蓄積し、更に、ステップ113において、指名手配犯の所在に関する情報(逃走可能エリア)と、指名手配犯である確からしさ(確率)とをセットとして蓄積する(113)。
The tracking
追跡マップ生成部107は、セットで蓄積された指名手配犯の所在に関する各々の情報に基づいて、新規で指名手配犯追跡マップ106を生成する。または、セットで蓄積された指名手配犯の所在に関する各々の情報に基づいて、既に蓄積されていた情報と複合されて、新たな指名手配犯追跡マップ106を生成する(114)。
The tracking
そして、追跡マップ生成部107は、蓄積した確率に基づいて、指名手配犯追跡マップ106に表示される複数の領域に重みを割り当てる。この重みは、指名手配犯が所在する可能性を示す。この重みによって、本実施例の追跡装置10は、人の手によらず、画像データ及び警察情報から指名手配犯の所在を適切に予測できる。
Then, the tracking
また、本実施例の追跡装置10は、情報抽出装置15から抽出情報104を入力された後、ただちにステップ112〜ステップ114を実行するため、リアルタイムに指名手配犯の所在を予測できる。
In addition, since the
図3は、本実施例の指名手配犯追跡マップ106の生成処理の詳細を示すフローチャートである。
FIG. 3 is a flowchart showing details of the generation process of the wanted
図3に示すステップ201及びステップ202は、図2に示すステップ111における処理である。情報抽出装置15は、ステップ201において、画像データ記憶装置101及び警察情報記憶装置102から、情報確認時刻及び情報確認位置を含む情報を抽出する。そして、情報抽出装置15は、情報が示す人物が指名手配犯である確からしさ(確率)を定める。
Step 201 and step 202 shown in FIG. 3 are processes in
図3に示すステップ203及びステップ204は、図2に示すステップ112における処理である。追跡マップ生成部107は、ステップ203において、情報確認時刻と現在時刻との差を算出する。そして、ステップ204において、算出された差と逃走手段と移動速度と情報確認位置とに基づいて、逃走可能エリアを算出する。
Step 203 and step 204 shown in FIG. 3 are the processes in
そして、追跡マップ生成部107は、逃走可能エリア情報105にステップ202において定められた確率を加味して(113)、指名手配犯追跡マップを完成させる(114)。
Then, the tracking
図4は、本実施例の画像データ記憶装置101から情報を抽出する処理を示す説明図である。
FIG. 4 is an explanatory diagram illustrating processing for extracting information from the image
図4は、図3に示すステップ201及びステップ202が、画像データ記憶装置101に格納される情報に実行される際の処理を示す説明図である。図4に示す処理は、情報抽出装置15が顔認証装置の機能を用いて、指名手配犯である確率を算出する処理を示す。
FIG. 4 is an explanatory diagram showing processing when
複数の防犯カメラ18から画像データ記憶装置101に送信された画像データには、すべて情報確認時刻及び情報確認位置を示すデータが付加される。情報抽出装置15は、画像データ記憶装置101から、人物が撮影された画像データを抽出する(201a)。
Data indicating the information confirmation time and the information confirmation position are all added to the image data transmitted from the plurality of
なお、情報抽出装置15は、オペレータからの指示によって画像データ記憶装置101から画像データを抽出してもよいし、人物が撮影される画像データのすべてを画像データ記憶装置101から抽出してもよい。
Note that the
また、ステップ201aにおいて、情報抽出装置15は、抽出された画像データの情報確認時刻、情報確認位置、及び、逃走手段(移動速度であってもよい)を、抽出情報104に格納する。
In
ステップ201aの後、情報抽出装置15は、あらかじめオペレータ等によって設定されていた指名手配犯を撮影した画像データと、ステップ201aにおいて抽出された画像データとを照合し、類似度等を算出する。ここで、情報抽出装置15は、画像データの照合を顔認証機能に実行させる。そして、情報抽出装置15は、算出された類似度等に従って、指名手配犯である確率を画像データ毎に定める(202a)。
After
例えば、情報抽出装置15は、類似度が60%である場合、指名手配犯である確率も60%に定める。類似度が高ければ、指名手配犯である確率も高い。
For example, when the degree of similarity is 60%, the
そして、情報抽出装置15は、ステップ202aにおいて、定められた確率を抽出情報104に格納する。画像データについて、顔認証機能を用いることによって、本実施例の計算機システムは、人の手によらず指名手配犯の所在を適切に予測できる。
Then, the
図5は、本実施例の抽出情報104を示す説明図である。
FIG. 5 is an explanatory diagram showing the
図5に示す抽出情報104は、情報抽出装置15から追跡装置10へ入力される抽出情報104の一例である。抽出情報104に基づいて、逃走可能エリアが算出される。抽出情報104は、領域1041〜領域1045を含む。
The
領域1041は、画像データ記憶装置101又は警察情報記憶装置102から抽出された情報の各々を識別するための識別子を格納する。抽出情報104の一つのエントリは、画像データ記憶装置101に格納される一つの画像データ、又は、警察情報記憶装置102に格納される一つの警察情報(例えば、一人に対して行われた聞き込み情報)に対応する。
The
領域1042は、逃走手段の種別、及び、逃走する際の移動速度を含む。逃走手段の種別は、指名手配犯の可能性がある人物の逃走手段(交通手段)を示す識別子を含む。なお、移動速度が画像データから取得された場合、逃走手段の種別には、防犯カメラ18によって取得されたことを示す情報として、「防犯カメラ」の文字列等が含まれる。
The
領域1042の移動速度は、領域1042の種別に従ってあらかじめ定められた速度が格納される。防犯カメラ18によって移動速度が取得された場合以外、情報抽出装置15又は追跡装置10の追跡マップ生成部107が、逃走手段の種別に従って、領域1042の移動速度に値を格納する。
As the moving speed of the
例えば、領域1042の種別が「車」である場合、追跡マップ生成部107は、領域1042の移動速度には40km/hを格納する。また、追跡マップ生成部107は、領域1042の種別が「徒歩」である場合、領域1042の移動速度には6km/hを格納する。
For example, when the type of the
逃走手段によって速度を推定することによって、指名手配犯の逃走手段に応じたより正確な逃走可能エリアを算出することができる。 By estimating the speed by the escape means, it is possible to calculate a more accurate escape area according to the escape means of the wanted criminal.
領域1043は、情報確認時刻を含み、領域1044は、情報確認位置を含む。領域1041〜領域1044の値は、図3のステップ201において格納される。
An
領域1045は、ステップ202において定められた指名手配犯である確率を含む。
図6は、本実施例の逃走可能エリア情報105と現在時刻103とを示す説明図である。
FIG. 6 is an explanatory diagram showing the
追跡装置10は、物理的なタイマに基づいて更新される現在時刻103を保持する。現在時刻103は、例えば、1秒ごとに更新され、メモリ12に保持される。
The
逃走可能エリア情報105は、領域1051〜領域1054を含む。領域1051は、領域1041の識別子に対応する。領域1052は、領域1043が示す情報確認時刻と現在時刻103が示す時刻との差の時間を示す。領域1053は、領域1042の移動速度を示す。
The
領域1054は、円の領域として算出される逃走可能エリアの半径を示す。具体的には、領域1052が示す時間と、領域1053が示す移動速度を乗算した結果である。
An
追跡マップ生成部107は、ステップ112において、現在時刻103と抽出情報104との情報に基づいて、逃走可能エリア情報105を生成する。なお、指名手配犯が逃走手段を変更して逃走した場合、追跡マップ生成部107は、必ずしも正確な逃走可能エリアを算出することはできない。
In
しかし、新たに確認された逃走手段を含む情報が速やかに警察情報記憶装置102に格納され、図2に示す処理が、例えば1分毎など定期的に行われることによって、追跡マップ生成部107は、新たな逃走可能エリアを求めることができる。そして、過去に算出された逃走可能エリアとともに指名手配犯追跡マップ106を生成することによって、精度の高い指名手配犯追跡マップ106を生成することができる。
However, information including the newly confirmed escape means is promptly stored in the police
また、オペレータは、情報抽出装置15を介して抽出情報104の領域1042を変更してもよく、これによって、追跡マップ生成部107に、正確な情報に基づく逃走可能エリアを求めさせてもよい。
In addition, the operator may change the
ステップ112において生成された逃走可能エリア情報105が示す、逃走可能エリアを図7に示す。
FIG. 7 shows escape areas indicated by the
図7は、本実施例の逃走可能エリアと、当該逃走可能エリアによって求められる指名手配犯追跡マップ106とを示す説明図である。
FIG. 7 is an explanatory diagram showing an escapeable area and a wanted
図7に示す抽出情報104a、抽出情報104b及び抽出情報104cは、図5の抽出情報104の領域1041が「情報A」であるエントリ、領域1041が「情報B」であるエントリ、及び、領域1041が「情報C」であるエントリに対応する。
The extracted
追跡マップ生成部107は、ステップ112において、抽出情報104a〜104cと、現在時刻103とに基づいて、図7に示すイメージのような円形の移動可能エリアを求める。移動可能エリアの中心は、領域1044が示す情報確認位置であり、移動可能エリアの半径は、領域1054が示す半径である。
In
そして、追跡マップ生成部107は、ステップ113において、求められた移動可能エリアに、領域1045が示す確率を加味する。すなわち、求められた移動可能エリアを、領域1045が示す確率によって重みづけする。
In
そして、追跡マップ生成部107は、ステップ114において、求められた移動可能エリア(重みづけ後)を合わせた指名手配犯追跡マップ106を生成する。図7に示す指名手配犯追跡マップ106は、エリア1〜エリア6を含む。
Then, in
そして、追跡マップ生成部107は、指名手配犯追跡マップ106に含まれる各エリアの重みを算出する。算出された重みが高いエリアを特定することによって、本実施例の追跡マップ生成部107は、指名手配犯が所在する可能性の高いエリアを特定する。そして、これによって、逃走可能エリアから、指名手配犯が所在する可能性の高いエリアを適切に予測できる。
Then, the tracking
図8は、本実施例のエリアの重み109を示す説明図である。
FIG. 8 is an explanatory diagram showing the
エリアの重み109は、追跡マップ生成部107によって生成される情報であり、メモリ12に保持される。
The
エリアの重み109は、領域1091〜領域1093を含む。領域1091は、指名手配犯追跡マップ106に含まれるエリアを識別するための識別子を示す。領域1092は、指名手配犯追跡マップ106のエリアの重みを算出するための計算式を示す。領域1093は、領域1092の計算式の計算結果を示す。
The
本実施例において、追跡マップ生成部107は、各エリアにおいて重複する逃走可能エリアの重みを加算し、当該加算の結果を、すべての逃走可能エリアの重みの合計によって除算する計算式によって、指名手配犯追跡マップ106の各エリアの重みを算出する。算出された計算結果(重み)の値が大きいほど、指名手配犯が所在する可能性が高い。
In the present embodiment, the tracking
本実施例において、最も重みが大きいエリアを、重点警戒エリアと記載する。図8において、エリア4が重点警戒エリアである。 In the present embodiment, the area having the largest weight is described as a priority alert area. In FIG. 8, area 4 is a priority alert area.
追跡マップ出力部108は、エリアの重み109と、図7に示す指名手配犯追跡マップ106とを、情報抽出装置15を介してオペレータに出力してもよい。また、追跡マップ出力部108は、領域1093の値が最も高い重点警戒エリアを、他のエリアとは異なる色によって表示する指名手配犯追跡マップ106を、情報抽出装置15及びディスプレイ17を介して出力してもよい。
The tracking
図8に示すエリアの重み109が生成された場合、追跡マップ出力部108は、エリア4を示すマップ等を、重点警戒エリアを示すマップとして、情報抽出装置15及びディスプレイ17を介して出力する。
When the
なお、人物に関する画像データ又は警察情報が画像データ記憶装置101又は警察情報記憶装置102に新規に格納され、新たに指名手配犯追跡マップ106を生成する場合も、また、画像データ記憶装置101又は警察情報記憶装置102に情報が追加され、既に指名手配犯追跡マップ106が生成されている場合も、本実施例は有効である。つまり、新規で指名手配犯追跡マップ106が生成される場合、先の実施例で示したように、新規の情報に基づいて抽出情報104が生成され、新規な抽出情報104に基づいて指名手配犯追跡マップ106が生成される。
In the case where image data or police information relating to a person is newly stored in the image
また、既に指名手配犯追跡マップ106が生成されていた場合、追跡マップ生成部107は、既に対応する指名手配犯追跡マップ106が生成された抽出情報104と、改めて取得した現在時刻103とを用いて、新たな逃走可能エリアを算出する。これによって、既存の抽出情報104を、現在時刻における情報として認識する事ができる。さらに、追跡マップ生成部107は、これら既存の抽出情報104に新たに受け付けた抽出情報104を追加し、指名手配犯追跡マップ106を生成する。
When the wanted
このように、過去に算出された逃走可能エリアと、新たな逃走可能エリアを算出することによって、より正確に重点計画エリアを特定し、指名手配犯の所在を適切に予測できる。 Thus, by calculating the escape possible area calculated in the past and the new escape possible area, it is possible to more accurately identify the priority plan area and appropriately predict the location of the wanted arranger.
本実施例によれば、警察は、指名手配犯の捜査にあたり、人に依存せず、指名手配犯の所在を的確に予測する事が可能となる。この事は、警察において、次に挙げる効果を期待できる。 According to the present embodiment, the police can accurately predict the location of the wanted criminal without depending on the person in the investigation of the wanted criminal. The following effects can be expected from the police.
1.指名手配犯の所在に関する各種情報の処理方法をシステム的に決定させる事によって、人に依存しない捜索が可能となる。この事は、例えば経験が浅い捜査員による判断ミス等を補う事が可能となる。 1. By making a systematic decision on how to handle various information related to the whereabouts of the wanted criminal, a search that does not depend on people becomes possible. This makes it possible to compensate for mistakes in judgment by investigators with little experience.
2.各種情報をコンピュータ処理させる事によって、人による処理では不可能な、リアルタイム性を持たせる事が可能となる。この事は、リアルタイムに重点警戒区域を認識する事ができ、捜査員の配置を、より効果的に行う事ができる。さらに、捜査員の人員配置をより効果的に行わせる事に繋がり、検挙率の向上をもたらせるものと考える。 2. By making various types of information computer-processed, it becomes possible to have real-time properties that are impossible with human processing. This can recognize the critical alert area in real time, and can arrange the investigators more effectively. Furthermore, it will lead to more effective assignment of investigators, and will improve the clearance rate.
なお、本発明は上記した実施例に限定されるものではなく、様々な変形例が含まれる。例えば、上記した実施例は本発明を分かりやすく説明するために詳細に説明したものであり、必ずしも説明した全ての構成を備えるものに限定されるものではない。 In addition, this invention is not limited to an above-described Example, Various modifications are included. For example, the above-described embodiments have been described in detail for easy understanding of the present invention, and are not necessarily limited to those having all the configurations described.
また、上記の各構成、機能、処理部、処理手段等は、それらの一部又は全部を、例えば集積回路で設計する等によりハードウェアで実現してもよい。また、上記の各構成、機能等は、プロセッサがそれぞれの機能を実現するプログラムを解釈し、実行することによりソフトウェアで実現してもよい。各機能を実現するプログラム、テーブル、ファイル等の情報は、メモリや、ハードディスク、SSD(Solid State Drive)等の記録装置、または、ICカード、SDカード、DVD等の記録媒体に置くことができる。 Each of the above-described configurations, functions, processing units, processing means, and the like may be realized by hardware by designing a part or all of them with, for example, an integrated circuit. Each of the above-described configurations, functions, and the like may be realized by software by interpreting and executing a program that realizes each function by the processor. Information such as programs, tables, and files for realizing each function can be stored in a memory, a hard disk, a recording device such as an SSD (Solid State Drive), or a recording medium such as an IC card, an SD card, or a DVD.
また、制御線や情報線は説明上必要と考えられるものを示しており、製品上必ずしも全ての制御線や情報線を示しているとは限らない。実際には殆ど全ての構成が相互に接続されていると考えてもよい。 Further, the control lines and information lines indicate what is considered necessary for the explanation, and not all the control lines and information lines on the product are necessarily shown. Actually, it may be considered that almost all the components are connected to each other.
10 追跡装置
11 プロセッサ
12 メモリ
13 NWIF(ネットワークインタフェース)
14 記憶装置
15 情報抽出装置
16 キーボード
17 ディスプレイ
18 防犯カメラ
19 ネットワーク
10
14
Claims (10)
プロセッサ、メモリ及びネットワークインタフェースを備え、
複数のカメラが撮影し取得した画像データ、又は、追跡すべき人物に関する対象情報を格納する記憶装置に接続され、
前記記憶装置の画像データ又は対象情報から抽出された、人物が撮影又は認識された時刻である情報確認時刻を示す情報と、当該人物が撮影又は認識された場所である情報確認位置を示す情報と、当該人物が追跡すべき人物である可能性を示す確率とを含む抽出情報を、前記ネットワークインタフェースを介して受け付け、
前記追跡装置は、
前記抽出情報に基づいて、前記人物が移動する可能性がある逃走可能エリアを算出し、
前記算出された逃走可能エリアと、前記抽出情報に含まれる確率とに基づいて、前記追跡すべき人物が所在する可能性が高いエリアを特定することを特徴とする追跡装置。 A tracking device,
With processor, memory and network interface,
Connected to a storage device that stores image data captured and acquired by a plurality of cameras, or target information about a person to be tracked,
Information indicating an information confirmation time, which is a time when a person is photographed or recognized, extracted from image data or target information in the storage device, and information indicating an information confirmation position, which is a place where the person is photographed or recognized. Receiving the extracted information including the probability indicating the possibility that the person is a person to be tracked via the network interface;
The tracking device comprises:
Based on the extracted information, calculate the escape area where the person may move,
A tracking device that identifies an area where the person to be tracked is likely to be located based on the calculated escapeable area and the probability included in the extracted information.
前記抽出情報は、前記人物が用いていた交通手段を示す情報を含み、
前記追跡装置は、
現在時刻を保持し、
前記抽出情報が示す前記情報確認時刻と前記現在時刻との差を算出し、
前記算出された差と、前記抽出情報が示す交通手段及び前記情報確認位置とに基づいて、前記逃走可能エリアを算出することを特徴とする追跡装置。 The tracking device according to claim 1,
The extracted information includes information indicating the means of transportation used by the person,
The tracking device comprises:
Keep the current time,
Calculating the difference between the information confirmation time indicated by the extracted information and the current time;
The tracking device characterized in that the escapeable area is calculated based on the calculated difference, the transportation means indicated by the extracted information, and the information confirmation position.
前記抽出情報を、所定の周期において受け付け、
前記抽出情報を受け付けたタイミングにおいて、前記逃走可能エリアを算出することを特徴とする追跡装置。 The tracking device according to claim 2,
Receiving the extracted information in a predetermined cycle;
The tracking device characterized in that the escape area is calculated at a timing when the extraction information is received.
受け付けた第1の抽出情報を、前記メモリに蓄積し、
第2の抽出情報を受け付けた場合、前記メモリに蓄積された第1の抽出情報と、前記第2の抽出情報とに基づいて、前記逃走可能エリアを算出することを特徴とする追跡装置。 The tracking device according to claim 3,
The received first extraction information is stored in the memory,
A tracking device characterized in that when the second extraction information is received, the escapeable area is calculated based on the first extraction information stored in the memory and the second extraction information.
前記算出された複数の逃走可能エリアのうち、重複する少なくとも二つの逃走可能エリアを抽出し、
前記抽出された重複する逃走可能エリアの各々を移動する可能性がある人物が、前記追跡すべき人物である確率を特定し、
前記逃走可能エリアが重複するエリアに割り当てる重みを、前記特定された確率に基づいて算出し、
前記割り当てられた重みに従って、前記追跡すべき人物が所在する可能性が高いエリアを特定することを特徴とする追跡装置。 The tracking device according to claim 4,
Extracting at least two overlapping escape areas from the plurality of calculated escape areas,
Identifying the probability that a person who may move in each of the extracted overlapping escape areas is the person to be tracked;
Calculating a weight to be assigned to an area where the escapeable areas overlap based on the specified probability;
A tracking device that identifies an area where the person to be tracked is likely to be located according to the assigned weight.
前記追跡システムは、画像処理装置を備え、
前記画像処理装置は、
前記追跡すべき人物を示す犯人画像を保持し、
前記記憶装置の画像データを取得し、
前記取得された画像データと前記犯人画像とを比較することによって、前記画像データが示す人物が追跡すべき人物である可能性を示す確率を算出し、
前記画像データが撮影された時刻を前記情報確認時刻として示す情報と、前記画像データが撮影された場所を前記情報確認位置として示す情報と、前記算出された確率と、を含む情報を、前記抽出情報として前記追跡装置に入力することを特徴とする追跡システム。 A tracking system comprising any of the tracking devices according to claim 1,
The tracking system includes an image processing device,
The image processing apparatus includes:
Holding a criminal image showing the person to be tracked,
Obtaining image data of the storage device;
By comparing the acquired image data and the criminal image, a probability indicating the possibility that the person indicated by the image data is a person to be tracked is calculated,
Extracting information including information indicating the time when the image data was captured as the information confirmation time, information indicating the location where the image data was captured as the information confirmation position, and the calculated probability A tracking system that inputs information to the tracking device.
前記追跡装置は、
プロセッサ、メモリ及びネットワークインタフェースを備え、
複数のカメラが撮影し取得した画像データ、又は、追跡すべき人物に関する対象情報を格納する記憶装置に接続され、
前記方法は、
前記ネットワークインタフェースが、前記記憶装置の画像データ又は対象情報から抽出された、人物が撮影又は認識された時刻である情報確認時刻を示す情報と、当該人物が撮影又は認識された場所である情報確認位置を示す情報と、当該人物が追跡すべき人物である可能性を示す確率とを含む抽出情報を、受け付け、
前記プロセッサが、前記抽出情報に基づいて、前記人物が移動する可能性がある逃走可能エリアを算出し、
前記プロセッサが、前記算出された逃走可能エリアと、前記抽出情報に含まれる確率とに基づいて、前記追跡すべき人物が所在する可能性が高いエリアを特定することを特徴とする追跡方法。 A tracking method by a tracking system comprising a tracking device,
The tracking device comprises:
With processor, memory and network interface,
Connected to a storage device that stores image data captured and acquired by a plurality of cameras, or target information about a person to be tracked,
The method
Information indicating the information confirmation time, which is the time when the person was photographed or recognized, extracted from the image data or target information of the storage device and the information confirmation where the person was photographed or recognized Accepts extracted information including information indicating the position and the probability that the person is likely to be tracked,
The processor calculates an escape area where the person may move based on the extracted information,
The tracking method, wherein the processor specifies an area where the person to be tracked is likely to be located based on the calculated escapeable area and the probability included in the extracted information.
前記抽出情報は、前記人物が用いていた交通手段を示す情報を含み、
前記メモリは、現在時刻を保持し、
前記方法は、
前記プロセッサが、前記抽出情報が示す前記情報確認時刻と前記現在時刻との差を算出し、
前記プロセッサが、前記算出された差と、前記抽出情報が示す交通手段及び前記情報確認位置とに基づいて、前記逃走可能エリアを算出することを特徴とする追跡方法。 The tracking method according to claim 7, comprising:
The extracted information includes information indicating the means of transportation used by the person,
The memory holds the current time,
The method
The processor calculates a difference between the information confirmation time indicated by the extracted information and the current time;
The tracking method, wherein the processor calculates the escapeable area based on the calculated difference, a transportation means indicated by the extracted information, and the information confirmation position.
前記ネットワークインタフェースが、前記抽出情報を、所定の周期において受け付け、
前記プロセッサが、前記抽出情報を受け付けたタイミングにおいて、前記逃走可能エリアを算出することを特徴とする追跡方法。 The tracking method according to claim 8, comprising:
The network interface accepts the extraction information in a predetermined cycle;
A tracking method, wherein the processor calculates the escapeable area at a timing when the extraction information is received.
前記プロセッサが、受け付けた第1の抽出情報を、前記メモリに蓄積し、
前記プロセッサが、第2の抽出情報を受け付けた場合、前記メモリに蓄積された第1の抽出情報と、前記第2の抽出情報とに基づいて、前記逃走可能エリアを算出することを特徴とする追跡方法。 The tracking method according to claim 9, comprising:
The processor stores the received first extraction information in the memory,
When the processor receives the second extraction information, the processor calculates the escapeable area based on the first extraction information stored in the memory and the second extraction information. Tracking method.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2013091418A JP2014215747A (en) | 2013-04-24 | 2013-04-24 | Tracking device, tracking system, and tracking method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2013091418A JP2014215747A (en) | 2013-04-24 | 2013-04-24 | Tracking device, tracking system, and tracking method |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2014215747A true JP2014215747A (en) | 2014-11-17 |
Family
ID=51941472
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2013091418A Pending JP2014215747A (en) | 2013-04-24 | 2013-04-24 | Tracking device, tracking system, and tracking method |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2014215747A (en) |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2017130902A1 (en) * | 2016-01-29 | 2017-08-03 | 日本電気株式会社 | Information processing device, information processing method, and program |
EP3236366A1 (en) | 2016-04-19 | 2017-10-25 | Canon Kabushiki Kaisha | Information processing apparatus, information processing method, and storage medium |
CN108600292A (en) * | 2018-02-13 | 2018-09-28 | 北京明朝万达科技股份有限公司 | A kind of police moving map system and application method based on Internet resources |
US10997422B2 (en) | 2016-01-29 | 2021-05-04 | Nec Corporation | Information processing apparatus, information processing method, and program |
-
2013
- 2013-04-24 JP JP2013091418A patent/JP2014215747A/en active Pending
Cited By (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2017130902A1 (en) * | 2016-01-29 | 2017-08-03 | 日本電気株式会社 | Information processing device, information processing method, and program |
JPWO2017130902A1 (en) * | 2016-01-29 | 2018-11-22 | 日本電気株式会社 | Information processing apparatus, information processing method, and program |
JP2020187781A (en) * | 2016-01-29 | 2020-11-19 | 日本電気株式会社 | Information processing apparatus, information processing method, and program |
US10997422B2 (en) | 2016-01-29 | 2021-05-04 | Nec Corporation | Information processing apparatus, information processing method, and program |
US11494579B2 (en) | 2016-01-29 | 2022-11-08 | Nec Corporation | Information processing apparatus, information processing method, and program |
EP3236366A1 (en) | 2016-04-19 | 2017-10-25 | Canon Kabushiki Kaisha | Information processing apparatus, information processing method, and storage medium |
US10664523B2 (en) | 2016-04-19 | 2020-05-26 | Canon Kabushiki Kaisha | Information processing apparatus, information processing method, and storage medium |
CN108600292A (en) * | 2018-02-13 | 2018-09-28 | 北京明朝万达科技股份有限公司 | A kind of police moving map system and application method based on Internet resources |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109743541B (en) | Intelligent monitoring method and device, computer equipment and storage medium | |
JP6814673B2 (en) | Movement route prediction device and movement route prediction method | |
CN109583278B (en) | Face recognition alarm method, device and system and computer equipment | |
JP7040463B2 (en) | Analysis server, monitoring system, monitoring method and program | |
US20180293552A1 (en) | Image-based vehicle maintenance plan | |
JP6406241B2 (en) | Information processing system, information processing method, and program | |
CN109766755B (en) | Face recognition method and related product | |
US8971577B2 (en) | Monitoring device, reliability calculation program, and reliability calculation method | |
JP6729793B2 (en) | Information processing apparatus, control method, and program | |
JP2020107354A (en) | Analysis device, analysis method, and program | |
JP2021132267A (en) | Video monitoring system and video monitoring method | |
KR102129771B1 (en) | Cctv management system apparatus that recognizes behavior of subject of shooting in video from video taken through cctv camera and operating method thereof | |
JP2014215747A (en) | Tracking device, tracking system, and tracking method | |
JP2020052822A (en) | Information processing apparatus, authentication system, control method thereof, and program | |
JP2022117996A (en) | Information processing device, data generation method, and program | |
JP7371595B2 (en) | Apparatus, system, method and program | |
JP7070665B2 (en) | Information processing equipment, control methods, and programs | |
EP3770855A1 (en) | Information processing device, person search system, place estimation method, and non-temporary computer-readable medium in which program is stored | |
JP2012010121A (en) | Behavior monitoring system, behavior monitoring program and behavior monitoring method | |
CN109508703A (en) | A kind of face in video determines method and device | |
JP7285536B2 (en) | Classifier generation device, target person estimation device and their programs, and target person estimation system | |
US20240233513A9 (en) | Rescue support apparatus, system and method, and computer readable medium | |
JP7327571B2 (en) | Information processing system, terminal device, authentication target management method, and program | |
WO2023084814A1 (en) | Communication system, server, communication method, and communication program | |
JP5849762B2 (en) | Prediction information presentation system, prediction information presentation device, prediction information presentation method, and prediction information presentation program |