JP2014215747A - Tracking device, tracking system, and tracking method - Google Patents

Tracking device, tracking system, and tracking method Download PDF

Info

Publication number
JP2014215747A
JP2014215747A JP2013091418A JP2013091418A JP2014215747A JP 2014215747 A JP2014215747 A JP 2014215747A JP 2013091418 A JP2013091418 A JP 2013091418A JP 2013091418 A JP2013091418 A JP 2013091418A JP 2014215747 A JP2014215747 A JP 2014215747A
Authority
JP
Japan
Prior art keywords
information
person
area
tracking
image data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2013091418A
Other languages
Japanese (ja)
Inventor
哲也 刀根
Tetsuya Tone
哲也 刀根
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Ltd
Original Assignee
Hitachi Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Ltd filed Critical Hitachi Ltd
Priority to JP2013091418A priority Critical patent/JP2014215747A/en
Publication of JP2014215747A publication Critical patent/JP2014215747A/en
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
    • G06Q50/10Services
    • G06Q50/26Government or public services
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast

Landscapes

  • Engineering & Computer Science (AREA)
  • Business, Economics & Management (AREA)
  • Tourism & Hospitality (AREA)
  • Multimedia (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Human Resources & Organizations (AREA)
  • Educational Administration (AREA)
  • Signal Processing (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Economics (AREA)
  • General Health & Medical Sciences (AREA)
  • Development Economics (AREA)
  • Marketing (AREA)
  • Primary Health Care (AREA)
  • Strategic Management (AREA)
  • General Business, Economics & Management (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)
  • Image Analysis (AREA)

Abstract

PROBLEM TO BE SOLVED: To properly predict whereabouts of a person wanted without relying on human determination.SOLUTION: A tracking device including a processor, a memory, and a network interface is connected to a storage device for storing image data imaged by a plurality of cameras or object information relating to a person to be tracked, and receives extraction information including: information showing an information confirmation time which is a time when a person extracted from image data or object information of the storage device is imaged or recognized; information showing information confirmation location which is a place where the person concerned is imaged or recognized; and a probability showing a possibility that the person concerned is a person to be tracked via the network interface. The tracking device calculates an escapable area to which the person concerned may move based on the extraction information and specifies an area having a high probability that whereabouts of the person to be tracked exist based on the calculated escapable area and the probability included in the extraction information.

Description

本発明は、追跡装置に関する。   The present invention relates to a tracking device.

指名手配犯に関する情報を処理し、指名手配犯の所在を推測する技術が従来提案されている(例えば、特許文献1及び特許文献2参照)。特許文献1は、エレベータなど、限られた範囲における指名手配犯の認識について開示する。また、特許文献2は、スイッチのオンによって監視カメラが犯罪者を追跡、及び撮影する技術である。   Conventionally, a technique for processing information related to a wanted crime and estimating the location of the wanted crime has been proposed (see, for example, Patent Literature 1 and Patent Literature 2). Patent Document 1 discloses recognition of a wanted crime in a limited range such as an elevator. Patent Document 2 is a technique in which a surveillance camera tracks and photographs a criminal by turning on a switch.

また、既存のシステムには、指名手配している車両ナンバーを認知すると、その逃走可能範囲を計算して緊急配備区域を明示するシステムがある。車両ナンバーの認識というインプット情報のみを基に逃走可能エリアを計算する。   In addition, in the existing system, there is a system that, when recognizing the number of the vehicle that has been appointed, calculates the escapeable range and specifies the emergency deployment area. The escape area is calculated based only on the input information of vehicle number recognition.

国際公開第2009/090724号International Publication No. 2009/090724 特開2003−288654号公報JP 2003-288654 A

現在の指名手配犯の捜査方法では、防犯カメラ及び聞き込み調査等から得た情報を基に、人の判断を通じて、指名手配犯のいる可能性の高い場所を特定する。しかし、この場合、指名手配犯のいる場所を特定するには、人の判断が必須とされ、人によって判断結果が分かれてしまう可能性がある。つまり人によって、特に経験が浅い捜査員による判断には、防犯カメラや聞き込み調査等から得た情報が最適化されて反映されず、必ずしも最適な形で情報が使われているとは限らない。   In the current method of investigating wanted crimes, the location of the likely wanted crime is identified through human judgment based on information obtained from security cameras and interviews. However, in this case, in order to identify the place where the wanted criminal is located, it is necessary to make a judgment of a person, and the judgment result may be divided depending on the person. In other words, information obtained from security cameras, interviews, etc. is not optimized and reflected in judgments made by investigators who are inexperienced by people, and information is not necessarily used in an optimal manner.

この事は、例えば指名手配犯の情報が各所から寄せられていても、その情報の最適化が行われないため、何年にも渡り指名手配犯が検挙されない事態が起こるものと考えられる。また、各種情報の処理において、人の判断を介在させた場合、その処理スピードからリアルタイム性が損なわれる可能性が高い。刻一刻と変化する情報を有効に利用し、指名手配犯の所在を掴む為には、人の判断に依存しないシステム的な情報の処理が必須となる。また、このようなリアルタイム性は、捜査員の人員配置をより効果的に行わせる事に繋がり、検挙率の向上をもたらせるものと考える。   For example, even if information on wanted offenders is received from various places, the information is not optimized, and it is considered that there will be a situation where no wanted offenders are cleared for many years. In addition, when human information is involved in processing various types of information, there is a high possibility that real-time performance will be impaired due to the processing speed. In order to effectively use the information that changes from moment to moment and grasp the whereabouts of the wanted arranger, systematic information processing that is not dependent on human judgment is essential. In addition, such real-time property will lead to more efficient staff assignment of investigators, and will improve the clearance rate.

特許文献1は、指名手配犯を認識するのみであり、指名手配犯の行動を追跡するシステムではない。また、特許文献2は、犯罪者をカメラで追跡、及び撮影する仕組みはあるが、様々な情報から犯罪者の位置を特定するシステムではない。   Patent Document 1 only recognizes a wanted offender and is not a system for tracking the behavior of a wanted offender. Patent Document 2 has a mechanism for tracking and photographing a criminal with a camera, but is not a system for identifying the position of a criminal from various information.

本発明は、防犯カメラ及び聞き込み調査等から得られた指名手配犯に関する情報を最適化し、指名手配犯を追跡するための適切な情報をリアルタイムに出力するシステムの提供である。   The present invention provides a system for optimizing information on a wanted crime obtained from a security camera and a hearing survey and outputting in real time appropriate information for tracking the wanted crime.

本発明の代表的な一形態によると、追跡装置であって、プロセッサ、メモリ及びネットワークインタフェースを備え、複数のカメラが撮影し取得した画像データ、又は、追跡すべき人物に関する対象情報を格納する記憶装置に接続され、前記記憶装置の画像データ又は対象情報から抽出された、人物が撮影又は認識された時刻である情報確認時刻を示す情報と、当該人物が撮影又は認識された場所である情報確認位置を示す情報と、当該人物が追跡すべき人物である可能性を示す確率とを含む抽出情報を、前記ネットワークインタフェースを介して受け付け、前記追跡装置は、前記抽出情報に基づいて、前記人物が移動する可能性がある逃走可能エリアを算出し、前記算出された逃走可能エリアと、前記抽出情報に含まれる確率とに基づいて、前記追跡すべき人物が所在する可能性が高いエリアを特定する。   According to an exemplary embodiment of the present invention, a tracking device, which includes a processor, a memory, and a network interface, stores image data captured and acquired by a plurality of cameras, or object information related to a person to be tracked. Information indicating an information confirmation time that is connected to a device and extracted from image data or target information of the storage device, which is a time when a person is photographed or recognized, and information confirmation that is a place where the person is photographed or recognized Extraction information including information indicating a position and a probability indicating that the person is a person to be tracked is received via the network interface, and the tracking device detects whether the person is based on the extraction information. A possible escape area that may move is calculated, based on the calculated escape area and the probability included in the extracted information The person to be tracked to identify the high areas likely to be located.

本発明の一実施形態によると、人の判断に依存せず、指名手配犯の所在を適切に予測することができる。   According to an embodiment of the present invention, it is possible to appropriately predict the location of the wanted criminal without depending on human judgment.

上記した以外の課題、構成及び効果は、以下の実施形態の説明により明らかにされる。   Problems, configurations, and effects other than those described above will be clarified by the following description of embodiments.

本実施例の指名手配犯追跡システムを示すブロック図である。It is a block diagram which shows the wanted criminal pursuit system of a present Example. 本実施例の指名手配犯追跡システムによる処理の概要を示す説明図である。It is explanatory drawing which shows the outline | summary of the process by the wanted crime tracking system of a present Example. 本実施例の指名手配犯追跡マップの生成処理の詳細を示すフローチャートである。It is a flowchart which shows the detail of the production | generation process of the wanted criminal pursuit map of a present Example. 本実施例の画像データ記憶装置から情報を抽出する処理を示す説明図である。It is explanatory drawing which shows the process which extracts information from the image data storage device of a present Example. 本実施例の抽出情報を示す説明図である。It is explanatory drawing which shows the extraction information of a present Example. 本実施例の逃走可能エリア情報と現在時刻とを示す説明図である。It is explanatory drawing which shows escape area information and a present time of a present Example. 本実施例の逃走可能エリアと、逃走可能エリアによって求められる指名手配犯追跡マップとを示す説明図である。It is explanatory drawing which shows the escape possible area of a present Example, and the wanted crime pursuit tracking map calculated | required by the escape possible area. 本実施例のエリアの重みを示す説明図である。It is explanatory drawing which shows the weight of the area of a present Example.

以下、実施例を図面を用いて説明する。   Hereinafter, examples will be described with reference to the drawings.

本発明は、様々な情報をインプット情報として認識して、それらの情報に確率という重みを掛けて総合的に逃走エリアを生成する。また、本発明は、人物を追跡するためのシステムであり、例として、警察による指名手配犯を追跡するためのシステムを以下に示す。しかし、人物を追跡するためのシステムであれば、例えば、警備会社が用いるシステムなど、いかなるシステムでもよい。   The present invention recognizes various pieces of information as input information, and generates a comprehensive escape area by multiplying the information with a weight of probability. Further, the present invention is a system for tracking a person, and as an example, a system for tracking a wanted crime by a police is shown below. However, any system may be used as long as it is a system for tracking a person, such as a system used by a security company.

本発明では指名手配犯の捜査にあたり、防犯カメラや聞き込み調査等の情報を処理する方法を提示する。具体的には、次の方法を用いる事を本発明の特徴として挙げる。   In the present invention, a method for processing information such as a security camera and a hearing investigation is presented for investigation of a wanted crime. Specifically, the following method is used as a feature of the present invention.

1.防犯カメラから得られる情報は、可能な範囲で一元化して集約する。一元化された情報は、別途整備する顔認証装置等を通じて、指名手配されている犯人である可能性(確率)を算出する。   1. Information obtained from security cameras is centralized as much as possible. The centralized information calculates the possibility (probability) of the criminal being nominated through a face authentication device or the like separately provided.

2.聞き込み調査等から得られた情報に基づいて、その情報が示す人物が指名手配犯である確率が捜査員の判断によって算出され、その情報が本発明のシステムにおいて蓄積される。   2. Based on the information obtained from the interview survey or the like, the probability that the person indicated by the information is a wanted crime is calculated by the investigator's judgment, and the information is accumulated in the system of the present invention.

3.「1」及び「2」で得られた情報は、時間、位置、確率というパラメータとセットにして蓄積される。   3. The information obtained in “1” and “2” is accumulated as a set with parameters of time, position, and probability.

4.指名手配犯の逃走可能エリアを特定する方法としては、情報を入手した時刻と現時点の時刻との差異から指名手配犯がいる可能性が高い場所を特定する。   4). As a method for specifying the area where the wanted crime evacuation area can be identified, a place where there is a high possibility that the wanted crime is located is identified from the difference between the time when the information was obtained and the current time.

5.情報源が複数あれば、この情報源ごとの確率が重なり合う地点が出てくることになり、重なりあった場所はより指名手配犯がいる可能性が高い場所として登録される。   5. If there are a plurality of information sources, there will be points where the probabilities of the information sources overlap each other, and the overlapping locations are registered as places where there is a higher possibility that there are wanted criminals.

6.これら場所ごとの確率分布は、時間の経過と共に変化する為、指名手配犯がいる可能性の高い位置をリアルタイムに確認する事ができる。
以上の方法を用いる事によって、課題に挙げた人による判断ミス防止やリアルタイム性を確保する事ができ、より効果的な捜査員の配置を実現できるものと考える。
6). Since the probability distribution for each place changes with the passage of time, it is possible to confirm in real time the location where there is a high possibility of the wanted criminal.
By using the above method, it is possible to prevent misjudgment by a person listed in the problem and to ensure real-time performance, and to realize more effective investigator assignment.

図1は、本実施例の指名手配犯追跡システムを示すブロック図である。   FIG. 1 is a block diagram showing the wanted crime tracking system of the present embodiment.

本実施例の指名手配犯追跡システムは、追跡装置10、情報抽出装置15、キーボード16、ディスプレイ17、複数の防犯カメラ18、ネットワーク19、画像データ記憶装置101、及び、警察情報記憶装置102を有する。指名手配犯追跡システムの各構成は、ネットワーク19を介して接続される。   The wanted crime tracking system of the present embodiment includes a tracking device 10, an information extraction device 15, a keyboard 16, a display 17, a plurality of security cameras 18, a network 19, an image data storage device 101, and a police information storage device 102. . Each component of the wanted crime tracking system is connected via the network 19.

ネットワーク19は、LAN、又は、イーサネット(登録商標)等のネットワークである。   The network 19 is a network such as a LAN or Ethernet (registered trademark).

防犯カメラ18は、指名手配犯を含む人物を撮影し、撮影によって取得された画像を含む画像データを画像データ記憶装置101に蓄積する。なお、防犯カメラ18は、画像データに、撮影日時及び撮影場所(防犯カメラ18が設置された場所)の情報を格納する。   The security camera 18 photographs a person including a wanted crime and accumulates image data including an image acquired by photographing in the image data storage device 101. The security camera 18 stores information on the shooting date and time and the shooting location (location where the security camera 18 is installed) in the image data.

画像データ記憶装置101は、データを格納する記憶装置である。画像データ記憶装置101は、複数の防犯カメラ18から送信された画像データを格納する。   The image data storage device 101 is a storage device that stores data. The image data storage device 101 stores image data transmitted from a plurality of security cameras 18.

警察情報記憶装置102は、記憶装置であり、捜査員が聞き込み作業などにより取得した警察情報を格納する。オペレータは、情報抽出装置15を介して警察情報を警察情報記憶装置102に格納してもよい。   The police information storage device 102 is a storage device, and stores police information acquired by the investigator through listening work or the like. The operator may store police information in the police information storage device 102 via the information extraction device 15.

図1に示す画像データ記憶装置101及び警察情報記憶装置102は、二つの記憶装置であるが、画像データ及び警察情報が一元管理されれば、一つの記憶装置によって実装されてもよいし、三つ以上の記憶装置によって実装されてもよい。   The image data storage device 101 and the police information storage device 102 shown in FIG. 1 are two storage devices. However, if the image data and the police information are managed centrally, they may be implemented by one storage device. It may be implemented by more than one storage device.

情報抽出装置15は、オペレータが指名手配犯追跡システムを操作する際に用いられる装置であり、プロセッサ及びメモリを有する計算機である。情報抽出装置15は、例えば、キーボード16及びディスプレイ17に接続される。情報抽出装置15は、オペレータがデータを入力するためのデバイスであれば、いかなるデバイスに接続されてもよく、例えば、タブレット端末と無線によって接続されてもよい。   The information extraction device 15 is a device used when an operator operates the wanted crime tracking system, and is a computer having a processor and a memory. The information extraction device 15 is connected to, for example, a keyboard 16 and a display 17. The information extraction device 15 may be connected to any device as long as it is a device for an operator to input data. For example, the information extraction device 15 may be connected to a tablet terminal wirelessly.

また、本実施例の情報抽出装置15は、画像データを処理する機能を有してもよい。なお、本実施例の指名手配犯追跡システムは情報抽出装置15の他に、画像処理装置を有してもよい。   Further, the information extraction device 15 of the present embodiment may have a function of processing image data. The wanted crime tracking system according to the present embodiment may include an image processing device in addition to the information extraction device 15.

追跡装置10は、画像データ及び警察情報から抽出された情報に基づいて、指名手配犯を追跡するための情報を生成するための装置である。図1に示す追跡装置10及び情報抽出装置15は、二つの異なる計算機によって実装されるが、一つの同じ計算機によって実装されてもよい。具体的には、追跡装置10は、情報抽出装置15の機能に相当する機能部を有してもよい。   The tracking device 10 is a device for generating information for tracking a wanted criminal based on information extracted from image data and police information. The tracking device 10 and the information extraction device 15 illustrated in FIG. 1 are implemented by two different computers, but may be implemented by one and the same computer. Specifically, the tracking device 10 may have a function unit corresponding to the function of the information extraction device 15.

追跡装置10は、プロセッサ11、メモリ12、NWIF(ネットワークインタフェース)13、及び、記憶装置14を有する。   The tracking device 10 includes a processor 11, a memory 12, an NWIF (network interface) 13, and a storage device 14.

プロセッサ11は、プログラムを実行するための演算装置であり、例えばCPUである。メモリ12は、プログラム及びデータを一時的に展開するための記憶領域である。プロセッサ11は、記憶装置14に格納されたプログラム及びデータをメモリ12に読み出し、プログラムを実行する。   The processor 11 is an arithmetic device for executing a program, for example, a CPU. The memory 12 is a storage area for temporarily expanding programs and data. The processor 11 reads the program and data stored in the storage device 14 into the memory 12 and executes the program.

NWIF13は、ネットワーク19に接続するためのインタフェースであり、情報抽出装置15から送信されたデータを受信する。NWIF13によって受け付けられたデータは、本実施例において、記憶装置14に格納される。   The NWIF 13 is an interface for connecting to the network 19 and receives data transmitted from the information extraction device 15. The data received by the NWIF 13 is stored in the storage device 14 in this embodiment.

記憶装置14は、ハードディスクドライブ等の記憶装置であり、プログラム及びデータを格納する。記憶装置14は、抽出情報104、逃走可能エリア情報105、及び、指名手配犯追跡マップ106をデータとして有する。また、記憶装置14は、追跡マップ生成部107及び追跡マップ出力部108をプログラムとして有する。   The storage device 14 is a storage device such as a hard disk drive, and stores programs and data. The storage device 14 has extracted information 104, escape area information 105, and a wanted crime tracking map 106 as data. In addition, the storage device 14 includes a tracking map generation unit 107 and a tracking map output unit 108 as programs.

抽出情報104は、画像データ及び警察情報に基づいて生成された情報であり、情報抽出装置15を介して追跡装置10に入力される。逃走可能エリア情報105は、逃走エリアを示す情報である。指名手配犯追跡マップ106は、指名手配犯が逃走する確率の高いエリアを示す。   The extracted information 104 is information generated based on image data and police information, and is input to the tracking device 10 via the information extracting device 15. The escape area information 105 is information indicating an escape area. The wanted criminal pursuit tracking map 106 shows an area where the wanted criminal is likely to escape.

追跡マップ生成部107は、指名手配犯が逃走する可能性があるエリア(逃走エリア)を算出し、指名手配犯追跡マップ106を生成する。追跡マップ出力部108は、指名手配犯追跡マップ106を、情報抽出装置15を介してオペレータに出力する。   The tracking map generation unit 107 calculates an area (fleeing area) where a wanted criminal may escape, and generates a wanted criminal tracking map 106. The tracking map output unit 108 outputs the wanted criminal tracking map 106 to the operator via the information extraction device 15.

図2は、本実施例の指名手配犯追跡システムによる処理の概要を示す説明図である。   FIG. 2 is an explanatory diagram showing an outline of processing by the wanted crime tracking system of the present embodiment.

画像データ記憶装置101及び警察情報記憶装置102に所定の量の情報が格納された後、所定の周期において、又は、オペレータの指示によって、情報抽出装置15は、図2に示すステップ111の処理を開始する。   After a predetermined amount of information is stored in the image data storage device 101 and the police information storage device 102, the information extraction device 15 performs the processing of step 111 shown in FIG. 2 in a predetermined cycle or by an operator's instruction. Start.

本実施例の警察情報記憶装置102には、捜査で行われる聞き込み調査により取得された聞き込み調査情報、通報情報、又は、有識者の判断情報等が含まれる。また、警察情報記憶装置102に格納される情報には、指名手配犯の可能性がある人物を目撃した時刻、目撃した場所、目撃した人物の特徴(身長、髪型等)等の情報が含まれる。   The police information storage device 102 according to the present embodiment includes interview survey information, report information, or judgment information of a knowledgeable person acquired by a hearing survey performed in an investigation. The information stored in the police information storage device 102 includes information such as the time of witnessing a person who may be a wanted person, the location of the witness, and the characteristics (height, hairstyle, etc.) of the witnessed person. .

なお、本実施例における目撃には、目によって視認すること以外にも、話し声を聞いた、インターネットの交流サイトにおいて指名手配犯と同一人物であると認識されるような書き込みがあった、などの認識。   In addition, in the sightings in this example, in addition to visually observing, there was a writing that heard the voice and was recognized as the same person as the wanted person on the Internet exchange site, etc. recognition.

画像データ記憶装置101に格納される情報には、防犯カメラ18によって撮影された画像、並びに、当該画像が撮影(取得)された時刻及び場所を示す情報が含まれる。   The information stored in the image data storage device 101 includes an image captured by the security camera 18 and information indicating the time and place when the image was captured (acquired).

なお、以下において、指名手配犯の可能性がある人物が目撃された時刻、及び、画像が撮影された時刻を、情報確認時刻と記載し、目撃された場所、及び、画像が撮影された場所を、情報確認位置と記載する。   In the following, the time at which a person who may be a wanted person is witnessed and the time at which the image was taken are described as the information confirmation time, the place where the person was witnessed, and the place at which the image was taken Is described as an information confirmation position.

情報抽出装置15は、ステップ111において、画像データ記憶装置101及び警察情報記憶装置102から、指名手配犯の可能性がある人物に関する情報を抽出する。例えば、情報抽出装置15は、警察情報記憶装置102から警察情報を、画像データ記憶装置101から画像データを取得し、取得された警察情報及び画像データをディスプレイ17に表示する。そして、情報抽出装置15は、表示された情報の中から、情報確認時刻及び情報確認位置を含む情報を、指名手配犯の可能性がある人物に関する抽出情報104として、オペレータに抽出させてもよい。   In step 111, the information extraction device 15 extracts information related to a person who may be a wanted person from the image data storage device 101 and the police information storage device 102. For example, the information extraction device 15 acquires police information from the police information storage device 102 and image data from the image data storage device 101, and displays the acquired police information and image data on the display 17. Then, the information extraction device 15 may cause the operator to extract, from the displayed information, information including the information confirmation time and the information confirmation position as the extraction information 104 related to the person who may be the wanted arranger. .

なお、情報抽出装置15は、オペレータによらずに画像データから抽出情報104を抽出してもよく、その方法は後述する。   The information extracting device 15 may extract the extracted information 104 from the image data without depending on the operator, and the method will be described later.

また、情報抽出装置15は、警察情報記憶装置102及び画像データ記憶装置101から情報確認時刻及び情報確認位置を含む情報を抽出した場合、当該情報から、指名手配犯の可能性がある人物の逃走手段(例えば、車又は徒歩等)を、オペレータに特定させ、抽出情報104に含める。   Further, when the information extraction device 15 extracts information including the information confirmation time and the information confirmation position from the police information storage device 102 and the image data storage device 101, the information extraction device 15 escapes a person who may be a wanted person. Means (for example, a car or a walk) are specified by the operator and included in the extracted information 104.

画像データが速度を測定できる防犯カメラ18によって取得された画像データである場合、情報抽出装置15は、画像データから移動速度を取得できる。このような画像データが画像データ記憶装置101に格納される場合、情報抽出装置15は、オペレータによらず、画像データ記憶装置101から移動速度を抽出し、防犯カメラ18によって取得されたことを示す情報と抽出された移動速度とを抽出情報104に含める。   When the image data is image data acquired by the security camera 18 capable of measuring the speed, the information extracting device 15 can acquire the moving speed from the image data. When such image data is stored in the image data storage device 101, the information extraction device 15 extracts the movement speed from the image data storage device 101 without depending on the operator, and indicates that the information is acquired by the security camera 18. The extracted information 104 includes the information and the extracted moving speed.

そして、情報抽出装置15は、画像データ記憶装置101又は警察情報記憶装置102から抽出された情報に基づいて、抽出された情報の各々に指名手配犯である確率(確からしさ)を定める。そして、定められた確率を抽出情報104に格納する。   Then, the information extraction device 15 determines the probability (probability) of being a wanted person for each of the extracted information based on the information extracted from the image data storage device 101 or the police information storage device 102. Then, the determined probability is stored in the extraction information 104.

情報抽出装置15は、画像データ記憶装置101又は警察情報記憶装置102から抽出された情報の各々に、オペレータによって入力された確率を、指名手配犯である確率として定めてもよい。   The information extraction device 15 may determine the probability that the operator has input the information extracted from the image data storage device 101 or the police information storage device 102 as the probability of being a wanted person.

また、情報抽出装置15は、画像データ記憶装置101から抽出された情報の各々に、オペレータによらずに確率を定めてもよい。例えば、情報抽出装置15が、画像データ記憶装置101から抽出された情報に、指名手配犯である確率を定める際、情報抽出装置15に接続される顔認証装置(図示なし)が、画像データと指名手配犯の顔写真との類似度を算出してもよい。そして、情報抽出装置15は、顔認証装置によって算出された類似度に従って、確率を定めてもよい。また、情報抽出装置15は、顔認証装置に相当する顔認証機能を有してもよい。   Further, the information extraction device 15 may determine the probability for each piece of information extracted from the image data storage device 101 without depending on the operator. For example, when the information extraction device 15 determines the probability of being a wanted person in the information extracted from the image data storage device 101, a face authentication device (not shown) connected to the information extraction device 15 You may calculate the similarity with the face photograph of a wanted criminal. Then, the information extraction device 15 may determine the probability according to the similarity calculated by the face authentication device. In addition, the information extraction device 15 may have a face authentication function corresponding to a face authentication device.

情報確認時刻、情報確認位置、逃走手段又は移動速度等を、抽出情報104に格納した後、情報抽出装置15は、ステップ111において、抽出情報104を追跡装置10に入力する。   After the information confirmation time, the information confirmation position, the escape means, the moving speed, and the like are stored in the extraction information 104, the information extraction device 15 inputs the extraction information 104 to the tracking device 10 in step 111.

ステップ111の後、追跡装置10の追跡マップ生成部107は、抽出情報104に含まれる情報確認時刻と現在時刻との差と、抽出情報104に含まれる各情報が示す指名手配犯の逃走手段に関する情報(例えば、徒歩だったか、あるいは、乗用車で走行していたか、等)又は移動速度とに基づいて、指名手配犯の逃走可能エリアを算出する。そして、追跡マップ生成部107は、算出された逃走可能エリアを示す逃走可能エリア情報105を、記憶装置14に格納する(112)。   After step 111, the tracking map generation unit 107 of the tracking device 10 relates to the difference between the information confirmation time included in the extracted information 104 and the current time, and the escape means of the wanted crime indicated by each information included in the extracted information 104. Based on the information (for example, whether it was walking or traveling in a passenger car, etc.) or the moving speed, an area where the wanted arranger can escape is calculated. Then, the tracking map generation unit 107 stores escape area information 105 indicating the calculated escape area in the storage device 14 (112).

追跡マップ生成部107は、ステップ112において指名手配犯の所在に関する情報(逃走可能エリア情報105)を蓄積し、更に、ステップ113において、指名手配犯の所在に関する情報(逃走可能エリア)と、指名手配犯である確からしさ(確率)とをセットとして蓄積する(113)。   The tracking map generation unit 107 accumulates information on the location of the wanted crime (stepping area information 105) in step 112. Further, in step 113, the tracking map generating unit 107 stores information on the location of the wanted rower (escapeable area) and the wanted arrangement. The probability (probability) that is a crime is accumulated as a set (113).

追跡マップ生成部107は、セットで蓄積された指名手配犯の所在に関する各々の情報に基づいて、新規で指名手配犯追跡マップ106を生成する。または、セットで蓄積された指名手配犯の所在に関する各々の情報に基づいて、既に蓄積されていた情報と複合されて、新たな指名手配犯追跡マップ106を生成する(114)。   The tracking map generation unit 107 generates a new wanted crime tracking map 106 based on each piece of information regarding the location of the wanted crime accumulated in the set. Alternatively, based on each piece of information regarding the location of the wanted criminal accumulated in the set, it is combined with the information already accumulated to generate a new wanted criminal tracking map 106 (114).

そして、追跡マップ生成部107は、蓄積した確率に基づいて、指名手配犯追跡マップ106に表示される複数の領域に重みを割り当てる。この重みは、指名手配犯が所在する可能性を示す。この重みによって、本実施例の追跡装置10は、人の手によらず、画像データ及び警察情報から指名手配犯の所在を適切に予測できる。   Then, the tracking map generation unit 107 assigns weights to a plurality of areas displayed on the wanted crime tracking map 106 based on the accumulated probabilities. This weight indicates the possibility that the wanted criminal is located. With this weight, the tracking device 10 according to the present embodiment can appropriately predict the location of the wanted criminals from the image data and police information regardless of the hand of the person.

また、本実施例の追跡装置10は、情報抽出装置15から抽出情報104を入力された後、ただちにステップ112〜ステップ114を実行するため、リアルタイムに指名手配犯の所在を予測できる。   In addition, since the tracking device 10 according to the present embodiment executes Steps 112 to 114 immediately after the extraction information 104 is input from the information extraction device 15, the location of the wanted arranger can be predicted in real time.

図3は、本実施例の指名手配犯追跡マップ106の生成処理の詳細を示すフローチャートである。   FIG. 3 is a flowchart showing details of the generation process of the wanted crime tracking map 106 according to this embodiment.

図3に示すステップ201及びステップ202は、図2に示すステップ111における処理である。情報抽出装置15は、ステップ201において、画像データ記憶装置101及び警察情報記憶装置102から、情報確認時刻及び情報確認位置を含む情報を抽出する。そして、情報抽出装置15は、情報が示す人物が指名手配犯である確からしさ(確率)を定める。   Step 201 and step 202 shown in FIG. 3 are processes in step 111 shown in FIG. In step 201, the information extraction device 15 extracts information including the information confirmation time and the information confirmation position from the image data storage device 101 and the police information storage device 102. Then, the information extraction device 15 determines the probability (probability) that the person indicated by the information is the wanted arranger.

図3に示すステップ203及びステップ204は、図2に示すステップ112における処理である。追跡マップ生成部107は、ステップ203において、情報確認時刻と現在時刻との差を算出する。そして、ステップ204において、算出された差と逃走手段と移動速度と情報確認位置とに基づいて、逃走可能エリアを算出する。   Step 203 and step 204 shown in FIG. 3 are the processes in step 112 shown in FIG. In step 203, the tracking map generation unit 107 calculates the difference between the information confirmation time and the current time. In step 204, a possible escape area is calculated based on the calculated difference, escape means, moving speed, and information confirmation position.

そして、追跡マップ生成部107は、逃走可能エリア情報105にステップ202において定められた確率を加味して(113)、指名手配犯追跡マップを完成させる(114)。   Then, the tracking map generation unit 107 adds the probability determined in step 202 to the escapeable area information 105 (113), and completes the wanted crime tracking map (114).

図4は、本実施例の画像データ記憶装置101から情報を抽出する処理を示す説明図である。   FIG. 4 is an explanatory diagram illustrating processing for extracting information from the image data storage device 101 according to the present exemplary embodiment.

図4は、図3に示すステップ201及びステップ202が、画像データ記憶装置101に格納される情報に実行される際の処理を示す説明図である。図4に示す処理は、情報抽出装置15が顔認証装置の機能を用いて、指名手配犯である確率を算出する処理を示す。   FIG. 4 is an explanatory diagram showing processing when step 201 and step 202 shown in FIG. 3 are executed on information stored in the image data storage device 101. The process shown in FIG. 4 shows a process in which the information extraction apparatus 15 calculates the probability of being a wanted person using the function of the face authentication apparatus.

複数の防犯カメラ18から画像データ記憶装置101に送信された画像データには、すべて情報確認時刻及び情報確認位置を示すデータが付加される。情報抽出装置15は、画像データ記憶装置101から、人物が撮影された画像データを抽出する(201a)。   Data indicating the information confirmation time and the information confirmation position are all added to the image data transmitted from the plurality of security cameras 18 to the image data storage device 101. The information extraction device 15 extracts image data obtained by photographing a person from the image data storage device 101 (201a).

なお、情報抽出装置15は、オペレータからの指示によって画像データ記憶装置101から画像データを抽出してもよいし、人物が撮影される画像データのすべてを画像データ記憶装置101から抽出してもよい。   Note that the information extraction device 15 may extract image data from the image data storage device 101 according to an instruction from the operator, or may extract all of the image data in which a person is photographed from the image data storage device 101. .

また、ステップ201aにおいて、情報抽出装置15は、抽出された画像データの情報確認時刻、情報確認位置、及び、逃走手段(移動速度であってもよい)を、抽出情報104に格納する。   In step 201 a, the information extraction device 15 stores the information confirmation time, the information confirmation position, and the escape means (may be a moving speed) of the extracted image data in the extraction information 104.

ステップ201aの後、情報抽出装置15は、あらかじめオペレータ等によって設定されていた指名手配犯を撮影した画像データと、ステップ201aにおいて抽出された画像データとを照合し、類似度等を算出する。ここで、情報抽出装置15は、画像データの照合を顔認証機能に実行させる。そして、情報抽出装置15は、算出された類似度等に従って、指名手配犯である確率を画像データ毎に定める(202a)。   After step 201a, the information extraction device 15 collates the image data obtained by photographing the wanted crime previously set by the operator or the like with the image data extracted in step 201a, and calculates the similarity and the like. Here, the information extraction device 15 causes the face authentication function to perform image data matching. Then, the information extraction device 15 determines the probability of being a wanted person for each image data according to the calculated similarity or the like (202a).

例えば、情報抽出装置15は、類似度が60%である場合、指名手配犯である確率も60%に定める。類似度が高ければ、指名手配犯である確率も高い。   For example, when the degree of similarity is 60%, the information extraction device 15 also sets the probability of being a wanted offender to 60%. If the degree of similarity is high, there is a high probability of being a wanted offender.

そして、情報抽出装置15は、ステップ202aにおいて、定められた確率を抽出情報104に格納する。画像データについて、顔認証機能を用いることによって、本実施例の計算機システムは、人の手によらず指名手配犯の所在を適切に予測できる。   Then, the information extracting device 15 stores the determined probability in the extracted information 104 in step 202a. By using the face authentication function for the image data, the computer system of this embodiment can appropriately predict the location of the wanted criminal regardless of the human hand.

図5は、本実施例の抽出情報104を示す説明図である。   FIG. 5 is an explanatory diagram showing the extraction information 104 of this embodiment.

図5に示す抽出情報104は、情報抽出装置15から追跡装置10へ入力される抽出情報104の一例である。抽出情報104に基づいて、逃走可能エリアが算出される。抽出情報104は、領域1041〜領域1045を含む。   The extraction information 104 illustrated in FIG. 5 is an example of the extraction information 104 input from the information extraction device 15 to the tracking device 10. Based on the extracted information 104, a possible escape area is calculated. The extraction information 104 includes areas 1041 to 1045.

領域1041は、画像データ記憶装置101又は警察情報記憶装置102から抽出された情報の各々を識別するための識別子を格納する。抽出情報104の一つのエントリは、画像データ記憶装置101に格納される一つの画像データ、又は、警察情報記憶装置102に格納される一つの警察情報(例えば、一人に対して行われた聞き込み情報)に対応する。   The area 1041 stores an identifier for identifying each piece of information extracted from the image data storage device 101 or the police information storage device 102. One entry of the extracted information 104 is one piece of image data stored in the image data storage device 101 or one piece of police information stored in the police information storage device 102 (for example, listening information performed on one person). ).

領域1042は、逃走手段の種別、及び、逃走する際の移動速度を含む。逃走手段の種別は、指名手配犯の可能性がある人物の逃走手段(交通手段)を示す識別子を含む。なお、移動速度が画像データから取得された場合、逃走手段の種別には、防犯カメラ18によって取得されたことを示す情報として、「防犯カメラ」の文字列等が含まれる。   The area 1042 includes the type of escape means and the moving speed at the time of escape. The type of escape means includes an identifier indicating the escape means (transportation means) of a person who may be a wanted person. When the moving speed is acquired from the image data, the type of escape means includes a character string “security camera” or the like as information indicating that it has been acquired by the security camera 18.

領域1042の移動速度は、領域1042の種別に従ってあらかじめ定められた速度が格納される。防犯カメラ18によって移動速度が取得された場合以外、情報抽出装置15又は追跡装置10の追跡マップ生成部107が、逃走手段の種別に従って、領域1042の移動速度に値を格納する。   As the moving speed of the area 1042, a speed determined in advance according to the type of the area 1042 is stored. Except when the moving speed is acquired by the security camera 18, the information extraction device 15 or the tracking map generation unit 107 of the tracking device 10 stores a value in the moving speed of the area 1042 according to the type of the escape means.

例えば、領域1042の種別が「車」である場合、追跡マップ生成部107は、領域1042の移動速度には40km/hを格納する。また、追跡マップ生成部107は、領域1042の種別が「徒歩」である場合、領域1042の移動速度には6km/hを格納する。   For example, when the type of the area 1042 is “car”, the tracking map generation unit 107 stores 40 km / h as the moving speed of the area 1042. Further, when the type of the area 1042 is “walking”, the tracking map generation unit 107 stores 6 km / h as the moving speed of the area 1042.

逃走手段によって速度を推定することによって、指名手配犯の逃走手段に応じたより正確な逃走可能エリアを算出することができる。   By estimating the speed by the escape means, it is possible to calculate a more accurate escape area according to the escape means of the wanted criminal.

領域1043は、情報確認時刻を含み、領域1044は、情報確認位置を含む。領域1041〜領域1044の値は、図3のステップ201において格納される。   An area 1043 includes an information confirmation time, and an area 1044 includes an information confirmation position. The values in areas 1041 to 1044 are stored in step 201 in FIG.

領域1045は、ステップ202において定められた指名手配犯である確率を含む。   Area 1045 includes the probability of being a wanted offender determined in step 202.

図6は、本実施例の逃走可能エリア情報105と現在時刻103とを示す説明図である。   FIG. 6 is an explanatory diagram showing the escape area information 105 and the current time 103 according to the present embodiment.

追跡装置10は、物理的なタイマに基づいて更新される現在時刻103を保持する。現在時刻103は、例えば、1秒ごとに更新され、メモリ12に保持される。   The tracking device 10 holds a current time 103 that is updated based on a physical timer. The current time 103 is updated every second, for example, and held in the memory 12.

逃走可能エリア情報105は、領域1051〜領域1054を含む。領域1051は、領域1041の識別子に対応する。領域1052は、領域1043が示す情報確認時刻と現在時刻103が示す時刻との差の時間を示す。領域1053は、領域1042の移動速度を示す。   The escape area information 105 includes areas 1051 to 1054. An area 1051 corresponds to the identifier of the area 1041. An area 1052 indicates a difference time between the information confirmation time indicated by the area 1043 and the time indicated by the current time 103. An area 1053 indicates the moving speed of the area 1042.

領域1054は、円の領域として算出される逃走可能エリアの半径を示す。具体的には、領域1052が示す時間と、領域1053が示す移動速度を乗算した結果である。   An area 1054 indicates the radius of the escapeable area calculated as a circle area. Specifically, the result is obtained by multiplying the time indicated by the area 1052 by the moving speed indicated by the area 1053.

追跡マップ生成部107は、ステップ112において、現在時刻103と抽出情報104との情報に基づいて、逃走可能エリア情報105を生成する。なお、指名手配犯が逃走手段を変更して逃走した場合、追跡マップ生成部107は、必ずしも正確な逃走可能エリアを算出することはできない。   In step 112, the tracking map generation unit 107 generates the escape area information 105 based on the information of the current time 103 and the extracted information 104. In addition, when the wanted criminal changes the escape means and escapes, the tracking map generation unit 107 cannot always calculate an accurate escape available area.

しかし、新たに確認された逃走手段を含む情報が速やかに警察情報記憶装置102に格納され、図2に示す処理が、例えば1分毎など定期的に行われることによって、追跡マップ生成部107は、新たな逃走可能エリアを求めることができる。そして、過去に算出された逃走可能エリアとともに指名手配犯追跡マップ106を生成することによって、精度の高い指名手配犯追跡マップ106を生成することができる。   However, information including the newly confirmed escape means is promptly stored in the police information storage device 102, and the processing shown in FIG. A new escape area can be found. Then, by generating the wanted crime tracking map 106 together with the escapeable areas calculated in the past, the highly accurate wanted crime tracking map 106 can be generated.

また、オペレータは、情報抽出装置15を介して抽出情報104の領域1042を変更してもよく、これによって、追跡マップ生成部107に、正確な情報に基づく逃走可能エリアを求めさせてもよい。   In addition, the operator may change the area 1042 of the extracted information 104 via the information extracting device 15, thereby causing the tracking map generating unit 107 to obtain an escapeable area based on accurate information.

ステップ112において生成された逃走可能エリア情報105が示す、逃走可能エリアを図7に示す。   FIG. 7 shows escape areas indicated by the escape area information 105 generated in step 112.

図7は、本実施例の逃走可能エリアと、当該逃走可能エリアによって求められる指名手配犯追跡マップ106とを示す説明図である。   FIG. 7 is an explanatory diagram showing an escapeable area and a wanted crime tracking map 106 obtained by the escapeable area according to the present embodiment.

図7に示す抽出情報104a、抽出情報104b及び抽出情報104cは、図5の抽出情報104の領域1041が「情報A」であるエントリ、領域1041が「情報B」であるエントリ、及び、領域1041が「情報C」であるエントリに対応する。   The extracted information 104a, the extracted information 104b, and the extracted information 104c illustrated in FIG. 7 include an entry in which the area 1041 of the extracted information 104 in FIG. 5 is “Information A”, an entry in which the area 1041 is “Information B”, and an area 1041. Corresponds to an entry having “information C”.

追跡マップ生成部107は、ステップ112において、抽出情報104a〜104cと、現在時刻103とに基づいて、図7に示すイメージのような円形の移動可能エリアを求める。移動可能エリアの中心は、領域1044が示す情報確認位置であり、移動可能エリアの半径は、領域1054が示す半径である。   In step 112, the tracking map generation unit 107 obtains a circular movable area such as the image shown in FIG. 7 based on the extracted information 104 a to 104 c and the current time 103. The center of the movable area is the information confirmation position indicated by the area 1044, and the radius of the movable area is the radius indicated by the area 1054.

そして、追跡マップ生成部107は、ステップ113において、求められた移動可能エリアに、領域1045が示す確率を加味する。すなわち、求められた移動可能エリアを、領域1045が示す確率によって重みづけする。   In step 113, the tracking map generation unit 107 adds the probability indicated by the region 1045 to the obtained movable area. That is, the obtained movable area is weighted by the probability indicated by the area 1045.

そして、追跡マップ生成部107は、ステップ114において、求められた移動可能エリア(重みづけ後)を合わせた指名手配犯追跡マップ106を生成する。図7に示す指名手配犯追跡マップ106は、エリア1〜エリア6を含む。   Then, in step 114, the tracking map generation unit 107 generates a wanted crime tracking map 106 that combines the obtained movable areas (after weighting). The wanted criminal pursuit map 106 shown in FIG. 7 includes areas 1 to 6.

そして、追跡マップ生成部107は、指名手配犯追跡マップ106に含まれる各エリアの重みを算出する。算出された重みが高いエリアを特定することによって、本実施例の追跡マップ生成部107は、指名手配犯が所在する可能性の高いエリアを特定する。そして、これによって、逃走可能エリアから、指名手配犯が所在する可能性の高いエリアを適切に予測できる。   Then, the tracking map generation unit 107 calculates the weight of each area included in the wanted criminal tracking map 106. By identifying an area with a high calculated weight, the tracking map generation unit 107 of the present embodiment identifies an area where the wanted criminal is likely to be located. Thus, it is possible to appropriately predict an area where the wanted criminal is likely to be located from the area where escape is possible.

図8は、本実施例のエリアの重み109を示す説明図である。   FIG. 8 is an explanatory diagram showing the area weight 109 in this embodiment.

エリアの重み109は、追跡マップ生成部107によって生成される情報であり、メモリ12に保持される。   The area weight 109 is information generated by the tracking map generation unit 107 and is held in the memory 12.

エリアの重み109は、領域1091〜領域1093を含む。領域1091は、指名手配犯追跡マップ106に含まれるエリアを識別するための識別子を示す。領域1092は、指名手配犯追跡マップ106のエリアの重みを算出するための計算式を示す。領域1093は、領域1092の計算式の計算結果を示す。   The area weight 109 includes an area 1091 to an area 1093. An area 1091 shows an identifier for identifying an area included in the wanted crime tracking map 106. An area 1092 shows a calculation formula for calculating the weight of the area of the wanted crime tracking map 106. An area 1093 shows the calculation result of the calculation formula of the area 1092.

本実施例において、追跡マップ生成部107は、各エリアにおいて重複する逃走可能エリアの重みを加算し、当該加算の結果を、すべての逃走可能エリアの重みの合計によって除算する計算式によって、指名手配犯追跡マップ106の各エリアの重みを算出する。算出された計算結果(重み)の値が大きいほど、指名手配犯が所在する可能性が高い。   In the present embodiment, the tracking map generation unit 107 adds the weights of the overlapping escapeable areas in each area, and calculates the result of the addition by a calculation formula that divides the result by the sum of the weights of all the escapeable areas. The weight of each area of the crime tracking map 106 is calculated. The greater the value of the calculated result (weight), the higher the possibility that the wanted arranger is located.

本実施例において、最も重みが大きいエリアを、重点警戒エリアと記載する。図8において、エリア4が重点警戒エリアである。   In the present embodiment, the area having the largest weight is described as a priority alert area. In FIG. 8, area 4 is a priority alert area.

追跡マップ出力部108は、エリアの重み109と、図7に示す指名手配犯追跡マップ106とを、情報抽出装置15を介してオペレータに出力してもよい。また、追跡マップ出力部108は、領域1093の値が最も高い重点警戒エリアを、他のエリアとは異なる色によって表示する指名手配犯追跡マップ106を、情報抽出装置15及びディスプレイ17を介して出力してもよい。   The tracking map output unit 108 may output the area weight 109 and the wanted crime tracking map 106 shown in FIG. 7 to the operator via the information extraction device 15. Further, the tracking map output unit 108 outputs the wanted crime tracking map 106 that displays the priority warning area having the highest value of the area 1093 in a color different from the other areas via the information extraction device 15 and the display 17. May be.

図8に示すエリアの重み109が生成された場合、追跡マップ出力部108は、エリア4を示すマップ等を、重点警戒エリアを示すマップとして、情報抽出装置15及びディスプレイ17を介して出力する。   When the area weight 109 shown in FIG. 8 is generated, the tracking map output unit 108 outputs a map indicating the area 4 or the like as a map indicating the priority alert area via the information extracting device 15 and the display 17.

なお、人物に関する画像データ又は警察情報が画像データ記憶装置101又は警察情報記憶装置102に新規に格納され、新たに指名手配犯追跡マップ106を生成する場合も、また、画像データ記憶装置101又は警察情報記憶装置102に情報が追加され、既に指名手配犯追跡マップ106が生成されている場合も、本実施例は有効である。つまり、新規で指名手配犯追跡マップ106が生成される場合、先の実施例で示したように、新規の情報に基づいて抽出情報104が生成され、新規な抽出情報104に基づいて指名手配犯追跡マップ106が生成される。   In the case where image data or police information relating to a person is newly stored in the image data storage device 101 or the police information storage device 102 and a new wanted crime tracking map 106 is newly generated, the image data storage device 101 or police This embodiment is also effective when information is added to the information storage device 102 and the wanted crime tracking map 106 has already been generated. That is, when the new wanted crime tracking map 106 is generated, the extracted information 104 is generated based on the new information as shown in the previous embodiment, and the wanted crime crime is generated based on the new extracted information 104. A tracking map 106 is generated.

また、既に指名手配犯追跡マップ106が生成されていた場合、追跡マップ生成部107は、既に対応する指名手配犯追跡マップ106が生成された抽出情報104と、改めて取得した現在時刻103とを用いて、新たな逃走可能エリアを算出する。これによって、既存の抽出情報104を、現在時刻における情報として認識する事ができる。さらに、追跡マップ生成部107は、これら既存の抽出情報104に新たに受け付けた抽出情報104を追加し、指名手配犯追跡マップ106を生成する。   When the wanted crime tracking map 106 has already been generated, the tracking map generating unit 107 uses the extracted information 104 from which the corresponding wanted crime tracking map 106 has already been generated and the current time 103 acquired again. To calculate a new escape area. Thus, the existing extracted information 104 can be recognized as information at the current time. Further, the tracking map generation unit 107 adds the newly received extracted information 104 to the existing extracted information 104 and generates a wanted crime tracking map 106.

このように、過去に算出された逃走可能エリアと、新たな逃走可能エリアを算出することによって、より正確に重点計画エリアを特定し、指名手配犯の所在を適切に予測できる。   Thus, by calculating the escape possible area calculated in the past and the new escape possible area, it is possible to more accurately identify the priority plan area and appropriately predict the location of the wanted arranger.

本実施例によれば、警察は、指名手配犯の捜査にあたり、人に依存せず、指名手配犯の所在を的確に予測する事が可能となる。この事は、警察において、次に挙げる効果を期待できる。   According to the present embodiment, the police can accurately predict the location of the wanted criminal without depending on the person in the investigation of the wanted criminal. The following effects can be expected from the police.

1.指名手配犯の所在に関する各種情報の処理方法をシステム的に決定させる事によって、人に依存しない捜索が可能となる。この事は、例えば経験が浅い捜査員による判断ミス等を補う事が可能となる。   1. By making a systematic decision on how to handle various information related to the whereabouts of the wanted criminal, a search that does not depend on people becomes possible. This makes it possible to compensate for mistakes in judgment by investigators with little experience.

2.各種情報をコンピュータ処理させる事によって、人による処理では不可能な、リアルタイム性を持たせる事が可能となる。この事は、リアルタイムに重点警戒区域を認識する事ができ、捜査員の配置を、より効果的に行う事ができる。さらに、捜査員の人員配置をより効果的に行わせる事に繋がり、検挙率の向上をもたらせるものと考える。   2. By making various types of information computer-processed, it becomes possible to have real-time properties that are impossible with human processing. This can recognize the critical alert area in real time, and can arrange the investigators more effectively. Furthermore, it will lead to more effective assignment of investigators, and will improve the clearance rate.

なお、本発明は上記した実施例に限定されるものではなく、様々な変形例が含まれる。例えば、上記した実施例は本発明を分かりやすく説明するために詳細に説明したものであり、必ずしも説明した全ての構成を備えるものに限定されるものではない。   In addition, this invention is not limited to an above-described Example, Various modifications are included. For example, the above-described embodiments have been described in detail for easy understanding of the present invention, and are not necessarily limited to those having all the configurations described.

また、上記の各構成、機能、処理部、処理手段等は、それらの一部又は全部を、例えば集積回路で設計する等によりハードウェアで実現してもよい。また、上記の各構成、機能等は、プロセッサがそれぞれの機能を実現するプログラムを解釈し、実行することによりソフトウェアで実現してもよい。各機能を実現するプログラム、テーブル、ファイル等の情報は、メモリや、ハードディスク、SSD(Solid State Drive)等の記録装置、または、ICカード、SDカード、DVD等の記録媒体に置くことができる。   Each of the above-described configurations, functions, processing units, processing means, and the like may be realized by hardware by designing a part or all of them with, for example, an integrated circuit. Each of the above-described configurations, functions, and the like may be realized by software by interpreting and executing a program that realizes each function by the processor. Information such as programs, tables, and files for realizing each function can be stored in a memory, a hard disk, a recording device such as an SSD (Solid State Drive), or a recording medium such as an IC card, an SD card, or a DVD.

また、制御線や情報線は説明上必要と考えられるものを示しており、製品上必ずしも全ての制御線や情報線を示しているとは限らない。実際には殆ど全ての構成が相互に接続されていると考えてもよい。   Further, the control lines and information lines indicate what is considered necessary for the explanation, and not all the control lines and information lines on the product are necessarily shown. Actually, it may be considered that almost all the components are connected to each other.

10 追跡装置
11 プロセッサ
12 メモリ
13 NWIF(ネットワークインタフェース)
14 記憶装置
15 情報抽出装置
16 キーボード
17 ディスプレイ
18 防犯カメラ
19 ネットワーク
10 tracking device 11 processor 12 memory 13 NWIF (network interface)
14 Storage Device 15 Information Extraction Device 16 Keyboard 17 Display 18 Security Camera 19 Network

Claims (10)

追跡装置であって、
プロセッサ、メモリ及びネットワークインタフェースを備え、
複数のカメラが撮影し取得した画像データ、又は、追跡すべき人物に関する対象情報を格納する記憶装置に接続され、
前記記憶装置の画像データ又は対象情報から抽出された、人物が撮影又は認識された時刻である情報確認時刻を示す情報と、当該人物が撮影又は認識された場所である情報確認位置を示す情報と、当該人物が追跡すべき人物である可能性を示す確率とを含む抽出情報を、前記ネットワークインタフェースを介して受け付け、
前記追跡装置は、
前記抽出情報に基づいて、前記人物が移動する可能性がある逃走可能エリアを算出し、
前記算出された逃走可能エリアと、前記抽出情報に含まれる確率とに基づいて、前記追跡すべき人物が所在する可能性が高いエリアを特定することを特徴とする追跡装置。
A tracking device,
With processor, memory and network interface,
Connected to a storage device that stores image data captured and acquired by a plurality of cameras, or target information about a person to be tracked,
Information indicating an information confirmation time, which is a time when a person is photographed or recognized, extracted from image data or target information in the storage device, and information indicating an information confirmation position, which is a place where the person is photographed or recognized. Receiving the extracted information including the probability indicating the possibility that the person is a person to be tracked via the network interface;
The tracking device comprises:
Based on the extracted information, calculate the escape area where the person may move,
A tracking device that identifies an area where the person to be tracked is likely to be located based on the calculated escapeable area and the probability included in the extracted information.
請求項1に記載の追跡装置であって、
前記抽出情報は、前記人物が用いていた交通手段を示す情報を含み、
前記追跡装置は、
現在時刻を保持し、
前記抽出情報が示す前記情報確認時刻と前記現在時刻との差を算出し、
前記算出された差と、前記抽出情報が示す交通手段及び前記情報確認位置とに基づいて、前記逃走可能エリアを算出することを特徴とする追跡装置。
The tracking device according to claim 1,
The extracted information includes information indicating the means of transportation used by the person,
The tracking device comprises:
Keep the current time,
Calculating the difference between the information confirmation time indicated by the extracted information and the current time;
The tracking device characterized in that the escapeable area is calculated based on the calculated difference, the transportation means indicated by the extracted information, and the information confirmation position.
請求項2に記載の追跡装置であって、
前記抽出情報を、所定の周期において受け付け、
前記抽出情報を受け付けたタイミングにおいて、前記逃走可能エリアを算出することを特徴とする追跡装置。
The tracking device according to claim 2,
Receiving the extracted information in a predetermined cycle;
The tracking device characterized in that the escape area is calculated at a timing when the extraction information is received.
請求項3に記載の追跡装置であって、
受け付けた第1の抽出情報を、前記メモリに蓄積し、
第2の抽出情報を受け付けた場合、前記メモリに蓄積された第1の抽出情報と、前記第2の抽出情報とに基づいて、前記逃走可能エリアを算出することを特徴とする追跡装置。
The tracking device according to claim 3,
The received first extraction information is stored in the memory,
A tracking device characterized in that when the second extraction information is received, the escapeable area is calculated based on the first extraction information stored in the memory and the second extraction information.
請求項4に記載の追跡装置であって、
前記算出された複数の逃走可能エリアのうち、重複する少なくとも二つの逃走可能エリアを抽出し、
前記抽出された重複する逃走可能エリアの各々を移動する可能性がある人物が、前記追跡すべき人物である確率を特定し、
前記逃走可能エリアが重複するエリアに割り当てる重みを、前記特定された確率に基づいて算出し、
前記割り当てられた重みに従って、前記追跡すべき人物が所在する可能性が高いエリアを特定することを特徴とする追跡装置。
The tracking device according to claim 4,
Extracting at least two overlapping escape areas from the plurality of calculated escape areas,
Identifying the probability that a person who may move in each of the extracted overlapping escape areas is the person to be tracked;
Calculating a weight to be assigned to an area where the escapeable areas overlap based on the specified probability;
A tracking device that identifies an area where the person to be tracked is likely to be located according to the assigned weight.
請求項1から5までに記載の追跡装置のいずれかを備える追跡システムであって、
前記追跡システムは、画像処理装置を備え、
前記画像処理装置は、
前記追跡すべき人物を示す犯人画像を保持し、
前記記憶装置の画像データを取得し、
前記取得された画像データと前記犯人画像とを比較することによって、前記画像データが示す人物が追跡すべき人物である可能性を示す確率を算出し、
前記画像データが撮影された時刻を前記情報確認時刻として示す情報と、前記画像データが撮影された場所を前記情報確認位置として示す情報と、前記算出された確率と、を含む情報を、前記抽出情報として前記追跡装置に入力することを特徴とする追跡システム。
A tracking system comprising any of the tracking devices according to claim 1,
The tracking system includes an image processing device,
The image processing apparatus includes:
Holding a criminal image showing the person to be tracked,
Obtaining image data of the storage device;
By comparing the acquired image data and the criminal image, a probability indicating the possibility that the person indicated by the image data is a person to be tracked is calculated,
Extracting information including information indicating the time when the image data was captured as the information confirmation time, information indicating the location where the image data was captured as the information confirmation position, and the calculated probability A tracking system that inputs information to the tracking device.
追跡装置を備える追跡システムによる追跡方法であって、
前記追跡装置は、
プロセッサ、メモリ及びネットワークインタフェースを備え、
複数のカメラが撮影し取得した画像データ、又は、追跡すべき人物に関する対象情報を格納する記憶装置に接続され、
前記方法は、
前記ネットワークインタフェースが、前記記憶装置の画像データ又は対象情報から抽出された、人物が撮影又は認識された時刻である情報確認時刻を示す情報と、当該人物が撮影又は認識された場所である情報確認位置を示す情報と、当該人物が追跡すべき人物である可能性を示す確率とを含む抽出情報を、受け付け、
前記プロセッサが、前記抽出情報に基づいて、前記人物が移動する可能性がある逃走可能エリアを算出し、
前記プロセッサが、前記算出された逃走可能エリアと、前記抽出情報に含まれる確率とに基づいて、前記追跡すべき人物が所在する可能性が高いエリアを特定することを特徴とする追跡方法。
A tracking method by a tracking system comprising a tracking device,
The tracking device comprises:
With processor, memory and network interface,
Connected to a storage device that stores image data captured and acquired by a plurality of cameras, or target information about a person to be tracked,
The method
Information indicating the information confirmation time, which is the time when the person was photographed or recognized, extracted from the image data or target information of the storage device and the information confirmation where the person was photographed or recognized Accepts extracted information including information indicating the position and the probability that the person is likely to be tracked,
The processor calculates an escape area where the person may move based on the extracted information,
The tracking method, wherein the processor specifies an area where the person to be tracked is likely to be located based on the calculated escapeable area and the probability included in the extracted information.
請求項7に記載の追跡方法であって、
前記抽出情報は、前記人物が用いていた交通手段を示す情報を含み、
前記メモリは、現在時刻を保持し、
前記方法は、
前記プロセッサが、前記抽出情報が示す前記情報確認時刻と前記現在時刻との差を算出し、
前記プロセッサが、前記算出された差と、前記抽出情報が示す交通手段及び前記情報確認位置とに基づいて、前記逃走可能エリアを算出することを特徴とする追跡方法。
The tracking method according to claim 7, comprising:
The extracted information includes information indicating the means of transportation used by the person,
The memory holds the current time,
The method
The processor calculates a difference between the information confirmation time indicated by the extracted information and the current time;
The tracking method, wherein the processor calculates the escapeable area based on the calculated difference, a transportation means indicated by the extracted information, and the information confirmation position.
請求項8に記載の追跡方法であって、
前記ネットワークインタフェースが、前記抽出情報を、所定の周期において受け付け、
前記プロセッサが、前記抽出情報を受け付けたタイミングにおいて、前記逃走可能エリアを算出することを特徴とする追跡方法。
The tracking method according to claim 8, comprising:
The network interface accepts the extraction information in a predetermined cycle;
A tracking method, wherein the processor calculates the escapeable area at a timing when the extraction information is received.
請求項9に記載の追跡方法であって、
前記プロセッサが、受け付けた第1の抽出情報を、前記メモリに蓄積し、
前記プロセッサが、第2の抽出情報を受け付けた場合、前記メモリに蓄積された第1の抽出情報と、前記第2の抽出情報とに基づいて、前記逃走可能エリアを算出することを特徴とする追跡方法。
The tracking method according to claim 9, comprising:
The processor stores the received first extraction information in the memory,
When the processor receives the second extraction information, the processor calculates the escapeable area based on the first extraction information stored in the memory and the second extraction information. Tracking method.
JP2013091418A 2013-04-24 2013-04-24 Tracking device, tracking system, and tracking method Pending JP2014215747A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2013091418A JP2014215747A (en) 2013-04-24 2013-04-24 Tracking device, tracking system, and tracking method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2013091418A JP2014215747A (en) 2013-04-24 2013-04-24 Tracking device, tracking system, and tracking method

Publications (1)

Publication Number Publication Date
JP2014215747A true JP2014215747A (en) 2014-11-17

Family

ID=51941472

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013091418A Pending JP2014215747A (en) 2013-04-24 2013-04-24 Tracking device, tracking system, and tracking method

Country Status (1)

Country Link
JP (1) JP2014215747A (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2017130902A1 (en) * 2016-01-29 2017-08-03 日本電気株式会社 Information processing device, information processing method, and program
EP3236366A1 (en) 2016-04-19 2017-10-25 Canon Kabushiki Kaisha Information processing apparatus, information processing method, and storage medium
CN108600292A (en) * 2018-02-13 2018-09-28 北京明朝万达科技股份有限公司 A kind of police moving map system and application method based on Internet resources
US10997422B2 (en) 2016-01-29 2021-05-04 Nec Corporation Information processing apparatus, information processing method, and program

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2017130902A1 (en) * 2016-01-29 2017-08-03 日本電気株式会社 Information processing device, information processing method, and program
JPWO2017130902A1 (en) * 2016-01-29 2018-11-22 日本電気株式会社 Information processing apparatus, information processing method, and program
JP2020187781A (en) * 2016-01-29 2020-11-19 日本電気株式会社 Information processing apparatus, information processing method, and program
US10997422B2 (en) 2016-01-29 2021-05-04 Nec Corporation Information processing apparatus, information processing method, and program
US11494579B2 (en) 2016-01-29 2022-11-08 Nec Corporation Information processing apparatus, information processing method, and program
EP3236366A1 (en) 2016-04-19 2017-10-25 Canon Kabushiki Kaisha Information processing apparatus, information processing method, and storage medium
US10664523B2 (en) 2016-04-19 2020-05-26 Canon Kabushiki Kaisha Information processing apparatus, information processing method, and storage medium
CN108600292A (en) * 2018-02-13 2018-09-28 北京明朝万达科技股份有限公司 A kind of police moving map system and application method based on Internet resources

Similar Documents

Publication Publication Date Title
CN109743541B (en) Intelligent monitoring method and device, computer equipment and storage medium
JP6814673B2 (en) Movement route prediction device and movement route prediction method
CN109583278B (en) Face recognition alarm method, device and system and computer equipment
JP7040463B2 (en) Analysis server, monitoring system, monitoring method and program
US20180293552A1 (en) Image-based vehicle maintenance plan
JP6406241B2 (en) Information processing system, information processing method, and program
CN109766755B (en) Face recognition method and related product
US8971577B2 (en) Monitoring device, reliability calculation program, and reliability calculation method
JP6729793B2 (en) Information processing apparatus, control method, and program
JP2020107354A (en) Analysis device, analysis method, and program
JP2021132267A (en) Video monitoring system and video monitoring method
KR102129771B1 (en) Cctv management system apparatus that recognizes behavior of subject of shooting in video from video taken through cctv camera and operating method thereof
JP2014215747A (en) Tracking device, tracking system, and tracking method
JP2020052822A (en) Information processing apparatus, authentication system, control method thereof, and program
JP2022117996A (en) Information processing device, data generation method, and program
JP7371595B2 (en) Apparatus, system, method and program
JP7070665B2 (en) Information processing equipment, control methods, and programs
EP3770855A1 (en) Information processing device, person search system, place estimation method, and non-temporary computer-readable medium in which program is stored
JP2012010121A (en) Behavior monitoring system, behavior monitoring program and behavior monitoring method
CN109508703A (en) A kind of face in video determines method and device
JP7285536B2 (en) Classifier generation device, target person estimation device and their programs, and target person estimation system
US20240233513A9 (en) Rescue support apparatus, system and method, and computer readable medium
JP7327571B2 (en) Information processing system, terminal device, authentication target management method, and program
WO2023084814A1 (en) Communication system, server, communication method, and communication program
JP5849762B2 (en) Prediction information presentation system, prediction information presentation device, prediction information presentation method, and prediction information presentation program