WO2022153407A1 - Information processing device, information processing method, and program - Google Patents

Information processing device, information processing method, and program Download PDF

Info

Publication number
WO2022153407A1
WO2022153407A1 PCT/JP2021/000892 JP2021000892W WO2022153407A1 WO 2022153407 A1 WO2022153407 A1 WO 2022153407A1 JP 2021000892 W JP2021000892 W JP 2021000892W WO 2022153407 A1 WO2022153407 A1 WO 2022153407A1
Authority
WO
WIPO (PCT)
Prior art keywords
event
information
information processing
image
processing device
Prior art date
Application number
PCT/JP2021/000892
Other languages
French (fr)
Japanese (ja)
Inventor
和也 川上
Original Assignee
日本電気株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 日本電気株式会社 filed Critical 日本電気株式会社
Priority to JP2022574922A priority Critical patent/JPWO2022153407A1/ja
Priority to PCT/JP2021/000892 priority patent/WO2022153407A1/en
Publication of WO2022153407A1 publication Critical patent/WO2022153407A1/en

Links

Images

Classifications

    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B25/00Alarm systems in which the location of the alarm condition is signalled to a central station, e.g. fire or police telegraphic systems
    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B25/00Alarm systems in which the location of the alarm condition is signalled to a central station, e.g. fire or police telegraphic systems
    • G08B25/01Alarm systems in which the location of the alarm condition is signalled to a central station, e.g. fire or police telegraphic systems characterised by the transmission medium
    • G08B25/04Alarm systems in which the location of the alarm condition is signalled to a central station, e.g. fire or police telegraphic systems characterised by the transmission medium using a single signalling line, e.g. in a closed loop

Definitions

  • the present invention relates to an information processing device, an information processing method, and a program, and more particularly to an information processing device, an information processing method, and a program for monitoring the occurrence of an event such as a crime.
  • Patent Document 1 an image captured by an imaging means mounted on a vehicle is used to detect an event such as a tilting operation or a width shift, determine the level of the detected event, and set the level to the determined level.
  • An event such as a tilting operation or a width shift
  • determine the level of the detected event and set the level to the determined level.
  • a system that sends the corresponding information to the communication device is described. Furthermore, it is described that by saving the events that occurred in the area as mapping information, it can be used for tracking the perpetrator and predicting the escape route.
  • the present invention has been made in view of the above circumstances, and an object of the present invention is to be able to accurately estimate the escape route of a criminal.
  • the first aspect relates to an information processing device.
  • the information processing device related to the first aspect is An event information generation means that detects the occurrence of an event and generates event information related to the event by processing an image, and It has a route generation means for generating an estimated movement route by using the difference between the generated event information and the assumed event information predetermined for the event.
  • the second aspect relates to information processing methods performed by at least one computer.
  • the information processing method related to the second aspect is Information processing equipment By processing the image, the occurrence of an event is detected, and event information related to the event is generated. It includes generating an estimated movement route by using the difference between the generated event information and the assumed event information predetermined for the event.
  • this invention may be a program that causes at least one computer to execute the method of the second aspect, or a recording medium that can be read by a computer that records such a program. You may.
  • This recording medium includes non-temporary tangible media.
  • This computer program includes computer program code that causes the computer to perform its information processing method on an information processing device when executed by the computer.
  • the various components of the present invention do not necessarily have to be independent of each other, and a plurality of components are formed as one member, and one component is formed of a plurality of members. It may be that a certain component is a part of another component, a part of a certain component overlaps with a part of another component, and the like.
  • the order of description does not limit the order in which the plurality of procedures are executed. Therefore, when implementing the method and computer program of the present invention, the order of the plurality of procedures can be changed within a range that does not hinder the contents.
  • FIG. 1 It is a figure which shows typically the outline of the monitoring system which concerns on embodiment. It is a block diagram which illustrates the hardware configuration of the computer which realizes the information processing apparatus of the monitoring system shown in FIG. 1 and the image processing apparatus, respectively. It is a functional block diagram which shows the logical configuration example of the information processing apparatus of embodiment. It is a figure for demonstrating the data stored in a storage device. It is a flowchart which shows the operation example of the information processing apparatus of embodiment. It is a flowchart which shows the operation example of the information processing apparatus of embodiment. It is a functional block diagram which shows the logical configuration example of the information processing apparatus of embodiment.
  • the storage device 300 may be a device included inside at least one of the information processing device 100 and the image processing device 200, or may be a device separate from the information processing device 100 and the image processing device 200. However, these combinations may be used.
  • the monitoring system 1 is realized by the combination of the information processing device 100 and the image processing device 200, it is realized by a plurality of computers 1000 constituting each of them.
  • the information processing device 100 is, for example, a server computer.
  • the image processing device 200 may be a device separate from the information processing device 100, a device included inside the information processing device 100, or a combination thereof.
  • the image processing device 200 recognizes a person, a vehicle, an object, etc. included in the captured image based on the normal state learned for each predetermined area and each predetermined building, and the event information generation unit 102. Uses the image recognition result to collate with the crime database 310 and detects the occurrence of a predetermined event. In addition, the type of detected event can be identified using the crime database 310.
  • the information processing apparatus 100 of the present embodiment has a configuration in which the physical strength of the person is estimated by using the attribute information of the person related to the event and the estimated movement route is generated in consideration of the escapeable range. It differs from the second embodiment. Since the information processing apparatus 100 of the present embodiment has the same configuration as that of the first embodiment, it will be described with reference to FIG. However, the information processing apparatus 100 of the present embodiment may be combined within a range that does not cause a contradiction with at least one of the configurations of the other embodiments.
  • multiple candidates may be estimated for the route from the place where the crime occurred to the destination.
  • a route having a shorter distance may be selected as the degree of excitement is higher than a plurality of candidates for the route, and a route having a longer distance may be selected when the degree of excitement is lower.
  • the output processing unit 106 may display all the plurality of destinations and / or the plurality of estimated travel routes on the screen of the display device 110. , Some selected destinations and / or estimated travel routes may be displayed.
  • the route generation unit 104 may further use the event information when generating the estimated movement route.
  • an estimated travel route may be generated according to the type of crime. For example, when the type of crime is a robbery case considered to be an organized crime, the route generation unit 104 may generate an estimated travel route with the hiding place or hideout of the organized crime group as the destination.
  • the route generation unit 104 since it is considered to be a systematic crime when there are a plurality of related persons related to the crime, the route generation unit 104 generates an estimated movement route using the hiding place or hideout of the organized crime group as the destination. You may.
  • An event information generation means that detects the occurrence of an event and generates event information related to the event by processing an image, and A route generation means for generating an estimated movement route by using the difference between the generated event information and the assumed event information predetermined for the event.
  • Information processing device 2. 1. 1. In the information processing apparatus described in The event information generating means processes the image to generate related persons related to the event and their attribute information.
  • the route generation means is an information processing device that generates the estimated movement route using the generated related person and the attribute information thereof. 3. 3. 1. 1. Or 2. In the information processing apparatus described in The event information is an information processing device including the scale of the event. 4. 3. 3. 3.
  • the scale of the event is an information processing method including the duration of the event. 14. 9. To 13. In the information processing method described in any one of The information processing device An information processing method that further uses the event information when generating the estimated movement route. 15. 14. In the information processing method described in The event information is an information processing method including the type of the event. 16. 14. Or 15. In the information processing method described in The scale of the event is an information processing method including the number of related persons. 17. On the computer A procedure for detecting the occurrence of an event by processing an image and generating event information related to the event. A program for executing a procedure for generating an estimated movement route using the difference between the generated event information and the assumed event information predetermined for the event. 18. 17.

Landscapes

  • Business, Economics & Management (AREA)
  • Emergency Management (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Alarm Systems (AREA)

Abstract

This information processing device (100) comprises: an event information generating unit (102) that detects the occurrence of an event by processing images, and generates event information relating to the event; and a route generating unit (104) that generates an estimated movement route using the difference between the generated event information and assumed event information predetermined for that event.

Description

情報処理装置、情報処理方法、およびプログラムInformation processing equipment, information processing methods, and programs
 本発明は、情報処理装置、情報処理方法、およびプログラムに関し、特に、犯罪などの事象の発生を監視する情報処理装置、情報処理方法、およびプログラムに関する。 The present invention relates to an information processing device, an information processing method, and a program, and more particularly to an information processing device, an information processing method, and a program for monitoring the occurrence of an event such as a crime.
 特許文献1には、車両に搭載されている撮像手段により撮像された画像を用いて、あおり運転や幅寄せなどの事象を検出し、検出された事象のレベルを判別し、判別されたレベルに応じた情報を通信機器に送信するシステムが記載されている。さらに、地域で発生した事象をマッピング情報として保存しておくことで、加害者の追跡や逃走経路の予測に用いることが記載されている。 In Patent Document 1, an image captured by an imaging means mounted on a vehicle is used to detect an event such as a tilting operation or a width shift, determine the level of the detected event, and set the level to the determined level. A system that sends the corresponding information to the communication device is described. Furthermore, it is described that by saving the events that occurred in the area as mapping information, it can be used for tracking the perpetrator and predicting the escape route.
国際公開第2020/031924号International Publication No. 2020/031924
 特許文献1に記載のシステムでは、地域で発生した事象をマッピング情報として保存しておき、同様な事象が発生したときに加害者の追跡や逃走経路の予測を行っている。しかしながら、同じ地域で同じような事象を加害者が起こさなければ、加害者の追跡や逃走経路の予測も行うことはできない。 In the system described in Patent Document 1, events that occur in the area are stored as mapping information, and when a similar event occurs, the perpetrator is tracked and the escape route is predicted. However, unless the perpetrator causes a similar event in the same area, the perpetrator cannot be tracked or the escape route cannot be predicted.
 本発明は上記事情に鑑みてなされたものであり、その目的とするところは、犯罪者の逃走経路を精度よく推定できることにある。 The present invention has been made in view of the above circumstances, and an object of the present invention is to be able to accurately estimate the escape route of a criminal.
 本発明の各側面では、上述した課題を解決するために、それぞれ以下の構成を採用する。 In each aspect of the present invention, the following configurations are adopted in order to solve the above-mentioned problems.
 第一の側面は、情報処理装置に関する。
 第一の側面に係る情報処理装置は、
 画像を処理することにより、事象の発生を検知するとともに、前記事象に関する事象情報を生成する事象情報生成手段と、
 生成した前記事象情報と、その事象に対して予め定められている想定事象情報との差を用いて推定移動経路を生成する経路生成手段と、を有する。
The first aspect relates to an information processing device.
The information processing device related to the first aspect is
An event information generation means that detects the occurrence of an event and generates event information related to the event by processing an image, and
It has a route generation means for generating an estimated movement route by using the difference between the generated event information and the assumed event information predetermined for the event.
 第二の側面は、少なくとも1つのコンピュータにより実行される情報処理方法に関する。
 第二の側面に係る情報処理方法は、
 情報処理装置が、
 画像を処理することにより、事象の発生を検知するとともに、前記事象に関する事象情報を生成し、
 生成した前記事象情報と、その事象に対して予め定められている想定事象情報との差を用いて推定移動経路を生成する、ことを含む。
The second aspect relates to information processing methods performed by at least one computer.
The information processing method related to the second aspect is
Information processing equipment
By processing the image, the occurrence of an event is detected, and event information related to the event is generated.
It includes generating an estimated movement route by using the difference between the generated event information and the assumed event information predetermined for the event.
 なお、本発明の他の側面としては、上記第二の側面の方法を少なくとも1つのコンピュータに実行させるプログラムであってもよいし、このようなプログラムを記録したコンピュータが読み取り可能な記録媒体であってもよい。この記録媒体は、非一時的な有形の媒体を含む。
 このコンピュータプログラムは、コンピュータにより実行されたとき、コンピュータに、情報処理装置上で、その情報処理方法を実施させるコンピュータプログラムコードを含む。
As another aspect of the present invention, it may be a program that causes at least one computer to execute the method of the second aspect, or a recording medium that can be read by a computer that records such a program. You may. This recording medium includes non-temporary tangible media.
This computer program includes computer program code that causes the computer to perform its information processing method on an information processing device when executed by the computer.
 なお、以上の構成要素の任意の組合せ、本発明の表現を方法、装置、システム、記録媒体、コンピュータプログラムなどの間で変換したものもまた、本発明の態様として有効である。 It should be noted that any combination of the above components and the conversion of the expression of the present invention between methods, devices, systems, recording media, computer programs, etc. are also effective as aspects of the present invention.
 また、本発明の各種の構成要素は、必ずしも個々に独立した存在である必要はなく、複数の構成要素が一個の部材として形成されていること、一つの構成要素が複数の部材で形成されていること、ある構成要素が他の構成要素の一部であること、ある構成要素の一部と他の構成要素の一部とが重複していること、等でもよい。 Further, the various components of the present invention do not necessarily have to be independent of each other, and a plurality of components are formed as one member, and one component is formed of a plurality of members. It may be that a certain component is a part of another component, a part of a certain component overlaps with a part of another component, and the like.
 また、本発明の方法およびコンピュータプログラムには複数の手順を順番に記載してあるが、その記載の順番は複数の手順を実行する順番を限定するものではない。このため、本発明の方法およびコンピュータプログラムを実施するときには、その複数の手順の順番は内容的に支障のない範囲で変更することができる。 Further, although the method and the computer program of the present invention describe a plurality of procedures in order, the order of description does not limit the order in which the plurality of procedures are executed. Therefore, when implementing the method and computer program of the present invention, the order of the plurality of procedures can be changed within a range that does not hinder the contents.
 さらに、本発明の方法およびコンピュータプログラムの複数の手順は個々に相違するタイミングで実行されることに限定されない。このため、ある手順の実行中に他の手順が発生すること、ある手順の実行タイミングと他の手順の実行タイミングとの一部ないし全部が重複していること、等でもよい。 Furthermore, the method of the present invention and the plurality of procedures of the computer program are not limited to being executed at different timings. Therefore, another procedure may occur during the execution of a certain procedure, a part or all of the execution timing of the certain procedure and the execution timing of the other procedure may overlap, and the like.
 上記各側面によれば、犯罪者の逃走経路を精度よく推定できる技術を提供することができる。 According to each of the above aspects, it is possible to provide a technique that can accurately estimate the escape route of a criminal.
実施形態に係る監視システムの概要を模式的に示す図である。It is a figure which shows typically the outline of the monitoring system which concerns on embodiment. 図1に示す監視システムの情報処理装置、および画像処理装置をそれぞれ実現するコンピュータのハードウェア構成を例示するブロック図である。It is a block diagram which illustrates the hardware configuration of the computer which realizes the information processing apparatus of the monitoring system shown in FIG. 1 and the image processing apparatus, respectively. 実施形態の情報処理装置の論理的な構成例を示す機能ブロック図である。It is a functional block diagram which shows the logical configuration example of the information processing apparatus of embodiment. 記憶装置に記憶されるデータを説明するための図である。It is a figure for demonstrating the data stored in a storage device. 実施形態の情報処理装置の動作例を示すフローチャートである。It is a flowchart which shows the operation example of the information processing apparatus of embodiment. 実施形態の情報処理装置の動作例を示すフローチャートである。It is a flowchart which shows the operation example of the information processing apparatus of embodiment. 実施形態の情報処理装置の論理的な構成例を示す機能ブロック図である。It is a functional block diagram which shows the logical configuration example of the information processing apparatus of embodiment.
 以下、本発明の実施の形態について、図面を用いて説明する。なお、すべての図面において、同様な構成要素には同様の符号を付し、適宜説明を省略する。また、以下の各図において、本発明の本質に関わらない部分の構成については省略してあり、図示されていない。 Hereinafter, embodiments of the present invention will be described with reference to the drawings. In all drawings, similar components are designated by the same reference numerals, and description thereof will be omitted as appropriate. Further, in each of the following figures, the configuration of a portion not related to the essence of the present invention is omitted and is not shown.
 実施形態において「取得」とは、自装置が他の装置や記憶媒体に格納されているデータまたは情報を取りに行くこと(能動的な取得)、および、自装置に他の装置から出力されるデータまたは情報を入力すること(受動的な取得)の少なくとも一方を含む。能動的な取得の例は、他の装置にリクエストまたは問い合わせしてその返信を受信すること、及び、他の装置や記憶媒体にアクセスして読み出すこと等がある。また、受動的な取得の例は、配信(または、送信、プッシュ通知等)される情報を受信すること等がある。さらに、「取得」とは、受信したデータまたは情報の中から選択して取得すること、または、配信されたデータまたは情報を選択して受信することであってもよい。 In the embodiment, "acquisition" means that the own device retrieves data or information stored in another device or storage medium (active acquisition), and is output to the own device from the other device. Includes at least one of entering data or information (passive acquisition). Examples of active acquisition include making a request or inquiry to another device and receiving the reply, and accessing and reading another device or storage medium. In addition, an example of passive acquisition may be receiving information to be delivered (or transmitted, push notification, etc.). Further, the “acquisition” may be to select and acquire the received data or information, or to select and receive the delivered data or information.
(第1実施形態)
<システム概要>
 図1は、実施形態に係る監視システム1の概要を模式的に示す図である。監視システム1は、情報処理装置100と、画像処理装置200と、少なくとも1台のカメラ5とを備えている。監視システム1は、例えば、街中に設置されているカメラ5で撮像された画像を、画像処理装置200が処理して人物などを認識し、情報処理装置100は画像処理装置200の処理結果を用いて事象(例えば、犯罪行為など)の発生を検知し、犯罪者(人10)の逃走経路を推定する。
(First Embodiment)
<System overview>
FIG. 1 is a diagram schematically showing an outline of the monitoring system 1 according to the embodiment. The monitoring system 1 includes an information processing device 100, an image processing device 200, and at least one camera 5. In the monitoring system 1, for example, an image processing device 200 processes an image captured by a camera 5 installed in the city to recognize a person or the like, and the information processing device 100 uses the processing result of the image processing device 200. The occurrence of an event (for example, a criminal act) is detected, and the escape route of the criminal (person 10) is estimated.
 カメラ5は、監視システム1に特化したものであってもよいし、例えば、以前から設置されているカメラを利用してもよい。あるいは、カメラ5は、車載カメラであってもよい。さらに、監視システム1は、臭いを検知する臭度センサ、温度センサ、煙探知器、ガス漏れ検知器、あるいは、通報ボタンの押下を検知するセンサなどのセンサ7をさらに備えてもよい。センサ7はこれらに限定されず、検知対象となる事象を特定するのに使用できる情報を取得するセンサ7を用いることができる。また、カメラ5はマイクロフォン(不図示)を備えてもよいし、監視システム1は、カメラ5とは別に設置されたマイクロフォン(不図示)を備えてもよい。さらに、監視システム1は、記憶装置300を備えている。 The camera 5 may be specialized for the surveillance system 1, or may use, for example, a camera that has been installed before. Alternatively, the camera 5 may be an in-vehicle camera. Further, the monitoring system 1 may further include a sensor 7 such as an odor sensor for detecting an odor, a temperature sensor, a smoke detector, a gas leak detector, or a sensor for detecting the pressing of a notification button. The sensor 7 is not limited to these, and a sensor 7 that acquires information that can be used to identify an event to be detected can be used. Further, the camera 5 may be provided with a microphone (not shown), and the surveillance system 1 may be provided with a microphone (not shown) installed separately from the camera 5. Further, the monitoring system 1 includes a storage device 300.
 記憶装置300は、情報処理装置100および画像処理装置200の少なくとも一方の内部に含まれる装置であってもよいし、情報処理装置100および画像処理装置200とは別体の装置であってもよいし、これらの組み合わせであってもよい。 The storage device 300 may be a device included inside at least one of the information processing device 100 and the image processing device 200, or may be a device separate from the information processing device 100 and the image processing device 200. However, these combinations may be used.
 カメラ5は、撮像画像を生成する。カメラ5は、レンズとCCD(Charge Coupled Device)イメージセンサといった撮像素子を備える。カメラ5は、画角に入る人物の動きに合わせて追従してカメラ本体やレンズの向きの制御、ズーム制御、焦点合わせ等を行う機構を備えてもよい。 The camera 5 generates a captured image. The camera 5 includes an image sensor such as a lens and a CCD (Charge Coupled Device) image sensor. The camera 5 may include a mechanism that controls the orientation of the camera body and the lens, zooms, focuses, and the like by following the movement of a person entering the angle of view.
 カメラ5は、情報処理装置100が検知対象としている事象が発生しうる場所を含む範囲を撮影するのが好ましい。また、カメラ5は、情報処理装置100が検知対象としている事象が発生する可能性が高い日時や期間を撮影時間としてもよい。 The camera 5 preferably captures a range including a place where an event targeted by the information processing device 100 can occur. Further, the camera 5 may set a date and time or a period during which an event targeted by the information processing device 100 is likely to occur as a shooting time.
 例えば、カメラ5は、犯罪が多く発生している時間帯やエリア(例えば、人通りの少ない場所や治安の悪い地域、観光地など)の、街頭、道路、通路、空き地、路地裏、店舗や施設などの建物や敷地内、建物内の特定のフロア、店舗のレジ周辺などを含む範囲を撮影してもよい。あるいは、人で混雑しているイベントや祭などの会場において、それらの開催日時に合わせてカメラ5の台数、撮影箇所、撮影範囲などを変えてもよい。 For example, the camera 5 can be used for streets, roads, aisles, vacant lots, back alleys, stores, etc. in times and areas where crime is frequent (for example, places with low traffic, insecure areas, tourist spots, etc.) You may take a picture of a building such as a facility, the site, a specific floor in the building, the area around the store's cash register, and so on. Alternatively, at a venue such as an event or festival that is crowded with people, the number of cameras 5, the shooting location, the shooting range, and the like may be changed according to the date and time of the event.
 カメラ5で生成された画像は、通信ネットワーク3を介して情報処理装置100または画像処理装置200に送信される。画像は、カメラ5から情報処理装置100に送信され、情報処理装置100から画像処理装置200に画像処理のために送信されてもよいし、カメラ5から画像処理装置200に送信され、画像処理装置200から情報処理装置100に画像処理された結果が送信されてもよいし、これらの組み合わせであってもよい。 The image generated by the camera 5 is transmitted to the information processing device 100 or the image processing device 200 via the communication network 3. The image may be transmitted from the camera 5 to the information processing device 100 and transmitted from the information processing device 100 to the image processing device 200 for image processing, or may be transmitted from the camera 5 to the image processing device 200 and transmitted to the image processing device 200. The result of image processing may be transmitted from 200 to the information processing apparatus 100, or a combination thereof may be used.
 カメラ5またはセンサ7と、情報処理装置100または画像処理装置200の間の接続方式は、無線でも有線でもよい。無線接続の場合は、カメラ5またはセンサ7、情報処理装置100、および画像処理装置200はそれぞれ無線通信機能を有しているものとする。カメラ5は、例えばIP(Internet Protocol)カメラ等のネットワークカメラであってもよい。 The connection method between the camera 5 or the sensor 7 and the information processing device 100 or the image processing device 200 may be wireless or wired. In the case of wireless connection, it is assumed that the camera 5 or the sensor 7, the information processing device 100, and the image processing device 200 each have a wireless communication function. The camera 5 may be a network camera such as an IP (Internet Protocol) camera.
 カメラ5により生成される画像の利用方法は、(a1)撮影場所の通常の状態の学習、(a2)事象の発生の検知、(a3)(a2)で検知された事象の学習などである。 The methods of using the image generated by the camera 5 include (a1) learning the normal state of the shooting location, (a2) detecting the occurrence of an event, and (a3) learning the event detected in (a2).
 例えば、(a2)の事象の発生を検知するために画像を用いる場合は、画像はリアルタイムに情報処理装置100または画像処理装置200に送信されるのが好ましい。ただし、情報処理装置100または画像処理装置200に送信される画像は、カメラ5からすぐに送信されなくてもよく、所定の時間遅延した画像であってもよい。カメラ5で生成された画像は、一旦記憶装置(記憶装置300であってもよいし、他の記憶装置(記録媒体も含む)であってもよい)に格納され、情報処理装置100または画像処理装置200が記憶装置から逐次または所定間隔毎に読み出してもよい。さらに、情報処理装置100または画像処理装置200に送信される画像は、動画像であるのが好ましいが、所定間隔毎のフレーム画像であってもよいし、静止画であってもよい。 For example, when an image is used to detect the occurrence of the event (a2), it is preferable that the image is transmitted to the information processing device 100 or the image processing device 200 in real time. However, the image transmitted to the information processing device 100 or the image processing device 200 does not have to be immediately transmitted from the camera 5, and may be an image delayed by a predetermined time. The image generated by the camera 5 is temporarily stored in a storage device (may be a storage device 300 or another storage device (including a recording medium)), and is stored in the information processing device 100 or image processing. The device 200 may read from the storage device sequentially or at predetermined intervals. Further, the image transmitted to the information processing device 100 or the image processing device 200 is preferably a moving image, but may be a frame image at predetermined intervals or a still image.
 一方、(a3)の発生事象の学習や(a1)の当該エリアの通常状態の学習に画像を用いる場合は、画像はリアルタイムに情報処理装置100または画像処理装置200に送信されなくてもよく、一旦記憶装置(記録媒体も含む)に記憶された後、情報処理装置100または画像処理装置200が記憶装置から画像を読み出して処理してもよい。(a1)の当該エリアの通常状態の学習に画像を用いる場合は、季節要因などの環境情報も考慮するのが好ましい。環境情報とは、例えば、そのエリアの悪天候(特に、雨、雪、霧、台風、スコールなど)の予報情報、天災などよる被災状況を示す情報、日没日の出時間、昆虫の大量発生を示す情報、火災(山火事なども含む)の発生状況を示す情報などを含んでもよい。 On the other hand, when the image is used for learning the occurrence event of (a3) or learning the normal state of the area in (a1), the image does not have to be transmitted to the information processing device 100 or the image processing device 200 in real time. After being once stored in the storage device (including the recording medium), the information processing device 100 or the image processing device 200 may read the image from the storage device and process it. When using an image for learning the normal state of the area in (a1), it is preferable to consider environmental information such as seasonal factors. Environmental information is, for example, forecast information of bad weather (especially rain, snow, fog, typhoon, squall, etc.) in the area, information indicating the damage situation due to natural disasters, sunset sunrise time, information indicating mass outbreak of insects. , Information indicating the occurrence status of fires (including wildfires) may be included.
 例えば、犯罪が行われやすい時間帯(夜間など)に対応する画像、平日と休日を区別して(または曜日別に)時間帯を変えた画像、行事、祭り、集会、およびイベントなどの特定の場面に対応する場所と日時または期間に対応する画像をそれぞれ学習してもよい。 For example, images that correspond to times when crimes are likely to occur (such as at night), images that distinguish between weekdays and holidays (or by day of the week), and specific occasions such as events, festivals, gatherings, and events. You may learn the corresponding place and the image corresponding to the date and time or the period respectively.
 さらに、事象が発生したことが検知された後、その事象に関連する人物(つまり、犯罪者))の移動を追跡するように、複数のカメラ5を切り替えて撮影してもよい。あるいは、複数のカメラ5の撮像画像を用いて事象に関連する人物の移動を追跡してもよい。また、後述する経路生成部104によって生成される推定移動経路に沿って存在している複数のカメラ5の撮像画像を用いて事象に関連する人物の移動を追跡してもよい。事象に関連する人物には被害者を含んでもよく、例えば、共犯者が被害者のフリをしている可能性もあるため、その場所に居た事象に関連する人物全てを追跡対象としてもよい。 Further, after it is detected that an event has occurred, a plurality of cameras 5 may be switched and photographed so as to track the movement of a person (that is, a criminal) related to the event. Alternatively, images captured by a plurality of cameras 5 may be used to track the movement of a person associated with an event. Further, the movement of a person related to the event may be tracked by using the captured images of a plurality of cameras 5 existing along the estimated movement path generated by the path generation unit 104 described later. The person associated with the event may include the victim, for example, the accomplice may pretend to be the victim, so all persons associated with the event at that location may be tracked. ..
<ハードウェア構成例>
 図2は、図1に示す監視システム1の情報処理装置100、および画像処理装置200をそれぞれ実現するコンピュータ1000のハードウェア構成を例示するブロック図である。
<Hardware configuration example>
FIG. 2 is a block diagram illustrating a hardware configuration of a computer 1000 that realizes the information processing device 100 and the image processing device 200 of the monitoring system 1 shown in FIG. 1, respectively.
 コンピュータ1000は、バス1010、プロセッサ1020、メモリ1030、ストレージデバイス1040、入出力インタフェース1050、およびネットワークインタフェース1060を有する。 The computer 1000 has a bus 1010, a processor 1020, a memory 1030, a storage device 1040, an input / output interface 1050, and a network interface 1060.
 バス1010は、プロセッサ1020、メモリ1030、ストレージデバイス1040、入出力インタフェース1050、およびネットワークインタフェース1060が、相互にデータを送受信するためのデータ伝送路である。ただし、プロセッサ1020などを互いに接続する方法は、バス接続に限定されない。 The bus 1010 is a data transmission path for the processor 1020, the memory 1030, the storage device 1040, the input / output interface 1050, and the network interface 1060 to transmit and receive data to and from each other. However, the method of connecting the processors 1020 and the like to each other is not limited to the bus connection.
 プロセッサ1020は、CPU(Central Processing Unit) やGPU(Graphics Processing Unit)などで実現されるプロセッサである。 The processor 1020 is a processor realized by a CPU (Central Processing Unit), a GPU (Graphics Processing Unit), or the like.
 メモリ1030は、RAM(Random Access Memory)などで実現される主記憶装置である。 The memory 1030 is a main storage device realized by a RAM (Random Access Memory) or the like.
 ストレージデバイス1040は、HDD(Hard Disk Drive)、SSD(Solid State Drive)、メモリカード、又はROM(Read Only Memory)などで実現される補助記憶装置である。ストレージデバイス1040は監視システム1の情報処理装置100の各機能(例えば、後述する図3の事象情報生成部102、および経路生成部104、あるいは、図7の出力処理部106等)を実現するプログラムモジュールを記憶している。プロセッサ1020がこれら各プログラムモジュールをメモリ1030上に読み込んで実行することで、そのプログラムモジュールに対応する各機能が実現される。また、ストレージデバイス1040は、情報処理装置100または画像処理装置200が使用する各種情報を記憶する記憶部(不図示)としても機能する。また、記憶装置300もストレージデバイス1040により実現されてもよい。 The storage device 1040 is an auxiliary storage device realized by an HDD (Hard Disk Drive), an SSD (Solid State Drive), a memory card, a ROM (Read Only Memory), or the like. The storage device 1040 is a program that realizes each function of the information processing device 100 of the monitoring system 1 (for example, the event information generation unit 102 and the route generation unit 104 of FIG. 3, which will be described later, or the output processing unit 106 of FIG. 7). Remember the module. When the processor 1020 reads each of these program modules into the memory 1030 and executes them, each function corresponding to the program module is realized. The storage device 1040 also functions as a storage unit (not shown) for storing various information used by the information processing device 100 or the image processing device 200. Further, the storage device 300 may also be realized by the storage device 1040.
 プログラムモジュールは、記録媒体に記録されてもよい。プログラムモジュールを記録する記録媒体は、非一時的な有形のコンピュータ1000が使用可能な媒体を含み、その媒体に、コンピュータ1000(プロセッサ1020)が読み取り可能なプログラムコードが埋め込まれてよい。 The program module may be recorded on a recording medium. The recording medium for recording the program module includes a medium that can be used by the non-temporary tangible computer 1000, and the program code that can be read by the computer 1000 (processor 1020) may be embedded in the medium.
 入出力インタフェース1050は、コンピュータ1000と各種入出力機器とを接続するためのインタフェースである。 The input / output interface 1050 is an interface for connecting the computer 1000 and various input / output devices.
 ネットワークインタフェース1060は、コンピュータ1000を通信ネットワーク3に接続するためのインタフェースである。この通信ネットワーク3は、例えばLAN(Local Area Network)やWAN(Wide Area Network)である。ネットワークインタフェース1060が通信ネットワーク3に接続する方法は、無線接続であってもよいし、有線接続であってもよい。ただし、ネットワークインタフェース1060は用いられないことも有る。 The network interface 1060 is an interface for connecting the computer 1000 to the communication network 3. The communication network 3 is, for example, a LAN (Local Area Network) or a WAN (Wide Area Network). The method of connecting the network interface 1060 to the communication network 3 may be a wireless connection or a wired connection. However, the network interface 1060 may not be used.
 そして、コンピュータ1000は、入出力インタフェース1050またはネットワークインタフェース1060を介して、必要な機器(例えば、カメラ5、センサ7、マイクロフォン(不図示)、ディスプレイ(不図示)、スピーカ(不図示)など)に接続する。 Then, the computer 1000 is connected to necessary devices (for example, camera 5, sensor 7, microphone (not shown), display (not shown), speaker (not shown), etc. via the input / output interface 1050 or network interface 1060). Connecting.
 監視システム1は、情報処理装置100と、画像処理装置200との組み合わせにより実現されるため、それぞれを構成する複数のコンピュータ1000により実現される。情報処理装置100は、例えば、サーバコンピュータである。画像処理装置200は、情報処理装置100とは別体の装置であってもよいし、情報処理装置100の内部に含まれる装置であってもよいし、これらの組み合わせであってもよい。 Since the monitoring system 1 is realized by the combination of the information processing device 100 and the image processing device 200, it is realized by a plurality of computers 1000 constituting each of them. The information processing device 100 is, for example, a server computer. The image processing device 200 may be a device separate from the information processing device 100, a device included inside the information processing device 100, or a combination thereof.
 後述する図3の本実施形態の情報処理装置100の各構成要素は、図2のコンピュータ1000のハードウェアとソフトウェアの任意の組合せによって実現される。そして、その実現方法、装置にはいろいろな変形例があることは、当業者には理解されるところである。各実施形態の情報処理装置100を示す機能ブロック図は、ハードウェア単位の構成ではなく、論理的な機能単位のブロックを示している。 Each component of the information processing apparatus 100 of the present embodiment shown in FIG. 3 to be described later is realized by an arbitrary combination of hardware and software of the computer 1000 shown in FIG. And, it is understood by those skilled in the art that there are various modifications of the realization method and the device. The functional block diagram showing the information processing apparatus 100 of each embodiment shows blocks of logical functional units, not configurations of hardware units.
<機能構成例>
 図3は、図1の情報処理装置100は、事象情報生成部102と、経路生成部104と、を備える。
 事象情報生成部102は、画像を処理することにより、事象の発生を検知するとともに、事象に関する事象情報を生成する。経路生成部104は、生成した事象情報と、その事象に対して予め定められている想定事象情報との差を用いて推定移動経路を生成する。
<Function configuration example>
In FIG. 3, the information processing apparatus 100 of FIG. 1 includes an event information generation unit 102 and a route generation unit 104.
The event information generation unit 102 detects the occurrence of an event and generates event information related to the event by processing the image. The route generation unit 104 generates an estimated movement route by using the difference between the generated event information and the assumed event information predetermined for the event.
 画像処理は、画像処理装置200によって行われる。画像処理装置200は、後述する画像認識モデル340を用いて画像を解析し、人物や車両などを認識し、人物の行動(犯人の行動)や周囲の状況(被害状況)を認識し、画像内で発生している事象を特定する。 Image processing is performed by the image processing device 200. The image processing device 200 analyzes an image using an image recognition model 340 described later, recognizes a person, a vehicle, etc., recognizes the behavior of the person (behavior of the criminal) and the surrounding situation (damage situation), and within the image. Identify what is happening in.
 所定の事象とは、例えば、犯罪や事件などである。所定の事象は、例えば、窃盗、強盗、スリ、置き引き、万引き、恐喝、喧嘩、暴力、暴行、傷害または傷害致死事件、誘拐、爆破、殺人、通り魔、テロ、立て籠もり、放火、交通事故(ひき逃げ、当て逃げ、暴走など)、構造物の破壊(器物損壊)などである。 The predetermined event is, for example, a crime or an incident. Predetermined events include, for example, theft, robbery, thrilling, deportation, hit-and-run, blackmail, quarrel, violence, assault, injury or fatal injury, kidnapping, blasting, murder, street demon, terrorism, hit-and-run, fire, traffic accident ( Hit-and-run, hit-and-run, runaway, etc.), destruction of structures (damage to property), etc.
 なお、図1、図3、および後述する図7において、情報処理装置100および画像処理装置200はそれぞれ一つのハードウェア(例えばサーバ)で構成されている。ただし、情報処理装置100および画像処理装置200はそれぞれ複数のハードウェア(例えば複数のサーバ)で構成されてもよい。例えば、画像処理装置200、および情報処理装置100の事象情報生成部102が第1のサーバによって実現され、経路生成部104が第2のサーバで実現され、出力処理部106が第3のサーバで実現されてもよい。また、画像処理装置200、情報処理装置100の事象情報生成部102、および経路生成部104が第1のサーバで実現され、出力処理部106第2のサーバで実現されてもよい。 Note that, in FIGS. 1, 3, and 7, which will be described later, the information processing device 100 and the image processing device 200 are each composed of one piece of hardware (for example, a server). However, the information processing device 100 and the image processing device 200 may each be composed of a plurality of hardware (for example, a plurality of servers). For example, the event information generation unit 102 of the image processing device 200 and the information processing device 100 is realized by the first server, the route generation unit 104 is realized by the second server, and the output processing unit 106 is realized by the third server. It may be realized. Further, the image processing device 200, the event information generation unit 102 of the information processing device 100, and the route generation unit 104 may be realized by the first server and may be realized by the output processing unit 106 and the second server.
 図4は、記憶装置300に記憶されるデータを説明するための図である。記憶装置300は、犯罪データベース310と、エリアデータベース320と、地図データベース330と、画像認識モデル340と、犯罪モデル350とを含む。ここでは、検出対象となる事象を犯罪に限定して説明するが、犯罪以外の事象を含んでもよい。 FIG. 4 is a diagram for explaining data stored in the storage device 300. The storage device 300 includes a crime database 310, an area database 320, a map database 330, an image recognition model 340, and a crime model 350. Here, the event to be detected is limited to a crime, but an event other than a crime may be included.
 犯罪データベース310は、上記した所定の事象(犯罪)の種類別に、犯行現場の場所、犯人の人数、服装、年齢、犯行にかかった時間、凶器、犯人の所持品、被害者の有無、被害に関する情報、犯行時の犯人の動作、犯人の被害者とのやり取り、犯行時に発生する音(例えば、爆発音など)や臭いなどの情報を含む犯罪に関する情報を記憶する。 The crime database 310 relates to the location of the crime scene, the number of criminals, clothes, age, time taken for the crime, weapons, belongings of the criminal, the presence or absence of a victim, and damage according to the type of the above-mentioned predetermined event (crime). Stores information about a crime, including information, the criminal's actions at the time of the crime, interaction with the victim of the crime, and information such as sounds (for example, explosion sounds) and odors generated at the time of the crime.
 犯罪データベース310は、過去の犯罪映像などを用いて機械学習により構築されてもよい。また、カメラ5により生成された画像に犯罪行為が写っていた場合、犯罪データベース310は、その画像を用いた機械学習により得られた犯罪に関する情報が登録されてもよい。また、犯罪データベース310は、地域毎に設けてもよい。地域別に設けることで、地域に特化した犯罪を精度よく判別できるようになる。 The crime database 310 may be constructed by machine learning using past crime images and the like. Further, when a criminal act is shown in the image generated by the camera 5, the criminal database 310 may register information on the crime obtained by machine learning using the image. Further, the crime database 310 may be provided for each region. By setting it by region, it will be possible to accurately identify crimes specific to the region.
 例えば、銃器を利用した観光客向けの強盗犯罪は、バイクまたは車両に乗った犯罪者が被害者(観光客)に対して銃器で脅し、バックや金品を外させ、奪って、バイクや車両に乗って逃走する。犯行にかかる時間は30秒程度である。犯罪者の降車時の動作、犯罪者の人数、犯罪者および被害者のそれぞれの立ち位置、発言時間、凶器の出し方、凶器を出している時間などの情報を画像から解析して犯罪データベース310に登録してもよい。 For example, in a robbery crime for tourists using firearms, a criminal riding a motorcycle or vehicle threatens the victim (tourist) with a firearm, removes the bag or money, robs it, and puts it on the motorcycle or vehicle. Get on and run away. The time required for the crime is about 30 seconds. Crime database 310 by analyzing information such as the behavior when a criminal gets off, the number of criminals, the standing position of each criminal and victim, speaking time, how to put out a weapon, time to put out a weapon, etc. You may register in.
 エリアデータベース320は、エリア別、または建物別に、通常の状態を示す情報を記憶する。エリア別に通常の状態を示す情報は、例えば、当該エリアに居る人物(日常生活している人物、仕事をしに来ている人物、観光やビジネスで短期的に訪問している人物など)の、性別、年齢、体格(身長や体型(細身、長身、小柄、大柄、肥満など))、当該エリアを往来している車輌または駐車されている車輌などの情報(車種、色、車輌ナンバーの地域を示す情報など)、あるいは、当該エリアの騒音情報、臭度情報などを含んでもよい。 The area database 320 stores information indicating a normal state for each area or each building. Information indicating the normal state for each area is, for example, information on people in the area (people who live in daily life, people who come to work, people who visit for short-term sightseeing or business, etc.). Gender, age, physique (height and body shape (slender, tall, petite, large, obese, etc.)), information such as vehicles traveling or parked in the area (vehicle type, color, vehicle number area) Information to be shown, etc.), or noise information, odor level information, etc. of the area concerned may be included.
 画像処理装置200は、事前に所定のエリア別、建物別にカメラ5が撮像した画像を所定のタイミングで収集し、所定のエリア別、所定の建物別に通常の状態を示す情報を認識し、学習し、エリアデータベース320に記憶させる。画像を収集する所定のタイミングは、例えば、定期的であり、撮影場所に応じて、撮影時間帯、撮影周期、撮影曜日などを変更してもよい。 The image processing device 200 collects images captured by the camera 5 for each predetermined area and each building in advance at a predetermined timing, and recognizes and learns information indicating a normal state for each predetermined area and each building. , Stored in the area database 320. The predetermined timing for collecting images is, for example, periodic, and the shooting time zone, shooting cycle, shooting day of the week, and the like may be changed depending on the shooting location.
 画像処理装置200は、撮像画像に含まれる、人、車輌やごみなどの物体を認識し、特徴量を抽出し、認識された人および車輌について学習する。例えば、人であれば、年齢(年代)、性別、服装(身なり(軽装、正装、重装備、汚れている、裸足など))、装飾品、髪型、髪色、体格(骨格)などが画像処理装置200により学習され、エリアデータベース320にエリアまたは建物に関連付けて登録される。車輌であれば、車種、ナンバープレートに記載されている地域情報、車輌の色、ウインドウの色(スモーク)、乗車人数などが画像処理装置200により学習され、エリアデータベース320にエリアまたは建物に関連付けて登録される。 The image processing device 200 recognizes an object such as a person, a vehicle, or dust included in the captured image, extracts a feature amount, and learns about the recognized person and the vehicle. For example, in the case of humans, image processing includes age (age), gender, clothing (dress (light clothing, full dress, heavy equipment, dirty, barefoot, etc.)), ornaments, hairstyle, hair color, physique (skeleton), etc. It is learned by the device 200 and registered in the area database 320 in association with the area or building. In the case of a vehicle, the vehicle type, the area information written on the license plate, the color of the vehicle, the color of the window (smoke), the number of passengers, etc. are learned by the image processing device 200, and are associated with the area or building in the area database 320. be registered.
 さらに、カメラ5のマイクロフォン(不図示)からエリア別または建物別に音声を収集し、音声処理装置(不図示)を用いて音声解析を行い、言語、騒音レベル、緊急車両の報知音、非常ベル音、館内放送、チャイムなどを学習してもよい。臭度センサからエリア別または建物別に臭度情報を取得して学習してもよい。学習された音声情報や臭度情報は、エリアデータベース320にエリアまたは建物に関連付けて登録される。 Furthermore, voice is collected from the microphone (not shown) of the camera 5 for each area or building, and voice analysis is performed using a voice processing device (not shown) to perform language, noise level, emergency vehicle notification sound, and emergency bell sound. , In-house broadcasting, chimes, etc. may be learned. You may learn by acquiring the odor information for each area or each building from the odor sensor. The learned voice information and odor level information are registered in the area database 320 in association with the area or building.
 地図データベース330は、推定移動経路の生成に使用されるとともに、後述する実施形態で説明する生成された推定移動経路を地図上に表示する際にも使用される。地図情報は、道路、通路、交通手段などの情報を含む。また、地図情報には、例えば、犯人が逃亡すると警察も軍隊も管轄できない地域の情報を含んでもよい。当該地域に犯人が逃げ込む前に逮捕できるのが好ましいため、推定移動経路を表示する場合に、注意喚起のために、合わせて当該地域も示すのが好ましい。 The map database 330 is used not only for generating the estimated movement route, but also for displaying the generated estimated movement route described in the embodiment described later on the map. Map information includes information such as roads, passages, and means of transportation. In addition, the map information may include, for example, information on an area that neither the police nor the military can control if the criminal escapes. Since it is preferable that the criminal can be arrested before escaping to the area, it is preferable to indicate the area as well for alerting when displaying the estimated travel route.
 画像認識モデル340は、画像処理装置200が画像から人物や車両を認識するのに利用される。画像認識モデル340には、様々な人物や車両の特徴情報が記憶される。画像認識モデル340は、エリア別に設けられてもよい。エリア別に設けることで、画像認識精度が高精度に行うことができる。 The image recognition model 340 is used by the image processing device 200 to recognize a person or a vehicle from an image. The image recognition model 340 stores characteristic information of various people and vehicles. The image recognition model 340 may be provided for each area. By providing each area, image recognition accuracy can be achieved with high accuracy.
 画像処理装置200は、上記エリアデータベース320と同様に、事前に所定のエリア別、建物別にカメラ5が撮像した画像を所定のタイミングで収集し、画像から人物や車両などを認識し、その特徴量を画像認識モデル340に登録してもよい。画像を収集する所定のタイミングは、例えば、定期的、あるいは、任意のタイミングであり、撮影場所に応じて、撮影時間帯、撮影周期、撮影曜日などを変更してもよい。 Similar to the area database 320, the image processing device 200 collects images captured by the camera 5 for each predetermined area and each building in advance at a predetermined timing, recognizes a person, a vehicle, or the like from the images, and has a feature amount thereof. May be registered in the image recognition model 340. The predetermined timing for collecting images is, for example, periodical or arbitrary timing, and the shooting time zone, shooting cycle, shooting day of the week, and the like may be changed according to the shooting location.
 犯罪モデル350は、想定事象情報を記憶する。想定事象情報は、例えば、事象毎に、犯行にかかる時間、奪われる金品の種類や被害の規模、凶器の有無、犯罪者の服装(装備)、犯罪者の年齢や性別、犯行に関わる犯罪者の人数、被害者との関わり方などの情報を含む。 The crime model 350 stores assumed event information. Assumed event information includes, for example, the time required for a crime, the type of money stolen and the scale of damage, the presence or absence of weapons, the clothes (equipment) of the criminal, the age and gender of the criminal, and the criminal involved in the crime. Includes information such as the number of people and how to interact with the victims.
 図3に戻り、画像処理装置200は、所定のエリア別、所定の建物別に学習された通常の状態を基に、撮像画像に含まれる人、車輌、物体などを認識し、事象情報生成部102は、画像認識結果を用いて、犯罪データベース310と照合し、所定の事象の発生を検知する。また、検知された事象の種類は、犯罪データベース310を用いて特定することができる。 Returning to FIG. 3, the image processing device 200 recognizes a person, a vehicle, an object, etc. included in the captured image based on the normal state learned for each predetermined area and each predetermined building, and the event information generation unit 102. Uses the image recognition result to collate with the crime database 310 and detects the occurrence of a predetermined event. In addition, the type of detected event can be identified using the crime database 310.
 画像処理装置200により画像解析された画像認識結果に基づく所定の事象の特定方法は、例えば、その事象がどの事象(犯罪の種類など)であるかを所定の条件で判別する方法などが考えられる。以下に事象の判別条件を例示する。 As a method of identifying a predetermined event based on the image recognition result image-analyzed by the image processing device 200, for example, a method of determining which event (type of crime, etc.) the event is under a predetermined condition can be considered. .. The event discrimination conditions are illustrated below.
 例えば、事象を「強盗」であると判別するために、以下の判別条件を用いてもよい。
(b1)画像から凶器(銃やナイフなどを学習しておく)が検出され、一方の人物Aが凶器を他方の人物Bに凶器を向けている。
(b2)画像において、人物Bは、片手または両手を挙げている。
(b3)画像において、金品またはモノを人物Bまたは協力者と思われる別の人物Cが奪っている、または、人物Bまたは他の人物Dが人物Aまたは人物Cに渡している。
For example, in order to determine that an event is a "robbery", the following determination conditions may be used.
(B1) A weapon (learning a gun, a knife, etc.) is detected from the image, and one person A points the weapon at the other person B.
(B2) In the image, the person B raises one or both hands.
(B3) In the image, the money or thing is stolen by the person B or another person C who seems to be a collaborator, or the person B or another person D is passing it to the person A or the person C.
 例えば、事象を「観光客における盗難被害(観光客に対する強奪)」であると判別するために、以下の判別条件を用いてもよい。
(c1)画像において、人物Aが人物Bに接近して人物Bの半径1メートル以内に進入し、人物Aが人物Bに話しかけている。
(c2)画像において、人物Aが何かモノを取り出し、人物Bにモノをかける動作をしている。(例えば、臭い物をかけている)
(c3)画像において、人物Aまたは協力者と思われる別の人物Cが人物Bの保持しているモノを奪い取っている。
(c4)犯行にかかった時間は30秒以内である。
(c5)犯行により破壊されたものはない。
For example, the following determination conditions may be used to determine that an event is "theft damage by tourists (stealing of tourists)".
(C1) In the image, the person A approaches the person B and enters within a radius of 1 meter of the person B, and the person A talks to the person B.
(C2) In the image, the person A takes out something and puts something on the person B. (For example, I'm wearing a smelly thing)
(C3) In the image, person A or another person C who seems to be a collaborator is robbing the thing held by person B.
(C4) The time taken for the crime is within 30 seconds.
(C5) Nothing was destroyed by the crime.
 事象情報生成部102は、画像解析の結果が複数の条件全てを満たしたとき、対応する犯罪が発生したと判別してもよいし、全ての条件を満たしていなくても、発生した可能性がある犯罪を判別してもよい。事象情報生成部102は、事象の発生の可能性の確率(パーセンテージなど)を算出してもよい。 The event information generation unit 102 may determine that the corresponding crime has occurred when the result of the image analysis satisfies all of the plurality of conditions, or may have occurred even if all the conditions are not satisfied. You may determine a crime. The event information generation unit 102 may calculate the probability (percentage, etc.) of the possibility of occurrence of an event.
 事象情報生成部102は、事象が検知されたとき、当該事象が検知された画像の認識結果から当該事象に関する事象情報を生成する。事象情報生成部102により生成される事象情報は、判別した犯罪、事故、事件の詳細な内容を示す情報である。事象情報は、例えば、犯罪や事件の種類、登場人物に関する情報(人数、犯人と被害者の区分、各人の特徴を示す情報)、凶器の有無、凶器の種類、犯行時間(犯行にかかった時間)、破壊された物の有無や規模、負傷者の有無や状態(倒れている状態、座り込んでいる状態、動きの有無、目を開いているか否か、出血の有無などを示す状態)や人数、車輌利用の有無、利用された車輌の特徴を示す情報などのうち、少なくとも一つを含む。 When an event is detected, the event information generation unit 102 generates event information related to the event from the recognition result of the image in which the event is detected. The event information generated by the event information generation unit 102 is information indicating the detailed contents of the determined crime, accident, and incident. The event information includes, for example, the type of crime or incident, information about the characters (number of people, classification of criminal and victim, information showing the characteristics of each person), presence / absence of weapons, type of weapons, and time of crime (crime time). Time), presence / absence and scale of destroyed objects, presence / absence and condition of injured (state of lying down, sitting, movement, open eyes, bleeding, etc.) Includes at least one of the number of people, whether or not the vehicle is used, and information indicating the characteristics of the vehicle used.
 事象情報は、当該事象の規模を示す情報を含むが、事象の規模の少なくとも一部は、当該事象の発生前後の時点の画像の差分を用いて決定される。さらに、事象の規模は当該事象の継続時間(つまり、犯行にかかった時間)を含む。例えば、当該事象の発生前後の時点の画像の差分が大きい程、事象による被害の規模が大きいことか推定される。また、犯行にかかった時間は、画像に犯罪者が登場した時点から、犯罪者が逃走して画像から居なくなった時点までの時間を計測することで算出できる。 The event information includes information indicating the scale of the event, but at least a part of the scale of the event is determined by using the difference between the images at the time before and after the occurrence of the event. In addition, the magnitude of the event includes the duration of the event (ie, the time taken to commit the crime). For example, it is estimated that the larger the difference between the images before and after the occurrence of the event, the larger the scale of damage caused by the event. In addition, the time taken for the crime can be calculated by measuring the time from the time when the criminal appears in the image to the time when the criminal escapes and disappears from the image.
 経路生成部104が生成する推定移動経路とは、画像から検知された事象に関連する人物または車輌が、その後移動すると考えられる移動先、および事象の発生場所から移動先までの経路などを示す情報を含む。例えば、事象が犯罪である場合、推定移動経路は、その犯人が逃亡する移動先と、犯罪の発生場所から移動先までの経路を示す。つまり、経路生成部104は、犯罪が発生したときに、その犯人の移動先と事象の発生場所から移動先までの経路を推定し、推定移動経路を生成する。 The estimated movement route generated by the route generation unit 104 is information indicating a movement destination where a person or a vehicle related to the event detected from the image is considered to move after that, a route from the place where the event occurs to the movement destination, and the like. including. For example, if the event is a crime, the presumed travel route indicates where the criminal escapes and the route from the location of the crime to the destination. That is, when a crime occurs, the route generation unit 104 estimates the destination of the criminal's movement and the route from the place where the event occurs to the destination, and generates an estimated movement route.
 経路推定の対象となる人物は、犯罪者に限定されない。事象に関連する人物として、被害者を含んでもよい。例えば、共犯者が被害者や傍観者のフリをしている可能性もあるため、その場所に居た事象に関連する人物全て(画像に含まれている全ての人物)を経路推定の対象者としてもよい。あるいは、犯罪者に対して被害者が正当防衛で誤って傷害致死を犯してしまったような場合も考えられるため、その場所に居た事象に関連する人物全て(画像に含まれている全ての人物)を経路推定の対象者とするのが好ましい。 The person who is the target of route estimation is not limited to criminals. Victims may be included as persons involved in the event. For example, an accomplice may pretend to be a victim or a bystander, so all persons related to the event at that location (all persons included in the image) are targeted for route estimation. May be. Alternatively, it is possible that the victim accidentally committed an injury or death to the criminal in self-defense, so all the persons related to the event at that location (all included in the image). It is preferable that the person) is the target of the route estimation.
 犯人は、犯罪を起こしたときに、例えば、想定外の出来事が起こって慌てたり、犯行に時間がかかって焦ったり、金品が思った程奪えなくてイライラしたり、警報が鳴って不安になったりする状況に陥る場合がある。このような状態になると、犯人は思考力が低下し、日頃の生活様式に近い行動をとろうとする可能性が高いと考えられる。つまり、犯罪者が日頃生活していそうな場所に逃亡すると推定できる。 When a criminal commits a crime, for example, an unexpected event occurs and he is in a hurry, the crime takes a long time and he is impatient, he is frustrated because he cannot take as much money as he expected, and an alarm sounds and he becomes anxious. You may fall into a situation where you do. In such a state, the criminal's thinking ability is weakened, and it is highly likely that he / she will try to act in a manner similar to his / her daily lifestyle. In other words, it can be estimated that criminals flee to places where they are likely to live on a daily basis.
 本実施形態では、犯罪の種類毎に、想定される犯罪の内容を示す想定事象情報を作成し、犯罪モデル350に登録している。そして、経路生成部104は、この犯罪モデル350と、カメラ5から取得した画像を処理して生成された事象情報とを比較し、その差を求めている。つまり、経路生成部104は、想定される犯罪の内容と、実際の犯罪の内容に乖離があるか否かを差として求め、犯罪者の心理状態を示す興奮度とする。興奮度は、例えば、レベル1~レベル5の5段階で示してもよい。例えば、興奮度が高いとはレベル5、興奮度が低いとはレベル1であってもよい。あるいは、興奮度は例えば、1~100で示される数値であってもよく、特に限定されない。 In this embodiment, assumed event information indicating the content of the assumed crime is created for each type of crime and registered in the crime model 350. Then, the route generation unit 104 compares the crime model 350 with the event information generated by processing the image acquired from the camera 5, and obtains the difference. That is, the route generation unit 104 finds as a difference whether or not there is a discrepancy between the content of the assumed crime and the content of the actual crime, and sets it as the degree of excitement indicating the psychological state of the criminal. The degree of excitement may be shown, for example, in five stages from level 1 to level 5. For example, a high degree of excitement may be level 5, and a low degree of excitement may be level 1. Alternatively, the degree of excitement may be, for example, a numerical value represented by 1 to 100, and is not particularly limited.
 興奮度を算出する際に判断基準として、犯罪情報の複数の項目を用いることができる。例えば、犯行にかかった時間、犯行現場の破壊の規模、後述する犯罪者の体力などを示すフィジカル情報などが判断基準となる。犯罪の推定事象情報と、実際に発生した犯罪の事象情報について、これらの項目のうち少なくとも一つを用いて差を求め、興奮度を算出することができる。複数の項目を用いる場合には、差を合計して項目数で除算して興奮度としてもよい。あるいは、項目毎に所定の重み係数(例えば、犯行にかかった時間は係数k1=0.4、犯行現場の破壊の規模は係数k2=0.4、フィジカル情報は係数k3=0.2)を掛けて合計してもよい。 Multiple items of criminal information can be used as judgment criteria when calculating the degree of excitement. For example, the time taken for the crime, the scale of destruction at the crime scene, and physical information indicating the physical strength of the criminal, which will be described later, are used as judgment criteria. The degree of excitement can be calculated by calculating the difference between the estimated crime event information and the actually occurring crime event information using at least one of these items. When a plurality of items are used, the difference may be totaled and divided by the number of items to obtain the degree of excitement. Alternatively, a predetermined weighting coefficient (for example, the time taken for the crime is the coefficient k1 = 0.4, the scale of destruction at the crime scene is the coefficient k2 = 0.4, and the physical information is the coefficient k3 = 0.2) for each item. You may multiply and add up.
 一方、計画的または組織的な犯罪の場合、犯人は冷静に行動する場合が多く、失敗も少ないため、短時間で犯行が終わる。つまり、想定事象情報と同じように犯行が遂行されるため、想定事象情報と、実際の犯行を示す事象情報との乖離がない。つまり、経路生成部104により算出される、想定事象情報と事象情報との差は小さくなり、興奮度も低くなる。 On the other hand, in the case of a planned or organized crime, the criminal often acts calmly and there are few mistakes, so the crime ends in a short time. That is, since the crime is executed in the same manner as the assumed event information, there is no discrepancy between the assumed event information and the event information indicating the actual crime. That is, the difference between the assumed event information and the event information calculated by the route generation unit 104 becomes small, and the degree of excitement also becomes low.
 以上から、経路生成部104は、興奮度に応じて推定移動経路を下記のように生成する。例えば、犯罪者の興奮度が高い場合、思考力が低下しており、日頃の生活様式に近い行動をとろうとする可能性が高いと考えられる。つまり、経路生成部104は、犯罪者が日頃生活していそうな場所に逃亡すると推定し、犯行が行われた場所を出発点としており、かつこの場所を目的地としたルート生成を行うことにより、推定移動経路を生成する。一方、犯罪者の興奮度が低い場合、冷静な判断のもと行動できるため、逃走ルートも計画に沿ったものである可能性が高く、より犯行現場から遠い場所や国外に逃亡する可能性もある。よって、経路生成部104は、興奮度が低い場合、移動先として、空港や空港行きのバスや電車などの公共交通機関のバス乗り場や駅を推定し、犯行が行われた場所を出発点としており、かつこの移動先を目的地としたルート生成を行うことにより、推定移動経路を生成する。 From the above, the route generation unit 104 generates an estimated movement route according to the degree of excitement as follows. For example, if a criminal has a high degree of excitement, his or her thinking ability is weakened, and it is highly likely that he or she will try to act in a manner similar to his or her daily lifestyle. That is, the route generation unit 104 estimates that the criminal escapes to a place where he / she is likely to live on a daily basis, starts from the place where the crime was committed, and generates a route with this place as the destination. , Generate an estimated travel path. On the other hand, if the criminal's excitement is low, he / she can act based on calm judgment, so the escape route is likely to be in line with the plan, and there is a possibility that he / she will escape to a place farther from the crime scene or abroad. be. Therefore, when the degree of excitement is low, the route generation unit 104 estimates the bus stop or station of public transportation such as an airport or a bus or train to the airport as a destination, and uses the place where the crime was committed as the starting point. An estimated travel route is generated by generating a route with the destination as the destination.
<動作例>
 図5は、本実施形態の情報処理装置100の動作例を示すフローチャートである。事象情報生成部102は、画像を処理することにより、事象の発生を検知すると(ステップS101のYES)、検知された事象に関する事象情報を生成する(ステップS103)。そして、経路生成部104は、生成した前記事象情報と、その事象に対して予め定められている想定事象情報との差を用いて推定移動経路を生成する(ステップS105)。
<Operation example>
FIG. 5 is a flowchart showing an operation example of the information processing apparatus 100 of the present embodiment. When the event information generation unit 102 detects the occurrence of an event by processing the image (YES in step S101), the event information generation unit 102 generates event information regarding the detected event (step S103). Then, the route generation unit 104 generates an estimated movement route by using the difference between the generated event information and the assumed event information predetermined for the event (step S105).
 より詳細には、ステップS101で、事象情報生成部102は、画像処理装置200に、カメラ5から取得した画像を処理させる。画像処理装置200は、画像認識モデル340を用いて画像から人物、車両、凶器、および周囲の状況などを認識する。事象情報生成部102は、犯罪データベース310を用いて、画像処理装置200による画像認識結果を照合し、犯罪の発生を検知するとともに、当該犯罪の種類を特定する。さらに、ステップS103で、事象情報生成部102は、画像認識結果を用いて事象情報を生成する。 More specifically, in step S101, the event information generation unit 102 causes the image processing device 200 to process the image acquired from the camera 5. The image processing device 200 uses the image recognition model 340 to recognize a person, a vehicle, a weapon, a surrounding situation, and the like from an image. The event information generation unit 102 collates the image recognition result of the image processing device 200 with the crime database 310, detects the occurrence of a crime, and identifies the type of the crime. Further, in step S103, the event information generation unit 102 generates event information using the image recognition result.
 そして、ステップS105で、経路生成部104は、犯罪モデル350から、事象情報生成部102により特定された種類の犯罪に対応する想定事象情報を取得し、想定事象情報と、事象情報生成部102が生成した事象情報とを比較し、差を求める。経路生成部104は、求めた差が示す犯人の興奮度が閾値より高い場合、例えば、閾値をレベル4とした場合、興奮度がレベル5場合、犯人の逃走先は犯人が日常生活しているエリアであると推定する。本実施形態では、例えば、犯行場所が繁華街の店舗であったとすると、犯人の移動先は、犯行場所の郊外の住宅街エリアであってもよい。また、興奮度がレベル1の場合、組織的かつ計画的な犯行である可能性が高いので、犯人の移動先は、例えば、高飛びするための近隣の空港、または空港に行くためのリムジンバスの乗り場であっもてよい。経路生成部104は、空港またはリムジンバス乗り場までの経路を生成する。 Then, in step S105, the route generation unit 104 acquires the assumed event information corresponding to the type of crime specified by the event information generation unit 102 from the crime model 350, and the assumed event information and the event information generation unit 102 Compare with the generated event information and find the difference. When the degree of excitement of the criminal indicated by the obtained difference is higher than the threshold value, for example, when the threshold value is set to level 4, the degree of excitement is level 5, the criminal's escape destination is the criminal's daily life. Estimated to be an area. In the present embodiment, for example, if the crime place is a store in a downtown area, the destination of the criminal may be a residential area in the suburbs of the crime place. Also, if the degree of excitement is level 1, there is a high possibility that the crime is organized and planned, so the criminal's destination is, for example, a nearby airport to fly high, or a limousine bus to go to the airport. It may be a platform. The route generation unit 104 generates a route to the airport or the limousine bus stop.
 本実施形態によれば、事象情報生成部102は、画像を処理することにより、事象の発生を検知するとともに、検知された事象に関する事象情報を生成し、経路生成部104は、生成した前記事象情報と、その事象に対して予め定められている想定事象情報との差を用いて推定移動経路を生成する。これにより、画像から犯罪などの事象が検知されたとき、その犯罪に関わる犯罪者の推定逃亡経路を生成することができる。 According to the present embodiment, the event information generation unit 102 detects the occurrence of an event by processing the image, and also generates event information regarding the detected event, and the route generation unit 104 generates the above-mentioned thing. An estimated movement route is generated using the difference between the elephant information and the assumed event information predetermined for the event. As a result, when an event such as a crime is detected from the image, it is possible to generate an estimated escape route for the criminal involved in the crime.
(第2実施形態)
 本実施形態の情報処理装置100は、撮像画像に含まれる事象に関連する人物の属性情報を用いて推定移動経路を生成する構成を有する点以外は上記実施形態と同じである。本実施形態の情報処理装置100は、第1実施形態と同じ構成を有するので、図3を用いて説明する。ただし、本実施形態の情報処理装置100は、他の実施形態の構成の少なくともいずれか一つと矛盾を生じない範囲で組み合わせてもよい。
(Second Embodiment)
The information processing apparatus 100 of the present embodiment is the same as the above-described embodiment except that it has a configuration for generating an estimated movement path using attribute information of a person related to an event included in the captured image. Since the information processing apparatus 100 of the present embodiment has the same configuration as that of the first embodiment, it will be described with reference to FIG. However, the information processing apparatus 100 of the present embodiment may be combined within a range that does not cause a contradiction with at least one of the configurations of the other embodiments.
<機能構成例>
 事象情報生成部102は、画像を処理して、事象に関連する関連人物およびその属性情報を生成する。経路生成部104は、生成された関連人物およびその属性情報を用いて推定移動経路を生成する。
<Function configuration example>
The event information generation unit 102 processes an image to generate related persons related to the event and their attribute information. The route generation unit 104 generates an estimated movement route using the generated related person and its attribute information.
 事象に関連する関連人物とは、少なくとも犯人である。さらに、被害者またはその場に居合わせた全ての人物、言い換えると、画像に含まれる人物全員または少なくともその中から一部の人物を関連人物としてもよい。関連人物の属性情報は、例えば、関連人物の人数、年齢(年代)、性別、服装(身なり)、装飾品(帽子、眼鏡、覆面、マスクなども含む)、髪型、髪色、および体格(身長や体型(細身、長身、小柄、大柄、肥満など))などのうち少なくとも一つの情報を含む。また、事象情報生成部102は、犯人が使用している車輌の特徴を示す情報を関連人物の属性情報に含んでもよい。車輌の特徴を示す情報は、例えば、車種、ナンバープレートに記載されている地域情報、車輌の色、ウインドウの色(スモーク)、乗車人数などのうち少なくとも一つの情報を含む。 The related person related to the event is at least the criminal. Further, the victim or all persons present at the site, in other words, all persons included in the image or at least some of them may be related persons. Attribute information of related persons includes, for example, the number of related persons, age (age), gender, clothes (dress), ornaments (including hat, glasses, mask, mask, etc.), hairstyle, hair color, and physique (height). Includes at least one piece of information such as body shape (slender, tall, petite, large, obese, etc.). In addition, the event information generation unit 102 may include information indicating the characteristics of the vehicle used by the criminal in the attribute information of the related person. The information indicating the characteristics of the vehicle includes, for example, at least one of the vehicle type, the area information written on the license plate, the color of the vehicle, the color of the window (smoke), the number of passengers, and the like.
 経路生成部104は、エリアデータベース320を用いて、事象情報生成部102が生成した関連人物の属性情報と照合することで、関連人物が日常生活しているエリア、または関連人物が勤務している建物などを特定する。そして、上記第1実施形態と同様に、経路生成部104は、想定事象情報と、画像から生成された事象情報とを比較して、その差を求め、興奮度とする。そして、経路生成部104は、興奮度が高い(例えば、レベル5)の場合、特定された関連人物が日常生活しているエリアを移動先と特定し、犯行現場から移動先までの推定移動経路を生成する。さらに、他の移動先として、例えば、犯人の年齢層などから、同年代が集まるたまり場、娯楽施設、酒場などを移動先としてもよい。 The route generation unit 104 uses the area database 320 to collate with the attribute information of the related person generated by the event information generation unit 102, so that the area in which the related person lives or the related person is working. Identify the building, etc. Then, as in the first embodiment, the route generation unit 104 compares the assumed event information with the event information generated from the image, obtains the difference, and uses it as the degree of excitement. Then, when the degree of excitement is high (for example, level 5), the route generation unit 104 identifies the area where the specified related person is living in daily life as the movement destination, and the route generation unit 104 identifies the area where the specified related person lives as a movement destination, and the estimated movement route from the crime scene to the movement destination. To generate. Further, as other destinations, for example, a hangout, an entertainment facility, a bar, etc. where the same age group gathers from the age group of the criminal may be the destination.
<動作例>
 図6は、本実施形態の情報処理装置100の動作例を示すフローチャートである。図1のステップS101は、図6のステップS201、ステップS205が相当し、図1のステップS103は、図6のステップS203が相当と、図1のステップS105は、図6のステップS209~ステップS215が相当する。
<Operation example>
FIG. 6 is a flowchart showing an operation example of the information processing apparatus 100 of the present embodiment. Step S101 of FIG. 1 corresponds to step S201 and step S205 of FIG. 6, step S103 of FIG. 1 corresponds to step S203 of FIG. 6, and step S105 of FIG. 1 corresponds to steps S209 to S215 of FIG. Is equivalent.
 まず、事象情報生成部102は、カメラ5から撮像画像を取得し、画像処理装置200によりに画像処理させる(ステップS201)。そして。事象情報生成部102は、犯罪データベース310と、カメラ5から取得した画像を比較し、犯罪の種類を特定し、さらに事象情報を生成する(ステップS203)。そして、事象情報生成部102は、犯罪の発生を検知すると(ステップS205のYES)、経路生成部104は、画像処理装置200により画像から抽出された人物の特徴量を用いて、当該画像とエリアデータベース320とを比較し、人物が日頃生活していると思われる場所(人物の生活圏と示す)を特定する(ステップS207)。 First, the event information generation unit 102 acquires an captured image from the camera 5 and causes the image processing device 200 to process the image (step S201). and. The event information generation unit 102 compares the crime database 310 with the image acquired from the camera 5, identifies the type of crime, and further generates the event information (step S203). Then, when the event information generation unit 102 detects the occurrence of a crime (YES in step S205), the route generation unit 104 uses the feature amount of the person extracted from the image by the image processing device 200 to use the image and the area. By comparing with the database 320, the place where the person seems to live on a daily basis (indicated as the living area of the person) is specified (step S207).
 例えば、他民族国家では、地域によって文化、言語、服装などが異なっている。また、首都圏などの所定のエリアでは、他の地域の出身者は同郷者同士が同じエリアにかたまって住むこともよくある。そのため、経路生成部104は、人物が使用している言語を音声解析により識別したり、服装などを画像処理により識別したりすることで、当該人物の生活圏を特定できてもよい。 For example, in other ethnic nations, culture, language, clothes, etc. differ depending on the region. Also, in certain areas such as the Tokyo metropolitan area, people from other areas often live together in the same area. Therefore, the route generation unit 104 may be able to identify the living area of the person by identifying the language used by the person by voice analysis or by identifying clothes and the like by image processing.
 そして、経路生成部104は、犯罪モデル350から、ステップS203で特定した犯罪に対応する犯罪情報を取得し、ステップS203で生成した事象情報との差を求め、興奮度を算出する(ステップS209)。そして、ステップS209で算出された興奮度が閾値以上である場合、つまり、興奮度が高い場合(ステップS211のYES)、経路生成部104は、関連人物の生活圏を移動先として選択し、犯行現場から移動先までの推定移動経路を生成する(ステップS213)。また、ステップS209で算出された興奮度が閾値未満である場合、つまり、興奮度が低い場合(ステップS211のNO)、経路生成部104は、空港などを移動先として選択し、犯行現場から移動先までの推定移動経路を生成する(ステップS215)。 Then, the route generation unit 104 acquires the crime information corresponding to the crime specified in step S203 from the crime model 350, obtains the difference from the event information generated in step S203, and calculates the degree of excitement (step S209). .. Then, when the excitement degree calculated in step S209 is equal to or higher than the threshold value, that is, when the excitement degree is high (YES in step S211), the route generation unit 104 selects the living area of the related person as the movement destination and commits the crime. An estimated movement route from the site to the movement destination is generated (step S213). Further, when the degree of excitement calculated in step S209 is less than the threshold value, that is, when the degree of excitement is low (NO in step S211), the route generation unit 104 selects an airport or the like as the destination and moves from the crime scene. The estimated movement route up to the point is generated (step S215).
 例えば、事象情報生成部102は、犯人の服装などから、電車やバスなどの公共交通機関を利用する人物か否か、オフィス街、高級住宅街、いずれに日常居る人かを特定してもよい。 For example, the event information generation unit 102 may identify from the clothes of the criminal whether or not the person uses public transportation such as a train or a bus, and whether or not the person is in an office district or a high-class residential district on a daily basis. ..
 本実施形態によれば、事象情報生成部102は、発生した事象に関連する関連人物とその属性情報を用いて事象情報を生成し、経路生成部104は、この事象情報を用いて推定移動経路を生成する。この構成により、逃走先のエリアを特定できるので、高精度に逃走ルートを推定できる。 According to the present embodiment, the event information generation unit 102 generates event information using the related person related to the generated event and its attribute information, and the route generation unit 104 uses this event information to generate an estimated movement route. To generate. With this configuration, the area of the escape destination can be specified, so that the escape route can be estimated with high accuracy.
(第3実施形態)
 本実施形態の情報処理装置100は、事象に関連する人物の属性情報を用いて、当該人物の体力を推定し、逃走可能範囲を考慮して推定移動経路を生成する構成を有する点で上記第2の実施形態と相違する。本実施形態の情報処理装置100は、第1実施形態と同じ構成を有するので、図3を用いて説明する。ただし、本実施形態の情報処理装置100は、他の実施形態の構成の少なくともいずれか一つと矛盾を生じない範囲で組み合わせてもよい。
(Third Embodiment)
The information processing apparatus 100 of the present embodiment has a configuration in which the physical strength of the person is estimated by using the attribute information of the person related to the event and the estimated movement route is generated in consideration of the escapeable range. It differs from the second embodiment. Since the information processing apparatus 100 of the present embodiment has the same configuration as that of the first embodiment, it will be described with reference to FIG. However, the information processing apparatus 100 of the present embodiment may be combined within a range that does not cause a contradiction with at least one of the configurations of the other embodiments.
 記憶装置300は、標準フィジカル情報を記憶しておく。標準フィジカル情報は、人物の歩行スピード(例えば、歩幅)、および逃走可能範囲(体力)の標準値を、人物の顔、身体情報(身長、体重)、服装、性別などの属性情報に関連付けて含む。 The storage device 300 stores standard physical information. The standard physical information includes a standard value of a person's walking speed (for example, stride length) and escape range (physical strength) in association with attribute information such as the person's face, physical information (height, weight), clothes, and gender. ..
 例えば、標準フィジカル情報として、標準の身長180cm、体重80kg、年齢20代、男性の人物の場合、歩幅1.2メートル、逃走可能範囲は30分が、人物の属性情報に関連付けて記憶装置300に記憶されている。 For example, as standard physical information, a standard height of 180 cm, weight of 80 kg, age of 20s, and a male person have a stride of 1.2 meters and an escapeable range of 30 minutes. It is remembered.
 この標準フィジカル情報は、犯罪モデル350に含まれてよい。そして、経路生成部104は、この標準フィジカル情報と、事象情報生成部102により生成された事象情報に含まれるフィジカル情報との差を求め、このフィジカル情報の差と他の事象情報の差を用いて興奮度を算出する。 This standard physical information may be included in the crime model 350. Then, the route generation unit 104 obtains the difference between this standard physical information and the physical information included in the event information generated by the event information generation unit 102, and uses the difference between this physical information and the difference between other event information. And calculate the degree of excitement.
 ただし、標準フィジカル情報は、天候、国、地理的条件なども考慮するのが好ましい。つまり、雨天時には、標準フィジカル情報の歩行スピードを遅くしてもよいし、移動経路が上り坂の場合、標準フィジカル情報の歩行可能範囲(体力)を短くしてもよい。天候情報は、犯罪の発生したエリアや推定移動経路が含まれるエリアの天気予報情報を所定のウェブサイトから取得してもよい。また、地理的情報は、地図データベース330に予め登録されているのが好ましい。 However, it is preferable to consider the weather, country, geographical conditions, etc. in the standard physical information. That is, in rainy weather, the walking speed of the standard physical information may be slowed down, and when the movement route is uphill, the walking range (physical strength) of the standard physical information may be shortened. As the weather information, the weather forecast information of the area where the crime has occurred or the area including the estimated travel route may be obtained from a predetermined website. Moreover, it is preferable that the geographical information is registered in advance in the map database 330.
 本実施形態において、事象情報としてフィジカル情報を含むので、事象情報生成部102は、犯人の体格などによる逃走能力を考慮して犯人の興奮度を算出する。これにより、より精度よく適切な移動経路を推定できる。 In the present embodiment, since physical information is included as event information, the event information generation unit 102 calculates the degree of excitement of the criminal in consideration of the escape ability due to the physique of the criminal and the like. As a result, an appropriate movement route can be estimated more accurately.
(第4実施形態)
 図7は、本実施形態の情報処理装置100の論理的な構成例を示す機能ブロック図である。本実施形態の情報処理装置100は、検知された事象の情報と推定移動経路を出力させる構成を有する点で上記他の実施形態と相違する。情報処理装置100は、図3の情報処理装置100の構成に加え、さらに、出力処理部106を備えている。ただし、本実施形態の情報処理装置100は、他の実施形態の構成の少なくともいずれか一つと矛盾を生じない範囲で組み合わせてもよい。
(Fourth Embodiment)
FIG. 7 is a functional block diagram showing a logical configuration example of the information processing apparatus 100 of the present embodiment. The information processing apparatus 100 of the present embodiment is different from the other embodiments in that it has a configuration for outputting information on a detected event and an estimated movement route. The information processing device 100 further includes an output processing unit 106 in addition to the configuration of the information processing device 100 of FIG. However, the information processing apparatus 100 of the present embodiment may be combined within a range that does not cause a contradiction with at least one of the configurations of the other embodiments.
 出力処理部106は、経路生成部104で生成された推定移動経路を所定の出力先に出力させる。出力先は、様々考えられるが、例えば、監視センタの表示装置110の監視用のモニタ画面であってもよいし、警察官や警備員などが携帯している端末(不図示)であってもよいし、警察署の表示装置(不図示)の監視用のモニタ画面であってもよい。出力方法は、モニタ画面への表示、メールの送信、およびスピーカ(不図示)からの音声または警報音の出力の少なくともいずれか一つを含む。メールの送信先となるメールアドレス、携帯端末のIPアドレス、および携帯電話番号の少なくともいずれか一つの宛先は予め登録されていてもよいし、送信時に入力を受け付けてもよい。 The output processing unit 106 outputs the estimated movement route generated by the route generation unit 104 to a predetermined output destination. The output destination can be various, but for example, it may be a monitor screen for monitoring the display device 110 of the monitoring center, or a terminal (not shown) carried by a police officer or a security guard. Alternatively, it may be a monitor screen for monitoring a display device (not shown) of a police station. The output method includes at least one of display on a monitor screen, transmission of an email, and output of a voice or alarm sound from a speaker (not shown). At least one of the e-mail address to which the e-mail is sent, the IP address of the mobile terminal, and the mobile phone number may be registered in advance, or input may be accepted at the time of transmission.
 端末は、携帯電話、スマートフォン、タブレット端末、PDA(Personal Digital Assistant)、ノートPC(Personal Computer)パーソナルコンピュータなどを含む。 Terminals include mobile phones, smartphones, tablet terminals, PDAs (Personal Digital Assistants), notebook PCs (Personal Computer) personal computers, etc.
 出力内容は、検知された事象に関する情報として、事象の発生時間、発生場所、犯罪の内容、被害状況、犯人の人数、犯人の情報(顔写真、あるいは、画像から解析された属性情報(例えば、性別、年齢、容姿、服装など))、推定移動経路などの情報が出力されてよい。推定移動経路は、複数の候補を出力してもよい。推定移動先も複数の候補を出力してもよい。 The output content is information about the detected event, such as the time when the event occurred, the place where the event occurred, the content of the crime, the damage situation, the number of criminals, and the criminal information (face photo or attribute information analyzed from the image (for example,). Information such as gender, age, appearance, clothes, etc.)), estimated travel route, etc. may be output. The estimated movement route may output a plurality of candidates. A plurality of candidates may be output as the estimated movement destination.
 また、出力処理部106は、推定移動経路を示す地図と、推定移動経路上に設置されているカメラ5の映像とを、監視センタのディスプレイにマルチ表示させてもよい。 Further, the output processing unit 106 may display a map showing the estimated movement route and the image of the camera 5 installed on the estimated movement route in a multi-display on the display of the monitoring center.
 さらに、出力処理部106は、推定された移動先および推定移動経路に基づいて、移動先や経路の近辺に居る警察関係者の端末に、犯罪に関する事象情報、推定移動経路の情報を送信してもよい。このように迅速に犯罪の発生状況および逃走ルートを警察に通報することで、警察や軍隊も侵入できない武装エリアなどに犯人が逃げ込む前に犯人を確保するための支援ができる。 Further, the output processing unit 106 transmits the event information related to the crime and the information of the estimated movement route to the terminals of the police personnel who are in the vicinity of the movement destination or the route based on the estimated movement destination and the estimated movement route. May be good. By promptly reporting the crime occurrence status and escape route to the police in this way, it is possible to support the criminal to secure the criminal before the criminal escapes to an armed area where the police and the army cannot invade.
 また、情報処理装置100は、操作受付部(不図示)をさらに備えてもよい。操作受付部は、表示装置110に表示される各種設定画面への、監視システム1の管理者の操作を受け付ける。例えば、操作受付部は、犯罪データベース310に登録される犯罪情報の登録操作を受け付ける。例えば、国や地域によって、発生する犯罪の種類や手口は多様である。そのため、その地域に合わせて犯罪データベース310を構築するのが好ましい。 Further, the information processing device 100 may further include an operation reception unit (not shown). The operation reception unit receives the operation of the administrator of the monitoring system 1 on the various setting screens displayed on the display device 110. For example, the operation reception unit accepts a registration operation of crime information registered in the crime database 310. For example, the types and methods of crimes that occur vary from country to region. Therefore, it is preferable to construct the crime database 310 according to the area.
 例えば、管理者は、操作受付部を用いてその地域の過去の犯罪の映像を入力し、機械学習させて犯罪データベース310に登録させることができる。その他のエリアデータベース320、地図データベース330、画像認識モデル340、犯罪モデル350も同様に、その地域に特化した情報を登録させることができる。これらの情報は、状況の変化に応じて随時更新されるのが好ましい。 For example, the administrator can input a video of a past crime in the area using the operation reception unit, perform machine learning, and register it in the crime database 310. Similarly, the other area database 320, the map database 330, the image recognition model 340, and the crime model 350 can also register information specific to the area. This information is preferably updated from time to time as circumstances change.
 さらに、上記した警察関係者の端末に推定移動経路の情報を送信する構成において、複数の犯罪が発生している場合に、操作受付部は、警察関係者に応援を要請したい犯罪を指定するために、犯罪が発生した現場の情報および犯罪が発生した時刻の入力を受け付けてもよい。指定された犯罪について、出力処理部106は、推定移動経路の近辺に存在している警察関係者の端末を特定して、特定された警察関係者の端末に推定移動経路の情報を送信してもよい。 Furthermore, in the configuration of transmitting the information of the estimated movement route to the terminal of the police official described above, when a plurality of crimes have occurred, the operation reception unit specifies the crime for which the police official is requested to support. You may also accept input of information on the scene where the crime occurred and the time when the crime occurred. For the designated crime, the output processing unit 106 identifies the terminal of the police officer existing in the vicinity of the estimated travel route, and transmits the information of the estimated travel route to the terminal of the identified police officer. May be good.
 警察関係者の現在位置は、警察関係者の端末のGPS(Global Positioning System)受信機能により取得される位置情報を取得することで特定できてよい。 The current position of the police officer may be specified by acquiring the position information acquired by the GPS (Global Positioning System) reception function of the terminal of the police officer.
 本実施形態によれば、出力処理部106は、経路生成部104で生成された推定移動経路を所定の出力先に出力させることができる。これにより、事象(犯罪)の発生を検知した後に、犯罪者の逃走ルートを警察関係者の端末に送信することができるので、迅速な犯人逮捕を支援することができる。 According to the present embodiment, the output processing unit 106 can output the estimated movement route generated by the route generation unit 104 to a predetermined output destination. As a result, after detecting the occurrence of an event (crime), the escape route of the criminal can be transmitted to the terminal of the police official, so that the prompt arrest of the criminal can be supported.
 以上、図面を参照して本発明の実施形態について述べたが、これらは本発明の例示であり、上記以外の様々な構成を採用することもできる。
 例えば、カメラ5により犯人の逃走経路となりそうな道路に設置されているカメラ5から道路の画像を取得し、道路の混雑状況を示す情報を生成してもよい。経路生成部104は、犯人が車両を利用して逃走している場合などに、道路の混雑状況(渋滞情報)を考慮して移動推定経路を変更してもよい。
Although the embodiments of the present invention have been described above with reference to the drawings, these are examples of the present invention, and various configurations other than the above can be adopted.
For example, the camera 5 may acquire an image of the road from the camera 5 installed on the road that is likely to be the escape route of the criminal, and generate information indicating the congestion status of the road. The route generation unit 104 may change the movement estimation route in consideration of the road congestion situation (traffic jam information) when the criminal is escaping by using a vehicle.
 上記実施形態では、経路生成部104は1つの移動先を推定し、推定移動経路を生成していた。他の形態では、経路生成部104は、移動先として複数の候補を推定してもよい。出力処理部106は、複数の候補を、犯罪の発生場所に近い順に地図上にプロットして、表示装置110の画面に表示してもよい。複数の移動先の候補のうち、興奮度が高い程、犯行現場に近い移動先を選択し、興奮度が低い場合は犯行現場から遠い移動先を選択してもよい。 In the above embodiment, the route generation unit 104 estimates one movement destination and generates an estimated movement route. In another form, the route generation unit 104 may estimate a plurality of candidates as the destination. The output processing unit 106 may plot a plurality of candidates on a map in order of proximity to the crime occurrence location and display them on the screen of the display device 110. Of the plurality of candidates for the destination, the higher the degree of excitement, the closer the destination to the crime scene may be selected, and if the degree of excitement is low, the destination far from the crime scene may be selected.
 また、犯罪の発生場所から移動先までの経路も複数の候補が推定されてもよい。複数の推定移動経路が生成された場合、複数の経路の候補のうち、興奮度が高い程、距離が短い経路を選択し、興奮度が低い場合、距離が長い経路を選択してもよい。 Also, multiple candidates may be estimated for the route from the place where the crime occurred to the destination. When a plurality of estimated movement routes are generated, a route having a shorter distance may be selected as the degree of excitement is higher than a plurality of candidates for the route, and a route having a longer distance may be selected when the degree of excitement is lower.
 複数の移動先および/または複数の推定移動経路が生成された場合、出力処理部106は、複数の移動先および/または複数の推定移動経路を全て表示装置110の画面に表示させてもよいし、選択された一部の移動先および/または推定移動経路を表示させてもよい。 When a plurality of destinations and / or a plurality of estimated travel routes are generated, the output processing unit 106 may display all the plurality of destinations and / or the plurality of estimated travel routes on the screen of the display device 110. , Some selected destinations and / or estimated travel routes may be displayed.
 また、経路生成部104は、推定移動経路を生成する際に、さらに事象情報を用いてもよい。具体的には、例えば、犯罪の種類に応じた推定移動経路を生成してもよい。例えば、犯罪の種類が、組織的な犯罪と考えられる強盗事件の場合は、経路生成部104は、組織的な犯罪グループの潜伏場所やアジトを移動先として推定移動経路を生成してもよい。 Further, the route generation unit 104 may further use the event information when generating the estimated movement route. Specifically, for example, an estimated travel route may be generated according to the type of crime. For example, when the type of crime is a robbery case considered to be an organized crime, the route generation unit 104 may generate an estimated travel route with the hiding place or hideout of the organized crime group as the destination.
 また、犯罪に関連する関連人物の人数が複数の場合も組織的な犯罪と考えられるため、経路生成部104は、組織的な犯罪グループの潜伏場所やアジトを移動先として推定移動経路を生成してもよい。 In addition, since it is considered to be a systematic crime when there are a plurality of related persons related to the crime, the route generation unit 104 generates an estimated movement route using the hiding place or hideout of the organized crime group as the destination. You may.
 以上、実施形態および実施例を参照して本願発明を説明したが、本願発明は上記実施形態および実施例に限定されるものではない。本願発明の構成や詳細には、本願発明のスコープ内で当業者が理解し得る様々な変更をすることができる。
 なお、本発明において利用者に関する情報を取得および/または利用する場合は、これを適法に行うものとする。
Although the present invention has been described above with reference to the embodiments and examples, the present invention is not limited to the above embodiments and examples. Various changes that can be understood by those skilled in the art can be made within the scope of the present invention in terms of the structure and details of the present invention.
When acquiring and / or using information about a user in the present invention, this shall be done legally.
 以下、参考形態の例を付記する。
1. 画像を処理することにより、事象の発生を検知するとともに、前記事象に関する事象情報を生成する事象情報生成手段と、
 生成した前記事象情報と、その事象に対して予め定められている想定事象情報との差を用いて推定移動経路を生成する経路生成手段と、
を備える、情報処理装置。
2. 1.に記載の情報処理装置において、
 前記事象情報生成手段は、前記画像を処理して前記事象に関連する関連人物およびその属性情報を生成し、
 前記経路生成手段は、生成された前記関連人物およびその前記属性情報を用いて前記推定移動経路を生成する、情報処理装置。
3. 1.または2.に記載の情報処理装置において、
 前記事象情報は、当該事象の規模を含む、情報処理装置。
4. 3.に記載の情報処理装置において、
 前記事象の規模の少なくとも一部は、当該事象の発生前後の当該時点の画像の差分を用いて決定される、情報処理装置。
5. 3.または4.に記載の情報処理装置において、
 前記事象の規模は、当該事象の継続時間を含む、情報処理装置。
6. 1.から5.のいずれか一つに記載の情報処理装置において、
 前記経路生成手段は、前記推定移動経路を生成する際に、さらに前記事象情報を用いる、情報処理装置。
7. 6.に記載の情報処理装置において、
 前記事象情報は、当該事象の種類を含む、情報処理装置。
8. 6.または7.に記載の情報処理装置において、
 前記事象の規模は、関連人物の人数を含む、情報処理装置。
9. 情報処理装置が、
 画像を処理することにより、事象の発生を検知するとともに、前記事象に関する事象情報を生成し、
 生成した前記事象情報と、その事象に対して予め定められている想定事象情報との差を用いて推定移動経路を生成する、
情報処理方法。
10. 9.に記載の情報処理方法において、
 前記情報処理装置が、
 前記画像を処理して前記事象に関連する関連人物およびその属性情報を生成し、
 生成された前記関連人物およびその前記属性情報を用いて前記推定移動経路を生成する、情報処理方法。
11. 9.または10.に記載の情報処理方法において、
 前記事象情報は、当該事象の規模を含む、情報処理方法。
12. 11.に記載の情報処理方法において、
 前記事象の規模の少なくとも一部は、当該事象の発生前後の当該時点の画像の差分を用いて決定される、情報処理方法。
13. 11.または12.に記載の情報処理方法において、
 前記事象の規模は、当該事象の継続時間を含む、情報処理方法。
14. 9.から13.のいずれか一つに記載の情報処理方法において、
 前記情報処理装置が、
 前記推定移動経路を生成する際に、さらに前記事象情報を用いる、情報処理方法。
15. 14.に記載の情報処理方法において、
 前記事象情報は、当該事象の種類を含む、情報処理方法。
16. 14.または15.に記載の情報処理方法において、
 前記事象の規模は、関連人物の人数を含む、情報処理方法。
17. コンピュータに、
 画像を処理することにより、事象の発生を検知するとともに、前記事象に関する事象情報を生成する手順、
 生成した前記事象情報と、その事象に対して予め定められている想定事象情報との差を用いて推定移動経路を生成する手順、を実行させるためのプログラム。
18. 17.に記載のプログラムにおいて、
 前記画像を処理して前記事象に関連する関連人物およびその属性情報を生成する手順、
 生成された前記関連人物およびその前記属性情報を用いて前記推定移動経路を生成する手順、をコンピュータに実行させるためのプログラム。
19. 17.または18.に記載のプログラムにおいて、
 前記事象情報は、当該事象の規模を含む、プログラム。
20. 19.に記載のプログラムにおいて、
 前記事象の規模の少なくとも一部は、当該事象の発生前後の当該時点の画像の差分を用いて決定される、プログラム。
21. 19.または20.に記載のプログラムにおいて、
 前記事象の規模は、当該事象の継続時間を含む、プログラム。
22. 17.から21.のいずれか一つに記載のプログラムにおいて、
 前記推定移動経路を生成する際に、さらに前記事象情報を用いる手順をコンピュータに実行させるためのプログラム。
23. 22.に記載のプログラムにおいて、
 前記事象情報は、当該事象の種類を含む、プログラム。
24. 22.または23.に記載のプログラムにおいて、
 前記事象の規模は、関連人物の人数を含む、プログラム。
Hereinafter, an example of the reference form will be added.
1. 1. An event information generation means that detects the occurrence of an event and generates event information related to the event by processing an image, and
A route generation means for generating an estimated movement route by using the difference between the generated event information and the assumed event information predetermined for the event.
Information processing device.
2. 1. 1. In the information processing apparatus described in
The event information generating means processes the image to generate related persons related to the event and their attribute information.
The route generation means is an information processing device that generates the estimated movement route using the generated related person and the attribute information thereof.
3. 3. 1. 1. Or 2. In the information processing apparatus described in
The event information is an information processing device including the scale of the event.
4. 3. 3. In the information processing apparatus described in
An information processing device in which at least a part of the scale of the event is determined by using the difference between the images at the time before and after the occurrence of the event.
5. 3. 3. Or 4. In the information processing apparatus described in
The scale of the event is an information processing device including the duration of the event.
6. 1. 1. From 5. In the information processing apparatus described in any one of
The route generation means is an information processing device that further uses the event information when generating the estimated movement route.
7. 6. In the information processing apparatus described in
The event information is an information processing device including the type of the event.
8. 6. Or 7. In the information processing apparatus described in
The scale of the event is an information processing device including the number of related persons.
9. Information processing equipment
By processing the image, the occurrence of an event is detected, and event information related to the event is generated.
An estimated movement route is generated by using the difference between the generated event information and the assumed event information predetermined for the event.
Information processing method.
10. 9. In the information processing method described in
The information processing device
The image is processed to generate related persons related to the event and their attribute information.
An information processing method for generating the estimated movement route using the generated related person and the attribute information thereof.
11. 9. Or 10. In the information processing method described in
The event information is an information processing method including the scale of the event.
12. 11. In the information processing method described in
An information processing method in which at least a part of the scale of the event is determined by using the difference between the images at the time before and after the occurrence of the event.
13. 11. Or 12. In the information processing method described in
The scale of the event is an information processing method including the duration of the event.
14. 9. To 13. In the information processing method described in any one of
The information processing device
An information processing method that further uses the event information when generating the estimated movement route.
15. 14. In the information processing method described in
The event information is an information processing method including the type of the event.
16. 14. Or 15. In the information processing method described in
The scale of the event is an information processing method including the number of related persons.
17. On the computer
A procedure for detecting the occurrence of an event by processing an image and generating event information related to the event.
A program for executing a procedure for generating an estimated movement route using the difference between the generated event information and the assumed event information predetermined for the event.
18. 17. In the program described in
A procedure for processing the image to generate related persons related to the event and their attribute information,
A program for causing a computer to execute a procedure for generating the estimated movement route using the generated related person and the attribute information thereof.
19. 17. Or 18. In the program described in
The event information is a program including the scale of the event.
20. 19. In the program described in
A program in which at least a portion of the scale of the event is determined using the difference between the images at the time before and after the event occurred.
21. 19. Or 20. In the program described in
The scale of the event is a program that includes the duration of the event.
22. 17. From 21. In the program described in any one of
A program for causing a computer to perform a procedure using the event information when generating the estimated movement route.
23. 22. In the program described in
The event information is a program including the type of the event.
24. 22. Or 23. In the program described in
The scale of the event is a program that includes the number of related persons.
1 監視システム
3 通信ネットワーク
5 カメラ
7 センサ
10 人
100 情報処理装置
102 事象情報生成部
104 経路生成部
106 出力処理部
110 表示装置
200 画像処理装置
300 記憶装置
310 犯罪データベース
320 エリアデータベース
330 地図データベース
340 画像認識モデル
350 犯罪モデル
1000 コンピュータ
1010 バス
1020 プロセッサ
1030 メモリ
1040 ストレージデバイス
1050 入出力インタフェース
1060 ネットワークインタフェース
1 Surveillance system 3 Communication network 5 Camera 7 Sensor 10 People 100 Information processing device 102 Event information generation unit 104 Route generation unit 106 Output processing unit 110 Display device 200 Image processing device 300 Storage device 310 Crime database 320 Area database 330 Map database 340 images Recognition Model 350 Crime Model 1000 Computer 1010 Bus 1020 Processor 1030 Memory 1040 Storage Device 1050 I / O Interface 1060 Network Interface

Claims (24)

  1.  画像を処理することにより、事象の発生を検知するとともに、前記事象に関する事象情報を生成する事象情報生成手段と、
     生成した前記事象情報と、その事象に対して予め定められている想定事象情報との差を用いて推定移動経路を生成する経路生成手段と、
    を備える、情報処理装置。
    An event information generation means that detects the occurrence of an event and generates event information related to the event by processing an image, and
    A route generation means for generating an estimated movement route by using the difference between the generated event information and the assumed event information predetermined for the event.
    Information processing device.
  2.  請求項1に記載の情報処理装置において、
     前記事象情報生成手段は、前記画像を処理して前記事象に関連する関連人物およびその属性情報を生成し、
     前記経路生成手段は、生成された前記関連人物およびその前記属性情報を用いて前記推定移動経路を生成する、情報処理装置。
    In the information processing apparatus according to claim 1,
    The event information generating means processes the image to generate related persons related to the event and their attribute information.
    The route generation means is an information processing device that generates the estimated movement route using the generated related person and the attribute information thereof.
  3.  請求項1または2に記載の情報処理装置において、
     前記事象情報は、当該事象の規模を含む、情報処理装置。
    In the information processing apparatus according to claim 1 or 2.
    The event information is an information processing device including the scale of the event.
  4.  請求項3に記載の情報処理装置において、
     前記事象の規模の少なくとも一部は、当該事象の発生前後の当該時点の画像の差分を用いて決定される、情報処理装置。
    In the information processing apparatus according to claim 3,
    An information processing device in which at least a part of the scale of the event is determined by using the difference between the images at the time before and after the occurrence of the event.
  5.  請求項3または4に記載の情報処理装置において、
     前記事象の規模は、当該事象の継続時間を含む、情報処理装置。
    In the information processing apparatus according to claim 3 or 4.
    The scale of the event is an information processing device including the duration of the event.
  6.  請求項1から5のいずれか一項に記載の情報処理装置において、
     前記経路生成手段は、前記推定移動経路を生成する際に、さらに前記事象情報を用いる、情報処理装置。
    In the information processing apparatus according to any one of claims 1 to 5,
    The route generation means is an information processing device that further uses the event information when generating the estimated movement route.
  7.  請求項6に記載の情報処理装置において、
     前記事象情報は、当該事象の種類を含む、情報処理装置。
    In the information processing apparatus according to claim 6,
    The event information is an information processing device including the type of the event.
  8.  請求項6または7に記載の情報処理装置において、
     前記事象の規模は、関連人物の人数を含む、情報処理装置。
    In the information processing apparatus according to claim 6 or 7.
    The scale of the event is an information processing device including the number of related persons.
  9.  情報処理装置が、
     画像を処理することにより、事象の発生を検知するとともに、前記事象に関する事象情報を生成し、
     生成した前記事象情報と、その事象に対して予め定められている想定事象情報との差を用いて推定移動経路を生成する、
    情報処理方法。
    Information processing equipment
    By processing the image, the occurrence of an event is detected, and event information related to the event is generated.
    An estimated movement route is generated by using the difference between the generated event information and the assumed event information predetermined for the event.
    Information processing method.
  10.  請求項9に記載の情報処理方法において、
     前記情報処理装置が、
     前記画像を処理して前記事象に関連する関連人物およびその属性情報を生成し、
     生成された前記関連人物およびその前記属性情報を用いて前記推定移動経路を生成する、情報処理方法。
    In the information processing method according to claim 9,
    The information processing device
    The image is processed to generate related persons related to the event and their attribute information.
    An information processing method for generating the estimated movement route using the generated related person and the attribute information thereof.
  11.  請求項9または10に記載の情報処理方法において、
     前記事象情報は、当該事象の規模を含む、情報処理方法。
    In the information processing method according to claim 9 or 10.
    The event information is an information processing method including the scale of the event.
  12.  請求項11に記載の情報処理方法において、
     前記事象の規模の少なくとも一部は、当該事象の発生前後の当該時点の画像の差分を用いて決定される、情報処理方法。
    In the information processing method according to claim 11,
    An information processing method in which at least a part of the scale of the event is determined by using the difference between the images at the time before and after the occurrence of the event.
  13.  請求項11または12に記載の情報処理方法において、
     前記事象の規模は、当該事象の継続時間を含む、情報処理方法。
    In the information processing method according to claim 11 or 12,
    The scale of the event is an information processing method including the duration of the event.
  14.  請求項9から13のいずれか一項に記載の情報処理方法において、
     前記情報処理装置が、
     前記推定移動経路を生成する際に、さらに前記事象情報を用いる、情報処理方法。
    In the information processing method according to any one of claims 9 to 13.
    The information processing device
    An information processing method that further uses the event information when generating the estimated movement route.
  15.  請求項14に記載の情報処理方法において、
     前記事象情報は、当該事象の種類を含む、情報処理方法。
    In the information processing method according to claim 14,
    The event information is an information processing method including the type of the event.
  16.  請求項14または15に記載の情報処理方法において、
     前記事象の規模は、関連人物の人数を含む、情報処理方法。
    In the information processing method according to claim 14 or 15.
    The scale of the event is an information processing method including the number of related persons.
  17.  コンピュータに、
     画像を処理することにより、事象の発生を検知するとともに、前記事象に関する事象情報を生成する手順、
     生成した前記事象情報と、その事象に対して予め定められている想定事象情報との差を用いて推定移動経路を生成する手順、を実行させるためのプログラム。
    On the computer
    A procedure for detecting the occurrence of an event by processing an image and generating event information related to the event.
    A program for executing a procedure for generating an estimated movement route using the difference between the generated event information and the assumed event information predetermined for the event.
  18.  請求項17に記載のプログラムにおいて、
     前記画像を処理して前記事象に関連する関連人物およびその属性情報を生成する手順、
     生成された前記関連人物およびその前記属性情報を用いて前記推定移動経路を生成する手順、をコンピュータに実行させるためのプログラム。
    In the program of claim 17,
    A procedure for processing the image to generate related persons related to the event and their attribute information,
    A program for causing a computer to execute a procedure for generating the estimated movement route using the generated related person and the attribute information thereof.
  19.  請求項17または18に記載のプログラムにおいて、
     前記事象情報は、当該事象の規模を含む、プログラム。
    In the program of claim 17 or 18.
    The event information is a program including the scale of the event.
  20.  請求項19に記載のプログラムにおいて、
     前記事象の規模の少なくとも一部は、当該事象の発生前後の当該時点の画像の差分を用いて決定される、プログラム。
    In the program of claim 19.
    A program in which at least a portion of the scale of the event is determined using the difference between the images at the time before and after the event occurred.
  21.  請求項19または20に記載のプログラムにおいて、
     前記事象の規模は、当該事象の継続時間を含む、プログラム。
    In the program of claim 19 or 20
    The scale of the event is a program that includes the duration of the event.
  22.  請求項17から21のいずれか一項に記載のプログラムにおいて、
     前記推定移動経路を生成する際に、さらに前記事象情報を用いる手順をコンピュータに実行させるためのプログラム。
    In the program according to any one of claims 17 to 21,
    A program for causing a computer to perform a procedure using the event information when generating the estimated movement route.
  23.  請求項22に記載のプログラムにおいて、
     前記事象情報は、当該事象の種類を含む、プログラム。
    In the program of claim 22,
    The event information is a program including the type of the event.
  24.  請求項22または23に記載のプログラムにおいて、
     前記事象の規模は、関連人物の人数を含む、プログラム。
    In the program of claim 22 or 23
    The scale of the event is a program that includes the number of related persons.
PCT/JP2021/000892 2021-01-13 2021-01-13 Information processing device, information processing method, and program WO2022153407A1 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2022574922A JPWO2022153407A1 (en) 2021-01-13 2021-01-13
PCT/JP2021/000892 WO2022153407A1 (en) 2021-01-13 2021-01-13 Information processing device, information processing method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2021/000892 WO2022153407A1 (en) 2021-01-13 2021-01-13 Information processing device, information processing method, and program

Publications (1)

Publication Number Publication Date
WO2022153407A1 true WO2022153407A1 (en) 2022-07-21

Family

ID=82448000

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2021/000892 WO2022153407A1 (en) 2021-01-13 2021-01-13 Information processing device, information processing method, and program

Country Status (2)

Country Link
JP (1) JPWO2022153407A1 (en)
WO (1) WO2022153407A1 (en)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007334501A (en) * 2006-06-13 2007-12-27 Toyota Motor Corp Autonomous mobile device and accident processing system
JP2018160219A (en) * 2017-03-24 2018-10-11 株式会社 日立産業制御ソリューションズ Moving route prediction device and method for predicting moving route
JP2020119032A (en) * 2019-01-18 2020-08-06 トヨタ自動車株式会社 Server, server control method, server control program, vehicle, vehicle control method, and vehicle control program

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007334501A (en) * 2006-06-13 2007-12-27 Toyota Motor Corp Autonomous mobile device and accident processing system
JP2018160219A (en) * 2017-03-24 2018-10-11 株式会社 日立産業制御ソリューションズ Moving route prediction device and method for predicting moving route
JP2020119032A (en) * 2019-01-18 2020-08-06 トヨタ自動車株式会社 Server, server control method, server control program, vehicle, vehicle control method, and vehicle control program

Also Published As

Publication number Publication date
JPWO2022153407A1 (en) 2022-07-21

Similar Documents

Publication Publication Date Title
AU2020203351B2 (en) Drone-augmented emergency response services
US20210104001A1 (en) Methods and Systems for Security Tracking and Generating Alerts
Caplan et al. Police-monitored CCTV cameras in Newark, NJ: A quasi-experimental test of crime deterrence
US8630820B2 (en) Methods and systems for threat assessment, safety management, and monitoring of individuals and groups
JP4989464B2 (en) Event warning system and method
US7385515B1 (en) Surveillance detection system and methods for detecting surveillance of an individual
US20140118140A1 (en) Methods and systems for requesting the aid of security volunteers using a security network
KR20150092545A (en) Warning method and system using prompt situation information data
JP2022008672A (en) Information processing apparatus, information processing method, and program
KR20170115082A (en) A system for checking the situation by camera image data, a method for checking the situation by the control device and the camera image data
US11600166B1 (en) Occurrence-record driven monitoring system and method of use thereof
KR102333955B1 (en) Method, system and application for indicating safe area and navigating safe path for socially vulnerable people
WO2022153407A1 (en) Information processing device, information processing method, and program
JP6935545B1 (en) Person tracking support device and person tracking support system
Sorensen SMART mapping for law enforcement settings: Integrating GIS and GPS for dynamic, near-real time applications and analysis
US20240062636A1 (en) System and method for identifying a weapon, and tracking and generating an alert in response to the weapon identification
EKWUNIFE et al. Evaluation of CCTV and biometrics as ICT tools for curbing criminality in Nigeria: A study of Ebonyi state police command Abakaliki
KR20160086536A (en) Warning method and system using prompt situation information data
KR20070032450A (en) Marking system for global local security recorder
Al-Hilli et al. Contemporary Technologies for Promoting Safe Cities: The Case of Al-Salheya Compound in Iraq
Nwebonyi et al. Check for updates
Derby Policing in the age of information: Automated number plate recognition
Mohd Nawi EmergenCall Mobile Application
Weerasena The Spatial Pattern of Robberies In Maharagama Police Area
Nellis Tracking offenders by satellite–progress or cost-cutting?

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 21919302

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2022574922

Country of ref document: JP

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 21919302

Country of ref document: EP

Kind code of ref document: A1