JP2007219948A - User abnormality detection equipment and user abnormality detection method - Google Patents

User abnormality detection equipment and user abnormality detection method Download PDF

Info

Publication number
JP2007219948A
JP2007219948A JP2006041320A JP2006041320A JP2007219948A JP 2007219948 A JP2007219948 A JP 2007219948A JP 2006041320 A JP2006041320 A JP 2006041320A JP 2006041320 A JP2006041320 A JP 2006041320A JP 2007219948 A JP2007219948 A JP 2007219948A
Authority
JP
Japan
Prior art keywords
user
abnormality
information
action
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2006041320A
Other languages
Japanese (ja)
Inventor
Shuichi Nishio
修一 西尾
Suguru Taniguchi
英 谷口
Noboru Babaguchi
登 馬場口
Tomoji Toriyama
朋二 鳥山
Norihiro Hagita
紀博 萩田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
ATR Advanced Telecommunications Research Institute International
Original Assignee
ATR Advanced Telecommunications Research Institute International
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ATR Advanced Telecommunications Research Institute International filed Critical ATR Advanced Telecommunications Research Institute International
Priority to JP2006041320A priority Critical patent/JP2007219948A/en
Publication of JP2007219948A publication Critical patent/JP2007219948A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Alarm Systems (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)
  • Emergency Alarm Devices (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide user abnormality detection equipment which appropriately detects abnormalities about a user by using user's position information and a photographed image which has photographed locations where the user passes through. <P>SOLUTION: This equipment includes; a photographed image reception section 11 which receives a photographed image; a position information reception section 13 which receives position information which indicates user's position; a movement track extraction section 15 which extracts person's movement track in a photographed image; a comparison section 16 which compares an extracted movement track and a user's movement track indicated by the position information; a user identification section 17 which identifies a user whose position is indicated by the position information from the person's image in the photographed image based on the comparison results; an abnormality detection section 18 which detects abnormalities of a user identified by the user identification section 17; and an abnormality output section 19 which outputs abnormality detection information on detection of abnormalities when the abnormal detection section 18 detects abnormalities. <P>COPYRIGHT: (C)2007,JPO&INPIT

Description

本発明は、ユーザに関する異常を検出するユーザ異常検出装置等に関する。   The present invention relates to a user abnormality detection device that detects an abnormality relating to a user.

近年、防犯等のために街角の映像を撮影し、その映像によって監視を行う監視システムが用いられるようになってきている。そのような監視システムを用いることにより、不審な行動をしている人や、病気や事故等によって倒れている人を検出することができる。なお、関連する従来技術として、例えば、建物の物理的な構造を前提とし、あらかじめ格納されている行動履歴と異なる行動をしたユーザの異常行動を検出する装置が開発されている(特許文献1参照)。   In recent years, surveillance systems that take pictures of street corners and perform surveillance using the pictures for crime prevention have been used. By using such a monitoring system, it is possible to detect a person who is performing suspicious behavior or a person who has fallen due to illness or accident. As a related prior art, for example, an apparatus has been developed that detects an abnormal behavior of a user who behaves differently from a behavior history stored in advance on the premise of a physical structure of a building (see Patent Document 1). ).

一方、GPS(Global Positioning System)等を用いることにより、ユーザの位置を特定する技術も開発されており、さらに近年、そのような技術を組み込んだ携帯電話等も開発されている。そのような装置を用いることにより、ユーザの広範囲にわたる位置の特定が可能となる。
特開2005−141319号公報(第1頁、第1図等)
On the other hand, a technique for specifying the position of a user by using GPS (Global Positioning System) or the like has been developed, and in recent years, a mobile phone or the like incorporating such a technique has also been developed. By using such a device, it is possible to specify a position over a wide range of the user.
Japanese Patent Laying-Open No. 2005-141319 (first page, FIG. 1 etc.)

しかしながら、従来の監視システムでは、画像に写っている人物が誰であるのかを特定するために、顔の特徴等のユーザに固有の情報を用いてユーザを特定しなければならず、あらかじめ顔の特徴等のユーザに固有の情報を登録しているユーザしか、画像に写っている人物の特定ができなかった。また、画像に写っている人物の顔等の撮影角度や大きさ等が適切でなかった場合には、人物の特定を適切に行うことができないこともある。さらに、ユーザに固有の情報を登録しているユーザ数が多くなった場合には、ユーザを特定する処理負荷が大きくなるという探索速度の問題もある。   However, in the conventional monitoring system, in order to specify the person in the image, the user must be specified using information unique to the user such as facial features, Only a user who has registered information unique to the user, such as features, could identify a person in the image. In addition, when the shooting angle or size of a person's face or the like shown in the image is not appropriate, the person may not be properly specified. Further, when the number of users who register information unique to the user increases, there is a problem of search speed that the processing load for specifying the user increases.

また、従来のGPS等を用いてユーザの位置を特定する方法では、誤差が大きいため、異常の発生を厳密に検出することはできなかった。例えば、GPS等を用いて特定されたユーザの位置によって、ユーザが長時間にわたって同じ場所にとどまっていることが検出できたとしても、車にはねられて道の真ん中で倒れているのか、あるいは、信号待ちや立ち話等によって長時間同じ場所にとどまっているのかを判断することはできなかった。さらに、GPS等の機能を有する装置を保持しているユーザしか行動を追跡することができないという問題もあった。また、例えば、あるユーザがストーカーに追跡されている場合でも、そのことを検出することはできなかった。   Further, in the conventional method of specifying the position of the user using GPS or the like, since the error is large, the occurrence of abnormality cannot be detected strictly. For example, even if it can be detected that the user stays in the same place for a long time depending on the position of the user specified using GPS or the like, it is hit by a car and falls in the middle of the road, or It was not possible to judge whether he / she stayed at the same place for a long time by waiting for traffic lights or talking. Furthermore, there is also a problem that only a user holding a device having a function such as GPS can track the behavior. In addition, for example, even when a certain user is being tracked by a stalker, this cannot be detected.

本発明は、上記問題点を解決するためになされたものであり、ユーザの位置を示す位置情報と、ユーザの通る場所をカメラによって撮影した撮影画像とを用いて、ユーザに関する異常を適切に検出することができるユーザ異常検出装置等を提供することを目的とする。   The present invention has been made to solve the above-described problems, and appropriately detects an abnormality related to the user by using position information indicating the position of the user and a captured image obtained by photographing a place where the user passes by the camera. An object of the present invention is to provide a user abnormality detection device and the like that can be used.

上記目的を達成するため、本発明によるユーザ異常検出装置は、ユーザが通る場所を1以上のカメラによって撮影した撮影画像を受け付ける撮影画像受付部と、ユーザの位置を示す情報である位置情報を受け付ける位置情報受付部と、前記撮影画像における人物の行動軌跡を抽出する行動軌跡抽出部と、前記行動軌跡抽出部が抽出した行動軌跡と、前記位置情報によって示されるユーザの行動軌跡とを比較する比較部と、前記比較部による比較結果に基づいて、前記撮影画像における人物の画像から、前記位置情報受付部が受け付けた位置情報によって位置が示されるユーザを特定するユーザ特定部と、前記ユーザ特定部が特定したユーザに関する異常を検出する異常検出部と、前記異常検出部がユーザに関する異常を検出した場合に、異常が検出されたことに関する情報である異常検出情報を出力する異常出力部と、を備えたものである。   In order to achieve the above object, a user abnormality detection device according to the present invention receives a captured image reception unit that receives a captured image captured by one or more cameras at a location where a user passes, and position information that is information indicating the position of the user. Comparison comparing a position information receiving unit, an action locus extracting unit that extracts a person's action locus in the captured image, an action locus extracted by the action locus extracting unit, and a user action locus indicated by the position information A user specifying unit that specifies a user whose position is indicated by position information received by the position information receiving unit from a person image in the captured image based on a comparison result by the comparing unit, and the user specifying unit An abnormality detection unit that detects an abnormality related to the user identified by the user, and an abnormality when the abnormality detection unit detects an abnormality related to the user. An abnormality output unit for outputting an abnormality detection information which is information related to the detected, those having a.

このような構成により、ユーザの顔の特徴等があらかじめ登録されていなくても、カメラによって撮影された撮影画像と、ユーザの位置を示す位置情報とを用いて、ユーザに関する異常を検出することができる。また、撮影画像にユーザの顔等が適切に写っていなくてもユーザに関する異常を検出することができ、さらに、探索速度に関する問題も生じない。また、ユーザに関する異常が検出された場合に、異常検出情報が出力されることにより、その発生した異常に対して適切に対応することができる。   With such a configuration, an abnormality relating to the user can be detected using a captured image captured by the camera and position information indicating the position of the user even if the user's facial features or the like are not registered in advance. it can. Further, even if the user's face or the like is not properly captured in the photographed image, an abnormality relating to the user can be detected, and further, a problem relating to search speed does not occur. Further, when an abnormality relating to the user is detected, the abnormality detection information is output, so that the abnormality that has occurred can be appropriately dealt with.

また、本発明によるユーザ異常検出装置では、前記異常検出部は、前記ユーザ特定部が特定したユーザの行動に関する異常を検出してもよい。
このような構成により、ユーザの行動に関する異常を検出することができる。
Moreover, in the user abnormality detection apparatus by this invention, the said abnormality detection part may detect abnormality regarding the user's action which the said user specific part specified.
With such a configuration, an abnormality relating to the user's behavior can be detected.

また、本発明によるユーザ異常検出装置では、前記異常検出部は、前記ユーザ特定部が特定したユーザの過去の行動を示す情報であるユーザ過去情報が記憶されるユーザ過去情報記憶手段と、前記ユーザ特定部が特定したユーザの行動が、前記ユーザ過去情報が示す当該ユーザの過去の行動と異なる場合に、当該ユーザの行動に関する異常を検出する検出手段と、を備えていてもよい。   In the user abnormality detection device according to the present invention, the abnormality detection unit includes user past information storage means for storing user past information, which is information indicating a user's past behavior specified by the user specifying unit, and the user When the user's action specified by the specifying unit is different from the user's past action indicated by the user past information, a detecting unit that detects an abnormality related to the user's action may be provided.

このような構成により、ユーザの行動が、ユーザの過去の行動と異なる場合に、ユーザの異常を検出することができる。したがって、例えば、事件や事故、病気等によって、ユーザが過去の行動と異なる行動をとった場合に、そのことを異常として検出することができる。   With such a configuration, when the user's behavior is different from the user's past behavior, the user's abnormality can be detected. Therefore, for example, when the user takes an action different from the past action due to an incident, accident, illness, or the like, this can be detected as an abnormality.

また、本発明によるユーザ異常検出装置では、前記異常検出部は、通常の人の行動に関する情報である通常行動情報が記憶される通常行動情報記憶手段と、前記ユーザ特定部が特定したユーザの行動が、前記通常行動情報が示す通常の人の行動と異なる場合に、当該ユーザの行動に関する異常を検出する検出手段と、を備えていてもよい。   In the user abnormality detection device according to the present invention, the abnormality detection unit includes normal behavior information storage means for storing normal behavior information, which is information related to a normal human behavior, and the user behavior specified by the user identification unit. However, in the case where the behavior of the user is different from the behavior of the normal person indicated by the normal behavior information, a detecting unit that detects an abnormality related to the behavior of the user may be provided.

このような構成により、ユーザの行動が、通常の人の行動と異なる場合に、ユーザの異常を検出することができる。したがって、例えば、事件や事故、病気等によって、ユーザが通常の人と異なる行動をとった場合に、そのことを異常として検出することができる。   With such a configuration, when the user's behavior is different from normal human behavior, the user's abnormality can be detected. Therefore, for example, when a user takes an action different from that of a normal person due to an incident, accident, illness, or the like, this can be detected as an abnormality.

また、本発明によるユーザ異常検出装置では、前記異常検出部は、前記撮影画像に含まれる前記ユーザ特定部が特定したユーザ以外の人物の行動が、当該ユーザの行動との関係で異常である場合に、当該ユーザに関する異常を検出してもよい。   Moreover, in the user abnormality detection device according to the present invention, the abnormality detection unit is configured such that the behavior of a person other than the user specified by the user identification unit included in the captured image is abnormal in relation to the user's behavior. In addition, an abnormality relating to the user may be detected.

このような構成により、ユーザ以外の人物の行動がユーザの行動との関係で異常である場合に、その異常を検出することができる。例えば、ユーザがストーカーに追跡されているという異常を検出することができる。   With such a configuration, when an action of a person other than the user is abnormal in relation to the action of the user, the abnormality can be detected. For example, an abnormality that the user is being tracked by a stalker can be detected.

また、本発明によるユーザ異常検出装置では、前記異常検出部は、前記行動軌跡抽出部が抽出した1以上の人物の行動軌跡と、前記ユーザ特定部が特定したユーザの行動軌跡とを比較する行動軌跡比較手段と、前記行動軌跡比較手段により、両者が一定以上の類似性を有する場合に、当該ユーザに関する異常を検出する検出手段と、を備えていてもよい。
このような構成により、ユーザが尾行されていることを検出することができる。
Moreover, in the user abnormality detection device according to the present invention, the abnormality detection unit is an action that compares the action locus of one or more persons extracted by the action locus extraction unit with the action locus of the user specified by the user specifying unit. The trajectory comparing means and the behavior trajectory comparing means may include a detecting means for detecting an abnormality relating to the user when both have a certain similarity or more.
With such a configuration, it is possible to detect that the user is following.

また、本発明によるユーザ異常検出装置では、前記異常検出部は、前記ユーザ特定部が特定したユーザの予測される行動軌跡である予測行動軌跡を算出する予測行動軌跡算出手段と、前記予測行動軌跡算出手段が算出した予測行動軌跡から一定範囲内の位置であって、通常の人が止まらない位置に前記撮影画像に含まれる当該ユーザ以外の人物が止まっている場合に、当該ユーザに関する異常を検出する検出手段と、を備えていてもよい。
このような構成により、ユーザが待ち伏せされていることを検出することができる。
Further, in the user abnormality detection device according to the present invention, the abnormality detection unit includes a predicted behavior trajectory calculation unit that calculates a predicted behavior trajectory that is a predicted behavior trajectory of the user identified by the user identification unit, and the predicted behavior trajectory. An abnormality related to the user is detected when a person other than the user included in the photographed image is stopped at a position within a certain range from the predicted action trajectory calculated by the calculation unit and where the normal person does not stop. And a detecting means for performing.
With such a configuration, it is possible to detect that the user is ambushed.

また、本発明によるユーザ異常検出装置では、前記撮影画像受付部が受け付ける撮影画像は、2以上のカメラによって撮影された、重複しない2以上の領域の撮影画像であり、前記異常検出部は、前記2以上の領域の撮影画像を用いて異常を検出してもよい。   In the user abnormality detection device according to the present invention, the captured image received by the captured image reception unit is a captured image of two or more regions that are captured by two or more cameras, and the abnormality detection unit includes: You may detect abnormality using the picked-up image of two or more area | regions.

このような構成により、ユーザが2以上のカメラの撮影領域に存在しない場合であっても、ユーザに関する異常を検出することができる。例えば、ユーザがある撮影画像の領域から出てから一定時間以上経過しても他の撮影画像の領域に到達しない場合には、ユーザに関する異常が検出されてもよい。   With such a configuration, even when the user does not exist in the imaging region of two or more cameras, an abnormality relating to the user can be detected. For example, when the user does not reach the other captured image area even after a certain period of time has elapsed after leaving the certain captured image area, an abnormality related to the user may be detected.

本発明によるユーザ異常検出装置等によれば、ユーザの位置を示す位置情報と、ユーザの通る場所をカメラによって撮影した撮影画像とを用いて、撮影画像に写っているユーザを特定することができる。その結果、ユーザに関する異常を適切に検出することができる。   According to the user abnormality detection device and the like according to the present invention, it is possible to specify a user who is shown in a captured image by using position information indicating the position of the user and a captured image obtained by capturing a location where the user passes by the camera. . As a result, an abnormality relating to the user can be detected appropriately.

以下、本発明によるユーザ異常検出装置について、実施の形態を用いて説明する。なお、以下の実施の形態において、同じ符号を付した構成要素及びステップは同一または相当するものであり、再度の説明を省略することがある。   Hereinafter, a user abnormality detection apparatus according to the present invention will be described using embodiments. In the following embodiments, components and steps denoted by the same reference numerals are the same or equivalent, and repetitive description may be omitted.

(実施の形態1)
本発明の実施の形態1によるユーザ異常検出装置1について、図面を参照しながら説明する。
図1は、本実施の形態によるユーザ異常検出装置1の構成を示すブロック図である。図1において、本実施の形態によるユーザ異常検出装置1は、撮影画像受付部11と、撮影画像蓄積部12と、位置情報受付部13と、位置情報蓄積部14と、行動軌跡抽出部15と、比較部16と、ユーザ特定部17と、異常検出部18と、異常出力部19とを備える。
(Embodiment 1)
A user abnormality detection device 1 according to Embodiment 1 of the present invention will be described with reference to the drawings.
FIG. 1 is a block diagram showing a configuration of a user abnormality detection device 1 according to the present embodiment. In FIG. 1, the user abnormality detection device 1 according to the present embodiment includes a captured image reception unit 11, a captured image storage unit 12, a position information reception unit 13, a position information storage unit 14, and an action locus extraction unit 15. The comparison unit 16, the user identification unit 17, the abnormality detection unit 18, and the abnormality output unit 19 are provided.

撮影画像受付部11は、撮影画像を受け付ける。この撮影画像は、ユーザが通る場所を1以上のカメラによって撮影した画像である。ここで、ユーザとは、ユーザ異常検出装置1を用いるユーザ、すなわち、その位置情報が後述する位置情報受付部13で受け付けられるユーザのことである。図1では、説明の便宜上、撮影画像受付部11が1台のカメラからの撮影画像を受け付ける場合について示しているが、撮影画像受付部11は、2台以上のカメラによって撮影された撮影画像であってもよい。2台以上のカメラによって撮影された撮影画像を撮影画像受付部11が受け付ける場合には、その2以上の撮影画像は、図2で示されるように、重複しない2以上の領域の撮影画像であってもよい。例えば、1台のカメラによってある交差点付近の撮影を行い、他のカメラによってその交差点の次の交差点付近の撮影を行い、両カメラによって撮影された2個の撮影画像の領域が重複しないように設定してもよい。この撮影画像は動画である。この動画のフレームレートは、撮影画像に写っている人物の行動の軌跡を抽出することができる範囲において任意である。例えば、30fps(frame per second)であってもよく、あるいは、1fpsや2fpsであってもよい。また、撮影画像のデータ形式も問わない。例えば、撮影画像のデータ形式は、非圧縮であってもよく、MPEGであってもよく、DV等であってもよく、撮影画像のファイル形式は、RAW形式であってもよく、ASF形式であってもよく、AVI形式等であってもよい。撮影画像受付部11は、例えば、有線もしくは無線の通信回線を介して送信された撮影画像を受信してもよく、カメラから直接入力された撮影画像を受け付けてもよく、所定の記録媒体(例えば、光ディスクや磁気ディスク、半導体メモリ等)から読み出された撮影画像を受け付けてもよい。なお、撮影画像受付部11は、受け付けを行うためのデバイス(例えば、モデムやネットワークカード等)を含んでいてもよく、あるいは含んでいなくてもよい。また、撮影画像受付部11は、ハードウェアによって実現されてもよく、あるいは所定のデバイスを駆動するドライバ等のソフトウェアによって実現されてもよい。   The captured image reception unit 11 receives a captured image. This photographed image is an image obtained by photographing a place where the user passes with one or more cameras. Here, the user is a user who uses the user abnormality detection device 1, that is, a user whose position information is received by the position information receiving unit 13 described later. For convenience of explanation, FIG. 1 shows a case where the captured image reception unit 11 receives a captured image from one camera. However, the captured image reception unit 11 is a captured image captured by two or more cameras. There may be. When the captured image reception unit 11 receives captured images captured by two or more cameras, the two or more captured images are captured images of two or more regions that do not overlap as shown in FIG. May be. For example, one camera takes a picture of the vicinity of an intersection, and another camera takes a picture of the vicinity of the next intersection, so that the areas of the two photographed images taken by both cameras do not overlap. May be. This photographed image is a moving image. The frame rate of this moving image is arbitrary as long as the trajectory of the person's action shown in the captured image can be extracted. For example, it may be 30 fps (frame per second), or 1 fps or 2 fps. The data format of the captured image is not limited. For example, the data format of the photographed image may be uncompressed, may be MPEG, DV, etc., and the file format of the photographed image may be the RAW format or the ASF format. It may be in AVI format or the like. For example, the captured image reception unit 11 may receive a captured image transmitted via a wired or wireless communication line, may receive a captured image directly input from the camera, or may be a predetermined recording medium (for example, A photographed image read from an optical disk, a magnetic disk, a semiconductor memory, or the like may be received. Note that the captured image reception unit 11 may or may not include a device (for example, a modem or a network card) for reception. The captured image reception unit 11 may be realized by hardware, or may be realized by software such as a driver that drives a predetermined device.

撮影画像蓄積部12は、撮影画像受付部11が受け付けた撮影画像を所定の記録媒体に蓄積する。ここで、その所定の記録媒体では、撮影画像の各フレームの撮影日時を知ることができるように撮影画像が蓄積されているものとする。したがって、撮影画像の各フレームに撮影日時を示す情報が対応付けられていてもよく、あるいは、最初のフレームの撮影日時を示す情報が対応付けられており、その情報を用いて各フレームの撮影日時を算出することができるようにしてもよい。また、その撮影日時を示す情報は、カメラによって設定されてもよく、撮影画像蓄積部12によって設定されてもよい。前者の場合には、カメラが時計等を保持していてもよく、後者の場合には撮影画像蓄積部12が時計等を保持していてもよい。撮影日時を示す情報に代えて、撮影時刻のみを示す情報、あるいは、撮影の相対的な時間(例えば、タイムコード等)を示す情報を用いてもよい。撮影画像が蓄積される記録媒体は、例えば、半導体メモリや、光ディスク、磁気ディスク等であり、撮影画像蓄積部12が有していてもよく、あるいは撮影画像蓄積部12の外部に存在していてもよい。本実施の形態では、前者であるとする。また、この記録媒体は、撮影画像を一時的に記憶するものであってもよく、そうでなくてもよい。   The captured image storage unit 12 stores the captured image received by the captured image reception unit 11 in a predetermined recording medium. Here, it is assumed that captured images are stored in the predetermined recording medium so that the shooting date and time of each frame of the captured image can be known. Therefore, information indicating the shooting date and time may be associated with each frame of the captured image, or information indicating the shooting date and time of the first frame is associated with the captured date and time of each frame using the information. May be calculated. Further, the information indicating the shooting date and time may be set by the camera or may be set by the shot image storage unit 12. In the former case, the camera may hold a clock or the like, and in the latter case, the captured image storage unit 12 may hold a clock or the like. Instead of the information indicating the shooting date and time, information indicating only the shooting time or information indicating a relative time of shooting (for example, a time code) may be used. The recording medium on which the captured image is stored is, for example, a semiconductor memory, an optical disk, a magnetic disk, or the like, and may be included in the captured image storage unit 12 or may exist outside the captured image storage unit 12. Also good. In the present embodiment, the former is assumed. The recording medium may or may not temporarily store the captured image.

位置情報受付部13は、ユーザの位置を示す情報である位置情報を受け付ける。本実施の形態では、位置情報受付部13が受け付ける位置情報は、ユーザの保持している情報端末のGPS機能を用いて取得され、ネットワークを介して送信されたものであるとする。また、本実施の形態では、位置情報は時系列に沿った情報であるとする。ここで、位置情報が時系列に沿った情報であるとは、時間の経過に応じてユーザの位置がどのように変化したのかを位置情報から知ることができるという意味である。したがって、位置情報は、日時を示す情報と、ユーザの位置を示す情報とが対応付けられている情報であってもよく、あるいは、ユーザの位置を示す情報が時系列に沿って並べられている情報であってもよい。後者の場合に、例えば、位置情報において、ユーザの位置を示す情報が一定の時間間隔ごとに時系列に沿って並べられており、最初のユーザの位置を示す情報に対応する日時が位置情報に含まれることによって、ユーザの位置を示す情報に対応する日時を算出することができるようにしてもよい。また、位置情報受付部13が、ユーザの位置を示す情報のみを含む位置情報を受け付けた場合には、そのユーザの位置を示す情報に日時(例えば、その情報を受け付けた日時等)を示す情報を対応付けることによって、日時を示す情報と、位置を示す情報とが対応付けられた位置情報を構成してもよい。その場合に、位置情報受付部13等は、日時を示す情報を取得することができる時計等を保持していてもよい。日時を示す情報に代えて、時刻のみを示す情報、あるいは、相対的な時間(例えば、タイムコード等)を示す情報を用いてもよい。本実施の形態では、位置情報受付部13は、日時を示す情報と、ユーザの位置を示す情報とが対応付けられている位置情報を受け付けるものとする。また、ユーザの位置を示す情報は、ユーザの位置を特定することができる情報であれば、どのようなものであってもよい。例えば、ユーザの位置を示す情報は、経度や緯度を示す情報であってもよく、あるいは、ある基準点からの2次元平面上の位置を示す情報(例えば、xy2次元直交座標系におけるxの値、yの値等)であってもよい。また、位置情報に含まれるユーザの位置を示す情報は、処理の途中で変換がなされてもよい。例えば、直交座標系と球座標系との間で変換がなされてもよい。位置情報受付部13は、1人のユーザに関する位置情報を受け付けてもよく、あるいは、2人以上のユーザに関する2以上の位置情報を受け付けてもよい。後者の場合には、各位置情報をユーザごとに区別することができるように、ユーザを識別するユーザID等と対応付けられた位置情報を受け付けてもよい。位置情報受付部13は、例えば、ユーザの保持している情報端末のGPS機能を用いて取得され、有線もしくは無線の通信回線を介して送信された情報を受信してもよく、所定の記録媒体(例えば、光ディスクや磁気ディスク、半導体メモリ等)から読み出された情報を受け付けてもよい。本実施の形態では、前者であるとする。なお、位置情報受付部13は、受け付けを行うためのデバイス(例えば、モデムやネットワークカード等)を含んでいてもよく、あるいは含んでいなくてもよい。また、位置情報受付部13は、ハードウェアによって実現されてもよく、あるいは所定のデバイスを駆動するドライバ等のソフトウェアによって実現されてもよい。   The position information receiving unit 13 receives position information that is information indicating the position of the user. In the present embodiment, it is assumed that the position information received by the position information receiving unit 13 is acquired using the GPS function of the information terminal held by the user and transmitted via the network. In the present embodiment, it is assumed that the position information is information in time series. Here, the position information being information in time series means that it is possible to know from the position information how the user's position has changed over time. Therefore, the position information may be information in which information indicating the date and time is associated with information indicating the position of the user, or information indicating the position of the user is arranged in time series. It may be information. In the latter case, for example, in the position information, information indicating the position of the user is arranged in time series at regular time intervals, and the date and time corresponding to the information indicating the position of the first user is included in the position information. By being included, the date and time corresponding to the information indicating the user's position may be calculated. Further, when the position information receiving unit 13 receives position information including only information indicating the position of the user, information indicating the date and time (for example, the date and time when the information is received) in the information indicating the position of the user. By associating, information indicating the date and time and information indicating the position may be associated with each other. In this case, the position information receiving unit 13 or the like may hold a clock or the like that can acquire information indicating the date and time. Instead of the information indicating the date and time, information indicating only the time or information indicating a relative time (for example, a time code) may be used. In the present embodiment, it is assumed that the position information receiving unit 13 receives position information in which information indicating the date and time is associated with information indicating the position of the user. Further, the information indicating the user's position may be any information as long as the information can identify the user's position. For example, the information indicating the position of the user may be information indicating longitude and latitude, or information indicating the position on a two-dimensional plane from a certain reference point (for example, the value of x in the xy two-dimensional orthogonal coordinate system) , Y value, etc.). Further, the information indicating the position of the user included in the position information may be converted during the process. For example, conversion may be performed between an orthogonal coordinate system and a spherical coordinate system. The position information receiving unit 13 may receive position information related to one user, or may receive two or more position information related to two or more users. In the latter case, position information associated with a user ID or the like for identifying the user may be received so that the position information can be distinguished for each user. The position information receiving unit 13 may receive information transmitted using a GPS function of an information terminal held by a user and transmitted via a wired or wireless communication line, for example. Information read from (for example, an optical disk, a magnetic disk, a semiconductor memory, etc.) may be received. In the present embodiment, the former is assumed. Note that the position information receiving unit 13 may or may not include a device (for example, a modem or a network card) for receiving. In addition, the position information receiving unit 13 may be realized by hardware, or may be realized by software such as a driver that drives a predetermined device.

位置情報蓄積部14は、位置情報受付部13が受け付けた位置情報を所定の記録媒体に蓄積する。この記録媒体は、例えば、半導体メモリや、光ディスク、磁気ディスク等であり、位置情報蓄積部14が有していてもよく、あるいは位置情報蓄積部14の外部に存在してもよい。本実施の形態では、前者であるとする。また、この記録媒体は、位置情報を一時的に記憶するものであってもよく、そうでなくてもよい。また、この記録媒体は、撮影画像蓄積部12が撮影画像を蓄積する記録媒体と同一のものであってもよく、そうでなくてもよい。   The position information storage unit 14 stores the position information received by the position information receiving unit 13 in a predetermined recording medium. The recording medium is, for example, a semiconductor memory, an optical disk, a magnetic disk, or the like, and may be included in the position information storage unit 14 or may exist outside the position information storage unit 14. In the present embodiment, the former is assumed. Further, this recording medium may or may not store the position information temporarily. The recording medium may or may not be the same as the recording medium in which the captured image storage unit 12 stores captured images.

なお、撮影画像の各フレームの撮影日時を示す情報等と、位置情報における日時を示す情報等は、後述する比較の処理のため、同期していることが好適である。両者が同期しているとは、あるユーザがある位置にいる場合に撮影された撮影画像のフレームの撮影日時を示す情報等と、位置情報における、そのユーザの位置に対応する日時を示す情報等とが等しいことである。両者が同期するように、例えば、撮影画像の各フレームの撮影日時を示す情報等を、ユーザが保持している情報端末のGPS機能と同様の機能を用いて取得するようにしてもよい。   Note that it is preferable that the information indicating the shooting date and time of each frame of the captured image and the information indicating the date and time in the position information are synchronized for comparison processing described later. Both are synchronized, for example, information indicating the shooting date and time of a frame of a captured image shot when a certain user is at a certain position, information indicating the date and time corresponding to the position of the user in the position information, etc. Are equal. For example, information indicating the shooting date and time of each frame of the captured image may be acquired using a function similar to the GPS function of the information terminal held by the user so that the two are synchronized.

行動軌跡抽出部15は、撮影画像受付部11が受け付けた撮影画像における人物の行動軌跡を抽出する。すなわち、行動軌跡抽出部15によって、撮影画像に写っている人物の位置の時系列に沿った変化を示す情報が抽出されることになる。なお、行動軌跡とは、行動軌跡を示す情報であってもよい。この行動軌跡の抽出は、例えば、撮影画像における人物の領域を検出してから、その人物の領域の位置の変化を検出することによって行ってもよく、あるいは、撮影画像の速度場を抽出し、撮影画像に写っている動物体の位置の変化を検出することによって行ってもよい。前者の場合における人物の領域を検出する方法としては、例えば、肌色検出を用いる方法、背景画像との差分を抽出する方法、パターンマッチングを用いる方法等が知られている。また、人物の領域の位置の変化は、例えば、検出された人物の領域の特定の位置(例えば、鼻の位置、頭頂の位置、腰の位置等)の変化を追跡することによって検出することができる。また、後者の場合における行動軌跡の抽出では、例えば、オプティカル・フローの技術を用いることができる。オプティカル・フローの技術等を用いて動物体の位置の変化を検出する場合には、撮影画像に写っている人物以外の動物体(例えば、車等)の行動軌跡も人物の行動軌跡として抽出されてしまうことになるが、その問題は後述する。通常、カメラは真上から撮影するのではなく、斜め上方から撮影する。したがって、撮影画像における行動軌跡を抽出したとしても、その行動軌跡は真上から見た2次元平面(例えば、実際の地図等)における行動軌跡とは異なることになる。そのような場合には、斜め上方から見た画像を真上から見た画像に変換する処理を行ってもよい。そのような処理としては、例えば、平面射影変換等がある。その変換の処理を行動軌跡の抽出前に行い、その変換後の撮影画像において行動軌跡を抽出してもよく、あるいは、変換前の撮影画像において行動軌跡を抽出し、その抽出した行動軌跡に対して、その変換の処理を行ってもよい。一般に、後者のほうが処理の負荷が軽くなる。なお、撮影画像から人物の行動軌跡を抽出する方法は上記の説明に限定されないことは言うまでもない。また、撮影画像から人物の行動軌跡を抽出する方法は従来から公知であり、その詳細な説明は省略する。   The behavior trajectory extraction unit 15 extracts a human behavior trajectory in the captured image received by the captured image reception unit 11. In other words, the action locus extraction unit 15 extracts information indicating a change along the time series of the position of the person shown in the captured image. The action trajectory may be information indicating the action trajectory. The extraction of the action trajectory may be performed, for example, by detecting a person's area in the photographed image and then detecting a change in the position of the person's area, or extracting a speed field of the photographed image, You may carry out by detecting the change of the position of the moving object reflected in the picked-up image. As a method for detecting a human region in the former case, for example, a method using skin color detection, a method for extracting a difference from a background image, a method using pattern matching, and the like are known. Further, the change in the position of the person area can be detected, for example, by tracking a change in a specific position of the detected person area (for example, the position of the nose, the position of the top of the head, the position of the waist). it can. Further, in the latter case, for example, an optical flow technique can be used in the extraction of the action trajectory. When detecting a change in the position of a moving object using an optical flow technique or the like, an action locus of an animal body (for example, a car) other than the person shown in the photographed image is also extracted as a person's action locus. The problem will be described later. Usually, the camera does not shoot from directly above, but shoots from diagonally above. Therefore, even if an action trajectory in a captured image is extracted, the action trajectory is different from an action trajectory on a two-dimensional plane (for example, an actual map) viewed from directly above. In such a case, processing for converting an image viewed obliquely from above into an image viewed from directly above may be performed. Such processing includes, for example, planar projective transformation. The conversion process may be performed before extracting the action trajectory, and the action trajectory may be extracted from the photographed image after the conversion. Alternatively, the action trajectory may be extracted from the photographed image before conversion, and the extracted action trajectory may be extracted. Then, the conversion process may be performed. In general, the latter is lighter in processing load. Needless to say, the method of extracting a person's action trajectory from a captured image is not limited to the above description. Also, a method for extracting a person's action trajectory from a captured image is conventionally known, and detailed description thereof is omitted.

比較部16は、行動軌跡抽出部15が抽出した行動軌跡と、位置情報受付部13が受け付けた位置情報によって示されるユーザの行動軌跡とを比較する。この比較は、例えば、両者の示す、時間に依存して変化する位置の情報の比較であってもよく、両者の示す、時間に依存して変化する速度ベクトルの比較であってもよく、あるいは、その両者の比較であってもよい。比較部16は、撮影画像から抽出された行動軌跡と位置情報の示す行動軌跡との比較によって、両者の類似度や両者が一致する確率等を算出するものとする。比較部16は、例えば、その比較を逐次モンテカルロ法等の近似法を用いて行ってもよく、ベイズ推定等のモデル化を用いて行ってもよく、あるいは、その他の方法を用いてもよい。行動軌跡と位置情報の示す行動軌跡とを比較する方法は従来から公知であり、その詳細な説明は省略する。   The comparison unit 16 compares the behavior trajectory extracted by the behavior trajectory extraction unit 15 with the user's behavior trajectory indicated by the position information received by the position information reception unit 13. This comparison may be, for example, a comparison of information on positions that change depending on time indicated by both, a comparison of speed vectors that change depending on time indicated by both, or It may be a comparison between the two. It is assumed that the comparison unit 16 calculates the degree of similarity, the probability of matching between the two, by comparing the action locus extracted from the captured image with the action locus indicated by the position information. For example, the comparison unit 16 may perform the comparison using an approximation method such as a sequential Monte Carlo method, may use a model such as Bayesian estimation, or may use other methods. A method of comparing the action trajectory with the action trajectory indicated by the position information is conventionally known, and detailed description thereof is omitted.

ユーザ特定部17は、比較部16による比較結果に基づいて、撮影画像における人物の画像から、位置情報受付部13が受け付けた位置情報によって位置が示されるユーザを特定する。すなわち、ユーザ特定部17は、撮影画像に写っている人物と、位置情報によって位置が示されるユーザとを一対一に紐付ける処理を行う。なお、撮影画像には一般に、ユーザ以外の人物も写っているため、撮影画像に写っている人物が、位置情報によって位置が示されるユーザと一対一に紐付けられない場合もある。ユーザを特定するとは、例えば、撮影画像における人物の領域を識別する識別子と、ユーザを識別するユーザIDとを対応付けて所定の記録媒体等に蓄積する処理等である。ユーザ特定部17は、例えば、撮影画像における人物の行動軌跡と一致する行動軌跡を示す位置情報を特定し、その撮影画像における人物を、その特定した位置情報に対応するユーザであると特定してもよい。ここで、撮影画像における人物の行動軌跡と、位置情報の示す行動軌跡とが一致するとは、例えば、両者が厳密に一致する場合のみでなく、両者の類似度や両者の一致する確率が所定のしきい値以上である場合や、他者との類似度等と比較して両者の類似度等が最も高い場合、両者の類似度等がしきい値以上であり、かつ、他者との類似度等と比較して両者の類似度等が最も高い場合等を含んでもよい。   The user specifying unit 17 specifies the user whose position is indicated by the position information received by the position information receiving unit 13 from the image of the person in the captured image based on the comparison result by the comparing unit 16. That is, the user specifying unit 17 performs a process of associating the person shown in the captured image with the user whose position is indicated by the position information on a one-to-one basis. In addition, since a person other than the user is generally captured in the photographed image, the person depicted in the photographed image may not be associated with the user whose position is indicated by the position information on a one-to-one basis. The identification of the user is, for example, a process of associating an identifier for identifying a person area in a captured image with a user ID for identifying the user in association with a predetermined recording medium. For example, the user specifying unit 17 specifies position information indicating an action trajectory that matches the action trajectory of the person in the captured image, and specifies the person in the captured image as a user corresponding to the specified position information. Also good. Here, the action trajectory of the person in the captured image matches the action trajectory indicated by the position information, for example, not only when the two are exactly the same, but also when the degree of similarity between them and the probability that they match are predetermined. If it is above the threshold or if the similarity between them is the highest compared to the similarity with others, the similarity between them is above the threshold and the similarity with others A case where the degree of similarity between the two is the highest as compared with the degree or the like may be included.

なお、撮影画像におけるユーザの特定は、結果として撮影画像に含まれる人物の画像と、ユーザとの対応を知ることができるのであれば、その方法を問わない。ユーザ特定部17は、例えば、撮影画像における1の静止画像ごとに行ってもよく、あるいは、1の静止画像においてユーザの特定を行った後には、そのユーザに対応する人物の画像の移動を追跡することによって、撮影画像に含まれる人物の画像と、ユーザとの対応を知ることができるようにしてもよい。後者の場合には、新たな人物の画像が撮影画像に含まれるようになるタイミングで撮影画像における人物の行動軌跡と、位置情報の示す行動軌跡との比較を比較部16が開始し、その比較結果に応じてユーザの特定を行ってもよい。   Note that the method for specifying the user in the captured image is not particularly limited as long as it is possible to know the correspondence between the image of the person included in the captured image and the user as a result. For example, the user specifying unit 17 may be performed for each still image in the captured image, or after the user is specified in one still image, the movement of the image of the person corresponding to the user is tracked. By doing so, the correspondence between the image of the person included in the captured image and the user may be known. In the latter case, the comparison unit 16 starts comparing the action trajectory of the person in the photographed image with the action trajectory indicated by the position information at a timing when a new person image is included in the photographed image. The user may be specified according to the result.

また、行動軌跡抽出部15がオプティカル・フローの技術等を用いて人物以外の動物体の行動軌跡を抽出したとしても、その行動軌跡とユーザの位置情報とを比較した場合に一致しないと判断されるため、問題にはならないことになる。   Further, even if the behavior trajectory extraction unit 15 extracts the behavior trajectory of the moving object other than the person using the optical flow technique or the like, it is determined that the behavior trajectory does not match when the behavior trajectory is compared with the position information of the user. Therefore, it will not be a problem.

また、位置情報によってユーザの位置が示されているため、比較部16は、ある撮影画像から抽出された行動軌跡と、位置情報の誤差を考慮してその撮影画像の撮影領域に含まれるユーザの位置情報の示す行動軌跡とを比較するようにしてもよい。このようにすることで、撮影画像から抽出された行動軌跡と、全てのユーザの位置情報の示す行動軌跡とを比較する場合に比べて、比較部16による比較の処理負荷を軽減することができる。   In addition, since the position of the user is indicated by the position information, the comparison unit 16 considers an action trajectory extracted from a certain captured image and an error of the position information, and the user's position included in the captured area of the captured image You may make it compare with the action locus | trajectory which position information shows. By doing in this way, compared with the case where the action locus | trajectory extracted from the picked-up image and the action locus | trajectory which all the user's positional information shows is compared, the processing load of the comparison by the comparison part 16 can be reduced. .

異常検出部18は、ユーザ特定部17が特定したユーザに関する異常を検出する。異常検出部18は、(A)ユーザ特定部17が特定したユーザの行動に関する異常を検出してもよく、(B)撮影画像に含まれるユーザ特定部17が特定したユーザ以外の人物の行動が、そのユーザの行動との関係で異常である場合に、そのユーザに関する異常を検出してもよく、あるいは、その他の場合に異常を検出してもよい。異常検出部18は、ユーザの現在の行動軌跡と、ユーザや他の人物の過去の行動に関する情報とに基づいて異常を検出してもよく、あるいは、ユーザの現在の行動軌跡と、あらかじめ設定されている所定のルールとに基づいて、異常を検出してもよい。ユーザの現在の行動軌跡としては、行動軌跡抽出部15が抽出した行動軌跡を用いてもよく、行動軌跡抽出部15が抽出した行動軌跡と、位置情報受付部13が受け付けた位置情報とから算出した行動軌跡を用いてもよい。後者の場合には、ユーザが撮影画像の範囲外にいる場合にも、異常の検出ができることになる。ここで、図3を用いて、異常検出部18の構成、及びユーザに関する異常を検出する上記(A)、(B)の場合の処理について説明する。   The abnormality detection unit 18 detects an abnormality related to the user specified by the user specifying unit 17. The abnormality detection unit 18 may detect (A) an abnormality related to the user's behavior specified by the user specifying unit 17, and (B) a behavior of a person other than the user specified by the user specifying unit 17 included in the captured image may be detected. When an abnormality is associated with the user's behavior, an abnormality relating to the user may be detected, or an abnormality may be detected in other cases. The anomaly detection unit 18 may detect an anomaly based on the user's current behavior trajectory and information on past behaviors of the user or other persons, or may be preset with the user's current behavior trajectory. An abnormality may be detected based on a predetermined rule. As the user's current action trajectory, the action trajectory extracted by the action trajectory extraction unit 15 may be used, which is calculated from the action trajectory extracted by the behavior trajectory extraction unit 15 and the position information received by the position information reception unit 13. The action trajectory may be used. In the latter case, the abnormality can be detected even when the user is outside the range of the captured image. Here, with reference to FIG. 3, the configuration of the abnormality detection unit 18 and the processing in the cases (A) and (B) for detecting an abnormality relating to the user will be described.

図3は、異常検出部18の構成を示すブロック図である。図3において、異常検出部18は、ユーザ過去情報記憶手段21と、通常行動情報記憶手段22と、行動軌跡比較手段23と、予測行動軌跡算出手段24と、検出手段25とを備える。   FIG. 3 is a block diagram illustrating a configuration of the abnormality detection unit 18. In FIG. 3, the abnormality detection unit 18 includes user past information storage means 21, normal action information storage means 22, action locus comparison means 23, predicted action locus calculation means 24, and detection means 25.

(A)ユーザの行動に関する異常の検出
(A−1)ユーザの行動が通常と異なる場合
ここでは、ユーザの現在の行動が、そのユーザの通常の行動と異なる場合に異常が検出される処理について説明する。
(A) Detection of abnormality related to user's behavior (A-1) Case where user's behavior is different from normal Here, processing for detecting an abnormality when the current behavior of the user is different from the normal behavior of the user explain.

ユーザ過去情報記憶手段21では、ユーザ特定部17が特定したユーザの過去の行動を示す情報であるユーザ過去情報が記憶される。ユーザ過去情報は、ユーザの過去の行動を示す情報であれば、どのようなものであってもよい。ユーザ過去情報は、例えば、撮影画像から抽出されたユーザの行動軌跡であってもよく、その行動軌跡を用いて作成された情報であってもよく、あるいは、ユーザの過去の行動に関するルールを示す情報であってもかまわない。行動軌跡を用いて作成されたユーザ過去情報とは、例えば、ユーザの行動軌跡の平均をとったものであってもよく、ユーザの行動軌跡と位置情報とを用いて、1の撮影画像と他の撮影画像との間の行動を予測した行動軌跡であってもよく、その他の情報であってもかまわない。ユーザの過去の行動に関するルールとは、例えば、朝にはある地点(例えば、ユーザの家)から、他の地点(例えば、ユーザが通勤で利用する電車の駅)へのルートを移動するというルール、夕方にはそのルートを逆方向に移動するというルール等である。このルールは、ユーザの過去の行動軌跡等から算出されてもよく、あるいは、ユーザ等が手入力によって設定してもよい。また、ユーザ過去情報は、例えば、季節や月、曜日、時間帯ごとに設定されていてもよい。ユーザ過去情報記憶手段21は、所定の記録媒体(例えば、半導体メモリや磁気ディスク、光ディスク等)によって実現される。ユーザ過去情報記憶手段21にユーザ過去情報が記憶される過程は問わない。例えば、記録媒体を介してユーザ過去情報がユーザ過去情報記憶手段21で記憶されるようになっていてもよく、通信回線等を介して送信されたユーザ過去情報がユーザ過去情報記憶手段21で記憶されるようになっていてもよく、入力デバイスを介して入力されたユーザ過去情報がユーザ過去情報記憶手段21で記憶されるようになっていてもよく、あるいは、行動軌跡抽出部15によって抽出された行動軌跡がユーザ過去情報記憶手段21で記憶されるようになっていてもかまわない。   The user past information storage unit 21 stores user past information, which is information indicating the past actions of the user specified by the user specifying unit 17. The user past information may be any information as long as it is information indicating the user's past behavior. The user past information may be, for example, the user's action trajectory extracted from the captured image, may be information created using the action trajectory, or indicates a rule regarding the user's past action. It can be information. The user past information created using the action trajectory may be, for example, an average of the user's action trajectory. One captured image and other information may be obtained using the user's action trajectory and position information. It may be an action trajectory predicting an action between the captured image and other information. The rule regarding the past behavior of the user is, for example, a rule of moving a route from a certain point (for example, the user's house) to another point (for example, a train station used by the user for commuting) in the morning. In the evening, the rule is to move the route in the reverse direction. This rule may be calculated from the user's past action trajectory or the like, or may be set manually by the user or the like. Moreover, the user past information may be set for each season, month, day of the week, and time zone, for example. The user past information storage means 21 is realized by a predetermined recording medium (for example, a semiconductor memory, a magnetic disk, an optical disk, etc.). The process in which the user past information is stored in the user past information storage unit 21 is not limited. For example, the user past information may be stored in the user past information storage means 21 via a recording medium, and the user past information transmitted via a communication line or the like is stored in the user past information storage means 21. The user past information input via the input device may be stored in the user past information storage unit 21 or may be extracted by the action trajectory extraction unit 15. The action trajectory may be stored in the user past information storage unit 21.

検出手段25は、ユーザ特定部17が特定したユーザの行動が、ユーザ過去情報が示すそのユーザの過去の行動と異なる場合に、そのユーザの行動に関する異常を検出する。具体的には、検出手段25は、そのユーザ過去情報と、現在の行動軌跡とを比較して、両者の類似度や両者の一致する確率が所定のしきい値より低い場合に、ユーザの行動に関する異常を検出してもよい。この比較の方法としては、例えば、パターンマッチング等を用いてもよい。また、ユーザ過去情報が季節や曜日ごとに設定されている場合には、時系列分析の手法を用いて比較を行ってもよい。このように、ユーザが普段と異なる行動をとった場合に、異常が検出されることになる。このようにすることで、例えば、ユーザが普段は家から駅に休むことなく歩くにもかかわらず、ある時にユーザが家から駅までの途中で病気や事故等によって倒れた場合には、ユーザが長時間にわたって停止することになり、異常が検出されることになる。また、例えば、通常は通学路を通って通学している児童が、不審な人物に誘われて通学路をはずれた場合には、通常の行動と異なることとなり、異常が検出されることになる。   When the user behavior specified by the user specifying unit 17 is different from the user's past behavior indicated by the user past information, the detection unit 25 detects an abnormality related to the user's behavior. Specifically, the detection unit 25 compares the user's past information with the current action trajectory, and when the similarity between the two and the probability that both match are lower than a predetermined threshold, the user's action You may detect the abnormality regarding. As this comparison method, for example, pattern matching or the like may be used. Further, when the user past information is set for each season or day of the week, the comparison may be performed using a time series analysis method. As described above, when the user takes an action different from usual, an abnormality is detected. In this way, for example, if the user usually falls without walking from the house to the station, but the user falls down due to illness or accident on the way from the house to the station, It will stop for a long time, and an abnormality will be detected. In addition, for example, if a child who normally goes to school passes away from school because he is invited by a suspicious person, it will be different from normal behavior and abnormalities will be detected. .

(A−2)ユーザの行動が通常の人と異なる場合
ここでは、ユーザの現在の行動が、通常の人の行動と異なる場合に異常が検出される処理について説明する。
(A-2) When a user's action differs from a normal person Here, the process in which abnormality is detected when a user's present action differs from a normal person's action is demonstrated.

通常行動情報記憶手段22では、通常の人の行動に関する情報である通常行動情報が記憶される。通常行動情報は、結果として通常の人の行動を知ることができる情報であれば、どのようなものであってもよい。例えば、通常行動情報は、通常の人が行う行動パターンを示すものであってもよく、あるいは、通常の人が行うことのない行動パターンを示すことにより、結果として、それ以外の行動であれば通常の人の行動であると知ることができる情報であってもよい。通常行動情報は、例えば、過去の不特定多数の人たちの行動軌跡であってもよく、あるいは、通常の人の行動に関するルールを示す情報であってもよい。通常の人の行動に関するルールとは、例えば、通常の人は酒に酔った人のように千鳥足でふらふらと歩かないというルールでもよく、通常の人が長い時間(例えば、1分以上等)止まりうる場所(例えば、信号待ちを行う場所や、バスの停留所等)を示すルールでもよく、1の撮影画像から他の撮影画像までの通常の歩行時間を示すルールでもよい。このルールは、ユーザの過去の行動軌跡等から算出されてもよく、あるいは、ユーザ等が手入力によって設定してもよい。また、ユーザ過去情報は、例えば、季節や月、曜日、時間帯ごとに設定されていてもよい。通常行動情報記憶手段22は、所定の記録媒体(例えば、半導体メモリや磁気ディスク、光ディスク等)によって実現される。通常行動情報記憶手段22に通常行動情報が記憶される過程は問わない。例えば、記録媒体を介して通常行動情報が通常行動情報記憶手段22で記憶されるようになっていてもよく、通信回線等を介して送信された通常行動情報が通常行動情報記憶手段22で記憶されるようになっていてもよく、入力デバイスを介して入力された通常行動情報が通常行動情報記憶手段22で記憶されるようになっていてもよく、あるいは、行動軌跡抽出部15によって抽出された行動軌跡から抽出された所定のルールを示す通常行動情報が通常行動情報記憶手段22で記憶されるようになっていてもかまわない。   The normal behavior information storage unit 22 stores normal behavior information that is information related to normal human behavior. The normal behavior information may be any information as long as it is information that can know the behavior of a normal person as a result. For example, the normal behavior information may indicate a behavior pattern that a normal person performs, or by indicating a behavior pattern that a normal person does not perform, It may be information that can be known to be normal human behavior. The normal behavior information may be, for example, behavior trajectories of a large number of unspecified people in the past, or may be information indicating rules regarding the behavior of normal people. For example, a rule regarding a normal person's behavior may be a rule that a normal person does not walk staggered like a drunk person, and a normal person stops for a long time (for example, 1 minute or more). It may be a rule indicating a possible place (for example, a place waiting for a signal or a bus stop), or a rule indicating a normal walking time from one captured image to another captured image. This rule may be calculated from the user's past action trajectory or the like, or may be set manually by the user or the like. Moreover, the user past information may be set for each season, month, day of the week, and time zone, for example. The normal behavior information storage unit 22 is realized by a predetermined recording medium (for example, a semiconductor memory, a magnetic disk, an optical disk, etc.). The process in which normal action information is memorize | stored in the normal action information storage means 22 is not ask | required. For example, the normal action information may be stored in the normal action information storage unit 22 via the recording medium, and the normal action information transmitted via the communication line or the like is stored in the normal action information storage unit 22. The normal action information input via the input device may be stored in the normal action information storage unit 22 or may be extracted by the action trajectory extraction unit 15. The normal action information indicating the predetermined rule extracted from the action locus may be stored in the normal action information storage unit 22.

検出手段25は、ユーザ特定部17が特定したユーザの行動が、通常行動情報が示す通常の人の行動と異なる場合に、そのユーザの行動に関する異常を検出する。具体的には、通常行動情報が通常の人の行動を示す情報である場合には、検出手段25は、その通常行動情報と、ユーザの現在の行動軌跡とを比較して、両者の類似度や両者の一致する確率が所定のしきい値より低い場合に、ユーザの行動に関する異常を検出する。一方、通常行動情報が通常の人が行わない行動を示す情報である場合には、検出手段25は、その通常行動情報と、ユーザの現在の行動軌跡とを比較して、両者の類似度や両者の一致する確率が所定のしきい値異常である場合に、ユーザの行動に関する異常を検出する。この比較の方法としては、例えば、パターンマッチング等を用いてもよい。また、通常行動情報が季節や曜日ごとに設定されている場合には、時系列分析の手法を用いて比較を行ってもよい。このように、ユーザが通常の人と異なる行動をとった場合に、異常が検出されることになる。このようにすることで、例えば、通常の人が止まらない場所でユーザが病気や事故等によって倒れた場合には、ユーザが通常の人と異なる行動をすることになり、異常が検出されることになる。また、例えば、ユーザがある画像領域から、他の画像領域の方向に向かって移動している場合に、そのユーザがはじめの画像領域に写らなくなってから通常の歩行時間が経過しても次の画像領域に現れない場合には、その途中で病気や事故等が発生した可能性があるとして、異常が検出されることになる。また、例えば、ユーザが千鳥足でふらふらと歩いている場合に、異常が検出されてもよい。   When the user behavior specified by the user specification unit 17 is different from the normal human behavior indicated by the normal behavior information, the detection unit 25 detects an abnormality related to the user behavior. Specifically, when the normal behavior information is information indicating the behavior of a normal person, the detection unit 25 compares the normal behavior information with the current behavior trajectory of the user, and the degree of similarity between the two. If the probability that the two match is lower than a predetermined threshold, an abnormality relating to the user's behavior is detected. On the other hand, when the normal action information is information indicating an action that a normal person does not perform, the detection unit 25 compares the normal action information with the current action trajectory of the user, When the probability that both coincide is a predetermined threshold abnormality, an abnormality relating to the user's behavior is detected. As this comparison method, for example, pattern matching or the like may be used. Further, when the normal action information is set for each season or day of the week, the comparison may be performed using a time series analysis method. In this way, when the user takes an action different from that of a normal person, an abnormality is detected. By doing so, for example, when a user falls down due to illness or accident in a place where a normal person does not stop, the user will behave differently from a normal person, and an abnormality will be detected become. In addition, for example, when the user is moving from one image area toward another image area, the next walking time after the user no longer appears in the first image area If it does not appear in the image area, an abnormality is detected because a disease or accident may have occurred in the middle of the image area. Further, for example, when the user is walking staggered with staggered feet, an abnormality may be detected.

なお、上記(A−1),(A−2)において、検出手段25は、例えば、ユーザの行動が通常と異なる確率と、ユーザの行動が通常の人と異なる確率とに対して重み付けを行い、その結果としきい値とを比較し、重み付けられた確率がしきい値以上である場合に、異常を検出してもよい。   In the above (A-1) and (A-2), the detection means 25 weights, for example, the probability that the user's behavior is different from the normal and the probability that the user's behavior is different from the normal person. The result may be compared with a threshold value, and an abnormality may be detected when the weighted probability is equal to or greater than the threshold value.

(B)ユーザ以外の人物の行動に関する異常の検出
(B−1)ユーザが尾行されている場合
ここでは、ユーザが他の人物に尾行されている場合に異常が検出される処理について説明する。
(B) Detection of abnormality related to behavior of person other than user (B-1) When user is tailed Here, a process of detecting an abnormality when the user is tailed by another person will be described.

行動軌跡比較手段23は、行動軌跡抽出部15が抽出した1以上の人物の行動軌跡と、ユーザ特定部17が特定したユーザの行動軌跡とを比較する。この比較は、例えば、前述の比較部16における比較と同様にして行われる。ただし、行動軌跡比較手段23では、ユーザが他の人物に尾行されているかどうかを検出するための比較を行うため、比較部16における比較のように、厳密に両者が一致するかどうかを比較しなくてもよい。例えば、行動軌跡比較手段23は、一定の時間間隔(例えば、10秒程度等)以内で、ユーザの行動軌跡を他の人物の行動軌跡が追いかける場合にも、両者の高い類似度や両者が一致する高い確率を算出してもよい。また、ユーザ以外の人物の行動軌跡が、ユーザの行動軌跡に先行している場合、すなわち、他の人物のほうがユーザよりも前を歩いている場合には、ユーザが尾行されているとは言えないため、たとえ両者の行動軌跡が近似していたとしても、行動軌跡比較手段23は、両者の類似度等を低く算出してもよい。   The behavior trajectory comparison unit 23 compares the behavior trajectory of one or more persons extracted by the behavior trajectory extraction unit 15 with the user's behavior trajectory specified by the user specifying unit 17. This comparison is performed, for example, in the same manner as the comparison in the comparison unit 16 described above. However, the action trajectory comparing means 23 performs a comparison for detecting whether the user is being followed by another person, so as to compare whether or not they are exactly the same as in the comparison unit 16. It does not have to be. For example, the behavior trajectory comparison means 23 matches the high similarity between the two even when the behavior trajectory of another person follows the user's behavior trajectory within a certain time interval (for example, about 10 seconds). A high probability of performing may be calculated. In addition, when the action locus of a person other than the user precedes the action locus of the user, that is, when another person is walking in front of the user, it can be said that the user is followed. Therefore, even if the behavior trajectories of both are approximated, the behavior trajectory comparison means 23 may calculate the similarity between the two low.

検出手段25は、行動軌跡比較手段23により、両者が一定以上の類似性を有する場合に、そのユーザに関する異常を検出する。より具体的には、ユーザの行動軌跡と他の人物の行動軌跡とが、行動軌跡比較手段23による比較の結果、一定以上の類似度や一定以上の一致する確率を有する場合に、検出手段25は、両者が一定以上の類似性を有すると判断し、そのユーザに関する異常を検出する。このようにすることで、例えば、ユーザが他の人物によって尾行されている場合に、そのユーザに関する異常を検出することができる。   The detecting means 25 detects an abnormality related to the user when the action trajectory comparing means 23 has a certain similarity or more. More specifically, when the user's action trajectory and another person's action trajectory are compared by the action trajectory comparing means 23 and have a certain degree of similarity or a certain probability of matching, the detecting means 25. Determines that both have a certain degree of similarity and detects an abnormality related to the user. By doing in this way, for example, when a user is followed by another person, an abnormality relating to the user can be detected.

なお、行動軌跡比較手段23は、2以上の撮影画像を用いてユーザの行動軌跡と、他の人物の行動軌跡との比較を行ってもよい。この場合には、検出手段25は、2以上の撮影画像における、ユーザの行動軌跡と他の人物の行動軌跡との類似度を掛け合わせることによって、ユーザの行動軌跡と他の人物の行動軌跡との最終的な類似度を算出してもよい。また、行動軌跡比較手段23は、2以上の撮影画像に写っている他の人物が同一であるかどうかを、その人物の顔の特徴点等を用いて判断してもよく、その判断を行わなくてもよい。   Note that the behavior trajectory comparison unit 23 may compare the user's behavior trajectory with the behavior trajectory of another person using two or more captured images. In this case, the detecting unit 25 multiplies the similarity between the user's action trajectory and another person's action trajectory in two or more captured images, thereby obtaining the user's action trajectory and the other person's action trajectory. The final similarity may be calculated. Further, the action trajectory comparison means 23 may determine whether or not other persons appearing in two or more photographed images are the same using the feature points of the faces of the persons, and perform the determination. It does not have to be.

(B−2)ユーザが待ち伏せされている場合
ここでは、ユーザが他の人物に待ち伏せされている場合に異常が検出される処理について説明する。
(B-2) When the User is Ambushed Here, a process for detecting an abnormality when the user is ambushed by another person will be described.

予測行動軌跡算出手段24は、ユーザ特定部17が特定したユーザの予測される行動軌跡である予測行動軌跡を算出する。予測行動軌跡算出手段24は、例えば、ユーザや他人の過去の行動軌跡を用いて予測行動軌跡を算出してもよく、ユーザが通る経路を示す地図情報と、ユーザが移動している速度と向きとを用いて予測行動軌跡を算出してもよく、ユーザの過去の行動軌跡等からユーザの目的地を推定し、その推定された目的地と、ユーザが通る経路を示す地図情報とを用いて予測行動軌跡を算出してもよく、その他の方法によりユーザの予測行動軌跡を算出してもよい。このように、ユーザの予測行動軌跡を算出する方法は従来から公知であり、その詳細な説明は省略する。   The predicted behavior trajectory calculation unit 24 calculates a predicted behavior trajectory that is a predicted behavior trajectory of the user specified by the user specifying unit 17. The predicted behavior trajectory calculating means 24 may calculate a predicted behavior trajectory using, for example, past behavior trajectories of the user or others, map information indicating a route through which the user passes, speed and direction in which the user is moving The user's destination may be estimated from the user's past action trajectory, etc., and the estimated destination and map information indicating the route taken by the user may be used. The predicted behavior trajectory may be calculated, or the user's predicted behavior trajectory may be calculated by other methods. As described above, a method for calculating a user's predicted behavior trajectory is conventionally known, and a detailed description thereof will be omitted.

検出手段25は、予測行動軌跡算出手段24が算出した予測行動軌跡から一定範囲内の位置であって、通常の人が止まらない位置に撮影画像に含まれるそのユーザ以外の人物が止まっている場合に、そのユーザに関する異常を検出する。より具体的には、検出手段25は、予測行動軌跡算出手段24が算出した予測行動軌跡から一定範囲内の領域であって、通常の人が止まらない領域を特定する。そして、検出手段25は、その特定した領域に、ユーザ以外の人物が止まっているかどうか判断する。そして、止まっている場合には、検出手段25は異常を検出し、止まっていない場合には、検出手段25は異常を検出しない。なお、領域の特定は、例えば、領域の周囲の画素を特定することによって行ってもよく、あるいは、領域に含まれる画素を特定することによって行ってもよい。通常の人が止まらない位置であるかどうかについては、例えば、前述のように、過去の不特定多数の人たちの行動軌跡から判断してもよく、あるいは、通常の人が止まる位置あるいは止まらない位置を示すルールを用いて判断してもよい。このようにすることで、例えば、ユーザが通るであろうと予測される位置であって、通常の人が止まらない位置に止まっている人がいる場合に、ユーザに関する異常、すなわち、待ち伏せを検出することができる。   The detecting unit 25 is a position within a certain range from the predicted behavior trajectory calculated by the predicted behavior trajectory calculating unit 24, and a person other than the user included in the captured image is stopped at a position where a normal person does not stop. In addition, an abnormality relating to the user is detected. More specifically, the detection unit 25 identifies a region within a certain range from the predicted behavior trajectory calculated by the predicted behavior trajectory calculation unit 24 and that does not stop a normal person. Then, the detection unit 25 determines whether or not a person other than the user is stopped in the specified area. And when it has stopped, the detection means 25 detects abnormality, and when it has not stopped, the detection means 25 does not detect abnormality. Note that the area may be specified by specifying pixels around the area, or by specifying pixels included in the area, for example. For example, as described above, whether or not a normal person does not stop may be determined from the behavior trajectories of a large number of unspecified people in the past, or a normal person stops or does not stop. You may judge using the rule which shows a position. In this way, for example, when there is a person who is expected to pass by and a person who stops at a position where a normal person does not stop, an abnormality related to the user, that is, an ambush is detected. be able to.

なお、異常検出部18が上述の(A−1),(A−2),(B−1),(B−2)に関する各異常を検出する場合について説明したが、異常検出部18は、そのいずれか1以上の異常を検出するものであってもよく、あるいは、他の異常を検出するものであってもよい。(A−1),(A−2),(B−1),(B−2)のいずれかの異常を検出しない場合には、対応する構成要素を異常検出部18が備えていなくてもよい。また、上記説明では、1個の検出手段25を備える場合について説明したが、(A−1),(A−2),(B−1),(B−2)に関する各異常の検出ごとに別々の検出手段を備えるようにしてもよい。   In addition, although the case where the abnormality detection part 18 detects each abnormality regarding the above-mentioned (A-1), (A-2), (B-1), (B-2) was demonstrated, Any one or more abnormalities may be detected, or other abnormalities may be detected. If any abnormality of (A-1), (A-2), (B-1), and (B-2) is not detected, even if the abnormality detection unit 18 does not include a corresponding component. Good. In the above description, the case where one detection means 25 is provided has been described. However, for each detection of abnormality relating to (A-1), (A-2), (B-1), and (B-2). You may make it provide a separate detection means.

異常出力部19は、異常検出部18がユーザに関する異常を検出した場合に、異常検出情報を出力する。ここで、異常検出情報とは、異常が検出されたことに関する情報である。異常検出情報は、その異常検出情報が出力されることによって、異常の発生したことがユーザやその他の人たちに知らされる情報であれば、その内容を問わない。異常検出情報は、例えば、異常の発生を示す情報でもよく、あるいは、異常の発生した位置等を示す情報であってもかまわない。ここで、この出力は、例えば、表示デバイス(例えば、CRTや液晶ディスプレイ等)への表示でもよく、所定の機器への通信回線を介した送信でもよく、プリンタによる印刷でもよく、スピーカによる音声出力でもよく、記録媒体への蓄積でもよく、異常の発生を示すランプ等の点灯、点滅等を制御する出力でもよい。本実施の形態では、異常出力部19は、異常検出情報を送信するものとする。異常検出情報の送信先は、警察や警備会社等のサーバであってもよく、ユーザの情報端末(例えば、携帯電話やPDA等)であってもよく、ユーザの家族や友人等の情報端末等であってもよい。なお、異常出力部19は、異常検出情報の出力先を示すアドレス等が必要な場合には、異常検出情報の出力先を示すアドレス等をあらかじめ保持しておくか、あるいは、異常検出情報の出力時に、そのアドレス等を所定のサーバ等から取得してもよい。また、異常出力部19は、出力を行うデバイス(例えば、表示デバイスやプリンタ等)を含んでいてもよく、あるいは含んでいなくてもよい。また、異常出力部19は、ハードウェアによって実現されてもよく、あるいは、それらのデバイスを駆動するドライバ等のソフトウェアによって実現されてもよい。   The abnormality output unit 19 outputs abnormality detection information when the abnormality detection unit 18 detects an abnormality related to the user. Here, the abnormality detection information is information regarding that an abnormality has been detected. The content of the abnormality detection information may be any information as long as the abnormality detection information is output so that the user or other people are informed that an abnormality has occurred. The abnormality detection information may be, for example, information indicating the occurrence of an abnormality, or may be information indicating a position where an abnormality has occurred. Here, the output may be, for example, display on a display device (for example, a CRT or a liquid crystal display), transmission via a communication line to a predetermined device, printing by a printer, or audio output by a speaker. Alternatively, it may be stored in a recording medium, or may be an output that controls lighting, blinking, or the like of a lamp indicating the occurrence of an abnormality. In the present embodiment, the abnormality output unit 19 transmits abnormality detection information. The transmission destination of the abnormality detection information may be a server such as a police or a security company, may be a user information terminal (for example, a mobile phone or a PDA), an information terminal of a user's family or friends, etc. It may be. If the address indicating the output destination of the abnormality detection information is necessary, the abnormality output unit 19 holds an address indicating the output destination of the abnormality detection information in advance, or outputs the abnormality detection information. Sometimes, the address or the like may be obtained from a predetermined server or the like. The abnormal output unit 19 may or may not include a device (for example, a display device or a printer) that performs output. Further, the abnormality output unit 19 may be realized by hardware, or may be realized by software such as a driver for driving these devices.

次に、本実施の形態によるユーザ異常検出装置1の動作について、図4〜図7のフローチャートを用いて説明する。図4のフローチャートは、ユーザ異常検出装置1の全体動作を示すフローチャートである。   Next, the operation of the user abnormality detection device 1 according to the present embodiment will be described using the flowcharts of FIGS. The flowchart of FIG. 4 is a flowchart showing the overall operation of the user abnormality detection device 1.

(ステップS101)撮影画像受付部11は、撮影画像を受け付けたかどうか判断する。そして、撮影画像を受け付けた場合には、ステップS102に進み、そうでない場合には、ステップS103に進む。
(ステップS102)撮影画像蓄積部12は、撮影画像受付部11が受け付けた撮影画像を所定の記録媒体に蓄積する。そして、ステップS101に戻る。
(Step S101) The captured image reception unit 11 determines whether a captured image has been received. If a captured image is received, the process proceeds to step S102. If not, the process proceeds to step S103.
(Step S102) The captured image storage unit 12 stores the captured image received by the captured image reception unit 11 in a predetermined recording medium. Then, the process returns to step S101.

(ステップS103)位置情報受付部13は、位置情報を受け付けたかどうか判断する。そして、位置情報を受け付けた場合には、ステップS104に進み、そうでない場合には、ステップS105に進む。   (Step S103) The position information receiving unit 13 determines whether position information has been received. If position information has been received, the process proceeds to step S104. If not, the process proceeds to step S105.

(ステップS104)位置情報蓄積部14は、位置情報受付部13が受け付けた位置情報を所定の記録媒体に蓄積する。そして、ステップS101に戻る。なお、位置情報受付部13が受け付けた位置情報に日時の情報が含まれていない場合には、位置情報蓄積部14は、位置情報が受け付けられた日時等を含む位置情報を蓄積してもよい。また、ユーザIDに対応付けられた位置情報が受け付けられた場合には、そのユーザIDに対応付けて位置情報を蓄積してもよい。   (Step S104) The position information accumulating unit 14 accumulates the position information received by the position information receiving unit 13 in a predetermined recording medium. Then, the process returns to step S101. In addition, when the position information received by the position information receiving unit 13 does not include date and time information, the position information storage unit 14 may store position information including the date and time when the position information is received. . When position information associated with a user ID is received, the position information may be accumulated in association with the user ID.

(ステップS105)ユーザ特定部17は、撮影画像に含まれる人物からユーザを特定するタイミングであるかどうか判断する。そして、そのタイミングである場合には、ステップS106に進み、そうでない場合には、ステップS107に進む。ここで、このタイミングは、所定の期間ごと(例えば、1秒ごとや5秒ごと等)であってもよく、所定のイベント(例えば、新たな撮影画像が受け付けられたこと等)をトリガーとするものであってもよく、その他のタイミングであってもよい。   (Step S105) The user specifying unit 17 determines whether it is time to specify a user from a person included in a captured image. If it is the timing, the process proceeds to step S106, and if not, the process proceeds to step S107. Here, this timing may be every predetermined period (for example, every 1 second or every 5 seconds), and is triggered by a predetermined event (for example, reception of a new captured image). It may be a thing and other timing may be sufficient.

(ステップS106)行動軌跡抽出部15、比較部16、ユーザ特定部17は、ユーザを特定する処理を行う。そして、ステップS101に戻る。このステップS106の処理の詳細については、図5のフローチャートを用いて後述する。   (Step S106) The action trajectory extraction unit 15, the comparison unit 16, and the user identification unit 17 perform processing for identifying a user. Then, the process returns to step S101. Details of the processing in step S106 will be described later with reference to the flowchart of FIG.

(ステップS107)異常検出部18は、異常を検出するタイミングであるかどうか判断する。そして、そのタイミングである場合には、ステップS108に進み、そうでない場合には、ステップS101に戻る。ここで、このタイミングは、所定の期間ごと(例えば、5秒ごと等)であってもよく、所定のイベント(例えば、新たな撮影画像が受け付けられたこと等)をトリガーとするものであってもよく、その他のタイミングであってもよい。   (Step S107) The abnormality detection unit 18 determines whether it is time to detect an abnormality. If it is the timing, the process proceeds to step S108; otherwise, the process returns to step S101. Here, this timing may be every predetermined period (for example, every 5 seconds), and is triggered by a predetermined event (for example, reception of a new captured image). Alternatively, other timing may be used.

(ステップS108)異常検出部18は、ユーザに関する異常を検出する。このステップS108の処理の詳細については、図6のフローチャートを用いて後述する。   (Step S108) The abnormality detection unit 18 detects an abnormality relating to the user. Details of the processing in step S108 will be described later with reference to the flowchart of FIG.

(ステップS109)異常出力部19は、異常が検出されたかどうか判断する。そして、異常が検出された場合には、ステップS110に進み、そうでない場合には、ステップS101に戻る。   (Step S109) The abnormality output unit 19 determines whether an abnormality is detected. And when abnormality is detected, it progresses to step S110, and when that is not right, it returns to step S101.

(ステップS110)異常出力部19は、異常検出情報を出力する。そして、ステップS101に戻る。このステップS110の処理の詳細については、図7のフローチャートを用いて後述する。
なお、図4のフローチャートにおいて、電源オフや処理終了の割り込みにより処理は終了する。
(Step S110) The abnormality output unit 19 outputs abnormality detection information. Then, the process returns to step S101. Details of the processing in step S110 will be described later with reference to the flowchart of FIG.
In the flowchart of FIG. 4, the process ends when the power is turned off or the process ends.

図5は、図4のフローチャートのステップS106のユーザ特定処理の詳細を示すフローチャートである。なお、この図5のフローチャートでは、ステップS105において、撮影画像が受け付けられるごとにユーザを特定するタイミングであると判断される場合について説明する。また、ステップS103において、ユーザIDに対応付けられた位置情報が受け付けられているものとする。   FIG. 5 is a flowchart showing details of the user specifying process in step S106 of the flowchart of FIG. In the flowchart of FIG. 5, a case will be described in which it is determined in step S105 that it is time to specify a user every time a captured image is received. In step S103, position information associated with the user ID is accepted.

(ステップS201)行動軌跡抽出部15は、撮影画像受付部11で最後に受け付けられた撮影画像を撮影画像蓄積部12から読み出し、その撮影画像における人物の画像領域を特定する。この画像領域の特定は、前述のように、例えば、肌色検出を用いる方法、背景画像との差分を抽出する方法、パターンマッチングを用いる方法等がある。ここで、行動軌跡抽出部15は、特定した人物の画像領域に対して、人物IDを付与するものとする。以前に人物IDを付与している場合には、同一の人物の画像領域には同一の人物IDを付与するものとする。2以上の撮影画像における人物の画像領域が同一の人物の画像領域であるかどうかは、例えば、人物の特徴点に関する情報や、撮影画像の差分を用いることによって判断してもよい。人物の画像領域に人物IDを付与するとは、例えば、人物の画像領域を示す情報と、人物IDとを対応付けて所定の記録媒体に蓄積すること等である。
(ステップS202)行動軌跡抽出部15は、カウンタIを「1」に設定する。
(Step S201) The action trajectory extraction unit 15 reads the photographed image received last by the photographed image accepting unit 11 from the photographed image storage unit 12, and specifies the image area of the person in the photographed image. As described above, for example, there are a method using skin color detection, a method for extracting a difference from a background image, and a method using pattern matching. Here, it is assumed that the action trajectory extraction unit 15 assigns a person ID to the identified person image area. When a person ID has been assigned before, the same person ID is assigned to the image area of the same person. Whether or not a person's image area in two or more photographed images is the same person's image area may be determined, for example, by using information about a feature point of the person or a difference between the photographed images. Assigning a person ID to a person image area means, for example, associating information indicating a person image area with a person ID and storing the information in a predetermined recording medium.
(Step S202) The action trajectory extraction unit 15 sets the counter I to “1”.

(ステップS203)行動軌跡抽出部15は、ステップS201で特定したI番目の人物の行動軌跡を抽出する。行動軌跡抽出部15は、例えば、人物の画像領域の位置を抽出し、その人物の画像領域の位置をステップS201で付与された人物IDと、ステップS201で処理された撮影画像に対応する日時を示す日時情報とに対応付けて所定の記録媒体に蓄積する。   (Step S203) The action trajectory extraction unit 15 extracts the action trajectory of the I-th person specified in step S201. For example, the action trajectory extraction unit 15 extracts the position of the person's image area, sets the position of the person's image area to the person ID given in step S201, and the date and time corresponding to the captured image processed in step S201. The information is stored in a predetermined recording medium in association with the indicated date / time information.

(ステップS204)行動軌跡抽出部15は、カウンタIを1だけインクリメントする。
(ステップS205)行動軌跡抽出部15は、I番目の人物が撮影画像に存在するかどうか判断する。そして、存在する場合には、ステップS203に戻り、存在しない場合には、すでに撮影画像における全ての人物について行動軌跡の抽出を行っているため、ステップS206に進む。
(Step S204) The action trajectory extraction unit 15 increments the counter I by 1.
(Step S205) The action trajectory extraction unit 15 determines whether or not the I-th person exists in the captured image. If it exists, the process returns to step S203. If it does not exist, action trajectories have already been extracted for all persons in the captured image, and the process proceeds to step S206.

(ステップS206)ユーザ特定部17は、カウンタJを「1」に設定する。
(ステップS207)比較部16は、位置情報受付部13が受け付けた位置情報のうち、J番目のユーザの位置情報によって示される行動軌跡と、ステップS203で抽出された行動軌跡とを比較する。
(Step S206) The user identifying unit 17 sets the counter J to “1”.
(Step S207) The comparing unit 16 compares the action trajectory indicated by the position information of the J-th user among the position information received by the position information receiving unit 13 with the action trajectory extracted in Step S203.

(ステップS208)ユーザ特定部17は、J番目のユーザの位置情報によって示される行動軌跡と、ステップS203で抽出されたいずれかの行動軌跡とが一致するかどうか判断する。そして、一致する場合には、ステップS209に進み、一致しない場合には、ステップS210に進む。   (Step S208) The user specifying unit 17 determines whether or not the action trajectory indicated by the position information of the J-th user matches any action trajectory extracted in Step S203. If they match, the process proceeds to step S209, and if they do not match, the process proceeds to step S210.

(ステップS209)ユーザ特定部17は、J番目のユーザの位置情報によって示される行動軌跡と一致する行動軌跡を有する撮影画像における人物が、J番目のユーザであると特定する。ユーザ特定部17は、例えば、その人物の画像領域を識別する人物IDと、J番目のユーザを識別するユーザIDとを対応付けて所定の記録媒体に蓄積してもよい。
(ステップS210)ユーザ特定部17は、カウンタJを1だけインクリメントする。
(Step S209) The user specifying unit 17 specifies that the person in the captured image having the action locus that matches the action locus indicated by the position information of the Jth user is the Jth user. For example, the user specifying unit 17 may store a person ID that identifies the person's image area and a user ID that identifies the J-th user in a predetermined recording medium in association with each other.
(Step S210) The user identifying unit 17 increments the counter J by one.

(ステップS211)ユーザ特定部17は、J番目のユーザが存在するかどうか判断する。そして、J番目のユーザが存在する場合には、ステップS207に戻り、存在しない場合には、すでに全てのユーザについてユーザの特定に関する処理を行っているため、ユーザを特定する一連の処理は終了となる。   (Step S211) The user specifying unit 17 determines whether or not the J-th user exists. If the J-th user exists, the process returns to step S207. If the J-th user does not exist, the process related to user identification has already been performed for all users. Become.

なお、図5のフローチャートでは、ステップS201において、人物の画像領域の特定を行う場合について説明したが、前述のように、オプティカル・フロー等の技術を用いる場合には、人物の画像領域の特定を行わなくてもよい。ただし、オプティカル・フローの技術を用いる場合に、オプティカル・フローの処理を実行する領域を限定することは有効である。処理負荷を軽減するためである。例えば、オプティカル・フローの処理を行う領域を、新たな人物が出現する領域(例えば、撮影画像の端、人物が出入りする領域など)に限定してもよく、以前のフレームで動きを検出した領域に限定してもよい。そして、それ以外の領域では、オプティカル・フローの処理を行う領域で検出された動きを追跡するようにしてもよい。この追跡の方法は従来から公知であり、その詳細な説明は省略する。また、図5のフローチャートでは、複数のユーザが存在する場合の処理を示しているが、ユーザが1名である場合には、カウンタJを用いなくてもよい。   In the flowchart of FIG. 5, the case where the person image area is specified in step S <b> 201 has been described. However, as described above, when the technique such as the optical flow is used, the person image area is specified. It does not have to be done. However, when the optical flow technique is used, it is effective to limit the area in which the optical flow processing is executed. This is to reduce the processing load. For example, the area where the optical flow processing is performed may be limited to an area where a new person appears (for example, an edge of a captured image, an area where a person enters or exits), and an area where motion is detected in a previous frame You may limit to. In other areas, the motion detected in the area where the optical flow processing is performed may be tracked. This tracking method is conventionally known, and detailed description thereof is omitted. Further, although the flowchart of FIG. 5 shows processing when there are a plurality of users, the counter J may not be used when there is one user.

図6は、図4のフローチャートのステップS108の異常検出処理の詳細を示すフローチャートである。
(ステップS301)検出手段25は、カウンタKを「1」に設定する。
FIG. 6 is a flowchart showing details of the abnormality detection process in step S108 of the flowchart of FIG.
(Step S301) The detecting means 25 sets the counter K to “1”.

(ステップS302)検出手段25は、ユーザ過去情報記憶手段21が記憶しているユーザ過去情報を用いて、K番目のユーザの行動が、過去の行動と異なる確率を算出する。   (Step S <b> 302) The detection unit 25 calculates the probability that the behavior of the Kth user is different from the past behavior, using the user past information stored in the user past information storage unit 21.

(ステップS303)検出手段25は、通常行動情報記憶手段22が記憶している通常行動情報を用いて、K番目のユーザの行動が、通常の人の行動と異なる確率を算出する。   (Step S303) Using the normal action information stored in the normal action information storage unit 22, the detecting unit 25 calculates a probability that the K-th user's action is different from the normal person's action.

なお、ステップS302,S303の処理において、検出手段25は、前述のように、K番目のユーザの行動を示す情報として、行動軌跡抽出部15が抽出したK番目のユーザの行動軌跡を用いてもよく、その行動軌跡抽出部15が抽出したK番目のユーザの行動軌跡と、位置情報の示すK番目のユーザの行動軌跡とを用いてもよい。   In the processes of steps S302 and S303, as described above, the detection unit 25 may use the Kth user's action trajectory extracted by the action trajectory extraction unit 15 as the information indicating the Kth user's action. Alternatively, the action trajectory of the Kth user extracted by the action trajectory extraction unit 15 and the action trajectory of the Kth user indicated by the position information may be used.

(ステップS304)検出手段25は、ステップS302,S303で算出した各確率に重み付けを行った確率を算出する。すなわち、検出手段25は、各確率に対してそれぞれ所定の係数を掛け合わせて加算することによって、確率を算出する。   (Step S304) The detecting means 25 calculates the probability of weighting each probability calculated in steps S302 and S303. That is, the detection means 25 calculates a probability by multiplying each probability by a predetermined coefficient and adding the result.

(ステップS305)検出手段25は、その確率があらかじめ定められている所定のしきい値以上であるかどうか判断する。そして、しきい値以上である場合には、ステップS306に進み、そうでない場合には、ステップS307に進む。   (Step S305) The detection means 25 determines whether or not the probability is equal to or higher than a predetermined threshold value. And when it is more than a threshold value, it progresses to step S306, and when that is not right, it progresses to step S307.

(ステップS306)検出手段25は、K番目のユーザの行動に関する異常を検出する。なお、検出手段25は、K番目のユーザの行動に関する異常を検出した旨を所定の記録媒体等に蓄積してもよい。   (Step S306) The detection means 25 detects an abnormality related to the behavior of the Kth user. Note that the detection means 25 may store information indicating that an abnormality relating to the behavior of the Kth user has been detected in a predetermined recording medium or the like.

(ステップS307)行動軌跡比較手段23は、K番目のユーザの行動軌跡と、他の人物の行動軌跡とを比較する。行動軌跡比較手段23は、K番目のユーザの行動を示す情報として、行動軌跡抽出部15が抽出したK番目のユーザの行動軌跡を用いてもよく、その行動軌跡抽出部15が抽出したK番目のユーザの行動軌跡と、位置情報の示すK番目のユーザの行動軌跡とを用いてもよい。また、行動軌跡比較手段23は、他の人物の行動軌跡として、行動軌跡抽出部15が抽出した、他の人物の行動軌跡を用いてもよい。   (Step S307) The behavior trajectory comparison means 23 compares the behavior trajectory of the Kth user with the behavior trajectories of other persons. The behavior trajectory comparison unit 23 may use the Kth user's behavior trajectory extracted by the behavior trajectory extraction unit 15 as information indicating the behavior of the Kth user, and the Kth user's behavior trajectory extraction unit 15 extracts the Kth. The user's action trajectory and the K-th user's action trajectory indicated by the position information may be used. Further, the behavior trajectory comparison unit 23 may use the behavior trajectory of another person extracted by the behavior trajectory extraction unit 15 as the behavior trajectory of another person.

(ステップS308)検出手段25は、K番目のユーザの行動軌跡と一定以上の類似性を有する他の人物の行動軌跡があるかどうか判断する。この判断は、上記(B−1)で説明したように行われる。そして、K番目のユーザの行動軌跡と一定以上の類似性を有する他の人物の行動軌跡がある場合には、ステップS309に進み、そうでない場合には、ステップS310に進む。   (Step S308) The detection unit 25 determines whether there is an action locus of another person having a certain similarity or more with the action locus of the Kth user. This determination is performed as described in (B-1) above. If there is an action locus of another person having a certain similarity or more with the action locus of the Kth user, the process proceeds to step S309, and if not, the process proceeds to step S310.

(ステップS309)検出手段25は、K番目のユーザが尾行されているという異常を検出する。なお、検出手段25は、K番目のユーザが尾行されているという異常を検出した旨を所定の記録媒体等に蓄積してもよい。
(ステップS310)予測行動軌跡算出手段24は、K番目のユーザの予測行動軌跡を算出する。
(Step S309) The detecting means 25 detects an abnormality that the Kth user is being followed. Note that the detection unit 25 may store information indicating that the abnormality that the Kth user is being followed is detected in a predetermined recording medium or the like.
(Step S310) The predicted action trajectory calculating means 24 calculates the predicted action trajectory of the Kth user.

(ステップS311)検出手段25は、予測行動軌跡算出手段24が算出したK番目のユーザの予測行動軌跡上において待ち伏せがあるかどうか判断する。この判断は、上記(B−2)で説明したように行われる。そして、K番目のユーザの予測行動軌跡上において待ち伏せがある場合には、ステップS312に進み、そうでない場合には、ステップS313に進む。   (Step S311) The detection unit 25 determines whether there is an ambush on the predicted behavior trajectory of the Kth user calculated by the predicted behavior trajectory calculation unit 24. This determination is performed as described in (B-2) above. If there is an ambush on the predicted behavior trajectory of the Kth user, the process proceeds to step S312; otherwise, the process proceeds to step S313.

(ステップS312)検出手段25は、K番目のユーザが待ち伏せされているという異常を検出する。なお、検出手段25は、K番目のユーザが待ち伏せされているという異常を検出した旨を所定の記録媒体等に蓄積してもよい。
(ステップS313)検出手段25は、カウンタKを1だけインクリメントする。
(Step S <b> 312) The detecting means 25 detects an abnormality that the Kth user is ambushed. Note that the detection unit 25 may store information indicating that the abnormality that the K-th user is awaited is detected in a predetermined recording medium or the like.
(Step S313) The detection means 25 increments the counter K by 1.

(ステップS314)検出手段25は、K番目のユーザが存在するかどうか判断する。そして、存在する場合にはステップS302に戻り、そうでない場合には、一連の処理は終了となる。   (Step S314) The detection means 25 determines whether or not the Kth user exists. If it exists, the process returns to step S302, and if not, the series of processing ends.

なお、図6のフローチャートでは、異常検出部18がユーザの行動に関する異常、ユーザが尾行されているという異常、ユーザが待ち伏せされているという異常のそれぞれを検出する場合について説明したが、異常検出部18は、少なくとも、そのいずれか1以上の異常を検出するものであればよい。また、異常検出部18は、ユーザの行動に関する異常として、ユーザの行動がユーザの通常の行動と異なる場合の異常と、ユーザの行動が通常の人と異なる場合の異常とのいずれかのみを検出してもよい。   In the flowchart of FIG. 6, the case where the abnormality detection unit 18 detects each of the abnormality related to the user's behavior, the abnormality that the user is being followed, and the abnormality that the user is ambushed is described. 18 may be any one that detects at least one of the abnormalities. Further, the abnormality detection unit 18 detects only an abnormality when the user's behavior is different from the user's normal behavior or an abnormality when the user's behavior is different from the normal person as an abnormality related to the user's behavior. May be.

また、検出手段25は、全ての異常の検出が終了した後に、どのユーザについて、どのような異常が検出されたのかを示す情報を例えば所定の記録媒体等から読み出して、異常出力部19に渡してもよい。   Further, the detection means 25 reads out information indicating what kind of abnormality is detected for which user after detecting all the abnormalities from, for example, a predetermined recording medium and passes it to the abnormality output unit 19. May be.

図7は、図4のフローチャートのステップS110の異常情報出力処理の詳細を示すフローチャートである。なお、異常出力部19は、異常検出情報をユーザの有する情報端末や、サーバに送信するものとする。
(ステップS401)異常出力部19は、カウンタLを「1」に設定する。
FIG. 7 is a flowchart showing details of the abnormality information output processing in step S110 of the flowchart of FIG. In addition, the abnormality output part 19 shall transmit abnormality detection information to the information terminal and server which a user has.
(Step S401) The abnormality output unit 19 sets the counter L to “1”.

(ステップS402)異常出力部19は、異常が検出されたL番目のユーザについて、行動に関する異常が検出されたかどうか判断する。異常出力部19は、例えば、検出手段25から受け取った、どのユーザについて、どのような異常が検出されたのかを示す情報に基づいて、この判断を行ってもよい。そして、検出された場合には、ステップS403に進み、そうでない場合には、ステップS406に進む。
(ステップS403)異常出力部19は、L番目のユーザの情報端末に対して、ユーザの安否を確認する情報を送信する。
(Step S402) The abnormality output unit 19 determines whether an abnormality relating to behavior has been detected for the L-th user from which an abnormality has been detected. For example, the abnormality output unit 19 may make this determination on the basis of information received from the detection unit 25 and indicating what abnormality is detected for which user. If detected, the process proceeds to step S403, and if not, the process proceeds to step S406.
(Step S403) The abnormality output unit 19 transmits information for confirming the safety of the user to the information terminal of the Lth user.

(ステップS404)異常出力部19は、ステップS403における情報の送信に対して、L番目のユーザの情報端末等から、ユーザに異常がない旨の情報を図示しない受信部が受信したかどうか判断する。そして、受信した場合には、ステップS406に進み、ステップS403の送信から一定時間以上経過してもユーザに異常がない旨の情報を受信しない場合や、ユーザの情報端末等から、異常が発生している旨の情報を図示しない受信部が受信した場合には、ステップS405に進む。
(ステップS405)異常出力部19は、サーバにL番目のユーザに異常が発生した旨の異常検出情報を送信する。
(Step S404) The abnormality output unit 19 determines whether or not a receiving unit (not shown) has received information indicating that there is no abnormality from the information terminal of the Lth user in response to the transmission of information in Step S403. . If it is received, the process proceeds to step S406, and if there is no information indicating that the user has no abnormality even after a lapse of a certain time from the transmission in step S403, or an abnormality has occurred from the user's information terminal or the like. If the receiving unit (not shown) has received the information indicating that it is, the process proceeds to step S405.
(Step S405) The abnormality output unit 19 transmits abnormality detection information indicating that an abnormality has occurred to the Lth user to the server.

(ステップS406)異常出力部19は、L番目のユーザが尾行されている異常、及び/または、待ち伏せされている異常が検出されたかどうか判断する。そして、少なくともいずれかが検出された場合には、ステップS407に進み、そうでない場合には、ステップS408に進む。   (Step S406) The abnormality output unit 19 determines whether an abnormality in which the Lth user is followed and / or an abnormality that has been ambushed is detected. If at least one of them is detected, the process proceeds to step S407, and if not, the process proceeds to step S408.

(ステップS407)異常出力部19は、L番目のユーザの情報端末に、ユーザが尾行、及び/または、待ち伏せされている旨の異常情報を送信する。
(ステップS408)異常出力部19は、カウンタLを1だけインクリメントする。
(Step S407) The abnormality output unit 19 transmits abnormality information indicating that the user is following and / or waiting to the information terminal of the Lth user.
(Step S408) The abnormality output unit 19 increments the counter L by 1.

(ステップS409)異常出力部19は、異常が検出されたL番目のユーザが存在するかどうか判断する。そして、存在する場合には、ステップS402に戻り、存在しない場合には、一連の処理は終了となる。   (Step S409) The abnormality output unit 19 determines whether there is an L-th user in which an abnormality is detected. If it exists, the process returns to step S402. If it does not exist, the series of processing ends.

なお、図7のフローチャートでは、ユーザの行動に関する異常が検出された場合には、ユーザへの安否確認を行ってからサーバに異常検出情報を送信する場合について説明したが、ユーザへの安否確認を行わないで直接、サーバに異常検出情報を送信してもよい。また、異常検出情報の出力先は、図7のフローチャートに限定されないことは言うまでもない。
次に、本実施の形態によるユーザ異常検出装置1の動作について、具体例を用いて説明する。
In the flowchart of FIG. 7, the case where abnormality detection information is transmitted to the server after confirming safety to the user when an abnormality related to the user's behavior is detected has been described. You may transmit abnormality detection information to a server directly, without performing. Needless to say, the output destination of the abnormality detection information is not limited to the flowchart of FIG.
Next, the operation of the user abnormality detection device 1 according to the present embodiment will be described using a specific example.

まず、カメラから出力された撮影画像を受け付ける処理について説明する。この具体例では、複数のカメラからの撮影画像が受け付けられるものとする。各カメラは、カメラを識別するカメラIDと、撮影画像の各フレームの撮影された日時を示す日時情報と、撮影画像を構成するフレームとを対応付けて順次、出力するものとする。この具体例では、説明の便宜上、撮影画像のフレームレートが1fpsであるとする。   First, processing for receiving a captured image output from the camera will be described. In this specific example, it is assumed that captured images from a plurality of cameras are accepted. Assume that each camera sequentially outputs a camera ID for identifying the camera, date information indicating the date and time when each frame of the captured image was captured, and frames constituting the captured image in association with each other. In this specific example, for convenience of explanation, it is assumed that the frame rate of the captured image is 1 fps.

撮影画像受付部11は、各カメラから送信された撮影画像を受け付けると、その撮影画像を撮影画像蓄積部12に渡す(ステップS101)。撮影画像蓄積部12は、図8で示されるように、カメラIDと、日時情報と、撮影画像を構成するフレームとを対応付けて所定の記録媒体に蓄積する(ステップS102)。図8において、P001等は、撮影画像を構成するフレームを識別する情報である。   When the captured image reception unit 11 receives the captured image transmitted from each camera, the captured image reception unit 11 passes the captured image to the captured image storage unit 12 (step S101). As shown in FIG. 8, the captured image storage unit 12 stores the camera ID, the date / time information, and the frames constituting the captured image in association with each other in a predetermined recording medium (step S102). In FIG. 8, P001 and the like are information for identifying the frames constituting the photographed image.

次に、位置情報を受け付ける処理について説明する。この具体例では、ユーザの有する情報端末としての携帯電話がGPS機能を有しており、そのGPS機能を用いて取得された位置情報が順次、ユーザを識別するユーザIDと共にユーザ異常検出装置1にネットワークを介して送信されるものとする。このネットワークは、例えば、インターネット、公衆電話回線、イントラネット等である。図9は、ユーザの情報端末から送信される位置情報のパケットの一例を示す図である。そのパケットのペイロードには、ユーザIDと位置情報とが含まれる。このペイロードは、暗号化されていてもよく、あるいは暗号化されていなくてもよい。位置情報では、ユーザの位置を示す情報と、その位置が取得された日時を示す日時情報とが対応付けられているものとする。   Next, processing for receiving position information will be described. In this specific example, a mobile phone as an information terminal possessed by a user has a GPS function, and position information acquired using the GPS function is sequentially transmitted to the user abnormality detection device 1 together with a user ID for identifying the user. Suppose that it is transmitted via a network. This network is, for example, the Internet, a public telephone line, an intranet, or the like. FIG. 9 is a diagram illustrating an example of a position information packet transmitted from a user information terminal. The payload of the packet includes a user ID and position information. This payload may be encrypted or unencrypted. In the position information, it is assumed that information indicating the position of the user is associated with date information indicating the date and time when the position is acquired.

位置情報受付部13は、ユーザの情報端末から送信された位置情報を受け付けると、その位置情報を位置情報蓄積部14に渡す(ステップS103)。位置情報蓄積部14は、図10で示されるように、ユーザIDと、位置情報とを対応付けて所定の記録媒体に蓄積する(ステップS104)。そして、この位置情報は、図10で示されるように、日時情報と、ユーザの位置を示す経度・緯度とが対応付けられている。   When the position information receiving unit 13 receives the position information transmitted from the user information terminal, the position information receiving unit 13 passes the position information to the position information storage unit 14 (step S103). As shown in FIG. 10, the position information storage unit 14 stores the user ID and the position information in association with each other in a predetermined recording medium (step S104). In this position information, as shown in FIG. 10, date / time information is associated with longitude / latitude indicating the position of the user.

次に、撮影画像における人物からユーザを特定する処理について説明する。前述のように、ユーザを特定する処理は、新たな撮影画像が受け付けられたタイミングで実行されるものとする。新たな撮影画像のフレームが撮影画像受付部11で受け付けられると(ステップS105)、行動軌跡抽出部15はそのことを検知し、その新たに受け付けられた撮影画像のフレームにおける人物の画像領域を特定し、その特定した各人物の画像領域に対して人物を特定する人物IDを付与する(ステップS201)。その人物IDの付与時には、前述のように、過去の撮影画像のフレームに含まれる人物の画像領域については、その過去の撮影画像のフレームにおいて付与した人物IDと同一の人物IDを付与する。その後、行動軌跡抽出部15は、新たに受け付けられた撮影画像のフレームにおける各人物の画像領域について、行動軌跡の抽出を行う(ステップS202〜S205)。すなわち、行動軌跡抽出部15は、新たに受け付けられた撮影画像のフレームの日時情報と、人物の画像領域に付与した人物IDと、その人物IDで識別される人物の画像領域の位置を示す情報とを対応付けて所定の記録媒体に蓄積する。なお、その蓄積時に、人物の画像領域の位置を示す情報は、平面射影変換等によって上から見た位置に変換されるものとする。図11は、そのようにして蓄積された人物IDと、行動軌跡を示す情報とを示す図である。行動軌跡において、人物の画像領域の位置を示す情報は、2次元平面直交座標系における所定の基準点からの座標(x、y)として示されている。   Next, processing for identifying a user from a person in a captured image will be described. As described above, it is assumed that the process of specifying a user is executed at a timing when a new captured image is received. When a frame of a new captured image is received by the captured image reception unit 11 (step S105), the action trajectory extraction unit 15 detects this and specifies an image area of a person in the frame of the newly received captured image. Then, a person ID for specifying a person is assigned to the image area of each specified person (step S201). At the time of assigning the person ID, as described above, the same person ID as the person ID assigned in the frame of the past photographed image is assigned to the image area of the person included in the frame of the past photographed image. Thereafter, the behavior trajectory extraction unit 15 extracts a behavior trajectory for each person's image area in the newly accepted frame of the captured image (steps S202 to S205). That is, the action trajectory extraction unit 15 is information indicating the date and time information of the frame of the newly accepted captured image, the person ID assigned to the person image area, and the position of the person image area identified by the person ID. Are stored in a predetermined recording medium in association with each other. It is assumed that the information indicating the position of the person's image area at the time of accumulation is converted into a position seen from above by plane projective transformation or the like. FIG. 11 is a diagram showing the person IDs thus accumulated and information indicating the action trajectory. In the action trajectory, information indicating the position of the person's image region is shown as coordinates (x, y) from a predetermined reference point in the two-dimensional plane orthogonal coordinate system.

その後、比較部16は、位置情報蓄積部14が蓄積した位置情報について、例えば、GRS80楕円体モデルを用いたガウスクリューゲル変換を行うことによって、位置情報の示す行動軌跡と、撮影画像から抽出された行動軌跡とを比較することができるようにする。このガウスクリューゲル変換によって、WGS−84座標系(GPSデータの座標系)から平面直交座標系(公共測量座標系)に変換されることになる。ガウスクリューゲル変換後の平面直交座標系と、撮影画像から抽出された行動軌跡の平面直交座標系とは、同一の基準点、及び同一の座標軸であるとする。なお、ガウスクリューゲル変換のパラメータについては、例えば、日本の国土交通省が公表している「平成14年国土交通省告示第9号」で示されている値を用いてもよい。図12は、図10で示される位置情報の示す経度・緯度の情報を、平面直交座標系の座標(x、y)に変換した位置情報を示す図である。   Thereafter, the comparison unit 16 extracts the position information accumulated by the position information accumulation unit 14 from the action trajectory indicated by the position information and the captured image by performing, for example, Gaussian gel conversion using the GRS80 ellipsoid model. It is possible to compare with the action trajectory. By this Gaussian gel conversion, the WGS-84 coordinate system (GPS data coordinate system) is converted to a plane orthogonal coordinate system (public survey coordinate system). It is assumed that the plane orthogonal coordinate system after the Gaussian gel conversion and the plane orthogonal coordinate system of the action trajectory extracted from the captured image have the same reference point and the same coordinate axis. In addition, about the parameter of the Gaussian gel conversion, you may use the value shown by "Ministry of Land, Infrastructure, Transport and Tourism No. 9" published by the Ministry of Land, Infrastructure, Transport and Tourism of Japan, for example. FIG. 12 is a diagram illustrating position information obtained by converting longitude / latitude information indicated by the position information illustrated in FIG. 10 into coordinates (x, y) in a plane orthogonal coordinate system.

比較部16は、変換後の位置情報の示す行動軌跡と、行動軌跡抽出部15が抽出した行動軌跡とを、ユーザごとに比較する(ステップS206,S207)。その比較の結果を用いて、ユーザ特定部17は、ユーザの位置情報の示す行動軌跡と、抽出されたいずれかの行動軌跡とが一致するかどうか判断する(ステップS208)。ここでは、人物ID「F002」で識別される人物の行動軌跡(図13(a))と、ユーザID「U001」で識別されるユーザの位置情報によって示される行動軌跡(図13(b))との類似度が「0.95」であったとする。また、ユーザID「U001」のユーザの行動軌跡については、人物ID「F002」の行動軌跡との類似度が最も高かったとする。行動軌跡の類似度がしきい値「0.9」以上である場合に、両者が一致すると判断するように設定されていたとすると、ユーザ特定部17は、人物ID「F002」で識別される人物として、ユーザID「U001」で識別されるユーザを特定する(ステップS209)。そして、ユーザ特定部17は、図14で示されるように、人物ID「F002」と、ユーザID「U001」とを対応付ける情報を所定の記録媒体に蓄積する。なお、比較部16による比較の処理と、ユーザ特定部17によるユーザの特定の処理とは、位置情報が受信されている全てのユーザに対して実行される(ステップS207〜S211)。   The comparison unit 16 compares the action locus indicated by the converted position information with the action locus extracted by the action locus extraction unit 15 for each user (steps S206 and S207). Using the comparison result, the user identification unit 17 determines whether or not the action trajectory indicated by the user's position information matches any one of the extracted action trajectories (step S208). Here, the action trajectory of the person identified by the person ID “F002” (FIG. 13A) and the action trajectory indicated by the position information of the user identified by the user ID “U001” (FIG. 13B). Is similar to “0.95”. Further, it is assumed that the user trajectory of the user ID “U001” has the highest similarity with the behavior trajectory of the person ID “F002”. If the similarity of the action trajectory is equal to or greater than the threshold value “0.9”, and the user identification unit 17 is set to determine that both match, the user identification unit 17 identifies the person identified by the person ID “F002”. The user identified by the user ID “U001” is specified (step S209). Then, as illustrated in FIG. 14, the user specifying unit 17 stores information that associates the person ID “F002” with the user ID “U001” in a predetermined recording medium. Note that the comparison process by the comparison unit 16 and the user identification process by the user identification unit 17 are executed for all users for whom position information has been received (steps S207 to S211).

次に、ユーザの異常を検出する処理のうち、ユーザの行動に関する異常を検出する処理について説明する。この具体例では、ユーザID「U001」で識別されるユーザ(以下、「ユーザU001」とすることがある)について説明する。他のユーザについても、同様にして異常を検出する処理を実行することができる。   Next, the process which detects the abnormality regarding a user's action among the processes which detect a user's abnormality is demonstrated. In this specific example, a user identified by a user ID “U001” (hereinafter, sometimes referred to as “user U001”) will be described. The process for detecting an abnormality can be executed in the same manner for other users.

この具体例では、ユーザ過去情報記憶手段21において、撮影画像から抽出された行動軌跡を示すユーザ過去情報がユーザごとに記憶されているものとする。このユーザ過去情報は、ユーザIDに対応付けられて行動軌跡を有する以外、図11で示される情報と同様のものである。また、通常行動情報記憶手段22において、通常の人が歩く場合に通る領域を示す情報が記憶されているものとする。   In this specific example, it is assumed that user past information indicating an action locus extracted from a captured image is stored for each user in the user past information storage unit 21. This user past information is the same as the information shown in FIG. 11 except that it has an action locus associated with the user ID. In addition, it is assumed that the normal behavior information storage unit 22 stores information indicating an area through which a normal person walks.

まず、検出手段25は、ユーザU001の現在の行動が、ユーザ過去情報で示されるユーザU001の過去の行動軌跡と異なる確率を算出する(ステップS302)。この具体例では、ユーザ過去情報で示されるユーザU001の過去の行動軌跡と、行動軌跡抽出部15が順次抽出するユーザU001の現在の行動軌跡とについてパターンマッチングを行い、両者がマッチングしない確率を算出することによって、ユーザU001の現在の行動が、過去の行動軌跡と異なる確率を算出するものとする。図15で示されるように、ユーザU001に対応する人物ID「F002」の人物が過去の行動軌跡とは異なる行動をした場合には、ユーザU001の現在の行動が、ユーザ過去情報で示されるユーザU001の過去の行動軌跡と異なる確率は高くなり、例えば、「0.80」と算出される。   First, the detection unit 25 calculates a probability that the current behavior of the user U001 is different from the past behavior trajectory of the user U001 indicated by the user past information (step S302). In this specific example, pattern matching is performed on the past behavior trajectory of the user U001 indicated by the user past information and the current behavior trajectory of the user U001 sequentially extracted by the behavior trajectory extraction unit 15, and the probability that the two do not match is calculated. By doing this, the probability that the current action of the user U001 is different from the past action locus is calculated. As shown in FIG. 15, when the person with the person ID “F002” corresponding to the user U001 performs an action different from the past action trajectory, the current action of the user U001 is indicated by the user past information. The probability that it is different from the past action trajectory of U001 is high, for example, “0.80” is calculated.

また、検出手段25は、ユーザU001の現在の行動が、通常行動情報で示される通常の人の行動と異なる確率を算出する(ステップS303)。この具体例では、図16の斜線の領域で示されるように、通常行動情報によって通常の人の通る範囲が示されており、その範囲内をユーザが通る場合には、ユーザの行動が通常の人の行動と異なる確率「0」が算出され、そうでない場合、すなわち、その範囲外をユーザが通る場合には、ユーザの行動が通常の人と異なる確率「1」が算出されるものとする。ここで、図16の斜線の領域を示す情報は、例えば、その斜線の領域の周囲の画素を特定する情報であってもよく、あるいは、その斜線の領域に含まれる画素を特定する情報であってもよい。図16で示されるように、ユーザU001に対応する人物ID「F002」の人物が、通常の人が通る範囲を超えて移動した場合には、ユーザの行動が通常の人の行動と異なる確率「1」が算出される。   The detecting unit 25 calculates a probability that the current action of the user U001 is different from the action of the normal person indicated by the normal action information (Step S303). In this specific example, as indicated by the hatched area in FIG. 16, a normal person's passing range is shown by the normal action information, and when the user passes through the range, the user's action is normal. A probability “0” that is different from the behavior of the person is calculated. If not, that is, if the user passes outside the range, a probability “1” that the user's behavior is different from that of the normal person is calculated. . Here, the information indicating the hatched area in FIG. 16 may be, for example, information specifying pixels around the hatched area, or information specifying pixels included in the hatched area. May be. As illustrated in FIG. 16, when the person with the person ID “F002” corresponding to the user U001 moves beyond the range through which the normal person passes, the probability “ 1 "is calculated.

ここで、この具体例では、ユーザの過去の行動と異なる確率と、通常の人の行動と異なる確率とのそれぞれに「0.5」を掛けて加算することによって、重み付けを行うものとする。すなわち、両者の平均が算出されることになる。また、その確率の重み付けの結果と比較するしきい値は「0.8」に設定されているものとする。   Here, in this specific example, weighting is performed by multiplying each of the probability different from the user's past behavior and the probability different from the normal human behavior by multiplying by “0.5”. That is, the average of both is calculated. Further, it is assumed that the threshold value to be compared with the result of the weighting of the probability is set to “0.8”.

すると、上記の場合には、各確率の重み付けの結果は「0.9」となり(ステップS304)、しきい値「0.8」以上であると判断され(ステップS305)、検出手段25は、ユーザU001の行動に関する異常を検出する(ステップS306)。検出手段25は、ユーザU001の行動に関する異常が検出された旨を所定の記録媒体において保持しておくものとする。   Then, in the above case, the result of the weighting of each probability is “0.9” (step S304), it is determined that the threshold is “0.8” or more (step S305), and the detection means 25 An abnormality relating to the action of the user U001 is detected (step S306). It is assumed that the detection unit 25 holds in a predetermined recording medium that an abnormality relating to the action of the user U001 has been detected.

次に、ユーザの異常を検出する処理のうち、ユーザに対する尾行の異常を検出する処理について説明する。まず、行動軌跡比較手段23は、行動軌跡抽出部15が抽出したユーザU001の現在の行動軌跡と、行動軌跡抽出部15が抽出したユーザU001以外の各人物の現在の行動軌跡とを比較する(ステップS307)。例えば、図17で示されるように、ユーザU001に対応する人物ID「F002」の人物の後から、同様の行動軌跡によって人物ID「F010」の人物が移動している場合に、行動軌跡比較手段23は、両者の類似度が「0.90」であると判断したとする。   Next, of the processes for detecting a user abnormality, a process for detecting a tail abnormality for the user will be described. First, the behavior trajectory comparison unit 23 compares the current behavior trajectory of the user U001 extracted by the behavior trajectory extraction unit 15 with the current behavior trajectory of each person other than the user U001 extracted by the behavior trajectory extraction unit 15 ( Step S307). For example, as shown in FIG. 17, when a person with a person ID “F010” moves after a person with a person ID “F002” corresponding to the user U001 by a similar action locus, action locus comparison means Suppose that it is determined that the similarity between them is “0.90”.

この具体例では、類似度が「0.80」以上であれば、一定以上の類似性があると判断するものとする。すると、検出手段25は、人物ID「F010」の人物の行動軌跡が、ユーザU001の行動軌跡と一定以上の類似性があると判断し(ステップS308)、ユーザU001が尾行されているという異常を検出する(ステップS309)。検出手段25は、ユーザU001の尾行についての異常が検出された旨を所定の記録媒体において保持しておくものとする。   In this specific example, if the degree of similarity is “0.80” or more, it is determined that there is a certain degree of similarity. Then, the detection unit 25 determines that the action trajectory of the person with the person ID “F010” has a certain similarity or more with the action trajectory of the user U001 (step S308), and detects an abnormality that the user U001 is followed. It detects (step S309). It is assumed that the detection unit 25 holds in a predetermined recording medium that an abnormality regarding the tail of the user U001 has been detected.

次に、ユーザの異常を検出する処理について、特にユーザに対する待ち伏せの異常を検出する処理について説明する。まず、予測行動軌跡算出手段24は、ユーザU001の予測行動軌跡を算出する(ステップS310)。この具体例では、予測行動軌跡算出手段24は、ユーザU001の過去の行動軌跡を用いてその予測行動軌跡の算出を行うものとする。すなわち、予測行動軌跡算出手段24は、図示しない経路によってユーザ過去情報記憶手段21から、ユーザU001の過去の行動軌跡(この具体例では、図15で示されるものであるとする)を示す情報を読み出す。そして、図18の破線の矢印で示されるように、ユーザU001に対応する人物ID「F002」の人物の予測行動軌跡を算出する。その後、検出手段25は、その予測行動軌跡から一定の範囲内、例えば、予測行動軌跡から2メートル以内に止まっている人物がいるかどうか判断し、その人物が通常の人が止まらない場所に止まっている場合に、待ち伏せの異常を検出するものとする(ステップS311)。ここで、通常の人が止まらない場所かどうかは、検出手段25は、図19で示されるように、信号待ち等のために通常の人が止まる場所を示す情報を用いて判断するものとする。この具体例では、図18で示されるように、人物ID「F011」の人物がユーザU001の予測行動軌跡から2メートル以内に止まっており、その位置が図19で示される通常の人が止まる場所でないとすると、検出手段25は、ユーザU001が待ち伏せされているという異常を検出する(ステップS312)。検出手段25は、ユーザU001の待ち伏せについての異常が検出された旨を所定の記録媒体において保持しておくものとする。
次に、異常出力部19が異常検出情報を出力する処理について説明する。
Next, a process for detecting a user abnormality will be described, particularly a process for detecting an ambush abnormality for the user. First, the predicted behavior trajectory calculating unit 24 calculates the predicted behavior trajectory of the user U001 (step S310). In this specific example, it is assumed that the predicted behavior trajectory calculation unit 24 calculates the predicted behavior trajectory using the past behavior trajectory of the user U001. In other words, the predicted action trajectory calculating unit 24 obtains information indicating the past action trajectory of the user U001 (in this specific example, the one shown in FIG. 15) from the user past information storage unit 21 through a route (not shown). read out. Then, as indicated by the dashed arrow in FIG. 18, the predicted behavior trajectory of the person with the person ID “F002” corresponding to the user U001 is calculated. Thereafter, the detection means 25 determines whether or not there is a person who stops within a certain range from the predicted action trajectory, for example, within 2 meters from the predicted action trajectory, and the person stops at a place where a normal person does not stop. If there is, the ambush abnormality is detected (step S311). Here, as shown in FIG. 19, the detection means 25 determines whether or not a place where a normal person does not stop using information indicating a place where a normal person stops because of waiting for a signal or the like. . In this specific example, as shown in FIG. 18, the person with the person ID “F011” stops within 2 meters from the predicted behavior trajectory of the user U001, and the position is the place where the normal person shown in FIG. 19 stops If not, the detection means 25 detects an abnormality that the user U001 is awaited (step S312). It is assumed that the detection unit 25 holds in a predetermined recording medium that an abnormality regarding the ambush of the user U001 has been detected.
Next, processing in which the abnormality output unit 19 outputs abnormality detection information will be described.

まず、ユーザU001について、ユーザの行動に関する異常が検出された場合について説明する。異常検出部18の検出手段25が、ユーザU001の行動に関する異常、尾行、待ち伏せの異常のそれぞれが検出された旨を示す情報を所定の記録媒体から読み出して、異常出力部19に渡すと、異常出力部19は、異常が検出されたと判断し(ステップS109)、異常検出情報を出力する処理を開始する(ステップS110)。   First, the case where abnormality regarding a user's action is detected about user U001 is demonstrated. When the detection means 25 of the abnormality detection unit 18 reads out information indicating that each of the abnormality relating to the behavior of the user U001, the tailing and the ambush from the predetermined recording medium and passes it to the abnormality output unit 19, The output unit 19 determines that an abnormality has been detected (step S109), and starts a process of outputting abnormality detection information (step S110).

まず、異常出力部19は、ユーザU001の行動に関する異常が検出されたと判断し(ステップS402)、あらかじめ登録されているユーザU001の情報端末としての携帯電話のアドレスにユーザU001の安否を確認する情報を送信する(ステップS403)。その情報に対して、ユーザU001が問題ない旨の情報を返信した場合には、異常検出部18によってユーザの行動に関する異常が検出されたが、実際には問題がなかったこととなる。一方、ユーザU001からの返答が一定時間以上ない場合や、ユーザU001から問題が発生した旨の情報をユーザ異常検出装置1が受信した場合には、異常出力部19は、ユーザU001に異常が発生した旨を含む異常検出情報を警備会社や警察等のサーバに送信する(ステップS405)。なお、警備会社等に送信される異常検出情報には、ユーザU001の現在位置を示す情報を含めて送信してもよい。その結果、警備会社等から、ユーザU001を救助するための人を出動させることができる。   First, the abnormality output unit 19 determines that an abnormality relating to the action of the user U001 has been detected (step S402), and confirms the safety of the user U001 at the address of the mobile phone as the information terminal of the user U001 registered in advance. Is transmitted (step S403). When the information indicating that the user U001 has no problem is returned to the information, the abnormality detection unit 18 detects an abnormality related to the user's behavior, but there is actually no problem. On the other hand, when there is no response from the user U001 for a certain time or when the user abnormality detection device 1 receives information indicating that a problem has occurred from the user U001, the abnormality output unit 19 generates an abnormality in the user U001. The abnormality detection information including the effect is transmitted to a server such as a security company or the police (step S405). The abnormality detection information transmitted to the security company or the like may be transmitted including information indicating the current location of the user U001. As a result, a person for rescue of the user U001 can be dispatched from a security company or the like.

次に、ユーザU001について、ユーザの尾行、待ち伏せの異常が検出された場合について説明する。異常出力部19は、ユーザU001の尾行、待ち伏せの異常が検出されたと判断し(ステップS406)、ユーザU001の情報端末としての携帯電話のアドレスに、尾行及び待ち伏せの異常が検出された旨を示す異常検出情報を送信する(ステップS407)。この異常検出情報は、尾行している人物や、待ち伏せを行っている人物に異常検出情報をユーザU001の携帯電話で受信したことが気づかれないように、例えば、尾行や待ち伏せが行われている場合に鳴らすことがあらかじめ設定されている着信メロディーがユーザU001の携帯電話で鳴るように制御する情報であってもよい。   Next, a case will be described in which a user's tail and ambush abnormality is detected for the user U001. The abnormality output unit 19 determines that the user U001's tailing and ambush abnormality has been detected (step S406), and indicates that the tailing and ambush abnormality has been detected in the address of the mobile phone as the information terminal of the user U001. Abnormality detection information is transmitted (step S407). This anomaly detection information is, for example, tailed or ambushed so that the person who is following or who is ambushing will not notice that the anomaly detection information has been received by the mobile phone of user U001. Information that controls the ringing melody that is set in advance to ring in the case may be played on the mobile phone of the user U001.

なお、この具体例では、位置情報を2次元平面直交座標系に変換してから比較等の処理を行う場合について説明したが、撮影画像から抽出された行動軌跡を位置情報で用いられている座標系に変換してから比較等の処理を行ってもよい。   In this specific example, the case where the processing such as comparison is performed after the position information is converted into the two-dimensional plane orthogonal coordinate system has been described. However, the coordinates used in the position information are action trajectories extracted from the captured image. Processing such as comparison may be performed after conversion to a system.

以上のように、本実施の形態によるユーザ異常検出装置1では、ユーザの位置情報と、カメラで撮影された撮影画像とを用いることにより、撮影画像に写っているユーザを特定することができる。したがって、あらかじめユーザの顔の特徴等を登録していなくても、撮影画像に写っているユーザを特定することができる。また、本実施の形態によるユーザ異常検出装置1では、撮影画像によってユーザの位置をGPS等よりもより厳密に知ることができるため、ユーザ特定部17によって特定されたユーザに関する異常をより適切に検出して、異常検出情報を出力することができる。その結果、例えば、ユーザが事故や事件に巻き込まれたといった異常や、病気で倒れたといった異常を検出することができる。また、本実施の形態によるユーザ異常検出装置1では、撮影画像を用いることによって、ユーザ特定部17で特定された以外の人物の行動を追跡することもでき、ユーザが尾行や待ち伏せされているという異常を検出することができる。また、2以上のカメラによって撮影された、重複しない2以上の領域の撮影画像を用いることにより、ユーザが撮影画像の領域内に存在しない場合であっても、ユーザの異常を検出することになる。例えば、1の撮影画像の領域から、他の撮影画像の領域まで、ユーザの過去の行動パターンからすると2分で移動しているにもかかわらず、1の撮影画像の領域から他の撮影画像の領域にユーザが向かってから5分経過しても、他の撮影画像の領域にユーザが現れない場合には、そのユーザに関する異常を検出することもできる。このように、本実施の形態によるユーザ異常検出装置1では、より広範囲な異常の検出を行うこともできる。また、本実施の形態によるユーザ異常検出装置1では、そのような異常が発生したことをユーザ本人やユーザの家族、警備会社等に通知することができる。したがって、ユーザに発生した異常に対して適切に対応することができることとなる。   As described above, in the user abnormality detection device 1 according to the present embodiment, it is possible to specify a user shown in a captured image by using the user's position information and the captured image captured by the camera. Therefore, even if the user's facial features or the like are not registered in advance, it is possible to specify the user who is shown in the captured image. In addition, since the user abnormality detection device 1 according to the present embodiment can know the user's position more precisely than the GPS or the like from the captured image, the abnormality relating to the user identified by the user identification unit 17 is detected more appropriately. Thus, the abnormality detection information can be output. As a result, it is possible to detect, for example, an abnormality such as the user being involved in an accident or an incident, or an abnormality such as a fall due to illness. In addition, in the user abnormality detection device 1 according to the present embodiment, by using a captured image, it is possible to track the behavior of a person other than that specified by the user specifying unit 17, and that the user is following or waiting. Abnormalities can be detected. Further, by using captured images of two or more regions that are not overlapped and captured by two or more cameras, even if the user does not exist within the region of the captured image, the user's abnormality is detected. . For example, from the area of one captured image to the area of another captured image, the user's past behavior pattern moves in 2 minutes, but from the area of one captured image to another captured image. If the user does not appear in another captured image area even after 5 minutes have passed from the user facing the area, an abnormality relating to the user can be detected. As described above, the user abnormality detection device 1 according to the present embodiment can also detect a wider range of abnormality. In addition, the user abnormality detection device 1 according to the present embodiment can notify the user himself / herself, the user's family, a security company, or the like that such an abnormality has occurred. Therefore, it is possible to appropriately cope with an abnormality that has occurred in the user.

なお、本実施の形態では、ユーザの位置情報がユーザの保持している情報端末のGPS機能を用いて取得される場合について説明したが、それ以外の方法によって取得されてもよく、ユーザの位置情報を取得する方法は問わない。例えば、RFタグや光学タグ、無線LANの技術等を用いてユーザの位置情報を取得してもよい。RFタグを用いてユーザの位置情報を取得する場合には、例えば、ユーザがRFタグを有しており、道路や屋内に設置されている受信機がユーザの有するRFタグからの電波を受信した場合に、受信機の位置を示す情報をユーザの位置情報として取得してもよく、ユーザの有するRFタグからの電波を用いて、3点測量を行って、ユーザの位置情報を取得してもよい。あるいは、道路や屋内にRFタグが設置されており、そのRFタグからの電波をユーザが有する受信機によって受信することにより、ユーザの位置情報を取得してもよい。光学タグや、無線LAN、ブルートゥース(登録商標)等を用いて同様にしてユーザの位置情報を取得してもよい。これらの方法については従来から公知であり、その詳細な説明は省略する。   In the present embodiment, the case where the user's position information is acquired using the GPS function of the information terminal held by the user has been described. However, the user's position information may be acquired by other methods. There is no limitation on the method of acquiring information. For example, the user's position information may be acquired using an RF tag, an optical tag, a wireless LAN technology, or the like. When acquiring user position information using an RF tag, for example, the user has an RF tag, and a receiver installed on a road or indoor has received radio waves from the user's RF tag. In some cases, information indicating the position of the receiver may be acquired as the user's position information, or the user's position information may be acquired by performing a three-point survey using radio waves from the RF tag of the user. Good. Alternatively, an RF tag may be installed on a road or indoor, and the user's location information may be acquired by receiving radio waves from the RF tag by a receiver that the user has. The position information of the user may be acquired in the same manner using an optical tag, wireless LAN, Bluetooth (registered trademark), or the like. These methods are conventionally known and will not be described in detail.

また、本実施の形態では、位置情報が時系列に沿った情報である場合について説明したが、位置情報は時系列に沿った情報でなくてもよい。すなわち、位置情報は、ユーザの通過した位置を示す情報であってもよい。   Moreover, although this Embodiment demonstrated the case where position information was the information along a time series, position information may not be the information along a time series. That is, the position information may be information indicating the position where the user has passed.

また、上記説明では、撮影画像がカメラによって街角等を撮影したものである場合について説明したが、撮影画像は、屋内を撮影したものであってもよく、ユーザが通る場所をカメラによって撮影したものであれば、カメラによる撮影場所は問わない。   In the above description, the case where the photographed image is a street corner photographed by the camera has been described. However, the photographed image may be a photograph taken indoors, and the photographed place where the user passes by the camera. If so, the shooting location by the camera does not matter.

また、上記実施の形態において、各処理または各機能は、単一の装置または単一のシステムによって集中処理されることによって実現されてもよく、あるいは、複数の装置または複数のシステムによって分散処理されることによって実現されてもよい。   In the above embodiment, each process or each function may be realized by centralized processing by a single device or a single system, or may be distributedly processed by a plurality of devices or a plurality of systems. It may be realized by doing.

また、上記実施の形態において、各構成要素は専用のハードウェアにより構成されてもよく、あるいは、ソフトウェアにより実現可能な構成要素については、プログラムを実行することによって実現されてもよい。例えば、ハードディスクや半導体メモリ等の記録媒体に記録されたソフトウェア・プログラムをCPU等のプログラム実行部が読み出して実行することによって、各構成要素が実現される。なお、上記実施の形態におけるユーザ異常検出装置を実現するソフトウェアは、以下のようなプログラムである。つまり、このプログラムは、コンピュータに、ユーザが通る場所を1以上のカメラによって撮影した撮影画像を受け付ける撮影画像受付ステップと、ユーザの位置を示す情報である位置情報を受け付ける位置情報受付ステップと、前記撮影画像における人物の行動軌跡を抽出する行動軌跡抽出ステップと、前記行動軌跡抽出ステップで抽出した行動軌跡と、前記位置情報によって示されるユーザの行動軌跡とを比較する比較ステップと、前記比較ステップでの比較結果に基づいて、前記撮影画像における人物の画像から、前記位置情報受付ステップで受け付けた位置情報によって位置が示されるユーザを特定するユーザ特定ステップと、前記ユーザ特定ステップで特定したユーザに関する異常を検出する異常検出ステップと、前記異常検出ステップでユーザに関する異常を検出した場合に、異常が検出されたことに関する情報である異常検出情報を出力する異常出力ステップと、を実行させるためのものである。   In the above embodiment, each component may be configured by dedicated hardware, or a component that can be realized by software may be realized by executing a program. For example, each component is realized by a program execution unit such as a CPU reading and executing a software program recorded on a recording medium such as a hard disk or a semiconductor memory. In addition, the software which implement | achieves the user abnormality detection apparatus in the said embodiment is the following programs. That is, the program includes a captured image reception step that receives a captured image captured by one or more cameras at a location where the user passes, a position information reception step that receives position information that is information indicating the position of the user, An action trajectory extraction step for extracting a person's action trajectory in the captured image, a comparison step for comparing the action trajectory extracted in the action trajectory extraction step with a user's action trajectory indicated by the position information, and the comparison step Based on the comparison result, a user specifying step for specifying a user whose position is indicated by the position information received in the position information receiving step from an image of a person in the captured image, and an abnormality related to the user specified in the user specifying step Detecting an abnormality, and detecting the abnormality detection step. When detecting an abnormality relating user-up, but abnormal for executing the abnormal output step of outputting an abnormality detection information which is information related to that detected.

なお、上記プログラムにおいて、情報を出力する出力ステップや、情報を受け付ける受付ステップ等では、ハードウェアでしか行われない処理、例えば、出力ステップにおけるモデムやインターフェースカード等で行われる処理は少なくとも含まれない。   In the above program, the output step for outputting information, the accepting step for receiving information, etc. do not include at least processing performed only by hardware, for example, processing performed by a modem or an interface card in the output step. .

また、このプログラムは、サーバ等からダウンロードされることによって実行されてもよく、所定の記録媒体(例えば、CD−ROM等の光ディスクや磁気ディスク、半導体メモリ等)に記録されたプログラムが読み出されることによって実行されてもよい。   Further, this program may be executed by being downloaded from a server or the like, and a program recorded on a predetermined recording medium (for example, an optical disc such as a CD-ROM, a magnetic disc, a semiconductor memory, etc.) is read out. May be executed by

また、このプログラムを実行するコンピュータは、単数であってもよく、複数であってもよい。すなわち、集中処理を行ってもよく、あるいは分散処理を行ってもよい。   Further, the computer that executes this program may be singular or plural. That is, centralized processing may be performed, or distributed processing may be performed.

図20は、上記プログラムを実行して、上記実施の形態によるユーザ異常検出装置1を実現するコンピュータの外観の一例を示す模式図である。上記実施の形態は、コンピュータハードウェア及びその上で実行されるコンピュータプログラムによって実現される。   FIG. 20 is a schematic diagram illustrating an example of an external appearance of a computer that executes the program and realizes the user abnormality detection apparatus 1 according to the embodiment. The above-described embodiment is realized by computer hardware and a computer program executed on the computer hardware.

図20において、コンピュータシステム100は、CD−ROM(Compact Disk Read Only Memory)ドライブ105、FD(Flexible Disk)ドライブ106を含むコンピュータ101と、キーボード102と、マウス103と、モニタ104とを備える。なお、ここでは異常出力部19は、異常検出情報をモニタ104に表示してもよく、前述のようにネットワーク等を介して送信してもよく、あるいは、その他の出力を行ってもよい。異常検出情報が送信等される場合には、それに応じたデバイスをコンピュータシステム100が有するものとする。   20, a computer system 100 includes a computer 101 including a CD-ROM (Compact Disk Read Only Memory) drive 105 and an FD (Flexible Disk) drive 106, a keyboard 102, a mouse 103, and a monitor 104. Here, the abnormality output unit 19 may display the abnormality detection information on the monitor 104, may transmit the information via the network as described above, or may perform other output. When abnormality detection information is transmitted, the computer system 100 has a device corresponding to the abnormality detection information.

図21は、コンピュータシステムを示す図である。図21において、コンピュータ101は、CD−ROMドライブ105、FDドライブ106に加えて、CPU(Central Processing Unit)111と、ブートアッププログラム等のプログラムを記憶するためのROM(Read Only Memory)112と、CPU111に接続され、アプリケーションプログラムの命令を一時的に記憶すると共に、一時記憶空間を提供するRAM(Random Access Memory)113と、アプリケーションプログラム、システムプログラム、及びデータを記憶するハードディスク114と、CPU111、ROM112等を相互に接続するバス115とを備える。なお、コンピュータ101は、LANへの接続を提供する図示しないネットワークカードを含んでもよい。   FIG. 21 is a diagram illustrating a computer system. In FIG. 21, in addition to the CD-ROM drive 105 and the FD drive 106, a computer 101 includes a CPU (Central Processing Unit) 111, a ROM (Read Only Memory) 112 for storing a program such as a bootup program, A CPU (Random Access Memory) 113 that is connected to the CPU 111 and temporarily stores application program instructions and provides a temporary storage space, a hard disk 114 that stores application programs, system programs, and data, a CPU 111 and a ROM 112. Etc. to each other. The computer 101 may include a network card (not shown) that provides connection to the LAN.

コンピュータシステム100に、上記実施の形態によるユーザ異常検出装置1の機能を実行させるプログラムは、CD−ROM121、またはFD122に記憶されて、CD−ROMドライブ105、またはFDドライブ106に挿入され、ハードディスク114に転送されてもよい。これに代えて、そのプログラムは、図示しないネットワークを介してコンピュータ101に送信され、ハードディスク114に記憶されてもよい。プログラムは実行の際にRAM113にロードされる。なお、プログラムは、CD−ROM121やFD122、またはネットワークから直接、ロードされてもよい。   A program for causing the computer system 100 to execute the function of the user abnormality detection device 1 according to the above embodiment is stored in the CD-ROM 121 or the FD 122, inserted into the CD-ROM drive 105 or the FD drive 106, and the hard disk 114. May be forwarded to. Instead, the program may be transmitted to the computer 101 via a network (not shown) and stored in the hard disk 114. The program is loaded into the RAM 113 at the time of execution. The program may be loaded directly from the CD-ROM 121, the FD 122, or the network.

プログラムは、コンピュータ101に、上記実施の形態によるユーザ異常検出装置1の機能を実行させるオペレーティングシステム(OS)、またはサードパーティプログラム等を必ずしも含んでいなくてもよい。プログラムは、制御された態様で適切な機能(モジュール)を呼び出し、所望の結果が得られるようにする命令の部分のみを含んでいてもよい。コンピュータシステム100がどのように動作するのかについては周知であり、詳細な説明を省略する。
また、本発明は、以上の実施の形態に限定されることなく、種々の変更が可能であり、それらも本発明の範囲内に包含されるものであることは言うまでもない。
The program does not necessarily include an operating system (OS) or a third party program that causes the computer 101 to execute the function of the user abnormality detection device 1 according to the above-described embodiment. The program may include only a part of an instruction that calls an appropriate function (module) in a controlled manner and obtains a desired result. How the computer system 100 operates is well known and will not be described in detail.
Further, the present invention is not limited to the above-described embodiment, and various modifications are possible, and it goes without saying that these are also included in the scope of the present invention.

以上のように、本発明によるユーザ異常検出装置等によれば、ユーザに発生した異常を検出することができ、ユーザの異常を検出するシステム等として有用である。   As described above, according to the user abnormality detection device and the like according to the present invention, it is possible to detect an abnormality that has occurred in the user, which is useful as a system for detecting a user abnormality.

本発明の実施の形態1によるユーザ異常検出装置の全体構成を示すブロック図The block diagram which shows the whole structure of the user abnormality detection apparatus by Embodiment 1 of this invention. 本発明の実施の形態1における2以上のカメラによる撮影画像の撮影について説明するための図The figure for demonstrating imaging | photography of the picked-up image with two or more cameras in Embodiment 1 of this invention. 同実施の形態による異常検出部の内部構成を示すブロック図The block diagram which shows the internal structure of the abnormality detection part by the embodiment 同実施の形態によるユーザ異常検出装置の全体の動作を示すフローチャートThe flowchart which shows the whole operation | movement of the user abnormality detection apparatus by the embodiment 同実施の形態によるユーザ異常検出装置のユーザ特定の動作を示すフローチャートThe flowchart which shows the user specific operation | movement of the user abnormality detection apparatus by the embodiment 同実施の形態によるユーザ異常検出装置の異常検出の動作を示すフローチャートThe flowchart which shows the operation | movement of abnormality detection of the user abnormality detection apparatus by the embodiment 同実施の形態によるユーザ異常検出装置の異常情報の出力の動作を示すフローチャートThe flowchart which shows the operation | movement of the output of the abnormality information of the user abnormality detection apparatus by the embodiment 同実施の形態による撮影画像蓄積部が蓄積した撮影画像の一例を示す図The figure which shows an example of the picked-up image which the picked-up image storage part by the same embodiment accumulate | stored 同実施の形態における位置情報のパケットの一例を示す図The figure which shows an example of the packet of the positional information in the embodiment 同実施の形態における位置情報の一例を示す図The figure which shows an example of the positional information in the embodiment 同実施の形態における抽出された行動軌跡の一例を示す図The figure which shows an example of the extracted action locus | trajectory in the embodiment 同実施の形態における変換された位置情報の一例を示す図The figure which shows an example of the converted positional information in the embodiment 同実施の形態におけるユーザを特定する処理を説明するための図The figure for demonstrating the process which identifies the user in the embodiment 同実施の形態におけるユーザIDと人物IDとの対応付けを示す図The figure which shows matching with user ID and person ID in the embodiment 同実施の形態における異常の検出について説明するための図The figure for demonstrating the detection of the abnormality in the embodiment 同実施の形態における異常の検出について説明するための図The figure for demonstrating the detection of the abnormality in the embodiment 同実施の形態における異常の検出について説明するための図The figure for demonstrating the detection of the abnormality in the embodiment 同実施の形態における異常の検出について説明するための図The figure for demonstrating the detection of the abnormality in the embodiment 同実施の形態における異常の検出について説明するための図The figure for demonstrating the detection of the abnormality in the embodiment 同実施の形態におけるコンピュータシステムの外観一例を示す模式図Schematic diagram showing an example of the appearance of the computer system in the embodiment 同実施の形態におけるコンピュータシステムの構成の一例を示す図The figure which shows an example of a structure of the computer system in the embodiment

符号の説明Explanation of symbols

1 ユーザ異常検出装置
11 撮影画像受付部
12 撮影画像蓄積部
13 位置情報受付部
14 位置情報蓄積部
15 行動軌跡抽出部
16 比較部
17 ユーザ特定部
18 異常検出部
19 異常出力部
21 ユーザ過去情報記憶手段
22 通常行動情報記憶手段
23 行動軌跡比較手段
24 予測行動軌跡算出手段
25 検出手段
DESCRIPTION OF SYMBOLS 1 User abnormality detection apparatus 11 Captured image reception part 12 Captured image storage part 13 Position information reception part 14 Position information storage part 15 Action locus extraction part 16 Comparison part 17 User specification part 18 Abnormality detection part 19 Abnormal output part 21 User past information storage Means 22 Normal action information storage means 23 Action trajectory comparison means 24 Predictive action trajectory calculation means 25 Detection means

Claims (8)

ユーザが通る場所を1以上のカメラによって撮影した撮影画像を受け付ける撮影画像受付部と、
ユーザの位置を示す情報である位置情報を受け付ける位置情報受付部と、
前記撮影画像における人物の行動軌跡を抽出する行動軌跡抽出部と、
前記行動軌跡抽出部が抽出した行動軌跡と、前記位置情報によって示されるユーザの行動軌跡とを比較する比較部と、
前記比較部による比較結果に基づいて、前記撮影画像における人物の画像から、前記位置情報受付部が受け付けた位置情報によって位置が示されるユーザを特定するユーザ特定部と、
前記ユーザ特定部が特定したユーザに関する異常を検出する異常検出部と、
前記異常検出部がユーザに関する異常を検出した場合に、異常が検出されたことに関する情報である異常検出情報を出力する異常出力部と、を備えたユーザ異常検出装置。
A photographed image receiving unit that accepts a photographed image taken by one or more cameras in a place where the user passes;
A position information receiving unit that receives position information that is information indicating the position of the user;
An action trajectory extraction unit for extracting an action trajectory of a person in the captured image;
A comparison unit that compares the behavior trajectory extracted by the behavior trajectory extraction unit with the user's behavior trajectory indicated by the position information;
A user specifying unit that specifies a user whose position is indicated by the position information received by the position information receiving unit from the image of the person in the captured image based on the comparison result by the comparing unit;
An abnormality detection unit for detecting an abnormality related to the user specified by the user specifying unit;
A user abnormality detection device comprising: an abnormality output unit that outputs abnormality detection information that is information relating to an abnormality being detected when the abnormality detection unit detects an abnormality relating to a user.
前記異常検出部は、前記ユーザ特定部が特定したユーザの行動に関する異常を検出する、請求項1記載のユーザ異常検出装置。 The user abnormality detection device according to claim 1, wherein the abnormality detection unit detects an abnormality related to a user behavior specified by the user specifying unit. 前記異常検出部は、
前記ユーザ特定部が特定したユーザの過去の行動を示す情報であるユーザ過去情報が記憶されるユーザ過去情報記憶手段と、
前記ユーザ特定部が特定したユーザの行動が、前記ユーザ過去情報が示す当該ユーザの過去の行動と異なる場合に、当該ユーザの行動に関する異常を検出する検出手段と、を備える、請求項2記載のユーザ異常検出装置。
The abnormality detection unit
User past information storage means for storing user past information that is information indicating the past actions of the user specified by the user specifying unit;
The detection means which detects the abnormality regarding the said user's action when the user's action which the said user specific part specified differs from the said user's past action which the said user past information shows is provided. User abnormality detection device.
前記異常検出部は、
通常の人の行動に関する情報である通常行動情報が記憶される通常行動情報記憶手段と、
前記ユーザ特定部が特定したユーザの行動が、前記通常行動情報が示す通常の人の行動と異なる場合に、当該ユーザの行動に関する異常を検出する検出手段と、を備える、請求項2または請求項3記載のユーザ異常検出装置。
The abnormality detection unit
Normal behavior information storage means for storing normal behavior information, which is information related to normal human behavior,
The detection means which detects the abnormality regarding the said user's action when the user's action which the said user specific part specified differs from the action of the normal person which the said normal action information shows is provided. 3. The user abnormality detection device according to 3.
前記異常検出部は、前記撮影画像に含まれる前記ユーザ特定部が特定したユーザ以外の人物の行動が、当該ユーザの行動との関係で異常である場合に、当該ユーザに関する異常を検出する、請求項1記載のユーザ異常検出装置。 The abnormality detection unit detects an abnormality related to the user when the behavior of a person other than the user identified by the user identification unit included in the captured image is abnormal in relation to the behavior of the user. Item 1. The user abnormality detection device according to Item 1. 前記異常検出部は、
前記行動軌跡抽出部が抽出した1以上の人物の行動軌跡と、前記ユーザ特定部が特定したユーザの行動軌跡とを比較する行動軌跡比較手段と、
前記行動軌跡比較手段により、両者が一定以上の類似性を有する場合に、当該ユーザに関する異常を検出する検出手段と、を備える、請求項5記載のユーザ異常検出装置。
The abnormality detection unit
Action trajectory comparison means for comparing the action trajectory of one or more persons extracted by the action trajectory extraction unit with the user's action trajectory specified by the user specifying unit;
The user abnormality detection device according to claim 5, further comprising: a detection unit configured to detect an abnormality related to the user when the behavior locus comparison unit has a certain similarity or more.
前記異常検出部は、
前記ユーザ特定部が特定したユーザの予測される行動軌跡である予測行動軌跡を算出する予測行動軌跡算出手段と、
前記予測行動軌跡算出手段が算出した予測行動軌跡から一定範囲内の位置であって、通常の人が止まらない位置に前記撮影画像に含まれる当該ユーザ以外の人物が止まっている場合に、当該ユーザに関する異常を検出する検出手段と、を備える、請求項5または請求項6記載のユーザ異常検出装置。
The abnormality detection unit
A predicted behavior trajectory calculating means for calculating a predicted behavior trajectory that is a predicted behavior trajectory of the user identified by the user identifying section;
When a person other than the user included in the photographed image stops at a position within a certain range from the predicted action trajectory calculated by the predicted action trajectory calculation means and does not stop a normal person The user abnormality detection device according to claim 5, further comprising: a detecting unit that detects an abnormality relating to the user.
ユーザが通る場所を1以上のカメラによって撮影した撮影画像を受け付ける撮影画像受付ステップと、
ユーザの位置を示す情報である位置情報を受け付ける位置情報受付ステップと、
前記撮影画像における人物の行動軌跡を抽出する行動軌跡抽出ステップと、
前記行動軌跡抽出ステップで抽出した行動軌跡と、前記位置情報によって示されるユーザの行動軌跡とを比較する比較ステップと、
前記比較ステップでの比較結果に基づいて、前記撮影画像における人物の画像から、前記位置情報受付ステップで受け付けた位置情報によって位置が示されるユーザを特定するユーザ特定ステップと、
前記ユーザ特定ステップで特定したユーザに関する異常を検出する異常検出ステップと、
前記異常検出ステップでユーザに関する異常を検出した場合に、異常が検出されたことに関する情報である異常検出情報を出力する異常出力ステップと、を備えたユーザ異常検出方法。
A captured image accepting step for accepting a photographed image taken by one or more cameras in a place where the user passes;
A position information receiving step for receiving position information which is information indicating the position of the user;
An action trajectory extraction step for extracting an action trajectory of a person in the captured image;
A comparison step for comparing the action locus extracted in the action locus extraction step with the action locus of the user indicated by the position information;
A user specifying step of specifying a user whose position is indicated by the position information received in the position information receiving step from the image of the person in the captured image based on the comparison result in the comparing step;
An abnormality detection step of detecting an abnormality relating to the user specified in the user specifying step;
A user abnormality detection method comprising: an abnormality output step of outputting abnormality detection information that is information relating to detection of an abnormality when an abnormality relating to a user is detected in the abnormality detection step.
JP2006041320A 2006-02-17 2006-02-17 User abnormality detection equipment and user abnormality detection method Pending JP2007219948A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2006041320A JP2007219948A (en) 2006-02-17 2006-02-17 User abnormality detection equipment and user abnormality detection method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2006041320A JP2007219948A (en) 2006-02-17 2006-02-17 User abnormality detection equipment and user abnormality detection method

Publications (1)

Publication Number Publication Date
JP2007219948A true JP2007219948A (en) 2007-08-30

Family

ID=38497166

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2006041320A Pending JP2007219948A (en) 2006-02-17 2006-02-17 User abnormality detection equipment and user abnormality detection method

Country Status (1)

Country Link
JP (1) JP2007219948A (en)

Cited By (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011028436A (en) * 2009-07-23 2011-02-10 Nippon Telegr & Teleph Corp <Ntt> Behavior record storage system, server device, behavior record storage method and computer program
JP2011076237A (en) * 2009-09-29 2011-04-14 Fujifilm Corp Image classifying device, image classifying system, image classifying method, program, and recording medium
JP2011165054A (en) * 2010-02-12 2011-08-25 Secom Co Ltd Security system
JP2013008289A (en) * 2011-06-27 2013-01-10 Nippon Telegr & Teleph Corp <Ntt> Behavior pattern generation apparatus, behavior pattern generation method and behavior pattern generation program
JP2014194686A (en) * 2013-03-29 2014-10-09 Denso Corp Crime prevention system
JP2015072578A (en) * 2013-10-02 2015-04-16 株式会社東芝 Person identification apparatus, person identification method, and program
WO2015166612A1 (en) * 2014-04-28 2015-11-05 日本電気株式会社 Image analysis system, image analysis method, and image analysis program
JP2016197290A (en) * 2015-04-02 2016-11-24 三菱電機株式会社 Monitoring device and monitoring system
JP2017116980A (en) * 2015-12-21 2017-06-29 国立研究開発法人情報通信研究機構 Region watching system
JP2018182705A (en) * 2017-04-21 2018-11-15 パナソニックIpマネジメント株式会社 Identification system, identification method and program
JP2019008507A (en) * 2017-06-23 2019-01-17 株式会社東芝 Transformation matrix calculating apparatus, location estimating apparatus, transformation matrix calculating method, and location estimating method
JP2019200471A (en) * 2018-05-14 2019-11-21 富士通株式会社 Image data identification method, image data identification system, and image data identification program
JP2020129320A (en) * 2019-02-12 2020-08-27 京セラ株式会社 Roadside unit, second device, control program, and operating method of roadside unit
JP2020135805A (en) * 2019-02-26 2020-08-31 京セラ株式会社 Notification device, first roadside machine, information processor and notification method
JP2020187389A (en) * 2019-05-09 2020-11-19 コニカミノルタ株式会社 Mobile body locus analysis apparatus, mobile body locus analysis program, and mobile body locus analysis method
JP2020535862A (en) * 2017-10-06 2020-12-10 テルース ユー ケア インコーポレーションTellus You Care, Inc. Non-contact activity detection network for elderly care
CN113705355A (en) * 2021-07-30 2021-11-26 汕头大学 Real-time detection method for abnormal behaviors
JP2023073858A (en) * 2021-11-16 2023-05-26 ジョージ・アンド・ショーン株式会社 Information processing device, program, and information processing system
CN117238120A (en) * 2023-11-13 2023-12-15 山西乐宸科技有限公司 Security monitoring method, device, equipment and medium

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2003092291A1 (en) * 2002-04-25 2003-11-06 Matsushita Electric Industrial Co., Ltd. Object detection device, object detection server, and object detection method
JP2004133777A (en) * 2002-10-11 2004-04-30 Sompo Japan Insurance Inc Device and method for monitoring life of person to be monitored, device and method for tracking the person, computer program and recording medium
JP2004318587A (en) * 2003-04-17 2004-11-11 Canon Inc Action prediction and countermeasure implementing system using it
JP2004328622A (en) * 2003-04-28 2004-11-18 Matsushita Electric Ind Co Ltd Action pattern identification device

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2003092291A1 (en) * 2002-04-25 2003-11-06 Matsushita Electric Industrial Co., Ltd. Object detection device, object detection server, and object detection method
JP2004133777A (en) * 2002-10-11 2004-04-30 Sompo Japan Insurance Inc Device and method for monitoring life of person to be monitored, device and method for tracking the person, computer program and recording medium
JP2004318587A (en) * 2003-04-17 2004-11-11 Canon Inc Action prediction and countermeasure implementing system using it
JP2004328622A (en) * 2003-04-28 2004-11-18 Matsushita Electric Ind Co Ltd Action pattern identification device

Cited By (26)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011028436A (en) * 2009-07-23 2011-02-10 Nippon Telegr & Teleph Corp <Ntt> Behavior record storage system, server device, behavior record storage method and computer program
JP2011076237A (en) * 2009-09-29 2011-04-14 Fujifilm Corp Image classifying device, image classifying system, image classifying method, program, and recording medium
JP2011165054A (en) * 2010-02-12 2011-08-25 Secom Co Ltd Security system
JP2013008289A (en) * 2011-06-27 2013-01-10 Nippon Telegr & Teleph Corp <Ntt> Behavior pattern generation apparatus, behavior pattern generation method and behavior pattern generation program
JP2014194686A (en) * 2013-03-29 2014-10-09 Denso Corp Crime prevention system
JP2015072578A (en) * 2013-10-02 2015-04-16 株式会社東芝 Person identification apparatus, person identification method, and program
US10552713B2 (en) 2014-04-28 2020-02-04 Nec Corporation Image analysis system, image analysis method, and storage medium
WO2015166612A1 (en) * 2014-04-28 2015-11-05 日本電気株式会社 Image analysis system, image analysis method, and image analysis program
US11157778B2 (en) 2014-04-28 2021-10-26 Nec Corporation Image analysis system, image analysis method, and storage medium
JP2016197290A (en) * 2015-04-02 2016-11-24 三菱電機株式会社 Monitoring device and monitoring system
JP2017116980A (en) * 2015-12-21 2017-06-29 国立研究開発法人情報通信研究機構 Region watching system
JP2018182705A (en) * 2017-04-21 2018-11-15 パナソニックIpマネジメント株式会社 Identification system, identification method and program
JP2019008507A (en) * 2017-06-23 2019-01-17 株式会社東芝 Transformation matrix calculating apparatus, location estimating apparatus, transformation matrix calculating method, and location estimating method
JP2020535862A (en) * 2017-10-06 2020-12-10 テルース ユー ケア インコーポレーションTellus You Care, Inc. Non-contact activity detection network for elderly care
JP7095393B2 (en) 2018-05-14 2022-07-05 富士通株式会社 Image data identification method, image data identification system and image data identification program
JP2019200471A (en) * 2018-05-14 2019-11-21 富士通株式会社 Image data identification method, image data identification system, and image data identification program
JP2020129320A (en) * 2019-02-12 2020-08-27 京セラ株式会社 Roadside unit, second device, control program, and operating method of roadside unit
JP7332303B2 (en) 2019-02-12 2023-08-23 京セラ株式会社 IMAGING DEVICE, CONTROL PROGRAM, AND OPERATION METHOD OF IMAGING DEVICE
JP2020135805A (en) * 2019-02-26 2020-08-31 京セラ株式会社 Notification device, first roadside machine, information processor and notification method
JP7224958B2 (en) 2019-02-26 2023-02-20 京セラ株式会社 Notification device and notification method
JP2020187389A (en) * 2019-05-09 2020-11-19 コニカミノルタ株式会社 Mobile body locus analysis apparatus, mobile body locus analysis program, and mobile body locus analysis method
CN113705355A (en) * 2021-07-30 2021-11-26 汕头大学 Real-time detection method for abnormal behaviors
JP2023073858A (en) * 2021-11-16 2023-05-26 ジョージ・アンド・ショーン株式会社 Information processing device, program, and information processing system
JP7473899B2 (en) 2021-11-16 2024-04-24 ジョージ・アンド・ショーン株式会社 Information processing device, program, and information processing system
CN117238120A (en) * 2023-11-13 2023-12-15 山西乐宸科技有限公司 Security monitoring method, device, equipment and medium
CN117238120B (en) * 2023-11-13 2024-01-26 山西乐宸科技有限公司 Security monitoring method, device, equipment and medium

Similar Documents

Publication Publication Date Title
JP2007219948A (en) User abnormality detection equipment and user abnormality detection method
CN109743541B (en) Intelligent monitoring method and device, computer equipment and storage medium
AU2018391963B2 (en) Method, device, and system for adaptive training of machine learning models via detected in-field contextual sensor events and associated located and retrieved digital audio and/or video imaging
CN109271832B (en) People stream analysis method, people stream analysis device, and people stream analysis system
EP3008892B1 (en) Computer vision application processing
CN105391910B (en) Multiple-camera laser scanner
US20120207356A1 (en) Targeted content acquisition using image analysis
US20070228159A1 (en) Inquiry system, imaging device, inquiry device, information processing method, and program thereof
JP5947196B2 (en) Imaging service system and imaging control method
JP2008040781A (en) Subject verification apparatus and subject verification method
US9615063B2 (en) Method and apparatus for visual monitoring
WO2021033463A1 (en) Computer program, object-specifying method, object-specifying device, and object-specifying system
WO2021068553A1 (en) Monitoring method, apparatus and device
KR20160078724A (en) Apparatus and method for displaying surveillance area of camera
KR20160074208A (en) System and method for providing safety service using beacon signals
CN112347306A (en) PTZ camera monitoring and tracking method, device and system and computer equipment
JP2015233204A (en) Image recording device and image recording method
CN110291516A (en) Information processing equipment, information processing method and program
US20220189038A1 (en) Object tracking apparatus, control method, and program
KR20150019230A (en) Method and apparatus for tracking object using multiple camera
JP6253950B2 (en) Image surveillance system
KR20190047218A (en) Method and apparatus of providing traffic information, and computer program for executing the method.
JP2012124658A (en) System and method for detecting specific person
JP4985742B2 (en) Imaging system, method and program
JP2009124539A (en) Photographic image providing server, photographic image providing system and method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20081015

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20110224

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20110302

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20110701