JP4569190B2 - Suspicious person countermeasure system and suspicious person detection device - Google Patents

Suspicious person countermeasure system and suspicious person detection device Download PDF

Info

Publication number
JP4569190B2
JP4569190B2 JP2004186628A JP2004186628A JP4569190B2 JP 4569190 B2 JP4569190 B2 JP 4569190B2 JP 2004186628 A JP2004186628 A JP 2004186628A JP 2004186628 A JP2004186628 A JP 2004186628A JP 4569190 B2 JP4569190 B2 JP 4569190B2
Authority
JP
Japan
Prior art keywords
face
countermeasure
person
detected
countermeasure processing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2004186628A
Other languages
Japanese (ja)
Other versions
JP2006011728A (en
Inventor
卓也 岡本
有為 多田
勝 森本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Omron Corp
Original Assignee
Omron Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Omron Corp filed Critical Omron Corp
Priority to JP2004186628A priority Critical patent/JP4569190B2/en
Publication of JP2006011728A publication Critical patent/JP2006011728A/en
Application granted granted Critical
Publication of JP4569190B2 publication Critical patent/JP4569190B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Processing (AREA)
  • Burglar Alarm Systems (AREA)
  • Alarm Systems (AREA)
  • Studio Devices (AREA)
  • Telephonic Communication Services (AREA)
  • Image Analysis (AREA)

Description

本発明は、監視範囲における画像を撮像しその画像を解析することにより対象物や対象領域のセキュリティを維持するシステムや方法などに適用されて有効な技術に関する。   The present invention relates to a technique that is effective when applied to a system or a method for maintaining the security of an object or a target area by capturing an image in a monitoring range and analyzing the image.

近年、セキュリティに対する関心が高まっており、例えば車におけるセキュリティの向上も注目されている。車におけるセキュリティという観点では、特に車上荒らし行為や車体へのいたずら行為などに対する防犯のための技術が要求されている。   In recent years, interest in security has increased, and for example, improvement in security in cars has been attracting attention. From the viewpoint of security in vehicles, there is a demand for technology for crime prevention, particularly against vandalism and mischief on the body.

従来、上記のような防犯の技術として、車両の外を定期的に撮像し、前後に撮像された画像の差分に基づいて、車両への移動物体の接近を判定する技術が提案されている(特許文献1参照)。また、車両周囲の物理量の変化を感知することにより人体の接近を検知し、車上盗難を防止するよう威嚇報知を実行する技術も提案されている(特許文献2参照)。さらに、第三者による車両の不正操作を検知すると、その旨を現在の車両状態を表す車両情報などと共に情報センタに送信する技術も提案されている(特許文献3参照)。
特開平11−334536号公報 特開2003−99863号公報 特開2003−157483号公報
Conventionally, as a crime prevention technique as described above, a technique has been proposed in which the outside of a vehicle is periodically imaged and the approach of a moving object to the vehicle is determined based on the difference between images captured before and after ( Patent Document 1). In addition, a technique has been proposed in which an approach of a human body is detected by detecting a change in a physical quantity around the vehicle, and threatening notification is executed so as to prevent theft on the vehicle (see Patent Document 2). Furthermore, a technique has also been proposed in which when an unauthorized operation of a vehicle by a third party is detected, a message to that effect is transmitted to an information center together with vehicle information representing the current vehicle state (see Patent Document 3).
JP-A-11-334536 JP 2003-99863 A JP 2003-157383 A

しかしながら、従来のこれらの技術では、車両へ接近している者が、警戒すべき第三者であるのか、それとも警戒する必要のない関係者(車両の持ち主やその家族・友人など)であるのかについて一切判断されていない。このため、警戒する必要のない関係者が車両に近づいた場合にも、この接近を検知し不必要に警戒や威嚇を実施してしまう恐れがある。このような場合には、関係者による正当な操作が妨害されてしまう。また、従来の技術では、単に車両の近くを横切った悪意のない第三者についてもこれを検知し不要な威嚇を実施してしまう可能性もある。このような場合には、悪意のない第三者に不快な印象を与えるのみならず、この威嚇を察知した持ち主などに無用の心労を与えてしまう可能性がある。そして、結果としてセンサそのものの信頼性の低下を招いてしまう。   However, with these conventional technologies, is the person approaching the vehicle a third party to be wary of, or whether it is a party that does not need to be wary (the owner of the vehicle, its family, friends, etc.)? It is not judged at all. For this reason, even if a person who does not need to be alerted approaches the vehicle, there is a risk that this approach will be detected and unnecessary alerts and threats will be implemented. In such a case, a legitimate operation by a related person is hindered. In addition, in the conventional technology, there is a possibility that even a non-malicious third party crossing the vicinity of the vehicle is detected and an unnecessary threat is executed. In such a case, it may not only give an unpleasant impression to a non-malicious third party, but may also give unnecessary effort to the owner who senses this threat. As a result, the reliability of the sensor itself is lowered.

そこで本発明はこれらの問題を解決し、単に人などの接近を検知して警戒を行うのではなく、警戒すべき状況を的確に判断し、必要に応じて警戒や威嚇などの処理を行うための装置を提供することを目的とする。   Therefore, the present invention solves these problems, and does not merely detect the approach of a person or the like and perform a warning, but accurately determines the situation to be warned and performs a process such as warning or intimidation as necessary. An object of the present invention is to provide a device.

まず、警戒すべき状況の一つの例として、不審者対策システムに非常に接近している人物が検出された状況がある。この場合、不審者対策システムにおける撮像手段は、この人物の顔を非常に大きく撮像する可能性が高い。従って、このように人物の顔が非常に大きく撮像された場合に、警戒すべき状況として不審者への対策処理を実行することにより、上記問題を解決することができる。   First, as one example of a situation to be wary of, there is a situation where a person who is very close to the suspicious person countermeasure system is detected. In this case, there is a high possibility that the imaging means in the suspicious person countermeasure system images the face of the person very large. Therefore, when a person's face is imaged very large in this way, the above problem can be solved by executing a countermeasure process for a suspicious person as a situation to be wary.

このような視点に基づき、本発明の第一の態様は、不審者対策システムであって、撮像手段,検出手段,判断手段,及び対策処理手段を含む。撮像手段は、監視範囲の情景を撮像する。監視範囲は、不審者対策システムが設置される状況に応じて変化する。例えば、不審者対策システムが車両に設置された場合などには、監視範囲は車両の周辺などとして設定されても良い。また、例えば、不審者対策システムが家に設置された場合などには、
監視範囲はその家の周囲や庭や屋根の上などとして設定されても良い。検出手段は、撮像手段によって撮像された画像から人の顔を検出し、その顔の大きさを取得する。検出手段は、顔の大きさとして必ずしも顔の大きさそのものの値を取得する必要はなく、顔の大きさに密接に関連する他の値を顔の大きさとして取得しても良い。顔の大きさに密接に関連する他の値とは、例えば被写体の左右の目の間隔や、鼻孔の間隔や、目又は瞳の大きさ等の値である。また、検出手段が取得する顔の大きさは、実際の顔の大きさではなく、処理の対象となっている画像上の大きさである。即ち、検出手段が取得する顔の大きさは、実世界におけるその顔の位置に応じて変化する値である。判断手段は、検出手段によって検出された人の顔の大きさに基づいて、不審者に対する対策処理の要否を判断する。例えば、判断手段は、予め設定された閾値よりも人の顔の大きさが大きい場合に、不審者に対する対策処理が必要であると判断しても良い。また、対策処理とは、不審者を遠ざけるための処理や、不審者の存在を周囲の者やユーザや警備会社の者などに対して報知するための処理などである。対策処理手段は、判断手段による判断に従って、対策処理を実施する。
Based on such a viewpoint, the first aspect of the present invention is a suspicious person countermeasure system, which includes an imaging means, a detection means, a determination means, and a countermeasure processing means. The imaging means images a scene in the monitoring range. The monitoring range varies depending on the situation where the suspicious person countermeasure system is installed. For example, when a suspicious person countermeasure system is installed in a vehicle, the monitoring range may be set as the periphery of the vehicle. For example, when a suspicious person countermeasure system is installed in a house,
The monitoring range may be set around the house, on the garden or on the roof. The detection unit detects a human face from the image captured by the imaging unit, and acquires the size of the face. The detection means does not necessarily need to acquire the value of the face size itself as the face size, and may acquire another value closely related to the face size as the face size. Other values closely related to the size of the face are values such as the distance between the left and right eyes of the subject, the distance between the nostrils, and the size of the eyes or pupils. Further, the size of the face acquired by the detecting means is not the actual size of the face but the size on the image to be processed. In other words, the size of the face acquired by the detection means is a value that changes according to the position of the face in the real world. The determining means determines whether or not countermeasure processing for the suspicious person is necessary based on the size of the face of the person detected by the detecting means. For example, the determination unit may determine that countermeasure processing for a suspicious person is necessary when the size of a person's face is larger than a preset threshold. The countermeasure process includes a process for keeping the suspicious person away and a process for notifying the presence of the suspicious person to surrounding persons, users, security company persons, and the like. The countermeasure processing means performs countermeasure processing according to the determination by the determining means.

このように構成された本発明の第一の態様では、検出手段によって検出された顔の大きさに基づいて、対策処理の要否が判断される。このため、例えば単に遠くの顔が検出された場合などのように、例え顔が検出されたとしても対策処理が不要な場合に、不必要に対策処理が実行されることを防止することが可能となる。また、例えば撮像手段が窓越しに撮像を行うように構成された場合において、検出手段によって検出された顔の人物が窓の内部を覗いていると認められる程度に撮像された顔の大きさが大きい場合に、判断手段が対策処理を必要と判断するように構成されても良い。このように構成されることにより、本発明の第一の態様は、検出された顔の人物が窓の内部を覗いていると認められる場合にのみ、対策処理を実施することが可能となる。   In the first aspect of the present invention configured as described above, whether or not countermeasure processing is necessary is determined based on the size of the face detected by the detection means. For this reason, it is possible to prevent the countermeasure processing from being performed unnecessarily when the countermeasure processing is unnecessary even if a face is detected, for example, when a distant face is detected. It becomes. Further, for example, when the imaging means is configured to take an image through the window, the size of the face imaged to such an extent that the person of the face detected by the detection means can be recognized as looking into the inside of the window. If larger, the determination unit may be configured to determine that countermeasure processing is necessary. With this configuration, the first aspect of the present invention can implement the countermeasure process only when it is recognized that the detected face person is looking into the window.

本発明の第一の態様では、その時々の顔の大きさに基づいて警戒すべき状況が判断されたが、不審者対策システムの監視範囲に長時間にわたって滞在している人物が検出されたような状況や、監視範囲において何度も検出された人物がいる状況などのように、検出された各顔の人物について蓄積された情報から警戒すべき状況を判断することも可能である。   In the first aspect of the present invention, the situation to be warned is determined based on the size of the face at that time, but it seems that a person staying in the monitoring range of the suspicious person countermeasure system for a long time is detected. It is also possible to determine a situation to be warned from information accumulated for each detected face person, such as a situation where there is a person who has been detected many times in the monitoring range.

このような視点に基づき、本発明の第二の態様は、不審者対策システムであって、撮像手段,検出手段,特徴量記憶手段,同定手段,記憶手段,判断手段,及び対策処理手段を含む。撮像手段は、本発明の第一の態様における撮像手段と同様に、監視範囲の情景を撮像する。検出手段は、撮像手段によって撮像された画像から人の顔を検出する。特徴量記憶手段は、検出手段によって検出された各顔の特徴量を記憶する。同定手段は、検出手段によって検出された各顔について、特徴量記憶手段に記憶される特徴量を用いて同定処理を行うことにより、各顔を個別に認識する。記憶手段は、同定手段により同定された各顔に関する情報を蓄積して記憶する。判断手段は、記憶手段に記憶されている情報に基づいて、不審者に対する対策処理の要否を判断する。対策処理手段は、本発明の第一の態様における対策処理手段と同様に、判断手段による判断に従って、対策処理を実施する。   Based on such a viewpoint, the second aspect of the present invention is a suspicious person countermeasure system, which includes an imaging means, a detection means, a feature amount storage means, an identification means, a storage means, a judgment means, and a countermeasure processing means. . The imaging unit images a scene in the monitoring range, similar to the imaging unit in the first aspect of the present invention. The detection unit detects a human face from the image captured by the imaging unit. The feature quantity storage means stores the feature quantity of each face detected by the detection means. The identification unit recognizes each face individually by performing identification processing on each face detected by the detection unit using the feature amount stored in the feature amount storage unit. The storage means accumulates and stores information related to each face identified by the identification means. The determination means determines whether or not countermeasure processing for the suspicious person is necessary based on the information stored in the storage means. The countermeasure processing means implements the countermeasure processing in accordance with the determination by the determination means, like the countermeasure processing means in the first aspect of the present invention.

このように構成された本発明の第二の態様では、記憶手段に蓄積して記憶された各顔に関する情報に基づいて、対策処理の要否が判断される。このため、その時々の検出結果のみに基づいて対策処理の要否が判断される場合に比べて、より的確に対策処理の要否を判断することが可能となる。例えば、たまたま監視範囲内に踏み込んでしまった人物や通りすがりの人物などに対して、不必要に対策処理が実行されることを防止できる。   In the second aspect of the present invention configured as described above, the necessity of the countermeasure processing is determined based on the information regarding each face accumulated and stored in the storage unit. Therefore, it is possible to more accurately determine the necessity of the countermeasure process than when the necessity of the countermeasure process is determined based only on the detection result at that time. For example, it is possible to prevent the countermeasure processing from being performed unnecessarily for a person who happens to step into the monitoring range or a person who passes by.

また、本発明の第二の態様における記憶手段は、情報として、各顔が継続して検出された時間及び/又は各顔が監視範囲内に現れた回数を記憶するように構成されても良い。この場合、判断手段は、上記時間及び/又は上記回数に基づいて、対策処理の要否を判断す
るように構成されても良い。なお、各顔が監視範囲内に現れた回数とは、検出手段によって顔が検出された回数そのものを示すのではなく、所定の時間以上監視範囲内において検出されなかった顔(初回の検出により検出された場合を除く)が監視範囲内において新たに又は改めて検出された場合を1回として数えた回数を示す。
Further, the storage means in the second aspect of the present invention may be configured to store, as information, the time when each face is continuously detected and / or the number of times each face appears in the monitoring range. . In this case, the determination unit may be configured to determine whether countermeasure processing is necessary based on the time and / or the number of times. Note that the number of times each face appears in the monitoring range does not indicate the number of times the face is detected by the detection means, but a face that has not been detected in the monitoring range for a predetermined time (detected by the first detection). This is the number of times counted as one time when a new or anew is detected within the monitoring range.

このように構成された本発明の第二の態様では、各顔が継続して検出された時間や各顔が監視範囲内に現れた回数などに基づいて、対策処理の要否が判断される。このため、長時間監視範囲内に居続けている人物や、継続して監視範囲内に滞在する時間は短いものの監視範囲に何度も出入りしている人物のように、不審者と認められる人物に対してのみ対策処理を実行することが可能となる。従って、不必要に対策処理が実行されることを防止できる。   In the second aspect of the present invention configured as described above, the necessity of the countermeasure processing is determined based on the time when each face is continuously detected, the number of times each face appears in the monitoring range, and the like. . For this reason, a person who is recognized as a suspicious person, such as a person who stays in the monitoring range for a long time, or a person who stays in the monitoring range for a short time, but who has repeatedly entered and exited the monitoring range. It is possible to execute countermeasure processing only for this. Therefore, unnecessary countermeasure processing can be prevented.

また、本発明の第二の態様における検出手段は、検出された人の顔について、その顔の大きさをさらに取得するように構成されても良い。検出手段は、顔の大きさとして必ずしも顔の大きさそのものの値を取得する必要はなく、顔の大きさに密接に関連する他の値を顔の大きさとして取得しても良い。また、検出手段が取得する顔の大きさは、実際の顔の大きさではなく、処理の対象となっている画像上の大きさである。即ち、検出手段が取得する顔の大きさは、実世界におけるその顔の位置に応じて変化する。この場合、判断手段は、顔の大きさにさらに基づいて、対策処理の要否を判断するように構成されても良い。言い換えれば、判断手段は、顔の大きさと、上記時間及び/又は上記回数とに基づいて、対策処理の要否を判断するように構成されても良い。   Further, the detection means in the second aspect of the present invention may be configured to further acquire the size of the detected face of the person. The detection means does not necessarily need to acquire the value of the face size itself as the face size, and may acquire another value closely related to the face size as the face size. Further, the size of the face acquired by the detecting means is not the actual size of the face but the size on the image to be processed. That is, the size of the face acquired by the detecting means changes according to the position of the face in the real world. In this case, the determination means may be configured to determine whether countermeasure processing is necessary based on the size of the face. In other words, the determination means may be configured to determine whether countermeasure processing is necessary based on the size of the face and the time and / or the number of times.

このように構成された本発明の第二の態様では、撮像された画像における顔の大きさも、対策処理の要否の判断基準の一つとなる。このため、より的確に対策処理の要否を判断することが可能となる。例えば、撮像装置から遠い位置に長時間滞在している人物と、撮像装置に近い位置に長時間滞在している人物とを区別して対策処理の要否を判断することが可能となる。   In the second aspect of the present invention configured as described above, the size of the face in the captured image is also one of the criteria for determining whether countermeasure processing is necessary. For this reason, it is possible to more accurately determine whether countermeasure processing is necessary. For example, it is possible to distinguish between a person who stays at a position far from the imaging apparatus for a long time and a person who stays at a position near the imaging apparatus for a long time, and determines whether countermeasure processing is necessary.

また、本発明の第二の態様における特徴量記憶手段は、予め登録される顔の特徴量もさらに記憶するとともに、各顔の特徴量に対し、その顔の人物の属性情報を対応づけて記憶するように構成されても良い。属性情報は、例えばその人物が安全な人物(警戒する必要のない無い人物など)であるか危険な人物(警戒すべき人物)であるかを示しても良い。特徴量記憶手段がこのように構成された場合、同定手段は、検出手段によって検出された各顔について同定処理を行うことにより、その顔の人物の属性情報を取得するように構成されても良い。そして、本発明の第二の態様がこのように構成された場合、判断手段は、属性情報にさらに基づいて、対策処理の要否を判断するように構成されても良い。   Further, the feature amount storage means in the second aspect of the present invention further stores a face feature amount registered in advance, and stores the attribute information of the person of the face in association with the feature amount of each face. It may be configured to. The attribute information may indicate, for example, whether the person is a safe person (such as a person who does not need to be wary) or a dangerous person (a person who should be wary). When the feature amount storage unit is configured in this way, the identification unit may be configured to acquire the attribute information of the person of the face by performing an identification process on each face detected by the detection unit. . And when the 2nd aspect of this invention is comprised in this way, a judgment means may be comprised so that the necessity of countermeasure processing may be judged further based on attribute information.

このように構成された本発明の第二の態様では、撮像された人物の属性情報も、対策処理の要否の判断基準の一つとなる。このため、より的確に対策処理の要否を判断することが可能となる。例えば、対策処理をする必要のない安全な人物などに対して、不必要に対策処理が実行されることを防止できる。   In the second aspect of the present invention configured as described above, the attribute information of the captured person is also one of the criteria for determining whether countermeasure processing is necessary. For this reason, it is possible to more accurately determine whether countermeasure processing is necessary. For example, it is possible to prevent unnecessary countermeasure processing from being performed on a safe person who does not need to perform countermeasure processing.

また、本発明の第一又は第二の態様における判断手段は、対策処理が必要である場合に、実行されるべき対策処理の内容をさらに判断するように構成されても良い。このように構成された場合、対策処理手段は、判断手段によって判断された対策処理の内容に従って対策処理を実行するように構成されても良い。このように構成されることにより、状況に応じた内容の対策処理が実行され、過度の対策処理が実行されることを防止できる。   Further, the determination means in the first or second aspect of the present invention may be configured to further determine the content of the countermeasure process to be executed when the countermeasure process is necessary. When configured in this way, the countermeasure processing means may be configured to execute the countermeasure processing according to the content of the countermeasure processing determined by the determining means. By being configured in this way, it is possible to prevent the countermeasure processing with the contents depending on the situation from being executed and executing the excessive countermeasure processing.

本発明の第三の態様は、不審者検出装置であって、監視範囲の情景が撮像された画像から人の顔を検出し、その顔の大きさを取得する検出手段と、検出手段によって検出された
人の顔の大きさに基づいて不審者に対する対策処理の要否を判断し、対策処理を実行する対策処理装置に対し、判断の結果に応じて対策処理の実行を指示する指示手段とを含む。このように構成された本発明の第三の態様を用いて本発明の第一の態様として示された不審者対策システムを構成することにより、本発明の第一の態様と同様の効果を得ることが可能となる。
According to a third aspect of the present invention, there is provided a suspicious person detection device that detects a person's face from an image obtained by capturing a scene in the monitoring range, and detects the size of the face. An instruction means for determining whether or not countermeasure processing for the suspicious person is necessary based on the size of the face of the person who has been sent, and instructing the countermeasure processing device for executing the countermeasure processing to execute the countermeasure processing according to the determination including. By configuring the suspicious person countermeasure system shown as the first aspect of the present invention using the third aspect of the present invention configured as described above, the same effect as the first aspect of the present invention is obtained. It becomes possible.

本発明の第四の態様は、不審者検出装置であって、監視範囲の情景が撮像された画像から人の顔を検出する検出手段と、検出手段によって検出された各顔の特徴量を記憶する特徴量記憶手段と、検出手段によって検出された各顔について特徴量を用いて同定処理を行うことにより、各顔を個別に認識する同定手段と、同定手段により同定された各顔に関する情報を蓄積して記憶する記憶手段と、記憶手段に記憶されている情報に基づいて不審者に対する対策処理の要否を判断し、対策処理を実行する対策処理装置に対し、判断の結果に応じて対策処理の実行を指示する指示手段とを含む。このように構成された本発明の第四の態様を用いて本発明の第二の態様として示された不審者対策システムを構成することにより、本発明の第二の態様と同様の効果を得ることが可能となる。   According to a fourth aspect of the present invention, there is provided a suspicious person detection device that detects a human face from an image obtained by capturing a scene in a monitoring range, and stores a feature amount of each face detected by the detection means. The feature amount storage means, the identification means for each face detected by the detection means using the feature amount, the identification means for individually recognizing each face, and the information about each face identified by the identification means Based on the result of the determination, the storage means for storing and storing, and determining whether or not the countermeasure processing for the suspicious person is necessary based on the information stored in the storage means, Instruction means for instructing execution of processing. By configuring the suspicious person countermeasure system shown as the second aspect of the present invention using the fourth aspect of the present invention configured as described above, the same effects as those of the second aspect of the present invention are obtained. It becomes possible.

また、本発明の第三又は第四の態様は、プログラムが情報処理装置によって実行されることによって実現されても良い。即ち、本発明は、上記した本発明の第三又は第四の態様における各手段が実行する処理を、情報処理装置に対して実行させるためのプログラム、或いは当該プログラムを記録した記録媒体として特定することができる。また、本発明は、上記した本発明の第三又は第四の態様の各手段が実行する処理を情報処理装置が実行する方法をもって特定されても良い。   The third or fourth aspect of the present invention may be realized by executing a program by an information processing apparatus. That is, the present invention specifies the processing executed by each means in the third or fourth aspect of the present invention as a program for causing the information processing apparatus to execute or a recording medium on which the program is recorded. be able to. In addition, the present invention may be specified by a method in which the information processing apparatus executes the processing executed by each unit according to the third or fourth aspect of the present invention.

本発明では、検出手段によって検出された顔の大きさや、検出手段によって検出された顔の人物について蓄積された情報などに基づいて、対策処理の要否が判断され、この判断結果に従って対策処理が実行される。このため、不必要に対策処理が実行されることを防止することが可能となる。   In the present invention, the necessity of countermeasure processing is determined based on the size of the face detected by the detection means, information accumulated about the person of the face detected by the detection means, and the countermeasure processing is performed according to the determination result. Executed. For this reason, it is possible to prevent the countermeasure processing from being performed unnecessarily.

[システム構成]
不審者対策システム1は、その監視範囲内に侵入した不審者を探知し、不審者に関する情報から推定される危険の程度に応じて、防犯のための対策処理を実施する。不審者対策システム1は、例えば車両に備えられた場合は、この車両の周囲を監視範囲とし車両に接近する不審者を探知する。また、不審者対策システム1は、例えば家に備えられた場合は、この家の庭や屋根の上などを監視範囲とし屋根や庭などに侵入した不審者を探知する。
[System configuration]
The suspicious person countermeasure system 1 detects a suspicious person who has entered the monitoring range, and performs countermeasure processing for crime prevention in accordance with the degree of danger estimated from information related to the suspicious person. For example, when the suspicious person countermeasure system 1 is provided in a vehicle, the suspicious person approaching the vehicle is detected with the periphery of the vehicle as a monitoring range. Further, for example, when the suspicious person countermeasure system 1 is provided in a house, the suspicious person who has entered the roof or the garden is detected by using the yard or roof of the house as a monitoring range.

まず、不審者対策システム1のシステム構成について説明する。図1は、不審者対策システム1の機能ブロック例を示す図である。不審者対策システム1は、撮像装置2,不審者検出装置3,及び対策処理装置4を用いて構成される。以下、不審者対策システム1に含まれる各装置について説明する。   First, the system configuration of the suspicious person countermeasure system 1 will be described. FIG. 1 is a diagram illustrating a functional block example of the suspicious person countermeasure system 1. The suspicious person countermeasure system 1 includes an imaging device 2, a suspicious person detection device 3, and a countermeasure processing device 4. Hereinafter, each device included in the suspicious person countermeasure system 1 will be described.

〔撮像装置〕
撮像装置2は、不審者対策システム1が監視を行う範囲の情景を撮像し、その画像のデータを不審者検出装置3へ入力する。撮像装置2には、撮像を行いその画像を不審者検出装置3に入力することが可能な技術であれば、既存のどのような技術が適用されても良い。例えば、撮像装置2は、CCD(Charge-Coupled Devices)やCMOS(Complementary Metal-Oxide Semiconductor)センサ等が用いられたデジタルスチルカメラやデジタル
ビデオカメラ等により構成されても良い。
[Imaging device]
The imaging device 2 captures a scene in a range monitored by the suspicious person countermeasure system 1 and inputs data of the image to the suspicious person detection device 3. Any existing technology may be applied to the imaging device 2 as long as it can capture an image and input the image to the suspicious person detection device 3. For example, the imaging device 2 may be configured by a digital still camera, a digital video camera, or the like using a CCD (Charge-Coupled Devices), a CMOS (Complementary Metal-Oxide Semiconductor) sensor, or the like.

撮像装置2は、設計者やユーザによって設定されたタイミングで撮像を行うように構成されても良い。例えば、撮像装置2は、デジタルスチルカメラとして構成された場合、所定の時間間隔(毎秒,毎分など)で撮像を実施するように構成されても良い。また例えば、撮像装置2は、デジタルビデオカメラとして構成された場合、継続的に撮像を実施し、所定のタイミングにおけるフレームの画像データを不審者検出装置3に入力するように構成されても良い。また、撮像装置2は、所定の時間間隔で異なる範囲(領域)の情景を撮像するように構成されても良い。また、撮像装置2は、不審者対策システム1に1台のみ備えられても良いし、複数台備えられても良い。撮像装置2が複数台備えられる場合、各撮像装置2は、それぞれが異なるタイミングで撮像を行うことにより、不審者検出装置3へのデータ入力が重複しないように構成されても良い。   The imaging device 2 may be configured to perform imaging at a timing set by a designer or a user. For example, when the imaging apparatus 2 is configured as a digital still camera, the imaging apparatus 2 may be configured to perform imaging at a predetermined time interval (every second, every minute, etc.). For example, when the imaging device 2 is configured as a digital video camera, the imaging device 2 may be configured to continuously perform imaging and input image data of a frame at a predetermined timing to the suspicious person detection device 3. Further, the imaging device 2 may be configured to capture scenes in different ranges (areas) at predetermined time intervals. Further, only one imaging device 2 may be provided in the suspicious person countermeasure system 1, or a plurality of imaging devices 2 may be provided. When a plurality of imaging devices 2 are provided, each imaging device 2 may be configured such that data input to the suspicious person detection device 3 does not overlap by performing imaging at different timings.

〔不審者検出装置〕
不審者検出装置3は、撮像装置2から入力される画像のデータ(以下、「入力画像」と呼ぶ)を用いて処理を行うことにより、不審者対策システム1の監視範囲内に存在する人物を検出する。そして、不審者検出装置3は、人物を検出した場合、その人物について危険の程度(警戒レベル)を推定し、必要に応じて対策処理装置4へ対策処理の実行を命令する。不審者検出装置3は、検出された各人物について、検出される頻度や、継続して検出された時間や、その人の個人属性などに従って、危険の程度を推定する。
[Suspicious person detection device]
The suspicious person detection device 3 performs processing using image data (hereinafter referred to as “input image”) input from the imaging device 2, thereby detecting a person existing within the monitoring range of the suspicious person countermeasure system 1. To detect. When the suspicious person detection device 3 detects a person, the suspicious person detection device 3 estimates the degree of danger (warning level) for the person, and instructs the countermeasure processing device 4 to execute countermeasure processing as necessary. The suspicious person detection device 3 estimates the degree of danger for each detected person according to the frequency of detection, the time continuously detected, the personal attribute of the person, and the like.

不審者検出装置3は、ハードウェア的には、バスを介して接続されたCPU(中央演算処理装置),主記憶装置(RAM),補助記憶装置などを備える。補助記憶装置は、不揮発性記憶装置を用いて構成される。ここで言う不揮発性記憶装置とは、いわゆるROM(Read-Only Memory:EPROM(Erasable Programmable Read-Only Memory),EEPROM(Electrically Erasable Programmable Read-Only Memory),マスクROM等を含
む),FRAM(Ferroelectric RAM),ハードディスク等を指す。不審者検出装置3は
、補助記憶装置に記憶された各種のプログラム(OS,アプリケーション等)が主記憶装置にロードされCPUにより実行されることによって、顔検出部5,データベース記憶部6,人物追跡部7,顔照合部8,及び警戒レベル判断部9等を含む装置として機能する。顔検出部5,人物追跡部7,顔照合部8,及び警戒レベル判断部9は、プログラムがCPUによって実行されることにより実現されても良い。また、顔検出部5,人物追跡部7,顔照合部8,及び警戒レベル判断部9は専用のチップとして構成されても良い。次に、不審者検出装置3が含む各機能部について説明する。
The suspicious person detection device 3 includes a CPU (Central Processing Unit), a main storage device (RAM), an auxiliary storage device, and the like connected via a bus in terms of hardware. The auxiliary storage device is configured using a nonvolatile storage device. The nonvolatile storage device referred to here is a so-called ROM (Read-Only Memory: including EEPROM (Erasable Programmable Read-Only Memory), EEPROM (Electrically Erasable Programmable Read-Only Memory), mask ROM, etc.), FRAM (Ferroelectric RAM). ), Hard disk, etc. The suspicious person detection device 3 loads various programs (OS, applications, etc.) stored in the auxiliary storage device into the main storage device and is executed by the CPU, so that the face detection unit 5, the database storage unit 6, person tracking It functions as a device including the unit 7, the face collation unit 8, the warning level determination unit 9, and the like. The face detection unit 5, the person tracking unit 7, the face collation unit 8, and the alert level determination unit 9 may be realized by executing a program by the CPU. Further, the face detection unit 5, the person tracking unit 7, the face matching unit 8, and the warning level determination unit 9 may be configured as a dedicated chip. Next, each functional unit included in the suspicious person detection device 3 will be described.

〈顔検出部〉
顔検出部5は、入力画像から人の顔を検出し、検出された顔の位置や大きさや向き等を示す顔情報を特定する。顔検出部5は、例えば、顔全体の輪郭に対応した基準テンプレートを用いたテンプレートマッチングによって顔を検出するように構成されても良い。また、顔検出部5は、顔の構成要素(目,鼻,耳など)に基づくテンプレートマッチングによって顔を検出するように構成されても良い。また、顔検出部5は、クロマキー処理によって頭部などの頂点を検出し、この頂点に基づいて顔を検出するように構成されても良い。また、顔検出部5は、肌の色に近い領域を検出し、その領域を顔として検出するように構成されても良い。また、顔検出部5は、ニューラルネットワークを使って教師信号による学習を行い、顔らしい領域を顔として検出するように構成されても良い。また、顔検出部5による顔検出処理は、その他、既存のどのような技術が適用されることによって実現されても良い。なお、肌の色は、特定の人種の肌の色に限定される必要はなく、あらゆる人種の肌の色に対応できるように構成されても良い。例えば、不審者対策システム1が用いられる地域などに応じて設定がされても良いし、入力画像から肌の色が特定されるように構成されても良い。
<Face detection unit>
The face detection unit 5 detects a human face from the input image and specifies face information indicating the position, size, orientation, and the like of the detected face. For example, the face detection unit 5 may be configured to detect a face by template matching using a reference template corresponding to the outline of the entire face. Further, the face detection unit 5 may be configured to detect a face by template matching based on face components (eyes, nose, ears, etc.). The face detection unit 5 may be configured to detect a vertex such as a head by chroma key processing and detect a face based on the vertex. The face detection unit 5 may be configured to detect a region close to the skin color and detect the region as a face. Further, the face detection unit 5 may be configured to perform learning by a teacher signal using a neural network and detect a face-like area as a face. Further, the face detection process by the face detection unit 5 may be realized by applying any other existing technique. The skin color need not be limited to the skin color of a specific race, and may be configured to be compatible with the skin color of any race. For example, the setting may be made according to the region where the suspicious person countermeasure system 1 is used, or the skin color may be specified from the input image.

顔検出部5は、検出された各顔に関する顔情報を、人物追跡部7へ渡す。   The face detection unit 5 passes face information about each detected face to the person tracking unit 7.

〈データベース記憶部〉
データベース記憶部6は、個人データベースと一時データベースとを記憶する。図2は、個人データベース及び一時データベースそれぞれの例を示す図である。図2(a)は個人データベースの例を示し、図2(b)は一時データベースの例を示す。
<Database storage unit>
The database storage unit 6 stores a personal database and a temporary database. FIG. 2 is a diagram illustrating examples of the personal database and the temporary database. FIG. 2A shows an example of a personal database, and FIG. 2B shows an example of a temporary database.

個人データベースは、各個人についての情報をレコードとして持つ。具体的には、個人データベースは、項目としてID,属性,頻度,及び顔情報を持つ。IDとは、各個人に割り当てられる識別子であり、個人データベースと一時データベースとを対応づけるためのデータである。属性とは、その人物が警戒すべき人物であるか否かを示すデータであり、例えば“安全”,“危険”などの値を持つ。頻度とは、所定の時間以上監視範囲内において検出されなかった顔(初回の検出により検出された場合を除く)が監視範囲内において新たに又は改めて検出された場合を1回として数えた回数を示す。例えば、所定時間継続して検出され続けた人物が一度検出されなくなった後に、再度所定時間継続して検出され続けた場合に、頻度の値が更新(例えばインクリメント)される。顔情報とは、顔照合部8が顔の同定処理に用いるデータであり、例えば顔画像から取得される顔の特徴量などでも良いし、実際の顔の画像であっても良い。なお、頻度の値は、属性が“安全”である人物については保持される必要はない。   The personal database has information about each individual as a record. Specifically, the personal database has ID, attribute, frequency, and face information as items. The ID is an identifier assigned to each individual, and is data for associating the personal database with the temporary database. The attribute is data indicating whether or not the person should be wary, and has values such as “safe” and “danger”, for example. The frequency is the number of times when a face that has not been detected within the monitoring range for a predetermined time or longer (except when it is detected by the first detection) is newly or newly detected within the monitoring range is counted as one time. Show. For example, the frequency value is updated (for example, incremented) when a person who has been detected continuously for a predetermined time is no longer detected and then continues to be detected again for a predetermined time. The face information is data used by the face matching unit 8 for face identification processing, and may be, for example, a face feature amount acquired from a face image or an actual face image. Note that the frequency value need not be held for a person whose attribute is “safe”.

一時データベースは、人物追跡部7による追跡の対象となっている各個人について作成され、検出や追跡の結果を蓄積する。各一時データベースは、対応する個人のIDを持つ。具体的には、一時データベースは、項目として顔画像,サイズ,時刻を持つ。顔画像は、追跡の対象となっている人物の顔画像、即ち各一時データベースに対応する個人の顔画像であり、顔検出部5によって検出された顔の画像のデータを持つ。検出された顔画像全てが蓄積されても良いが、記憶容量節約などの趣旨で、最新のものから数枚が記憶されるように構成されても良い。サイズは、各顔画像における顔のサイズを示す。顔のサイズは、顔検出部5によって取得される顔情報に含まれる値である。時刻は、各顔画像を含む入力画像が撮像された時刻や、この画像が不審者検出装置3に入力された時刻などを示す。   The temporary database is created for each individual to be tracked by the person tracking unit 7 and accumulates detection and tracking results. Each temporary database has a corresponding individual ID. Specifically, the temporary database has face images, sizes, and times as items. The face image is a face image of a person to be tracked, that is, an individual face image corresponding to each temporary database, and has face image data detected by the face detection unit 5. Although all the detected face images may be accumulated, for the purpose of saving storage capacity, a configuration may be adopted in which several of the latest face images are stored. The size indicates the size of the face in each face image. The face size is a value included in the face information acquired by the face detector 5. The time indicates a time when an input image including each face image is captured, a time when the image is input to the suspicious person detection device 3, and the like.

〈人物追跡部〉
人物追跡部7は、顔検出部5によって検出された各顔の人物について、照合処理(同定処理)の実行を顔照合部8に依頼する。人物追跡部7は、照合処理の結果を基に一時データベースの更新を行い、追跡対象となっている人物の一時データベースの内容を管理する。そして、人物追跡部7は、必要に応じて、警戒レベル判断部9に対し、任意の人物についての警戒レベルを取得することを依頼する。人物追跡部7が行う具体的な処理については、動作例の欄で説明する。
<Person Tracking Section>
The person tracking unit 7 requests the face matching unit 8 to execute a matching process (identification process) for each face person detected by the face detecting unit 5. The person tracking unit 7 updates the temporary database based on the result of the collation process, and manages the contents of the temporary database of the person to be tracked. Then, the person tracking unit 7 requests the warning level determination unit 9 to acquire a warning level for an arbitrary person as necessary. Specific processing performed by the person tracking unit 7 will be described in the column of an operation example.

〈顔照合部〉
顔照合部8は、人物追跡部7から依頼された顔画像の人物について、同定処理を行う。顔照合部8は、同定処理を行う際に、個人データベースに含まれる顔情報を用いて、顔画像の人物が個人データベースに含まれる人物であるか否か、含まれる人物である場合はどの人物であるか、判断する。例えば、顔照合部8は、以下の文献に記載された技術を用いることにより、同定処理を行うことができる。
<Face matching unit>
The face matching unit 8 performs an identification process on the person of the face image requested by the person tracking unit 7. When performing the identification process, the face matching unit 8 uses the face information included in the personal database to determine whether or not the person in the face image is included in the personal database, and if so, which person It is judged whether it is. For example, the face matching unit 8 can perform the identification process by using a technique described in the following document.

栗田 多喜夫、“顔検出・顔認識のための統計的手法”、[平成16年6月4日検索]、インターネット<URL : http://www.neurosci.aist.go.jp/~kurita/lecture/statface.pdf

福井和広(株式会社東芝)、“ユーザインターフェースにおける顔画像認識”、SSII2000 Tutorial Lectures、Page18-32
Takio Kurita, “Statistical Method for Face Detection / Face Recognition”, [Search June 4, 2004], Internet <URL: http://www.neurosci.aist.go.jp/~kurita/lecture /statface.pdf
>
Kazuhiro Fukui (Toshiba Corporation), “Face Image Recognition in the User Interface”, SSII2000 Tutorial Lectures, Page 18-32

〈警戒レベル判断部〉
警戒レベル判断部9は、人物追跡部7から依頼された人物について、個人データベースや一時データベースの内容に応じて、現在の警戒レベルを判断する。警戒レベルとは、不審者対策システム1が監視すべき範囲の状況において、対策処理装置4による対策処理が必要であるか否か又はどの程度の対策処理が必要であるかを示す情報である。例えば、警戒レベルにはレベルA(対策処理は不要),レベルB(簡易な対策処理が必要),レベルC(充分な対策処理が必要)等の数段階が設定されても良い。図3は、警戒レベル判断部9が警戒レベルを決定する際に用いる警戒レベルマップの例を示す図である。警戒レベルマップは、停滞時間と頻度とを軸として持ち、この二つの値の組に応じて一つの警戒レベルが決定されるように構成される。
<Warning level judgment part>
The warning level determination unit 9 determines the current warning level of the person requested by the person tracking unit 7 according to the contents of the personal database or the temporary database. The alert level is information indicating whether or not the countermeasure processing by the countermeasure processing device 4 is necessary or how much countermeasure processing is necessary in the range of the range to be monitored by the suspicious person countermeasure system 1. For example, several levels such as level A (no countermeasure processing is required), level B (simple countermeasure processing is required), level C (sufficient countermeasure processing is required) may be set as the alert level. FIG. 3 is a diagram illustrating an example of a warning level map used when the warning level determination unit 9 determines a warning level. The alert level map has stagnation time and frequency as axes, and is configured such that one alert level is determined according to the set of these two values.

警戒レベルマップは、例えば検出されている顔のサイズに応じて複数用意されても良い。具体的には、警戒レベル判断部9は、検出されている顔のサイズが閾値よりも大きい場合は、図3(a)の警戒レベルマップを使用し、閾値よりも小さい場合は、図3(b)の警戒レベルマップを使用するように構成されても良い。図3(a)では、図3(b)に比べて、より短い停滞時間やより少ない頻度で、警戒レベルがレベルBやレベルCとして判断される。   A plurality of alert level maps may be prepared according to the size of the detected face, for example. Specifically, the alert level determination unit 9 uses the alert level map of FIG. 3A when the size of the detected face is larger than the threshold, and when smaller than the threshold, FIG. It may be configured to use the alert level map of b). In FIG. 3A, the warning level is determined as level B or level C with a shorter stagnation time or less frequency than in FIG.

警戒レベル判断部9は、警戒レベルの決定に際して、停滞時間,頻度,及び顔のサイズの三つの値を取得する。各値の取得方法については、動作例の欄において説明する。この三つの値の取得後、警戒レベル判断部9は、顔のサイズに基づいて処理に用いる警戒レベルマップを決定する。そして、警戒レベル判断部9は、決定した警戒レベルマップにおいて停滞時間及び頻度の値に対応する点が位置する領域に基づいて、警戒レベルを決定する。   The warning level determination unit 9 acquires three values of stagnation time, frequency, and face size when determining the warning level. The method of acquiring each value will be described in the operation example column. After acquiring these three values, the warning level determination unit 9 determines a warning level map used for processing based on the size of the face. And the alert level judgment part 9 determines an alert level based on the area | region where the point corresponding to the value of stagnation time and frequency is located in the determined alert level map.

警戒レベル判断部9は、判断結果としての警戒レベルを、対策処理装置4へ渡す。このとき、警戒レベル判断部9は、警戒レベルがレベルB又はレベルCである場合のみ、対策処理装置4へ警戒レベルを渡すように構成されても良い。   The alert level determination unit 9 passes the alert level as a determination result to the countermeasure processing device 4. At this time, the alert level determination unit 9 may be configured to pass the alert level to the countermeasure processing device 4 only when the alert level is level B or level C.

〔対策処理装置〕
対策処理装置4は、不審者検出装置3から出力される警戒レベルの値に応じて、対策処理を実行する。対策処理とは、不審者に対する威嚇処理や、ユーザに対する警告処理や、ネットワークを介した通報などを含む。例えば、対策処理装置4は、警戒レベルがレベルAである場合は処理を実行せず、警戒レベルがレベルBである場合は不審者に対する威嚇処理(例えば、音声出力や発光などにより近寄らないよう警告をする処理)を実行し、警戒レベルがCである場合はネットワークや公衆網などを介した通報(警察への通報や、セキュリティーサービスへの通報など)や、ユーザへの警告(ユーザの携帯電話機や携帯端末へのメール等による通知や、サイレンや光等による報知など)を行うように構成されても良い。
[Countermeasure equipment]
The countermeasure processing device 4 executes countermeasure processing according to the value of the alert level output from the suspicious person detection device 3. The countermeasure processing includes threatening processing for a suspicious person, warning processing for a user, notification via a network, and the like. For example, the countermeasure processing device 4 does not execute the process when the alert level is level A, and warns the suspicious person not to approach by suspicious person (for example, voice output or light emission) when the alert level is level B. If the alert level is C, a report via the network or public network (such as a report to the police or a report to the security service) or a warning to the user (user's mobile phone) Or notification to the mobile terminal by e-mail, notification by siren or light, etc.).

[動作例]
図4〜6は、不審者対策システム1の動作例を示すフローチャートである。図4〜6を用いて、不審者対策システム1の動作例について説明する。
[Operation example]
4 to 6 are flowcharts showing an operation example of the suspicious person countermeasure system 1. An operation example of the suspicious person countermeasure system 1 will be described with reference to FIGS.

処理が開始されると、撮像装置2は監視範囲の情景を撮像し、画像を取得する(S1)。顔検出部5は、撮像装置2によって撮像された画像から人物の顔を検出する(S2)。顔検出部5は、検出結果、即ち検出された顔ごとの顔情報を人物追跡部7へ渡す。人物追跡部7は、顔の情報を顔検出部5から受け取った場合、即ち顔検出部5によって顔が検出された場合(S3−YES)、その顔の人物についての照合を顔照合部8へ依頼し、顔照合部8はその依頼に基づいて顔照合を行う(S4)。顔照合部8は、その照合の結果を人
物追跡部7に渡す。一方、人物追跡部7は、顔情報を顔検出部5から受け取らなかった場合、即ち顔検出部5によって顔が検出されなかった場合(S3−NO)、S1以降の処理が再び実行される。
When the process is started, the imaging device 2 captures a scene in the monitoring range and acquires an image (S1). The face detection unit 5 detects a human face from the image captured by the imaging device 2 (S2). The face detection unit 5 passes the detection result, that is, the face information for each detected face to the person tracking unit 7. When the face tracking unit 7 receives face information from the face detection unit 5, that is, when a face is detected by the face detection unit 5 (S <b> 3 -YES), the person tracking unit 7 performs matching on the face person to the face matching unit 8. Upon request, the face matching unit 8 performs face matching based on the request (S4). The face collation unit 8 passes the collation result to the person tracking unit 7. On the other hand, when the face tracking unit 7 does not receive face information from the face detection unit 5, that is, when no face is detected by the face detection unit 5 (S3-NO), the processes after S1 are executed again.

人物追跡部7は、顔照合部8から受け取る照合結果に応じて、その後の処理を決定する。照合の結果、検出された顔の人物が、一時データベース(フローチャートでは「一時DB」と記載する)に既に登録されている人物である場合(S5−YES)、人物追跡部7は、該当する人物の一時データベースを更新する(S6)。具体的には、人物追跡部7は、該当する人物の一時データベースに新たなレコードとして、撮像された顔画像と、この顔画像における顔のサイズと、顔画像が撮像された時刻とを登録する。次に、人物追跡部7は、処理の対象となっている人物の停滞時間を算出し、その時間が閾値以上であるか否か判断する(S7)。人物追跡部7は、一時データベースの最も古いレコードにおける時刻と、最も新しいレコードにおける時刻との差分を停滞時間として取得する。停滞時間が閾値以上である場合(S7−YES)、人物追跡部7は、この一時データベースに対応する人物について警戒レベルを取得することを警戒レベル判断部9に依頼する。そして、警戒レベル判断部9は、依頼された人物に対応する一時データベース及び個人データベース(フローチャートでは「個人DB」と記載する)のレコードに基づき、S9以降の処理を実行する。S9以降の処理については後述する。   The person tracking unit 7 determines subsequent processing in accordance with the matching result received from the face matching unit 8. If the face person detected as a result of the collation is a person already registered in the temporary database (described as “temporary DB” in the flowchart) (S5-YES), the person tracking unit 7 The temporary database is updated (S6). Specifically, the person tracking unit 7 registers the captured face image, the size of the face in the face image, and the time when the face image was captured as a new record in the temporary database of the corresponding person. . Next, the person tracking unit 7 calculates the stagnation time of the person to be processed, and determines whether or not the time is equal to or greater than a threshold value (S7). The person tracking unit 7 acquires the difference between the time in the oldest record in the temporary database and the time in the newest record as the stagnation time. When the stagnation time is equal to or greater than the threshold (S7-YES), the person tracking unit 7 requests the warning level determination unit 9 to acquire the warning level for the person corresponding to the temporary database. Then, the alert level determination unit 9 executes the processes after S9 based on the records of the temporary database and personal database (described as “personal DB” in the flowchart) corresponding to the requested person. The processing after S9 will be described later.

S5の処理において、処理の対象となっている顔画像の人物が一時データベースに登録されていない場合(S5−NO)、人物追跡部7は、この人物についての一時データベースを作成する(S8)。そして、016以降の処理が実行される。また、S7の処理において、停滞時間が閾値未満である場合(S7−NO)、S16以降の処理が実行される。S16以降の処理については後述する。   In the process of S5, when the person of the face image to be processed is not registered in the temporary database (S5-NO), the person tracking unit 7 creates a temporary database for this person (S8). Then, the processes after 016 are executed. Moreover, in the process of S7, when the stagnation time is less than a threshold value (S7-NO), the process after S16 is performed. The processing after S16 will be described later.

S9以降の処理について説明する。まず、警戒レベル判断部9は、処理の対象となっている人物についての停滞時間を取得する(S9)。このとき、警戒レベル判断部9は、人物追跡部7から既に算出されている停滞時間(即ち、S7の処理において算出された停滞時間)を取得しても良いし、改めて一時データベースから算出しても良い。また、警戒レベル判断部9は、処理の対象となっている人物についての頻度を取得する(S10)。警戒レベル判断部9は、個人データベースから、処理の対象となっている人物についての頻度を取得する。また、警戒レベル判断部9は、処理の対象となっている人物についての顔サイズを取得する(S11)。警戒レベル判断部9は、この人物についての一時データベースにおける最新のレコードから顔のサイズを取得する。そして、警戒レベル判断部9は、取得したこれら三つの値に基づいて、処理の対象となっている人物についての現在の警戒レベルを決定する(S12)。   The processing after S9 will be described. First, the alert level determination unit 9 acquires the stagnation time for the person who is the object of processing (S9). At this time, the alert level determination unit 9 may acquire the stagnation time already calculated from the person tracking unit 7 (that is, the stagnation time calculated in the process of S7), or may be calculated again from the temporary database. Also good. Moreover, the warning level determination part 9 acquires the frequency about the person who is the object of processing (S10). The alert level determination unit 9 acquires the frequency of the person who is the object of processing from the personal database. Moreover, the alert level determination part 9 acquires the face size about the person who is the object of processing (S11). The alert level determination unit 9 acquires the face size from the latest record in the temporary database for this person. And the alert level judgment part 9 determines the present alert level about the person who is the object of a process based on these acquired three values (S12).

警戒レベル判断部9は、決定した警戒レベルがレベルAではない場合(S13−NO)、処理の対象となっている人物の属性を個人データベースから取得する。この人物の属性が危険である場合(S14−危険)、警戒レベル判断部9は、警戒レベルを対策処理装置4に対して出力する。そして、対策処理装置4は、警戒レベル判断部9から出力された警戒レベルに応じて対策処理を実施する(S15)。S13の処理において警戒レベルがレベルAであった場合(S13−YES)、S14の処理において人物の属性が安全であった場合(S14−安全)、S15の処理の後、S8の処理の後、又はS7−NOの場合、S16の処理が実行される。即ち、人物追跡部7は、顔検出部5によって検出された顔全てについてS4〜S15についての処理が完了したか判断する(S16)。まだ処理が行われていない顔がある場合(S16−NO)、処理が行われていない顔についてS4以降の処理が行われる。   If the determined alert level is not level A (S13-NO), the alert level determination unit 9 acquires the attribute of the person who is the object of processing from the personal database. When the attribute of this person is dangerous (S14-danger), the warning level determination unit 9 outputs the warning level to the countermeasure processing device 4. And the countermeasure processing apparatus 4 implements a countermeasure process according to the alert level output from the alert level judgment part 9 (S15). If the alert level is level A in the process of S13 (S13-YES), if the attribute of the person is safe in the process of S14 (S14-safe), after the process of S15, after the process of S8, Or in S7-NO, the process of S16 is performed. In other words, the person tracking unit 7 determines whether the processes in S4 to S15 have been completed for all the faces detected by the face detecting unit 5 (S16). When there is a face that has not been processed yet (S16-NO), the process after S4 is performed on the face that has not been processed.

一方、検出された全ての顔について処理が完了している場合(S16−YES)、人物
追跡部7は、S4〜S15の処理において参照されていない一時データベースの有無について判断する(S17)。このような一時データベースがある場合(S17−YES)、人物追跡部7は、参照されていない各一時データベースについて、最終更新時から所定以上の時間が経過しているか否か判断する(S18)。即ち、人物追跡部7は、このような各一時データベースにおける最新のレコードの時刻から、所定以上の時間が経過しているか否か判断する。所定以上の時間が経過している場合(S18−YES)、人物追跡部7は、個人データベースのレコードのうち、この一時データベースに対応するレコードの頻度の値をインクリメントすることで、レコードの更新を行う(S19)。人物追跡部7は、S18,S19の処理を、該当する全ての一時データベースについて行う。S17において参照されていない一時データベースが無い場合(S17−NO)、又は参照されていない一時データベースの中に最終更新時から所定の時間が経過したものが無い場合(S18−NO)、又はS19の処理の後、S1以降の処理が実行される。
On the other hand, when processing has been completed for all detected faces (S16-YES), the person tracking unit 7 determines whether there is a temporary database that is not referenced in the processing of S4 to S15 (S17). If there is such a temporary database (S17-YES), the person tracking unit 7 determines whether or not a predetermined time or more has elapsed since the last update for each temporary database that is not referenced (S18). That is, the person tracking unit 7 determines whether or not a predetermined time or more has elapsed since the time of the latest record in each temporary database. When the predetermined time or more has elapsed (S18-YES), the person tracking unit 7 updates the record by incrementing the frequency value of the record corresponding to the temporary database among the records in the personal database. Perform (S19). The person tracking unit 7 performs the processes of S18 and S19 for all corresponding temporary databases. If there is no unreferenced temporary database in S17 (S17-NO), or if there is no non-referenced temporary database after a predetermined time has elapsed since the last update (S18-NO), or S19 After the process, the processes after S1 are executed.

[作用/効果]
不審者対策システム1では、監視領域を撮像した画像から人の顔を検出することにより不審者が検出される。次に、検出された顔について同定処理が実施され、安全な人物(例えば親類や友人など)の顔であるかそれとも危険な人物(例えば知らない人物や危険人物として登録されている人物など)の顔であるかが判断される。そして、危険な人物の顔であると判断された場合にのみ、対策処理装置4が対策処理を実施する。このため、監視範囲内に侵入した者全てに対して対策処理が実施されるのではなく、危険な人物として判断された者に対してのみ対策処理が実施される。従って、安全な人物に対して不必要に対策処理が実施されることを防止することができる。
[Action / Effect]
In the suspicious person countermeasure system 1, a suspicious person is detected by detecting a person's face from an image obtained by imaging a monitoring area. Next, identification processing is performed on the detected face, and the face of a safe person (for example, a relative or friend) or a dangerous person (for example, an unknown person or a person registered as a dangerous person) Whether it is a face is determined. Only when it is determined that the face is a dangerous person, the countermeasure processing device 4 performs the countermeasure process. For this reason, countermeasure processing is not performed for all persons who have entered the monitoring range, but countermeasure processing is performed only for those who are determined to be dangerous persons. Therefore, it is possible to prevent unnecessary countermeasure processing from being performed on a safe person.

また、不審者対策システム1では、不審者が継続的に検出されている時間(停滞時間)や不審者が検出された頻度に応じて、警戒レベルが決定される。そして、対策処理装置4は、決定された警戒レベルに応じて、実行する対策処理の程度を変化させる。このため、状況に応じて対策処理の内容が変化するため、不必要に過度の対策処理が実施されてしまうことを防止することが可能となる。   Further, in the suspicious person countermeasure system 1, the alert level is determined according to the time during which the suspicious person is continuously detected (stagnation time) and the frequency at which the suspicious person is detected. And the countermeasure processing apparatus 4 changes the grade of the countermeasure process to perform according to the determined alert level. For this reason, since the content of the countermeasure process changes according to the situation, it is possible to prevent the unnecessary countermeasure process from being performed unnecessarily.

[変形例]
警戒レベル判断部9は、顔検出部5によって検出された人の顔のサイズが閾値以上である場合には、警戒レベルマップによらず、警戒レベルをレベルB又はレベルCと判断するように構成されても良い。このように構成されることにより、不審者に対する対策処理をより柔軟に実施することが可能となる。例えば、撮像装置2の目前に突如として現れた不審者、即ち停滞時間や頻度の値が非常に小さい不審者に対しても、不審者対策システム1は、その顔のサイズに応じて対策処理を実施することが可能となる。
[Modification]
The alert level determination unit 9 is configured to determine the alert level as level B or level C regardless of the alert level map when the size of the human face detected by the face detection unit 5 is equal to or greater than the threshold value. May be. With this configuration, it is possible to more flexibly implement countermeasure processing for a suspicious person. For example, even for a suspicious person suddenly appearing in front of the imaging apparatus 2, that is, a suspicious person with very small stagnation time and frequency values, the suspicious person countermeasure system 1 performs countermeasure processing according to the size of the face. It becomes possible to carry out.

また、警戒レベルマップは、必ずしも2次元や3次元である必要はなく、1次元(例えば停滞時間又は頻度のいずれか一方のみ)で構成されても良いし、3次元以上のマップとして構成されても良い。   Further, the alert level map does not necessarily have to be two-dimensional or three-dimensional, and may be configured in one dimension (for example, only one of stagnation time or frequency), or configured as a three-dimensional map or more. Also good.

人物追跡部7は、人の顔を検出するのではなく、人に関するその他の情報に基づいて人物を追跡するように構成されても良い。例えば、衣服に関する情報に基づいて人物の追跡が実現されても良い。このような追跡は、例えば、速度場情報から3次元空間の物体移動情報を抽出し、正確に移動物体の同定を行うことを可能とする技術(“http://www.ced.co.jp/riv3.htm”等に記載された技術)に基づいて実現することができる。   The person tracking unit 7 may be configured not to detect a person's face but to track a person based on other information about the person. For example, tracking of a person may be realized based on information about clothes. Such tracking is, for example, a technique (“http://www.ced.co.jp”) that allows object movement information in a three-dimensional space to be extracted from velocity field information and accurately identifies a moving object. The technology described in “/riv3.htm” etc.).

また、図5におけるS14の処理(処理の対象となっている人物の属性に応じてその後の処理を決定する判断処理)は、図4におけるS4の処理(顔照合処理)の直後など、他のタイミングで実施されても良い。   Further, the processing of S14 in FIG. 5 (determination processing for determining the subsequent processing in accordance with the attribute of the person to be processed) is performed immediately after the processing of S4 (face matching processing) in FIG. It may be performed at the timing.

不審者対策システムの機能ブロック例を示す図である。It is a figure which shows the example of a functional block of a suspicious person countermeasure system. 個人データベース及び一時データベースそれぞれの例を示す図である。It is a figure which shows the example of each of a personal database and a temporary database. 警戒レベルマップの例を示す図である。It is a figure which shows the example of a vigilance level map. 不審者対策システムの動作例を示すフローチャートである。It is a flowchart which shows the operation example of a suspicious person countermeasure system. 不審者対策システムの動作例を示すフローチャートである。It is a flowchart which shows the operation example of a suspicious person countermeasure system. 不審者対策システムの動作例を示すフローチャートである。It is a flowchart which shows the operation example of a suspicious person countermeasure system.

符号の説明Explanation of symbols

1 不審者対策システム
2 撮像装置
3 不審者検出装置
4 対策処理装置
5 顔検出部
6 データベース記憶部
7 人物追跡部
8 顔照合部
9 警戒レベル判断部
DESCRIPTION OF SYMBOLS 1 Suspicious person countermeasure system 2 Imaging device 3 Suspicious person detection apparatus 4 Countermeasure processing apparatus 5 Face detection part 6 Database storage part 7 Person tracking part 8 Face collation part 9 Warning level judgment part

Claims (5)

監視範囲の情景を撮像する撮像手段と、
前記撮像手段によって撮像された画像から人の顔を検出する検出手段と、
前記検出手段によって検出された各顔の特徴量を記憶する特徴量記憶手段と、
前記検出手段によって検出された各顔について前記特徴量を用いて同定処理を行うことにより、各顔を個別に認識する同定手段と、
前記同定手段により同定された各顔に関する情報を蓄積して記憶する記憶手段と、
前記記憶手段に記憶されている情報に基づいて、不審者に対する対策処理の要否を判断する判断手段と、
前記判断手段による判断に従って、前記対策処理を実施する対策処理手段と、を備え、
前記検出手段は、検出された人の顔について、その顔の画像上の大きさをさらに取得し、
前記判断手段は、対策処理の要否を判断する基準となる複数の警戒レベルマップを有しており、前記顔の画像上の大きさが予め定められた閾値よりも大きいかどうかにより、対策処理の要否の判断に使用する前記警戒レベルマップを変更することを特徴とする不審者対策システム。
Imaging means for imaging a scene in the monitoring range;
Detecting means for detecting a human face from an image captured by the imaging means;
Feature quantity storage means for storing the feature quantity of each face detected by the detection means;
Identifying means for individually recognizing each face by performing identification processing using the feature amount for each face detected by the detecting means;
Storage means for storing and storing information about each face identified by the identification means;
Determination means for determining whether or not countermeasure processing for the suspicious person is necessary based on the information stored in the storage means;
Countermeasure processing means for performing the countermeasure processing according to the determination by the determination means,
The detection means further acquires the size of the detected human face on the image of the face,
It said determination means has a plurality of alert level map as a reference for determining necessity of countermeasure processing depending on whether the size of the image of the face is greater than a predetermined threshold, countermeasure processing The suspicious person measures system characterized by changing the warning level map used for judgment of necessity .
前記記憶手段は、前記情報として、各顔が継続して検出された時間を停滞時間として記憶し、かつ、各顔が前記監視範囲内に現れた回数を頻度として記憶し、
前記判断手段は、前記停滞時間及び前頻度で構成された警戒レベルマップに基づいて、前記対策処理の要否を判断する請求項に記載の不審者対策システム。
The storage means stores, as the information, a time when each face is continuously detected as a stagnation time, and stores the number of times each face appears within the monitoring range as a frequency ,
The determining means is a suspicious person measures system of claim 1, wherein the dwell time based on及beauty alert level map that is configured in the previous SL frequency, to determine the necessity of the countermeasure process.
監視範囲の情景が撮像された画像から人の顔を検出する検出手段と、
前記検出手段によって検出された各顔の特徴量を記憶する特徴量記憶手段と、
前記検出手段によって検出された各顔について前記特徴量を用いて同定処理を行うことにより、各顔を個別に認識する同定手段と、
前記同定手段により同定された各顔に関する情報を蓄積して記憶する記憶手段と、
前記記憶手段に記憶されている情報に基づいて不審者に対する対策処理の要否を判断し、前記対策処理を実行する対策処理装置に対し、前記判断の結果に応じて前記対策処理の実行を指示する指示手段と、を備え、
前記検出手段は、検出された人の顔について、その顔の画像上の大きさをさらに取得し、
前記指示手段は、対策処理の要否を判断する基準となる複数の警戒レベルマップを有しており、前記顔の画像上の大きさが予め定められた閾値よりも大きいかどうかにより、対策処理の要否の判断に使用する前記警戒レベルマップを変更することを特徴とする不審者検出装置。
Detection means for detecting a human face from an image obtained by capturing a scene in the monitoring range;
Feature quantity storage means for storing the feature quantity of each face detected by the detection means;
Identifying means for individually recognizing each face by performing identification processing using the feature amount for each face detected by the detecting means;
Storage means for storing and storing information about each face identified by the identification means;
Based on the information stored in the storage means, the necessity of countermeasure processing for the suspicious person is determined, and the countermeasure processing device that executes the countermeasure processing is instructed to execute the countermeasure processing according to the result of the determination An instruction means for
The detection means further acquires the size of the detected human face on the image of the face,
It said indicating means includes a plurality of alert level map as a reference for determining necessity of countermeasure processing depending on whether the size of the image of the face is greater than a predetermined threshold, countermeasure processing A suspicious person detecting device, wherein the warning level map used for determining whether or not the information is necessary is changed.
監視範囲の情景が撮像された画像から人の顔を検出する検出ステップと、
検出された各顔の特徴量を記憶するステップと、
検出された各顔について前記特徴量を用いて同定処理を行うことにより、各顔を個別に認識するステップと、
同定された各顔に関する情報を蓄積して記憶するステップと、
記憶されている情報に基づいて不審者に対する対策処理の要否を判断し、前記対策処理を実行する対策処理装置に対し、前記判断の結果に応じて前記対策処理の実行を指示する指示ステップと
を情報処理装置に実行させるためのプログラムであって、
前記検出ステップでは、検出された人の顔について、その顔の画像上の大きさをさらに取得し、
前記指示ステップでは、対策処理の要否を判断する基準となる複数の警戒レベルマップを有しており、前記顔の画像上の大きさが予め定められた閾値よりも大きいかどうかにより、対策処理の要否の判断に使用する前記警戒レベルマップを変更することを特徴とするプログラム。
A detection step of detecting a human face from an image obtained by capturing a scene of the monitoring range;
Storing the detected feature quantities of each face;
Recognizing each face individually by performing an identification process using the feature amount for each detected face;
Storing and storing information about each identified face;
An instruction step for determining whether or not countermeasure processing for the suspicious person is necessary based on the stored information, and instructing the countermeasure processing device that executes the countermeasure processing to execute the countermeasure processing according to the result of the determination; Is a program for causing the information processing apparatus to execute
In the detection step, for the detected human face, the size of the face on the image is further acquired,
Wherein in the instruction step, it has a plurality of alert level map as a reference for determining necessity of countermeasure processing depending on whether the size of the image of the face is greater than a predetermined threshold, countermeasure processing A program characterized by changing the alert level map used for determining whether or not it is necessary .
情報処理装置が、監視範囲の情景が撮像された画像から人の顔を検出する検出ステップと、
情報処理装置が、検出された各顔の特徴量を記憶するステップと、
情報処理装置が、検出された各顔について前記特徴量を用いて同定処理を行うことにより、各顔を個別に認識するステップと、
情報処理装置が、同定された各顔に関する情報を蓄積して記憶するステップと、
情報処理装置が、記憶されている情報に基づいて不審者に対する対策処理の要否を判断し、前記対策処理を実行する対策処理装置に対し、前記判断の結果に応じて前記対策処理の実行を指示する指示ステップと、を含み、
前記検出ステップでは、検出された人の顔について、その顔の画像上の大きさをさらに取得し、
前記指示ステップでは、対策処理の要否を判断する基準となる複数の警戒レベルマップを有しており、前記顔の画像上の大きさが予め定められた閾値よりも大きいかどうかにより、対策処理の要否の判断に使用する前記警戒レベルマップを変更することを特徴とする不審者検出方法。
A detection step in which the information processing device detects a human face from an image obtained by capturing a scene in the monitoring range;
An information processing device storing the detected feature amount of each face;
A step of individually recognizing each face by performing an identification process using the feature amount for each detected face by the information processing apparatus;
An information processing device storing and storing information about each identified face;
The information processing apparatus determines whether or not the countermeasure process for the suspicious person is necessary based on the stored information, and executes the countermeasure process according to the determination result to the countermeasure processing apparatus that executes the countermeasure process. An instruction step for indicating, and
In the detection step, for the detected human face, the size of the face on the image is further acquired,
Wherein in the instruction step, it has a plurality of alert level map as a reference for determining necessity of countermeasure processing depending on whether the size of the image of the face is greater than a predetermined threshold, countermeasure processing The suspicious person detection method characterized by changing the said alert level map used for the judgment of necessity of the .
JP2004186628A 2004-06-24 2004-06-24 Suspicious person countermeasure system and suspicious person detection device Expired - Fee Related JP4569190B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2004186628A JP4569190B2 (en) 2004-06-24 2004-06-24 Suspicious person countermeasure system and suspicious person detection device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2004186628A JP4569190B2 (en) 2004-06-24 2004-06-24 Suspicious person countermeasure system and suspicious person detection device

Publications (2)

Publication Number Publication Date
JP2006011728A JP2006011728A (en) 2006-01-12
JP4569190B2 true JP4569190B2 (en) 2010-10-27

Family

ID=35778938

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2004186628A Expired - Fee Related JP4569190B2 (en) 2004-06-24 2004-06-24 Suspicious person countermeasure system and suspicious person detection device

Country Status (1)

Country Link
JP (1) JP4569190B2 (en)

Families Citing this family (29)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4611915B2 (en) * 2006-02-28 2011-01-12 綜合警備保障株式会社 Security device and security method
WO2007105295A1 (en) * 2006-03-13 2007-09-20 Fujitsu Limited Mobile terminal monitoring device and mobile terminal monitoring method
JP4784381B2 (en) * 2006-04-27 2011-10-05 トヨタ自動車株式会社 Autonomous mobile robot
JP2007310464A (en) * 2006-05-16 2007-11-29 Seiko Epson Corp Monitoring camera system and control method for the same
JP2008152328A (en) * 2006-12-14 2008-07-03 Hitachi Information & Control Solutions Ltd Suspicious person monitoring system
JP5049027B2 (en) * 2007-02-15 2012-10-17 パナソニック株式会社 Warning sensor
JP5141048B2 (en) * 2007-03-05 2013-02-13 オムロン株式会社 Risk monitoring device, risk monitoring system, and risk monitoring method
JP5064846B2 (en) * 2007-03-14 2012-10-31 株式会社日立情報制御ソリューションズ Monitoring system
JP4952357B2 (en) * 2007-04-25 2012-06-13 三菱電機ビルテクノサービス株式会社 Security recording device for elevator
JP5267220B2 (en) * 2009-03-06 2013-08-21 オムロン株式会社 Safety management device
JP5290219B2 (en) * 2010-02-26 2013-09-18 セコム株式会社 Security equipment
JP5649425B2 (en) * 2010-12-06 2015-01-07 株式会社東芝 Video search device
JP5730095B2 (en) * 2011-03-29 2015-06-03 セコム株式会社 Face image authentication device
JP2012242993A (en) * 2011-05-18 2012-12-10 Nissan Motor Co Ltd Moving body monitoring device and moving body monitoring method
JP5808974B2 (en) * 2011-07-29 2015-11-10 セコム株式会社 Face image authentication device
JP5831215B2 (en) * 2011-12-27 2015-12-09 株式会社デンソー Vehicle security method and vehicle security system
JP2014160394A (en) * 2013-02-20 2014-09-04 Toshiba Corp Service provision system
JP6080940B2 (en) * 2013-02-28 2017-02-15 株式会社日立国際電気 Person search method and home staying person search device
US10635908B2 (en) 2013-09-19 2020-04-28 Nec Corporation Image processing system and image processing method
ES2773442T3 (en) * 2014-06-03 2020-07-13 The Security Oracle Inc Defense and rejection method
JP6558178B2 (en) * 2015-09-24 2019-08-14 日本電気株式会社 Nuisance agent estimation system, control method and control program for nuisance agent estimation system
BR112018068324A8 (en) 2016-03-30 2023-04-04 Nec Corp ANALYSIS APPARATUS, ANALYSIS METHOD, AND PROGRAM
JP6305483B2 (en) * 2016-09-05 2018-04-04 株式会社東芝 Computer apparatus, service providing system, service providing method, and program
JP7097721B2 (en) * 2017-11-15 2022-07-08 キヤノン株式会社 Information processing equipment, methods and programs
JP7026583B2 (en) * 2018-06-21 2022-02-28 株式会社クボタ Work vehicle
US11543829B2 (en) 2018-06-21 2023-01-03 Kubota Corporation Work vehicle and base station
JP7465644B2 (en) 2019-09-30 2024-04-11 大和ハウス工業株式会社 Surveillance system and surveillance method
JP2020074567A (en) * 2020-01-15 2020-05-14 日本電気株式会社 Image processing system, image processing method, and program
CN115988181A (en) * 2023-03-08 2023-04-18 四川三思德科技有限公司 Personnel monitoring system and method based on infrared image algorithm

Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0883341A (en) * 1994-09-12 1996-03-26 Nippon Telegr & Teleph Corp <Ntt> Method and device for extracting object area and object recognizing device
JPH10341487A (en) * 1997-04-09 1998-12-22 Sony Corp Information terminal equipment, information processing method, information providing device and method, information network system and providing medium
JP2002135759A (en) * 2000-10-18 2002-05-10 Ns Soft:Kk Monitoring apparatus
JP2003109129A (en) * 2001-09-27 2003-04-11 Toshiba Corp Device, system and method for managing passage
JP2003204541A (en) * 2001-12-28 2003-07-18 Nippon Signal Co Ltd:The Video processing method and video processing apparatus
JP2003337926A (en) * 2002-05-21 2003-11-28 Nippon Signal Co Ltd:The Access control system
JP2004146903A (en) * 2002-10-22 2004-05-20 Casio Comput Co Ltd Apparatus and program for outputting indoor message
JP2004164103A (en) * 2002-11-11 2004-06-10 Digitalact:Kk Camera unit for crime prevention, camera apparatus for crime prevention, crime prevention system, and program and recording medium for realizing the functions
JP2005242777A (en) * 2004-02-27 2005-09-08 Toshiba Corp Face collation device and passage control device

Patent Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0883341A (en) * 1994-09-12 1996-03-26 Nippon Telegr & Teleph Corp <Ntt> Method and device for extracting object area and object recognizing device
JPH10341487A (en) * 1997-04-09 1998-12-22 Sony Corp Information terminal equipment, information processing method, information providing device and method, information network system and providing medium
JP2002135759A (en) * 2000-10-18 2002-05-10 Ns Soft:Kk Monitoring apparatus
JP2003109129A (en) * 2001-09-27 2003-04-11 Toshiba Corp Device, system and method for managing passage
JP2003204541A (en) * 2001-12-28 2003-07-18 Nippon Signal Co Ltd:The Video processing method and video processing apparatus
JP2003337926A (en) * 2002-05-21 2003-11-28 Nippon Signal Co Ltd:The Access control system
JP2004146903A (en) * 2002-10-22 2004-05-20 Casio Comput Co Ltd Apparatus and program for outputting indoor message
JP2004164103A (en) * 2002-11-11 2004-06-10 Digitalact:Kk Camera unit for crime prevention, camera apparatus for crime prevention, crime prevention system, and program and recording medium for realizing the functions
JP2005242777A (en) * 2004-02-27 2005-09-08 Toshiba Corp Face collation device and passage control device

Also Published As

Publication number Publication date
JP2006011728A (en) 2006-01-12

Similar Documents

Publication Publication Date Title
JP4569190B2 (en) Suspicious person countermeasure system and suspicious person detection device
US10977917B2 (en) Surveillance camera system and surveillance method
WO2020125406A1 (en) Safety guardianship method, apparatus, terminal and computer readable storage medium
CN109166261B (en) Image processing method, device and equipment based on image recognition and storage medium
CN108053427B (en) Improved multi-target tracking method, system and device based on KCF and Kalman
JP7229662B2 (en) How to issue alerts in a video surveillance system
Vishwakarma et al. Automatic detection of human fall in video
JP4702598B2 (en) Monitoring system, monitoring apparatus and method, recording medium, and program
KR101825045B1 (en) Alarm method and device
CN106341661B (en) Patrol robot
KR101858396B1 (en) Intelligent intrusion detection system
CN110889334A (en) Personnel intrusion identification method and device
US10657783B2 (en) Video surveillance method based on object detection and system thereof
KR101879444B1 (en) Method and apparatus for operating CCTV(closed circuit television)
KR101454644B1 (en) Loitering Detection Using a Pedestrian Tracker
CN112733598A (en) Vehicle law violation determination method and device, computer equipment and storage medium
CN111383248B (en) Pedestrian red light running judging method and device and electronic equipment
CN104050785A (en) Safety alert method based on virtualized boundary and face recognition technology
KR102182660B1 (en) System and method for detecting violence using spatiotemporal features and computer readable recording media storing program for executing method thereof
CN109214316B (en) Perimeter protection method and device
JP2012212217A (en) Image monitoring device
JP2012212238A (en) Article detection device and stationary-person detection device
JP3088880B2 (en) Person recognition device
CN114187666B (en) Identification method and system for watching mobile phone while walking
CN106921846A (en) Video mobile terminal legacy detection means

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20070216

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20090617

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20090623

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20090821

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20100126

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20100323

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20100713

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20100726

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130820

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees