JP2009194711A - Region user management system and management method of the same - Google Patents

Region user management system and management method of the same Download PDF

Info

Publication number
JP2009194711A
JP2009194711A JP2008034601A JP2008034601A JP2009194711A JP 2009194711 A JP2009194711 A JP 2009194711A JP 2008034601 A JP2008034601 A JP 2008034601A JP 2008034601 A JP2008034601 A JP 2008034601A JP 2009194711 A JP2009194711 A JP 2009194711A
Authority
JP
Japan
Prior art keywords
person
companion
area
management system
user management
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2008034601A
Other languages
Japanese (ja)
Inventor
Kagehiro Nagao
景洋 長尾
Masahiko Suzaki
昌彦 須崎
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Oki Electric Industry Co Ltd
Original Assignee
Oki Electric Industry Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Oki Electric Industry Co Ltd filed Critical Oki Electric Industry Co Ltd
Priority to JP2008034601A priority Critical patent/JP2009194711A/en
Publication of JP2009194711A publication Critical patent/JP2009194711A/en
Withdrawn legal-status Critical Current

Links

Images

Landscapes

  • Collating Specific Patterns (AREA)
  • Closed-Circuit Television Systems (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide a region user management system for managing the entrance and exit to/from a region by using images which can prevent somebody else from taking away children, and to provide a management method of the same. <P>SOLUTION: The region user management system determines, from faces included in a shot image photographed by an image input section 12, whether the faces are the face of a person of note. When the faces included in the shot image are determined not to be the face of the person of note, the region user management system estimates an accompanying person of the person of note from the faces determined not to be the face of the person of note. The accompanying person of the person of note is estimated by an accompanying person estimating means from a plurality of images photographed at different points of time, and it is determined whether there is discrepancy between the accompanying persons in a plurality of images photographed at different points of time, and the result is outputted to a result output section 26. When it is determined that there is discrepancy between candidates of the accompanying person, notice is provided by means of an output means such as an alarm and a warning light. Thus, without troubling users, criminal events such as the taking-away of children by somebody else can be prevented. <P>COPYRIGHT: (C)2009,JPO&INPIT

Description

本発明は、領域利用者管理システム、とくに入退場を画像データで監視しリアルタイムで子供の連れ去られを防止する領域利用者管理システムおよびその管理方法に関するものである。   The present invention relates to an area user management system, and more particularly to an area user management system that monitors entry / exit with image data and prevents children from being taken away in real time, and a management method thereof.

近年、子供の誘拐や連れ去りなどの犯罪が増加している。とくに大型ショッピングセンタなどでは、子供が迷子などで一人になってしまうことが多く、このような子供が狙われる事件が増えている。このような事件を防ぐために、たとえば特開2005-234765号公報(特許文献1)には、子供が迷子になった場合、監視カメラで撮影された、同伴者と子供が一緒に映っている画像を検索し、その画像を基にして監視カメラで現在の子供の居場所を捜すシステムが開示されている。また、特開2007-60528号公報(特許文献2)には、領域への入場時に子供と同伴者の各顔画像を対応させてデータベースに登録し、領域の様々な場所に設置した監視カメラから得られた画像から、顔画像による識別を行い、子供と同伴者が離れている状態が一定時間続いた場合に、同伴者に子供が迷子となったことを通知するシステムが開示されている。
特開2005-234765号公報 特開2007-60528号公報
In recent years, crimes such as child abduction and removal have increased. Particularly in large shopping centers, children are often lost and become alone, and there are increasing cases of such children being targeted. In order to prevent such an incident, for example, Japanese Patent Laid-Open No. 2005-234765 (Patent Document 1) describes an image of a companion and a child taken together by a surveillance camera when the child is lost. And a system for searching the current location of a child with a surveillance camera based on the image is disclosed. JP-A-2007-60528 (Patent Document 2) describes that, when entering a region, each face image of a child and a companion is associated with each other and registered in a database, and from surveillance cameras installed at various locations in the region. A system is disclosed that identifies a face image from an obtained image and notifies the accompanying person that the child is lost when the child and the accompanying person are separated for a certain period of time.
JP 2005-234765 A Japanese Unexamined Patent Publication No. 2007-60528

しかし、このような従来のシステムでは、警備員の配置が必要でコストがかかったり、警備員が子供を発見しても同伴者か誘拐犯かの見分けることが難しかったり、子供が迷子になったことを同伴者が気づくまでの間にすでに子供が領域外に連れ去れてしまい発見できないことがあった。また、領域への入場時に子供と同伴者の各顔画像を対応させてデータベースに登録する方法が提示されているが、入場時に子供と同伴者の関係の登録、顔画像の撮影および登録作業が必要であり、とくに休日の大型ショッピングセンタのような多数の利用者がある領域においては登録作業のために利用者を待たせることになるという問題があった。   However, in such a conventional system, it is necessary to arrange security guards, which is expensive, and even if the security guard finds a child, it is difficult to distinguish between a companion and a kidnapper, or the child is lost. Until the companion noticed, the child had already been taken out of the area and could not be found. In addition, there is a method for registering the face images of children and accompanying persons in the database when entering the area, but registration of the relationship between the child and accompanying persons, shooting of the face images and registration work are required. There is a problem that it is necessary, and particularly in an area where there are a large number of users such as a large shopping center on holidays, the users are made to wait for registration work.

本発明は、このような従来技術の欠点を解消し、利用者を煩わせることなく他人による子供の連れ去りを未然に防止する領域利用者管理システムおよびその管理方法を提供することを目的とする。   SUMMARY OF THE INVENTION An object of the present invention is to provide an area user management system and a management method therefor that eliminate such drawbacks of the prior art and prevent a child from being taken away by another person without bothering the user.

本発明によれば、上述の課題を解決するために、領域の利用者を画像データで管理する領域利用者管理システムは、撮影した撮影画像に含まれる顔から注目人物か否かの判定を行う注目人物判定手段と、注目人物ではないと判定された顔から注目人物の同伴者の推定を行う同伴者推定手段と、この領域の異なる時点で撮影された複数の画像から同伴者推定手段により注目人物の同伴者を推定し、異なる時点での複数画像において同伴者に不一致が生じていないかを判定する同伴人物判定手段と、同伴人物判定手段の結果を出力する結果出力手段とを含むことを特徴とする。   According to the present invention, in order to solve the above-described problem, an area user management system that manages users of an area with image data determines whether or not the person is an attention person from the face included in the captured image. Attention person determination means, companion estimation means for estimating the accompanying person of the attention person from the face determined not to be the attention person, and the accompanying person estimation means from a plurality of images taken at different times in this area Including a companion person determination unit that estimates a person's companion and determines whether or not a disagreement has occurred in a plurality of images at different time points, and a result output unit that outputs a result of the companion person determination unit Features.

また、領域の利用者を画像データで管理する領域利用者管理システムの管理方法は、撮影した撮影画像に含まれる顔から注目人物か否かの判定を行う注目人物判定工程と、注目人物ではないと判定された顔から注目人物の同伴者の推定を行う同伴者推定工程と、この領域の異なる時点で撮影された複数の画像から同伴者推定工程にて注目人物の同伴者を推定し、異なる時点での複数画像において同伴者に不一致が生じていないかを判定する同伴人物判定工程と、同伴人物判定手段の結果を出力する結果出力工程とを含むことを特徴とする。   In addition, the management method of the area user management system that manages the users of the area with the image data includes a person-of-interest determination process for determining whether or not the person included in the captured image is a person of interest, and is not a person of interest The companion estimation process for estimating the companion of the attention person from the face determined to be different from the companion estimation process in the companion estimation process from a plurality of images taken at different times in this area, and different. The method includes a companion person determination step for determining whether or not there is a discrepancy between companions in a plurality of images at the time, and a result output step for outputting a result of the companion person determination unit.

次に、添付図面を参照して、本発明による領域利用者管理システムの実施例を詳細に説明する。まず、実施例の構成を、図1を参照に説明する。   Next, with reference to the accompanying drawings, an embodiment of the area user management system according to the present invention will be described in detail. First, the configuration of the embodiment will be described with reference to FIG.

第1の実施例の領域利用管理システム100は、たとえば、大型ショッピングセンタなどの施設を含む特定の領域に配設され、画像入力部12、顔検出部14、注目人物判定部16、同伴者推定部18、顔情報登録部20、入場者データベース22、同伴人物判定部24および結果出力部26を含んで、これらが図示のように接続されて構成される。   The area use management system 100 according to the first embodiment is disposed in a specific area including a facility such as a large shopping center, for example, and includes an image input unit 12, a face detection unit 14, an attention person determination unit 16, and a companion estimation. The unit 18, the face information registration unit 20, the attendee database 22, the accompanying person determination unit 24, and the result output unit 26 are connected and configured as illustrated.

画像入力部12は、カメラデバイスなどの連続した画像を取得可能な装置を有し、たとえばショッピングセンタなどの領域の出入口に、入退場者の顔がもれなく撮影されるように調整されて設定されて、撮影したすべての入退場者の画像信号512を顔検出部14に送る。もちろん出入口が複数箇所ある場合にはそれにあわせて複数設置されるが、機能は同じであるので、ここでは一台設置されている場合について説明する。   The image input unit 12 has a device that can acquire continuous images, such as a camera device, and is adjusted and set so that, for example, the face of the entrance / exit is completely photographed at the entrance / exit of an area such as a shopping center. The image signals 512 of all the visitors who have taken the images are sent to the face detection unit 14. Of course, when there are a plurality of entrances / exits, a plurality of entrances / exits are installed. However, since the functions are the same, the case where one unit is installed will be described here.

顔検出部14は、画像入力部12から送付される入退場者の画像信号512から従来技術により顔領域を抽出し、たとえば顔の位置、顔の大きさ、カメラ12からのおおよその距離などの顔領域情報514として注目人物判定部16に送る。   The face detection unit 14 extracts a face region by a conventional technique from the image signal 512 of the entrance / exit sent from the image input unit 12, for example, the position of the face, the size of the face, the approximate distance from the camera 12, etc. The face area information 514 is sent to the attention person determination unit 16.

注目人物判定部16は、顔検出部14から送付される顔領域情報514から、あらかじめ決められた特徴と比較しさらに細かく分析を行い、注目すべき人物かどうかを決定し、顔検出部14から送付された顔領域情報514を含んだ注目人物情報516として同伴者推定部18に送る。   The person-of-interest determination unit 16 performs further detailed analysis from the face area information 514 sent from the face detection unit 14 in comparison with a predetermined feature, determines whether or not the person should be noticed, and from the face detection unit 14 The noticed person information 516 including the sent face area information 514 is sent to the companion estimation unit 18.

同伴者推定部18は、注目人物判定部16から送付される注目人物情報516から注目人物と一緒に撮影された人物との顔の間の距離を算出し、顔の近さにより同伴者の候補を決定し、注目人物情報516を含んだ同伴者候補情報518として顔情報登録部20および同伴人物判定部24に送る。   The companion estimation unit 18 calculates the distance between the face of the person photographed together with the person of interest from the person-of-interest information 516 sent from the person-of-interest determination unit 16, and the companion candidate based on the proximity of the face Is transmitted to the face information registration unit 20 and the accompanying person determination unit 24 as accompanying person candidate information 518 including the noticed person information 516.

顔情報登録部20は、同伴者推定部18から送られる同伴者候補情報518について、決定された同伴人物候補者のそれぞれ他人と識別できる顔の特徴を抽出し、同伴人物候補者の識別番号と注目人物を一意に特定する識別番号を関連付けて、入場者データ520として入場者データベース22に送る。   The face information registration unit 20 extracts facial features that can be distinguished from each other of the determined companion candidate candidates from the companion candidate information 518 sent from the companion estimation unit 18, and the identification number of the companion candidate candidates An identification number that uniquely identifies the person of interest is associated and sent to the visitor database 22 as visitor data 520.

入場者データベース22は、顔情報登録部20から送られる入場者データ520を格納し、同伴人物の判定が必要なときに同伴人物判定部24に識別可能情報522を提供する。   The visitor database 22 stores the visitor data 520 sent from the face information registration unit 20, and provides the identifiable information 522 to the accompanying person determination unit 24 when it is necessary to determine the accompanying person.

同伴人物判定部24は、画像入力部12で撮影され、顔検出部14、注目人物判定部16および同伴者推定部18を経由して送られた退場者の同伴者候補情報518と、入場者データベース22に格納されている識別可能情報522から、退場時の同伴者の候補者が入場の同伴者の候補者と同じであるか否かを判定し、その判定結果情報524を結果出力部26に送る。   A companion person determination unit 24 is a companion candidate information 518 of an exit person photographed by the image input unit 12 and sent via the face detection unit 14, the attention person determination unit 16, and the companion estimation unit 18, and a visitor It is determined from the identifiable information 522 stored in the database 22 whether or not the companion candidate at the time of leaving is the same as the admission companion candidate, and the determination result information 524 is used as the result output unit 26. Send to.

結果出力部26は、同伴人物判定部24から送付される判定結果情報524を、たとえば音声や画像などの出力手段を用いて出力する。とくに同伴者の候補者が入場時と入れ替わっていると判定された場合には、警報や警告灯などの出力手段で通知を行なう。   The result output unit 26 outputs the determination result information 524 sent from the accompanying person determination unit 24 using, for example, output means such as voice or image. In particular, when it is determined that a companion candidate has been replaced at the time of admission, notification is given by an output means such as an alarm or a warning light.

また出力手段として画像表示が可能で警備員が携帯できる携帯端末を用い、単に警報を通知するだけではなく、それと同時に入場時の画像などの判定の元となった画像や、親族などの似た顔であるかの類似度情報を警備員に送信し、確認ができるようにすることもできる。   In addition to using a portable terminal that can display images and can be carried by security guards as an output means, it is not only a notification of alarms, but at the same time, images that are the basis of judgment such as images at the time of entry, and similar relatives It is also possible to send similarity information as to whether it is a face to the security guard so that it can be confirmed.

次に、本実施例の領域利用者管理システムにおいて、入退場者を管理する動作について、図2と図7の動作フロー図および図3〜図6のイメージ図を参照にしながら詳細に説明する。ここでは、分かりやすくするために入場時での管理動作と退場時での管理動作について分けて説明する。   Next, in the area user management system of the present embodiment, the operation for managing the entrance / exit will be described in detail with reference to the operation flowcharts of FIGS. 2 and 7 and the image diagrams of FIGS. Here, for easy understanding, the management operation at the time of entrance and the management operation at the time of exit will be described separately.

まず、領域への入場者を管理する動作について説明する。領域の出入口にセットされた画像入力部12、たとえばカメラデバイスで連続に撮影された(ステップS102)入場者の画像信号512が顔検出部14に送信される。   First, an operation for managing visitors to the area will be described. The image signal 512 of the visitor continuously captured by the image input unit 12 set at the entrance of the area, for example, a camera device (step S102) is transmitted to the face detection unit 14.

顔検出部14では画像入力部12から送られた画像信号512は、顔領域を検出する従来技術を用いて顔領域が検出される (S104)。この顔領域は、画像中の顔の位置、顔の大きさおよびおおよそのカメラからのおおよその距離などの顔領域情報514を含んでいる。   In the face detection unit 14, the image signal 512 sent from the image input unit 12 detects the face area using a conventional technique for detecting the face area (S104). The face area includes face area information 514 such as the position of the face in the image, the face size, and the approximate distance from the camera.

たとえば、図3に示すように、画像の左上の角部を原点とし顔領域の左上端と右下端をそれぞれ座標(X1,Y1)、(X2,Y2)で示すことにより、画像中の顔の位置は、((X1+X2)/2,(Y1+Y2)/2)として、顔の大きさは、この2点の差から知ることができ、この顔の大きさからカメラからのおおよその距離も推定される。   For example, as shown in FIG. 3, the upper left corner of the image is the origin and the upper left corner and the lower right corner of the face area are indicated by coordinates (X1, Y1) and (X2, Y2), respectively. The position is ((X1 + X2) / 2, (Y1 + Y2) / 2), and the face size can be found from the difference between the two points. The distance is also estimated.

顔検出部14から送られた顔領域情報514は、注目人物判定部16においてさらに詳細に分析され、注目すべき人物かどうかが判定される(S106)。ここで注目すべき人物とは、あらかじめ決められた特徴を持つ人物を指す。   The face area information 514 sent from the face detection unit 14 is further analyzed in detail by the person-of-interest determination unit 16, and it is determined whether or not it is a person to be noted (S106). The person to be noted here is a person having a predetermined characteristic.

たとえば、連れ去られる可能性のある子供の場合、あらかじめ決められた特徴とは、図5に示すように、子供は、顔の中の目と口の間隔が大人に比べて短いことや身長が低いため地面から顔まで距離が短いこと、またその組合せなどの特徴を指す。   For example, in the case of a child that may be taken away, the predetermined characteristics are as shown in FIG. 5, in which the child has a shorter distance between eyes and mouth in the face than an adult and is shorter in height. Therefore, the distance from the ground to the face is short, and the feature such as a combination thereof is indicated.

注目人物と判定された場合は、その注目人物情報516が、同伴者推定部18に送られる。注目人物ではないと判定された場合には、顔検出部14に戻り、次の人物について注目人物の判定を行い、画像中のすべての顔について判定するまで繰り返される(S116)。   If it is determined that the person is a person of interest, the person-of-interest information 516 is sent to the accompanying person estimation unit 18. If it is determined that the person is not the person of interest, the process returns to the face detection unit 14, the person of interest is determined for the next person, and the process is repeated until all the faces in the image are determined (S116).

同伴者推定部18では、注目人物判定部16から送付される注目人物情報516から決定された注目人物と、同じ映像に映っている注目人物以外の1つの人物との距離を算出する(S108)。   The companion estimation unit 18 calculates the distance between the target person determined from the target person information 516 sent from the target person determination unit 16 and one person other than the target person shown in the same video (S108). .

図4に示すように、画像の特性としてカメラに近い顔は画像上で大きくなり、離れるに従い小さくなる。カメラからの距離が大きく異なる複数の人物がいる場合には、画像中での顔領域同士の距離が実際の距離と大きく異なることがあり、画像中では近く存在するのに実際は離れて存在していることが起こり得る。   As shown in FIG. 4, as a characteristic of the image, a face close to the camera becomes larger on the image, and becomes smaller as the distance increases. If there are multiple people with different distances from the camera, the distance between the face areas in the image may be very different from the actual distance. It can happen.

このような場合には、次の通り、顔領域の大きさを推定条件として加えて実際の距離を推定する。   In such a case, the actual distance is estimated by adding the size of the face area as an estimation condition as follows.

距離を求める2つの顔領域をA、Bとすると、顔検出部14で示したとおり、それぞれの顔領域の位置は、
(Ax,Ay)=((Xa1+Xa2)/2,(Ya1+Ya2)/2)、(Bx,By)=((Xb1+Xb2)/2,(Yb1+Yb2)/2)となる。
Assuming that the two face areas for which the distance is obtained are A and B, as indicated by the face detection unit 14, the position of each face area is
(Ax, Ay) = ((Xa1 + Xa2) / 2, (Ya1 + Ya2) / 2), (Bx, By) = ((Xb1 + Xb2) / 2, (Yb1 + Yb2) / 2).

また、画像上のそれぞれの顔領域の大きさを
(Rxa,Rya)=((Xa2-Xa1)/2,(Ya2-Ya1)/2)、(Rxb,Ryb)=((Xb2-Xb1)/2,(Yb2-Yb1)/2)とすると、顔領域A、Bの実際の距離ABは、
AB=((Ax - Bx)2 + (Ay &#8211; By)2 +α(Rxa - Rxb)2)1/2 として算出できる。ここで(Xa1, Ya1)、(Xa2, Ya2)は、顔領域Aの左上端と右下端の座標を、(Xb1, Yb1)、(Xb2, Yb2)は、顔領域Bの左上端と右下端の座標を示す。また、αは、カメラ特性による画像の大きさの距離による変化を示す定数であり、実験的に決定される。
Also, the size of each face area on the image
(Rxa, Rya) = ((Xa2-Xa1) / 2, (Ya2-Ya1) / 2), (Rxb, Ryb) = ((Xb2-Xb1) / 2, (Yb2-Yb1) / 2) The actual distance AB between the face areas A and B is
AB = ((Ax−Bx) 2 + (Ay &#8211; By) 2 + α (Rxa−Rxb) 2 ) 1/2 Here, (Xa1, Ya1) and (Xa2, Ya2) are the coordinates of the upper left and lower right corners of the face area A, and (Xb1, Yb1) and (Xb2, Yb2) are the upper left and lower right edges of the face area B. Indicates the coordinates. Α is a constant indicating a change in the image size due to the camera characteristics depending on the distance, and is determined experimentally.

算出された注目人物からの距離を、設定された基準距離と比較し(S110)、基準距離以内の場合には、その人物を同伴者候補として決定し、同伴者候補情報518として顔情報登録部20に送る。基準距離以上の場合には、注目人物以外の別の人物を選び(S114)、同様に注目人物との距離を算出し判定する。   The calculated distance from the person of interest is compared with the set reference distance (S110), and if it is within the reference distance, the person is determined as a companion candidate, and the face information registration unit as companion candidate information 518 Send to 20. If the distance is equal to or greater than the reference distance, another person other than the person of interest is selected (S114), and the distance from the person of interest is similarly calculated and determined.

同伴者判定部18から顔情報登録部20に送られた同伴者候補情報518は、たとえば図6に示すように、注目人物が一意となる識別番号、注目人物の他人と識別可能な顔特徴情報、同伴者候補数、同伴者識別番号、同伴者の他人と識別可能な顔特徴情報などを関連付けた入場者データ520として、入場者データベース22に格納される(S112)。さらに、判定の精度を上げるために、入場者データ520として衣服の模様や色、人物の体型などの情報を関連付けて一緒に格納してもよい。   The companion candidate information 518 sent from the companion determination unit 18 to the face information registration unit 20 includes, for example, as shown in FIG. 6, an identification number that makes the person of interest unique, and facial feature information that can be distinguished from other people of the person of interest. It is stored in the visitor database 22 as visitor data 520 in which the number of companion candidates, the companion identification number, facial feature information that can be distinguished from other companions is associated (S112). Further, in order to increase the accuracy of the determination, information such as the pattern and color of clothes and the figure of a person may be stored together as the visitor data 520 in association with each other.

このとき入場者データ520は、重複の登録を避けるため、登録済の入場者データベース22との照合を行なってから登録される。   At this time, the visitor data 520 is registered after collation with the registered visitor database 22 in order to avoid duplicate registration.

ここで他人と識別可能な顔特徴の抽出方法については、たとえば特開2007-156768号公報などの従来技術を用いればよい。   Here, as a method for extracting facial features that can be distinguished from others, a conventional technique such as Japanese Patent Application Laid-Open No. 2007-156768 may be used.

次に、領域からの退場者を管理する動作について説明する。画像入力部12、顔検出部14、注目人物判定部16、および同伴者判定部18までの動作は、入場者の管理と同じ動作であるので、簡単に説明する。   Next, an operation for managing a person leaving the area will be described. The operations up to the image input unit 12, the face detection unit 14, the attention person determination unit 16, and the accompanying person determination unit 18 are the same as the management of the visitors, and will be described briefly.

画像入力部12で連続に撮影された(S122)退場者の画像信号512が、顔検出部14に送信されると顔領域が検出され(S124)、顔領域情報514が抽出される。   When the image signal 512 of the exit person continuously photographed by the image input unit 12 (S122) is transmitted to the face detection unit 14, a face area is detected (S124), and face area information 514 is extracted.

つづいて顔領域情報514は、注目人物判定部16に送られ、注目人物であるか否かが判定される(S126)。注目人物と判定された場合は、注目人物情報516が、同伴者推定部18に送られる。注目人物ではないと判定された場合には、顔検出部14にもどり、画像中のすべての顔について判定するまで繰り返される(S142)。   Subsequently, the face area information 514 is sent to the attention person determination unit 16 to determine whether or not the person is the attention person (S126). If it is determined that the person is a person of interest, the person-of-interest information 516 is sent to the accompanying person estimation unit 18. If it is determined that the person is not a person of interest, the process returns to the face detection unit 14 and is repeated until all the faces in the image are determined (S142).

同伴者推定部18では、注目人物判定部16から送付される注目人物情報516から決定された注目人物と、同じ映像に映っている注目人物以外の1つの人物との距離が算出され(S128)、基準距離と比較され(S130)、注目人物以外のすべての人物が確認されて(S140)、同伴者候補が決定される。   The companion estimation unit 18 calculates the distance between the target person determined from the target person information 516 sent from the target person determination unit 16 and one person other than the target person appearing in the same video (S128). Then, it is compared with the reference distance (S130), all persons other than the person of interest are confirmed (S140), and a companion candidate is determined.

同伴者推定部18で決定された結果は、同伴者候補情報518として同伴人物判定部24へ送られる。   The result determined by the companion estimation unit 18 is sent to the companion person determination unit 24 as companion candidate information 518.

同伴人物判定部24では、同伴者推定部18から送られてくる同伴者候補情報518は、入場者データベース22からの識別可能情報522と比較され、たとえば一致度が一定以上の高さがある顔特徴の識別番号を得ることにより、注目人物の特定が行なわれる(S132)。   In the companion person determination unit 24, the companion candidate information 518 sent from the companion estimation unit 18 is compared with the identifiable information 522 from the visitor database 22, for example, a face having a certain degree of matching or higher. By obtaining the feature identification number, the person of interest is identified (S132).

注目人物が特定されると、同伴者候補情報518の同伴者候補の特徴が、入場者データベース22からの識別可能情報522の同伴者候補の特徴と比較され(S134)、すべての候補者について比較しても(S136)、入場時の同伴候補と一致する人物が存在しない場合には、入場時と退場時の同伴人物が入れ替わった可能性があると判断される。   When the person of interest is identified, the characteristics of the companion candidate in the companion candidate information 518 are compared with the characteristics of the companion candidate in the identifiable information 522 from the visitor database 22 (S134), and all the candidates are compared. Even so (S136), if there is no person who matches the companion candidate at the time of admission, it is determined that the companion person at the time of admission may have been switched.

同伴人物判定部24で、同伴人物が入れ替わった可能性があると判断されると判定結果情報524が結果出力部26に送られ、たとえば音や警告灯などの手段で、たとえば警備員に注目人物の保護などの指令が通知される。   When the accompanying person determination unit 24 determines that there is a possibility that the accompanying person has been replaced, the determination result information 524 is sent to the result output unit 26. Directives such as protection are notified.

次に、本発明による領域利用者管理システムの他の実施例、すなわち第2の実施例の構成について、図8を参照して説明する。なお、第1の実施例と同じ構成部は、同じ参照符号で示し、反復説明を避ける。   Next, another embodiment of the area user management system according to the present invention, that is, the configuration of the second embodiment will be described with reference to FIG. Note that the same components as those in the first embodiment are denoted by the same reference numerals, and repeated description is avoided.

第2の実施例の領域利用管理システム200は、同伴者の候補を推定する範囲を注目人物の通過時間の前後に広げるもので、第1の実施例と同じく、画像入力部12、顔検出部14、注目人物判定部16、同伴者推定部18、顔情報登録部20、入場者データベース22、同伴人物判定部24および結果出力部26と新たに通過者データベース28とを含んで構成される。   The area use management system 200 according to the second embodiment expands the range for estimating the companion candidate before and after the passing time of the person of interest, and as in the first embodiment, the image input unit 12, the face detection unit, 14, a person-of-interest determination unit 16, a companion estimation unit 18, a face information registration unit 20, an attendee database 22, a companion determination unit 24, a result output unit 26, and a new passer-by database 28.

通過者データベース28は、顔検出部14から顔領域情報514を受け取り、一時的に格納を行い、注目人物判定部16で判定された注目人物が検出された時に、注目人物の前後一定時間に検出された通過者の顔領域情報を前後通過者顔領域情報515として同伴者推定部18に送付する。   The passer-by database 28 receives the face area information 514 from the face detection unit 14, temporarily stores it, and detects the target person determined by the target person determination unit 16 at a certain time before and after the target person. The passed face area information of the passer is sent to the companion estimation unit 18 as front and rear passer face area information 515.

同伴者推定部18は、通過者データベース28より送られた前後通過者顔領域情報515に含まれる顔領域について同伴者候補の判定を行う。   The companion estimation unit 18 determines a companion candidate for the face area included in the front and rear passer face area information 515 sent from the passer database 28.

次に、第2の実施例の動作について図9の動作フロー図および図10のイメージ図を参照にしながら説明する。なお、第1の実施例と同じ動作については、簡略化して説明し、詳細な反復説明を避ける。   Next, the operation of the second embodiment will be described with reference to the operation flow diagram of FIG. 9 and the image diagram of FIG. The same operation as that of the first embodiment will be described in a simplified manner, and detailed repetitive description will be avoided.

まず、領域への入場者を管理する動作について説明する。   First, an operation for managing visitors to the area will be described.

第1の実施例と同じく、まず画像入力部12で撮影された(S202)画像信号512が顔検出部14に送られ、第1の実施例と同じ方法で顔領域が検出される(S204)。   As in the first embodiment, first, an image signal 512 photographed by the image input unit 12 (S202) is sent to the face detection unit 14, and a face area is detected by the same method as in the first embodiment (S204). .

顔検出部14で検出された顔領域情報514は、たとえば図10に示すように、画像取得時間の情報と共に通過者データベース28に一時的に保存される(S206)。   For example, as shown in FIG. 10, the face area information 514 detected by the face detection unit 14 is temporarily stored in the passer-by database 28 together with the image acquisition time information (S206).

また、顔領域情報514は、注目人物判定部16で、たとえば子供などの注目すべき人物かどうか第1の実施例と同じ方法で判定される(S208)。   Further, the face area information 514 is determined by the attention person determination unit 16 by the same method as in the first embodiment, for example, whether or not the person is a person of interest such as a child (S208).

注目人物と判定された場合には、前後通過者顔領域情報515が通過者データベース28から同伴者推定部18に送られ、この注目人物に対して前後一定時間内に通過した人物すべてが同伴者の候補と決定される(S210, S212, S218)。一定時間については、通過者人数などその時の状況により調整することができる。   If it is determined that the person is a person of interest, front / rear passer face area information 515 is sent from the passer-by database 28 to the companion estimation unit 18, and all persons who pass the person of interest within a certain period of time before and after the person of interest (S210, S212, S218). About fixed time, it can adjust by the situation at that time, such as the number of passing persons.

さらに、親族は顔の特徴が似ているなど、同伴者らしさの条件で、同伴者候補を絞り込んでいくことも可能である(S214)。   Furthermore, it is possible to narrow down the companion candidates based on the condition of the companion like that the relatives have similar facial features (S214).

同様にして前後通過者顔領域情報515のすべての顔について判定を行うまで繰り返される(S220)。   Similarly, the process is repeated until determination is made for all the faces in the front and rear passer face area information 515 (S220).

領域からの退場者を管理する動作は、画像入力部12、顔検出部14、注目人物判定部16、および同伴者判定部18までの動作は、入場者の管理と同じ動作であり、同伴人物判定部24と結果出力部26の動作は、第1の実施例と同じ動作であるので省略する。   The operations to manage the exit from the area are the same operations as the management of the visitors, the operations up to the image input unit 12, the face detection unit 14, the attention person determination unit 16, and the accompanying person determination unit 18. The operations of the determination unit 24 and the result output unit 26 are the same as those in the first embodiment, and are omitted.

次に、本発明による領域利用者管理システムのさらに他の実施例、すなわち第3の実施例の構成について、図11を用いて説明する。なお、第1の実施例と同じ構成部は、同じ参照符号で示し、反復説明を避ける。   Next, still another embodiment of the area user management system according to the present invention, that is, the configuration of the third embodiment will be described with reference to FIG. Note that the same components as those in the first embodiment are denoted by the same reference numerals, and repeated description is avoided.

第3の実施例の領域利用管理システム300は、領域内での移動中の画像を取り込み入場時の画像より得た同伴者の候補をさらに絞込んでいくものである。第1の実施例と同じく、画像入力部12、顔検出部14、注目人物判定部16、同伴者推定部18、顔情報登録部20、入場者データベース22、同伴人物判定部24および結果出力部26と新たに同伴者候補絞込部(選別部)30を含んで構成される。   The area use management system 300 according to the third embodiment captures moving images within the area and further narrows down the candidates for accompanying persons obtained from the image at the time of entrance. As in the first embodiment, the image input unit 12, the face detection unit 14, the attention person determination unit 16, the accompanying person estimation unit 18, the face information registration unit 20, the attendee database 22, the accompanying person determination unit 24, and the result output unit 26 and a companion candidate screening unit (screening unit) 30 are newly included.

画像入力部12は、第1の実施例と同じくカメラデバイスなどの連続した画像を取得可能な装置を有し、たとえばショッピングセンタなどの領域の出入口、および領域内の任意の各所に入退場者およびの顔がよく撮影されるように調整されて設定されて、撮影した入退場者および領域内の利用者の画像信号512を顔検出部14に送る。   Similar to the first embodiment, the image input unit 12 includes a device such as a camera device that can acquire continuous images. For example, an entrance / exit of an area such as a shopping center, and an entrance / exit at any place in the area, and The image signal 512 of the entered / exited person and the user in the area is sent to the face detection unit 14.

同伴者候補選別部30は、領域内の画像入力部12から送られた画像信号512により検出された顔領域情報514から注目人物判定部16で注目人物が検出された時に、注目人物情報516を注目人物判定部16から得て、入場者データベース22に格納されている入場者データ520と比較を行い、一致した実績を同伴者候補確認情報521として入場者データベース22に送る。   The companion candidate selection unit 30 displays the target person information 516 when the target person determination unit 16 detects the target person from the face area information 514 detected by the image signal 512 sent from the image input unit 12 in the area. A comparison is made with the visitor data 520 obtained from the attention person determination unit 16 and stored in the visitor database 22, and the matched result is sent to the visitor database 22 as companion candidate confirmation information 521.

入場者データベース22では、同伴者候補選別部30からの同伴者候補確認情報521を受けて、入場者データ520の同伴者候補を絞り込み、入場者データ520の更新を行う。   The attendee database 22 receives the companion candidate confirmation information 521 from the companion candidate selection unit 30, narrows down the companion candidates in the attendee data 520, and updates the attendee data 520.

次に、第3の実施例の動作について図12の動作フロー図および図13のイメージ図を参照にしながら説明する。なお、第1の実施例と同じ動作については、簡略化して説明し、詳細な反復説明をさける。   Next, the operation of the third embodiment will be described with reference to the operation flow diagram of FIG. 12 and the image diagram of FIG. The same operation as that in the first embodiment will be described in a simplified manner, and detailed repetitive description will be avoided.

領域への入場者を管理する動作は、第1の実施例と同じ動作で入場者データベース22に入場者データ520が格納されている。   The operation for managing the visitors to the area is the same as that in the first embodiment, and the visitor data 520 is stored in the visitor database 22.

ここで、領域内の各所に設置された画像入力部12、たとえばカメラにより領域内の利用者が撮影され(S322)、画像信号512が顔検出部14に送られ、第1の実施例と同じ方法で顔領域が検出される(S324)。   Here, a user in the area is photographed by an image input unit 12 installed at various points in the area, for example, a camera (S322), and an image signal 512 is sent to the face detection unit 14, which is the same as in the first embodiment. A face region is detected by the method (S324).

顔検出部14で検出された顔領域情報514は、注目人物判定部16に送られ、たとえば子供などの注目すべき人物か否かが第1の実施例と同じ方法で判定される(S326)。   The face area information 514 detected by the face detection unit 14 is sent to the attention person determination unit 16, and it is determined by the same method as in the first embodiment whether or not the person is an attention person such as a child (S326). .

注目人物と判定された場合には、入場者データベース22に格納されている入場者データ520との比較が行われ、注目人物が特定される(S328)。   If it is determined that the person is a person of interest, the person is compared with the visitor data 520 stored in the visitor database 22 to identify the person of interest (S328).

注目人物が特定されると、周囲の人物の顔の特徴が入場者データベース22に格納されている同伴者候補の顔の特徴と比較され、一致するか判定される(S330)。   When the person of interest is specified, the facial features of the surrounding people are compared with the facial features of the companion candidates stored in the visitor database 22, and it is determined whether they match (S330).

一致した人物は、入場者データ520に一致回数が加算記録され(S332)、たとえば図13に示すように入場者データベース22に更新される。   For the matched person, the number of matches is recorded in the visitor data 520 (S332), and is updated in the visitor database 22 as shown in FIG. 13, for example.

これらの動作(S326〜S332)が、領域内の各所に設置されたカメラからの画像信号512について注目すべき人物が見つかるたびに行われ(S334)、同伴者候補の一致回数が閾値を超えた人物の特徴から、第2の実施例と同じように類似度を算出する手法を用いて同伴者候補が推定され、同伴者候補として残される(S336)。   These operations (S326 to S332) are performed every time a person to be noticed is found for the image signal 512 from the cameras installed at various locations in the region (S334), and the number of matching candidates for the companion exceeds the threshold. A companion candidate is estimated from the characteristics of the person using the method of calculating the similarity as in the second embodiment, and is left as a companion candidate (S336).

閾値以下の人物情報は、入場者データベース22から削除され、入場データ520は順次更新されていく。   The person information below the threshold is deleted from the visitor database 22, and the entrance data 520 is sequentially updated.

領域からの退場者を管理する動作は、第1の実施例と同じ動作であるので、説明を省略する。   The operation for managing the exit from the area is the same as that in the first embodiment, and the description thereof will be omitted.

以上、本発明の様々な実施例を説明したが、これらはそれぞれの効果がある。第1の実施例によれば、入場時に登録される同伴者の顔特徴を利用して、退場時の同伴者が入場時の同伴者と同じであるかを自動で判定を行い、その結果を迅速に警備員などに通知することにより、領域外への子供の連れ去りを未然に防止することが可能となる。   Although various embodiments of the present invention have been described above, these have their respective effects. According to the first embodiment, it is automatically determined whether the companion at the time of leaving is the same as the companion at the time of entering using the facial features of the companion registered at the time of entry, and the result is By promptly notifying a guard or the like, it is possible to prevent the child from being taken out of the area.

また、入場時の登録は既存の監視カメラなどを利用して自動的に行えるため、利便性に優れるだけでなく、混雑する休日のショッピングセンタでもお客様が待ち行列を作ったり、立ち止まったりする必要がなく、時間的損失をすることなく安全を提供することができる。   In addition, registration at the time of admission can be done automatically using an existing surveillance camera, which is not only convenient, but also requires customers to queue up and stop at crowded holiday shopping centers. In addition, safety can be provided without loss of time.

第2の実施例によれば、第1の実施例の効果に加えて、子供が親の手を離れて入場した場合などでも、同伴者候補を決定することができ、さらに、目や口などの類似度での判定を加えることにより、同伴者候補を絞り込むことが可能となり、システムの記憶容量の増大を抑制することが可能となる。   According to the second embodiment, in addition to the effects of the first embodiment, a companion candidate can be determined even when a child leaves the parent's hand and enters, and eyes, mouth, etc. By adding the determination based on the similarity, it is possible to narrow down the companion candidates, and it is possible to suppress an increase in the storage capacity of the system.

また、同伴者候補の画像や類似度合を警備員に通知することにより領域外への子供の連れ去りを確実に防止することが可能となる。   Further, by notifying the guards of the image of the companion candidate and the degree of similarity, it is possible to reliably prevent the child from being taken out of the area.

第3の実施例によれば、第1、第2の実施例の効果に加えて、入場時に登録される多数の同伴者候補の中から、確実性を向上させて少数の同伴者候補に絞り込むことにより、精度の高い同伴者候補の特定が可能となる。   According to the third embodiment, in addition to the effects of the first and second embodiments, the reliability is improved from a large number of companion candidates registered at the time of entrance, and the number of companion candidates is narrowed down. This makes it possible to specify a companion candidate with high accuracy.

以上、本実施例では、子供の連れ去りを未然に防ぐことについて説明したが、子供に限らず、老人、待ち人、その他特定の人についても利用できることは勿論のことである。   As described above, in the present embodiment, the prevention of the removal of the child has been described, but it is needless to say that it can be used not only for the child but also for an elderly person, a waiting person, and other specific persons.

本発明による領域利用者管理システムの実施例の構成を示す構成ブロック図である。It is a block diagram showing the configuration of an embodiment of an area user management system according to the present invention. 本発明による領域利用者管理システムの実施例の動作フローの一部を示す動作フロー図である。It is an operation | movement flowchart which shows a part of operation | movement flow of the Example of the area | region user management system by this invention. 本発明による領域利用者管理システムの実施例の動作説明を示すイメージ図である。It is an image figure which shows operation | movement description of the Example of the area | region user management system by this invention. 本発明による領域利用者管理システムの実施例の動作説明を示すイメージ図である。It is an image figure which shows operation | movement description of the Example of the area | region user management system by this invention. 本発明による領域利用者管理システムの実施例の動作説明を示すイメージ図である。It is an image figure which shows operation | movement description of the Example of the area | region user management system by this invention. 本発明による領域利用者管理システムの実施例の一部を示すイメージ図である。It is an image figure which shows a part of Example of the area | region user management system by this invention. 本発明による領域利用者管理システムの実施例の動作フローの一部を示す動作フロー図である。It is an operation | movement flowchart which shows a part of operation | movement flow of the Example of the area | region user management system by this invention. 本発明による領域利用者管理システムの第2の実施例の構成を示す構成ブロック図である。It is a block diagram which shows the structure of the 2nd Example of the area | region user management system by this invention. 本発明による領域利用者管理システムの第2の実施例の動作フローの一部を示す動作フロー図である。It is an operation | movement flowchart which shows a part of operation | movement flow of the 2nd Example of the area | region user management system by this invention. 本発明による領域利用者管理システムの第2の実施例の一部を示すイメージ図である。It is an image figure which shows a part of 2nd Example of the area | region user management system by this invention. 本発明による領域利用者管理システムの第3の実施例の構成を示す構成ブロック図である。It is a block diagram which shows the structure of the 3rd Example of the area | region user management system by this invention. 本発明による領域利用者管理システムの第3の実施例の動作フローの一部を示す動作フロー図である。It is an operation | movement flowchart which shows a part of operation | movement flow of the 3rd Example of the area | region user management system by this invention. 本発明による領域利用者管理システムの第3の実施例の一部を示すイメージ図である。It is an image figure which shows a part of 3rd Example of the area | region user management system by this invention.

符号の説明Explanation of symbols

100,200,300 領域利用者管理システム
12 画像入力部
14 顔検出部
16 注目人物判定部
18 同伴者推定部
20 顔情報登録部
22 入場者データベース
24 同伴人物判定部
26 結果出力部
28 通過者データベース
30 同伴者候補選別部
100,200,300 area user management system
12 Image input section
14 Face detector
16 Attention person judgment part
18 Companion Estimator
20 Face information registration section
22 Visitor database
24 Accompanying Person Judgment Department
26 Result output section
28 Transit database
30 Companion candidate screening department

Claims (16)

領域の利用者を画像データで管理する領域利用者管理システムにおいて、該システムは、
撮影した撮影画像に含まれる顔から注目人物か否かの判定を行う注目人物判定手段と、
前記注目人物ではないと判定された顔から前記注目人物の同伴者の推定を行う同伴者推定手段と、
前記領域の異なる時点で撮影された複数の画像から前記同伴者推定手段により前記注目人物の同伴者を推定し、前記異なる時点での複数画像において前記同伴者に不一致が生じていないかを判定する同伴人物判定手段と、
前記同伴人物判定手段の結果を出力する結果出力手段とを含むことを特徴とする領域利用者管理システム。
In an area user management system for managing area users with image data, the system includes:
Attention person determination means for determining whether or not the person is an attention person from the face included in the captured image,
Companion estimation means for estimating a companion of the attention person from a face determined not to be the attention person;
The accompanying person estimation means estimates the accompanying person of the person of interest from a plurality of images taken at different times in the region, and determines whether the accompanying person has a mismatch in the plurality of images at the different times. Companion person determination means,
A region user management system comprising: a result output means for outputting the result of the accompanying person determination means.
請求項1に記載のシステムにおいて、前記同伴人物推定手段は、前記撮影画像中で前記注目人物との顔領域の距離を用いて同伴者の候補を推定することを特徴とする領域利用者管理システム。   The area user management system according to claim 1, wherein the accompanying person estimation unit estimates a companion candidate using the distance of the face area to the person of interest in the captured image. . 請求項1に記載のシステムにおいて、前記同伴人物推定手段は、前記撮影画像中で前記注目人物との顔領域の大きさの差を用いて同伴者の候補を推定することを特徴とする領域利用者管理システム。   2. The system according to claim 1, wherein the companion person estimation means estimates a companion candidate using a difference in size of a face area with the person of interest in the captured image. Management system. 請求項1に記載のシステムにおいて、前記同伴人物推定手段は、前記撮影画像中で前記注目人物との顔領域の距離と大きさの差との組み合わせを用いて同伴者の候補を推定することを特徴とする領域利用者管理システム。   2. The system according to claim 1, wherein the companion person estimation unit estimates a companion candidate using a combination of a distance and a size difference of a face area with the attention person in the captured image. A feature area user management system. 請求項1に記載のシステムにおいて、前記同伴人物推定手段は、前記注目人物の前記撮影画像と、該画像の前後の時間の撮影画像とに存在する人物から前記同伴者の候補を推定することを特徴とする領域利用者管理システム。   2. The system according to claim 1, wherein the accompanying person estimation unit estimates the companion candidate from a person existing in the photographed image of the person of interest and photographed images before and after the image. A feature area user management system. 請求項5に記載のシステムにおいて、前記同伴人物推定手段は、前記注目人物の前記撮影画像と、該画像の前記前後の時間の撮影画像とに存在する前記注目人物と類似した人物から前記同伴者の候補を推定することを特徴とする領域利用者管理システム。   6. The system according to claim 5, wherein the companion person estimation means includes the companion from a person similar to the person of interest existing in the photographed image of the person of interest and the photographed images of the images before and after the image. An area user management system characterized by estimating candidates. 請求項1に記載のシステムにおいて、前記同伴人物推定手段は、領域内の前記異なる時点以外の時点で撮影された画像を用いて前記同伴者推定手段により前記同伴者が前記注目人物の同伴者の候補と推定し、前記同伴者の候補を更新することを特徴とする領域利用者管理システム。   2. The system according to claim 1, wherein the companion person estimation unit uses the images taken at a time other than the different time points in the region to determine whether the companion is the companion of the person of interest by the companion estimation unit. An area user management system characterized in that the candidate is estimated and the companion candidate is updated. 請求項1に記載のシステムにおいて、前記異なる時点は、領域内への入場時と領域内からの退場時であることを特徴とする領域利用者管理システム。   2. The area user management system according to claim 1, wherein the different time points are when entering the area and when leaving the area. 領域の利用者を画像データで管理する領域利用者管理システムの管理方法において、該方法は、
撮影した撮影画像に含まれる顔から注目人物か否かの判定を行う注目人物判定工程と、
前記注目人物ではないと判定された顔から前記注目人物の同伴者の推定を行う同伴者推定工程と、
前記領域の異なる時点で撮影された複数の画像から前記同伴者推定工程にて前記注目人物の同伴者を推定し、前記異なる時点での複数画像において前記同伴者に不一致が生じていないかを判定する同伴人物判定工程と、
前記同伴人物判定手段の結果を出力する結果出力工程とを含むことを特徴とする領域利用者管理システムの管理方法。
In the management method of the area user management system that manages the users of the area with image data, the method includes:
A person of interest determination step for determining whether or not the person is a person of interest from the face included in the captured image;
A companion estimation step for estimating a companion of the attention person from a face determined not to be the attention person;
The accompanying person's accompanying person is estimated in the accompanying person estimation step from a plurality of images taken at different times in the region, and it is determined whether the accompanying person has a mismatch in the plurality of images at the different times. A companion person determination process,
A region user management system management method comprising: a result output step of outputting a result of the accompanying person determination means.
請求項9に記載のシステムにおいて、前記同伴人物推定工程は、前記撮影画像中で前記注目人物との顔領域の距離を用いて同伴者の候補を推定することを特徴とする領域利用者管理システムの管理方法。   10. The area user management system according to claim 9, wherein the accompanying person estimation step estimates a companion candidate using a distance of a face area with the person of interest in the captured image. Management method. 請求項9に記載の方法において、前記同伴人物推定工程は、前記撮影画像中で前記注目人物との顔領域の大きさの差を用いて同伴者の候補を推定することを特徴とする領域利用者管理システムの管理方法。   10. The method according to claim 9, wherein the companion person estimation step estimates a companion candidate using a difference in size of a face area with the person of interest in the captured image. Management method of the user management system. 請求項9に記載の方法において、前記同伴人物推定工程は、前記撮影画像中で前記注目人物との顔領域の距離と大きさの差との組み合わせを用いて同伴者の候補を推定することを特徴とする領域利用者管理システムの管理方法。   The method according to claim 9, wherein the companion person estimation step estimates a companion candidate using a combination of a distance and a size difference between the face area of the person of interest in the captured image. A management method for a feature area user management system. 請求項9に記載の方法において、前記同伴人物推定工程は、前記注目人物の前記撮影画像と、該画像の前後の時間の撮影画像とに存在する人物から前記同伴者の候補を推定することを特徴とする領域利用者管理システムの管理方法。   The method according to claim 9, wherein the companion person estimation step estimates the companion candidate from a person existing in the photographed image of the person of interest and photographed images before and after the image. A management method for a feature area user management system. 請求項12に記載の方法において、前記同伴人物推定工程は、前記注目人物の前記撮影画像と、該画像の前記前後の時間の撮影画像とに存在する前記注目人物と類似した人物から前記同伴者の候補を推定することを特徴とする領域利用者管理システムの管理方法。   13. The method according to claim 12, wherein the accompanying person estimation step includes the companion from a person similar to the person of interest existing in the photographed image of the person of interest and the photographed images of the images before and after the image. A method for managing an area user management system, characterized in that candidates are estimated. 請求項9に記載の方法において、前記同伴人物推定工程は、領域内の前記異なる時点以外の時点で撮影された画像を用いて前記同伴者推定工程にて前記同伴者が前記注目人物の同伴者の候補と推定し、前記同伴者の候補を更新することを特徴とする領域利用者管理システムの管理方法。   The method according to claim 9, wherein the companion person estimation step uses the images taken at a time other than the different time points in the region, and the companion estimation step includes the companion person being an accompanying person of the attention person. A region user management system management method, wherein the candidate is updated and the companion candidate is updated. 請求項9に記載のシステムにおいて、前記異なる時点は、領域内への入場時と領域内からの退場時であることを特徴とする領域利用者管理システムの管理方法。   10. The management method of the area user management system according to claim 9, wherein the different time points are when entering the area and when leaving the area.
JP2008034601A 2008-02-15 2008-02-15 Region user management system and management method of the same Withdrawn JP2009194711A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2008034601A JP2009194711A (en) 2008-02-15 2008-02-15 Region user management system and management method of the same

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2008034601A JP2009194711A (en) 2008-02-15 2008-02-15 Region user management system and management method of the same

Publications (1)

Publication Number Publication Date
JP2009194711A true JP2009194711A (en) 2009-08-27

Family

ID=41076313

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008034601A Withdrawn JP2009194711A (en) 2008-02-15 2008-02-15 Region user management system and management method of the same

Country Status (1)

Country Link
JP (1) JP2009194711A (en)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20180008698A (en) * 2016-01-18 2018-01-24 주식회사 히타치 정보통신 엔지니어링 A moving object measurement system, and a method of specifying the number of persons in the area to be measured
JP2018073059A (en) * 2016-10-27 2018-05-10 トヨタホーム株式会社 Face authentication crime prevention system
JP2018201176A (en) * 2017-05-29 2018-12-20 富士通株式会社 Alert output control program, alert output control method, and alert output control apparatus
WO2019064947A1 (en) * 2017-09-28 2019-04-04 京セラドキュメントソリューションズ株式会社 Monitor terminal device and display processing method
CN110473162A (en) * 2018-05-11 2019-11-19 精工爱普生株式会社 The generation method of machine learning device, photography time estimation device and learning model
WO2023005662A1 (en) * 2021-07-30 2023-02-02 上海商汤智能科技有限公司 Image processing method and apparatus, electronic device, program product and computer-readable storage medium
WO2024079777A1 (en) * 2022-10-11 2024-04-18 日本電気株式会社 Information processing system, information processing device, information processing method, and recording medium

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20180008698A (en) * 2016-01-18 2018-01-24 주식회사 히타치 정보통신 엔지니어링 A moving object measurement system, and a method of specifying the number of persons in the area to be measured
KR102069963B1 (en) * 2016-01-18 2020-01-23 주식회사 히타치 정보통신 엔지니어링 Method of specifying number of person in moving object measurement system and area to be measured
JP2018073059A (en) * 2016-10-27 2018-05-10 トヨタホーム株式会社 Face authentication crime prevention system
JP2018201176A (en) * 2017-05-29 2018-12-20 富士通株式会社 Alert output control program, alert output control method, and alert output control apparatus
WO2019064947A1 (en) * 2017-09-28 2019-04-04 京セラドキュメントソリューションズ株式会社 Monitor terminal device and display processing method
JPWO2019064947A1 (en) * 2017-09-28 2019-11-14 京セラドキュメントソリューションズ株式会社 Monitoring terminal device and display processing method
CN110473162A (en) * 2018-05-11 2019-11-19 精工爱普生株式会社 The generation method of machine learning device, photography time estimation device and learning model
WO2023005662A1 (en) * 2021-07-30 2023-02-02 上海商汤智能科技有限公司 Image processing method and apparatus, electronic device, program product and computer-readable storage medium
WO2024079777A1 (en) * 2022-10-11 2024-04-18 日本電気株式会社 Information processing system, information processing device, information processing method, and recording medium

Similar Documents

Publication Publication Date Title
US11157778B2 (en) Image analysis system, image analysis method, and storage medium
US8655078B2 (en) Situation determining apparatus, situation determining method, situation determining program, abnormality determining apparatus, abnormality determining method, abnormality determining program, and congestion estimating apparatus
JP4966820B2 (en) Congestion estimation apparatus and method
JP5473801B2 (en) Monitoring device
JP2009194711A (en) Region user management system and management method of the same
US20090128632A1 (en) Camera and image processor
JP5917327B2 (en) Escalator monitoring system
JP2009143722A (en) Person tracking apparatus, person tracking method and person tracking program
US20140267738A1 (en) Visual monitoring of queues using auxillary devices
JP2018201176A (en) Alert output control program, alert output control method, and alert output control apparatus
KR20160074208A (en) System and method for providing safety service using beacon signals
JP2024009906A (en) Monitoring device, monitoring method, and program
US20220165092A1 (en) Accident detection device and accident detection method
JP6253950B2 (en) Image surveillance system
JP2012212217A (en) Image monitoring device
JP2012056535A (en) Platform accident detection system
JP2005284652A (en) Video monitoring method and apparatus using moving vector
KR101669885B1 (en) method of detecting pedestrian collision and IoT apparatus thereof
JP7447915B2 (en) Processing equipment, processing method and program
JP2005140754A (en) Method of detecting person, monitoring system, and computer program
WO2012074366A2 (en) A system and a method for detecting a loitering event
CN113823072A (en) Person tracking support device and person tracking support system
CN113542671A (en) Event analysis system and event analysis method
KR102407202B1 (en) Apparatus and method for intelligently analyzing video
JP6968248B1 (en) Image analysis report system, image analysis report program and image analysis report method

Legal Events

Date Code Title Description
A300 Withdrawal of application because of no request for examination

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20110510