JP5151451B2 - Person identification system, person identification device, person identification method, and person identification program - Google Patents

Person identification system, person identification device, person identification method, and person identification program Download PDF

Info

Publication number
JP5151451B2
JP5151451B2 JP2007327290A JP2007327290A JP5151451B2 JP 5151451 B2 JP5151451 B2 JP 5151451B2 JP 2007327290 A JP2007327290 A JP 2007327290A JP 2007327290 A JP2007327290 A JP 2007327290A JP 5151451 B2 JP5151451 B2 JP 5151451B2
Authority
JP
Japan
Prior art keywords
person
cameras
face
video data
video
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2007327290A
Other languages
Japanese (ja)
Other versions
JP2009152733A (en
Inventor
勝 青木
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NEC Corp
Original Assignee
NEC Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NEC Corp filed Critical NEC Corp
Priority to JP2007327290A priority Critical patent/JP5151451B2/en
Publication of JP2009152733A publication Critical patent/JP2009152733A/en
Application granted granted Critical
Publication of JP5151451B2 publication Critical patent/JP5151451B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Closed-Circuit Television Systems (AREA)
  • Image Analysis (AREA)
  • Collating Specific Patterns (AREA)
  • Image Processing (AREA)

Description

本発明は、複数のカメラに撮影された映像の処理に関し、特に撮影された映像から人物を特定する技術に関する。   The present invention relates to processing of images taken by a plurality of cameras, and more particularly to a technique for identifying a person from the taken images.

顔認識技術により、カメラに撮影された顔からその人物を特定することが既に可能である。そのような技術を応用した防犯システムなどが、たとえば空港、駅、銀行、繁華街などに導入されている。また、顔認識システムは市販のデジタルカメラや携帯電話にも採用され、ユーザの認証や焦点位置の検出などに使われている。   With the face recognition technology, it is already possible to identify the person from the face photographed by the camera. Security systems applying such technology have been introduced into airports, stations, banks, and downtowns, for example. Face recognition systems are also used in commercial digital cameras and mobile phones, and are used for user authentication and focus position detection.

カメラによって撮影された人物を追尾もしくは特定などする技術として、たとえば以下のような文献がある。特許文献1には、複数のカメラで撮影された画像から同一人物を検出し、その人物の動線情報を収集するという技術が開示されている。特許文献2には、自律的に動作する複数のカメラで撮影された画像から同一人物を示す特徴量を検出して特定の人物を追尾する方法について開示されている。   As a technique for tracking or specifying a person photographed by a camera, for example, there are the following documents. Patent Document 1 discloses a technique of detecting the same person from images taken by a plurality of cameras and collecting flow line information of the person. Patent Document 2 discloses a method for tracking a specific person by detecting feature quantities indicating the same person from images taken by a plurality of autonomously operating cameras.

特許文献3には、自律的に動作する複数のカメラが移動体の移動速度および方向についての情報を交換して特定の移動体を追尾する方法について開示されている。特許文献4には、複数のカメラで撮影された画像から動体の位置および位置精度についての情報を交換し、それらが同一の動体である場合にそれらの情報を統合するという技術について開示されている。特許文献5には、カードなどを持つユーザの軌跡情報を記録するという技術について開示されている。   Patent Document 3 discloses a method in which a plurality of autonomously operating cameras exchange information on the moving speed and direction of a moving body to track a specific moving body. Patent Document 4 discloses a technique for exchanging information on the position and position accuracy of moving objects from images taken by a plurality of cameras, and integrating the information when they are the same moving object. . Patent Document 5 discloses a technique for recording trajectory information of a user who has a card or the like.

特開2000−200357号公報JP 2000-200377 A 特開2004−072628号公報JP 2004-072628 A 特開2006−086591号公報JP 2006-086591 A 特開2006−245795号公報Japanese Patent Laid-Open No. 2006-245795 特開平11−027751号公報Japanese Patent Laid-Open No. 11-027751

人物の映像が監視カメラに撮影されていても、該監視カメラの設置場所やアングルなどのような条件によっては、該人物の特定が困難である場合がある。顔認識の技術によって人物を特定できるレベルの顔の映像を抽出することは可能ではあるが、抽出できるのは対象人物がカメラの正面に顔を向けている場合だけである。対象人物が、その他の方向に顔を向けている場合には、映像を抽出することはできない。   Even if a video of a person is captured by the surveillance camera, it may be difficult to identify the person depending on conditions such as the installation location and angle of the surveillance camera. Although it is possible to extract an image of a face at a level that can identify a person using face recognition technology, it can be extracted only when the target person faces the front of the camera. When the target person faces in the other direction, the video cannot be extracted.

人物の特定をしやすくするには、監視カメラの設置台数を増やし、対象となる人物が可能な限り長い時間、多くの角度から撮影されているようにすることが望ましい。しかしながら、設置されているカメラの数が多いほど、撮影されて記録されている映像は膨大なものになる。そこから人物を特定できるレベルの顔の映像を探し出すためには、それらの映像を人間が全部見る必要があるので、膨大な労力を要する。   To make it easier to identify a person, it is desirable to increase the number of surveillance cameras installed so that the target person is photographed from many angles for as long as possible. However, the larger the number of cameras installed, the larger the number of images that are shot and recorded. In order to find a video of a face that can identify a person from there, it is necessary for a human to view all of those videos, which requires enormous effort.

さらに、設置されているカメラの数が多いほど、コストがかかり、大量の映像データを常時伝送し続けることによってネットワークに負荷がかかるという問題がある。ちなみに特許文献1〜5では、カメラに撮影された映像から人物の動きを検出し追尾することはできるが、そこから人物を特定するものではない。   In addition, the more cameras are installed, the higher the cost, and there is a problem that a large amount of video data is constantly transmitted and a load is imposed on the network. Incidentally, in Patent Documents 1 to 5, although it is possible to detect and track a person's movement from an image taken by a camera, the person is not specified therefrom.

本発明の目的は、現実的に可能な設置台数のカメラで、人物の特定が難しい多量の映像の中から人物を特定できるレベルの顔の映像を容易に抽出できる人物特定システム、人物特定装置、人物特定方法および人物特定プログラムを提供することにある。   An object of the present invention is to provide a person identification system, a person identification device, and a person identification device that can easily extract a face image at a level that can identify a person from among a large amount of images in which it is difficult to identify a person with a practically possible number of cameras. The object is to provide a person identification method and a person identification program.

上記目的を達成するため、本発明に係る人物特定システムは、複数のカメラと、各カメラにより撮影された映像データを受信するセンター処理装置とを備えた人物特定システムであって、センター処理装置が、カメラから受信した映像データを蓄積する映像蓄積部と、蓄積された映像データを地図上での座標データと関連づける地図処理部と、蓄積された映像データと地図上での座標データとから、複数のカメラの撮影領域が重複する部分の映像上の移動体を同一の移動体として認識すると共に、当該移動体の軌跡を検出する移動軌跡検出エンジンと、軌跡上の移動体の映像の中から人物を特定できるレベルの人間の顔の映った映像を検出し、この顔が予め登録された特定の人物の顔であるか否かを判定する顔検出エンジンとを有することを特徴とする。 In order to achieve the above object, a person identification system according to the present invention is a person identification system including a plurality of cameras and a center processing device that receives video data captured by each camera. A video storage unit for storing video data received from a camera, a map processing unit for associating the stored video data with coordinate data on a map, and a plurality of video data and coordinate data on the map. The moving object on the image where the shooting area of the camera overlaps is recognized as the same moving object, and the moving locus detection engine for detecting the locus of the moving object, and the person from the moving object image on the locus detecting an image that reflected the face of the level of human identifiable, in that it has a face detection engine to determine whether the face is a face of a specific person previously registered And butterflies.

上記目的を達成するため、本発明に係る人物特定装置は、複数のカメラによって撮影された映像データを受信する人物特定装置であって、カメラから受信した映像データを蓄積する映像蓄積部と、蓄積された映像データを地図上での座標データと関連づける地図処理部と、蓄積された映像データと地図上での座標データとから、複数のカメラの撮影領域が重複する部分の映像上の移動体を同一の移動体として認識すると共に、当該移動体の軌跡を検出する移動軌跡検出エンジンと、軌跡上の移動体の映像の中から人物を特定できるレベルの人間の顔の映った映像を検出し、この顔が予め登録された特定の人物の顔であるか否かを判定する顔検出エンジンとを有することを特徴とする。 In order to achieve the above object, a person identification device according to the present invention is a person identification device that receives video data captured by a plurality of cameras, a video storage unit that stores video data received from the cameras, and a storage A moving body on the image of the portion where the imaging areas of the plurality of cameras overlap from the map processing unit for associating the captured image data with the coordinate data on the map, and the accumulated image data and the coordinate data on the map While recognizing as the same moving object, a moving locus detection engine for detecting the locus of the moving object, and detecting an image of a human face at a level that can identify a person from the moving object image on the locus , the face and having a face detection engine to determine whether the face of a specific person previously registered.

上記目的を達成するため、本発明に係る人物特定方法は、複数のカメラとカメラにより撮影された映像データを受信するセンター処理装置とからなるカメラネットワークによって撮影された人物を特定する方法であって、カメラから受信した映像データを蓄積する映像蓄積工程と、蓄積された映像データを地図上での座標データと関連づける地図処理工程と、蓄積された映像データと地図上での座標データとから、複数のカメラの撮影領域が重複する部分の映像上の移動体を同一の移動体として認識すると共に、当該移動体の軌跡を検出する移動軌跡検出工程と、軌跡上の移動体の映像の中から人物を特定できるレベルの人間の顔の映った映像を検出し、この顔が予め登録された特定の人物の顔であるか否かを判定する顔検出工程とを有することを特徴とする。 In order to achieve the above object, a person identifying method according to the present invention is a method for identifying a person photographed by a camera network comprising a plurality of cameras and a center processing device that receives video data photographed by the cameras. A video storage process for storing video data received from a camera, a map processing process for associating the stored video data with coordinate data on a map, and a plurality of stored video data and coordinate data on the map. The moving object on the image where the shooting area of the camera overlaps is recognized as the same moving object, and the moving locus detecting step for detecting the locus of the moving object, and the person from the moving object image on the locus detecting an image that reflected the face of the level of human identifiable, and a face detection process to determine whether the face is a face of a specific person previously registered And wherein the door.

上記目的を達成するため、本発明に係る人物特定プログラムは、複数のカメラとカメラにより撮影された映像データを受信するセンター処理装置とからなるカメラネットワークによって撮影された人物を特定するプログラムであって、センター処理装置を構成するコンピュータに、カメラから受信した映像データを蓄積する処理と、蓄積された映像データを地図上での座標データと関連づける処理と、蓄積された映像データと地図上での座標データとから、複数のカメラの撮影領域が重複する部分の映像上の移動体を同一の移動体として認識すると共に、当該移動体の軌跡を検出する処理と、軌跡上の移動体の映像の中から人物を特定できるレベルの人間の顔の映った映像を検出し、この顔が予め登録された特定の人物の顔であるか否かを判定する処理とを実行させることを特徴とする。 In order to achieve the above object, a person identification program according to the present invention is a program for identifying a person photographed by a camera network comprising a plurality of cameras and a center processing device that receives video data photographed by the cameras. , Processing for storing video data received from the camera in a computer constituting the center processing apparatus, processing for associating the stored video data with coordinate data on the map, and stored video data and coordinates on the map From the data, the moving body on the image where the shooting areas of the plurality of cameras overlap is recognized as the same moving body, and the process of detecting the locus of the moving body and the moving object on the locus detecting an image that reflected the face of the level of human identifiable person from, determine whether the face is a face of a specific person previously registered Characterized in that for the process and to be executed.

本発明は、上記したようにカメラから受信した映像データから検出された軌跡の中から人物を特定できるレベルの人間の顔を検出するように構成したので、膨大な量の映像を人間が全部見る必要はない。これによって、現実的に可能な設置台数のカメラで、人物の特定が難しい多量の映像の中から人物を特定できるレベルの顔の映像を容易に抽出できるという、従来にない優れた人物特定システム、人物特定装置、人物特定方法および人物特定プログラムを提供することができる。   Since the present invention is configured to detect a human face at a level that can identify a person from the trajectory detected from the video data received from the camera as described above, a human views all of a huge amount of video. There is no need. This makes it possible to easily extract a face image of a level that can identify a person from a large amount of images where it is difficult to identify a person with a camera that can be installed in a realistic manner. A person identification device, a person identification method, and a person identification program can be provided.

図1は、本発明の実施の形態に係るカメラネットワーク1の構成を示すブロック図である。カメラネットワーク1は、スタンドアローン型カメラ100(以後カメラ100という)と専用端末200とセンター処理装置300が相互に接続されることによって構成される。図1には、紙面の都合で2台のみのカメラ100を記載しているが、実際にはさらに多くの台数が存在することが可能である。   FIG. 1 is a block diagram showing a configuration of a camera network 1 according to an embodiment of the present invention. The camera network 1 is configured by connecting a stand-alone camera 100 (hereinafter referred to as camera 100), a dedicated terminal 200, and a center processing device 300 to each other. Although only two cameras 100 are shown in FIG. 1 due to space limitations, in reality, a larger number of cameras can exist.

カメラ100は、カメラ100相互間、および専用端末200との間で近距離無線通信を行う。ここでいう近距離無線通信は、IEEE802.11シリーズ、Bluetooth(登録商標)、ワイヤレスUSBなどの公知の通信方法が適用できる。専用端末200とセンター処理装置300との間の接続は、たとえばイーサネット(登録商標)などのような有線ネットワークによる接続、または前述のような近距離無線通信による接続である。   The cameras 100 perform short-range wireless communication between the cameras 100 and with the dedicated terminal 200. As the short-range wireless communication here, a known communication method such as IEEE 802.11 series, Bluetooth (registered trademark), or wireless USB can be applied. The connection between the dedicated terminal 200 and the center processing apparatus 300 is a connection by a wired network such as Ethernet (registered trademark) or a connection by short-range wireless communication as described above.

図2は、図1で示したカメラ100の構成を示すブロック図である。カメラ100は、他から電力の供給を受ける必要はなく、自律的に撮影およびそれに付随する動作を行うことのできるカメラであるという意味で、スタンドアローン型と称している。ネットワークに接続しないという意味でのスタンドアローンではない。   FIG. 2 is a block diagram showing the configuration of the camera 100 shown in FIG. The camera 100 is referred to as a stand-alone type in the sense that it does not need to be supplied with electric power from another, and can autonomously shoot and perform operations associated therewith. It is not standalone in the sense that it does not connect to the network.

カメラ100は、監視対象地域に多数配置されている。その際、あるカメラ100の撮影領域と、他のカメラ100の撮影領域との間に、必ず重複する領域が存在するように配置する。   Many cameras 100 are arranged in the monitoring target area. At this time, the camera 100 and the other camera 100 are arranged so that an overlapping area always exists between the shooting area of one camera 100 and the shooting area of another camera 100.

カメラ100は、発電機構部101、映像撮影部102、映像蓄積部103、無線送信部104、無線受信部105、端末認証部106とを備える。   The camera 100 includes a power generation mechanism unit 101, a video shooting unit 102, a video storage unit 103, a wireless transmission unit 104, a wireless reception unit 105, and a terminal authentication unit 106.

発電機構部101は、カメラ100が動作するための電力を発生する機構である。発電方式としてたとえば、太陽光発電、蛍光灯発電、風力発電などを利用することができる。発電機構部101を備えることによって、カメラ100は電力の供給を他から受ける必要がないので、設置場所に対する制約が少なくなるメリットがある。逆に、他から容易に電力を供給できる設置場所であれば、カメラ100は発電機構部101を備えず、他から電力の供給を受けて動作するものとしてもよい。   The power generation mechanism unit 101 is a mechanism that generates power for operating the camera 100. As a power generation method, for example, solar power generation, fluorescent lamp power generation, wind power generation, or the like can be used. By providing the power generation mechanism 101, the camera 100 does not need to receive power supply from others, and there is an advantage that restrictions on the installation location are reduced. On the other hand, the camera 100 may not be provided with the power generation mechanism 101 if it is an installation location where power can be easily supplied from other sources, and may operate by receiving power supplied from others.

映像撮影部102は、レンズやシャッターなどの光学部品と、画像を電子信号に変換するCCD素子などから構成される、映像を撮影して映像データに変換する機構である。映像蓄積部103は、映像撮影部102により撮影された映像を映像データとして保存する機構であり、主にフラッシュメモリやハードディスクなどの記憶装置によって構成される。   The video photographing unit 102 is a mechanism for photographing a video and converting it into video data, which includes optical components such as a lens and a shutter, and a CCD element that converts an image into an electronic signal. The video storage unit 103 is a mechanism for storing the video shot by the video shooting unit 102 as video data, and is mainly configured by a storage device such as a flash memory or a hard disk.

無線送信部104は、無線モジュールと、該無線モジュールを駆動するソフトウェアなどで構成される、無線通信により外部にデータを送信する機構である。カメラ100が通常動作状態である時には、無線送信部104は後述の端末認証部106から送られてくる固有ID情報107を、近傍にある他のカメラ100に送信する。   The wireless transmission unit 104 is a mechanism configured to transmit data to the outside by wireless communication, which includes a wireless module and software that drives the wireless module. When the camera 100 is in a normal operation state, the wireless transmission unit 104 transmits unique ID information 107 transmitted from a terminal authentication unit 106 described later to another camera 100 in the vicinity.

また、専用端末200による指示があった場合には、無線送信部104は映像蓄積部103に蓄積された映像データを、後述の固有ID情報107によって暗号化してから専用端末200に送信する。なお、映像データを専用端末200に送信し終わったら、映像蓄積部103に蓄積されていた映像データは消去される。   When there is an instruction from the dedicated terminal 200, the wireless transmission unit 104 encrypts the video data stored in the video storage unit 103 with the unique ID information 107 described later and transmits the encrypted video data to the dedicated terminal 200. When the video data has been transmitted to the dedicated terminal 200, the video data stored in the video storage unit 103 is deleted.

無線受信部105は、無線モジュールと、該無線モジュールを駆動するソフトウェアなどで構成される、無線通信により外部からデータを受信する機構である。無線受信部105を構成する無線モジュールおよびソフトウェアは、無線送信部104におけるそれらと同一であることが普通であるが、ここでは説明上の便宜から、図2において無線送信部104と無線受信部105とを別々のものとして記載している。   The wireless reception unit 105 is a mechanism configured to receive data from the outside through wireless communication, which includes a wireless module and software that drives the wireless module. The wireless module and software constituting the wireless reception unit 105 are usually the same as those in the wireless transmission unit 104, but here, for convenience of explanation, the wireless transmission unit 104 and the wireless reception unit 105 in FIG. Are described separately.

カメラ100が通常動作状態である時には、無線受信部105は近傍にある他のカメラ100から送られてくる固有ID情報107を受信する。また、専用端末200による指示情報を、固有ID情報107によって復号化してから受信する。いずれの場合も、無線受信部105は受信したデータを後述の端末認証部106に送信する。   When the camera 100 is in a normal operation state, the wireless reception unit 105 receives unique ID information 107 sent from another camera 100 in the vicinity. In addition, the instruction information from the dedicated terminal 200 is received after being decoded by the unique ID information 107. In any case, the wireless reception unit 105 transmits the received data to the terminal authentication unit 106 described later.

端末認証部106は、以上で説明したカメラ100の各部分の動作を制御するプロセッサと、該プロセッサで動作するソフトウェアなどで構成される。端末認証部106には、固有ID情報107と、一定の周期で割り込み信号を発行するタイマ108と、近傍に存在するカメラ100の一覧であるIDリスト109が付属する。   The terminal authentication unit 106 includes a processor that controls the operation of each part of the camera 100 described above, software that operates on the processor, and the like. The terminal authentication unit 106 is attached with unique ID information 107, a timer 108 that issues an interrupt signal at a constant period, and an ID list 109 that is a list of cameras 100 that are present in the vicinity.

端末認証部106は、近傍に存在するカメラ100から固有ID情報107が送られてきたら、該固有ID情報107とその受信時刻をIDリスト109に記録する。新規に設置されたカメラ100は、既存のカメラ100に自らの固有ID情報107を送信することにより、いつでも既存のカメラ100上のIDリスト109に加わってカメラネットワーク1に参加することが可能である。   When the unique ID information 107 is sent from the nearby camera 100, the terminal authenticating unit 106 records the unique ID information 107 and its reception time in the ID list 109. A newly installed camera 100 can participate in the camera network 1 at any time by adding its own unique ID information 107 to the existing camera 100 and adding to the ID list 109 on the existing camera 100. .

また端末認証部106は、タイマ108が割り込み信号を発行する1周期ごとに、固有ID情報107を無線送信部104に送る。そして、タイマ108の1周期ごとに、IDリスト109に載っているカメラの中でタイマ108の1周期以内に固有ID情報107を受信していないものがあるか否かをチェックし、受信していないものがある場合にエラー情報を生成して無線送信部104に送る。   In addition, the terminal authentication unit 106 sends the unique ID information 107 to the wireless transmission unit 104 every cycle when the timer 108 issues an interrupt signal. Then, for each cycle of the timer 108, it is checked whether there is any camera on the ID list 109 that has not received the unique ID information 107 within one cycle of the timer 108. If there is nothing, error information is generated and sent to the wireless transmission unit 104.

無線受信部105が専用端末200による指示情報を受信した場合、該指示情報を復号化することによって認証し、正規の専用端末200からの指示情報である場合に、映像蓄積部103に蓄積された映像データを無線送信部104に送るよう端末認証部106に指示する。正規の専用端末200からの指示情報ではない場合には、該指示情報は破棄される。   When the wireless reception unit 105 receives instruction information from the dedicated terminal 200, the wireless reception unit 105 authenticates by decoding the instruction information. When the wireless reception unit 105 receives instruction information from the authorized dedicated terminal 200, the wireless reception unit 105 stores the instruction information stored in the video storage unit 103. The terminal authentication unit 106 is instructed to send the video data to the wireless transmission unit 104. If the instruction information is not from the regular dedicated terminal 200, the instruction information is discarded.

固有ID情報107は、個々のカメラ100の間で重複しない識別子である。固有ID情報107は、タイマ108が割り込み信号を発行する周期ごとに、近傍にあるカメラ100に送信される。また固有ID情報107は、映像蓄積部103に蓄積された映像データを専用端末200に送信する際に、専用端末200との間で交換するデータの暗号化および復号化にも使用される。   The unique ID information 107 is an identifier that does not overlap among the individual cameras 100. The unique ID information 107 is transmitted to the camera 100 in the vicinity every time the timer 108 issues an interrupt signal. The unique ID information 107 is also used for encryption and decryption of data exchanged with the dedicated terminal 200 when the video data stored in the video storage unit 103 is transmitted to the dedicated terminal 200.

タイマ108は、前述の割り込み信号を端末認証部106に発行すると同時に、全てのカメラ100の間で同期した時刻を保持する。時刻の同期は、たとえばGPS衛星もしくはNTPサーバなどから時刻データを取得することによって可能である。固有ID情報107、およびタイマ108によって保持される時刻は、映像撮影部102により撮影された映像と共に映像蓄積部103に蓄積される。   The timer 108 issues the interrupt signal described above to the terminal authentication unit 106, and at the same time holds the time synchronized among all the cameras 100. Time synchronization is possible by acquiring time data from a GPS satellite or an NTP server, for example. The unique ID information 107 and the time held by the timer 108 are stored in the video storage unit 103 together with the video shot by the video shooting unit 102.

なお、無線送信部104および無線受信部105によって無線ネットワークの通信を行う理由も、前述の発電機構部101と同じように、カメラ100の設置場所に対する制約を少なくするためである。カメラ100を有線ネットワークによってセンター処理装置300に接続できる場所に設置する場合は、無線送信部104および無線受信部105を、それぞれ有線ネットワーク通信による送信部および無線受信部に置き換えてもよい。   Note that the reason why wireless communication is performed by the wireless transmission unit 104 and the wireless reception unit 105 is to reduce restrictions on the installation location of the camera 100 as in the power generation mechanism unit 101 described above. When the camera 100 is installed in a place where the camera 100 can be connected to the center processing apparatus 300 via a wired network, the wireless transmission unit 104 and the wireless reception unit 105 may be replaced with a transmission unit and a wireless reception unit that use wired network communication, respectively.

図1に戻って、専用端末200は、カメラ100との間で近距離無線通信を行い、また専用端末200とセンター処理装置300との間で有線ネットワークもしくは近距離無線通信による接続で通信を行う。カメラ100から受信したデータはそのままセンター処理装置300に送られ、逆にセンター処理装置300から送信されたデータはそのまま各々のカメラ100に送られる。専用端末200は、複数のカメラ100と同時に接続可能である。また、専用端末200が複数存在してもよい。   Returning to FIG. 1, the dedicated terminal 200 performs short-range wireless communication with the camera 100, and performs communication between the dedicated terminal 200 and the center processing device 300 through a wired network or short-range wireless communication connection. . Data received from the camera 100 is sent to the center processing device 300 as it is, and conversely, data transmitted from the center processing device 300 is sent to each camera 100 as it is. The dedicated terminal 200 can be connected simultaneously with the plurality of cameras 100. A plurality of dedicated terminals 200 may exist.

カメラ100の近距離無線通信には、電波の到達距離に制約がある。そこで、複数のカメラ100とセンター処理装置300とが直接通信する際の電波の到達距離よりも、広い範囲をカメラネットワーク1が監視できるようにするために、専用端末200を介してカメラ100とセンター処理装置300とが通信するようにしている。もし、近距離無線通信の電波の到達距離よりも狭い範囲を監視対象範囲とするのであれば、複数のカメラ100とセンター処理装置300とが直接通信するようにしてもよい。   The short-range wireless communication of the camera 100 has restrictions on the reach of radio waves. Therefore, in order to enable the camera network 1 to monitor a wider range than the reach of radio waves when the plurality of cameras 100 and the center processing device 300 communicate directly, the camera 100 and the center are connected via the dedicated terminal 200. The processing device 300 communicates. If a range narrower than the reach of short-range wireless communication radio waves is set as the monitoring target range, the plurality of cameras 100 and the center processing apparatus 300 may directly communicate with each other.

センター処理装置300は、サーバもしくはパーソナルコンピュータなどで構成されるコンピュータ装置であり、物理的に1台のコンピュータであってもよく、相互に接続された複数のコンピュータであってもよい。センター処理装置300は、映像蓄積部301、映像再生部302、地図処理部303、顔検出エンジン304、移動軌跡検出エンジン305、制御部306、および暗号化/復号化部308を備える。制御部306は、CPUおよびメモリおよびOSによって構成される、ソフトウェアを実行する機能である。制御部306には、一定の周期で割り込み信号を発行するタイマ307が付属する。   The center processing device 300 is a computer device configured by a server or a personal computer, and may be physically one computer or a plurality of computers connected to each other. The center processing device 300 includes a video storage unit 301, a video playback unit 302, a map processing unit 303, a face detection engine 304, a movement locus detection engine 305, a control unit 306, and an encryption / decryption unit 308. The control unit 306 is a function that executes software, which includes a CPU, a memory, and an OS. The control unit 306 is attached with a timer 307 that issues an interrupt signal at a constant cycle.

映像蓄積部301は、各々のカメラ100から回収した映像を保存する機構であり、主にハードディスクなどの大容量記憶装置によって構成される。映像再生部302は、映像蓄積部301に保存されている映像を再生する機構であり、ディスプレイおよび該ディスプレイを駆動するハードウェアとソフトウェアから構成される。   The video storage unit 301 is a mechanism for storing video collected from each camera 100, and is mainly configured by a large-capacity storage device such as a hard disk. The video playback unit 302 is a mechanism for playing back video stored in the video storage unit 301, and includes a display, hardware for driving the display, and software.

地図処理部303は、制御部306で実行される機能であり、各々のカメラ100から送られた固有ID情報107を地図上の位置情報へ変換して、当該カメラの映像を地図上の一意の場所へ位置づける。地図処理部303は、固有ID情報107と各々の地図上での座標とを関連づける座標テーブル311を保持する。   The map processing unit 303 is a function executed by the control unit 306, converts the unique ID information 107 sent from each camera 100 into position information on the map, and converts the video of the camera to a unique map on the map. Position to the place. The map processing unit 303 holds a coordinate table 311 that associates the unique ID information 107 with the coordinates on each map.

顔検出エンジン304は、制御部306で実行される機能であり、映像蓄積部301に保存されている映像の中から、人間の顔を検出する。また、顔検出エンジン304にあらかじめ複数の人物の顔を登録しておいて、検出された顔が登録された人物の顔と一致する場合、その人物についての情報をユーザに提示することも可能である。   The face detection engine 304 is a function executed by the control unit 306 and detects a human face from the video stored in the video storage unit 301. It is also possible to register a plurality of human faces in the face detection engine 304 in advance, and when the detected faces match the registered human faces, information about the persons can be presented to the user. is there.

移動軌跡検出エンジン305は、制御部306で実行される機能であり、複数のカメラ100の映像における撮影領域が重複する部分に映った移動体を同一の移動体として認識して、移動軌跡を同一の移動体として追跡する。なお、顔検出エンジン304が人間の顔を検出する際に使用する処理、および移動軌跡検出エンジン305が移動体の軌跡を検出する処理は、既に前述の各特許文献などによって公知のものであるので、詳しく言及しない。   The movement trajectory detection engine 305 is a function executed by the control unit 306, and recognizes a moving body reflected in a portion where the imaging areas of the images of the plurality of cameras 100 overlap as the same moving body, and the same movement trajectory. Track as a moving object. Note that the processing used when the face detection engine 304 detects a human face and the processing used by the movement trajectory detection engine 305 to detect the trajectory of a moving object are already known from the above-mentioned patent documents. I will not mention it in detail.

暗号化/復号化部308は、カメラ100に送信する指示情報を、送信先となる各々のカメラ100の固有ID情報107によって暗号化する。また、カメラ100から送られる映像データを、送信元となる各々のカメラ100の固有ID情報107によって復号化する。センター処理装置300が送信する指示情報、および受信する映像データは、すべて暗号化/復号化部308を通って暗号化/復号化される。   The encryption / decryption unit 308 encrypts the instruction information to be transmitted to the camera 100 with the unique ID information 107 of each camera 100 that is a transmission destination. Also, the video data sent from the camera 100 is decoded by the unique ID information 107 of each camera 100 that is the transmission source. The instruction information transmitted by the center processing apparatus 300 and the received video data are all encrypted / decrypted through the encryption / decryption unit 308.

図3は、図1および図2で示されたカメラ100において実行される処理を書き表すフローチャートである。処理を開始すると、端末認証部106はタイマ108からの割り込み信号を待つ状態となる(ステップS401)。割り込み信号があると、後述のステップS406以後の処理に進む。割り込み信号がない場合、端末認証部106は近傍にある他のカメラ100から固有ID情報107が送られたか否かをチェックし(ステップS402)、送られていればIDリスト109に固有ID情報107を記憶して(ステップS403)、映像蓄積部103に蓄積されていた映像データを消去し、ステップS404に進む。送られていなければそのままステップS404に進む。   FIG. 3 is a flowchart showing processing executed in the camera 100 shown in FIGS. 1 and 2. When the process is started, the terminal authentication unit 106 waits for an interrupt signal from the timer 108 (step S401). If there is an interrupt signal, the process proceeds to step S406 and later. If there is no interrupt signal, the terminal authentication unit 106 checks whether or not the unique ID information 107 is sent from another camera 100 in the vicinity (step S402). If it is sent, the unique ID information 107 is added to the ID list 109. (Step S403), the video data stored in the video storage unit 103 is deleted, and the process proceeds to step S404. If not, the process proceeds to step S404 as it is.

続いて端末認証部106は、無線受信部105を介して、専用端末200からの指示情報を受信したか否かをチェックし(ステップS404)、受信していれば、映像蓄積部103に蓄積された映像データを専用端末200に送信するよう、無線送信部104に指示し(ステップS405)、ステップS401に戻る。指示情報を受信していなければそのままステップS401に戻る。   Subsequently, the terminal authentication unit 106 checks whether or not the instruction information from the dedicated terminal 200 has been received via the wireless reception unit 105 (step S404), and if received, the terminal authentication unit 106 stores it in the video storage unit 103. The wireless transmission unit 104 is instructed to transmit the recorded video data to the dedicated terminal 200 (step S405), and the process returns to step S401. If the instruction information has not been received, the process directly returns to step S401.

ステップS401で割り込み信号があった場合、端末認証部106は近傍にある他のカメラ100に固有ID情報107を送信し(ステップS406)、IDリスト109に記憶されている他のカメラ100からの固有ID情報107をチェックする(ステップS407)。IDリスト109にあるカメラ100すべてについて、タイマ108の1周期以内に固有ID情報107の受信記録が残っていれば、異常なしと判断し、ステップS401に戻る。   If there is an interrupt signal in step S401, the terminal authentication unit 106 transmits the unique ID information 107 to the other camera 100 in the vicinity (step S406), and the unique authentication information from the other camera 100 stored in the ID list 109 is obtained. The ID information 107 is checked (step S407). If all the cameras 100 in the ID list 109 have received and recorded the unique ID information 107 within one cycle of the timer 108, it is determined that there is no abnormality, and the process returns to step S401.

ステップS407で、固有ID情報107の受信記録が残っていないカメラ100が一つでもあるなら、異常が発生したと判断し、カメラネットワーク1に属するすべてのカメラ100と専用端末200に対してアラートを送信し(ステップS408)、処理を終了する。これによって、故障や破壊行為などによって発生した異常を検出することが可能となっている。   In step S407, if there is even one camera 100 for which the reception record of the unique ID information 107 does not remain, it is determined that an abnormality has occurred, and an alert is issued to all the cameras 100 and the dedicated terminal 200 belonging to the camera network 1. Transmit (step S408), and the process ends. As a result, it is possible to detect an anomaly that has occurred due to a failure or vandalism.

図4は、図1で示されたセンター処理装置300において実行される処理を書き表すフローチャートである。処理を開始すると、制御部306はタイマ307からの割り込み信号を待つ状態となる(ステップS501)。割り込み信号があると、制御部306はカメラネットワーク1に属するすべてのカメラ100に、撮影された映像を送信させる指示情報を送信する(ステップS502)。   FIG. 4 is a flowchart showing the process executed in the center processing apparatus 300 shown in FIG. When the process is started, the control unit 306 waits for an interrupt signal from the timer 307 (step S501). When there is an interrupt signal, the control unit 306 transmits instruction information for transmitting the captured video to all the cameras 100 belonging to the camera network 1 (step S502).

該指示情報を受けたカメラ100は、固有ID情報107と、タイマ108によって保持された時刻と共に、映像データをセンター処理装置300に送信する。制御部306は、固有ID情報107および時刻情報と共に、受信した映像データを映像蓄積部301に記録して(ステップS503)ステップS504に進む。その際、地図処理部303によって座標テーブル311を更新し、カメラ100の固有ID情報107と地図上の座標とを関連づける。割り込み信号がなければ、そのままステップS504に進む。   Upon receiving the instruction information, the camera 100 transmits the video data to the center processing device 300 together with the unique ID information 107 and the time held by the timer 108. The control unit 306 records the received video data together with the unique ID information 107 and the time information in the video storage unit 301 (step S503), and proceeds to step S504. At that time, the map processing unit 303 updates the coordinate table 311 to associate the unique ID information 107 of the camera 100 with the coordinates on the map. If there is no interrupt signal, the process proceeds to step S504.

なお、タイマ307の周期は、カメラ100にあるタイマ108の周期とは、特に関係ない。カメラ100の映像蓄積部103の容量に応じて、該映像蓄積部103が満杯になる前に映像データを回収して記録できる周期であればよい。   Note that the period of the timer 307 is not particularly related to the period of the timer 108 in the camera 100. Depending on the capacity of the video storage unit 103 of the camera 100, any period may be used as long as video data can be collected and recorded before the video storage unit 103 becomes full.

また、各々のカメラ100との通信は、各々の固有ID情報107に基づいて暗号化されている。そのため、カメラ100とセンター処理装置300との間の通信が他の装置に傍受されていたとしても、センター処理装置300以外の装置がカメラ100に映像データを送信させたり、またセンター処理装置300に送信された映像データを再生したりすることはできない。なお、暗号化の方法は公知の方法が適用でき、また暗号化の鍵として固有ID情報107以外のデータを適用することもできる。   The communication with each camera 100 is encrypted based on each unique ID information 107. Therefore, even if communication between the camera 100 and the center processing device 300 is intercepted by another device, a device other than the center processing device 300 causes the camera 100 to transmit video data, or the center processing device 300 The transmitted video data cannot be played back. Note that a publicly known method can be applied as an encryption method, and data other than the unique ID information 107 can be applied as an encryption key.

ステップS501でタイマ307からの割り込み信号がない場合、制御部306は、ユーザからの操作を待つ状態となる(ステップS504)。ユーザは、センター処理装置300を操作して、カメラネットワーク1の監視対象地域および時間において、任意の地点および時点の映像を映像再生部302によって再生することができる。   If there is no interrupt signal from the timer 307 in step S501, the control unit 306 waits for an operation from the user (step S504). The user can operate the center processing device 300 to play back video at an arbitrary point and time in the monitoring target area and time of the camera network 1 using the video playback unit 302.

センター処理装置300では、座標テーブル311によって、カメラ100の固有ID情報107と地図上の座標が関連づけられている。また、各々のカメラ100からの映像は時刻情報が同期されているため、ある特定の時刻における映像を複数のカメラ100において同期させて再生することが可能となる。なお、これらの再生については、図4には特に記載されていない。   In the center processing device 300, the coordinate table 311 associates the unique ID information 107 of the camera 100 with the coordinates on the map. In addition, since the time information of the videos from the respective cameras 100 is synchronized, the videos at a specific time can be reproduced in synchronization with the plurality of cameras 100. These reproductions are not particularly described in FIG.

そのため、センター処理装置300を操作するユーザは、ある特定の時間および地点にいた人物が、複数のカメラ100においてどのように撮影されているかを見ることができる。同時に、複数のカメラ100を同期させて、巻き戻し、早送り、スローモーションやコマ送りなどの再生操作を行うことによって、ある特定の時間および地点にいた人物の移動を複数のカメラの映像によって追跡することが可能となる。   Therefore, the user who operates the center processing apparatus 300 can see how a person at a specific time and point is captured by the plurality of cameras 100. At the same time, by synchronizing the plurality of cameras 100 and performing playback operations such as rewind, fast forward, slow motion and frame advance, the movement of a person at a specific time and point is tracked by the images of the plurality of cameras. It becomes possible.

図5は、図1で示されたカメラネットワーク1における人物の移動軌跡の検出と人物の特定を示す概念図である。監視対象地域に設置されている複数のカメラ100が撮影した映像を、ユーザはセンター処理装置300を操作して見ている。今、ユーザは特定のカメラ100bによって撮影された人物像701に注目した。   FIG. 5 is a conceptual diagram showing detection of a person's movement locus and identification of a person in the camera network 1 shown in FIG. A user operates the center processing device 300 to watch videos taken by a plurality of cameras 100 installed in the monitoring target area. Now, the user pays attention to the person image 701 photographed by the specific camera 100b.

しかしながら、特定の時間および地点における人物像701だけでは、顔や体型、服装などの情報が不十分であるため、ユーザはその人物を特定できない。しかも、多数のカメラ100によって撮影されたすべての映像を、ユーザが全部見ることは困難である。そこでユーザは、対象となる人物として人物像701を指定し、センター処理装置300に人物を特定させる人物特定コマンドを発行する。   However, since the information such as the face, the body shape, and the clothes is insufficient with only the person image 701 at a specific time and point, the user cannot specify the person. In addition, it is difficult for the user to view all the images taken by the large number of cameras 100. Therefore, the user designates the person image 701 as a target person and issues a person specifying command for causing the center processing apparatus 300 to specify a person.

人物特定コマンドを受けた制御部306は、移動軌跡検出エンジン305によって、座標テーブル311を利用して複数のカメラ100に映った映像を結びつけ、人物像701に該当する人物の移動軌跡702を検出し、人物を特定するために必要な映像を抽出する(ステップS505)。   Upon receiving the person specifying command, the control unit 306 uses the movement trajectory detection engine 305 to link the images captured by the plurality of cameras 100 using the coordinate table 311 and detect the movement trajectory 702 of the person corresponding to the person image 701. The video necessary for specifying the person is extracted (step S505).

ステップS505で特定された移動軌跡702に該当する(当該人物が映っている)映像の中から、顔検出エンジン304が、人物を特定できるレベルの顔の映った映像が存在するか否かを検出し(ステップS506)、存在すればその顔が映る画像として、特定のカメラ100cが撮影した人物像701bを検出し、表示する(ステップS507)。   From the video corresponding to the movement locus 702 specified in step S505 (the person is shown), the face detection engine 304 detects whether or not there is a video showing a face that can specify the person. If it exists, the person image 701b photographed by the specific camera 100c is detected and displayed as an image showing the face (step S507).

さらに、検出された人物像701bに映る顔が、顔検出エンジン304に登録されている特定の人物の顔である場合、その人物についての情報をユーザに提示して(ステップS508〜509)、ステップS501に戻る。たとえば指名手配犯や行方不明者などの顔を顔検出エンジン304に登録しておけば、その人物を検出し、移動軌跡702が記録されるので、捜査において極めて有用な情報となる。   Furthermore, when the face shown in the detected person image 701b is a face of a specific person registered in the face detection engine 304, information about the person is presented to the user (steps S508 to 509), and step Return to S501. For example, if faces such as wanted criminals and missing persons are registered in the face detection engine 304, the person is detected and the movement trajectory 702 is recorded, which is extremely useful information in the investigation.

ステップS506で人物を特定できるレベルの顔の映像が存在しなかった場合、およびステップS508で登録されている人物の顔でなかった場合は、いずれもステップS501に戻る。   If there is no face image at a level that can identify a person in step S506, or if it is not a registered person face in step S508, the process returns to step S501.

なお、ステップS506〜507で、移動軌跡702から人物を特定できる人物像701bが検出された時点で、移動軌跡検出エンジン305および顔検出エンジン304による処理を終了してもよい。またそれらによる処理を継続して、同一の対象人物に対して複数の人物像を検出するようにしてもよい。   Note that the processing by the movement trajectory detection engine 305 and the face detection engine 304 may be terminated when a person image 701b that can identify a person is detected from the movement trajectory 702 in steps S506 to S507. Moreover, you may make it continue the process by them and detect a several person image with respect to the same object person.

これにより、多数のカメラ100によって撮影されたすべての映像を見なくても、人物を特定できるレベルの人物像を検出することができるので、カメラネットワーク1の監視対象地域で犯罪が発生した場合などで人物の特定が容易になる。さらに、人物の移動軌跡を検出して記録できるので、指名手配犯や行方不明者などの捜査にも有用である。   This makes it possible to detect a person image at a level that can identify a person without viewing all the images taken by a large number of cameras 100. For example, when a crime occurs in a monitoring target area of the camera network 1, etc. This makes it easier to identify people. Furthermore, since the movement trajectory of a person can be detected and recorded, it is also useful for investigating wanted persons and missing persons.

また、複数のカメラ100の映像の撮影領域が、それぞれどこかに重複する部分が存在するように配置されていればよいので、それ以上に多くのカメラ100を設置する必要はない。そのため、必要以上にカメラ100を設置するコスト、および膨大な量の映像データを伝送することに伴うネットワークへの負荷を削減することができる。   Further, since it is only necessary that the image capturing areas of the plurality of cameras 100 be arranged so that there is an overlapping portion somewhere, it is not necessary to install more cameras 100 than that. Therefore, it is possible to reduce the cost of installing the camera 100 more than necessary and the load on the network associated with transmitting a huge amount of video data.

カメラ100はスタンドアローン型であるので、設置場所についての制約は少なく、電源および有線ネットワークと接続が不可能な場所にも設置できる。また、カメラ100の中に災害や破壊行為などによって機能を停止したものがあった場合にも、それらを検出してアラートを出すので、ユーザがすぐに対応することができる。   Since the camera 100 is a stand-alone type, there are few restrictions on the installation location, and the camera 100 can be installed in a place where connection with a power source and a wired network is impossible. In addition, even when there are cameras whose functions are stopped due to disasters or vandalism, they are detected and an alert is issued, so that the user can respond immediately.

これまで本発明について図面に示した特定の実施の形態をもって説明してきたが、本発明は図面に示した実施の形態に限定されるものではなく、本発明の効果を奏する限り、これまで知られたいかなる構成であっても採用することができることは言うまでもないことである。   Although the present invention has been described with the specific embodiments shown in the drawings, the present invention is not limited to the embodiments shown in the drawings, and is known so far as long as the effects of the present invention are achieved. It goes without saying that any configuration can be adopted.

空港、駅、銀行、繁華街、店舗などに設置される、監視カメラによる防犯システムにおいて利用可能である。   It can be used in security systems with surveillance cameras installed in airports, stations, banks, downtown areas, stores, etc.

本発明の実施の形態に係るカメラネットワークの構成を示すブロック図である。It is a block diagram which shows the structure of the camera network which concerns on embodiment of this invention. 図1で示したカメラの構成を示すブロック図である。It is a block diagram which shows the structure of the camera shown in FIG. 図1および図2で示されたカメラにおいて実行される処理を書き表すフローチャートである。FIG. 3 is a flowchart showing processing executed in the camera shown in FIGS. 1 and 2. FIG. 図1で示されたセンター処理装置において実行される処理を書き表すフローチャートである。It is a flowchart showing the process performed in the center processing apparatus shown by FIG. 図1で示されたカメラネットワークにおける人物の移動軌跡の検出と人物の特定を示す概念図である。It is a conceptual diagram which shows the detection of the movement locus | trajectory of a person in the camera network shown in FIG. 1, and identification of a person.

符号の説明Explanation of symbols

1 カメラネットワーク(人物特定システム)
100 カメラ
101 発電機構部
102 映像撮影部
103 映像蓄積部
104 無線送信部
105 無線受信部
106 端末認証部
107 固有ID情報
108 タイマ
109 IDリスト
200 専用端末
300 センター処理装置(人物特定装置)
301 映像蓄積部
302 映像再生部
303 地図処理部
304 顔検出エンジン
305 移動軌跡検出エンジン
306 制御部
307 タイマ
308 暗号化/復号化部
701 人物像
702 移動軌跡
1 Camera network (person identification system)
DESCRIPTION OF SYMBOLS 100 Camera 101 Power generation mechanism part 102 Image | video imaging | photography part 103 Image | video storage part 104 Wireless transmission part 105 Wireless reception part 106 Terminal authentication part 107 Unique ID information 108 Timer 109 ID list 200 Dedicated terminal 300 Center processing apparatus (person identification apparatus)
DESCRIPTION OF SYMBOLS 301 Image | video storage part 302 Image | video reproduction | regeneration part 303 Map processing part 304 Face detection engine 305 Movement locus detection engine 306 Control part 307 Timer 308 Encryption / decryption part 701 Person image 702 Movement locus

Claims (18)

複数のカメラと、前記各カメラにより撮影された映像データを受信するセンター処理装置とを備えた人物特定システムであって、
前記センター処理装置が、
前記カメラから受信した映像データを蓄積する映像蓄積部と、
前記蓄積された映像データを地図上での座標データと関連づける地図処理部と、
前記蓄積された映像データと前記地図上での座標データとから、複数の前記カメラの撮影領域が重複する部分の映像上の移動体を同一の移動体として認識すると共に、当該移動体の軌跡を検出する移動軌跡検出エンジンと、
前記軌跡上の前記移動体の映像の中から人物を特定できるレベルの人間の顔の映った映像を検出し、この顔が予め登録された特定の人物の顔であるか否かを判定する顔検出エンジンと
を有することを特徴とする人物特定システム。
A person identification system comprising a plurality of cameras and a center processing device that receives video data captured by each of the cameras,
The center processing device is
A video storage unit for storing video data received from the camera;
A map processing unit associating the accumulated video data with coordinate data on a map;
From the accumulated video data and the coordinate data on the map, the moving body on the video of the portion where the imaging areas of the plurality of cameras overlap is recognized as the same moving body, and the locus of the moving body is determined. A moving locus detection engine to detect,
Face said detected video images reflected the face of the level of human identifiable person from among the moving body of the image on the trajectory, to determine whether the face is a face of a specific person previously registered A person identifying system comprising: a detection engine.
前記センター処理装置が、前記撮影された映像データを送信させる指示情報を前記複数のカメラに送信させるための割り込み信号を発生するタイマを有することを特徴とする、請求項1に記載の人物特定システム。   The person specifying system according to claim 1, wherein the center processing device includes a timer that generates an interrupt signal for causing the plurality of cameras to transmit instruction information for transmitting the captured video data. . 前記複数のカメラがそれぞれ、自身に対応する固有ID情報を有し、
前記センター処理装置が、前記指示情報を前記固有ID情報に基づいて暗号化してから送信する暗号化部を有することを特徴とする、請求項2に記載の人物特定システム。
Each of the plurality of cameras has unique ID information corresponding to itself.
The person identifying system according to claim 2, wherein the center processing apparatus includes an encryption unit that encrypts the instruction information based on the unique ID information and transmits the encrypted instruction information.
前記センター処理装置が、前記複数のカメラから受信した映像データを前記固有ID情報に基づいて復号化してから前記映像蓄積部に保存する復号化部を有することを特徴とする、請求項3に記載の人物特定システム。   The said center processing apparatus has a decoding part which decodes the video data received from these several cameras based on the said specific ID information, and preserve | saves it in the said video storage part, The characterized by the above-mentioned. Person identification system. 前記センター処理装置が、前記蓄積された映像データを再生する映像再生部を有することを特徴とする、請求項2に記載の人物特定システム。   The person specifying system according to claim 2, wherein the center processing apparatus includes a video playback unit that plays back the stored video data. 前記顔検出エンジンが、前記検出された映像に含まれる顔があらかじめ登録された特定の人物の顔と一致するか否かを判断することが可能であることを特徴とする、請求項2に記載の人物特定システム。   3. The face detection engine according to claim 2, wherein the face detection engine can determine whether or not a face included in the detected video matches a face of a specific person registered in advance. Person identification system. 前記複数のカメラと前記センター処理装置とが無線通信によって接続されることを特徴とする、請求項2に記載の人物特定システム。   The person identification system according to claim 2, wherein the plurality of cameras and the center processing apparatus are connected by wireless communication. 前記複数のカメラと専用端末とが無線通信によって接続され、前記専用端末と前記センター処理装置とがネットワークによって接続されることを特徴とする、請求項2に記載の人物特定システム。   The person identification system according to claim 2, wherein the plurality of cameras and a dedicated terminal are connected by wireless communication, and the dedicated terminal and the center processing apparatus are connected by a network. 前記複数のカメラがそれぞれ、自身が動作するための電力を発生する発電機構部を有することを特徴とする、請求項2に記載の人物特定システム。   The person identification system according to claim 2, wherein each of the plurality of cameras has a power generation mechanism unit that generates power for operating the camera. 前記複数のカメラがそれぞれ、自身に対応する固有ID情報を相互に交換し、近傍にある前記カメラから前記固有ID情報を受信しない場合にアラートを発信することを特徴とする、請求項2に記載の人物特定システム。   3. The plurality of cameras each exchange unique ID information corresponding to each other, and send an alert when the unique ID information is not received from the cameras in the vicinity. Person identification system. 複数のカメラによって撮影された映像データを受信する人物特定装置であって、
前記カメラから受信した映像データを蓄積する映像蓄積部と、
前記蓄積された映像データを地図上での座標データと関連づける地図処理部と、
前記蓄積された映像データと前記地図上での座標データとから、複数の前記カメラの撮影領域が重複する部分の映像上の移動体を同一の移動体として認識すると共に、当該移動体の軌跡を検出する移動軌跡検出エンジンと、
前記軌跡上の前記移動体の映像の中から人物を特定できるレベルの人間の顔の映った映像を検出し、この顔が予め登録された特定の人物の顔であるか否かを判定する顔検出エンジンと
を有することを特徴とする人物特定装置。
A person identification device that receives video data captured by a plurality of cameras,
A video storage unit for storing video data received from the camera;
A map processing unit associating the accumulated video data with coordinate data on a map;
From the accumulated video data and the coordinate data on the map, the moving body on the video of the portion where the imaging areas of the plurality of cameras overlap is recognized as the same moving body, and the locus of the moving body is determined. A moving locus detection engine to detect,
Face said detected video images reflected the face of the level of human identifiable person from among the moving body of the image on the trajectory, to determine whether the face is a face of a specific person previously registered A person identification device comprising: a detection engine.
前記撮影された映像データを送信させる指示情報を前記複数のカメラに送信させるための割り込み信号を発生するタイマを有することを特徴とする、請求項11に記載の人物特定装置。   The person identifying apparatus according to claim 11, further comprising a timer that generates an interrupt signal for causing the plurality of cameras to transmit instruction information for transmitting the captured video data. 前記指示情報を前記複数のカメラのそれぞれに対応する固有ID情報に基づいて暗号化してから送信する暗号化部を有することを特徴とする、請求項12に記載の人物特定装置。   The person identifying apparatus according to claim 12, further comprising: an encryption unit configured to encrypt the instruction information based on unique ID information corresponding to each of the plurality of cameras and then transmit the encrypted instruction information. 前記複数のカメラから受信した映像データを前記固有ID情報に基づいて復号化してから前記映像蓄積部に保存する復号化部を有することを特徴とする、請求項13に記載の人物特定装置。   14. The person identifying apparatus according to claim 13, further comprising: a decoding unit that decodes video data received from the plurality of cameras based on the unique ID information and stores the decoded data in the video storage unit. 前記蓄積された映像データを再生する映像再生部を有することを特徴とする、請求項12に記載の人物特定装置。   The person identifying apparatus according to claim 12, further comprising a video playback unit that plays back the stored video data. 前記顔検出エンジンが、前記検出された映像に含まれる顔があらかじめ登録された特定の人物の顔と一致するか否かを判断することが可能であることを特徴とする、請求項12に記載の人物特定装置。   13. The face detection engine according to claim 12, wherein the face detection engine can determine whether a face included in the detected video matches a face of a specific person registered in advance. Person identification device. 複数のカメラと前記カメラにより撮影された映像データを受信するセンター処理装置とからなるカメラネットワークによって撮影された人物を特定する方法であって、
前記カメラから受信した映像データを蓄積する映像蓄積工程と、
前記蓄積された映像データを地図上での座標データと関連づける地図処理工程と、
前記蓄積された映像データと前記地図上での座標データとから、複数の前記カメラの撮影領域が重複する部分の映像上の移動体を同一の移動体として認識すると共に、当該移動体の軌跡を検出する移動軌跡検出工程と、
前記軌跡上の前記移動体の映像の中から人物を特定できるレベルの人間の顔の映った映像を検出し、この顔が予め登録された特定の人物の顔であるか否かを判定する顔検出工程と
を有することを特徴とする人物特定方法。
A method for identifying a person photographed by a camera network comprising a plurality of cameras and a center processing device that receives video data photographed by the cameras,
A video storage step of storing video data received from the camera;
A map processing step for associating the accumulated video data with coordinate data on a map;
From the accumulated video data and the coordinate data on the map, the moving body on the video of the portion where the imaging areas of the plurality of cameras overlap is recognized as the same moving body, and the locus of the moving body is determined. A movement trajectory detection step to detect,
Face said detected video images reflected the face of the level of human identifiable person from among the moving body of the image on the trajectory, to determine whether the face is a face of a specific person previously registered And a detection step.
複数のカメラと前記カメラにより撮影された映像データを受信するセンター処理装置とからなるカメラネットワークによって撮影された人物を特定するプログラムであって、前記センター処理装置を構成するコンピュータに、
前記カメラから受信した映像データを蓄積する処理と、
前記蓄積された映像データを地図上での座標データと関連づける処理と、
前記蓄積された映像データと前記地図上での座標データとから、複数の前記カメラの撮影領域が重複する部分の映像上の移動体を同一の移動体として認識すると共に、当該移動体の軌跡を検出する処理と、
前記軌跡上の前記移動体の映像の中から人物を特定できるレベルの人間の顔の映った映像を検出し、この顔が予め登録された特定の人物の顔であるか否かを判定する処理と
を実行させることを特徴とする人物特定プログラム。
A program for identifying a person photographed by a camera network composed of a plurality of cameras and a center processing device that receives video data photographed by the camera, the computer constituting the center processing device,
Processing to store video data received from the camera;
A process of associating the accumulated video data with coordinate data on a map;
From the accumulated video data and the coordinate data on the map, the moving body on the video of the portion where the imaging areas of the plurality of cameras overlap is recognized as the same moving body, and the locus of the moving body is determined. Processing to detect,
Processing said detected image that reflected the face of the level of human identifiable person from among the moving body of the image on the trajectory, to determine whether the face is a face of a specific person previously registered A person identification program characterized by causing
JP2007327290A 2007-12-19 2007-12-19 Person identification system, person identification device, person identification method, and person identification program Expired - Fee Related JP5151451B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2007327290A JP5151451B2 (en) 2007-12-19 2007-12-19 Person identification system, person identification device, person identification method, and person identification program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2007327290A JP5151451B2 (en) 2007-12-19 2007-12-19 Person identification system, person identification device, person identification method, and person identification program

Publications (2)

Publication Number Publication Date
JP2009152733A JP2009152733A (en) 2009-07-09
JP5151451B2 true JP5151451B2 (en) 2013-02-27

Family

ID=40921381

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2007327290A Expired - Fee Related JP5151451B2 (en) 2007-12-19 2007-12-19 Person identification system, person identification device, person identification method, and person identification program

Country Status (1)

Country Link
JP (1) JP5151451B2 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10878657B2 (en) 2018-07-25 2020-12-29 Konami Gaming, Inc. Casino management system with a patron facial recognition system and methods of operating same
US11521460B2 (en) 2018-07-25 2022-12-06 Konami Gaming, Inc. Casino management system with a patron facial recognition system and methods of operating same

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011233133A (en) * 2010-04-09 2011-11-17 Miyake Inc Shoplifting preventing system
JP5656567B2 (en) 2010-11-05 2015-01-21 キヤノン株式会社 Video processing apparatus and method
WO2014068629A1 (en) * 2012-10-29 2014-05-08 株式会社日立製作所 Video processing device, video transmission device, video reception device, video processing method, video transmission method, and video reception method
JP6340536B2 (en) * 2013-09-25 2018-06-13 株式会社 シリコンプラス Self-supporting surveillance camera
JP6558792B2 (en) * 2014-10-07 2019-08-14 株式会社amuse oneself Imaging system and captured image processing method

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3584334B2 (en) * 1997-12-05 2004-11-04 オムロン株式会社 Human detection tracking system and human detection tracking method
JP2004072628A (en) * 2002-08-08 2004-03-04 Univ Waseda Moving body tracking system using a plurality of cameras and its method
JP2004312267A (en) * 2003-04-04 2004-11-04 Sony Corp Image transmission system, imaging apparatus, imaging apparatus unit, key generating apparatus, and program
JP4395615B2 (en) * 2003-12-02 2010-01-13 カシオ計算機株式会社 Camera monitoring system, image browsing terminal device, and program
JP2006093955A (en) * 2004-09-22 2006-04-06 Matsushita Electric Ind Co Ltd Video processing apparatus
JP2007102500A (en) * 2005-10-04 2007-04-19 Ntt Facilities Inc Illegal bicycle parking monitor system and its method

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10878657B2 (en) 2018-07-25 2020-12-29 Konami Gaming, Inc. Casino management system with a patron facial recognition system and methods of operating same
US11455864B2 (en) 2018-07-25 2022-09-27 Konami Gaming, Inc. Casino management system with a patron facial recognition system and methods of operating same
US11521460B2 (en) 2018-07-25 2022-12-06 Konami Gaming, Inc. Casino management system with a patron facial recognition system and methods of operating same

Also Published As

Publication number Publication date
JP2009152733A (en) 2009-07-09

Similar Documents

Publication Publication Date Title
US20210217445A1 (en) Forensic video recording with presence detection
JP5151451B2 (en) Person identification system, person identification device, person identification method, and person identification program
US20070228159A1 (en) Inquiry system, imaging device, inquiry device, information processing method, and program thereof
US10116910B2 (en) Imaging apparatus and method of providing imaging information
US20180103197A1 (en) Automatic Generation of Video Using Location-Based Metadata Generated from Wireless Beacons
JP2007158421A (en) Monitoring camera system and face image tracing recording method
US10838460B2 (en) Monitoring video analysis system and monitoring video analysis method
CN107766788A (en) Information processor, its method and computer-readable recording medium
US20160110972A1 (en) Systems and methods for automated cloud-based analytics for surveillance systems
CN107770486B (en) Event search apparatus and system
US20160063105A1 (en) Systems and Methods for an Automated Cloud-Based Video Surveillance System
JP2008219227A (en) System and method for monitoring video image
JP6729680B2 (en) Service providing system, service transfer system, service providing method, and program
CN105847729A (en) Beidou network camera having evidence preservation function
KR101153981B1 (en) Video monitoring service method
JP2016122892A (en) Video system
Vimal et al. Development of cloud integrated internet of things based intruder detection system
KR101641940B1 (en) video surveillance system and method
CN108269321A (en) Patrol point punch card system
KR101698864B1 (en) Media Being Recorded with the Program Executing Method for Detecting Image Using Metadata
KR20150114589A (en) Apparatus and method for subject reconstruction
KR101920914B1 (en) Providing system for video recoding using location information and the method thereof
KR102530463B1 (en) Image security device and method using pedestrian face detection information
JP7327792B2 (en) Image composition system and image composition method
KR102172588B1 (en) Moving picture album production method and system for exhibition hall spectator

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20110323

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20110406

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20110603

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20120228

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20120501

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20121106

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20121119

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20151214

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees