JP2010056720A - Network camera, and network camera system - Google Patents

Network camera, and network camera system Download PDF

Info

Publication number
JP2010056720A
JP2010056720A JP2008217850A JP2008217850A JP2010056720A JP 2010056720 A JP2010056720 A JP 2010056720A JP 2008217850 A JP2008217850 A JP 2008217850A JP 2008217850 A JP2008217850 A JP 2008217850A JP 2010056720 A JP2010056720 A JP 2010056720A
Authority
JP
Japan
Prior art keywords
network camera
feature data
face
feature
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2008217850A
Other languages
Japanese (ja)
Inventor
Tatsuji Yamazaki
龍次 山崎
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Corp
Original Assignee
Panasonic Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Panasonic Corp filed Critical Panasonic Corp
Priority to JP2008217850A priority Critical patent/JP2010056720A/en
Publication of JP2010056720A publication Critical patent/JP2010056720A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Image Processing (AREA)
  • Alarm Systems (AREA)
  • Studio Devices (AREA)
  • Image Analysis (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide a network camera which stably tracks one and the same person even when an imaging direction of the person to be tracked considerably changes among different cameras. <P>SOLUTION: The network camera has: an imaging part for imaging an image of an imaging space; a face detection part for detecting a face area from an imaged image; a face direction correction part for correcting the direction of the detected face to compose it with a front face image; a characteristic extraction part for extracting characteristic data from the corrected face image; a receiving part for receiving the characteristic data transmitted by another network camera; a character data buffer for accumulating received characteristic data; a characteristic collation part for collating the characteristic data extracted by the characteristic extraction part with characteristic data accumulated in the characteristic data buffer; and a transmission part for transmitting the characteristic data to another network camera on the basis of the collation result in the characteristic collation part. <P>COPYRIGHT: (C)2010,JPO&INPIT

Description

本発明は、複数のネットワークカメラを用いて人物の追跡を行なう装置およびシステムに関する。   The present invention relates to an apparatus and system for tracking a person using a plurality of network cameras.

従来、カメラにて撮影した画像からテンプレートマッチングなどにより人物を検出し、追跡する装置が知られていた。また、複数のカメラにて撮影した画像を用いて人物の追跡を行う技術が特許文献1等により提案されていた。特許文献1に記載された発明では、第1のカメラにて撮像した画像から侵入者を検知した場合、検知対象をテンプレートとして登録し、このテンプレートを用いて次に検出した侵入者の画像とのマッチングを行う。このテンプレートは、最新の検知データに基づいて逐次更新する。第1のカメラは、登録したテンプレートを第2のカメラに送信する。第2のカメラでは、画像から検出した人物と登録されたテンプレートとのマッチングを行うことにより、第1のカメラで検知した侵入者の追跡を行う。
特許3814779号公報
Conventionally, there has been known an apparatus for detecting and tracking a person by template matching or the like from an image taken by a camera. Also, Patent Document 1 and the like have proposed a technique for tracking a person using images taken by a plurality of cameras. In the invention described in Patent Document 1, when an intruder is detected from an image captured by the first camera, the detection target is registered as a template, and the next detected intruder image using the template is registered. Perform matching. This template is sequentially updated based on the latest detection data. The first camera transmits the registered template to the second camera. The second camera tracks the intruder detected by the first camera by matching the person detected from the image with the registered template.
Japanese Patent No. 3814797

一のカメラの画像内では検知対象の形状の変化は緩やかであるため、テンプレートを逐次更新していくことにより人物の追跡を行なうことが可能である。しかしながら、カメラ間でテンプレートを受け渡してテンプレートマッチングによる追跡を行なおうとする場合には、カメラ間での不連続な物体の移動により、物体の形状がテンプレート形状に対して不連続に変化してしまう場合があり得る。各カメラの撮像空間が完全に連続するように、カメラが固定的に設置されていれば、特許文献1に記載の方法でもカメラ間での追跡動作が可能かもしれないが、このような設置の制約を設けるのは現実的ではないし、また、カメラは設置後においても撮像方向を変えることができるのが一般的である。従って、特許文献1に記載したテンプレートマッチングでは撮像の向きの変化に十分に対応できないため、安定した追跡を行なうことは困難であった。   Since the change in the shape of the detection target is gentle in the image of one camera, it is possible to track a person by sequentially updating the template. However, when a template is transferred between cameras and tracking is performed by template matching, the shape of the object changes discontinuously with respect to the template shape due to the discontinuous movement of the object between the cameras. There may be cases. If the cameras are fixedly installed so that the imaging spaces of the respective cameras are completely continuous, the tracking operation between the cameras may be possible even with the method described in Patent Document 1. It is not realistic to provide a restriction, and the camera can generally change the imaging direction even after installation. Therefore, since the template matching described in Patent Document 1 cannot sufficiently cope with a change in the direction of imaging, it is difficult to perform stable tracking.

本発明は、上記背景に鑑み、異なるカメラの間で追跡対象の人物の撮像方向が大きく変化する場合でも、安定して同一人物を追跡することが可能なネットワークカメラを提供することを目的とする。   In view of the above background, an object of the present invention is to provide a network camera that can stably track the same person even when the imaging direction of the person to be tracked changes greatly between different cameras. .

本発明のネットワークカメラは、撮像空間を撮像する撮像部と、撮像した画像から顔領域を検出する顔検出部と、検出した顔の向きを補正して正面向きの顔画像を合成する顔向き補正部と、補正後の顔画像から特徴データを抽出する特徴抽出部と、他のネットワークカメラから送信された特徴データを受信する受信部と、受信した特徴データを蓄積する特徴データバッファと、前記特徴抽出部にて抽出した特徴データと前記特徴データバッファに蓄積された特徴データとを照合する特徴照合部と、前記特徴照合部での照合結果に基づいて、他のネットワークカメラに特徴データを送信する送信部とを備えた構成を有する。なお、本発明のネットワークカメラは、上記の構成と同じ構成を有する他のネットワークカメラと接続して用いられる。   The network camera of the present invention includes an imaging unit that captures an imaging space, a face detection unit that detects a face area from the captured image, and a face orientation correction that synthesizes a face image facing the front by correcting the orientation of the detected face. A feature extraction unit that extracts feature data from the corrected face image, a reception unit that receives feature data transmitted from another network camera, a feature data buffer that stores received feature data, and the feature A feature matching unit that matches the feature data extracted by the extraction unit with the feature data stored in the feature data buffer, and transmits the feature data to another network camera based on the matching result in the feature matching unit. And a transmission unit. Note that the network camera of the present invention is used in connection with another network camera having the same configuration as that described above.

このように顔向き補正部にて顔の向きを正面向きに補正した上で、特徴抽出部にて顔画像の特徴データを抽出するので、撮像方向に関わらず、照合に適した特徴データを取得することができる。このようにして得られた特徴データを他のネットワークカメラから受信し、顔の照合に用いるので、他のネットワークカメラにて取得した顔画像の特徴データに基づいて適切に顔の照合を行うことができ、複数のカメラの間で安定して人物の追跡を行うことができる。なお、顔画像の特徴抽出および照合には、特願平11−295058号公報等に記載されたパターン認識方法などを使用することができる。また、特徴照合部での照合結果に基づいて、顔画像の特徴データを他のネットワークカメラに送信するので、検出した人物の顔の特徴データを他のネットワークカメラに引き継ぐことができる。なお、他のネットワークカメラに送信する特徴データは、特徴抽出部で抽出したデータでもよいし、特徴データバッファに蓄積された特徴データでもよい。   In this way, the face orientation correction unit corrects the face direction to the front direction, and the feature extraction unit extracts the feature data of the face image. Therefore, feature data suitable for matching is acquired regardless of the imaging direction. can do. Since the feature data obtained in this way is received from another network camera and used for face matching, it is possible to perform face matching appropriately based on the feature data of the face image acquired by the other network camera. The person can be tracked stably between a plurality of cameras. It should be noted that a pattern recognition method described in Japanese Patent Application No. 11-295058 can be used for feature extraction and collation of face images. Further, since the feature data of the face image is transmitted to another network camera based on the matching result in the feature matching unit, the detected face data of the person's face can be taken over by another network camera. The feature data transmitted to other network cameras may be data extracted by the feature extraction unit or feature data stored in the feature data buffer.

本発明のネットワークカメラシステムは、上記のネットワークカメラを複数備え、一のネットワークカメラで検出した顔画像の特徴データを用いて、他のネットワークカメラにて検出した顔画像の特徴データの照合を行うことにより、一のネットワークにて検出した人物を他のネットワークカメラにて追跡する構成を有する。   A network camera system according to the present invention includes a plurality of the above-described network cameras, and uses the facial image feature data detected by one network camera to collate the facial image feature data detected by another network camera. Thus, a person detected by one network is tracked by another network camera.

この構成により、複数のネットワークカメラの間で、撮像方向が変わった場合にも適切に人物の追跡を行うことができる。   With this configuration, it is possible to appropriately track a person even when the imaging direction changes between a plurality of network cameras.

本発明のネットワークカメラシステムによる追跡方法は、複数のネットワークカメラが接続されたネットワークカメラシステムによって人物を追跡する方法であって、第1のネットワークカメラが撮像空間を撮像するステップと、前記第1のネットワークカメラが撮像した画像から顔領域を検出するステップと、前記第1のネットワークカメラが検出した顔の向きを補正して正面向きの顔画像を合成するステップと、前記第1のネットワークカメラが補正後の顔画像から特徴データを抽出するステップと、前記第1のネットワークカメラが、第2のネットワークカメラにて撮像し、顔向きを補正した顔画像から抽出した特徴データを前記第2のネットワークカメラから受信するステップと、前記第1のネットワークカメラにて、受信した特徴データを特徴データバッファに蓄積するステップと、前記第1のネットワークカメラにて抽出した特徴データと前記特徴データバッファに蓄積された特徴データとを照合するステップとを備えた構成を有する。   The tracking method by the network camera system of the present invention is a method of tracking a person by a network camera system to which a plurality of network cameras are connected, wherein the first network camera images an imaging space, and the first Detecting a face area from an image captured by the network camera; correcting a face direction detected by the first network camera to synthesize a front face image; and correcting by the first network camera. Extracting feature data from a later face image; and feature data extracted from the face image that the first network camera has captured with the second network camera and the face orientation has been corrected; Receiving from the first network camera and the feature received by the first network camera Has a step of storing a over data in the feature data buffer, a configuration including a step of collating the first stored feature data and the extracted feature data in the feature data buffer in the network camera.

この構成により、本発明のネットワークカメラと同様に、複数のネットワークカメラの間で、撮像方向が変わった場合にも適切に人物の追跡を行うことができる。   With this configuration, similarly to the network camera of the present invention, it is possible to appropriately track a person even when the imaging direction changes between a plurality of network cameras.

本発明によれば、顔向き補正部にて顔の向きを正面向きに補正した上で、特徴抽出部にて顔画像の特徴データを抽出するので、撮像方向に関わらず、照合に適した特徴データを取得することができ、このようにして得られた特徴データを他のネットワークカメラから受信し、顔の照合に用いることにより、複数のカメラの間で安定して人物の追跡を行うことができるというすぐれた効果を有する。   According to the present invention, the face orientation correction unit corrects the face direction to the front direction, and the feature extraction unit extracts the feature data of the face image. Therefore, the feature is suitable for matching regardless of the imaging direction. Data can be acquired, and feature data obtained in this way can be received from other network cameras and used for face matching, so that tracking of a person can be performed stably between multiple cameras. It has an excellent effect of being able to.

以下、本発明の実施の形態に係るネットワークカメラおよびネットワークカメラシステムについて図面を参照して説明する。   Hereinafter, a network camera and a network camera system according to embodiments of the present invention will be described with reference to the drawings.

図1は、本発明によるネットワークカメラシステム1の構成を示す図である。ネットワークカメラシステム1は、複数のネットワークカメラ10,10a,10bが接続されて構成されている。なお、図1では、説明の便宜上、ネットワークカメラ10,10a、10bと区別しているが、ネットワークカメラ10,10a,10bは、同じ構成を有している。また、図1では、3台のネットワークカメラ10,10a,10bを有する例について説明しているが、ネットワークカメラの台数は何台であってもよい。   FIG. 1 is a diagram showing a configuration of a network camera system 1 according to the present invention. The network camera system 1 is configured by connecting a plurality of network cameras 10, 10a, and 10b. In FIG. 1, for convenience of explanation, the network cameras 10, 10a, and 10b are distinguished from each other, but the network cameras 10, 10a, and 10b have the same configuration. In addition, although FIG. 1 illustrates an example having three network cameras 10, 10a, and 10b, the number of network cameras may be any number.

ネットワークカメラ10は、CCDなどの撮像素子などにより構成され撮像空間を撮像して画像を得る撮像部12と、撮像部12にて撮像した画像から顔の領域を検出する顔検出部14と、顔検出部14にて検出した顔の向きを補正する顔向き補正部16と、顔向き補正部16にて補正された顔画像から顔の特徴を抽出する特徴抽出部18と、他のネットワークカメラ10aから顔の特徴データと受信する受信部22と、受信部22にて受信した特徴データを記憶する特徴データバッファ24と、特徴抽出部18にて抽出した特徴データと特徴データバッファ24に記憶された特徴データとを照合する特徴照合部20と、特徴照合部20での照合結果に応じて特徴データを他のネットワークカメラ10bに送信する送信部26とを有している。   The network camera 10 is configured by an imaging device such as a CCD, and the like. An imaging unit 12 that captures an imaging space to obtain an image, a face detection unit 14 that detects a face region from the image captured by the imaging unit 12, and a face A face orientation correcting unit 16 that corrects the orientation of the face detected by the detecting unit 14, a feature extracting unit 18 that extracts facial features from the face image corrected by the face orientation correcting unit 16, and another network camera 10a. Received from the facial feature data and the receiving unit 22, the feature data buffer 24 storing the feature data received by the receiving unit 22, the feature data extracted by the feature extracting unit 18 and the feature data buffer 24 A feature matching unit 20 that matches feature data, and a transmission unit 26 that transmits the feature data to another network camera 10b according to the matching result in the feature matching unit 20 are provided.

図2は、上記の構成を有するネットワークカメラ10の動作を示す図である。ネットワークカメラ10の動作について説明すると共に、上記各構成の機能について詳しく説明する。   FIG. 2 is a diagram illustrating the operation of the network camera 10 having the above-described configuration. The operation of the network camera 10 will be described, and the functions of the above components will be described in detail.

撮像部12は、撮像した画像をデジタルデータとして取得する(S10)。顔検出部14は、撮像部12で撮像されたデジタル画像データから人物の顔領域を検出する(S12)。   The imaging unit 12 acquires the captured image as digital data (S10). The face detection unit 14 detects a human face region from the digital image data captured by the imaging unit 12 (S12).

顔向き補正部16は、顔検出部14にて検出した顔画像の向きを推定し、正面向きの顔画像を合成する(S14)。例えば、“J.Xiao, S.Baker, I.Matthews, and T.Kanade, “Real-time combined 2D+3D active appearance models”, InProceedings of the IEEE Conference on Computer Vision and Pattern Recognition, volume II, pp.535-542, 2004.”に記載された方法を適用することができる。この構成により、正面以外の顔向きでは、顔画像の照合精度が低下することや、他のカメラにおいて撮像方向を特定することができないという問題を解決できる。   The face orientation correction unit 16 estimates the orientation of the face image detected by the face detection unit 14 and synthesizes the face image facing the front (S14). For example, “J.Xiao, S. Baker, I. Matthews, and T. Kanade,“ Real-time combined 2D + 3D active appearance models ”, InProceedings of the IEEE Conference on Computer Vision and Pattern Recognition, volume II, pp. 535-542, 2004. ”can be applied. With this configuration, it is possible to solve the problems that the face image collation accuracy is reduced in a face orientation other than the front face, and the imaging direction cannot be specified by another camera.

特徴抽出部18は、顔向き補正部16にて正面向きに補正された顔画像から顔照合を行なうための特徴データを抽出する(S16)。特徴データは、例えば、目、鼻、口、眉などの顔のパーツの位置や形状を示すデータである。このような特徴データを用いることにより、照明の条件の違いによる影響を受けづらいという効果もある。   The feature extraction unit 18 extracts feature data for performing face matching from the face image corrected in the front direction by the face direction correction unit 16 (S16). The feature data is data indicating the position and shape of facial parts such as eyes, nose, mouth, and eyebrows. By using such feature data, there is an effect that it is difficult to be affected by the difference in illumination conditions.

一方、他のネットワークカメラ10aは、顔の特徴データとカメラデータや追跡データなどの付帯データを送信する。ここで「追跡データ」とは、複数のネットワークカメラ間で、ある人物を追跡した履歴データであり、それぞれのネットワークカメラの識別番号や、画像中の人物検出位置のデータ、時刻データなどを含む。また、「付帯データ」とは、「特徴データ」以外で、人物追跡にあたってネットワークカメラ間で受け渡されるデータであり、「追跡データ」の他、各カメラの名称を示すテキストデータや、撮像時の各種カメラパラメータなどを含み、最終的なアプリケーションのために必要なデータを付帯させることができる。受信部22は、他のネットワークカメラ10aから送信された顔の特徴データと付帯データを合わせて受信する(S18)。受信部22は、他のネットワークカメラ10aから受信した特徴データと付帯データを、特徴データバッファ24に一時的に記憶する。   On the other hand, the other network camera 10a transmits facial feature data and incidental data such as camera data and tracking data. Here, the “tracking data” is history data in which a certain person is tracked among a plurality of network cameras, and includes identification numbers of the respective network cameras, data on the positions of detected persons in images, time data, and the like. In addition to “feature data”, “accompanying data” is data passed between network cameras for person tracking. In addition to “tracking data”, text data indicating the name of each camera, Including various camera parameters, data necessary for the final application can be attached. The receiving unit 22 receives the facial feature data and the incidental data transmitted from the other network camera 10a together (S18). The receiving unit 22 temporarily stores the feature data and incidental data received from the other network camera 10 a in the feature data buffer 24.

特徴照合部20は、特徴抽出部18にて抽出された特徴データと、特徴データバッファ24に蓄積された全ての特徴データとの照合を行なう(S20)。特徴照合部20は、特徴抽出部18にて抽出された特徴データに対し、あらかじめ設定したしきい値以上で、かつ最も類似度が高い特徴データバッファ24のデータを、顔検出部14にて検出した人物と同一人物のデータと判定する。   The feature collation unit 20 collates the feature data extracted by the feature extraction unit 18 with all the feature data stored in the feature data buffer 24 (S20). The feature matching unit 20 uses the face detection unit 14 to detect the data in the feature data buffer 24 that is equal to or higher than a preset threshold value and has the highest similarity with respect to the feature data extracted by the feature extraction unit 18. It is determined that the data of the same person as the selected person.

同一人物のデータがある場合、特徴データバッファ24に蓄積された付帯データにこのネットワークカメラ10に関するデータを追跡データとして追加し、追跡データに自身のデータを追加した上で、特徴データと合わせて、送信部26から他のネットワークカメラ10bに送信する(S22)。   When there is data of the same person, the data related to the network camera 10 is added to the incidental data stored in the feature data buffer 24 as tracking data, and the own data is added to the tracking data, and together with the feature data, Transmission is performed from the transmission unit 26 to another network camera 10b (S22).

このとき送信する特徴データは特徴抽出部18にて抽出した特徴データでもよいし、特徴データバッファ24に蓄積されたデータと特徴抽出部18にて抽出した特徴データのうち、顔向き補正の小さかったもの、すなわち元々正面に近い向きで撮像されたものとしてもよいし、撮像された顔の大きさなどの情報を加味して照合に適していると総合的に判断されるものにしてもよい。さらには、どちらか一方の特徴データを送るのではなく、同一人物と判定された複数の特徴データを特徴データ群を送信してもよい。   The feature data transmitted at this time may be the feature data extracted by the feature extraction unit 18, or the face orientation correction is small among the data accumulated in the feature data buffer 24 and the feature data extracted by the feature extraction unit 18. In other words, the image may be taken in a direction close to the front, or may be comprehensively determined to be suitable for collation in consideration of information such as the size of the imaged face. Further, instead of sending either one of the feature data, a feature data group may be sent with a plurality of feature data determined to be the same person.

なお、以上の説明では、一のネットワークカメラ10にて人物が検出された後の動作のうち、特に、複数のネットワークカメラ10の間で追跡の動作を引き継ぐ場合の動作を中心に説明した。ネットワークカメラ10にて最初に人物を検出したときの動作について説明する。ネットワークカメラ10は、検出した顔画像の特徴データが特徴データバッファ24に記憶されたいずれの特徴データとも一致しなかった場合には、新たな人物の顔画像であると判定し、その顔画像を特徴データバッファ24に記憶する。また、他のネットワークカメラ10から特徴データを受信していない場合の動作についても説明する。この場合にも、ネットワークカメラ10は、検出した顔画像の特徴データと特徴データバッファ24に記憶された特徴データとを照合することにより、一のネットワークカメラ10内での追跡を行う。以上、本実施の形態のネットワークカメラ10およびネットワークカメラシステム1について説明した。   In the above description, the operation after the person is detected by one network camera 10, particularly the operation in the case of taking over the tracking operation among the plurality of network cameras 10 has been mainly described. The operation when the network camera 10 first detects a person will be described. When the feature data of the detected face image does not match any feature data stored in the feature data buffer 24, the network camera 10 determines that the face image is a new person, and the face image is Store in the feature data buffer 24. An operation when feature data is not received from another network camera 10 will also be described. Also in this case, the network camera 10 performs tracking within one network camera 10 by collating the detected feature data of the face image with the feature data stored in the feature data buffer 24. The network camera 10 and the network camera system 1 according to the present embodiment have been described above.

本実施の形態のネットワークカメラ10は、顔検出部14にて検出した顔の画像を、顔向き補正部16にて正面向きに補正した上で特徴抽出部18にて顔の特徴を抽出する。これにより、各ネットワークカメラ10は、追跡対象の人物の撮像方向に関わらず、常に正面向きの顔画像の特徴データに基づいて顔の照合処理を行うことができるので、複数のネットワークカメラ10の間で追跡を行うことができる。   In the network camera 10 according to the present embodiment, the face image detected by the face detection unit 14 is corrected in the front direction by the face direction correction unit 16, and then the facial feature is extracted by the feature extraction unit 18. Accordingly, each network camera 10 can always perform face matching processing based on the feature data of the face image facing forward regardless of the imaging direction of the person to be tracked. Can be tracked at.

以上、本発明の実施の形態のネットワークカメラシステムおよびネットワークカメラについて実施の形態を挙げて詳細に説明したが、本発明は上記した実施の形態に限定されるものではない。   The network camera system and the network camera according to the embodiment of the present invention have been described in detail with reference to the embodiment. However, the present invention is not limited to the above-described embodiment.

上記した実施の形態では、送信部26からの特徴データの送信先を他のネットワークカメラ10bとしているが、システムの構成によってはサーバ装置やデータ蓄積装置・データ表示装置のようなカメラ以外の他の装置を送信先としてもよい。   In the above-described embodiment, the destination of the feature data from the transmission unit 26 is the other network camera 10b. However, depending on the system configuration, other than cameras such as a server device, a data storage device, and a data display device may be used. The device may be the transmission destination.

上記した実施の形態では、ネットワークカメラ10aから特徴データを受信し、ネットワークカメラ10bに特徴データを送信する例について説明しているが、特徴データの送信先は、ネットワークカメラ10aであってもよい。これにより、追跡対象がネットワークカメラ10aの撮像空間に戻る場合にも追跡を行うことができる。   In the above-described embodiment, the example in which the feature data is received from the network camera 10a and the feature data is transmitted to the network camera 10b has been described. However, the destination of the feature data may be the network camera 10a. Thereby, even when the tracking target returns to the imaging space of the network camera 10a, the tracking can be performed.

以上説明したとおり、本発明は、複数のカメラの間で安定して人物の追跡を行うことができるというすぐれた効果を有し、複数のネットワークカメラを用いて人物の追跡を行なうシステム等として有用である。   As described above, the present invention has an excellent effect of stably tracking a person between a plurality of cameras, and is useful as a system for tracking a person using a plurality of network cameras. It is.

実施の形態におけるネットワークカメラシステムの構成を示す図The figure which shows the structure of the network camera system in embodiment 実施の形態におけるネットワークカメラの動作を示す図The figure which shows operation | movement of the network camera in embodiment

符号の説明Explanation of symbols

1 ネットワークカメラシステム
10,10a,10b ネットワークカメラ
12 撮像部
14 顔検出部
16 顔向き補正部
18 特徴抽出部
20 特徴照合部
22 受信部
24 特徴データバッファ
26 送信部
DESCRIPTION OF SYMBOLS 1 Network camera system 10, 10a, 10b Network camera 12 Imaging part 14 Face detection part 16 Face direction correction part 18 Feature extraction part 20 Feature collation part 22 Reception part 24 Feature data buffer 26 Transmission part

Claims (3)

撮像空間を撮像する撮像部と、
撮像した画像から顔領域を検出する顔検出部と、
検出した顔の向きを補正して正面向きの顔画像を合成する顔向き補正部と、
補正後の顔画像から特徴データを抽出する特徴抽出部と、
他のネットワークカメラから送信された特徴データを受信する受信部と、
受信した特徴データを蓄積する特徴データバッファと、
前記特徴抽出部にて抽出した特徴データと前記特徴データバッファに蓄積された特徴データとを照合する特徴照合部と、
前記特徴照合部での照合結果に基づいて、他のネットワークカメラに特徴データを送信する送信部と、
を備えたネットワークカメラ。
An imaging unit for imaging the imaging space;
A face detection unit for detecting a face area from the captured image;
A face orientation correction unit that corrects the detected face orientation and synthesizes a front face image;
A feature extraction unit that extracts feature data from the corrected face image;
A receiving unit for receiving feature data transmitted from another network camera;
A feature data buffer for storing received feature data;
A feature matching unit for matching feature data extracted by the feature extraction unit with feature data stored in the feature data buffer;
Based on the collation result in the feature collation unit, a transmission unit that transmits feature data to another network camera;
Network camera equipped with.
請求項1に記載のネットワークカメラを複数備え、
一のネットワークカメラで検出した顔画像の特徴データを用いて、他のネットワークカメラにて検出した顔画像の特徴データの照合を行うことにより、一のネットワークにて検出した人物を他のネットワークカメラにて追跡するネットワークカメラシステム。
A plurality of network cameras according to claim 1;
Using the face image feature data detected by one network camera, the face image feature data detected by another network camera is collated, so that the person detected by one network can be transferred to another network camera. Tracking network camera system.
複数のネットワークカメラが接続されたネットワークカメラシステムによって人物を追跡する方法であって、
第1のネットワークカメラが撮像空間を撮像するステップと、
前記第1のネットワークカメラが撮像した画像から顔領域を検出するステップと、
前記第1のネットワークカメラが検出した顔の向きを補正して正面向きの顔画像を合成するステップと、
前記第1のネットワークカメラが補正後の顔画像から特徴データを抽出するステップと、
前記第1のネットワークカメラが、第2のネットワークカメラにて撮像し、顔向きを補正した顔画像から抽出した特徴データを前記第2のネットワークカメラから受信するステップと、
前記第1のネットワークカメラにて、受信した特徴データを特徴データバッファに蓄積するステップと、
前記第1のネットワークカメラにて抽出した特徴データと前記特徴データバッファに蓄積された特徴データとを照合するステップと、
を備えたネットワークカメラシステムによる追跡方法。
A method of tracking a person by a network camera system to which a plurality of network cameras are connected,
A first network camera imaging the imaging space;
Detecting a face region from an image captured by the first network camera;
Correcting the face direction detected by the first network camera to synthesize a front-facing face image;
The first network camera extracting feature data from the corrected face image;
The first network camera receiving from the second network camera feature data extracted from a face image captured by the second network camera and corrected in face orientation;
Storing the received feature data in a feature data buffer in the first network camera;
Collating the feature data extracted by the first network camera with the feature data stored in the feature data buffer;
Tracking method with network camera system equipped with
JP2008217850A 2008-08-27 2008-08-27 Network camera, and network camera system Pending JP2010056720A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2008217850A JP2010056720A (en) 2008-08-27 2008-08-27 Network camera, and network camera system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2008217850A JP2010056720A (en) 2008-08-27 2008-08-27 Network camera, and network camera system

Publications (1)

Publication Number Publication Date
JP2010056720A true JP2010056720A (en) 2010-03-11

Family

ID=42072203

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008217850A Pending JP2010056720A (en) 2008-08-27 2008-08-27 Network camera, and network camera system

Country Status (1)

Country Link
JP (1) JP2010056720A (en)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012247888A (en) * 2011-05-26 2012-12-13 Sony Corp Information processing apparatus, information processing method, program, and information processing system
JP2013118561A (en) * 2011-12-05 2013-06-13 Nikon Corp Electronic camera and control method of electronic camera
JP2017033132A (en) * 2015-07-30 2017-02-09 パナソニックIpマネジメント株式会社 Face authentication apparatus
JP2018139403A (en) * 2016-12-21 2018-09-06 アクシス アーベー Method for generating alerts in video surveillance system
JP2019125057A (en) * 2018-01-12 2019-07-25 キヤノン株式会社 Image processing apparatus, method thereof and program

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012247888A (en) * 2011-05-26 2012-12-13 Sony Corp Information processing apparatus, information processing method, program, and information processing system
JP2013118561A (en) * 2011-12-05 2013-06-13 Nikon Corp Electronic camera and control method of electronic camera
JP2017033132A (en) * 2015-07-30 2017-02-09 パナソニックIpマネジメント株式会社 Face authentication apparatus
JP2018139403A (en) * 2016-12-21 2018-09-06 アクシス アーベー Method for generating alerts in video surveillance system
JP7229662B2 (en) 2016-12-21 2023-02-28 アクシス アーベー How to issue alerts in a video surveillance system
JP2019125057A (en) * 2018-01-12 2019-07-25 キヤノン株式会社 Image processing apparatus, method thereof and program

Similar Documents

Publication Publication Date Title
US8488010B2 (en) Generating a stabilized video sequence based on motion sensor data
JP6338595B2 (en) Mobile device based text detection and tracking
US9686539B1 (en) Camera pair calibration using non-standard calibration objects
JP5445460B2 (en) Impersonation detection system, impersonation detection method, and impersonation detection program
US8787629B2 (en) Image processing based on line-of-sight of a person
JP4951498B2 (en) Face image recognition device, face image recognition method, face image recognition program, and recording medium recording the program
US20170228585A1 (en) Face recognition system and face recognition method
JP5959923B2 (en) Detection device, control method thereof, control program, imaging device and display device
JP4979480B2 (en) Face recognition device
KR102106898B1 (en) Tracking method and system using a database of a person&#39;s faces
JP2007317062A (en) Person recognition apparatus and method
JP2009199417A (en) Face tracking device and face tracking method
JP5087037B2 (en) Image processing apparatus, method, and program
JP2006146323A (en) Face feature collating device, face feature collating method, and program
JP2010056720A (en) Network camera, and network camera system
JP2010123019A (en) Device and method for recognizing motion
JP4821355B2 (en) Person tracking device, person tracking method, and person tracking program
JP2019185556A (en) Image analysis device, method, and program
JP2019012497A (en) Portion recognition method, device, program, and imaging control system
JP5539565B2 (en) Imaging apparatus and subject tracking method
JP2020052788A (en) Image processing system and method therefor, and program
KR20180108361A (en) Method and apparatus for verifying face
JP6555940B2 (en) Subject tracking device, imaging device, and method for controlling subject tracking device
US10909718B2 (en) Method for estimating body orientation
JP5247419B2 (en) Imaging apparatus and subject tracking method