JP2010056720A - Network camera, and network camera system - Google Patents
Network camera, and network camera system Download PDFInfo
- Publication number
- JP2010056720A JP2010056720A JP2008217850A JP2008217850A JP2010056720A JP 2010056720 A JP2010056720 A JP 2010056720A JP 2008217850 A JP2008217850 A JP 2008217850A JP 2008217850 A JP2008217850 A JP 2008217850A JP 2010056720 A JP2010056720 A JP 2010056720A
- Authority
- JP
- Japan
- Prior art keywords
- network camera
- feature data
- face
- feature
- unit
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Image Processing (AREA)
- Alarm Systems (AREA)
- Studio Devices (AREA)
- Image Analysis (AREA)
Abstract
Description
本発明は、複数のネットワークカメラを用いて人物の追跡を行なう装置およびシステムに関する。 The present invention relates to an apparatus and system for tracking a person using a plurality of network cameras.
従来、カメラにて撮影した画像からテンプレートマッチングなどにより人物を検出し、追跡する装置が知られていた。また、複数のカメラにて撮影した画像を用いて人物の追跡を行う技術が特許文献1等により提案されていた。特許文献1に記載された発明では、第1のカメラにて撮像した画像から侵入者を検知した場合、検知対象をテンプレートとして登録し、このテンプレートを用いて次に検出した侵入者の画像とのマッチングを行う。このテンプレートは、最新の検知データに基づいて逐次更新する。第1のカメラは、登録したテンプレートを第2のカメラに送信する。第2のカメラでは、画像から検出した人物と登録されたテンプレートとのマッチングを行うことにより、第1のカメラで検知した侵入者の追跡を行う。
一のカメラの画像内では検知対象の形状の変化は緩やかであるため、テンプレートを逐次更新していくことにより人物の追跡を行なうことが可能である。しかしながら、カメラ間でテンプレートを受け渡してテンプレートマッチングによる追跡を行なおうとする場合には、カメラ間での不連続な物体の移動により、物体の形状がテンプレート形状に対して不連続に変化してしまう場合があり得る。各カメラの撮像空間が完全に連続するように、カメラが固定的に設置されていれば、特許文献1に記載の方法でもカメラ間での追跡動作が可能かもしれないが、このような設置の制約を設けるのは現実的ではないし、また、カメラは設置後においても撮像方向を変えることができるのが一般的である。従って、特許文献1に記載したテンプレートマッチングでは撮像の向きの変化に十分に対応できないため、安定した追跡を行なうことは困難であった。 Since the change in the shape of the detection target is gentle in the image of one camera, it is possible to track a person by sequentially updating the template. However, when a template is transferred between cameras and tracking is performed by template matching, the shape of the object changes discontinuously with respect to the template shape due to the discontinuous movement of the object between the cameras. There may be cases. If the cameras are fixedly installed so that the imaging spaces of the respective cameras are completely continuous, the tracking operation between the cameras may be possible even with the method described in Patent Document 1. It is not realistic to provide a restriction, and the camera can generally change the imaging direction even after installation. Therefore, since the template matching described in Patent Document 1 cannot sufficiently cope with a change in the direction of imaging, it is difficult to perform stable tracking.
本発明は、上記背景に鑑み、異なるカメラの間で追跡対象の人物の撮像方向が大きく変化する場合でも、安定して同一人物を追跡することが可能なネットワークカメラを提供することを目的とする。 In view of the above background, an object of the present invention is to provide a network camera that can stably track the same person even when the imaging direction of the person to be tracked changes greatly between different cameras. .
本発明のネットワークカメラは、撮像空間を撮像する撮像部と、撮像した画像から顔領域を検出する顔検出部と、検出した顔の向きを補正して正面向きの顔画像を合成する顔向き補正部と、補正後の顔画像から特徴データを抽出する特徴抽出部と、他のネットワークカメラから送信された特徴データを受信する受信部と、受信した特徴データを蓄積する特徴データバッファと、前記特徴抽出部にて抽出した特徴データと前記特徴データバッファに蓄積された特徴データとを照合する特徴照合部と、前記特徴照合部での照合結果に基づいて、他のネットワークカメラに特徴データを送信する送信部とを備えた構成を有する。なお、本発明のネットワークカメラは、上記の構成と同じ構成を有する他のネットワークカメラと接続して用いられる。 The network camera of the present invention includes an imaging unit that captures an imaging space, a face detection unit that detects a face area from the captured image, and a face orientation correction that synthesizes a face image facing the front by correcting the orientation of the detected face. A feature extraction unit that extracts feature data from the corrected face image, a reception unit that receives feature data transmitted from another network camera, a feature data buffer that stores received feature data, and the feature A feature matching unit that matches the feature data extracted by the extraction unit with the feature data stored in the feature data buffer, and transmits the feature data to another network camera based on the matching result in the feature matching unit. And a transmission unit. Note that the network camera of the present invention is used in connection with another network camera having the same configuration as that described above.
このように顔向き補正部にて顔の向きを正面向きに補正した上で、特徴抽出部にて顔画像の特徴データを抽出するので、撮像方向に関わらず、照合に適した特徴データを取得することができる。このようにして得られた特徴データを他のネットワークカメラから受信し、顔の照合に用いるので、他のネットワークカメラにて取得した顔画像の特徴データに基づいて適切に顔の照合を行うことができ、複数のカメラの間で安定して人物の追跡を行うことができる。なお、顔画像の特徴抽出および照合には、特願平11−295058号公報等に記載されたパターン認識方法などを使用することができる。また、特徴照合部での照合結果に基づいて、顔画像の特徴データを他のネットワークカメラに送信するので、検出した人物の顔の特徴データを他のネットワークカメラに引き継ぐことができる。なお、他のネットワークカメラに送信する特徴データは、特徴抽出部で抽出したデータでもよいし、特徴データバッファに蓄積された特徴データでもよい。 In this way, the face orientation correction unit corrects the face direction to the front direction, and the feature extraction unit extracts the feature data of the face image. Therefore, feature data suitable for matching is acquired regardless of the imaging direction. can do. Since the feature data obtained in this way is received from another network camera and used for face matching, it is possible to perform face matching appropriately based on the feature data of the face image acquired by the other network camera. The person can be tracked stably between a plurality of cameras. It should be noted that a pattern recognition method described in Japanese Patent Application No. 11-295058 can be used for feature extraction and collation of face images. Further, since the feature data of the face image is transmitted to another network camera based on the matching result in the feature matching unit, the detected face data of the person's face can be taken over by another network camera. The feature data transmitted to other network cameras may be data extracted by the feature extraction unit or feature data stored in the feature data buffer.
本発明のネットワークカメラシステムは、上記のネットワークカメラを複数備え、一のネットワークカメラで検出した顔画像の特徴データを用いて、他のネットワークカメラにて検出した顔画像の特徴データの照合を行うことにより、一のネットワークにて検出した人物を他のネットワークカメラにて追跡する構成を有する。 A network camera system according to the present invention includes a plurality of the above-described network cameras, and uses the facial image feature data detected by one network camera to collate the facial image feature data detected by another network camera. Thus, a person detected by one network is tracked by another network camera.
この構成により、複数のネットワークカメラの間で、撮像方向が変わった場合にも適切に人物の追跡を行うことができる。 With this configuration, it is possible to appropriately track a person even when the imaging direction changes between a plurality of network cameras.
本発明のネットワークカメラシステムによる追跡方法は、複数のネットワークカメラが接続されたネットワークカメラシステムによって人物を追跡する方法であって、第1のネットワークカメラが撮像空間を撮像するステップと、前記第1のネットワークカメラが撮像した画像から顔領域を検出するステップと、前記第1のネットワークカメラが検出した顔の向きを補正して正面向きの顔画像を合成するステップと、前記第1のネットワークカメラが補正後の顔画像から特徴データを抽出するステップと、前記第1のネットワークカメラが、第2のネットワークカメラにて撮像し、顔向きを補正した顔画像から抽出した特徴データを前記第2のネットワークカメラから受信するステップと、前記第1のネットワークカメラにて、受信した特徴データを特徴データバッファに蓄積するステップと、前記第1のネットワークカメラにて抽出した特徴データと前記特徴データバッファに蓄積された特徴データとを照合するステップとを備えた構成を有する。 The tracking method by the network camera system of the present invention is a method of tracking a person by a network camera system to which a plurality of network cameras are connected, wherein the first network camera images an imaging space, and the first Detecting a face area from an image captured by the network camera; correcting a face direction detected by the first network camera to synthesize a front face image; and correcting by the first network camera. Extracting feature data from a later face image; and feature data extracted from the face image that the first network camera has captured with the second network camera and the face orientation has been corrected; Receiving from the first network camera and the feature received by the first network camera Has a step of storing a over data in the feature data buffer, a configuration including a step of collating the first stored feature data and the extracted feature data in the feature data buffer in the network camera.
この構成により、本発明のネットワークカメラと同様に、複数のネットワークカメラの間で、撮像方向が変わった場合にも適切に人物の追跡を行うことができる。 With this configuration, similarly to the network camera of the present invention, it is possible to appropriately track a person even when the imaging direction changes between a plurality of network cameras.
本発明によれば、顔向き補正部にて顔の向きを正面向きに補正した上で、特徴抽出部にて顔画像の特徴データを抽出するので、撮像方向に関わらず、照合に適した特徴データを取得することができ、このようにして得られた特徴データを他のネットワークカメラから受信し、顔の照合に用いることにより、複数のカメラの間で安定して人物の追跡を行うことができるというすぐれた効果を有する。 According to the present invention, the face orientation correction unit corrects the face direction to the front direction, and the feature extraction unit extracts the feature data of the face image. Therefore, the feature is suitable for matching regardless of the imaging direction. Data can be acquired, and feature data obtained in this way can be received from other network cameras and used for face matching, so that tracking of a person can be performed stably between multiple cameras. It has an excellent effect of being able to.
以下、本発明の実施の形態に係るネットワークカメラおよびネットワークカメラシステムについて図面を参照して説明する。 Hereinafter, a network camera and a network camera system according to embodiments of the present invention will be described with reference to the drawings.
図1は、本発明によるネットワークカメラシステム1の構成を示す図である。ネットワークカメラシステム1は、複数のネットワークカメラ10,10a,10bが接続されて構成されている。なお、図1では、説明の便宜上、ネットワークカメラ10,10a、10bと区別しているが、ネットワークカメラ10,10a,10bは、同じ構成を有している。また、図1では、3台のネットワークカメラ10,10a,10bを有する例について説明しているが、ネットワークカメラの台数は何台であってもよい。
FIG. 1 is a diagram showing a configuration of a network camera system 1 according to the present invention. The network camera system 1 is configured by connecting a plurality of
ネットワークカメラ10は、CCDなどの撮像素子などにより構成され撮像空間を撮像して画像を得る撮像部12と、撮像部12にて撮像した画像から顔の領域を検出する顔検出部14と、顔検出部14にて検出した顔の向きを補正する顔向き補正部16と、顔向き補正部16にて補正された顔画像から顔の特徴を抽出する特徴抽出部18と、他のネットワークカメラ10aから顔の特徴データと受信する受信部22と、受信部22にて受信した特徴データを記憶する特徴データバッファ24と、特徴抽出部18にて抽出した特徴データと特徴データバッファ24に記憶された特徴データとを照合する特徴照合部20と、特徴照合部20での照合結果に応じて特徴データを他のネットワークカメラ10bに送信する送信部26とを有している。
The
図2は、上記の構成を有するネットワークカメラ10の動作を示す図である。ネットワークカメラ10の動作について説明すると共に、上記各構成の機能について詳しく説明する。
FIG. 2 is a diagram illustrating the operation of the
撮像部12は、撮像した画像をデジタルデータとして取得する(S10)。顔検出部14は、撮像部12で撮像されたデジタル画像データから人物の顔領域を検出する(S12)。
The
顔向き補正部16は、顔検出部14にて検出した顔画像の向きを推定し、正面向きの顔画像を合成する(S14)。例えば、“J.Xiao, S.Baker, I.Matthews, and T.Kanade, “Real-time combined 2D+3D active appearance models”, InProceedings of the IEEE Conference on Computer Vision and Pattern Recognition, volume II, pp.535-542, 2004.”に記載された方法を適用することができる。この構成により、正面以外の顔向きでは、顔画像の照合精度が低下することや、他のカメラにおいて撮像方向を特定することができないという問題を解決できる。
The face
特徴抽出部18は、顔向き補正部16にて正面向きに補正された顔画像から顔照合を行なうための特徴データを抽出する(S16)。特徴データは、例えば、目、鼻、口、眉などの顔のパーツの位置や形状を示すデータである。このような特徴データを用いることにより、照明の条件の違いによる影響を受けづらいという効果もある。
The
一方、他のネットワークカメラ10aは、顔の特徴データとカメラデータや追跡データなどの付帯データを送信する。ここで「追跡データ」とは、複数のネットワークカメラ間で、ある人物を追跡した履歴データであり、それぞれのネットワークカメラの識別番号や、画像中の人物検出位置のデータ、時刻データなどを含む。また、「付帯データ」とは、「特徴データ」以外で、人物追跡にあたってネットワークカメラ間で受け渡されるデータであり、「追跡データ」の他、各カメラの名称を示すテキストデータや、撮像時の各種カメラパラメータなどを含み、最終的なアプリケーションのために必要なデータを付帯させることができる。受信部22は、他のネットワークカメラ10aから送信された顔の特徴データと付帯データを合わせて受信する(S18)。受信部22は、他のネットワークカメラ10aから受信した特徴データと付帯データを、特徴データバッファ24に一時的に記憶する。
On the other hand, the
特徴照合部20は、特徴抽出部18にて抽出された特徴データと、特徴データバッファ24に蓄積された全ての特徴データとの照合を行なう(S20)。特徴照合部20は、特徴抽出部18にて抽出された特徴データに対し、あらかじめ設定したしきい値以上で、かつ最も類似度が高い特徴データバッファ24のデータを、顔検出部14にて検出した人物と同一人物のデータと判定する。
The
同一人物のデータがある場合、特徴データバッファ24に蓄積された付帯データにこのネットワークカメラ10に関するデータを追跡データとして追加し、追跡データに自身のデータを追加した上で、特徴データと合わせて、送信部26から他のネットワークカメラ10bに送信する(S22)。
When there is data of the same person, the data related to the
このとき送信する特徴データは特徴抽出部18にて抽出した特徴データでもよいし、特徴データバッファ24に蓄積されたデータと特徴抽出部18にて抽出した特徴データのうち、顔向き補正の小さかったもの、すなわち元々正面に近い向きで撮像されたものとしてもよいし、撮像された顔の大きさなどの情報を加味して照合に適していると総合的に判断されるものにしてもよい。さらには、どちらか一方の特徴データを送るのではなく、同一人物と判定された複数の特徴データを特徴データ群を送信してもよい。
The feature data transmitted at this time may be the feature data extracted by the
なお、以上の説明では、一のネットワークカメラ10にて人物が検出された後の動作のうち、特に、複数のネットワークカメラ10の間で追跡の動作を引き継ぐ場合の動作を中心に説明した。ネットワークカメラ10にて最初に人物を検出したときの動作について説明する。ネットワークカメラ10は、検出した顔画像の特徴データが特徴データバッファ24に記憶されたいずれの特徴データとも一致しなかった場合には、新たな人物の顔画像であると判定し、その顔画像を特徴データバッファ24に記憶する。また、他のネットワークカメラ10から特徴データを受信していない場合の動作についても説明する。この場合にも、ネットワークカメラ10は、検出した顔画像の特徴データと特徴データバッファ24に記憶された特徴データとを照合することにより、一のネットワークカメラ10内での追跡を行う。以上、本実施の形態のネットワークカメラ10およびネットワークカメラシステム1について説明した。
In the above description, the operation after the person is detected by one
本実施の形態のネットワークカメラ10は、顔検出部14にて検出した顔の画像を、顔向き補正部16にて正面向きに補正した上で特徴抽出部18にて顔の特徴を抽出する。これにより、各ネットワークカメラ10は、追跡対象の人物の撮像方向に関わらず、常に正面向きの顔画像の特徴データに基づいて顔の照合処理を行うことができるので、複数のネットワークカメラ10の間で追跡を行うことができる。
In the
以上、本発明の実施の形態のネットワークカメラシステムおよびネットワークカメラについて実施の形態を挙げて詳細に説明したが、本発明は上記した実施の形態に限定されるものではない。 The network camera system and the network camera according to the embodiment of the present invention have been described in detail with reference to the embodiment. However, the present invention is not limited to the above-described embodiment.
上記した実施の形態では、送信部26からの特徴データの送信先を他のネットワークカメラ10bとしているが、システムの構成によってはサーバ装置やデータ蓄積装置・データ表示装置のようなカメラ以外の他の装置を送信先としてもよい。
In the above-described embodiment, the destination of the feature data from the
上記した実施の形態では、ネットワークカメラ10aから特徴データを受信し、ネットワークカメラ10bに特徴データを送信する例について説明しているが、特徴データの送信先は、ネットワークカメラ10aであってもよい。これにより、追跡対象がネットワークカメラ10aの撮像空間に戻る場合にも追跡を行うことができる。
In the above-described embodiment, the example in which the feature data is received from the
以上説明したとおり、本発明は、複数のカメラの間で安定して人物の追跡を行うことができるというすぐれた効果を有し、複数のネットワークカメラを用いて人物の追跡を行なうシステム等として有用である。 As described above, the present invention has an excellent effect of stably tracking a person between a plurality of cameras, and is useful as a system for tracking a person using a plurality of network cameras. It is.
1 ネットワークカメラシステム
10,10a,10b ネットワークカメラ
12 撮像部
14 顔検出部
16 顔向き補正部
18 特徴抽出部
20 特徴照合部
22 受信部
24 特徴データバッファ
26 送信部
DESCRIPTION OF SYMBOLS 1
Claims (3)
撮像した画像から顔領域を検出する顔検出部と、
検出した顔の向きを補正して正面向きの顔画像を合成する顔向き補正部と、
補正後の顔画像から特徴データを抽出する特徴抽出部と、
他のネットワークカメラから送信された特徴データを受信する受信部と、
受信した特徴データを蓄積する特徴データバッファと、
前記特徴抽出部にて抽出した特徴データと前記特徴データバッファに蓄積された特徴データとを照合する特徴照合部と、
前記特徴照合部での照合結果に基づいて、他のネットワークカメラに特徴データを送信する送信部と、
を備えたネットワークカメラ。 An imaging unit for imaging the imaging space;
A face detection unit for detecting a face area from the captured image;
A face orientation correction unit that corrects the detected face orientation and synthesizes a front face image;
A feature extraction unit that extracts feature data from the corrected face image;
A receiving unit for receiving feature data transmitted from another network camera;
A feature data buffer for storing received feature data;
A feature matching unit for matching feature data extracted by the feature extraction unit with feature data stored in the feature data buffer;
Based on the collation result in the feature collation unit, a transmission unit that transmits feature data to another network camera;
Network camera equipped with.
一のネットワークカメラで検出した顔画像の特徴データを用いて、他のネットワークカメラにて検出した顔画像の特徴データの照合を行うことにより、一のネットワークにて検出した人物を他のネットワークカメラにて追跡するネットワークカメラシステム。 A plurality of network cameras according to claim 1;
Using the face image feature data detected by one network camera, the face image feature data detected by another network camera is collated, so that the person detected by one network can be transferred to another network camera. Tracking network camera system.
第1のネットワークカメラが撮像空間を撮像するステップと、
前記第1のネットワークカメラが撮像した画像から顔領域を検出するステップと、
前記第1のネットワークカメラが検出した顔の向きを補正して正面向きの顔画像を合成するステップと、
前記第1のネットワークカメラが補正後の顔画像から特徴データを抽出するステップと、
前記第1のネットワークカメラが、第2のネットワークカメラにて撮像し、顔向きを補正した顔画像から抽出した特徴データを前記第2のネットワークカメラから受信するステップと、
前記第1のネットワークカメラにて、受信した特徴データを特徴データバッファに蓄積するステップと、
前記第1のネットワークカメラにて抽出した特徴データと前記特徴データバッファに蓄積された特徴データとを照合するステップと、
を備えたネットワークカメラシステムによる追跡方法。 A method of tracking a person by a network camera system to which a plurality of network cameras are connected,
A first network camera imaging the imaging space;
Detecting a face region from an image captured by the first network camera;
Correcting the face direction detected by the first network camera to synthesize a front-facing face image;
The first network camera extracting feature data from the corrected face image;
The first network camera receiving from the second network camera feature data extracted from a face image captured by the second network camera and corrected in face orientation;
Storing the received feature data in a feature data buffer in the first network camera;
Collating the feature data extracted by the first network camera with the feature data stored in the feature data buffer;
Tracking method with network camera system equipped with
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2008217850A JP2010056720A (en) | 2008-08-27 | 2008-08-27 | Network camera, and network camera system |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2008217850A JP2010056720A (en) | 2008-08-27 | 2008-08-27 | Network camera, and network camera system |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2010056720A true JP2010056720A (en) | 2010-03-11 |
Family
ID=42072203
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2008217850A Pending JP2010056720A (en) | 2008-08-27 | 2008-08-27 | Network camera, and network camera system |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2010056720A (en) |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2012247888A (en) * | 2011-05-26 | 2012-12-13 | Sony Corp | Information processing apparatus, information processing method, program, and information processing system |
JP2013118561A (en) * | 2011-12-05 | 2013-06-13 | Nikon Corp | Electronic camera and control method of electronic camera |
JP2017033132A (en) * | 2015-07-30 | 2017-02-09 | パナソニックIpマネジメント株式会社 | Face authentication apparatus |
JP2018139403A (en) * | 2016-12-21 | 2018-09-06 | アクシス アーベー | Method for generating alerts in video surveillance system |
JP2019125057A (en) * | 2018-01-12 | 2019-07-25 | キヤノン株式会社 | Image processing apparatus, method thereof and program |
-
2008
- 2008-08-27 JP JP2008217850A patent/JP2010056720A/en active Pending
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2012247888A (en) * | 2011-05-26 | 2012-12-13 | Sony Corp | Information processing apparatus, information processing method, program, and information processing system |
JP2013118561A (en) * | 2011-12-05 | 2013-06-13 | Nikon Corp | Electronic camera and control method of electronic camera |
JP2017033132A (en) * | 2015-07-30 | 2017-02-09 | パナソニックIpマネジメント株式会社 | Face authentication apparatus |
JP2018139403A (en) * | 2016-12-21 | 2018-09-06 | アクシス アーベー | Method for generating alerts in video surveillance system |
JP7229662B2 (en) | 2016-12-21 | 2023-02-28 | アクシス アーベー | How to issue alerts in a video surveillance system |
JP2019125057A (en) * | 2018-01-12 | 2019-07-25 | キヤノン株式会社 | Image processing apparatus, method thereof and program |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US8488010B2 (en) | Generating a stabilized video sequence based on motion sensor data | |
JP6338595B2 (en) | Mobile device based text detection and tracking | |
US9686539B1 (en) | Camera pair calibration using non-standard calibration objects | |
JP5445460B2 (en) | Impersonation detection system, impersonation detection method, and impersonation detection program | |
US8787629B2 (en) | Image processing based on line-of-sight of a person | |
JP4951498B2 (en) | Face image recognition device, face image recognition method, face image recognition program, and recording medium recording the program | |
US20170228585A1 (en) | Face recognition system and face recognition method | |
JP5959923B2 (en) | Detection device, control method thereof, control program, imaging device and display device | |
JP4979480B2 (en) | Face recognition device | |
KR102106898B1 (en) | Tracking method and system using a database of a person's faces | |
JP2007317062A (en) | Person recognition apparatus and method | |
JP2009199417A (en) | Face tracking device and face tracking method | |
JP5087037B2 (en) | Image processing apparatus, method, and program | |
JP2006146323A (en) | Face feature collating device, face feature collating method, and program | |
JP2010056720A (en) | Network camera, and network camera system | |
JP2010123019A (en) | Device and method for recognizing motion | |
JP4821355B2 (en) | Person tracking device, person tracking method, and person tracking program | |
JP2019185556A (en) | Image analysis device, method, and program | |
JP2019012497A (en) | Portion recognition method, device, program, and imaging control system | |
JP5539565B2 (en) | Imaging apparatus and subject tracking method | |
JP2020052788A (en) | Image processing system and method therefor, and program | |
KR20180108361A (en) | Method and apparatus for verifying face | |
JP6555940B2 (en) | Subject tracking device, imaging device, and method for controlling subject tracking device | |
US10909718B2 (en) | Method for estimating body orientation | |
JP5247419B2 (en) | Imaging apparatus and subject tracking method |