JP2016021716A - Tracking device and control method of the same - Google Patents

Tracking device and control method of the same Download PDF

Info

Publication number
JP2016021716A
JP2016021716A JP2014145384A JP2014145384A JP2016021716A JP 2016021716 A JP2016021716 A JP 2016021716A JP 2014145384 A JP2014145384 A JP 2014145384A JP 2014145384 A JP2014145384 A JP 2014145384A JP 2016021716 A JP2016021716 A JP 2016021716A
Authority
JP
Japan
Prior art keywords
group
person
tracking
information
captured image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2014145384A
Other languages
Japanese (ja)
Inventor
伊藤 幹
Miki Ito
幹 伊藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2014145384A priority Critical patent/JP2016021716A/en
Publication of JP2016021716A publication Critical patent/JP2016021716A/en
Pending legal-status Critical Current

Links

Images

Abstract

PROBLEM TO BE SOLVED: To provide a technique for efficiently tracking a monitoring object even if the number of monitoring objects increases.SOLUTION: When the number of subjects recognized from a captured image is equal to or larger than a threshold, a subject group belonging to one group in subject groups recognized from the captured image is set to be a tracking object. When the number is less than the threshold, the respective subjects recognized from the captured image are set to be the tracking objects.SELECTED DRAWING: Figure 1

Description

本発明は、画像処理技術に関するもので、特に、複数の監視カメラで撮影された画像から移動体を追跡するための技術に関するものである。   The present invention relates to an image processing technique, and more particularly to a technique for tracking a moving body from images taken by a plurality of surveillance cameras.

近年、監視およびモニタリングカメラシステムとして、監視カメラの設置台数の増加に伴い、広域にわたって監視対象を追跡するシステムが考えられている。例えば、特許文献1では、多数のカメラにまたがって広範囲に移動する移動体を自動認識して追跡するシステムが提案されている。また、広域にわたって監視を行なう場合、監視対象がグループとして行動する場合があるが、特許文献2の開示の技術では、人物の挙動の情報に基づいて人物をグループ分けすることによって、人物が単独行動しているかグループ行動しているかを検知している。   In recent years, as a monitoring and monitoring camera system, a system for tracking a monitoring target over a wide area has been considered with an increase in the number of installed monitoring cameras. For example, Patent Document 1 proposes a system that automatically recognizes and tracks a moving body that moves over a wide range across a large number of cameras. In addition, when monitoring is performed over a wide area, the monitoring target may act as a group. However, in the technique disclosed in Patent Document 2, a person acts as a single person by grouping persons based on information on the behavior of the person. Detecting whether you are doing group action.

特開2007-142527号公報JP 2007-142527 特開2006-92396号公報JP 2006-92396 JP

しかしながら、上記のシステムでは、広域監視範囲に複数のカメラが設置される環境で、監視対象者として追跡する人物が増えてくると、域内を移動する特定の監視対象に対して、追跡を行なうための検索、照合する処理の負荷が増大することになる。また、監視対象がグループ行動することによって、監視対象者が見え隠れなど起こりやすく、監視対象者を追跡し続けることが困難になることがある。   However, in the above-described system, in the environment where a plurality of cameras are installed in the wide-area monitoring range, when a person to be tracked as a monitoring target increases, tracking is performed for a specific monitoring target moving in the area. This increases the load of processing for searching and collating. In addition, when the monitoring target performs group action, the monitoring target person is likely to appear or hide, and it may be difficult to keep track of the monitoring target person.

本発明はこのような問題に鑑みてなされたものであり、監視対象が増大しても、効率よく監視対象を追跡するための技術を提供する。   The present invention has been made in view of such a problem, and provides a technique for efficiently tracking a monitoring target even when the number of monitoring targets increases.

本発明の一様態は、追尾装置であって、撮像画像から認識した被写体の数が閾値以上であれば、該撮像画像から認識した被写体群のうち1つのグループに属する被写体群を追尾対象とし、該数が閾値未満であれば、該撮像画像から認識したそれぞれの被写体を追尾対象とする手段を備えることを特徴とする。   One aspect of the present invention is a tracking device, and if the number of subjects recognized from a captured image is equal to or greater than a threshold, a subject group belonging to one group among the subject groups recognized from the captured image is set as a tracking target. If the number is less than a threshold value, a means for tracking each subject recognized from the captured image is provided.

本発明の構成によれば、監視対象が増大しても、効率よく監視対象を追跡することができる。   According to the configuration of the present invention, even if the number of monitoring targets increases, the monitoring targets can be tracked efficiently.

ネットワークカメラ100の機能構成例を示すブロック図。FIG. 2 is a block diagram illustrating an example of a functional configuration of the network camera 100. 監視システムの構成例を示す図。The figure which shows the structural example of a monitoring system. ネットワークカメラ100,200が行う処理のフローチャート。The flowchart of the process which the network cameras 100 and 200 perform. 現実空間におけるネットワークカメラ100,200の配置例を示す図。The figure which shows the example of arrangement | positioning of the network cameras 100 and 200 in real space. ステップS6における処理を説明する図。The figure explaining the process in step S6. ステップS9における処理を説明する図。The figure explaining the process in step S9.

以下、添付図面を参照し、本発明の好適な実施形態について説明する。なお、以下説明する実施形態は、本発明を具体的に実施した場合の一例を示すもので、特許請求の範囲に記載した構成の具体的な実施例の1つである。   Preferred embodiments of the present invention will be described below with reference to the accompanying drawings. The embodiment described below shows an example when the present invention is specifically implemented, and is one of the specific examples of the configurations described in the claims.

[第1の実施形態]
先ず、本実施形態に係る監視システムの構成例について、図2を用いて説明する。
[First Embodiment]
First, a configuration example of the monitoring system according to the present embodiment will be described with reference to FIG.

ネットワークカメラ100,200はそれぞれ、現実空間中の所定の位置に配置された監視カメラであり、動体又は人体を追尾する追尾装置であって、撮影範囲内の現実空間の映像(動画像)を撮像する。ネットワークカメラ100,200はそれぞれ、映像(各フレームの撮像画像)に対して、動体検知、動体追尾、人体検知、顔認識、物体検知等の映像解析処理を行い、撮像画像と共に、該撮像画像に対する映像解析結果を、ネットワーク600を介してサーバ装置400に対して送信する。   Each of the network cameras 100 and 200 is a monitoring camera arranged at a predetermined position in the real space, and is a tracking device that tracks a moving object or a human body, and picks up an image (moving image) of the real space within the shooting range. To do. Each of the network cameras 100 and 200 performs video analysis processing such as moving object detection, moving object tracking, human body detection, face recognition, and object detection on the video (captured image of each frame). The video analysis result is transmitted to the server apparatus 400 via the network 600.

サーバ装置400は、ネットワークカメラ100,200のそれぞれに対して認識/追尾の対象を指示すると共に、ネットワークカメラ100,200から送信された撮像画像及び映像解析結果を記憶装置300に格納する。   The server device 400 instructs each of the network cameras 100 and 200 to recognize / track, and stores the captured image and the video analysis result transmitted from the network camera 100 and 200 in the storage device 300.

表示装置500は、記憶装置300に格納されている撮像画像や映像解析結果に基づく様々な表示を行う装置である。例えば、表示装置500の表示画面上に、ネットワークカメラ100による各フレームの撮像画像、ネットワークカメラ200による各フレームの撮像画像を表示させても良い。また、それぞれの撮像画像上に、該撮像画像に対する映像解析結果を重畳させて表示しても良い。また、表示装置500には、それぞれの撮像画像からイベントシーンが写っている撮像画像を検索するための操作部を加えても良い。表示装置500は、たとえば、一般のPCや携帯端末装置などの機器であり、該機器が有する表示画面に上記のような表示を行わせると共に、タッチパネル画面やキーボードやマウスなどを上記の操作部として用いて操作入力を行う。   The display device 500 is a device that performs various displays based on captured images and video analysis results stored in the storage device 300. For example, a captured image of each frame by the network camera 100 and a captured image of each frame by the network camera 200 may be displayed on the display screen of the display device 500. Further, the video analysis result for the captured image may be superimposed and displayed on each captured image. The display device 500 may include an operation unit for searching for a captured image in which an event scene is captured from each captured image. The display device 500 is, for example, a device such as a general PC or a mobile terminal device. The display device 500 performs display as described above on the display screen of the device, and uses a touch panel screen, a keyboard, a mouse, or the like as the operation unit. To perform operation input.

ネットワーク600は、LANやインターネットなどにより構成されており、無線であっても良いし、有線であっても良い。またネットワーク600は2以上のサブネットワークにより構成されていても良く、その場合、それぞれのサブネットワークもまた、LANやインターネットなどにより構成されており、無線であっても良いし、有線であっても良い。   The network 600 is configured by a LAN, the Internet, or the like, and may be wireless or wired. The network 600 may be composed of two or more sub-networks. In this case, each sub-network is also composed of a LAN or the Internet, and may be wireless or wired. good.

なお、図2に示した構成は、以下に説明する各処理を実現可能な構成の一例に過ぎず、以下に説明する各処理を実現可能な構成であれば、如何なる構成を採用しても構わない。例えば、図2に示したシステムは、監視カメラとしてのネットワークカメラを2つ有するものとしているが、その数は3以上であっても良く、何れにせよ、それぞれのネットワークカメラは同様に動作することになる。   The configuration shown in FIG. 2 is merely an example of a configuration that can realize each process described below, and any configuration may be adopted as long as each process described below can be realized. Absent. For example, although the system shown in FIG. 2 has two network cameras as surveillance cameras, the number may be three or more, and in any case, each network camera operates in the same manner. become.

次に、人物又はグループを追尾する追尾装置であるネットワークカメラ100の機能構成例について、図1のブロック図を用いて説明する。   Next, a functional configuration example of the network camera 100 that is a tracking device that tracks a person or a group will be described with reference to the block diagram of FIG.

制御部199(コンピュータ)は、不図示のメモリに格納されているコンピュータプログラムやデータを用いて処理を実行する。これにより制御部199は、ネットワークカメラ100を構成する各機能部の動作制御を行い、ネットワークカメラ100が行うものとして後述する各処理を実行若しくは制御する。   The control unit 199 (computer) executes processing using a computer program and data stored in a memory (not shown). Thereby, the control unit 199 performs operation control of each functional unit constituting the network camera 100, and executes or controls each process described later as what the network camera 100 performs.

撮像センサ部101は、撮像面に結像された光学像を光電変換によりデジタル電気信号に変換するCMOSなどの撮像素子であり、撮像センサ部101は、該デジタル電気信号を後段の現像処理部102に対して送出する。   The imaging sensor unit 101 is an imaging element such as a CMOS that converts an optical image formed on the imaging surface into a digital electric signal by photoelectric conversion. The imaging sensor unit 101 converts the digital electric signal into a subsequent development processing unit 102. Is sent to.

現像処理部102は、撮像センサ部101から出力されたデジタル電気信号を用いて画素補間処理や色変換処理を行うことで、RGB画像やYUV画像といった撮像画像を生成する。また、現像処理部102は、該撮像画像を用いて規定の演算処理を行い、該演算結果に基づいて、ホワイトバランス、シャープネス、コントラスト、色変換などの画像処理を行う。   The development processing unit 102 generates a captured image such as an RGB image or a YUV image by performing pixel interpolation processing and color conversion processing using the digital electrical signal output from the imaging sensor unit 101. Further, the development processing unit 102 performs a predetermined calculation process using the captured image, and performs image processes such as white balance, sharpness, contrast, and color conversion based on the calculation result.

すなわち、撮像センサ部101及び現像処理部102により、現実空間の映像を撮像することができ、これにより現像処理部102からは、この撮像した映像がフレーム単位で出力されることになる。   That is, the imaging sensor unit 101 and the development processing unit 102 can capture a real-space video, and the development processing unit 102 outputs the captured video in units of frames.

人物/グループ照合データ蓄積部104は、被写体の情報、被写体群から成るグループの情報、が格納されている。本実施形態では被写体として人物を用いるが、他の種の被写体であっても構わない。   The person / group collation data storage unit 104 stores subject information and group information including subject groups. In this embodiment, a person is used as a subject, but other types of subjects may be used.

被写体の情報、即ち、人物の情報(人物情報)には、例えば、該人物を認識するための情報(該人物の顔や服装等の、該人物の特徴量)や、該人物に対する識別情報(例えばID)、が含まれている。   The object information, that is, the person information (person information) includes, for example, information for recognizing the person (features of the person such as the face and clothes of the person) and identification information for the person ( For example, ID) is included.

グループの情報、即ち、複数人の人物から構成されるグループの情報(グループ情報)には、例えば、該グループ情報の識別情報(例えばID)、該グループを構成するそれぞれの人物の人物情報、該グループを構成するそれぞれの人物間の基準距離、該グループを構成する人物の数(総数や男女比など)、が含まれている。   Group information, that is, group information composed of a plurality of persons (group information) includes, for example, identification information (for example, ID) of the group information, person information of each person constituting the group, The reference distance between each person constituting the group and the number of persons constituting the group (total number, sex ratio, etc.) are included.

人物/グループ照合データ蓄積部104への人物情報やグループ情報の新規登録や、人物/グループ照合データ蓄積部104にすでに格納されている人物情報やグループ情報の更新は、サーバ装置400によって行われる。   The server apparatus 400 performs new registration of person information and group information in the person / group collation data storage unit 104 and update of person information and group information already stored in the person / group collation data storage unit 104.

人物/グループ照合処理部103は、現像処理部102から撮像画像を受けると、先ず、人物/グループ照合データ蓄積部104に格納されている人物情報を用いて、該撮像画像中のそれぞれの人物に対する認識処理を実行する。そして人物/グループ照合処理部103は、認識した人物の数を計数し、計数した数が閾値以上であるか否かを判断する。この閾値は、例えば、3人である。そして人物/グループ照合処理部103は、閾値未満であると判断した場合には、認識した人物を追尾対象とする。   When the person / group collation processing unit 103 receives the captured image from the development processing unit 102, first, the person / group collation processing unit 103 uses the person information stored in the person / group collation data storage unit 104 for each person in the captured image. Perform recognition processing. Then, the person / group matching processing unit 103 counts the number of recognized persons and determines whether or not the counted number is equal to or greater than a threshold value. This threshold is three people, for example. If the person / group matching processing unit 103 determines that the person is less than the threshold value, the person / group matching processing unit 103 sets the recognized person as a tracking target.

一方、人物/グループ照合処理部103は、閾値以上であると判断した場合には、人物/グループ照合データ蓄積部104に格納されているグループ情報を用いて、認識したそれぞれの人物のうち1つのグループに属する人物群を特定し、該特定した人物群(グループ)を追尾対象とする。   On the other hand, if it is determined that the person / group matching processing unit 103 is equal to or greater than the threshold value, the person / group matching processing unit 103 uses one of the recognized persons using the group information stored in the person / group matching data storage unit 104. A group of persons belonging to the group is specified, and the specified group of persons (group) is set as a tracking target.

そして人物/グループ照合処理部103は、現像処理部102から受けた撮像画像と、該撮像画像に対する上記の解析結果により特定された追尾対象を示す情報(解析情報)と、を後段の映像符号化部105に対して送出する。   The person / group verification processing unit 103 then encodes the captured image received from the development processing unit 102 and information (analysis information) indicating the tracking target specified by the above analysis result with respect to the captured image. Send to the unit 105.

映像符号化部105は、人物/グループ照合処理部103から受けた撮像画像を圧縮符号化して圧縮符号化画像を生成する。圧縮符号化の形式については特定の形式に限るものではなく、MPEG4、H.264、MJPEG、JPEG等の形式を用いる。そして映像符号化部105は、圧縮符号化画像を、人物/グループ照合処理部103から受けた解析情報と共に、LAN I/F部106を介してサーバ装置400に対して送信する。   The video encoding unit 105 compresses and encodes the captured image received from the person / group matching processing unit 103 to generate a compressed encoded image. The compression encoding format is not limited to a specific format, and formats such as MPEG4, H.264, MJPEG, and JPEG are used. The video encoding unit 105 transmits the compression encoded image to the server device 400 via the LAN I / F unit 106 together with the analysis information received from the person / group matching processing unit 103.

サーバ装置400は、ネットワークカメラ100を含むそれぞれのネットワークカメラから送信された圧縮符号化画像及び解析情報を記憶装置300に格納する。   The server device 400 stores the compression-coded image and analysis information transmitted from each network camera including the network camera 100 in the storage device 300.

LAN I/F部106は、ネットワークカメラ100をネットワーク600に接続するためのインターフェースとして機能するものであり、ネットワークカメラ100は、このLAN I/F部106を介してネットワーク600上の機器とのデータ通信を行うことになる。なお、LAN I/F部106は、記憶装置300のLAN I/F部と連携することにより、例えば、NFSやCIFSなどのネットワークファイルシステムを構築して、圧縮符号化画像及び解析情報を記憶装置300に格納するようにしても構わない。   The LAN I / F unit 106 functions as an interface for connecting the network camera 100 to the network 600, and the network camera 100 exchanges data with devices on the network 600 via the LAN I / F unit 106. Communication will be performed. Note that the LAN I / F unit 106 cooperates with the LAN I / F unit of the storage device 300 to construct a network file system such as NFS or CIFS, and stores the compressed encoded image and analysis information in the storage device. You may make it store in 300. FIG.

ここで、現実空間におけるネットワークカメラ100,200の配置例を図4に示す。図4では、監視範囲に設置されているネットワークカメラの位置と人の流れを示したフロアを示している。図4では、人の流れに対して1台目の監視カメラとしてネットワークカメラ100、2台目の監視カメラとしてネットワークカメラ200が撮影をしている方向を示している。   Here, FIG. 4 shows an arrangement example of the network cameras 100 and 200 in the real space. FIG. 4 shows a floor showing the position of the network camera installed in the monitoring range and the flow of people. FIG. 4 shows a direction in which the network camera 100 as the first monitoring camera and the network camera 200 as the second monitoring camera are shooting with respect to the flow of people.

次に、人物又はグループを追尾する追尾装置であるネットワークカメラ100,200のそれぞれが行う処理について、図3のフローチャートを用いて説明する。以下ではネットワークカメラ100を例にとり,その動作について説明するが、ネットワークカメラ200も同様に動作する。   Next, processing performed by each of the network cameras 100 and 200 that are tracking devices that track a person or a group will be described with reference to the flowchart of FIG. Hereinafter, the operation of the network camera 100 will be described as an example, but the network camera 200 operates in the same manner.

<ステップS1>
先ず、サーバ装置400は、ネットワーク600上のそれぞれのネットワークカメラ(本実施形態の場合は、ネットワークカメラ100,200)に対して、該ネットワークカメラに追尾させる人物の人物情報、該ネットワークカメラに追尾させるためのグループのグループ情報を送信する。ネットワークカメラ100の制御部199は、サーバ装置400から送信された人物情報及びグループ情報をLAN I/F部106を介して受信すると、該受信した人物情報及びグループ情報を人物/グループ照合データ蓄積部104に格納する。
<Step S1>
First, the server apparatus 400 causes each network camera on the network 600 (in the present embodiment, the network cameras 100 and 200) to track the person information of the person tracked by the network camera and the network camera. Send group information for the group. When the control unit 199 of the network camera 100 receives the person information and group information transmitted from the server device 400 via the LAN I / F unit 106, the control unit 199 receives the received person information and group information from the person / group verification data storage unit. It stores in 104.

<ステップS2>
人物/グループ照合処理部103は、現像処理部102から撮像画像を受けると、人物/グループ照合データ蓄積部104に格納されている人物情報を用いて、該撮像画像中のそれぞれの人物に対する認識処理を実行する。
<Step S2>
When the person / group collation processing unit 103 receives the captured image from the development processing unit 102, the person / group collation processing unit 103 uses the person information stored in the person / group collation data storage unit 104 to recognize each person in the captured image. Execute.

<ステップS3>
人物/グループ照合処理部103は、ステップS2において撮像画像から認識した人物の数を計数し、該計数した数が閾値以上であるか否かを判断する。この判断の結果、計数した数が閾値以上であれば、処理はステップS7に進み、計数した数が閾値未満であれば、処理はステップS4に進む。この閾値は、例えば、3人である。
<Step S3>
The person / group matching processing unit 103 counts the number of persons recognized from the captured image in step S2, and determines whether the counted number is equal to or greater than a threshold value. As a result of this determination, if the counted number is equal to or greater than the threshold, the process proceeds to step S7, and if the counted number is less than the threshold, the process proceeds to step S4. This threshold is three people, for example.

<ステップS4>
ステップS2で一人も認識することができなかった場合、すなわち、撮像画像中に人物情報に合致する人物が写っていなかった場合には、処理はステップS2に戻る。一方、ステップS2で撮像画像から1以上の人物を認識した場合、すなわち、撮像画像中に人物情報に合致する人物が1以上写っていた場合には、撮像画像から認識した人物を追尾対象とし、処理はステップS5に進む。
<Step S4>
If no one can be recognized in step S2, that is, if no person matching the person information is captured in the captured image, the process returns to step S2. On the other hand, when one or more persons are recognized from the captured image in step S2, that is, when one or more persons matching the person information are captured in the captured image, the person recognized from the captured image is set as a tracking target. The process proceeds to step S5.

<ステップS5>
映像符号化部105は、ステップS2で処理対象とした撮像画像に対して圧縮符号化を行うことで、圧縮符号化画像を生成する。そして映像符号化部105は、該生成した圧縮符号画像と、追尾対象に係る情報(解析情報)と、をLAN I/F部106を介してサーバ装置400に対して送信する。
<Step S5>
The video encoding unit 105 generates a compression-encoded image by performing compression encoding on the captured image that is the processing target in step S2. The video encoding unit 105 transmits the generated compressed code image and information (analysis information) related to the tracking target to the server apparatus 400 via the LAN I / F unit 106.

この解析情報は、例えば、追尾対象を認識するために用いた人物情報中の識別情報(すなわち追尾対象としての人物の識別情報)、撮像画像中における追尾対象の位置(撮像画像から認識した人物の領域の位置)を含む。しかし、撮像画像において認識に成功した人物を特定するための情報であれば、如何なる情報を解析情報として採用しても構わない。   This analysis information includes, for example, identification information in the person information used for recognizing the tracking target (that is, identification information of the person as the tracking target), the position of the tracking target in the captured image (the person's recognition from the captured image). Area location). However, any information may be adopted as analysis information as long as it is information for specifying a person who has been successfully recognized in the captured image.

サーバ装置400は、ネットワークカメラ100から圧縮符号画像及び解析情報を受信するたびに、該圧縮符号画像及び解析情報のセットを記憶装置300に格納する。これにより記憶装置300には、ネットワークカメラごとに、該ネットワークカメラから送信された圧縮符号画像及び解析情報のセット群が登録されることになる。   Each time the server apparatus 400 receives a compressed code image and analysis information from the network camera 100, the server apparatus 400 stores the set of the compressed code image and analysis information in the storage device 300. As a result, for each network camera, a set group of compressed code images and analysis information transmitted from the network camera is registered in the storage device 300.

更にネットワークカメラ100は、撮像画像において人物/グループ照合処理部103が認識したそれぞれの人物を追尾するように、ネットワークカメラ100の画角や姿勢を制御して、ネットワークカメラ100の撮像画像内に人物/グループ照合処理部103が認識したそれぞれの人物が常に含まれるようにする。なお、この制御は、サーバ装置400の制御に基づいて、画角や姿勢を制御するようにしてもよい。   Further, the network camera 100 controls the angle of view and orientation of the network camera 100 so as to track each person recognized by the person / group matching processing unit 103 in the captured image, and the person is included in the captured image of the network camera 100. Each group recognized by the group matching processing unit 103 is always included. In this control, the angle of view and the posture may be controlled based on the control of the server device 400.

<ステップS6>
ステップS2で認識に成功した人物(ここでは、同一のグループに属さない人物A,B,Cとする)が、その後、撮像画像から消失(フレームアウト)した場合には、人物/グループ照合処理部103は、それまで人物/グループ照合データ蓄積部104から読み出して使用していた人物A,B,Cのそれぞれの人物情報中の識別情報をサーバ装置400に対して送信する。サーバ装置400は、この識別情報に対応する人物情報、即ち、人物A,B,Cのそれぞれの人物情報を、ネットワークカメラ100以外の他ネットワークカメラ(本実施形態の場合はネットワークカメラ200)に対して送信する。他ネットワークカメラは、サーバ装置400から送信された、人物A,B,Cのそれぞれの人物情報を、自身の人物/グループ照合データ蓄積部104に登録するので、他ネットワークカメラはこれ以降、自身の人物/グループ照合データ蓄積部104に登録されている人物情報、即ち、人物A,B,Cのそれぞれの人物情報を用いて認識処理を行うことになり、人物A,B,Cを撮像画像から認識することができる。
<Step S6>
If the persons who succeeded in recognition in step S2 (here, persons A, B, and C that do not belong to the same group) have disappeared (out of frame) from the captured image, the person / group matching processing unit 103 transmits the identification information in the personal information of each of the persons A, B, and C read and used from the person / group collation data storage unit 104 until then to the server apparatus 400. The server apparatus 400 sends the person information corresponding to the identification information, that is, the person information of each of the persons A, B, and C to a network camera other than the network camera 100 (the network camera 200 in this embodiment). To send. Since the other network camera registers the personal information of each of the persons A, B, and C transmitted from the server device 400 in its own person / group collation data storage unit 104, the other network camera thereafter Recognition processing is performed using the person information registered in the person / group verification data storage unit 104, that is, the person information of each of the persons A, B, and C, and the persons A, B, and C are detected from the captured image. Can be recognized.

例えば、ある時刻において、ネットワークカメラ100による撮像画像から人物A,B,Cが認識されており(図5の上部)、その後、人物A,B,Cが該撮像画像からフレームアウトしたとすると、上記の処理により、ネットワークカメラ200の人物/グループ照合データ蓄積部104には、人物A,B,Cのそれぞれの人物情報が登録されるので、これ以降は(例えばこの「ある時刻」から時間Nだけ経過した後)、ネットワークカメラ200による撮像画像からも人物A,B,Cを認識することができる(図5の下部)。   For example, if a person A, B, C is recognized from the image captured by the network camera 100 at a certain time (upper part of FIG. 5), and then the person A, B, C is out of frame from the captured image, With the above processing, the person information of each of the persons A, B, and C is registered in the person / group collation data storage unit 104 of the network camera 200. After the elapse of time), the persons A, B, and C can be recognized from the image captured by the network camera 200 (lower part of FIG. 5).

<ステップS7>
人物/グループ照合処理部103は、人物/グループ照合データ蓄積部104に格納されているグループ情報を用いて、ステップS2で認識したそれぞれの人物のうち1つのグループに属する人物群を特定する。
<Step S7>
The person / group collation processing unit 103 uses the group information stored in the person / group collation data storage unit 104 to identify a group of persons belonging to one group among each person recognized in step S2.

例えば、認識したそれぞれの人物の識別情報のうちグループ情報に含まれている識別情報、即ち、1つのグループに属する人物の識別情報を特定し、該特定した識別情報の人物間の撮像画像上の距離が、グループ情報に含まれている基準距離以下であったり、該特定した識別情報の人物の総数や男女比が、グループ情報に含まれている総数や男女比と合致する、といった条件が満たされた場合に、撮像画像からグループを認識した、と判断する。   For example, identification information included in group information among identification information of each recognized person, that is, identification information of a person belonging to one group is specified, and a captured image between persons of the specified identification information Conditions such as the distance being equal to or less than the reference distance included in the group information, or the total number of persons or gender ratio of the identified identification information matching the total number or gender ratio included in the group information are satisfied. If it is determined that the group has been recognized from the captured image.

このような処理の結果、撮像画像から1つのグループに属する人物群を特定することができた場合には、該人物群を追尾対象とし、処理はステップS8に進み、特定することができなかった場合には、処理はステップS2に戻る。   As a result of such processing, when a group of persons belonging to one group can be identified from the captured image, the group of persons is set as the tracking target, and the process proceeds to step S8 and cannot be identified. If so, the process returns to step S2.

<ステップS8>
このグループ追跡では、グループに属する人物の位置に基づいて、グループが存在する位置を判定する。
<Step S8>
In this group tracking, the position where the group exists is determined based on the position of the person belonging to the group.

このグループ追跡では、ステップS8の閾値以上の人物が検出されても、ステップS8の閾値の人数を対象とした追跡処理を行う。したがって、追跡を行なうための検索、照合する処理の負荷を抑えることができる。また、追跡中に、グループに属する人物同士が重なって、グループに属する人物の一部が検出できない場合も、検出された人物を追跡することにより、グループを追跡する。   In this group tracking, even if a person whose threshold value is greater than or equal to the threshold value in step S8 is detected, a tracking process for the number of persons having the threshold value in step S8 is performed. Therefore, it is possible to reduce the load of processing for searching and collating for tracking. In addition, during tracking, even if a person belonging to the group overlaps and a part of the person belonging to the group cannot be detected, the group is tracked by tracking the detected person.

映像符号化部105は、ステップS2で処理対象とした撮像画像に対して圧縮符号化を行うことで、圧縮符号化画像を生成する。そして映像符号化部105は、該生成した圧縮符号画像と、追尾対象に係る情報(解析情報)と、をLAN I/F部106を介してサーバ装置400に対して送信する。   The video encoding unit 105 generates a compression-encoded image by performing compression encoding on the captured image that is the processing target in step S2. The video encoding unit 105 transmits the generated compressed code image and information (analysis information) related to the tracking target to the server apparatus 400 via the LAN I / F unit 106.

この解析情報は、例えば、認識したそれぞれの人物の識別情報のうちグループ情報に含まれている識別情報(すなわち追尾対象としての人物群に含まれるそれぞれの人物の識別情報)、撮像画像中における追尾対象の位置(追尾対象としての人物群に含まれるそれぞれの人物の領域の位置)を含む。しかし、撮像画像において、追尾対象としての人物群に含まれるそれぞれの人物を特定するための情報であれば、如何なる情報を解析情報として採用しても構わない。   The analysis information includes, for example, identification information included in the group information among identification information of each recognized person (that is, identification information of each person included in the person group as the tracking target), tracking in the captured image The position of the target (the position of the area of each person included in the person group as the tracking target) is included. However, any information may be adopted as analysis information as long as it is information for specifying each person included in the person group as the tracking target in the captured image.

サーバ装置400は、ネットワークカメラ100から圧縮符号画像及び解析情報を受信するたびに、該圧縮符号画像及び解析情報のセットを記憶装置300に格納する。これにより記憶装置300には、ネットワークカメラごとに、該ネットワークカメラから送信された圧縮符号画像及び解析情報のセット群が登録されることになる。   Each time the server apparatus 400 receives a compressed code image and analysis information from the network camera 100, the server apparatus 400 stores the set of the compressed code image and analysis information in the storage device 300. As a result, for each network camera, a set group of compressed code images and analysis information transmitted from the network camera is registered in the storage device 300.

また、ネットワークカメラ100は、追尾対象としての人物群に含まれるそれぞれの人物を追尾するように、ネットワークカメラ100の画角や姿勢を制御して、ネットワークカメラ100の撮像画像内に「追尾対象としての人物群に含まれるそれぞれの人物」が常に含まれるようにする。なお、この制御は、サーバ装置400の制御に基づいて、画角や姿勢を制御するようにしてもよい。   In addition, the network camera 100 controls the angle of view and the posture of the network camera 100 so as to track each person included in the group of persons as the tracking target, and displays “as a tracking target” in the captured image of the network camera 100. "Each person included in the group of persons" is always included. In this control, the angle of view and the posture may be controlled based on the control of the server device 400.

<ステップS9>
グループ情報に対応するグループに属する人物群(ここでは、同一のグループの属する人物A,B,Cとする)が、その後、撮像画像から消失(フレームアウト)した場合には、人物/グループ照合処理部103は、それまで人物/グループ照合データ蓄積部104から読み出して使用していたグループ情報の識別情報をサーバ装置400に対して送信する。サーバ装置400は、この識別情報に対応するグループ情報を、ネットワークカメラ100以外の他ネットワークカメラ(本実施形態の場合はネットワークカメラ200)に対して送信する。他ネットワークカメラは、サーバ装置400から送信されたグループ情報を、自身の人物/グループ照合データ蓄積部104に登録するので、他ネットワークカメラはこれ以降、自身の人物/グループ照合データ蓄積部104に登録されているグループ情報、即ち、人物A,B,Cのそれぞれの人物から成るグループのグループ情報を用いてグループ認識処理を行うことになり、人物A,B,Cから成るグループを撮像画像から認識することができる。
<Step S9>
When the group of persons belonging to the group corresponding to the group information (here, persons A, B, and C belonging to the same group) disappears (frames out) from the captured image, the person / group matching process The unit 103 transmits the identification information of the group information read and used from the person / group collation data storage unit 104 until then to the server device 400. The server apparatus 400 transmits group information corresponding to the identification information to a network camera other than the network camera 100 (in the present embodiment, the network camera 200). Since the other network camera registers the group information transmitted from the server device 400 in its own person / group collation data storage unit 104, the other network camera thereafter registers in its own person / group collation data storage unit 104. Group recognition processing is performed using the group information that has been set, that is, the group information of the group of persons A, B, and C, and the group of persons A, B, and C is recognized from the captured image. can do.

例えば、ある時刻において、ネットワークカメラ100による撮像画像から人物A,B,Cから成るグループが認識されており(図6の上部)、その後、このグループが該撮像画像からフレームアウトしたとすると、上記の処理により、ネットワークカメラ200の人物/グループ照合データ蓄積部104には、人物A,B,Cから成るグループのグループ情報が登録されるので、これ以降は(例えばこの「ある時刻」から時間Nだけ経過した後)、ネットワークカメラ200による撮像画像からも人物A,B,Cから成るグループを認識することができる(図6の下部)。   For example, if a group of persons A, B, and C is recognized from an image captured by the network camera 100 at a certain time (upper part of FIG. 6), and then this group is framed out from the captured image, With this processing, the group information of the group consisting of the persons A, B, and C is registered in the person / group collation data storage unit 104 of the network camera 200. After the elapse of time), the group consisting of persons A, B, and C can be recognized from the image captured by the network camera 200 (lower part of FIG. 6).

<ステップS10>
サーバ装置400から上記の理由で人物情報/グループ情報が送信された場合には、制御部199は、この人物情報/グループ情報をLAN I/F部106を介して受信し、人物/グループ照合データ蓄積部104にすでに登録されている人物情報/グループ情報を削除して、該受信した人物情報/グループ情報を新たに人物/グループ照合データ蓄積部104に登録する。
<Step S10>
When the personal information / group information is transmitted from the server device 400 for the above-described reason, the control unit 199 receives the personal information / group information via the LAN I / F unit 106 and receives the personal / group verification data. The person information / group information already registered in the storage unit 104 is deleted, and the received person information / group information is newly registered in the person / group verification data storage unit 104.

なお、ステップS6及びステップS9では、ネットワークカメラ100の人物/グループ照合データ蓄積部104が保持する人物情報/グループ情報は不要となるため、これを削除しても構わない。   In step S6 and step S9, the person information / group information held by the person / group collation data storage unit 104 of the network camera 100 becomes unnecessary, and may be deleted.

また、図1に示したネットワークカメラ100を構成する各機能部はハードウェアを用いて構成しても良い。しかし、制御部199をCPU等のプロセッサ、人物/グループ照合データ蓄積部104をハードディスクなどのメモリ装置、LAN I/F部106をインターフェース機器で構成し、その他の各機能部をソフトウェアで実装しても構わない。その場合、CPU等のプロセッサがこのようなソフトウェアを実行することで、上記のネットワークカメラ100が行うものとして説明した各処理を実現することができる。もちろん、どの部分をソフトウェアで構成し、どの部分をハードウェアで構成するかは、適宜設計すればよい。   Further, each functional unit configuring the network camera 100 illustrated in FIG. 1 may be configured using hardware. However, the control unit 199 is configured by a processor such as a CPU, the person / group verification data storage unit 104 is configured by a memory device such as a hard disk, the LAN I / F unit 106 is configured by an interface device, and other functional units are implemented by software. It doesn't matter. In this case, each process described as being performed by the network camera 100 can be realized by a processor such as a CPU executing such software. Of course, what part is configured by software and which part is configured by hardware may be appropriately designed.

このように、本実施形態に係るネットワークカメラとは、以下のような追尾装置の一例に過ぎないことが分かる。即ち、撮像画像から認識した被写体の数が閾値以上であれば、該撮像画像から認識した被写体群のうち1つのグループに属する被写体群を追尾対象とし、該数が閾値未満であれば、該撮像画像から認識したそれぞれの被写体を追尾対象とする追尾装置である。また、ネットワークカメラは撮像装置であって、該撮像装置の制御装置に対して、追尾対象に関する情報を送信する撮像装置である。そしてこのような場合、該制御装置は、着目撮像装置から追尾対象に関する情報を受信すると、該着目撮像装置以外の撮像装置に対して、該追尾対象を認識するための情報を送信する。   Thus, it can be seen that the network camera according to the present embodiment is merely an example of the following tracking device. That is, if the number of subjects recognized from the captured image is equal to or greater than the threshold, the subject group belonging to one group among the subject groups recognized from the captured image is set as the tracking target, and if the number is less than the threshold, the imaging This is a tracking device that targets each subject recognized from an image as a tracking target. Further, the network camera is an imaging device, and is an imaging device that transmits information on the tracking target to the control device of the imaging device. In such a case, when receiving information on the tracking target from the target imaging device, the control device transmits information for recognizing the tracking target to an imaging device other than the target imaging device.

[第2の実施形態]
第1の実施形態で説明したように、表示装置500の表示画面上に、ネットワークカメラ100による各フレームの撮像画像、ネットワークカメラ200による各フレームの撮像画像を表示させ、それぞれの撮像画像上に、該撮像画像に対する映像解析結果を重畳させて表示しても良い。
[Second Embodiment]
As described in the first embodiment, the captured image of each frame by the network camera 100 and the captured image of each frame by the network camera 200 are displayed on the display screen of the display device 500, and on each captured image, The video analysis result for the captured image may be displayed superimposed.

その場合、人物/グループ照合処理部103は、第1の実施形態で説明した解析情報に、追尾対象が個々の人物であるのか、それともグループであるのかを示すフラグ情報を更に含め、このような解析情報と圧縮符号画像とをサーバ装置400に対して送信する。   In that case, the person / group matching processing unit 103 further includes flag information indicating whether the tracking target is an individual person or a group in the analysis information described in the first embodiment, and The analysis information and the compressed code image are transmitted to the server apparatus 400.

そして表示装置500は、記憶装置300に格納されている圧縮符号画像を読み出して復号し、該復号した画像を表示すると共に、該読み出した圧縮符号画像とセットになって格納されている解析情報から上記のフラグ情報を読み出す。そしてこのフラグ情報が、個々の人物を追尾対象としていることを示している場合には、解析情報から個々の人物の位置を読み出し、該読み出した位置に矩形を表示することで、撮像画像上で追尾対象とする人物に矩形を重ねて表示することができる。一方、このフラグ情報が、グループを追尾対象としていることを示している場合には、解析情報からグループに属するそれぞれの人物の位置を読み出し、該読み出したそれぞれの位置を包含する矩形を表示することで、撮像画像上で追尾対象とするグループに矩形を重ねて表示することができる。   The display device 500 reads and decodes the compressed code image stored in the storage device 300, displays the decoded image, and uses the analysis information stored as a set with the read compressed code image. Read the flag information. If the flag information indicates that an individual person is a tracking target, the position of the individual person is read from the analysis information, and a rectangle is displayed at the read position. A rectangle can be superimposed and displayed on the person to be tracked. On the other hand, when the flag information indicates that the group is a tracking target, the position of each person belonging to the group is read from the analysis information, and a rectangle including each of the read positions is displayed. Thus, a rectangle can be superimposed and displayed on the group to be tracked on the captured image.

[第3の実施形態]
第1の実施形態では、個々のネットワークカメラに人物/グループ照合データ蓄積部104を設けていた。しかし、ネットワーク600のネットワークインフラの帯域容量が大きければ、それぞれのネットワークカメラが人物/グループ照合データ蓄積部104を有するのではなく、サーバ装置400側で、それぞれのネットワークカメラに対応する人物/グループ照合データ蓄積部104を設けるようにしても構わない。その場合、第1の実施形態で説明した「ネットワークカメラ側の人物/グループ照合データ蓄積部104とサーバ装置400との間の処理」は、「サーバ装置400が有する人物/グループ照合データ蓄積部104とサーバ装置400の制御部(不図示)との間の処理」となり、処理の内容については第1の実施形態と同様である。
[Third Embodiment]
In the first embodiment, the person / group verification data storage unit 104 is provided in each network camera. However, if the bandwidth capacity of the network infrastructure of the network 600 is large, each network camera does not have the person / group matching data storage unit 104, but the server device 400 side has a person / group matching corresponding to each network camera. The data storage unit 104 may be provided. In that case, the “process between the person / group collation data storage unit 104 on the network camera side and the server device 400” described in the first embodiment is “the person / group collation data storage unit 104 of the server device 400”. Between the server device 400 and a control unit (not shown) of the server device 400 ”, and the content of the processing is the same as in the first embodiment.

また、このように構成されるサーバ装置400において行う処理を、数台単位のクラスタ形式の構成で実現させても良く、その場合、それぞれのクラスタにおける処理結果をサーバ装置400が統合するようなシステムを構築することもできる。   In addition, the processing performed in the server apparatus 400 configured as described above may be realized in a cluster format configuration in units of several units. In this case, a system in which the server apparatus 400 integrates the processing results in each cluster. Can also be built.

(その他の実施例)
また、本発明は、以下の処理を実行することによっても実現される。即ち、上述した実施形態の機能を実現するソフトウェア(プログラム)を、ネットワーク又は各種記憶媒体を介してシステム或いは装置に供給し、そのシステム或いは装置のコンピュータ(またはCPUやMPU等)がプログラムを読み出して実行する処理である。
(Other examples)
The present invention can also be realized by executing the following processing. That is, software (program) that realizes the functions of the above-described embodiments is supplied to a system or apparatus via a network or various storage media, and a computer (or CPU, MPU, or the like) of the system or apparatus reads the program. It is a process to be executed.

103:人物/グループ照合処理部 104:人物/グループ照合データ蓄積部   103: Person / group verification processing unit 104: Person / group verification data storage unit

Claims (11)

追尾装置であって、
撮像画像から認識した被写体の数が閾値以上であれば、該撮像画像から認識した被写体群のうち1つのグループに属する被写体群を追尾対象とし、該数が閾値未満であれば、該撮像画像から認識したそれぞれの被写体を追尾対象とする手段を備えることを特徴とする追尾装置。
A tracking device,
If the number of subjects recognized from the captured image is equal to or greater than the threshold, the subject group belonging to one group among the subject groups recognized from the captured image is set as the tracking target, and if the number is less than the threshold, the captured image A tracking device comprising means for tracking each recognized subject.
更に、
前記撮像画像内に前記追尾対象が収まるように、前記追尾装置の姿勢、若しくは画角を制御する手段を備えることを特徴とする請求項1に記載の追尾装置。
Furthermore,
The tracking device according to claim 1, further comprising means for controlling an attitude or an angle of view of the tracking device so that the tracking target is contained in the captured image.
請求項1又は2に記載の追尾装置として機能する複数の撮像装置と、
前記複数の撮像装置を制御する制御装置と
を備えることを特徴とするシステム。
A plurality of imaging devices functioning as the tracking device according to claim 1 or 2,
And a control device that controls the plurality of imaging devices.
前記制御装置は、着目撮像装置から前記追尾対象に関する情報を受信すると、該着目撮像装置以外の撮像装置に対して、該追尾対象を認識するための情報を送信することを特徴とする請求項3に記載のシステム。   The control device, when receiving information on the tracking target from the target imaging device, transmits information for recognizing the tracking target to an imaging device other than the target imaging device. The system described in. 前記追尾対象が前記1つのグループに属する被写体群である場合、該追尾対象に関する情報は、該被写体群に含まれるそれぞれの被写体の識別情報を含むことを特徴とする請求項4に記載のシステム。   5. The system according to claim 4, wherein, when the tracking target is a subject group belonging to the one group, the information regarding the tracking target includes identification information of each subject included in the subject group. 前記追尾対象が前記撮像画像から認識したそれぞれの被写体である場合、該追尾対象に関する情報は、該被写体の識別情報を含むことを特徴とする請求項4に記載のシステム。   5. The system according to claim 4, wherein when the tracking target is each subject recognized from the captured image, the information regarding the tracking target includes identification information of the subject. 追尾装置の制御方法であって、
撮像画像から認識した被写体の数が閾値以上であれば、該撮像画像から認識した被写体群のうち1つのグループに属する被写体群を追尾対象とし、該数が閾値未満であれば、該撮像画像から認識したそれぞれの被写体を追尾対象とすることを特徴とする追尾装置の制御方法。
A control method for a tracking device,
If the number of subjects recognized from the captured image is equal to or greater than the threshold, the subject group belonging to one group among the subject groups recognized from the captured image is set as the tracking target, and if the number is less than the threshold, the captured image A control method for a tracking device, characterized in that each recognized subject is set as a tracking target.
更に、
前記追尾対象に関する情報を、前記追尾装置の制御装置に対して送信することを特徴とする請求項7に記載の追尾装置の制御方法。
Furthermore,
The method for controlling a tracking device according to claim 7, wherein information on the tracking target is transmitted to a control device of the tracking device.
前記追尾対象が前記1つのグループに属する被写体群である場合、該追尾対象に関する情報は、該被写体群に含まれるそれぞれの被写体の識別情報を含むことを特徴とする請求項8に記載の追尾装置の制御方法。   9. The tracking device according to claim 8, wherein when the tracking target is a subject group belonging to the one group, the information regarding the tracking target includes identification information of each subject included in the subject group. Control method. 前記追尾対象が前記撮像画像から認識したそれぞれの被写体である場合、該追尾対象に関する情報は、該被写体の識別情報を含むことを特徴とする請求項8に記載の追尾装置の制御方法。   9. The tracking device control method according to claim 8, wherein when the tracking target is each subject recognized from the captured image, the information regarding the tracking target includes identification information of the subject. コンピュータを、請求項1又は2に記載の追尾装置として機能させるためのコンピュータプログラム。   A computer program for causing a computer to function as the tracking device according to claim 1.
JP2014145384A 2014-07-15 2014-07-15 Tracking device and control method of the same Pending JP2016021716A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2014145384A JP2016021716A (en) 2014-07-15 2014-07-15 Tracking device and control method of the same

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2014145384A JP2016021716A (en) 2014-07-15 2014-07-15 Tracking device and control method of the same

Publications (1)

Publication Number Publication Date
JP2016021716A true JP2016021716A (en) 2016-02-04

Family

ID=55266292

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014145384A Pending JP2016021716A (en) 2014-07-15 2014-07-15 Tracking device and control method of the same

Country Status (1)

Country Link
JP (1) JP2016021716A (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6089157B1 (en) * 2016-06-16 2017-03-01 株式会社オプティム Clothing information providing system, clothing information providing method, and program
KR101768372B1 (en) * 2016-04-22 2017-08-17 전자부품연구원 Image based Hierarchical Multiple Object Tracking Method and System using a Relative Motion between Objects

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101768372B1 (en) * 2016-04-22 2017-08-17 전자부품연구원 Image based Hierarchical Multiple Object Tracking Method and System using a Relative Motion between Objects
JP6089157B1 (en) * 2016-06-16 2017-03-01 株式会社オプティム Clothing information providing system, clothing information providing method, and program
WO2017216919A1 (en) * 2016-06-16 2017-12-21 株式会社オプティム Clothing information provision system, clothing information provision method, and program
US10592551B2 (en) 2016-06-16 2020-03-17 Optim Corporation Clothing information providing system, clothing information providing method, and program

Similar Documents

Publication Publication Date Title
EP3024227B1 (en) Image processing apparatus and image processing method
US10699541B2 (en) Recognition data transmission device
JP6422955B2 (en) Computer vision application processing
US9582709B2 (en) Privacy for camera with people recognition
US8938092B2 (en) Image processing system, image capture apparatus, image processing apparatus, control method therefor, and program
US11538276B2 (en) Communication system, distributed processing system, distributed processing method, and recording medium
JP6465600B2 (en) Video processing apparatus and video processing method
US20190147251A1 (en) Information processing apparatus, monitoring system, method, and non-transitory computer-readable storage medium
TWI521473B (en) Device, method for image analysis and computer-readable medium
US10713480B2 (en) Information processing device and information processing method
JP6437217B2 (en) Image output device, image management system, image processing method, and program
US11302045B2 (en) Image processing apparatus, image providing apparatus,control methods thereof, and medium
JP6044633B2 (en) Information processing apparatus, information processing method, and program
JP2019050553A (en) Image processing apparatus, image providing apparatus, control method of the same, and program
JP2016021716A (en) Tracking device and control method of the same
US11195298B2 (en) Information processing apparatus, system, method for controlling information processing apparatus, and non-transitory computer readable storage medium
JP7211373B2 (en) MOVING IMAGE ANALYSIS DEVICE, MOVING IMAGE ANALYSIS SYSTEM, MOVING IMAGE ANALYSIS METHOD, AND PROGRAM
US20220122377A1 (en) Information processing apparatus, information processing method, and program
JP6266088B2 (en) Person detection device and person detection method
JP6064995B2 (en) Information processing apparatus, information processing method, and program
Mariappan et al. A design methodology of an embedded motion-detecting video surveillance system
JP2015050697A (en) Video processing apparatus and control method for video processing apparatus
JP2016220148A (en) Control apparatus, control method, and system