JP2016021716A - Tracking device and control method of the same - Google Patents
Tracking device and control method of the same Download PDFInfo
- Publication number
- JP2016021716A JP2016021716A JP2014145384A JP2014145384A JP2016021716A JP 2016021716 A JP2016021716 A JP 2016021716A JP 2014145384 A JP2014145384 A JP 2014145384A JP 2014145384 A JP2014145384 A JP 2014145384A JP 2016021716 A JP2016021716 A JP 2016021716A
- Authority
- JP
- Japan
- Prior art keywords
- group
- person
- tracking
- information
- captured image
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Abstract
Description
本発明は、画像処理技術に関するもので、特に、複数の監視カメラで撮影された画像から移動体を追跡するための技術に関するものである。 The present invention relates to an image processing technique, and more particularly to a technique for tracking a moving body from images taken by a plurality of surveillance cameras.
近年、監視およびモニタリングカメラシステムとして、監視カメラの設置台数の増加に伴い、広域にわたって監視対象を追跡するシステムが考えられている。例えば、特許文献1では、多数のカメラにまたがって広範囲に移動する移動体を自動認識して追跡するシステムが提案されている。また、広域にわたって監視を行なう場合、監視対象がグループとして行動する場合があるが、特許文献2の開示の技術では、人物の挙動の情報に基づいて人物をグループ分けすることによって、人物が単独行動しているかグループ行動しているかを検知している。 In recent years, as a monitoring and monitoring camera system, a system for tracking a monitoring target over a wide area has been considered with an increase in the number of installed monitoring cameras. For example, Patent Document 1 proposes a system that automatically recognizes and tracks a moving body that moves over a wide range across a large number of cameras. In addition, when monitoring is performed over a wide area, the monitoring target may act as a group. However, in the technique disclosed in Patent Document 2, a person acts as a single person by grouping persons based on information on the behavior of the person. Detecting whether you are doing group action.
しかしながら、上記のシステムでは、広域監視範囲に複数のカメラが設置される環境で、監視対象者として追跡する人物が増えてくると、域内を移動する特定の監視対象に対して、追跡を行なうための検索、照合する処理の負荷が増大することになる。また、監視対象がグループ行動することによって、監視対象者が見え隠れなど起こりやすく、監視対象者を追跡し続けることが困難になることがある。 However, in the above-described system, in the environment where a plurality of cameras are installed in the wide-area monitoring range, when a person to be tracked as a monitoring target increases, tracking is performed for a specific monitoring target moving in the area. This increases the load of processing for searching and collating. In addition, when the monitoring target performs group action, the monitoring target person is likely to appear or hide, and it may be difficult to keep track of the monitoring target person.
本発明はこのような問題に鑑みてなされたものであり、監視対象が増大しても、効率よく監視対象を追跡するための技術を提供する。 The present invention has been made in view of such a problem, and provides a technique for efficiently tracking a monitoring target even when the number of monitoring targets increases.
本発明の一様態は、追尾装置であって、撮像画像から認識した被写体の数が閾値以上であれば、該撮像画像から認識した被写体群のうち1つのグループに属する被写体群を追尾対象とし、該数が閾値未満であれば、該撮像画像から認識したそれぞれの被写体を追尾対象とする手段を備えることを特徴とする。 One aspect of the present invention is a tracking device, and if the number of subjects recognized from a captured image is equal to or greater than a threshold, a subject group belonging to one group among the subject groups recognized from the captured image is set as a tracking target. If the number is less than a threshold value, a means for tracking each subject recognized from the captured image is provided.
本発明の構成によれば、監視対象が増大しても、効率よく監視対象を追跡することができる。 According to the configuration of the present invention, even if the number of monitoring targets increases, the monitoring targets can be tracked efficiently.
以下、添付図面を参照し、本発明の好適な実施形態について説明する。なお、以下説明する実施形態は、本発明を具体的に実施した場合の一例を示すもので、特許請求の範囲に記載した構成の具体的な実施例の1つである。 Preferred embodiments of the present invention will be described below with reference to the accompanying drawings. The embodiment described below shows an example when the present invention is specifically implemented, and is one of the specific examples of the configurations described in the claims.
[第1の実施形態]
先ず、本実施形態に係る監視システムの構成例について、図2を用いて説明する。
[First Embodiment]
First, a configuration example of the monitoring system according to the present embodiment will be described with reference to FIG.
ネットワークカメラ100,200はそれぞれ、現実空間中の所定の位置に配置された監視カメラであり、動体又は人体を追尾する追尾装置であって、撮影範囲内の現実空間の映像(動画像)を撮像する。ネットワークカメラ100,200はそれぞれ、映像(各フレームの撮像画像)に対して、動体検知、動体追尾、人体検知、顔認識、物体検知等の映像解析処理を行い、撮像画像と共に、該撮像画像に対する映像解析結果を、ネットワーク600を介してサーバ装置400に対して送信する。
Each of the
サーバ装置400は、ネットワークカメラ100,200のそれぞれに対して認識/追尾の対象を指示すると共に、ネットワークカメラ100,200から送信された撮像画像及び映像解析結果を記憶装置300に格納する。
The
表示装置500は、記憶装置300に格納されている撮像画像や映像解析結果に基づく様々な表示を行う装置である。例えば、表示装置500の表示画面上に、ネットワークカメラ100による各フレームの撮像画像、ネットワークカメラ200による各フレームの撮像画像を表示させても良い。また、それぞれの撮像画像上に、該撮像画像に対する映像解析結果を重畳させて表示しても良い。また、表示装置500には、それぞれの撮像画像からイベントシーンが写っている撮像画像を検索するための操作部を加えても良い。表示装置500は、たとえば、一般のPCや携帯端末装置などの機器であり、該機器が有する表示画面に上記のような表示を行わせると共に、タッチパネル画面やキーボードやマウスなどを上記の操作部として用いて操作入力を行う。
The
ネットワーク600は、LANやインターネットなどにより構成されており、無線であっても良いし、有線であっても良い。またネットワーク600は2以上のサブネットワークにより構成されていても良く、その場合、それぞれのサブネットワークもまた、LANやインターネットなどにより構成されており、無線であっても良いし、有線であっても良い。
The
なお、図2に示した構成は、以下に説明する各処理を実現可能な構成の一例に過ぎず、以下に説明する各処理を実現可能な構成であれば、如何なる構成を採用しても構わない。例えば、図2に示したシステムは、監視カメラとしてのネットワークカメラを2つ有するものとしているが、その数は3以上であっても良く、何れにせよ、それぞれのネットワークカメラは同様に動作することになる。 The configuration shown in FIG. 2 is merely an example of a configuration that can realize each process described below, and any configuration may be adopted as long as each process described below can be realized. Absent. For example, although the system shown in FIG. 2 has two network cameras as surveillance cameras, the number may be three or more, and in any case, each network camera operates in the same manner. become.
次に、人物又はグループを追尾する追尾装置であるネットワークカメラ100の機能構成例について、図1のブロック図を用いて説明する。
Next, a functional configuration example of the
制御部199(コンピュータ)は、不図示のメモリに格納されているコンピュータプログラムやデータを用いて処理を実行する。これにより制御部199は、ネットワークカメラ100を構成する各機能部の動作制御を行い、ネットワークカメラ100が行うものとして後述する各処理を実行若しくは制御する。
The control unit 199 (computer) executes processing using a computer program and data stored in a memory (not shown). Thereby, the
撮像センサ部101は、撮像面に結像された光学像を光電変換によりデジタル電気信号に変換するCMOSなどの撮像素子であり、撮像センサ部101は、該デジタル電気信号を後段の現像処理部102に対して送出する。
The
現像処理部102は、撮像センサ部101から出力されたデジタル電気信号を用いて画素補間処理や色変換処理を行うことで、RGB画像やYUV画像といった撮像画像を生成する。また、現像処理部102は、該撮像画像を用いて規定の演算処理を行い、該演算結果に基づいて、ホワイトバランス、シャープネス、コントラスト、色変換などの画像処理を行う。
The
すなわち、撮像センサ部101及び現像処理部102により、現実空間の映像を撮像することができ、これにより現像処理部102からは、この撮像した映像がフレーム単位で出力されることになる。
That is, the
人物/グループ照合データ蓄積部104は、被写体の情報、被写体群から成るグループの情報、が格納されている。本実施形態では被写体として人物を用いるが、他の種の被写体であっても構わない。
The person / group collation
被写体の情報、即ち、人物の情報(人物情報)には、例えば、該人物を認識するための情報(該人物の顔や服装等の、該人物の特徴量)や、該人物に対する識別情報(例えばID)、が含まれている。 The object information, that is, the person information (person information) includes, for example, information for recognizing the person (features of the person such as the face and clothes of the person) and identification information for the person ( For example, ID) is included.
グループの情報、即ち、複数人の人物から構成されるグループの情報(グループ情報)には、例えば、該グループ情報の識別情報(例えばID)、該グループを構成するそれぞれの人物の人物情報、該グループを構成するそれぞれの人物間の基準距離、該グループを構成する人物の数(総数や男女比など)、が含まれている。 Group information, that is, group information composed of a plurality of persons (group information) includes, for example, identification information (for example, ID) of the group information, person information of each person constituting the group, The reference distance between each person constituting the group and the number of persons constituting the group (total number, sex ratio, etc.) are included.
人物/グループ照合データ蓄積部104への人物情報やグループ情報の新規登録や、人物/グループ照合データ蓄積部104にすでに格納されている人物情報やグループ情報の更新は、サーバ装置400によって行われる。
The
人物/グループ照合処理部103は、現像処理部102から撮像画像を受けると、先ず、人物/グループ照合データ蓄積部104に格納されている人物情報を用いて、該撮像画像中のそれぞれの人物に対する認識処理を実行する。そして人物/グループ照合処理部103は、認識した人物の数を計数し、計数した数が閾値以上であるか否かを判断する。この閾値は、例えば、3人である。そして人物/グループ照合処理部103は、閾値未満であると判断した場合には、認識した人物を追尾対象とする。
When the person / group
一方、人物/グループ照合処理部103は、閾値以上であると判断した場合には、人物/グループ照合データ蓄積部104に格納されているグループ情報を用いて、認識したそれぞれの人物のうち1つのグループに属する人物群を特定し、該特定した人物群(グループ)を追尾対象とする。
On the other hand, if it is determined that the person / group
そして人物/グループ照合処理部103は、現像処理部102から受けた撮像画像と、該撮像画像に対する上記の解析結果により特定された追尾対象を示す情報(解析情報)と、を後段の映像符号化部105に対して送出する。
The person / group
映像符号化部105は、人物/グループ照合処理部103から受けた撮像画像を圧縮符号化して圧縮符号化画像を生成する。圧縮符号化の形式については特定の形式に限るものではなく、MPEG4、H.264、MJPEG、JPEG等の形式を用いる。そして映像符号化部105は、圧縮符号化画像を、人物/グループ照合処理部103から受けた解析情報と共に、LAN I/F部106を介してサーバ装置400に対して送信する。
The
サーバ装置400は、ネットワークカメラ100を含むそれぞれのネットワークカメラから送信された圧縮符号化画像及び解析情報を記憶装置300に格納する。
The
LAN I/F部106は、ネットワークカメラ100をネットワーク600に接続するためのインターフェースとして機能するものであり、ネットワークカメラ100は、このLAN I/F部106を介してネットワーク600上の機器とのデータ通信を行うことになる。なお、LAN I/F部106は、記憶装置300のLAN I/F部と連携することにより、例えば、NFSやCIFSなどのネットワークファイルシステムを構築して、圧縮符号化画像及び解析情報を記憶装置300に格納するようにしても構わない。
The LAN I /
ここで、現実空間におけるネットワークカメラ100,200の配置例を図4に示す。図4では、監視範囲に設置されているネットワークカメラの位置と人の流れを示したフロアを示している。図4では、人の流れに対して1台目の監視カメラとしてネットワークカメラ100、2台目の監視カメラとしてネットワークカメラ200が撮影をしている方向を示している。
Here, FIG. 4 shows an arrangement example of the
次に、人物又はグループを追尾する追尾装置であるネットワークカメラ100,200のそれぞれが行う処理について、図3のフローチャートを用いて説明する。以下ではネットワークカメラ100を例にとり,その動作について説明するが、ネットワークカメラ200も同様に動作する。
Next, processing performed by each of the
<ステップS1>
先ず、サーバ装置400は、ネットワーク600上のそれぞれのネットワークカメラ(本実施形態の場合は、ネットワークカメラ100,200)に対して、該ネットワークカメラに追尾させる人物の人物情報、該ネットワークカメラに追尾させるためのグループのグループ情報を送信する。ネットワークカメラ100の制御部199は、サーバ装置400から送信された人物情報及びグループ情報をLAN I/F部106を介して受信すると、該受信した人物情報及びグループ情報を人物/グループ照合データ蓄積部104に格納する。
<Step S1>
First, the
<ステップS2>
人物/グループ照合処理部103は、現像処理部102から撮像画像を受けると、人物/グループ照合データ蓄積部104に格納されている人物情報を用いて、該撮像画像中のそれぞれの人物に対する認識処理を実行する。
<Step S2>
When the person / group
<ステップS3>
人物/グループ照合処理部103は、ステップS2において撮像画像から認識した人物の数を計数し、該計数した数が閾値以上であるか否かを判断する。この判断の結果、計数した数が閾値以上であれば、処理はステップS7に進み、計数した数が閾値未満であれば、処理はステップS4に進む。この閾値は、例えば、3人である。
<Step S3>
The person / group matching
<ステップS4>
ステップS2で一人も認識することができなかった場合、すなわち、撮像画像中に人物情報に合致する人物が写っていなかった場合には、処理はステップS2に戻る。一方、ステップS2で撮像画像から1以上の人物を認識した場合、すなわち、撮像画像中に人物情報に合致する人物が1以上写っていた場合には、撮像画像から認識した人物を追尾対象とし、処理はステップS5に進む。
<Step S4>
If no one can be recognized in step S2, that is, if no person matching the person information is captured in the captured image, the process returns to step S2. On the other hand, when one or more persons are recognized from the captured image in step S2, that is, when one or more persons matching the person information are captured in the captured image, the person recognized from the captured image is set as a tracking target. The process proceeds to step S5.
<ステップS5>
映像符号化部105は、ステップS2で処理対象とした撮像画像に対して圧縮符号化を行うことで、圧縮符号化画像を生成する。そして映像符号化部105は、該生成した圧縮符号画像と、追尾対象に係る情報(解析情報)と、をLAN I/F部106を介してサーバ装置400に対して送信する。
<Step S5>
The
この解析情報は、例えば、追尾対象を認識するために用いた人物情報中の識別情報(すなわち追尾対象としての人物の識別情報)、撮像画像中における追尾対象の位置(撮像画像から認識した人物の領域の位置)を含む。しかし、撮像画像において認識に成功した人物を特定するための情報であれば、如何なる情報を解析情報として採用しても構わない。 This analysis information includes, for example, identification information in the person information used for recognizing the tracking target (that is, identification information of the person as the tracking target), the position of the tracking target in the captured image (the person's recognition from the captured image). Area location). However, any information may be adopted as analysis information as long as it is information for specifying a person who has been successfully recognized in the captured image.
サーバ装置400は、ネットワークカメラ100から圧縮符号画像及び解析情報を受信するたびに、該圧縮符号画像及び解析情報のセットを記憶装置300に格納する。これにより記憶装置300には、ネットワークカメラごとに、該ネットワークカメラから送信された圧縮符号画像及び解析情報のセット群が登録されることになる。
Each time the
更にネットワークカメラ100は、撮像画像において人物/グループ照合処理部103が認識したそれぞれの人物を追尾するように、ネットワークカメラ100の画角や姿勢を制御して、ネットワークカメラ100の撮像画像内に人物/グループ照合処理部103が認識したそれぞれの人物が常に含まれるようにする。なお、この制御は、サーバ装置400の制御に基づいて、画角や姿勢を制御するようにしてもよい。
Further, the
<ステップS6>
ステップS2で認識に成功した人物(ここでは、同一のグループに属さない人物A,B,Cとする)が、その後、撮像画像から消失(フレームアウト)した場合には、人物/グループ照合処理部103は、それまで人物/グループ照合データ蓄積部104から読み出して使用していた人物A,B,Cのそれぞれの人物情報中の識別情報をサーバ装置400に対して送信する。サーバ装置400は、この識別情報に対応する人物情報、即ち、人物A,B,Cのそれぞれの人物情報を、ネットワークカメラ100以外の他ネットワークカメラ(本実施形態の場合はネットワークカメラ200)に対して送信する。他ネットワークカメラは、サーバ装置400から送信された、人物A,B,Cのそれぞれの人物情報を、自身の人物/グループ照合データ蓄積部104に登録するので、他ネットワークカメラはこれ以降、自身の人物/グループ照合データ蓄積部104に登録されている人物情報、即ち、人物A,B,Cのそれぞれの人物情報を用いて認識処理を行うことになり、人物A,B,Cを撮像画像から認識することができる。
<Step S6>
If the persons who succeeded in recognition in step S2 (here, persons A, B, and C that do not belong to the same group) have disappeared (out of frame) from the captured image, the person / group matching
例えば、ある時刻において、ネットワークカメラ100による撮像画像から人物A,B,Cが認識されており(図5の上部)、その後、人物A,B,Cが該撮像画像からフレームアウトしたとすると、上記の処理により、ネットワークカメラ200の人物/グループ照合データ蓄積部104には、人物A,B,Cのそれぞれの人物情報が登録されるので、これ以降は(例えばこの「ある時刻」から時間Nだけ経過した後)、ネットワークカメラ200による撮像画像からも人物A,B,Cを認識することができる(図5の下部)。
For example, if a person A, B, C is recognized from the image captured by the
<ステップS7>
人物/グループ照合処理部103は、人物/グループ照合データ蓄積部104に格納されているグループ情報を用いて、ステップS2で認識したそれぞれの人物のうち1つのグループに属する人物群を特定する。
<Step S7>
The person / group
例えば、認識したそれぞれの人物の識別情報のうちグループ情報に含まれている識別情報、即ち、1つのグループに属する人物の識別情報を特定し、該特定した識別情報の人物間の撮像画像上の距離が、グループ情報に含まれている基準距離以下であったり、該特定した識別情報の人物の総数や男女比が、グループ情報に含まれている総数や男女比と合致する、といった条件が満たされた場合に、撮像画像からグループを認識した、と判断する。 For example, identification information included in group information among identification information of each recognized person, that is, identification information of a person belonging to one group is specified, and a captured image between persons of the specified identification information Conditions such as the distance being equal to or less than the reference distance included in the group information, or the total number of persons or gender ratio of the identified identification information matching the total number or gender ratio included in the group information are satisfied. If it is determined that the group has been recognized from the captured image.
このような処理の結果、撮像画像から1つのグループに属する人物群を特定することができた場合には、該人物群を追尾対象とし、処理はステップS8に進み、特定することができなかった場合には、処理はステップS2に戻る。 As a result of such processing, when a group of persons belonging to one group can be identified from the captured image, the group of persons is set as the tracking target, and the process proceeds to step S8 and cannot be identified. If so, the process returns to step S2.
<ステップS8>
このグループ追跡では、グループに属する人物の位置に基づいて、グループが存在する位置を判定する。
<Step S8>
In this group tracking, the position where the group exists is determined based on the position of the person belonging to the group.
このグループ追跡では、ステップS8の閾値以上の人物が検出されても、ステップS8の閾値の人数を対象とした追跡処理を行う。したがって、追跡を行なうための検索、照合する処理の負荷を抑えることができる。また、追跡中に、グループに属する人物同士が重なって、グループに属する人物の一部が検出できない場合も、検出された人物を追跡することにより、グループを追跡する。 In this group tracking, even if a person whose threshold value is greater than or equal to the threshold value in step S8 is detected, a tracking process for the number of persons having the threshold value in step S8 is performed. Therefore, it is possible to reduce the load of processing for searching and collating for tracking. In addition, during tracking, even if a person belonging to the group overlaps and a part of the person belonging to the group cannot be detected, the group is tracked by tracking the detected person.
映像符号化部105は、ステップS2で処理対象とした撮像画像に対して圧縮符号化を行うことで、圧縮符号化画像を生成する。そして映像符号化部105は、該生成した圧縮符号画像と、追尾対象に係る情報(解析情報)と、をLAN I/F部106を介してサーバ装置400に対して送信する。
The
この解析情報は、例えば、認識したそれぞれの人物の識別情報のうちグループ情報に含まれている識別情報(すなわち追尾対象としての人物群に含まれるそれぞれの人物の識別情報)、撮像画像中における追尾対象の位置(追尾対象としての人物群に含まれるそれぞれの人物の領域の位置)を含む。しかし、撮像画像において、追尾対象としての人物群に含まれるそれぞれの人物を特定するための情報であれば、如何なる情報を解析情報として採用しても構わない。 The analysis information includes, for example, identification information included in the group information among identification information of each recognized person (that is, identification information of each person included in the person group as the tracking target), tracking in the captured image The position of the target (the position of the area of each person included in the person group as the tracking target) is included. However, any information may be adopted as analysis information as long as it is information for specifying each person included in the person group as the tracking target in the captured image.
サーバ装置400は、ネットワークカメラ100から圧縮符号画像及び解析情報を受信するたびに、該圧縮符号画像及び解析情報のセットを記憶装置300に格納する。これにより記憶装置300には、ネットワークカメラごとに、該ネットワークカメラから送信された圧縮符号画像及び解析情報のセット群が登録されることになる。
Each time the
また、ネットワークカメラ100は、追尾対象としての人物群に含まれるそれぞれの人物を追尾するように、ネットワークカメラ100の画角や姿勢を制御して、ネットワークカメラ100の撮像画像内に「追尾対象としての人物群に含まれるそれぞれの人物」が常に含まれるようにする。なお、この制御は、サーバ装置400の制御に基づいて、画角や姿勢を制御するようにしてもよい。
In addition, the
<ステップS9>
グループ情報に対応するグループに属する人物群(ここでは、同一のグループの属する人物A,B,Cとする)が、その後、撮像画像から消失(フレームアウト)した場合には、人物/グループ照合処理部103は、それまで人物/グループ照合データ蓄積部104から読み出して使用していたグループ情報の識別情報をサーバ装置400に対して送信する。サーバ装置400は、この識別情報に対応するグループ情報を、ネットワークカメラ100以外の他ネットワークカメラ(本実施形態の場合はネットワークカメラ200)に対して送信する。他ネットワークカメラは、サーバ装置400から送信されたグループ情報を、自身の人物/グループ照合データ蓄積部104に登録するので、他ネットワークカメラはこれ以降、自身の人物/グループ照合データ蓄積部104に登録されているグループ情報、即ち、人物A,B,Cのそれぞれの人物から成るグループのグループ情報を用いてグループ認識処理を行うことになり、人物A,B,Cから成るグループを撮像画像から認識することができる。
<Step S9>
When the group of persons belonging to the group corresponding to the group information (here, persons A, B, and C belonging to the same group) disappears (frames out) from the captured image, the person / group matching process The
例えば、ある時刻において、ネットワークカメラ100による撮像画像から人物A,B,Cから成るグループが認識されており(図6の上部)、その後、このグループが該撮像画像からフレームアウトしたとすると、上記の処理により、ネットワークカメラ200の人物/グループ照合データ蓄積部104には、人物A,B,Cから成るグループのグループ情報が登録されるので、これ以降は(例えばこの「ある時刻」から時間Nだけ経過した後)、ネットワークカメラ200による撮像画像からも人物A,B,Cから成るグループを認識することができる(図6の下部)。
For example, if a group of persons A, B, and C is recognized from an image captured by the
<ステップS10>
サーバ装置400から上記の理由で人物情報/グループ情報が送信された場合には、制御部199は、この人物情報/グループ情報をLAN I/F部106を介して受信し、人物/グループ照合データ蓄積部104にすでに登録されている人物情報/グループ情報を削除して、該受信した人物情報/グループ情報を新たに人物/グループ照合データ蓄積部104に登録する。
<Step S10>
When the personal information / group information is transmitted from the
なお、ステップS6及びステップS9では、ネットワークカメラ100の人物/グループ照合データ蓄積部104が保持する人物情報/グループ情報は不要となるため、これを削除しても構わない。
In step S6 and step S9, the person information / group information held by the person / group collation
また、図1に示したネットワークカメラ100を構成する各機能部はハードウェアを用いて構成しても良い。しかし、制御部199をCPU等のプロセッサ、人物/グループ照合データ蓄積部104をハードディスクなどのメモリ装置、LAN I/F部106をインターフェース機器で構成し、その他の各機能部をソフトウェアで実装しても構わない。その場合、CPU等のプロセッサがこのようなソフトウェアを実行することで、上記のネットワークカメラ100が行うものとして説明した各処理を実現することができる。もちろん、どの部分をソフトウェアで構成し、どの部分をハードウェアで構成するかは、適宜設計すればよい。
Further, each functional unit configuring the
このように、本実施形態に係るネットワークカメラとは、以下のような追尾装置の一例に過ぎないことが分かる。即ち、撮像画像から認識した被写体の数が閾値以上であれば、該撮像画像から認識した被写体群のうち1つのグループに属する被写体群を追尾対象とし、該数が閾値未満であれば、該撮像画像から認識したそれぞれの被写体を追尾対象とする追尾装置である。また、ネットワークカメラは撮像装置であって、該撮像装置の制御装置に対して、追尾対象に関する情報を送信する撮像装置である。そしてこのような場合、該制御装置は、着目撮像装置から追尾対象に関する情報を受信すると、該着目撮像装置以外の撮像装置に対して、該追尾対象を認識するための情報を送信する。 Thus, it can be seen that the network camera according to the present embodiment is merely an example of the following tracking device. That is, if the number of subjects recognized from the captured image is equal to or greater than the threshold, the subject group belonging to one group among the subject groups recognized from the captured image is set as the tracking target, and if the number is less than the threshold, the imaging This is a tracking device that targets each subject recognized from an image as a tracking target. Further, the network camera is an imaging device, and is an imaging device that transmits information on the tracking target to the control device of the imaging device. In such a case, when receiving information on the tracking target from the target imaging device, the control device transmits information for recognizing the tracking target to an imaging device other than the target imaging device.
[第2の実施形態]
第1の実施形態で説明したように、表示装置500の表示画面上に、ネットワークカメラ100による各フレームの撮像画像、ネットワークカメラ200による各フレームの撮像画像を表示させ、それぞれの撮像画像上に、該撮像画像に対する映像解析結果を重畳させて表示しても良い。
[Second Embodiment]
As described in the first embodiment, the captured image of each frame by the
その場合、人物/グループ照合処理部103は、第1の実施形態で説明した解析情報に、追尾対象が個々の人物であるのか、それともグループであるのかを示すフラグ情報を更に含め、このような解析情報と圧縮符号画像とをサーバ装置400に対して送信する。
In that case, the person / group matching
そして表示装置500は、記憶装置300に格納されている圧縮符号画像を読み出して復号し、該復号した画像を表示すると共に、該読み出した圧縮符号画像とセットになって格納されている解析情報から上記のフラグ情報を読み出す。そしてこのフラグ情報が、個々の人物を追尾対象としていることを示している場合には、解析情報から個々の人物の位置を読み出し、該読み出した位置に矩形を表示することで、撮像画像上で追尾対象とする人物に矩形を重ねて表示することができる。一方、このフラグ情報が、グループを追尾対象としていることを示している場合には、解析情報からグループに属するそれぞれの人物の位置を読み出し、該読み出したそれぞれの位置を包含する矩形を表示することで、撮像画像上で追尾対象とするグループに矩形を重ねて表示することができる。
The
[第3の実施形態]
第1の実施形態では、個々のネットワークカメラに人物/グループ照合データ蓄積部104を設けていた。しかし、ネットワーク600のネットワークインフラの帯域容量が大きければ、それぞれのネットワークカメラが人物/グループ照合データ蓄積部104を有するのではなく、サーバ装置400側で、それぞれのネットワークカメラに対応する人物/グループ照合データ蓄積部104を設けるようにしても構わない。その場合、第1の実施形態で説明した「ネットワークカメラ側の人物/グループ照合データ蓄積部104とサーバ装置400との間の処理」は、「サーバ装置400が有する人物/グループ照合データ蓄積部104とサーバ装置400の制御部(不図示)との間の処理」となり、処理の内容については第1の実施形態と同様である。
[Third Embodiment]
In the first embodiment, the person / group verification
また、このように構成されるサーバ装置400において行う処理を、数台単位のクラスタ形式の構成で実現させても良く、その場合、それぞれのクラスタにおける処理結果をサーバ装置400が統合するようなシステムを構築することもできる。
In addition, the processing performed in the
(その他の実施例)
また、本発明は、以下の処理を実行することによっても実現される。即ち、上述した実施形態の機能を実現するソフトウェア(プログラム)を、ネットワーク又は各種記憶媒体を介してシステム或いは装置に供給し、そのシステム或いは装置のコンピュータ(またはCPUやMPU等)がプログラムを読み出して実行する処理である。
(Other examples)
The present invention can also be realized by executing the following processing. That is, software (program) that realizes the functions of the above-described embodiments is supplied to a system or apparatus via a network or various storage media, and a computer (or CPU, MPU, or the like) of the system or apparatus reads the program. It is a process to be executed.
103:人物/グループ照合処理部 104:人物/グループ照合データ蓄積部 103: Person / group verification processing unit 104: Person / group verification data storage unit
Claims (11)
撮像画像から認識した被写体の数が閾値以上であれば、該撮像画像から認識した被写体群のうち1つのグループに属する被写体群を追尾対象とし、該数が閾値未満であれば、該撮像画像から認識したそれぞれの被写体を追尾対象とする手段を備えることを特徴とする追尾装置。 A tracking device,
If the number of subjects recognized from the captured image is equal to or greater than the threshold, the subject group belonging to one group among the subject groups recognized from the captured image is set as the tracking target, and if the number is less than the threshold, the captured image A tracking device comprising means for tracking each recognized subject.
前記撮像画像内に前記追尾対象が収まるように、前記追尾装置の姿勢、若しくは画角を制御する手段を備えることを特徴とする請求項1に記載の追尾装置。 Furthermore,
The tracking device according to claim 1, further comprising means for controlling an attitude or an angle of view of the tracking device so that the tracking target is contained in the captured image.
前記複数の撮像装置を制御する制御装置と
を備えることを特徴とするシステム。 A plurality of imaging devices functioning as the tracking device according to claim 1 or 2,
And a control device that controls the plurality of imaging devices.
撮像画像から認識した被写体の数が閾値以上であれば、該撮像画像から認識した被写体群のうち1つのグループに属する被写体群を追尾対象とし、該数が閾値未満であれば、該撮像画像から認識したそれぞれの被写体を追尾対象とすることを特徴とする追尾装置の制御方法。 A control method for a tracking device,
If the number of subjects recognized from the captured image is equal to or greater than the threshold, the subject group belonging to one group among the subject groups recognized from the captured image is set as the tracking target, and if the number is less than the threshold, the captured image A control method for a tracking device, characterized in that each recognized subject is set as a tracking target.
前記追尾対象に関する情報を、前記追尾装置の制御装置に対して送信することを特徴とする請求項7に記載の追尾装置の制御方法。 Furthermore,
The method for controlling a tracking device according to claim 7, wherein information on the tracking target is transmitted to a control device of the tracking device.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2014145384A JP2016021716A (en) | 2014-07-15 | 2014-07-15 | Tracking device and control method of the same |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2014145384A JP2016021716A (en) | 2014-07-15 | 2014-07-15 | Tracking device and control method of the same |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2016021716A true JP2016021716A (en) | 2016-02-04 |
Family
ID=55266292
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2014145384A Pending JP2016021716A (en) | 2014-07-15 | 2014-07-15 | Tracking device and control method of the same |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2016021716A (en) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP6089157B1 (en) * | 2016-06-16 | 2017-03-01 | 株式会社オプティム | Clothing information providing system, clothing information providing method, and program |
KR101768372B1 (en) * | 2016-04-22 | 2017-08-17 | 전자부품연구원 | Image based Hierarchical Multiple Object Tracking Method and System using a Relative Motion between Objects |
-
2014
- 2014-07-15 JP JP2014145384A patent/JP2016021716A/en active Pending
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101768372B1 (en) * | 2016-04-22 | 2017-08-17 | 전자부품연구원 | Image based Hierarchical Multiple Object Tracking Method and System using a Relative Motion between Objects |
JP6089157B1 (en) * | 2016-06-16 | 2017-03-01 | 株式会社オプティム | Clothing information providing system, clothing information providing method, and program |
WO2017216919A1 (en) * | 2016-06-16 | 2017-12-21 | 株式会社オプティム | Clothing information provision system, clothing information provision method, and program |
US10592551B2 (en) | 2016-06-16 | 2020-03-17 | Optim Corporation | Clothing information providing system, clothing information providing method, and program |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
EP3024227B1 (en) | Image processing apparatus and image processing method | |
US10699541B2 (en) | Recognition data transmission device | |
JP6422955B2 (en) | Computer vision application processing | |
US9582709B2 (en) | Privacy for camera with people recognition | |
US8938092B2 (en) | Image processing system, image capture apparatus, image processing apparatus, control method therefor, and program | |
US11538276B2 (en) | Communication system, distributed processing system, distributed processing method, and recording medium | |
JP6465600B2 (en) | Video processing apparatus and video processing method | |
US20190147251A1 (en) | Information processing apparatus, monitoring system, method, and non-transitory computer-readable storage medium | |
TWI521473B (en) | Device, method for image analysis and computer-readable medium | |
US10713480B2 (en) | Information processing device and information processing method | |
JP6437217B2 (en) | Image output device, image management system, image processing method, and program | |
US11302045B2 (en) | Image processing apparatus, image providing apparatus,control methods thereof, and medium | |
JP6044633B2 (en) | Information processing apparatus, information processing method, and program | |
JP2019050553A (en) | Image processing apparatus, image providing apparatus, control method of the same, and program | |
JP2016021716A (en) | Tracking device and control method of the same | |
US11195298B2 (en) | Information processing apparatus, system, method for controlling information processing apparatus, and non-transitory computer readable storage medium | |
JP7211373B2 (en) | MOVING IMAGE ANALYSIS DEVICE, MOVING IMAGE ANALYSIS SYSTEM, MOVING IMAGE ANALYSIS METHOD, AND PROGRAM | |
US20220122377A1 (en) | Information processing apparatus, information processing method, and program | |
JP6266088B2 (en) | Person detection device and person detection method | |
JP6064995B2 (en) | Information processing apparatus, information processing method, and program | |
Mariappan et al. | A design methodology of an embedded motion-detecting video surveillance system | |
JP2015050697A (en) | Video processing apparatus and control method for video processing apparatus | |
JP2016220148A (en) | Control apparatus, control method, and system |