JP7334512B2 - Verification method, verification device, and program - Google Patents

Verification method, verification device, and program Download PDF

Info

Publication number
JP7334512B2
JP7334512B2 JP2019126653A JP2019126653A JP7334512B2 JP 7334512 B2 JP7334512 B2 JP 7334512B2 JP 2019126653 A JP2019126653 A JP 2019126653A JP 2019126653 A JP2019126653 A JP 2019126653A JP 7334512 B2 JP7334512 B2 JP 7334512B2
Authority
JP
Japan
Prior art keywords
moving object
area
feature amount
boundary
information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2019126653A
Other languages
Japanese (ja)
Other versions
JP2021012558A (en
Inventor
志傑 斎藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NEC Corp
Original Assignee
NEC Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NEC Corp filed Critical NEC Corp
Priority to JP2019126653A priority Critical patent/JP7334512B2/en
Publication of JP2021012558A publication Critical patent/JP2021012558A/en
Application granted granted Critical
Publication of JP7334512B2 publication Critical patent/JP7334512B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Studio Devices (AREA)
  • Image Analysis (AREA)

Description

本開示は、移動体の特徴量を照合する方法、装置、及びプログラムに関する。 The present disclosure relates to a method, apparatus, and program for collating feature amounts of moving objects.

撮像装置から得られる映像を用いて、移動体を追跡する技術が開発されている。例えば、映像から移動体の特徴量を抽出し、映像間で特徴量を照合することで移動体の同定を行い、移動体を追跡する技術がある。 Techniques for tracking a moving object using images obtained from imaging devices have been developed. For example, there is a technique for extracting feature amounts of a moving object from videos, matching the feature amounts between videos, identifying the moving object, and tracking the moving object.

ここで、移動体が、一の撮像装置の撮像範囲から、他の撮像装置の撮像範囲に移動したとき、同一の移動体であっても、一の撮像装置の撮像範囲に存在した移動体と、他の撮像装置の撮像範囲に存在した移動体とが、別の移動体として認識される虞があった。 Here, when a moving object moves from the imaging range of one imaging device to the imaging range of another imaging device, even if the same moving object is the same moving object, it is different from the moving object existing in the imaging range of the one imaging device. , there is a possibility that a moving object existing in the imaging range of another imaging device may be recognized as a different moving object.

これに対して、特許文献1には、一の撮像範囲に出現した人物と、他の撮像範囲に出現した人物とを同定する技術が開示されている。特許文献1の人物追跡装置は、複数の撮像範囲に出現した人物の特徴量をすべて記録しておき、一の撮像範囲に人物が出現したとき、一の撮像範囲に出現した人物の特徴量と、記録された特徴量とを照合する。照合の結果、合致する特徴量があった場合、特許文献1の人物追跡装置は、照合の結果が正しいか否かを判定する。 On the other hand, Patent Literature 1 discloses a technique for identifying a person appearing in one imaging range and a person appearing in another imaging range. The human tracking device of Patent Document 1 records all the feature amounts of persons appearing in a plurality of imaging ranges, and when a person appears in one imaging range, the person's feature amount and , is compared with the recorded features. As a result of collation, if there is a matching feature amount, the person tracking device of Patent Literature 1 determines whether the collation result is correct.

特開2006-236255号公報JP 2006-236255 A

特許文献1の人物追跡装置は、移動体を同定するために、一の撮像範囲に出現した人物の特徴量に対して、記録されたすべての特徴量と照合する。そのため、記録された特徴量が増加するにつれて、計算リソースが増加する虞がある。 In order to identify a moving object, the human tracking device of Patent Document 1 compares the feature amount of a person appearing in one imaging range with all recorded feature amounts. Therefore, as the number of recorded features increases, there is a risk that computational resources will increase.

本開示は、上記課題を鑑みてなされたものであり、撮像範囲に出現した移動体の同定において、計算リソースの増加を抑制する照合方法等を提供することを主要な目的とする。 The present disclosure has been made in view of the above problems, and a main object of the present disclosure is to provide a matching method or the like that suppresses an increase in computational resources in identifying a moving object that has appeared in an imaging range.

本開示の一態様にかかる照合方法は、撮像範囲内に予め定められた複数の領域の各々と、前記複数の領域のいずれかであって、前記各々の領域に対応付けられた対応領域とを含む領域対応情報から、前記複数の領域のうち、第1の移動体が存在した領域に対応付けられた前記対応領域を選択し、前記複数の領域のうち、第2の移動体が存在した領域と、前記第2の移動体が前記領域に存在したときに抽出された特徴量であって、当該領域に対応づけられた前記第2の移動体の特徴量とを含む移動体情報から、前記選択された対応領域に対応付けられた特徴量を取得し、前記取得された特徴量と、前記第1の移動体が存在したときに抽出された前記第1の移動体の特徴量とを照合する。 A collation method according to an aspect of the present disclosure includes each of a plurality of predetermined regions within an imaging range and a corresponding region that is one of the plurality of regions and is associated with each region. selecting the corresponding area associated with the area in which the first moving object existed from among the plurality of areas from the area correspondence information included therein, and selecting the area in which the second moving object existed from among the plurality of areas and a feature quantity of the second moving body that is extracted when the second moving body exists in the region and that is associated with the region, the moving body information containing: Acquiring a feature amount associated with the selected corresponding region, and comparing the acquired feature amount with the feature amount of the first moving object extracted when the first moving object exists. do.

本開示の一態様にかかる照合装置は、撮像範囲内に予め定められた複数の領域の各々と、前記複数の領域のいずれかであって、前記各々の領域に対応付けられた対応領域とを含む領域対応情報から、前記複数の領域のうち、第1の移動体が存在した領域に対応付けられた前記対応領域を選択する領域選択手段と、前記複数の領域のうち、第2の移動体が存在した領域と、前記第2の移動体が前記領域に存在したときに抽出された特徴量であって、当該領域に対応づけられた前記第2の移動体の特徴量とを含む移動体情報から、前記選択された対応領域に対応付けられた特徴量を取得し、前記取得された特徴量と、前記第1の移動体が存在したときに抽出された前記第1の移動体の特徴量とを照合する照合手段とを備える。 A matching device according to an aspect of the present disclosure includes each of a plurality of regions predetermined within an imaging range and a corresponding region that is one of the plurality of regions and is associated with each of the regions. area selection means for selecting, from among the plurality of areas, the corresponding area associated with the area in which the first moving object existed, from the area correspondence information included; and a feature quantity extracted when the second moving body exists in the region, the feature quantity of the second moving body associated with the region. A feature amount associated with the selected corresponding region is acquired from the information, and the acquired feature amount and the feature of the first moving object extracted when the first moving object exists. and a collating means for collating the quantity.

本開示の一態様にかかるプログラムは、撮像範囲内に予め定められた複数の領域の各々と、前記複数の領域のいずれかであって、前記各々の領域に対応付けられた対応領域とを含む領域対応情報から、前記複数の領域のうち、第1の移動体が存在した領域に対応付けられた前記対応領域を選択する処理と、前記複数の領域のうち、第2の移動体が存在した領域と、前記第2の移動体が前記領域に存在したときに抽出された特徴量であって、当該領域に対応づけられた前記第1の移動体の特徴量とを含む移動体情報から、前記選択された対応領域に対応付けられた特徴量を取得し、前記取得された特徴量と、前記第2の移動体が存在したときに抽出された前記第2の移動体の特徴量とを照合する処理とを、コンピュータに実行させる。 A program according to an aspect of the present disclosure includes each of a plurality of regions predetermined within an imaging range and a corresponding region that is one of the plurality of regions and is associated with each of the regions. a process of selecting, from the area correspondence information, the corresponding area associated with the area in which the first moving object existed among the plurality of areas; From moving object information including an area and a feature amount of the first moving object that is extracted when the second moving object is present in the area and that is associated with the area, acquiring a feature amount associated with the selected corresponding region, and combining the acquired feature amount with the feature amount of the second moving object extracted when the second moving object exists; A computer is made to perform a process to collate.

本開示によれば、撮像範囲に出現した移動体の同定において、計算リソースの増加を抑制することが可能になるという効果が得られる。 Advantageous Effects of Invention According to the present disclosure, it is possible to suppress an increase in computational resources in identifying a moving object that has appeared in an imaging range.

各実施形態における照合装置を実現するコンピュータ装置のハードウェア構成の一例を示すブロック図である。It is a block diagram which shows an example of the hardware constitutions of the computer apparatus which implement|achieves the collation apparatus in each embodiment. 第1の実施形態にかかる追跡システムの構成の一例を模式的に示す図である。It is a figure showing typically an example of composition of a tracking system concerning a 1st embodiment. 第1の実施形態にかかる追跡システムの機能構成の一例を示すブロック図である。It is a block diagram showing an example of functional composition of a tracking system concerning a 1st embodiment. 第1の実施形態にかかる照合装置の機能構成の一例を示す図である。It is a figure showing an example of functional composition of a collation device concerning a 1st embodiment. 第1の実施形態にかかる領域対応情報の一例を示す図である。4 is a diagram showing an example of area correspondence information according to the first embodiment; FIG. 第1の実施形態にかかる移動体情報の一例を示す図である。It is a figure which shows an example of mobile body information concerning 1st Embodiment. 第1の実施形態にかかる撮像装置の動作を説明するフローチャートである。4 is a flowchart for explaining the operation of the imaging device according to the first embodiment; 第1の実施形態にかかる照合装置の動作を説明するフローチャートである。4 is a flowchart for explaining the operation of the collation device according to the first embodiment; 第1の実施形態にかかる移動体情報を更新した一例を示す図である。FIG. 5 is a diagram showing an example of updated mobile object information according to the first embodiment; FIG. 第1の実施形態にかかる照合装置の照合処理を説明するフローチャートである。5 is a flowchart for explaining matching processing of the matching device according to the first embodiment; 第1の実施形態の変形例1にかかる追跡システムの機能構成の一例を示すブロック図である。It is a block diagram showing an example of functional composition of a tracking system concerning modification 1 of a 1st embodiment. 第1の実施形態の変形例2にかかる追跡システムの機能構成の一例を示すブロック図である。It is a block diagram showing an example of functional composition of a tracking system concerning modification 2 of a 1st embodiment. 第1の実施形態の変形例3にかかる追跡システムの機能構成の一例を示すブロック図である。It is a block diagram showing an example of functional composition of a tracking system concerning modification 3 of a 1st embodiment. 第2の実施形態にかかる移動体情報の一例を示す図である。FIG. 11 is a diagram showing an example of mobile object information according to the second embodiment; FIG. 第3の実施形態にかかる追跡システムの機能構成の一例を示すブロック図である。It is a block diagram showing an example of functional composition of a tracking system concerning a 3rd embodiment. 第3の実施形態にかかる稼働情報の一例を示す図である。It is a figure which shows an example of the operating information concerning 3rd Embodiment.

各実施形態のハードウェアの構成例
各実施形態にかかる照合装置を構成するハードウェアについて説明する。図1は、各実施形態における照合装置を実現するコンピュータ装置のハードウェア構成の一例を示すブロック図である。図1が示す各ブロックは、各実施形態における照合装置及び照合方法を実現するコンピュータ装置10と、ソフトウェアとの組み合わせにより実現できる。
Hardware configuration example of each embodiment Hardware configuring a collation device according to each embodiment will be described. FIG. 1 is a block diagram showing an example of the hardware configuration of a computer that implements a matching device in each embodiment. Each block shown in FIG. 1 can be realized by a combination of software and a computer device 10 that realizes the matching device and matching method in each embodiment.

図1に示すように、コンピュータ装置10は、プロセッサ11、RAM(Random Access Memory)12、ROM(Read Only Memory)13、記憶装置14、入出力インタフェース15、バス16、及びドライブ装置17を備える。 As shown in FIG. 1 , computer device 10 includes processor 11 , RAM (Random Access Memory) 12 , ROM (Read Only Memory) 13 , storage device 14 , input/output interface 15 , bus 16 , and drive device 17 .

記憶装置14は、プログラム18を格納する。プロセッサ11は、RAM12を用いて本照合装置にかかるプログラム18を実行する。具体的には、例えば、プログラム18は、図7、及び図8に示す処理をコンピュータに実行させるプログラムを含む。プロセッサ11が、プログラム18を実行することに応じて、本照合装置の各構成要素(後述する、領域選択部310及び照合部320)の機能が実現される。プログラム18は、ROM13に記憶されていてもよい。また、プログラム18は、記録媒体20に記録され、ドライブ装置17を用いて読み出されてもよいし、図示しない外部装置から図示しないネットワークを介して送信されてもよい。 Storage device 14 stores program 18 . The processor 11 uses the RAM 12 to execute a program 18 related to this verification device. Specifically, for example, the program 18 includes a program that causes a computer to execute the processes shown in FIGS. 7 and 8. FIG. As the processor 11 executes the program 18, the function of each component of the collation device (region selection unit 310 and collation unit 320, which will be described later) is realized. Program 18 may be stored in ROM 13 . Further, the program 18 may be recorded on the recording medium 20 and read using the drive device 17, or may be transmitted from an external device (not shown) via a network (not shown).

入出力インタフェース15は、周辺機器(キーボード、マウス、表示装置など)19とデータをやり取りする。入出力インタフェース15は、データを取得または出力する手段として機能する。バス16は、各構成要素を接続する。 The input/output interface 15 exchanges data with peripheral devices (keyboard, mouse, display device, etc.) 19 . The input/output interface 15 functions as means for acquiring or outputting data. A bus 16 connects each component.

なお、照合装置の実現方法には様々な変形例がある。例えば、照合装置は、専用の装置として実現することができる。また、照合装置は、複数の装置の組み合わせに基づいて実現することができる。 It should be noted that there are various modifications of the implementation method of the matching device. For example, the verification device can be implemented as a dedicated device. Also, the matching device can be realized based on a combination of a plurality of devices.

各実施形態の機能における各構成要素を実現するためのプログラムを記録媒体に記録させ、該記録媒体に記録されたプログラムをコードとして読み出し、コンピュータにおいて実行する処理方法も各実施形態の範疇に含まれる。すなわち、コンピュータ読取可能な記録媒体も各実施形態の範囲に含まれる。また、上述のプログラムが記録された記録媒体はもちろん、そのプログラム自体も各実施形態に含まれる。 A processing method of recording a program for realizing each component in the function of each embodiment on a recording medium, reading the program recorded on the recording medium as a code, and executing it on a computer is also included in the scope of each embodiment. . That is, a computer-readable recording medium is also included in the scope of each embodiment. In addition to the recording medium on which the above program is recorded, the program itself is also included in each embodiment.

該記録媒体は、例えばフロッピー(登録商標)ディスク、ハードディスク、光ディスク、光磁気ディスク、CD(Compact Disc)-ROM、磁気テープ、不揮発性メモリカード、またはROMであるが、この例に限らない。また該記録媒体に記録されたプログラムは、単体で処理を実行しているプログラムに限らず、他のソフトウェア、拡張ボードの機能と共同して、OS(Operating System)上で動作して処理を実行するプログラムも各実施形態の範疇に含まれる。 The recording medium is, for example, a floppy (registered trademark) disk, hard disk, optical disk, magneto-optical disk, CD (Compact Disc)-ROM, magnetic tape, non-volatile memory card, or ROM, but is not limited to these examples. In addition, the program recorded on the recording medium is not limited to a program that executes processing by itself, but in cooperation with other software and functions of an expansion board, it runs on an OS (Operating System) to execute processing. A program for executing the program is also included in the category of each embodiment.

第1の実施形態
次に、照合装置を含む追跡システムの各構成要素について説明する。
First Embodiment Next, each component of a tracking system including a matching device will be described.

図2は、第1の実施形態にかかる追跡システム1000の構成の一例を模式的に示す図である。図2に示すように、追跡システム1000は、撮像装置100と、追跡装置200と、照合装置300と、記憶装置400とを備える。追跡システム1000は、少なくとも、追跡装置200及び照合装置300に基づいて、撮像装置100が撮像した複数の映像に含まれる移動体を追跡するシステムである。 FIG. 2 is a diagram schematically showing an example of the configuration of the tracking system 1000 according to the first embodiment. As shown in FIG. 2 , tracking system 1000 includes imaging device 100 , tracking device 200 , matching device 300 , and storage device 400 . The tracking system 1000 is a system that tracks a moving object included in a plurality of images captured by the imaging device 100 based on at least the tracking device 200 and the verification device 300 .

また、図2では、以下の状況において設置された追跡システム1000を示している。図2に示す移動体は、エレベータを使用して、建物の1階から2階へ移動する。ここで、1階、2階、及び3階は、それぞれ、建物の階層を示し、1階a、1階b、2階a、及び3階aは、各階の部屋を示している。1階a、2階a、及び3階aは、エレベータを介して連絡されている。1階aと1階bとは、出入口を介して連絡されている。図2に示す矢印は、移動体の動きを示す。このとき、移動体は、1階の地点Aから地点Bまで移動し、エレベータを使用して、2階の地点Cまで移動する。 Figure 2 also shows the tracking system 1000 installed in the following situation. The moving object shown in FIG. 2 uses an elevator to move from the first floor to the second floor of a building. Here, the 1st, 2nd, and 3rd floors respectively indicate the floors of the building, and the 1st floor a, the 1st floor b, the 2nd floor a, and the 3rd floor a indicate the rooms on each floor. 1st floor a, 2nd floor a, and 3rd floor a are connected via an elevator. 1st floor a and 1st floor b are connected through a doorway. The arrows shown in FIG. 2 indicate the movement of the moving object. At this time, the moving body moves from point A on the first floor to point B, and uses an elevator to move to point C on the second floor.

撮像装置100は、1階から3階の各階に設置され、それぞれの部屋を撮像する。以降、撮像した映像を撮像データとも称する。追跡装置200は、撮像データに含まれる移動体の動きまたは移動の軌跡を示す動線情報を撮像データから生成し、当該移動体を追跡する。照合装置300は、一の映像に含まれる移動体の特徴量と、他の映像に含まれる移動体の特徴量とを照合する。 The imaging device 100 is installed on each floor from the first floor to the third floor, and images each room. Henceforth, the imaged image|video is also called imaging data. The tracking device 200 generates flow line information indicating the motion or movement trajectory of the moving body included in the imaging data from the imaging data, and tracks the moving body. The collation device 300 collates the feature amount of a moving object included in one image with the feature amount of a moving object included in another image.

図2に示す状況において、追跡装置200は、移動体が1階の地点Aから地点Bまで移動する間、移動体の追跡を行う。地点Aは、1階a内の地点であり、地点Bは、1階a内であって、エレベータ付近の地点である。地点A、地点Bのそれぞれは、撮像範囲内に予め定められた領域内に存在する。本実施形態を含む各実施形態において、撮像範囲内に予め定められた領域の一例は、境界領域である。境界領域とは、撮像装置100の撮像範囲内であって、撮像範囲内と撮像範囲外(図2の状況の場合、撮像範囲外はエレベータ内)との境界付近の領域である。移動体が地点Bを含む境界領域x2に移動したとき、撮像装置100は、追跡中の移動体の特徴量を映像から抽出する。そして、照合装置300は、抽出した特徴量と、境界領域x2を示す情報とを対応付けて移動体情報(詳細は後述する)として記憶する。 In the situation shown in FIG. 2, the tracking device 200 tracks the moving object while the moving object moves from point A to point B on the first floor. A point A is a point on the first floor a, and a point B is a point on the first floor a near the elevator. Each of the points A and B exists within a predetermined area within the imaging range. In each embodiment including this embodiment, an example of a predetermined area within the imaging range is a boundary area. The boundary area is an area within the imaging range of the imaging device 100 and near the boundary between the inside of the imaging range and the outside of the imaging range (in the situation of FIG. 2, the outside of the imaging range is inside the elevator). When the moving object moves to the boundary region x2 including the point B, the imaging device 100 extracts the feature amount of the moving object being tracked from the video. Then, the matching device 300 associates the extracted feature quantity with the information indicating the boundary region x2 and stores them as moving object information (details of which will be described later).

また、移動体が、撮像装置100が撮像する範囲の外であるエレベータ内部から、地点Cを含む境界領域x3に移動したとき、照合装置300は、予め記憶された複数の境界領域の各々に対応する領域(境界領域)を情報として含む領域対応情報(詳細は後述する)から境界領域x3に対応する境界領域を選択する。ここで、移動体がエレベータ内部から境界領域x3に移動したとき、その移動体の移動経路は、境界領域x2または境界領域x4から、エレベータを使用して移動したか、境界領域x3からエレベータ内部に移動し、再び境界領域x3に移動したかに限られる。領域対応情報には、このような、ある境界領域に、撮像範囲外を経由して移動体が移動可能な境界領域が定められる。本実施形態において、ある境界領域に、撮像範囲外を経由して移動体が移動可能な境界領域を、「対応する境界領域」または「対応領域」と称する。図2の状況では、照合装置300は、境界領域x2、境界領域x3及び境界領域x4を選択する。 Further, when the moving object moves from inside the elevator, which is outside the range captured by the imaging device 100, to the boundary region x3 including the point C, the matching device 300 corresponds to each of a plurality of pre-stored boundary regions. The boundary area corresponding to the boundary area x3 is selected from the area correspondence information (details will be described later) including the area (boundary area) to be crossed as information. Here, when the moving body moves from the inside of the elevator to the boundary area x3, the movement path of the moving body is either from the boundary area x2 or the boundary area x4 using the elevator, or from the boundary area x3 to the inside of the elevator. It is limited to moving and moving again to the boundary area x3. In the area correspondence information, such a certain boundary area is defined as a boundary area in which the moving object can move via outside the imaging range. In the present embodiment, a boundary area in which a moving object can move through a boundary area outside the imaging range is referred to as a "corresponding boundary area" or a "corresponding area." In the situation of FIG. 2, matching device 300 selects boundary region x2, boundary region x3 and boundary region x4.

そして、照合装置300は、境界領域x3に移動した移動体の特徴量と、移動体情報に含まれる特徴量であって、選択された境界領域に対応付けられた特徴量と、を照合する。図2の状況においては、境界領域x3に移動した移動体の特徴量と照合する特徴量は、選択した境界領域x2、境界領域x3または境界領域x4に対応付けられた特徴量である。これにより、照合装置300は、境界領域x3に移動した移動体と、境界領域x2に存在した移動体とを同定する。追跡装置200は、地点Cに移動した移動体を、地点Aから地点Bに移動した移動体と同一の移動体として、追跡する。 Then, the collation device 300 collates the feature amount of the moving object that has moved to the boundary area x3 with the feature amount included in the moving object information and associated with the selected boundary area. In the situation of FIG. 2, the feature quantity to be matched with the feature quantity of the moving object that has moved to the boundary region x3 is the feature quantity associated with the selected boundary region x2, boundary region x3, or boundary region x4. As a result, the verification device 300 identifies the moving object that has moved to the boundary area x3 and the moving object that has existed in the boundary area x2. The tracking device 200 tracks the moving object that has moved to the point C as the same moving object that has moved from the point A to the point B. FIG.

なお、本実施形態において、移動体は、例えば人物であるが、これに限らない。移動体は、自動車等であってもよい。 In addition, in this embodiment, the moving object is, for example, a person, but is not limited to this. The moving object may be an automobile or the like.

図3は、図2に示した追跡システム1000の機能構成の一例を示すブロック図である。図3に示すように、撮像装置100は、撮像部110と、移動体検出部120と、領域判定部130と、特徴量抽出部140とを備える。撮像装置100は、所定の範囲を撮像し、撮像データから検出された移動体に関する情報を追跡装置200、照合装置300及び記憶装置400に送信する。 FIG. 3 is a block diagram showing an example of the functional configuration of the tracking system 1000 shown in FIG. 2. As shown in FIG. As shown in FIG. 3 , the imaging device 100 includes an imaging unit 110 , a moving body detection unit 120 , an area determination unit 130 and a feature amount extraction unit 140 . The imaging device 100 captures an image of a predetermined range, and transmits information on the moving object detected from the captured data to the tracking device 200 , the verification device 300 and the storage device 400 .

追跡装置200は、撮像装置100及び照合装置300から受け取った情報を用いて、撮像データから検出された移動体を追跡する。また、追跡装置200は、検出された移動体を追跡中であるか否かを示す情報を照合装置300に送信する。 The tracking device 200 uses the information received from the imaging device 100 and the verification device 300 to track the moving object detected from the imaging data. Tracking device 200 also transmits information indicating whether or not the detected moving object is being tracked to verification device 300 .

図4は、照合装置300の機能構成の一例を示すブロック図である。図4に示すように、照合装置300は、領域選択部310と、照合部320とを備える。照合装置300は、撮像装置100及び追跡装置200から受け取った情報と、記憶装置400に格納されている情報とを用いて、一の撮像データに含まれる移動体の特徴量と、他の撮像データに含まれる移動体の特徴量とを照合する。 FIG. 4 is a block diagram showing an example of the functional configuration of the matching device 300. As shown in FIG. As shown in FIG. 4 , collation device 300 includes area selection section 310 and collation section 320 . The matching device 300 uses the information received from the imaging device 100 and the tracking device 200 and the information stored in the storage device 400 to determine the feature amount of the moving object included in one imaging data and the other imaging data. is collated with the feature quantity of the moving object included in .

図3に戻り、記憶装置400は、領域対応情報記憶部410と、移動体情報記憶部420とを備える。領域対応情報記憶部410には、領域対応情報が格納され、移動体情報記憶部420には、移動体情報が格納される。 Returning to FIG. 3 , the storage device 400 includes an area correspondence information storage section 410 and a moving object information storage section 420 . The area correspondence information storage unit 410 stores area correspondence information, and the mobile unit information storage unit 420 stores mobile unit information.

図3及び図4が示す、撮像装置100、照合装置300及び記憶装置400の各ブロックは、単一の装置内に実装されてよく、あるいは複数の装置にわかれて実装されてよい。また、ブロック間のデータの授受は、データバス、ネットワーク、可搬記憶媒体等、任意の手段を介して行われてよい。 Each block of the imaging device 100, the matching device 300, and the storage device 400 shown in FIGS. 3 and 4 may be implemented in a single device, or may be implemented separately in a plurality of devices. Also, data transfer between blocks may be performed via any means such as a data bus, a network, or a portable storage medium.

撮像装置100の詳細
次に、撮像装置100の各構成要素について説明する。図3において、撮像部110は、所定の範囲を撮像する。撮像部110が撮像する所定の範囲を「撮像範囲」と称する。図2に示す状況では、撮像範囲は、撮像装置100がそれぞれ設置された部屋のエレベータ内部及び出入口間を除く、各部屋である。撮像部110は、所定の終了指示があるまで、撮像範囲を撮像し続ける。ここで、撮像部110が撮像した映像は、動画像を構成する複数のフレームのそれぞれであってもよいし、静止画像であってもよい。本明細書では、撮像装置100が撮像した映像を「撮像データ」と称する。撮像データには、フレームまたは静止画像の各画素の色の情報あるいは画素値のデータの他に、撮像データが生成された時刻、及び撮像データを撮像した撮像装置100が設置された場所の情報等が含まれてもよい。
Details of Imaging Apparatus 100 Next, each component of the imaging apparatus 100 will be described. In FIG. 3, the imaging unit 110 images a predetermined range. A predetermined range captured by the imaging unit 110 is referred to as an “imaging range”. In the situation shown in FIG. 2, the imaging range is each room except the inside of the elevator and between the entrances and exits of the rooms in which the imaging devices 100 are respectively installed. The imaging unit 110 continues imaging the imaging range until a predetermined end instruction is given. Here, the video imaged by the imaging unit 110 may be each of a plurality of frames forming a moving image, or may be a still image. In this specification, the image captured by the imaging device 100 is referred to as "captured data". The imaging data includes color information or pixel value data of each pixel of a frame or a still image, as well as the time when the imaging data was generated, information on the location where the imaging device 100 that captured the imaging data is installed, and the like. may be included.

移動体検出部120は、撮像部110が生成した撮像データを順次読み出し、読み出した撮像データに含まれる移動体を検出する。移動体の検出には、例えば、複数の撮像データ間の差分に基づいて移動体を検出する方法、すなわち、背景差分法を用いることが考えられるが、この例に限らない。移動体を検出する方法は、人型を検出する方法等、種々の既知の手法であってもよい。また、移動体検出部120は、検出された移動体に対して、撮像範囲における位置情報を検出する。 The moving object detection unit 120 sequentially reads the imaging data generated by the imaging unit 110 and detects a moving object included in the read imaging data. For the detection of the moving object, for example, a method of detecting the moving object based on the difference between a plurality of pieces of image data, that is, the background subtraction method can be used, but the method is not limited to this example. Various known methods such as a method of detecting a human figure may be used as a method of detecting a moving object. Further, the moving body detection unit 120 detects position information in the imaging range for the detected moving body.

領域判定部130は、移動体検出部120において検出された位置情報に基づいて、移動体が境界領域に存在するか否かを判定する。図2に示す状況では、境界領域は複数存在する。例えば、各階のエレベータ付近の斜線部の領域と、1階a及び1階bの出入口付近の斜線部の領域とは、境界領域である。なお、境界領域は、この例に限らない。例えば、境界領域は、エスカレータの乗降口付近、及び電車等の乗り物の乗降口付近であってもよいし、トイレ及び試着室等の出入口付近であってもよい。また、境界領域はトンネル及び地下道等の出入口付近であってもよい。本実施形態において、各々の境界領域は区別される。領域判定部130は、移動体が境界領域に存在する場合、移動体がどの境界領域にいるかを識別する。以降、移動体が境界領域に存在するか否かを示す情報と、移動体が境界領域に存在するのであれば、その移動体が存在する境界領域を識別する情報とを含む情報を、「領域識別情報」と称する。 The area determination unit 130 determines whether or not the moving object exists in the boundary area based on the position information detected by the moving object detection unit 120 . In the situation shown in FIG. 2, there are multiple boundary regions. For example, the hatched area near the elevators on each floor and the hatched area near the entrances to the first floor a and the first floor b are boundary areas. Note that the boundary area is not limited to this example. For example, the boundary area may be near the entrance of an escalator, near the entrance of a vehicle such as a train, or near the entrance of a restroom, fitting room, or the like. Alternatively, the boundary area may be near the entrances and exits of tunnels, underpasses, and the like. In this embodiment, each boundary region is distinguished. If the moving object exists in the boundary area, the area determination unit 130 identifies in which boundary area the moving object is located. Hereinafter, information including information indicating whether or not a moving object exists in the boundary area and, if the moving object exists in the boundary area, information identifying the boundary area in which the moving object exists is referred to as "area "identification information".

特徴量抽出部140は、撮像データから移動体が検出されると、検出された移動体の特徴量を抽出する。抽出する特徴量は、例えば、移動体の色及び外形等に関する特徴量であってもよい。移動体が人物である場合、特徴量は、人物の顔または虹彩に関する特徴を示す情報であってもよい。 When a moving object is detected from the imaging data, the feature quantity extraction unit 140 extracts the feature quantity of the detected moving object. The feature amount to be extracted may be, for example, a feature amount related to the color, outline, etc. of the moving object. When the moving object is a person, the feature amount may be information indicating features related to the person's face or iris.

撮像装置100は、移動体の位置情報と、移動体に関する領域識別情報と、移動体の特徴量とを追跡装置200及び照合装置300に送信する。本実施形態では、移動体検出部120、領域判定部130、及び特徴量抽出部140が、位置情報、領域識別情報、及び移動体の特徴量のそれぞれを送信するが、この例に限らない。例えば、撮像装置100内に、追跡装置200と照合装置300と通信可能な通信部を設け、通信部が各情報を送信するようにしてもよい。 The imaging device 100 transmits the position information of the moving object, the area identification information about the moving object, and the feature amount of the moving object to the tracking device 200 and the matching device 300 . In this embodiment, the moving object detection unit 120, the area determination unit 130, and the feature amount extraction unit 140 transmit the position information, the area identification information, and the feature amount of the moving object, but the present invention is not limited to this example. For example, a communication unit capable of communicating with the tracking device 200 and the matching device 300 may be provided in the imaging device 100, and the communication unit may transmit each piece of information.

また、撮像装置100が、追跡装置200及び照合装置300に送信する情報は、上記の情報に限らない。撮像装置100は、上記の情報に加えて、撮像データ、または撮像データが生成された時刻を送信してもよい。また、一の撮像データにおいて、複数の移動体が検出された場合、撮像装置100は、複数の移動体に関する特徴量、位置情報、及び領域識別情報を送信してもよい。 Further, the information that the imaging device 100 transmits to the tracking device 200 and the matching device 300 is not limited to the above information. The imaging device 100 may transmit the imaging data or the time when the imaging data was generated in addition to the above information. Further, when a plurality of moving objects are detected in one imaging data, the imaging device 100 may transmit feature amounts, position information, and area identification information regarding the plurality of moving objects.

追跡装置200の詳細
次に、追跡装置200について説明する。
Details of Tracking Device 200 Next, the tracking device 200 will be described.

追跡装置200は、撮像装置100から、検出された移動体の特徴量と、位置情報と、領域識別情報とを受信する。追跡装置200は、受信した情報に応じて、連続した撮像データに含まれる移動体の追跡を行う。移動体の追跡は、例えば、追跡装置200が、同一の撮像装置100から連続して受信した特徴量を照合し、合致する特徴量がある場合に、位置情報を用いて移動体の動きまたは移動の軌跡を示す動線情報を生成することである。追跡中の移動体の特徴量と合致する特徴量を、同一の撮像装置100から受信しなかった場合、追跡中の移動体は、一の撮像範囲から一の撮像範囲の外に移動したことを示す。追跡中の移動体には、照合装置300が生成した識別ID(IDentification)が関連付けられる。識別IDとは、移動体を識別する情報である。本実施形態では、撮像範囲の外から境界領域に移動した移動体、すなわち、追跡装置200が追跡し始めていない移動体を、「追跡中でない移動体」または「第1の移動体」と称する。また、本実施形態において、一の撮像範囲の外に移動するまで追跡装置200が追跡し続けている、あるいは追跡していた移動体を、「追跡中の移動体」または「第2の移動体」と称する。 The tracking device 200 receives the feature quantity, position information, and area identification information of the detected moving object from the imaging device 100 . The tracking device 200 tracks the moving object included in the continuous imaging data according to the received information. For example, the tracking device 200 compares the feature values continuously received from the same imaging device 100, and if there is a matching feature value, the position information is used to track the movement of the mobile object. to generate flow line information indicating the trajectory of If a feature amount that matches the feature amount of the moving object being tracked is not received from the same imaging device 100, the moving object being tracked moves from one imaging range to outside the one imaging range. show. An identification ID (IDentification) generated by the verification device 300 is associated with the moving object being tracked. An identification ID is information for identifying a mobile object. In the present embodiment, a moving object that has moved from outside the imaging range to the boundary area, that is, a moving object that the tracking device 200 has not started tracking is referred to as a “non-tracking moving object” or a “first moving object”. Further, in the present embodiment, the moving object that the tracking device 200 continues to track or has been tracking until it moves out of one imaging range is referred to as a "tracking moving object" or a "second moving object." ”.

移動体が境界領域に存在している場合、すなわち、領域識別情報に、移動体が境界領域に存在していることを示す情報が含まれている場合、追跡装置200は、その移動体が、追跡中でない移動体であるか、追跡中の移動体であるか、を判定する。追跡装置200は、判定結果を示す通知を照合装置300に送信する。例えば、境界領域に存在している移動体が、追跡中の移動体である場合、その移動体の識別IDと、判定結果とを含む通知を照合装置300に送信する。境界領域に存在している移動体が追跡中でない移動体である場合、追跡装置200は、判定結果を含む通知を照合装置300に送信する。 When the moving object exists in the boundary area, that is, when the area identification information includes information indicating that the moving object exists in the boundary area, the tracking device 200 detects that the moving object is It is determined whether the mobile object is not being tracked or is being tracked. The tracking device 200 transmits a notification indicating the determination result to the verification device 300 . For example, if the moving object existing in the boundary area is the moving object being tracked, a notification including the identification ID of the moving object and the determination result is transmitted to the verification device 300 . If the moving object existing in the boundary area is not being tracked, tracking device 200 transmits a notification including the determination result to matching device 300 .

境界領域に存在している移動体が追跡中でない移動体である場合、追跡装置200は、照合装置300から受信した通知に含まれる識別IDを関連付けて、その移動体の追跡を行う。 If the moving object existing in the boundary area is not being tracked, the tracking device 200 associates the identification ID included in the notification received from the verification device 300 and tracks the moving object.

なお、本実施形態において、追跡装置200は、移動体を追跡する際に、撮像装置100の特徴量抽出部140が抽出した特徴量を用いてもよいし、撮像装置100から撮像データを受け取り、追跡装置200が特徴量を抽出し、追跡装置200が抽出した特徴量を用いて移動体を追跡してもよい。また、移動体を追跡する方法はこれに限らず、種々の既知の方法であってよい。 In this embodiment, the tracking device 200 may use the feature quantity extracted by the feature quantity extraction unit 140 of the imaging device 100 when tracking the moving object, or may receive imaging data from the imaging device 100, The tracking device 200 may extract the feature quantity, and the moving object may be tracked using the feature quantity extracted by the tracking device 200 . Also, the method of tracking a moving object is not limited to this, and various known methods may be used.

照合装置300の詳細
次に、照合装置300の各構成要素について説明する。
Details of Verification Device 300 Next, each component of the verification device 300 will be described.

図4において、領域選択部310は、領域選択手段の一例である。領域選択部310は、撮像範囲内に予め定められた複数の領域(本実施形態の場合、複数の境界領域)の各々と、複数の領域のいずれかであって、各々の領域に対応付けられた対応領域とを含む領域対応情報から、複数の領域のうち、第1の移動体が存在した領域に対応付けられた対応領域を選択する。例えば、撮像装置100は、図2の状況において、エレベータ内部から境界領域x3に移動した移動体を検出した場合を想定する。領域選択部310は、撮像装置100から境界領域x3についての領域識別情報を受信し、追跡装置200から、境界領域x3において検出された移動体が追跡中でない移動体(第1の移動体)であることを示す通知を受信する。さらに、領域選択部310は、記憶装置400の領域対応情報記憶部410に記憶された領域対応情報から、領域識別情報に示される境界領域x3に対応する対応領域を選択する。具体的には、領域選択部310は、記憶装置400の領域対応情報記憶部410から、境界領域x3に対応する対応領域を示す情報を読み出す。 In FIG. 4, the area selection unit 310 is an example of area selection means. The area selection unit 310 selects one of each of a plurality of areas (in this embodiment, a plurality of boundary areas) predetermined within the imaging range and a plurality of areas, and is associated with each area. The corresponding area associated with the area in which the first moving object was present is selected from the area correspondence information including the corresponding area. For example, it is assumed that the imaging device 100 detects a moving object that has moved from inside the elevator to the boundary region x3 in the situation of FIG. The region selection unit 310 receives the region identification information about the boundary region x3 from the imaging device 100, and from the tracking device 200, the moving body detected in the boundary region x3 is a moving body not being tracked (first moving body). Receive a notification that there is Furthermore, area selection section 310 selects the corresponding area corresponding to boundary area x3 indicated by the area identification information from the area correspondence information stored in area correspondence information storage section 410 of storage device 400 . Specifically, area selection section 310 reads information indicating a corresponding area corresponding to boundary area x3 from area correspondence information storage section 410 of storage device 400 .

図5は、領域対応情報の一例を示す図である。図5に示すように、領域対応情報は、複数の境界領域のうち、境界領域ごとに、対応する境界領域が定められた情報である。 FIG. 5 is a diagram showing an example of area correspondence information. As shown in FIG. 5, the area correspondence information is information in which a corresponding boundary area is defined for each boundary area among a plurality of boundary areas.

照合部320は、複数の領域(本実施形態では複数の境界領域)のうち、第2の移動体が存在した領域と、第2の移動体が領域に存在したときに抽出された特徴量であって、当該領域に対応づけられた第2の移動体の特徴量とを含む移動体情報から、選択された対応領域に対応付けられた特徴量を取得する。第2の移動体は、追跡装置200が追跡し続けている、あるいは追跡していた移動体である。具体的には、照合部320は、領域選択部310によって選択された対応領域を示す情報を受け取る。さらに、照合部320は、記憶装置400の移動体情報記憶部420に記憶された移動体情報から、選択された対応領域に対応付けられた移動体の特徴量を抽出する。 The matching unit 320 compares a region in which the second moving object existed among a plurality of regions (a plurality of boundary regions in this embodiment) and a feature amount extracted when the second moving object exists in the region. Then, the feature quantity associated with the selected corresponding region is acquired from the moving body information including the feature quantity of the second moving body associated with the region. The second moving object is the moving object that the tracking device 200 continues to track or has been tracking. Specifically, matching section 320 receives information indicating the corresponding area selected by area selecting section 310 . Furthermore, the matching unit 320 extracts the feature amount of the moving object associated with the selected corresponding region from the moving object information stored in the moving object information storage unit 420 of the storage device 400 .

図6は、移動体情報の一例を示す図である。図6に示すように、移動体情報は、識別IDと、移動体の特徴量と、境界領域を識別する情報とが対応づけられている。移動体情報に含まれる特徴量と、境界領域を識別する情報とは、移動体が境界領域に存在したときに抽出された特徴量と、その移動体が存在した境界領域を識別する情報とを示す。例えば、図6に示す移動体情報の二行目は、識別ID「001」の移動体が「境界領域x1」に存在したときに抽出された特徴量は「特徴量a」であることを示している。 FIG. 6 is a diagram showing an example of mobile information. As shown in FIG. 6, the moving body information is associated with an identification ID, a feature amount of the moving body, and information for identifying a boundary area. The feature amount and the information identifying the boundary area included in the moving object information are the feature amount extracted when the moving object was present in the boundary area and the information identifying the boundary area where the moving object was present. show. For example, the second line of the moving body information shown in FIG. 6 indicates that the feature quantity extracted when the moving body with the identification ID “001” exists in the “boundary region x1” is the “feature quantity a”. ing.

照合部320が、移動体情報から、領域選択部310によって選択された対応領域に対応づけられた特徴量を取得する例について説明する。選択された対応領域が、境界領域x1、及び境界領域x5である場合、照合部320は、図6に示す移動体情報から、選択された対応領域のそれぞれに対応づけられた、特徴量a、及び特徴量bを取得する。一方、図2の状況では、追跡中でない移動体(第1の移動体)が境界領域x3に存在したとき、境界領域x3に対応する対応領域として領域選択部310によって選択される領域は、境界領域x2、境界領域x3、及び境界領域x4である。仮に、移動体情報において、境界領域x3およびx4について、第1の移動体と異なる第2の移動体の特徴量が記憶され、境界領域x2について第1の移動体と同じ第2の移動体の特徴量が記憶されている場合を想定する。この場合、照合部320は、境界領域x3およびx4に対応付けられた、第1の移動体とは異なる第2の移動体の特徴量と、境界領域x2に対応付けられた、第1の移動体と同じ第2の移動体の特徴量を取得する。 An example will be described in which the collating unit 320 acquires the feature amount associated with the corresponding area selected by the area selecting unit 310 from the mobile object information. When the selected corresponding areas are the boundary area x1 and the boundary area x5, the matching unit 320 determines the feature amounts a, and feature quantity b. On the other hand, in the situation of FIG. 2, when a moving object (first moving object) that is not being tracked exists in the boundary region x3, the region selected by the region selection unit 310 as the corresponding region corresponding to the boundary region x3 is the boundary A region x2, a boundary region x3, and a boundary region x4. Suppose that in the moving object information, the feature amount of a second moving object different from the first moving object is stored for the boundary regions x3 and x4, and the characteristic amount of the second moving object that is the same as the first moving object is stored for the boundary region x2. Assume that feature values are stored. In this case, the collation unit 320 compares the feature amount of the second moving object different from the first moving object associated with the boundary areas x3 and x4, and the feature amount of the first moving object associated with the boundary area x2. A feature amount of a second moving body that is the same as the body is acquired.

そして、照合部320は、取得された特徴量と、第1の移動体が存在したときに抽出された第1の移動体の特徴量とを照合する。照合した結果、合致する特徴量がある、とは、一の撮像データに含まれる移動体(第1の移動体)と、他の撮像データに含まれる移動体(第2の移動体)とが同定されたことを示す。照合した結果、合致する特徴量がある場合、照合部320は、合致した特徴量と対応付けられた移動体の識別IDを含む照合結果を追跡装置200に送信する。このとき、照合部320は、その識別IDと、第1の移動体の特徴量と、第1の移動体が存在した境界領域の情報とを対応付け、移動体情報を更新する。照合部320は、照合手段の一例である。 And the collation part 320 collates the acquired feature-value with the feature-value of the 1st moving body extracted when the 1st moving body existed. As a result of matching, there is a matching feature amount means that a moving object (first moving object) included in one imaging data and a moving object (second moving object) included in other imaging data are Indicates that it has been identified. As a result of matching, if there is a matching feature quantity, the matching unit 320 transmits to the tracking device 200 a matching result including the identification ID of the moving object associated with the matching feature quantity. At this time, the matching unit 320 associates the identification ID, the feature amount of the first moving object, and the information of the boundary area where the first moving object exists, and updates the moving object information. Collation unit 320 is an example of collation means.

照合した結果、合致する特徴量がある場合、照合部320は、第1の移動体の特徴量と合致する特徴量を、移動体情報から破棄してもよい。図2の状況では、照合部320は、境界領域x3に移動した移動体の特徴量と、移動体情報に含まれる境界領域x2に対応づけられた特徴量とが合致したとき、移動体情報から、境界領域x2に対応づけられた特徴量を破棄してもよい。 As a result of matching, if there is a matching feature quantity, the matching unit 320 may discard the feature quantity that matches the feature quantity of the first moving object from the moving object information. In the situation of FIG. 2, when the feature quantity of the moving body that has moved to the boundary region x3 matches the feature quantity associated with the boundary region x2 included in the moving body information, the collating unit 320 determines from the moving body information: , the feature quantity associated with the boundary region x2 may be discarded.

また、照合部320は、第1の移動体の特徴量であって、第1の移動体が存在した境界領域に、対応付けられていない境界領域に対応付けられた特徴量が、移動体情報に含まれる場合、当該特徴量を、移動体情報から破棄してもよい。例えば、照合部320は、第1の移動体の識別IDと同じ識別IDと、領域選択部310が選択した対応領域と異なる境界領域と、が対応づけられた特徴量を、移動体情報から破棄してもよい。図2の状況においては、境界領域x3に移動した移動体と同一の移動体の特徴量であって、境界領域x1または境界領域x5と対応付けられる特徴量が、移動体情報に含まれる場合、照合部320は、境界領域x1または境界領域x5と対応付けられているその移動体の特徴量を、移動体情報から破棄してもよい。このように、移動体情報から特徴量を破棄することによって、移動体情報のデータ量の増加を抑えることができる。なお、特徴量を破棄する機能は、移動体情報記憶部420が有していてもよい。 In addition, the matching unit 320 determines that the feature amount of the first moving body, which is associated with the boundary area in which the first moving body was present, is associated with the boundary area that is not associated with the moving body information. , the feature amount may be discarded from the moving body information. For example, the collating unit 320 discards from the moving object information the feature amount in which the identification ID that is the same as the identification ID of the first moving object and the boundary area that is different from the corresponding area selected by the area selection unit 310 are associated with each other. You may In the situation of FIG. 2, when the moving object information contains the same moving object feature quantity as the moving object that has moved to the boundary region x3 and is associated with the boundary region x1 or the boundary region x5, The matching unit 320 may discard the feature amount of the moving object associated with the boundary area x1 or the boundary area x5 from the moving object information. Thus, by discarding the feature amount from the mobile object information, it is possible to suppress an increase in the amount of data of the mobile object information. Note that the moving object information storage unit 420 may have the function of discarding the feature amount.

照合した結果、合致する特徴量がなかった場合、検出された移動体は、初めて撮像範囲に移動した移動体である。そのため照合部320は、撮像装置100が検出された移動体に関して、新しく識別IDを生成する。そして、照合部320は、生成した識別IDを含む照合結果を追跡装置200に送信する。このとき、照合部320は、生成した識別IDと、検出された移動体の特徴量と、検出された移動体が存在した境界領域の情報とを対応づけて、移動体情報を更新する。 As a result of matching, if there is no matching feature amount, the detected moving object is the moving object that has moved into the imaging range for the first time. Therefore, the collation unit 320 generates a new identification ID for the moving object from which the imaging device 100 has been detected. The collation unit 320 then transmits the collation result including the generated identification ID to the tracking device 200 . At this time, the collation unit 320 associates the generated identification ID, the feature amount of the detected moving object, and the information of the boundary area where the detected moving object exists, and updates the moving object information.

また、照合部320は、検出された移動体が、追跡中の移動体である通知を追跡装置200から受信すると、その通知に含まれる移動体の識別IDと、撮像装置100から取得した特徴量と、検出された移動体が存在した境界領域を示す情報とを対応付けて、移動体情報を更新する。 In addition, when receiving from the tracking device 200 a notification that the detected moving object is the moving object being tracked, the matching unit 320 matches the identification ID of the moving object included in the notification with the feature amount acquired from the imaging device 100 . and information indicating the boundary area where the detected moving object existed, and update the moving object information.

本実施形態において、照合装置300が追跡装置200から受信する通知は、領域選択部310、及び照合部320のいずれか一方が追跡装置200から受信し、いずれか一方が通知を他方に送ってもよいし、双方が追跡装置200から受信してもよい。また、照合装置300に、追跡装置200と通信可能な通信部を設け、通信部が通知を受信し、通信部が通知の内容にしたがって、領域選択部310、及び照合部320のいずれかに通知を送るようにしてもよい。 In this embodiment, the notification received by the verification device 300 from the tracking device 200 is received by either the area selection unit 310 or the verification unit 320 from the tracking device 200, and even if one of them sends the notification to the other. Alternatively, both may receive from tracking device 200 . Also, the verification device 300 is provided with a communication unit capable of communicating with the tracking device 200, the communication unit receives the notification, and the communication unit notifies either the area selection unit 310 or the verification unit 320 according to the content of the notification. may be sent.

追跡システム1000の動作
次に、追跡システム1000の動作を説明する。本実施形態の追跡システム1000は、撮像装置100が、撮像データから移動体を検出し、検出された移動体に関する情報を追跡装置200及び照合装置300に送信する。追跡装置200は、受信した情報に基づいて、移動体を追跡する。検出された移動体が、追跡中の移動体(第2の移動体)であって、境界領域に存在するとき、照合装置300は、検出された移動体の特徴量と、その移動体が存在した境界領域の情報とを対応付けて記憶する。検出された移動体が、追跡中でない移動体(第1の移動体)であって、境界領域に存在するとき、照合装置300は、検出された移動体の特徴量と、移動体情報に含まれる特徴量とを照合し、移動体の同定を行う。このとき、照合装置300は、検出された移動体が存在した境界領域の情報を用いて、移動体情報の中から、検出された移動体の特徴量と照合する対象を絞り込む。
Operation of Tracking System 1000 Next, the operation of tracking system 1000 will be described. In the tracking system 1000 of this embodiment, the imaging device 100 detects a moving object from imaging data and transmits information about the detected moving object to the tracking device 200 and the matching device 300 . Tracking device 200 tracks the moving object based on the received information. When the detected moving object is the moving object being tracked (second moving object) and exists in the boundary area, the verification device 300 compares the feature amount of the detected moving object and the presence of the moving object. and the information of the boundary area that has been obtained are stored in association with each other. When the detected moving object is a moving object that is not being tracked (first moving object) and is present in the boundary area, the verification device 300 determines the feature quantity of the detected moving object and the The moving object is identified by collating with the feature values provided. At this time, the matching device 300 narrows down objects to be matched with the feature amount of the detected moving object from the moving object information using the information of the boundary area where the detected moving object exists.

以下に、撮像装置100及び照合装置300の各々の動作を、図7及び図8のフローチャートを用いて説明する。以下に、説明する動作において、領域対応情報記憶部410には、図5に示す領域対応情報が格納され、移動体情報記憶部420には、図6に示す移動体情報が格納されているとする。なお、本実施形態では、図2に示す状況を用いて、撮像装置100、追跡装置200、照合装置300の動作を説明するが、追跡システム1000を適用する場面はこの例に限らない。また、本明細書において、フローチャートの各ステップを「S701」のように、それぞれのステップに付した番号を用いて表現する。 Operations of the imaging device 100 and the matching device 300 will be described below with reference to the flowcharts of FIGS. 7 and 8. FIG. In the operation described below, it is assumed that the area correspondence information shown in FIG. 5 is stored in the area correspondence information storage unit 410, and the mobile information shown in FIG. do. In this embodiment, the operations of the imaging device 100, the tracking device 200, and the matching device 300 will be described using the situation shown in FIG. 2, but the scene to which the tracking system 1000 is applied is not limited to this example. Also, in this specification, each step of the flowchart is expressed using a number attached to each step, such as "S701".

まず、撮像装置100の動作について説明する。 First, the operation of the imaging device 100 will be described.

図7は、撮像装置100の動作を説明するフローチャートである。まず、撮像部110は、撮像範囲を撮像し、撮像データを生成する(S701)。ここで、図2に示すように、撮像装置100は、各階の各部屋に設置されており、エレベータ内部及び出入口間を除く各部屋が撮像範囲であるとする。 FIG. 7 is a flowchart for explaining the operation of the imaging device 100. FIG. First, the imaging unit 110 captures an image of an imaging range and generates imaging data (S701). Here, as shown in FIG. 2, the imaging device 100 is installed in each room on each floor, and each room except the inside of the elevator and between the entrances and exits is the imaging range.

移動体検出部120は、生成された撮像データを読み出す。移動体検出部120は、撮像データから移動体を検出すると(S702の「YES」)、領域判定部130及び特徴量抽出部140に、移動体を検出したことを示す通知を送る。このとき、通知には、移動体検出部120が取得した移動体の位置情報を含む。移動体検出部120が撮像データから移動体を検出しなかった場合(S702の「NO」)、撮像装置100は、S701の処理に戻る。 The moving object detection unit 120 reads the generated imaging data. When the moving object detection unit 120 detects a moving object from the imaging data (“YES” in S702), the moving object detection unit 120 sends a notification indicating that the moving object has been detected to the area determination unit 130 and the feature amount extraction unit 140 . At this time, the notification includes the location information of the moving object acquired by the moving object detection unit 120 . If the moving object detection unit 120 does not detect a moving object from the imaging data ("NO" in S702), the imaging device 100 returns to the process of S701.

特徴量抽出部140は、移動体検出部120から通知を受け取ると、検出された移動体の特徴量を抽出する(S703)。領域判定部130は、移動体検出部120から通知を受け取ると、通知に含まれる位置情報に基づいて、検出された移動体が境界領域内に存在するか否かを判定する。領域判定部130は、移動体は境界領域内にいると判定した場合(S704の「YES」)、移動体はどの境界領域にいるかを特定する(S705)。例えば、移動体検出部120からの通知に含まれる位置情報が地点Bを示す場合、領域判定部130は、移動体が境界領域x2内に存在していると判定する。そして、領域判定部130は、領域識別情報を生成する。 Upon receiving the notification from the moving body detection unit 120, the feature amount extraction unit 140 extracts the feature amount of the detected moving body (S703). Upon receiving the notification from the moving object detection unit 120, the area determination unit 130 determines whether or not the detected moving object exists within the boundary area based on the position information included in the notification. If the area determining unit 130 determines that the moving object is within the boundary area (“YES” in S704), it specifies in which boundary area the moving object is located (S705). For example, when the position information included in the notification from the moving object detection unit 120 indicates point B, the region determination unit 130 determines that the moving object exists within the boundary region x2. Then, area determination section 130 generates area identification information.

移動体検出部120、特徴量抽出部140、及び領域判定部130は、S702、S703及びS704において取得した、位置情報、特徴量、及び領域識別情報を、追跡装置200及び照合装置300に送信する(S706)。 The moving object detection unit 120, the feature amount extraction unit 140, and the area determination unit 130 transmit the position information, the feature amount, and the area identification information acquired in S702, S703, and S704 to the tracking device 200 and the matching device 300. (S706).

領域判定部130が、移動体は境界領域の外にいると判定した場合(S704の「NO」)、領域識別情報には、移動体は境界領域の外に存在することを示す情報が含まれる。そして、移動体検出部120、特徴量抽出部140、及び領域判定部130は、取得した情報を追跡装置200に送信する(S707)。 When the area determination unit 130 determines that the moving object is outside the boundary area (“NO” in S704), the area identification information includes information indicating that the moving object is outside the boundary area. . Then, the moving object detection unit 120, the feature amount extraction unit 140, and the region determination unit 130 transmit the acquired information to the tracking device 200 (S707).

次に、撮像装置100から情報を受け取ったときの照合装置300の動作について説明する。 Next, the operation of the matching device 300 when information is received from the imaging device 100 will be described.

図8は、照合装置300の動作を説明するフローチャートである。まず、照合装置300は、撮像装置100から検出された移動体の特徴量、及び領域識別情報を受信する(S801)。次に、照合装置300は、追跡装置200から、検出された移動体が追跡中であるか否かを示す情報を含む通知を受信する(S802)。検出された移動体が追跡中の移動体である場合(S803の「YES」)、すなわち、検出された移動体が第2の移動体である場合、照合部320は、通知に含まれる識別IDと、検出された移動体の特徴量と、領域識別情報とに基づいて、移動体情報を更新する(S804)。例えば、撮像装置100から、「特徴量e」及び「境界領域x2」の情報を受け取り、追跡装置200から、識別ID「005」を受け取ったとする。すると、照合部320は、記憶装置400の移動体情報記憶部420にアクセスし、受け取った情報を用いて移動体情報を更新する。図9は、図6に示す移動体情報を更新した移動体情報の一例を示す図である。図9に示すように、照合部320は、識別ID「005」、「特徴量e」及び「境界領域x2」を対応付けて、移動体情報を追加することによって、移動体情報を更新する。 FIG. 8 is a flow chart for explaining the operation of the collation device 300. As shown in FIG. First, the matching device 300 receives the feature amount of the moving object detected from the imaging device 100 and the region identification information (S801). Next, verification device 300 receives a notification including information indicating whether or not the detected moving object is being tracked from tracking device 200 (S802). If the detected moving object is the moving object being tracked ("YES" in S803), that is, if the detected moving object is the second moving object, the verification unit 320 checks the identification ID included in the notification. Then, the moving body information is updated based on the feature amount of the detected moving body and the area identification information (S804). For example, it is assumed that the information of “characteristic quantity e” and “boundary region x2” is received from the imaging device 100 and the identification ID “005” is received from the tracking device 200 . The verification unit 320 then accesses the mobile unit information storage unit 420 of the storage device 400 and updates the mobile unit information using the received information. FIG. 9 is a diagram showing an example of mobile information obtained by updating the mobile information shown in FIG. As shown in FIG. 9, the collation unit 320 associates the identification ID "005", the "feature value e", and the "boundary region x2", and updates the mobile information by adding the mobile information.

検出された移動体が追跡中でない移動体の場合(S803の「NO」)、例えば、図2に示すようにエレベータ内から境界領域x3に移動した第1の移動体である場合、照合装置300は、照合処理を行う(S805)。 If the detected moving object is not being tracked (“NO” in S803), for example, if it is the first moving object that has moved from the elevator to the boundary area x3 as shown in FIG. performs collation processing (S805).

図10は、照合装置300の照合処理を説明するフローチャートである。領域選択部310は、記憶装置400の領域対応情報記憶部410から、領域対応情報を読み出す。そして、領域選択部310は、領域識別情報が示す境界領域に対応する対応領域を、領域対応情報から選択する(S1001)。領域選択部310は、選択した対応領域の情報を照合部320に送る。例えば、領域識別情報に「境界領域x3」を示す情報が含まれている場合、領域選択部310は、図5に示す領域対応情報に基づいて、境界領域x3の対応領域である、「境界領域x2」、「境界領域x3」、及び「境界領域x4」を選択する。そして、「境界領域x2」、「境界領域x3」、及び「境界領域x4」を示す情報を照合部320に送る。 FIG. 10 is a flowchart for explaining the matching process of the matching device 300. As shown in FIG. Area selection unit 310 reads area correspondence information from area correspondence information storage unit 410 of storage device 400 . Then, the area selection unit 310 selects a corresponding area corresponding to the boundary area indicated by the area identification information from the area correspondence information (S1001). Area selection section 310 sends information on the selected corresponding area to matching section 320 . For example, when the area identification information includes information indicating "boundary area x3", area selection section 310 selects "boundary area x2”, “boundary region x3”, and “boundary region x4”. Then, information indicating “boundary region x2”, “boundary region x3”, and “boundary region x4” is sent to collating section 320 .

照合部320は、撮像装置100から特徴量を受け取り、領域選択部310から対応領域の情報を受け取ると、記憶装置400の移動体情報記憶部420から移動体情報を読み出す。そして照合部320は、移動体情報から、選択された対応領域に対応付けられた特徴量を取得する(S1002)。そして、照合部320は、取得した特徴量と、第1の移動体の特徴量とを照合する(S1003)。 The matching unit 320 receives the feature amount from the imaging device 100 and the corresponding area information from the area selection unit 310 , and then reads the moving object information from the moving object information storage unit 420 of the storage device 400 . Then, the matching unit 320 acquires the feature amount associated with the selected corresponding area from the mobile object information (S1002). Then, the collation unit 320 collates the acquired feature amount with the feature amount of the first moving object (S1003).

図8に戻り、照合した結果、合致する特徴量がある場合(S806の「YES」)、照合部320は、移動体情報から、合致した特徴量に対応付けられた識別IDを含む照合結果を追跡装置200に送信する(S807)。そして、照合部320は、合致した特徴量に対応付けられた識別IDと、検出された移動体の特徴量と、領域識別情報とに基づいて、移動体情報を更新する(S808)。例えば、撮像装置100から受け取った特徴量が「特徴量e」であるとする。領域選択部310から受け取った対応領域の情報が、境界領域x2、境界領域x3、及び境界領域x4を示す情報である場合、図9に示す移動体情報から、各対応領域に対応付けられた特徴量、「特徴量e」、「特徴量d」、及び「特徴量c」を取得する。すると、撮像装置100から受け取った特徴量と合致する特徴量は、識別ID「005」に対応付けられた特徴量であることがわかる。そのため、照合部320は、識別ID「005」を含む照合結果を追跡装置200に送信する。そして、照合部320は、識別ID「005」と、「特徴量e」と、領域識別情報に含まれる「境界領域x3」とを対応付けて、移動体情報に追加することによって、移動体情報を更新する。追跡装置200は、検出された移動体を識別ID「005」の移動体として追跡を開始する。 Returning to FIG. 8, if there is a matching feature amount as a result of matching (“YES” in S806), the matching unit 320 extracts the matching result including the identification ID associated with the matching feature value from the moving object information. It is transmitted to the tracking device 200 (S807). Then, the matching unit 320 updates the moving object information based on the identification ID associated with the matching feature amount, the detected moving object feature amount, and the region identification information (S808). For example, assume that the feature quantity received from the imaging device 100 is “feature quantity e”. When the information of the corresponding areas received from the area selection unit 310 is information indicating the boundary area x2, the boundary area x3, and the boundary area x4, the moving object information shown in FIG. Quantities "feature e", "feature d", and "feature c" are obtained. Then, it is found that the feature amount that matches the feature amount received from the imaging device 100 is the feature amount associated with the identification ID "005". Therefore, the collation unit 320 transmits the collation result including the identification ID “005” to the tracking device 200 . Then, the matching unit 320 associates the identification ID “005”, the “feature value e”, and the “boundary region x3” included in the region identification information with each other and adds them to the moving body information, thereby obtaining the moving body information. to update. The tracking device 200 starts tracking the detected moving body as the moving body with the identification ID "005".

照合した結果、合致する特徴量がなかった場合(S806の「NO」)、照合部320は、識別IDを新しく生成し、生成された識別IDを含む照合結果を追跡装置200に送信する(S809)。照合部320は、生成された識別IDと、検出された移動体の特徴量と、領域識別情報とに基づいて、移動体情報を更新する。追跡装置200は、検出された移動体に、新しく生成された識別IDを付与して追跡する。 As a result of matching, if there is no matching feature amount ("NO" in S806), the matching unit 320 generates a new identification ID, and transmits the matching result including the generated identification ID to the tracking device 200 (S809). ). The matching unit 320 updates the mobile object information based on the generated identification ID, the detected feature amount of the mobile object, and the region identification information. The tracking device 200 assigns a newly generated identification ID to the detected moving body and tracks it.

以上のように、第1の実施形態にかかる照合装置300は、撮像範囲内に予め定められた複数の領域の各々と、複数の領域のいずれかであって、各々の領域に対応付けられた対応領域とを含む領域対応情報から、複数の領域のうち、第1の移動体が出現した領域に対応付けられた前記対応領域を選択する。そして、照合装置300は、複数の領域のうち、第2の移動体が存在した領域と、第2の移動体が前記領域に存在したときに抽出された特徴量であって、当該領域に対応づけられた第2の移動体の特徴量とを含む移動体情報から、選択された対応領域に対応付けられた特徴量を取得し、取得された特徴量と、第1の移動体が出現したときに抽出された第1の移動体の特徴量とを照合する。この構成により、照合装置300は、検出された移動体の特徴量と照合する対象を絞り込むことができる。したがって、第1の実施形態にかかる照合装置300は、撮像範囲に出現した移動体の同定において、計算リソースの増加を抑制することが可能になるという効果が得られる。 As described above, the matching device 300 according to the first embodiment can be either each of the plurality of regions predetermined within the imaging range or the plurality of regions, and the The corresponding area associated with the area in which the first moving object appeared is selected from among the plurality of areas from the area correspondence information including the corresponding area. Then, the matching device 300 determines, among the plurality of areas, an area in which the second moving object exists, and a feature amount extracted when the second moving object exists in the area, which corresponds to the area. a feature amount associated with the selected corresponding region is acquired from the moving body information including the feature amount of the second moving body attached thereto, and the acquired feature amount and the first moving body appear Then, the feature amount of the first moving object extracted at the time is collated. With this configuration, the collation device 300 can narrow down the objects to be collated with the detected feature amount of the moving object. Therefore, the collation device 300 according to the first embodiment has the effect of making it possible to suppress an increase in computational resources in identifying a moving object appearing in the imaging range.

また、第1の実施形態にかかる照合装置300は、検出された移動体の特徴量と照合する対象を絞り込むことができるので、照合の精度を高めることができる。 In addition, since the matching device 300 according to the first embodiment can narrow down the objects to be matched with the detected feature quantity of the moving object, it is possible to improve the accuracy of matching.

[変形例1]
照合装置が、領域対応情報記憶部と移動体情報記憶部とを備えてもよい。
[Modification 1]
The collation device may include an area correspondence information storage unit and a moving body information storage unit.

図11は、本変形例にかかる追跡システム1001の構成の一例を示すブロック図である。図11に示すように、本変形例にかかる追跡システム1001の構成は、照合装置301が、領域対応情報記憶部410と移動体情報記憶部420とを備えることを除いて、図3に示す追跡システム1000と同様である。 FIG. 11 is a block diagram showing an example of the configuration of a tracking system 1001 according to this modification. As shown in FIG. 11, the configuration of a tracking system 1001 according to this modified example is the tracking system shown in FIG. Similar to system 1000 .

本変形例にかかる追跡システム1001の動作は、図7、図8及び図10に示すフローチャートと同様である。 The operation of the tracking system 1001 according to this modification is the same as the flowcharts shown in FIGS. 7, 8 and 10. FIG.

本変形例にかかる照合装置301は、第1の実施形態において説明した照合装置300と同様の効果を奏する。 The collation device 301 according to this modification has the same effects as the collation device 300 described in the first embodiment.

[変形例2]
撮像装置が、領域選択部と、照合部とを備えてもよい。
[Modification 2]
The imaging device may include an area selection section and a matching section.

図12は、本変形例にかかる追跡システム1002の構成の一例を示すブロック図である。図12に示すように、本変形例にかかる追跡システム1002の構成は、撮像装置101、追跡装置200、及び記憶装置400を備え、撮像装置101が領域選択部310と、照合部320とを備える。 FIG. 12 is a block diagram showing an example configuration of a tracking system 1002 according to this modification. As shown in FIG. 12, the configuration of a tracking system 1002 according to this modification includes an imaging device 101, a tracking device 200, and a storage device 400. The imaging device 101 includes an area selection unit 310 and a matching unit 320. .

本変形例にかかる追跡システム1002の動作を説明する。なお、図12に示す追跡システム1002の動作が、第1の実施形態の説明と重複する内容については説明を省略する。 The operation of the tracking system 1002 according to this modification will be described. The description of the operation of the tracking system 1002 shown in FIG. 12 that overlaps with the description of the first embodiment will be omitted.

撮像装置102は、図7に示すフローチャートのS701乃至S705、及びS707と同様の処理を行う。S705の処理の次に、移動体検出部120、特徴量抽出部140、及び領域判定部130は、S702、S703及びS704において取得した、位置情報、特徴量、及び領域識別情報を、追跡装置200と、撮像装置102に含まれる領域選択部310及び照合部320とに送信する。 The imaging apparatus 102 performs the same processing as S701 to S705 and S707 in the flowchart shown in FIG. After the process of S705, the moving object detection unit 120, the feature amount extraction unit 140, and the area determination unit 130 transfer the position information, the feature amount, and the area identification information acquired in S702, S703, and S704 to the tracking device 200. , and to the area selection unit 310 and the matching unit 320 included in the imaging device 102 .

次に、撮像装置102は、追跡装置200から、検出された移動体が追跡中であるか否かを示す情報を含む通知を受信する。撮像装置102に含まれる領域選択部310及び照合部320は、追跡装置200から撮像装置102が受信した情報と、移動体検出部120、特徴量抽出部140、及び領域判定部130から受信した情報とを用いて、S803以降の処理を行う。 The imaging device 102 then receives a notification from the tracking device 200 that includes information indicating whether the detected moving object is being tracked. The area selection unit 310 and the matching unit 320 included in the imaging device 102 combine information received by the imaging device 102 from the tracking device 200, information received from the moving object detection unit 120, the feature amount extraction unit 140, and the area determination unit 130. are used to perform the processing from S803 onwards.

本変形例にかかる撮像装置101は、第1の実施形態において説明した照合装置300と同様の効果を奏する。 The imaging device 101 according to this modification has the same effects as the matching device 300 described in the first embodiment.

[変形例3]
照合装置が、移動体検出部と、領域判定部と、特徴量抽出部とを備えてもよい。
[Modification 3]
The matching device may include a moving body detection section, an area determination section, and a feature amount extraction section.

図13は、本変形例にかかる追跡システム1003の構成の一例を示すブロック図である。図13に示すように、本変形例にかかる追跡システム1003の構成は、撮像装置102が移動体検出部120と、領域判定部130と、特徴量抽出部140とを備えず、照合装置302が移動体検出部120と、領域判定部130と、特徴量抽出部140とを備えることを除いて、図3に示す追跡システム1000と同様である。 FIG. 13 is a block diagram showing an example of the configuration of a tracking system 1003 according to this modification. As shown in FIG. 13, in the configuration of the tracking system 1003 according to this modification, the imaging device 102 does not include the moving object detection unit 120, the region determination unit 130, and the feature amount extraction unit 140, and the matching device 302 The tracking system 1000 is the same as the tracking system 1000 shown in FIG.

本変形例にかかる追跡システム1003の動作を説明する。なお、図13に示す追跡システム1003の動作が、第1の実施形態の説明と重複する内容については説明を省略する。 The operation of the tracking system 1003 according to this modification will be described. The description of the operation of the tracking system 1003 shown in FIG. 13 that overlaps with the description of the first embodiment will be omitted.

撮像装置102は、撮像データを生成し、生成した撮像データを照合装置302に送信する。 The imaging device 102 generates imaging data and transmits the generated imaging data to the matching device 302 .

照合装置302が、撮像データを受信すると、移動体検出部120はS702の処理を行い、特徴量抽出部140はS703の処理を行い、領域判定部130はS704及びS705の処理を行う。次に、照合装置302は、検出された移動体の特徴量、位置情報、及び領域識別情報を追跡装置200に送信する。 When the matching device 302 receives the imaging data, the moving object detection unit 120 performs the processing of S702, the feature amount extraction unit 140 performs the processing of S703, and the area determination unit 130 performs the processing of S704 and S705. Next, the collation device 302 transmits the feature quantity, position information, and area identification information of the detected moving object to the tracking device 200 .

そして、検出された移動体が境界領域に存在している場合、照合装置302は、追跡装置200からの、移動体が追跡中であるか否かを示す通知にしたがって、S802以降の処理を行う。 Then, if the detected moving body exists in the boundary area, the verification device 302 performs the processing from S802 onward in accordance with the notification from the tracking device 200 indicating whether or not the moving body is being tracked. .

本変形例にかかる照合装置302は、第1の実施形態において説明した照合装置300と同様の効果を奏する。 The collation device 302 according to this modification has the same effects as the collation device 300 described in the first embodiment.

第2の実施形態
第2の実施形態では、照合装置が、検出された移動体の特徴量と、移動体情報に含まれる特徴量とを照合する際に、特徴量が抽出された時刻を考慮する例について説明する。
Second Embodiment In the second embodiment, when the matching device matches the feature amount of the detected moving object with the feature amount included in the moving object information, the time at which the feature amount is extracted is taken into consideration. An example of

本実施形態にかかる追跡システムの構成は、第1の実施形態と同様である。以下、本実施形態にかかる追跡システムの動作が、第1の実施形態の説明と重複する内容については、説明を省略する。 The configuration of the tracking system according to this embodiment is the same as that of the first embodiment. Hereinafter, the description of the contents of the operation of the tracking system according to the present embodiment that overlaps with the description of the first embodiment will be omitted.

本実施形態にかかる撮像装置100、及び照合装置300の動作を説明する。 Operations of the imaging device 100 and the matching device 300 according to this embodiment will be described.

本実施形態では、撮像装置100は、S706の処理において、追跡装置200及び照合装置300に、検出された移動体の特徴量と、位置情報と、領域識別情報と、特徴量が抽出された時刻とを送信する。 In the present embodiment, in the process of S706, the imaging device 100 supplies the tracking device 200 and the matching device 300 with the feature amount of the detected moving object, the position information, the area identification information, and the time at which the feature amount was extracted. and send.

照合装置300は、S801の処理において、検出された移動体の特徴量と、位置情報と、領域識別情報と、特徴量が抽出された時刻とを受信する。検出された移動体が追跡中である場合(S803の「YES」)、照合部320は、S804の処理において、撮像装置100から受信した、特徴量と、境界領域を示す情報と、特徴量が抽出された時刻(第1の時刻)と、追跡装置200から受信した識別IDとを対応付けて、移動体情報として記憶する。図14は、本実施形態にかかる移動体情報の一例を示す図である。 In the process of S801, the matching device 300 receives the detected feature amount of the moving object, the position information, the area identification information, and the time when the feature amount was extracted. If the detected moving object is being tracked (“YES” in S803), the matching unit 320 receives the feature amount, the information indicating the boundary area, and the feature amount received from the imaging device 100 in the process of S804. The extracted time (first time) is associated with the identification ID received from the tracking device 200 and stored as mobile body information. FIG. 14 is a diagram showing an example of mobile object information according to the present embodiment.

検出された移動体が追跡中でない場合(S803の「NO」)、S806の処理において、照合部320は、移動体情報から、領域選択部310が選択した対応領域に対応付けられた特徴量を読み出す。そして、照合部320は、読み出した特徴量のうち、検出された移動体の特徴量を抽出した時刻との差が所定の時間以内の特徴量と、検出された移動体の特徴量とを照合する。例えば、照合装置300が撮像装置100から受け取った情報のうち、検出された移動体の特徴量が「特徴量e」、時刻が「12:07」であるとする。また、領域選択部310が選択した領域が「境界領域x2」、「境界領域x3」及び「境界領域x4」であるとする。所定の時間を5分間とすると、図14に示す移動体情報のうち、検出された移動体の特徴量と照合する特徴量は、識別ID「005」に対応付けられた「特徴量e」である。 If the detected moving object is not being tracked ("NO" in S803), in the process of S806, the matching unit 320 extracts the feature amount associated with the corresponding area selected by the area selecting unit 310 from the moving object information. read out. Then, the collating unit 320 collates the detected feature amount of the moving object with the feature amount of the detected moving object whose difference from the time when the feature amount of the detected moving object was extracted is within a predetermined time. do. For example, in the information received by the verification device 300 from the imaging device 100, it is assumed that the feature amount of the detected moving object is "feature amount e" and the time is "12:07". It is also assumed that the areas selected by the area selection unit 310 are "border area x2", "border area x3", and "border area x4". Assuming that the predetermined time is 5 minutes, the feature amount to be compared with the feature amount of the detected moving object among the moving object information shown in FIG. be.

なお、本実施形態において用いられる時刻は、移動体が検出された時刻、または撮像データが生成された時刻であってもよい。 Note that the time used in this embodiment may be the time when the moving object is detected or the time when the imaging data is generated.

また、本実施形態において、境界領域ごとに、所定の時間が異なってもよい。例えば、領域選択部310が選択した領域が「境界領域x2」、「境界領域x3」及び「境界領域x4」の場合、所定の時間を5分とし、「境界領域x1」及び「境界領域x5」の場合、所定の時間を3分としてもよい。 Also, in the present embodiment, the predetermined time may differ for each boundary area. For example, when the regions selected by the region selection unit 310 are “boundary region x2”, “boundary region x3” and “boundary region x4”, the predetermined time is set to 5 minutes, and “boundary region x1” and “boundary region x5” are selected. , the predetermined time may be 3 minutes.

以上のように、第2実施形態において、移動体情報には、第2の移動体の特徴量に、第2の移動体が境界領域に存在した時刻がさらに対応づけられる。そして第2の実施形態にかかる照合装置300は、選択された対応領域に対応付けられた特徴量のうち、第1の移動体が出現した時刻と前記第1の時刻との差が所定の値以内となる時刻である第1の時刻に対応付けられた特徴量と、第1の移動体が出現したときに抽出された第1の移動体の特徴量とを照合する。この構成により、検出された移動体の特徴量と照合する対象を絞り込むことができるので、第2の実施形態にかかる照合装置300は、異なる映像に含まれる移動体の同定において、計算リソースの増加をさらに抑制することが可能になるという効果が得られる。 As described above, in the second embodiment, in the moving body information, the feature amount of the second moving body is further associated with the time at which the second moving body was present in the boundary area. Then, the matching device 300 according to the second embodiment determines that the difference between the time when the first moving object appears and the first time, among the feature values associated with the selected corresponding region, is a predetermined value. The feature amount associated with the first time, which is within the time period, is collated with the feature amount of the first moving object extracted when the first moving object appears. With this configuration, it is possible to narrow down the objects to be matched with the detected feature amount of the moving object. can be further suppressed.

また、第2の実施形態において、照合部320は、照合装置300のシステム時間等から、現時刻を取得してもよい。そして、照合部320は、移動体情報のうち、現時刻との差が所定の時間以上である時刻と対応付けられた特徴量を破棄してもよい。なお、照合部320に代わり移動体情報記憶部420が、特徴量を破棄してもよい。 Further, in the second embodiment, the collation unit 320 may acquire the current time from the system time of the collation device 300 or the like. Then, the matching unit 320 may discard the feature amount associated with the time when the difference from the current time is equal to or greater than a predetermined time, among the mobile object information. Note that the moving body information storage unit 420 may discard the feature amount instead of the matching unit 320 .

このように、時刻に応じて特徴量を破棄することにより、移動体情報のデータ量の増加を抑えることができる。 In this way, by discarding the feature amount according to the time, it is possible to suppress an increase in the data amount of the mobile body information.

第3の実施形態
第3の実施形態では、撮像範囲の外から境界領域に移動した移動体が、撮像範囲の外を、移動体が乗り入れ可能な移動装置を用いて移動していた場合に、照合装置が、移動装置の稼働情報を考慮して照合を行う例について説明する。
Third Embodiment In the third embodiment, when a moving body that has moved from outside the imaging range to the boundary area moves outside the imaging range using a moving device that allows the moving body to enter, An example in which a verification device performs verification in consideration of operation information of a mobile device will be described.

具体的には、図2に示す状況において、移動体が境界領域x2から、エレベータを用いて境界領域x3に移動したとする。このとき、エレベータは1階と2階とにのみ停止する、といった稼働の制限が設けられているとする。この場合、境界領域x3に移動した移動体の特徴量に対して、境界領域x4において抽出された移動体の特徴量と照合する必要はない。また、図2に示す状況において、移動体が、進行方向が上であるエレベータから境界領域x3に移動した場合、その移動体は1階からエレベータに乗った可能性が高い。この場合においても、境界領域x3に移動した移動体の特徴量に対して、境界領域x4において抽出された移動体の特徴量と照合する必要はない。本実施形態では、照合装置は、このようなエレベータ等の移動装置の稼働情報を考慮して、特徴量の照合を行う。 Specifically, in the situation shown in FIG. 2, it is assumed that the moving object moves from the boundary area x2 to the boundary area x3 using an elevator. At this time, it is assumed that the elevator is restricted to stop only on the first and second floors. In this case, it is not necessary to collate the feature amount of the moving object that has moved to the boundary area x3 with the feature amount of the moving object extracted in the boundary area x4. In addition, in the situation shown in FIG. 2, when the moving object moves from the elevator whose traveling direction is upward to the boundary region x3, it is highly likely that the moving object got on the elevator from the first floor. Even in this case, it is not necessary to collate the feature amount of the moving object that has moved to the boundary area x3 with the feature amount of the moving object extracted in the boundary area x4. In the present embodiment, the verification device performs verification of feature amounts in consideration of the operation information of such moving devices such as elevators.

図15は、本開示の第3の実施形態にかかる追跡システム1004を示すブロック図である。図15に示すように、本実施形態にかかる追跡システム1004の構成は、記憶装置401が稼働情報記憶部430を備えることを除いて、第1の実施形態と同様である。以下、追跡システム1004の構成、及び動作が、第1の実施形態の説明と重複する内容については、説明を省略する。 FIG. 15 is a block diagram illustrating a tracking system 1004 according to a third embodiment of the disclosure. As shown in FIG. 15 , the configuration of a tracking system 1004 according to this embodiment is the same as that of the first embodiment, except that the storage device 401 includes an operating information storage unit 430 . In the following, the description of the configuration and operation of the tracking system 1004 that overlap with the description of the first embodiment will be omitted.

稼働情報記憶部430は、稼働情報を格納する。図16は、第3の実施形態にかかる稼働情報の一例を示す図である。図16は、図2に示す状況におけるエレベータに関する稼働情報である。図16の例では、時刻ごとにエレベータが停止する階が定められているが、稼働情報の例はこれに限らない。例えば、時刻ごとに、エレベータの進む方向が対応付けられた情報であってもよいし、エレベータが止まった時刻と、そのエレベータが止まった階層とが対応付けられた情報であってもよい。 The operating information storage unit 430 stores operating information. FIG. 16 is a diagram illustrating an example of operating information according to the third embodiment; FIG. 16 is operating information about elevators in the situation shown in FIG. In the example of FIG. 16, floors where the elevator stops are determined for each time, but examples of operation information are not limited to this. For example, the information may be information in which the direction in which the elevator travels is associated with each time, or information in which the time when the elevator stops and the floor where the elevator stops may be associated.

次に、追跡システム1004の動作について説明する。領域対応情報記憶部410には、図5に示す領域対応情報が格納され、移動体情報記憶部420には、図9に示す移動体情報が格納され、稼働情報記憶部430には、図16に示す稼働情報が格納されているとする。また、本実施形態では、図2に示す状況を用いて、追跡システム1004の動作を説明するが、追跡システム1004を適用する場面はこの例に限らない。 The operation of tracking system 1004 will now be described. The area correspondence information storage unit 410 stores the area correspondence information shown in FIG. 5, the moving body information storage unit 420 stores the moving body information shown in FIG. is stored. Also, in this embodiment, the operation of the tracking system 1004 will be described using the situation shown in FIG. 2, but the scene to which the tracking system 1004 is applied is not limited to this example.

撮像装置100は、S706の処理において、検出された移動体の特徴量と、位置情報と、領域識別情報と、移動体が検出された時刻とを送信する。 In the process of S706, the imaging apparatus 100 transmits the feature amount of the detected moving object, the position information, the area identification information, and the time when the moving object was detected.

照合装置300は、S801の処理において、検出された移動体の特徴量と、位置情報と、領域識別情報と、移動体が検出された時刻とを受信する。 In the process of S801, the matching device 300 receives the feature amount of the detected moving object, the position information, the area identification information, and the time when the moving object was detected.

領域選択部310は、S805の処理において、対応領域を選択し、稼働情報記憶部430から稼働情報を読み出す。領域選択部310は、読み出した稼働情報と、領域識別情報と、移動体が検出された時刻とに基づいて、選択した対応領域のうち、検出された移動体が存在した境界領域に移動可能な対応領域を選択する。例えば、照合装置300が撮像装置100から受け取った情報のうち、領域識別情報に含まれる境界領域を示す情報が「境界領域x3」、時刻が「9:00」であるとする。このとき領域選択部310は、図5に示す領域対応情報から、「境界領域x3」に対応する「境界領域x2」、「境界領域x3」及び「境界領域x4」を選択する。そして、時刻が「9:00」であるため、図16に示す稼働情報から、エレベータの稼働状態は、1階及び2階にのみ停止、である。そのため、領域選択部310は、選択した対応領域のうち、「境界領域x2」及び「境界領域x3」をさらに選択する。そして、照合部320は、検出された移動体の特徴量と、移動体情報のうち、「境界領域x2」または「境界領域x3」に対応付けられた特徴量と、を照合する。 The area selection unit 310 selects the corresponding area and reads the operation information from the operation information storage unit 430 in the process of S805. Based on the read operation information, the area identification information, and the time at which the moving object was detected, the area selecting unit 310 selects a boundary area in which the detected moving object exists among the selected corresponding areas. Select the corresponding area. For example, it is assumed that among the information received by the verification device 300 from the imaging device 100, the information indicating the boundary region included in the region identification information is "boundary region x3" and the time is "9:00". At this time, the area selection unit 310 selects "boundary area x2", "boundary area x3", and "boundary area x4" corresponding to "boundary area x3" from the area correspondence information shown in FIG. Then, since the time is "9:00", the operating state of the elevator is "stopped only on the first and second floors" according to the operating information shown in FIG. Therefore, the region selection unit 310 further selects the “boundary region x2” and the “boundary region x3” from the selected corresponding regions. Then, the collation unit 320 collates the detected moving object feature quantity with the feature quantity associated with the “boundary region x2” or the “boundary region x3” in the moving body information.

なお、本実施形態において、照合装置300が、領域対応情報記憶部410、移動体情報記憶部420、及び稼働情報記憶部430を備えてもよい。 In addition, in the present embodiment, the matching device 300 may include the region correspondence information storage unit 410 , the moving object information storage unit 420 , and the operation information storage unit 430 .

また、移動装置の例はエレベータに限らない。例えば、移動装置はエスカレータ、または電車等であってもよい。 Also, examples of mobile devices are not limited to elevators. For example, the mobile device may be an escalator, a train, or the like.

以上のように、第3の実施形態にかかる照合装置300は、第1の移動体が移動装置を用いて撮像範囲の外から複数の領域のいずれかに出現したとき、第1の移動体が出現した領域に対応付けられた対応領域のうち、移動装置の稼働情報に応じた対応領域を選択する。この構成により、検出された移動体の特徴量と照合する対象を絞り込むことができるので、第3の実施形態にかかる照合装置300は、異なる映像に含まれる移動体の同定において、計算リソースの増加をさらに抑制することが可能になるという効果が得られる。 As described above, the verification device 300 according to the third embodiment can detect the first moving object when it appears in one of the plurality of areas from outside the imaging range using the moving device. A corresponding area corresponding to the operation information of the mobile device is selected from the corresponding areas associated with the appearing area. With this configuration, it is possible to narrow down the objects to be matched with the detected feature amount of the moving object. can be further suppressed.

以上、上述した実施形態を参照して本開示を説明した。しかしながら、本開示は、上述した実施形態には限定されない。即ち、本開示は、本開示のスコープ内において、種々の上記開示要素の多様な組み合わせ乃至選択等、当業者が理解し得る様々な態様を適用することができる。 The present disclosure has been described above with reference to the above-described embodiments. However, the disclosure is not limited to the embodiments described above. That is, within the scope of the present disclosure, various aspects that can be understood by those skilled in the art, such as various combinations and selections of the various disclosed elements described above, can be applied.

上記の実施形態の一部又は全部は、以下の付記のようにも記載されうるが、以下には限られない。 Some or all of the above-described embodiments can also be described in the following supplementary remarks, but are not limited to the following.

(付記1)
撮像範囲内に予め定められた複数の領域の各々と、前記複数の領域のいずれかであって、前記各々の領域に対応付けられた対応領域とを含む領域対応情報から、前記複数の領域のうち、第1の移動体が存在した領域に対応付けられた前記対応領域を選択し、
前記複数の領域のうち、第2の移動体が存在した領域と、前記第2の移動体が前記領域に存在したときに抽出された特徴量であって、当該領域に対応づけられた前記第2の移動体の特徴量とを含む移動体情報から、前記選択された対応領域に対応付けられた特徴量を取得し、前記取得された特徴量と、前記第1の移動体が存在したときに抽出された前記第1の移動体の特徴量とを照合する、
照合方法。
(Appendix 1)
each of a plurality of regions predetermined within an imaging range and a corresponding region that is one of the plurality of regions and is associated with each of the plurality of regions based on region correspondence information; Selecting the corresponding area associated with the area where the first moving object was present,
an area in which a second moving object exists among the plurality of areas, and a feature amount extracted when the second moving object exists in the area, wherein 2, the feature amount associated with the selected corresponding area is acquired from the moving body information including the feature amount of the moving body of No. 2, and when the acquired feature amount and the first moving body exist. Matching with the feature amount of the first moving object extracted in
Matching method.

(付記2)
前記第1の移動体の特徴量は、前記第1の移動体が前記撮像範囲の外から前記複数の領域のいずれかに移動したときに抽出された特徴量である、付記1に記載の照合方法。
(Appendix 2)
The collation according to appendix 1, wherein the feature amount of the first moving object is a feature amount extracted when the first moving object moves from outside the imaging range to one of the plurality of regions. Method.

(付記3)
前記第1の移動体の特徴量と、前記第1の移動体が存在した領域とを対応づけて、前記移動体情報に設定する、付記1または2のいずれか一項に記載の照合方法。
(Appendix 3)
3. The collation method according to any one of appendices 1 and 2, wherein the characteristic amount of the first moving body and the area where the first moving body existed are associated with each other and set in the moving body information.

(付記4)
照合した結果、前記第1の移動体の特徴量と合致する特徴量がある場合、当該合致する特徴量を、前記移動体情報から破棄する、付記1乃至3のいずれか一項に記載の照合方法。
(Appendix 4)
4. The collation according to any one of appendices 1 to 3, wherein if there is a feature amount that matches the feature amount of the first moving object as a result of the collation, the matching feature amount is discarded from the moving object information. Method.

(付記5)
前記第1の移動体の特徴量であって、前記第1の移動体が存在した領域に対応付けられていない領域に対応付けられた特徴量が、前記移動体情報に含まれる場合、当該第1の移動体の特徴量を、前記移動体情報から破棄する、付記1乃至4のいずれか一項に記載の照合方法。
(Appendix 5)
If the moving object information includes a feature amount of the first moving object that is associated with an area that is not associated with an area where the first moving object exists, 5. The collation method according to any one of Appendices 1 to 4, wherein the feature amount of one moving object is discarded from the moving object information.

(付記6)
前記移動体情報は、前記第2の移動体の特徴量に、前記第2の移動体が前記領域に存在した時刻である第1の時刻がさらに対応づけられ、
前記選択された対応領域に対応付けられた特徴量のうち、前記第1の移動体が存在した時刻との差が所定の値以内である前記第1の時刻に対応付けられた特徴量と、前記第1の移動体が存在したときに抽出された前記第1の移動体の特徴量とを照合する、付記1乃至5のいずれか一項に記載の照合方法。
(Appendix 6)
wherein the moving object information further associates a first time, which is a time when the second moving object exists in the region, with the characteristic quantity of the second moving object;
a feature amount associated with the first time, which is within a predetermined value from the time at which the first moving object exists, among the feature amounts associated with the selected corresponding region; 6. The collation method according to any one of appendices 1 to 5, wherein the feature amount of the first moving object extracted when the first moving object exists is collated.

(付記7)
前記第1の移動体が移動装置を用いて前記撮像範囲の外から前記複数の領域のいずれかに移動したとき、当該第1の移動体が移動した領域に対応付けられた前記対応領域のうち、前記移動装置の稼働情報に応じた前記対応領域を選択する、付記1乃至6のいずれか一項に記載の照合方法。
(Appendix 7)
When the first moving body moves from outside the imaging range to one of the plurality of areas using a moving device, out of the corresponding areas associated with the area to which the first moving body has moved 7. The collation method according to any one of Appendices 1 to 6, wherein the corresponding area is selected according to operation information of the mobile device.

(付記8)
撮像範囲内に予め定められた複数の領域の各々と、前記複数の領域のいずれかであって、前記各々の領域に対応付けられた対応領域とを含む領域対応情報から、前記複数の領域のうち、第1の移動体が存在した領域に対応付けられた前記対応領域を選択する領域選択手段と、
前記複数の領域のうち、第2の移動体が存在した領域と、前記第2の移動体が前記領域に存在したときに抽出された特徴量であって、当該領域に対応づけられた前記第2の移動体の特徴量とを含む移動体情報から、前記選択された対応領域に対応付けられた特徴量を取得し、前記取得された特徴量と、前記第1の移動体が存在したときに抽出された前記第1の移動体の特徴量とを照合する照合手段と、を備える照合装置。
(Appendix 8)
each of a plurality of regions predetermined within an imaging range and a corresponding region that is one of the plurality of regions and is associated with each of the plurality of regions based on region correspondence information; an area selection means for selecting the corresponding area associated with the area in which the first moving object was present;
an area in which a second moving object exists among the plurality of areas, and a feature amount extracted when the second moving object exists in the area, wherein 2, the feature amount associated with the selected corresponding area is acquired from the moving body information including the feature amount of the moving body of No. 2, and when the acquired feature amount and the first moving body exist. and a matching means for matching the feature amount of the first moving object extracted in the above.

(付記9)
前記第1の移動体の特徴量は、前記第1の移動体が前記撮像範囲の外から前記複数の領域のいずれかに移動したときに抽出された特徴量である、付記8に記載の照合装置。
(Appendix 9)
The verification according to appendix 8, wherein the feature amount of the first moving object is a feature amount extracted when the first moving object moves from outside the imaging range to one of the plurality of regions. Device.

(付記10)
前記照合手段は、前記第1の移動体の特徴量と、前記第1の移動体が存在した領域とを対応づけて、前記移動体情報に設定する、付記8または9のいずれか一項に記載の照合装置。
(Appendix 10)
10. The method according to any one of appendices 8 and 9, wherein the collating means associates the feature amount of the first moving object with an area in which the first moving object existed, and sets the information in the moving object information. Verification device as described.

(付記11)
前記照合手段は、照合した結果、前記第1の移動体の特徴量と合致する特徴量がある場合、当該合致する特徴量を、前記移動体情報から破棄する、付記8乃至10のいずれか一項に記載の照合装置。
(Appendix 11)
11. Any one of appendices 8 to 10, wherein when there is a feature amount that matches the feature amount of the first moving object as a result of the matching, the matching means discards the matching feature amount from the moving object information. 3. A matching device as described in paragraph 1 above.

(付記12)
前記照合手段は、前記第1の移動体の特徴量であって、前記第1の移動体が存在した領域に対応付けられていない領域に対応付けられた特徴量が、前記移動体情報に含まれる場合、当該第1の移動体の特徴量を、前記移動体情報から破棄する、付記7乃至11のいずれか一項に記載の照合装置。
(Appendix 12)
The collating means may include, in the moving body information, a feature amount of the first moving body that is associated with an area that is not associated with an area in which the first moving body exists. 12. The collation device according to any one of appendices 7 to 11, wherein, if the first moving object is detected, the feature amount of the first moving object is discarded from the moving object information.

(付記13)
前記移動体情報は、前記第2の移動体の特徴量に、前記第2の移動体が前記領域に存在した時刻である第1の時刻がさらに対応づけられ、
前記照合手段は、前記選択された対応領域に対応付けられた特徴量のうち、前記第1の移動体が存在した時刻との差が所定の値以内である前記第1の時刻に対応付けられた特徴量と、前記第1の移動体が存在したときに抽出された前記第1の移動体の特徴量とを照合する、付記7乃至12のいずれか一項に記載の照合装置。
(Appendix 13)
wherein the moving object information further associates a first time, which is a time when the second moving object exists in the region, with the characteristic quantity of the second moving object;
The collation means associates the feature value associated with the selected corresponding region with the first time that differs from the time at which the first moving object exists within a predetermined value. 13. The collation device according to any one of appendices 7 to 12, wherein the feature amount of the first moving object is collated with the feature amount of the first moving object extracted when the first moving object exists.

(付記14)
前記領域選択手段は、前記第1の移動体が移動装置を用いて前記撮像範囲の外から前記複数の領域のいずれかに移動したとき、当該第1の移動体が移動した領域に対応付けられた前記対応領域のうち、前記移動装置の稼働情報に応じた前記対応領域を選択する、付記7乃至13のいずれか一項に記載の照合装置。
(Appendix 14)
When the first moving object moves from outside the imaging range to one of the plurality of areas using a moving device, the area selecting means associates the moving area with the moving area of the first moving object. 14. The verification device according to any one of appendices 7 to 13, wherein the corresponding region is selected from the corresponding regions corresponding to the movement information of the mobile device.

(付記15)
撮像範囲内に予め定められた複数の領域の各々と、前記複数の領域のいずれかであって、前記各々の領域に対応付けられた対応領域とを含む領域対応情報から、前記複数の領域のうち、第1の移動体が存在した領域に対応付けられた前記対応領域を選択する処理と、
前記複数の領域のうち、第2の移動体が存在した領域と、前記第2の移動体が前記領域に存在したときに抽出された特徴量であって、当該領域に対応づけられた前記第1の移動体の特徴量とを含む移動体情報から、前記選択された対応領域に対応付けられた特徴量を取得し、前記取得された特徴量と、前記第2の移動体が存在したときに抽出された前記第2の移動体の特徴量とを照合する処理と、をコンピュータに実行させるプログラム。
(Appendix 15)
each of a plurality of regions predetermined within an imaging range and a corresponding region that is one of the plurality of regions and is associated with each of the plurality of regions based on region correspondence information; Among them, a process of selecting the corresponding area associated with the area where the first moving object was present;
an area in which a second moving object exists among the plurality of areas, and a feature amount extracted when the second moving object exists in the area, wherein When the feature amount associated with the selected corresponding region is acquired from the moving body information including the feature amount of one moving body, and the acquired feature amount and the second moving body exist. A program for causing a computer to execute a process of collating with the feature amount of the second moving object extracted in the above.

10 コンピュータ装置
11 プロセッサ
12 RAM
13 ROM
14 記憶装置
15 入出力インタフェース
16 バス
17 ドライブ装置
18 プログラム
19 周辺機器
20 記録媒体
100、101、102 撮像装置
110 撮像部
120 移動体検出部
130 領域判定部
140 特徴量抽出部
200 追跡装置
300、301、302 照合装置
310 領域選択部
320 照合部
400、401 記憶装置
410 領域対応情報記憶部
420 移動体情報記憶部
1000、1001、1002、1003、1004 追跡システム
10 computer device 11 processor 12 RAM
13 ROMs
14 storage device 15 input/output interface 16 bus 17 drive device 18 program 19 peripheral device 20 recording medium 100, 101, 102 imaging device 110 imaging unit 120 moving object detection unit 130 region determination unit 140 feature quantity extraction unit 200 tracking device 300, 301 , 302 verification device 310 region selection unit 320 verification unit 400, 401 storage device 410 region correspondence information storage unit 420 moving object information storage unit 1000, 1001, 1002, 1003, 1004 tracking system

Claims (8)

撮像範囲内に予め定められた複数の境界領域の少なくともいずれかであって、前記境界領域のそれぞれに対応する領域である対応領域が示された領域対応情報から、第1の移動体が出現した前記境界領域に対応する前記対応領域を選択し、
第2の移動体が前記境界領域に存在したときに抽出された特徴量と、前記第2の移動体が存在した前記境界領域と、が対応付けられた移動体情報から、選択された前記対応領域に対応付けられた特徴量を取得し、当該取得された特徴量と、前記第1の移動体が出現したときに抽出された前記第1の移動体の特徴量とを照合
前記境界領域のうち、エレベータから移動可能な領域に前記第1の移動体が出現した場合、
前記選択するステップにおいて、時刻ごとにエレベータが停止可能な階が示された稼働情報と、前記第1の移動体が検出された時刻と、に基づいて、当該検出された時刻において、前記第1の移動体が出現した前記境界領域に、エレベータを経由して移動可能な前記対応領域を選択する、
照合方法。
The first moving object has appeared from the area correspondence information indicating the corresponding area which is at least one of a plurality of boundary areas predetermined within the imaging range and which corresponds to each of the boundary areas. selecting the corresponding region corresponding to the boundary region ;
The selected moving body information in which the feature amount extracted when the second moving body was present in the boundary area and the boundary area in which the second moving body was present are associated with each other . Acquiring a feature amount associated with the corresponding region, comparing the acquired feature amount with the feature amount of the first moving object extracted when the first moving object appears ,
When the first moving body appears in an area movable from the elevator in the boundary area,
In the selecting step, based on the operation information indicating floors where the elevator can stop at each time and the time when the first moving body is detected, at the detected time, the first selecting the corresponding area that can move via an elevator to the boundary area where the moving body of
Matching method.
前記第1の移動体の特徴量は、前記第1の移動体が前記撮像範囲の外から前記境界領域のいずれかに移動したときに抽出された特徴量である、請求項1に記載の照合方法。 The verification according to claim 1, wherein the feature amount of the first moving object is a feature amount extracted when the first moving object moves from outside the imaging range to one of the boundary areas . Method. 前記第1の移動体の特徴量と、前記第1の移動体が出現した前記境界領域とを対応づけて、前記移動体情報を更新する、請求項1または2のいずれか一項に記載の照合方法。 3. The moving object information according to claim 1, wherein the moving object information is updated by associating the characteristic amount of the first moving object with the boundary area where the first moving object appears . Matching method. 照合した結果、前記第1の移動体の特徴量と合致する特徴量がある場合、当該合致する特徴量を、前記移動体情報から破棄する、請求項1乃至3のいずれか一項に記載の照合方法。 4. The method according to any one of claims 1 to 3, wherein if there is a feature amount that matches the feature amount of the first moving object as a result of collation, the matching feature amount is discarded from the moving object information. Matching method. 前記第1の移動体の特徴量であって、前記第1の移動体が出現した前記境界領域に対応付けられていない前記境界領域に対応付けられた特徴量が、前記移動体情報に含まれる場合、当該第1の移動体の特徴量を、前記移動体情報から破棄する、請求項1乃至4のいずれか一項に記載の照合方法。 The moving body information includes a feature amount of the first moving body that is associated with the boundary area that is not associated with the boundary area where the first moving body appears . 5. The matching method according to any one of claims 1 to 4, wherein if the first moving object is detected, the feature amount of the first moving object is discarded from the moving object information. 前記移動体情報は、前記第2の移動体の特徴量に、前記第2の移動体が前記境界領域に存在した時刻がさらに対応づけられ、
選択された前記対応領域に対応付けられた特徴量のうち、前記第1の移動体が出現した時刻との差が所定の値以内となる時刻である第1の時刻に対応付けられた特徴量と、前記第1の移動体が出現したときに抽出された前記第1の移動体の特徴量とを照合する、請求項1乃至5のいずれか一項に記載の照合方法。
wherein the moving object information further associates a time at which the second moving object was present in the boundary area with the characteristic quantity of the second moving object;
Among the feature amounts associated with the selected corresponding region, the feature amount associated with a first time that is a time at which the difference from the time when the first moving body appears is within a predetermined value. 6. The collation method according to any one of claims 1 to 5, wherein the feature amount of said first moving object extracted when said first moving object appears is collated with said first moving object.
撮像範囲内に予め定められた複数の境界領域の少なくともいずれかであって、前記境界領域のそれぞれに対応する領域である対応領域が示された領域対応情報から、第1の移動体が出現した前記境界領域に対応する前記対応領域を選択する領域選択手段と、
第2の移動体が前記境界領域に存在したときに抽出された特徴量と、前記第2の移動体が存在した前記境界領域と、が対応付けられた移動体情報から、選択された前記対応領域に対応付けられた特徴量を取得し、当該取得された特徴量と、前記第1の移動体が出現したときに抽出された前記第1の移動体の特徴量とを照合する照合手段と、を備え
前記境界領域のうち、エレベータから移動可能な領域に前記第1の移動体が出現した場合、
前記領域選択手段は、時刻ごとにエレベータが停止可能な階が示された稼働情報と、前記第1の移動体が検出された時刻と、に基づいて、当該検出された時刻において、前記第1の移動体が出現した前記境界領域に、エレベータを経由して移動可能な前記対応領域を選択する、
照合装置。
The first moving object has appeared from the area correspondence information indicating the corresponding area which is at least one of a plurality of boundary areas predetermined within the imaging range and which corresponds to each of the boundary areas. an area selection means for selecting the corresponding area corresponding to the boundary area ;
The selected moving body information in which the feature amount extracted when the second moving body was present in the boundary area and the boundary area in which the second moving body was present are associated with each other . Verification means for obtaining a feature amount associated with the corresponding region and comparing the obtained feature amount with the feature amount of the first moving object extracted when the first moving object appears . and
When the first moving body appears in an area movable from the elevator in the boundary area,
The region selecting means selects the first floor at the detected time based on the operation information indicating floors on which the elevator can stop for each time and the time when the first moving object is detected. selecting the corresponding area that can move via an elevator to the boundary area where the moving body of
Verification device.
撮像範囲内に予め定められた複数の境界領域の少なくともいずれかであって、前記境界領域のそれぞれに対応する領域である対応領域が示された領域対応情報から、第1の移動体が出現した前記境界領域に対応する前記対応領域を選択する処理と、
第2の移動体が前記境界領域に存在したときに抽出された特徴量と、前記第2の移動体が存在した前記境界領域と、が対応付けられた移動体情報から、選択された前記対応領域に対応付けられた特徴量を取得し、当該取得された特徴量と、前記第2の移動体が出現したときに抽出された前記第2の移動体の特徴量とを照合する処理と、をコンピュータに実行させ
前記境界領域のうち、エレベータから移動可能な領域に前記第1の移動体が出現した場合、
前記選択する処理において、時刻ごとにエレベータが停止可能な階が示された稼働情報と、前記第1の移動体が検出された時刻と、に基づいて、当該検出された時刻において、前記第1の移動体が出現した前記境界領域に、エレベータを経由して移動可能な前記対応領域を選択する、
プログラム。
The first moving object has appeared from the area correspondence information indicating the corresponding area which is at least one of a plurality of boundary areas predetermined within the imaging range and which corresponds to each of the boundary areas. a process of selecting the corresponding area corresponding to the boundary area ;
The selected moving body information in which the feature amount extracted when the second moving body was present in the boundary area and the boundary area in which the second moving body was present are associated with each other . a process of acquiring a feature amount associated with the corresponding region and collating the acquired feature amount with the feature amount of the second moving object extracted when the second moving object appears ; , on the computer , and
When the first moving body appears in an area movable from the elevator in the boundary area,
In the selecting process, based on the operation information indicating floors where the elevator can stop at each time and the time when the first moving body is detected, at the detected time, the first selecting the corresponding area that can move via an elevator to the boundary area where the moving body of
program.
JP2019126653A 2019-07-08 2019-07-08 Verification method, verification device, and program Active JP7334512B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2019126653A JP7334512B2 (en) 2019-07-08 2019-07-08 Verification method, verification device, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019126653A JP7334512B2 (en) 2019-07-08 2019-07-08 Verification method, verification device, and program

Publications (2)

Publication Number Publication Date
JP2021012558A JP2021012558A (en) 2021-02-04
JP7334512B2 true JP7334512B2 (en) 2023-08-29

Family

ID=74227500

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019126653A Active JP7334512B2 (en) 2019-07-08 2019-07-08 Verification method, verification device, and program

Country Status (1)

Country Link
JP (1) JP7334512B2 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN117185064B (en) * 2023-08-18 2024-03-05 山东五棵松电气科技有限公司 Intelligent community management system, method, computer equipment and storage medium

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006146378A (en) 2004-11-17 2006-06-08 Hitachi Ltd Monitoring system using multiple camera
JP2015073191A (en) 2013-10-02 2015-04-16 キヤノン株式会社 Image processing system and control method therefor
WO2015098442A1 (en) 2013-12-26 2015-07-02 株式会社日立国際電気 Video search system and video search method
JP2016045742A (en) 2014-08-22 2016-04-04 東芝テック株式会社 Information processing device and program

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006146378A (en) 2004-11-17 2006-06-08 Hitachi Ltd Monitoring system using multiple camera
JP2015073191A (en) 2013-10-02 2015-04-16 キヤノン株式会社 Image processing system and control method therefor
WO2015098442A1 (en) 2013-12-26 2015-07-02 株式会社日立国際電気 Video search system and video search method
JP2016045742A (en) 2014-08-22 2016-04-04 東芝テック株式会社 Information processing device and program

Also Published As

Publication number Publication date
JP2021012558A (en) 2021-02-04

Similar Documents

Publication Publication Date Title
JP5369175B2 (en) Elevator door detection apparatus and detection method using video
US20230410582A1 (en) Information processing apparatus, information processing system, and information processing method
KR100804678B1 (en) Method for classifying scene by personal of video and system thereof
JP5077164B2 (en) Tracking device and tracking method
CN109465819B (en) Human body recognition system and human body recognition method
US10467461B2 (en) Apparatus for searching for object and control method thereof
JP7540430B2 (en) Information processing device, information processing method, and program
US9891798B2 (en) Face image tracking system
JPWO2009142098A1 (en) Image processing apparatus, camera, image processing method and program
JP2016122300A (en) Image processing apparatus, image processing method, and program
JP7334512B2 (en) Verification method, verification device, and program
EP3860116A1 (en) Authentication system, authentication method, and storage medium
JP7468779B2 (en) Information processing device, information processing method, and storage medium
JP7020567B2 (en) Information processing systems, information processing equipment, information processing methods, and programs
JP7327923B2 (en) Information processing device, information processing method, system and program
WO2020261508A1 (en) Image processing device, person search system, image processing method, and non-transitory computer readable medium
JP7298729B2 (en) Information processing system, information processing device, information processing method, and program
KR102518061B1 (en) Method and apparatus for checking whether mask is worn through facial contour estimation
JP6773144B2 (en) Content selection device, content selection method, content selection system and program
JP7088108B2 (en) Tracking methods, tracking devices, and programs
JP2007179224A (en) Information processing device, method, and program
WO2009101671A1 (en) Device for personal authentication registration, method for personal authentication registration, and program for personal authentication registration
JP5227046B2 (en) Motion detection device and motion detection method
US20230222833A1 (en) Image processing apparatus, image processing method, and storage medium
WO2024214281A1 (en) Information processing device, information processing method, and recording medium

Legal Events

Date Code Title Description
RD01 Notification of change of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7421

Effective date: 20211015

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220615

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20230427

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230509

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230614

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230718

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230731

R151 Written notification of patent or utility model registration

Ref document number: 7334512

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151