JP7334512B2 - Verification method, verification device, and program - Google Patents
Verification method, verification device, and program Download PDFInfo
- Publication number
- JP7334512B2 JP7334512B2 JP2019126653A JP2019126653A JP7334512B2 JP 7334512 B2 JP7334512 B2 JP 7334512B2 JP 2019126653 A JP2019126653 A JP 2019126653A JP 2019126653 A JP2019126653 A JP 2019126653A JP 7334512 B2 JP7334512 B2 JP 7334512B2
- Authority
- JP
- Japan
- Prior art keywords
- moving object
- area
- feature amount
- boundary
- information
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Landscapes
- Studio Devices (AREA)
- Image Analysis (AREA)
Description
本開示は、移動体の特徴量を照合する方法、装置、及びプログラムに関する。 The present disclosure relates to a method, apparatus, and program for collating feature amounts of moving objects.
撮像装置から得られる映像を用いて、移動体を追跡する技術が開発されている。例えば、映像から移動体の特徴量を抽出し、映像間で特徴量を照合することで移動体の同定を行い、移動体を追跡する技術がある。 Techniques for tracking a moving object using images obtained from imaging devices have been developed. For example, there is a technique for extracting feature amounts of a moving object from videos, matching the feature amounts between videos, identifying the moving object, and tracking the moving object.
ここで、移動体が、一の撮像装置の撮像範囲から、他の撮像装置の撮像範囲に移動したとき、同一の移動体であっても、一の撮像装置の撮像範囲に存在した移動体と、他の撮像装置の撮像範囲に存在した移動体とが、別の移動体として認識される虞があった。 Here, when a moving object moves from the imaging range of one imaging device to the imaging range of another imaging device, even if the same moving object is the same moving object, it is different from the moving object existing in the imaging range of the one imaging device. , there is a possibility that a moving object existing in the imaging range of another imaging device may be recognized as a different moving object.
これに対して、特許文献1には、一の撮像範囲に出現した人物と、他の撮像範囲に出現した人物とを同定する技術が開示されている。特許文献1の人物追跡装置は、複数の撮像範囲に出現した人物の特徴量をすべて記録しておき、一の撮像範囲に人物が出現したとき、一の撮像範囲に出現した人物の特徴量と、記録された特徴量とを照合する。照合の結果、合致する特徴量があった場合、特許文献1の人物追跡装置は、照合の結果が正しいか否かを判定する。
On the other hand,
特許文献1の人物追跡装置は、移動体を同定するために、一の撮像範囲に出現した人物の特徴量に対して、記録されたすべての特徴量と照合する。そのため、記録された特徴量が増加するにつれて、計算リソースが増加する虞がある。
In order to identify a moving object, the human tracking device of
本開示は、上記課題を鑑みてなされたものであり、撮像範囲に出現した移動体の同定において、計算リソースの増加を抑制する照合方法等を提供することを主要な目的とする。 The present disclosure has been made in view of the above problems, and a main object of the present disclosure is to provide a matching method or the like that suppresses an increase in computational resources in identifying a moving object that has appeared in an imaging range.
本開示の一態様にかかる照合方法は、撮像範囲内に予め定められた複数の領域の各々と、前記複数の領域のいずれかであって、前記各々の領域に対応付けられた対応領域とを含む領域対応情報から、前記複数の領域のうち、第1の移動体が存在した領域に対応付けられた前記対応領域を選択し、前記複数の領域のうち、第2の移動体が存在した領域と、前記第2の移動体が前記領域に存在したときに抽出された特徴量であって、当該領域に対応づけられた前記第2の移動体の特徴量とを含む移動体情報から、前記選択された対応領域に対応付けられた特徴量を取得し、前記取得された特徴量と、前記第1の移動体が存在したときに抽出された前記第1の移動体の特徴量とを照合する。 A collation method according to an aspect of the present disclosure includes each of a plurality of predetermined regions within an imaging range and a corresponding region that is one of the plurality of regions and is associated with each region. selecting the corresponding area associated with the area in which the first moving object existed from among the plurality of areas from the area correspondence information included therein, and selecting the area in which the second moving object existed from among the plurality of areas and a feature quantity of the second moving body that is extracted when the second moving body exists in the region and that is associated with the region, the moving body information containing: Acquiring a feature amount associated with the selected corresponding region, and comparing the acquired feature amount with the feature amount of the first moving object extracted when the first moving object exists. do.
本開示の一態様にかかる照合装置は、撮像範囲内に予め定められた複数の領域の各々と、前記複数の領域のいずれかであって、前記各々の領域に対応付けられた対応領域とを含む領域対応情報から、前記複数の領域のうち、第1の移動体が存在した領域に対応付けられた前記対応領域を選択する領域選択手段と、前記複数の領域のうち、第2の移動体が存在した領域と、前記第2の移動体が前記領域に存在したときに抽出された特徴量であって、当該領域に対応づけられた前記第2の移動体の特徴量とを含む移動体情報から、前記選択された対応領域に対応付けられた特徴量を取得し、前記取得された特徴量と、前記第1の移動体が存在したときに抽出された前記第1の移動体の特徴量とを照合する照合手段とを備える。 A matching device according to an aspect of the present disclosure includes each of a plurality of regions predetermined within an imaging range and a corresponding region that is one of the plurality of regions and is associated with each of the regions. area selection means for selecting, from among the plurality of areas, the corresponding area associated with the area in which the first moving object existed, from the area correspondence information included; and a feature quantity extracted when the second moving body exists in the region, the feature quantity of the second moving body associated with the region. A feature amount associated with the selected corresponding region is acquired from the information, and the acquired feature amount and the feature of the first moving object extracted when the first moving object exists. and a collating means for collating the quantity.
本開示の一態様にかかるプログラムは、撮像範囲内に予め定められた複数の領域の各々と、前記複数の領域のいずれかであって、前記各々の領域に対応付けられた対応領域とを含む領域対応情報から、前記複数の領域のうち、第1の移動体が存在した領域に対応付けられた前記対応領域を選択する処理と、前記複数の領域のうち、第2の移動体が存在した領域と、前記第2の移動体が前記領域に存在したときに抽出された特徴量であって、当該領域に対応づけられた前記第1の移動体の特徴量とを含む移動体情報から、前記選択された対応領域に対応付けられた特徴量を取得し、前記取得された特徴量と、前記第2の移動体が存在したときに抽出された前記第2の移動体の特徴量とを照合する処理とを、コンピュータに実行させる。 A program according to an aspect of the present disclosure includes each of a plurality of regions predetermined within an imaging range and a corresponding region that is one of the plurality of regions and is associated with each of the regions. a process of selecting, from the area correspondence information, the corresponding area associated with the area in which the first moving object existed among the plurality of areas; From moving object information including an area and a feature amount of the first moving object that is extracted when the second moving object is present in the area and that is associated with the area, acquiring a feature amount associated with the selected corresponding region, and combining the acquired feature amount with the feature amount of the second moving object extracted when the second moving object exists; A computer is made to perform a process to collate.
本開示によれば、撮像範囲に出現した移動体の同定において、計算リソースの増加を抑制することが可能になるという効果が得られる。 Advantageous Effects of Invention According to the present disclosure, it is possible to suppress an increase in computational resources in identifying a moving object that has appeared in an imaging range.
各実施形態のハードウェアの構成例
各実施形態にかかる照合装置を構成するハードウェアについて説明する。図1は、各実施形態における照合装置を実現するコンピュータ装置のハードウェア構成の一例を示すブロック図である。図1が示す各ブロックは、各実施形態における照合装置及び照合方法を実現するコンピュータ装置10と、ソフトウェアとの組み合わせにより実現できる。
Hardware configuration example of each embodiment Hardware configuring a collation device according to each embodiment will be described. FIG. 1 is a block diagram showing an example of the hardware configuration of a computer that implements a matching device in each embodiment. Each block shown in FIG. 1 can be realized by a combination of software and a
図1に示すように、コンピュータ装置10は、プロセッサ11、RAM(Random Access Memory)12、ROM(Read Only Memory)13、記憶装置14、入出力インタフェース15、バス16、及びドライブ装置17を備える。
As shown in FIG. 1 ,
記憶装置14は、プログラム18を格納する。プロセッサ11は、RAM12を用いて本照合装置にかかるプログラム18を実行する。具体的には、例えば、プログラム18は、図7、及び図8に示す処理をコンピュータに実行させるプログラムを含む。プロセッサ11が、プログラム18を実行することに応じて、本照合装置の各構成要素(後述する、領域選択部310及び照合部320)の機能が実現される。プログラム18は、ROM13に記憶されていてもよい。また、プログラム18は、記録媒体20に記録され、ドライブ装置17を用いて読み出されてもよいし、図示しない外部装置から図示しないネットワークを介して送信されてもよい。
入出力インタフェース15は、周辺機器(キーボード、マウス、表示装置など)19とデータをやり取りする。入出力インタフェース15は、データを取得または出力する手段として機能する。バス16は、各構成要素を接続する。
The input/
なお、照合装置の実現方法には様々な変形例がある。例えば、照合装置は、専用の装置として実現することができる。また、照合装置は、複数の装置の組み合わせに基づいて実現することができる。 It should be noted that there are various modifications of the implementation method of the matching device. For example, the verification device can be implemented as a dedicated device. Also, the matching device can be realized based on a combination of a plurality of devices.
各実施形態の機能における各構成要素を実現するためのプログラムを記録媒体に記録させ、該記録媒体に記録されたプログラムをコードとして読み出し、コンピュータにおいて実行する処理方法も各実施形態の範疇に含まれる。すなわち、コンピュータ読取可能な記録媒体も各実施形態の範囲に含まれる。また、上述のプログラムが記録された記録媒体はもちろん、そのプログラム自体も各実施形態に含まれる。 A processing method of recording a program for realizing each component in the function of each embodiment on a recording medium, reading the program recorded on the recording medium as a code, and executing it on a computer is also included in the scope of each embodiment. . That is, a computer-readable recording medium is also included in the scope of each embodiment. In addition to the recording medium on which the above program is recorded, the program itself is also included in each embodiment.
該記録媒体は、例えばフロッピー(登録商標)ディスク、ハードディスク、光ディスク、光磁気ディスク、CD(Compact Disc)-ROM、磁気テープ、不揮発性メモリカード、またはROMであるが、この例に限らない。また該記録媒体に記録されたプログラムは、単体で処理を実行しているプログラムに限らず、他のソフトウェア、拡張ボードの機能と共同して、OS(Operating System)上で動作して処理を実行するプログラムも各実施形態の範疇に含まれる。 The recording medium is, for example, a floppy (registered trademark) disk, hard disk, optical disk, magneto-optical disk, CD (Compact Disc)-ROM, magnetic tape, non-volatile memory card, or ROM, but is not limited to these examples. In addition, the program recorded on the recording medium is not limited to a program that executes processing by itself, but in cooperation with other software and functions of an expansion board, it runs on an OS (Operating System) to execute processing. A program for executing the program is also included in the category of each embodiment.
第1の実施形態
次に、照合装置を含む追跡システムの各構成要素について説明する。
First Embodiment Next, each component of a tracking system including a matching device will be described.
図2は、第1の実施形態にかかる追跡システム1000の構成の一例を模式的に示す図である。図2に示すように、追跡システム1000は、撮像装置100と、追跡装置200と、照合装置300と、記憶装置400とを備える。追跡システム1000は、少なくとも、追跡装置200及び照合装置300に基づいて、撮像装置100が撮像した複数の映像に含まれる移動体を追跡するシステムである。
FIG. 2 is a diagram schematically showing an example of the configuration of the tracking system 1000 according to the first embodiment. As shown in FIG. 2 , tracking system 1000 includes
また、図2では、以下の状況において設置された追跡システム1000を示している。図2に示す移動体は、エレベータを使用して、建物の1階から2階へ移動する。ここで、1階、2階、及び3階は、それぞれ、建物の階層を示し、1階a、1階b、2階a、及び3階aは、各階の部屋を示している。1階a、2階a、及び3階aは、エレベータを介して連絡されている。1階aと1階bとは、出入口を介して連絡されている。図2に示す矢印は、移動体の動きを示す。このとき、移動体は、1階の地点Aから地点Bまで移動し、エレベータを使用して、2階の地点Cまで移動する。 Figure 2 also shows the tracking system 1000 installed in the following situation. The moving object shown in FIG. 2 uses an elevator to move from the first floor to the second floor of a building. Here, the 1st, 2nd, and 3rd floors respectively indicate the floors of the building, and the 1st floor a, the 1st floor b, the 2nd floor a, and the 3rd floor a indicate the rooms on each floor. 1st floor a, 2nd floor a, and 3rd floor a are connected via an elevator. 1st floor a and 1st floor b are connected through a doorway. The arrows shown in FIG. 2 indicate the movement of the moving object. At this time, the moving body moves from point A on the first floor to point B, and uses an elevator to move to point C on the second floor.
撮像装置100は、1階から3階の各階に設置され、それぞれの部屋を撮像する。以降、撮像した映像を撮像データとも称する。追跡装置200は、撮像データに含まれる移動体の動きまたは移動の軌跡を示す動線情報を撮像データから生成し、当該移動体を追跡する。照合装置300は、一の映像に含まれる移動体の特徴量と、他の映像に含まれる移動体の特徴量とを照合する。
The
図2に示す状況において、追跡装置200は、移動体が1階の地点Aから地点Bまで移動する間、移動体の追跡を行う。地点Aは、1階a内の地点であり、地点Bは、1階a内であって、エレベータ付近の地点である。地点A、地点Bのそれぞれは、撮像範囲内に予め定められた領域内に存在する。本実施形態を含む各実施形態において、撮像範囲内に予め定められた領域の一例は、境界領域である。境界領域とは、撮像装置100の撮像範囲内であって、撮像範囲内と撮像範囲外(図2の状況の場合、撮像範囲外はエレベータ内)との境界付近の領域である。移動体が地点Bを含む境界領域x2に移動したとき、撮像装置100は、追跡中の移動体の特徴量を映像から抽出する。そして、照合装置300は、抽出した特徴量と、境界領域x2を示す情報とを対応付けて移動体情報(詳細は後述する)として記憶する。
In the situation shown in FIG. 2, the
また、移動体が、撮像装置100が撮像する範囲の外であるエレベータ内部から、地点Cを含む境界領域x3に移動したとき、照合装置300は、予め記憶された複数の境界領域の各々に対応する領域(境界領域)を情報として含む領域対応情報(詳細は後述する)から境界領域x3に対応する境界領域を選択する。ここで、移動体がエレベータ内部から境界領域x3に移動したとき、その移動体の移動経路は、境界領域x2または境界領域x4から、エレベータを使用して移動したか、境界領域x3からエレベータ内部に移動し、再び境界領域x3に移動したかに限られる。領域対応情報には、このような、ある境界領域に、撮像範囲外を経由して移動体が移動可能な境界領域が定められる。本実施形態において、ある境界領域に、撮像範囲外を経由して移動体が移動可能な境界領域を、「対応する境界領域」または「対応領域」と称する。図2の状況では、照合装置300は、境界領域x2、境界領域x3及び境界領域x4を選択する。
Further, when the moving object moves from inside the elevator, which is outside the range captured by the
そして、照合装置300は、境界領域x3に移動した移動体の特徴量と、移動体情報に含まれる特徴量であって、選択された境界領域に対応付けられた特徴量と、を照合する。図2の状況においては、境界領域x3に移動した移動体の特徴量と照合する特徴量は、選択した境界領域x2、境界領域x3または境界領域x4に対応付けられた特徴量である。これにより、照合装置300は、境界領域x3に移動した移動体と、境界領域x2に存在した移動体とを同定する。追跡装置200は、地点Cに移動した移動体を、地点Aから地点Bに移動した移動体と同一の移動体として、追跡する。
Then, the
なお、本実施形態において、移動体は、例えば人物であるが、これに限らない。移動体は、自動車等であってもよい。 In addition, in this embodiment, the moving object is, for example, a person, but is not limited to this. The moving object may be an automobile or the like.
図3は、図2に示した追跡システム1000の機能構成の一例を示すブロック図である。図3に示すように、撮像装置100は、撮像部110と、移動体検出部120と、領域判定部130と、特徴量抽出部140とを備える。撮像装置100は、所定の範囲を撮像し、撮像データから検出された移動体に関する情報を追跡装置200、照合装置300及び記憶装置400に送信する。
FIG. 3 is a block diagram showing an example of the functional configuration of the tracking system 1000 shown in FIG. 2. As shown in FIG. As shown in FIG. 3 , the
追跡装置200は、撮像装置100及び照合装置300から受け取った情報を用いて、撮像データから検出された移動体を追跡する。また、追跡装置200は、検出された移動体を追跡中であるか否かを示す情報を照合装置300に送信する。
The
図4は、照合装置300の機能構成の一例を示すブロック図である。図4に示すように、照合装置300は、領域選択部310と、照合部320とを備える。照合装置300は、撮像装置100及び追跡装置200から受け取った情報と、記憶装置400に格納されている情報とを用いて、一の撮像データに含まれる移動体の特徴量と、他の撮像データに含まれる移動体の特徴量とを照合する。
FIG. 4 is a block diagram showing an example of the functional configuration of the
図3に戻り、記憶装置400は、領域対応情報記憶部410と、移動体情報記憶部420とを備える。領域対応情報記憶部410には、領域対応情報が格納され、移動体情報記憶部420には、移動体情報が格納される。
Returning to FIG. 3 , the
図3及び図4が示す、撮像装置100、照合装置300及び記憶装置400の各ブロックは、単一の装置内に実装されてよく、あるいは複数の装置にわかれて実装されてよい。また、ブロック間のデータの授受は、データバス、ネットワーク、可搬記憶媒体等、任意の手段を介して行われてよい。
Each block of the
撮像装置100の詳細
次に、撮像装置100の各構成要素について説明する。図3において、撮像部110は、所定の範囲を撮像する。撮像部110が撮像する所定の範囲を「撮像範囲」と称する。図2に示す状況では、撮像範囲は、撮像装置100がそれぞれ設置された部屋のエレベータ内部及び出入口間を除く、各部屋である。撮像部110は、所定の終了指示があるまで、撮像範囲を撮像し続ける。ここで、撮像部110が撮像した映像は、動画像を構成する複数のフレームのそれぞれであってもよいし、静止画像であってもよい。本明細書では、撮像装置100が撮像した映像を「撮像データ」と称する。撮像データには、フレームまたは静止画像の各画素の色の情報あるいは画素値のデータの他に、撮像データが生成された時刻、及び撮像データを撮像した撮像装置100が設置された場所の情報等が含まれてもよい。
Details of
移動体検出部120は、撮像部110が生成した撮像データを順次読み出し、読み出した撮像データに含まれる移動体を検出する。移動体の検出には、例えば、複数の撮像データ間の差分に基づいて移動体を検出する方法、すなわち、背景差分法を用いることが考えられるが、この例に限らない。移動体を検出する方法は、人型を検出する方法等、種々の既知の手法であってもよい。また、移動体検出部120は、検出された移動体に対して、撮像範囲における位置情報を検出する。
The moving
領域判定部130は、移動体検出部120において検出された位置情報に基づいて、移動体が境界領域に存在するか否かを判定する。図2に示す状況では、境界領域は複数存在する。例えば、各階のエレベータ付近の斜線部の領域と、1階a及び1階bの出入口付近の斜線部の領域とは、境界領域である。なお、境界領域は、この例に限らない。例えば、境界領域は、エスカレータの乗降口付近、及び電車等の乗り物の乗降口付近であってもよいし、トイレ及び試着室等の出入口付近であってもよい。また、境界領域はトンネル及び地下道等の出入口付近であってもよい。本実施形態において、各々の境界領域は区別される。領域判定部130は、移動体が境界領域に存在する場合、移動体がどの境界領域にいるかを識別する。以降、移動体が境界領域に存在するか否かを示す情報と、移動体が境界領域に存在するのであれば、その移動体が存在する境界領域を識別する情報とを含む情報を、「領域識別情報」と称する。
The
特徴量抽出部140は、撮像データから移動体が検出されると、検出された移動体の特徴量を抽出する。抽出する特徴量は、例えば、移動体の色及び外形等に関する特徴量であってもよい。移動体が人物である場合、特徴量は、人物の顔または虹彩に関する特徴を示す情報であってもよい。
When a moving object is detected from the imaging data, the feature
撮像装置100は、移動体の位置情報と、移動体に関する領域識別情報と、移動体の特徴量とを追跡装置200及び照合装置300に送信する。本実施形態では、移動体検出部120、領域判定部130、及び特徴量抽出部140が、位置情報、領域識別情報、及び移動体の特徴量のそれぞれを送信するが、この例に限らない。例えば、撮像装置100内に、追跡装置200と照合装置300と通信可能な通信部を設け、通信部が各情報を送信するようにしてもよい。
The
また、撮像装置100が、追跡装置200及び照合装置300に送信する情報は、上記の情報に限らない。撮像装置100は、上記の情報に加えて、撮像データ、または撮像データが生成された時刻を送信してもよい。また、一の撮像データにおいて、複数の移動体が検出された場合、撮像装置100は、複数の移動体に関する特徴量、位置情報、及び領域識別情報を送信してもよい。
Further, the information that the
追跡装置200の詳細
次に、追跡装置200について説明する。
Details of
追跡装置200は、撮像装置100から、検出された移動体の特徴量と、位置情報と、領域識別情報とを受信する。追跡装置200は、受信した情報に応じて、連続した撮像データに含まれる移動体の追跡を行う。移動体の追跡は、例えば、追跡装置200が、同一の撮像装置100から連続して受信した特徴量を照合し、合致する特徴量がある場合に、位置情報を用いて移動体の動きまたは移動の軌跡を示す動線情報を生成することである。追跡中の移動体の特徴量と合致する特徴量を、同一の撮像装置100から受信しなかった場合、追跡中の移動体は、一の撮像範囲から一の撮像範囲の外に移動したことを示す。追跡中の移動体には、照合装置300が生成した識別ID(IDentification)が関連付けられる。識別IDとは、移動体を識別する情報である。本実施形態では、撮像範囲の外から境界領域に移動した移動体、すなわち、追跡装置200が追跡し始めていない移動体を、「追跡中でない移動体」または「第1の移動体」と称する。また、本実施形態において、一の撮像範囲の外に移動するまで追跡装置200が追跡し続けている、あるいは追跡していた移動体を、「追跡中の移動体」または「第2の移動体」と称する。
The
移動体が境界領域に存在している場合、すなわち、領域識別情報に、移動体が境界領域に存在していることを示す情報が含まれている場合、追跡装置200は、その移動体が、追跡中でない移動体であるか、追跡中の移動体であるか、を判定する。追跡装置200は、判定結果を示す通知を照合装置300に送信する。例えば、境界領域に存在している移動体が、追跡中の移動体である場合、その移動体の識別IDと、判定結果とを含む通知を照合装置300に送信する。境界領域に存在している移動体が追跡中でない移動体である場合、追跡装置200は、判定結果を含む通知を照合装置300に送信する。
When the moving object exists in the boundary area, that is, when the area identification information includes information indicating that the moving object exists in the boundary area, the
境界領域に存在している移動体が追跡中でない移動体である場合、追跡装置200は、照合装置300から受信した通知に含まれる識別IDを関連付けて、その移動体の追跡を行う。
If the moving object existing in the boundary area is not being tracked, the
なお、本実施形態において、追跡装置200は、移動体を追跡する際に、撮像装置100の特徴量抽出部140が抽出した特徴量を用いてもよいし、撮像装置100から撮像データを受け取り、追跡装置200が特徴量を抽出し、追跡装置200が抽出した特徴量を用いて移動体を追跡してもよい。また、移動体を追跡する方法はこれに限らず、種々の既知の方法であってよい。
In this embodiment, the
照合装置300の詳細
次に、照合装置300の各構成要素について説明する。
Details of
図4において、領域選択部310は、領域選択手段の一例である。領域選択部310は、撮像範囲内に予め定められた複数の領域(本実施形態の場合、複数の境界領域)の各々と、複数の領域のいずれかであって、各々の領域に対応付けられた対応領域とを含む領域対応情報から、複数の領域のうち、第1の移動体が存在した領域に対応付けられた対応領域を選択する。例えば、撮像装置100は、図2の状況において、エレベータ内部から境界領域x3に移動した移動体を検出した場合を想定する。領域選択部310は、撮像装置100から境界領域x3についての領域識別情報を受信し、追跡装置200から、境界領域x3において検出された移動体が追跡中でない移動体(第1の移動体)であることを示す通知を受信する。さらに、領域選択部310は、記憶装置400の領域対応情報記憶部410に記憶された領域対応情報から、領域識別情報に示される境界領域x3に対応する対応領域を選択する。具体的には、領域選択部310は、記憶装置400の領域対応情報記憶部410から、境界領域x3に対応する対応領域を示す情報を読み出す。
In FIG. 4, the
図5は、領域対応情報の一例を示す図である。図5に示すように、領域対応情報は、複数の境界領域のうち、境界領域ごとに、対応する境界領域が定められた情報である。 FIG. 5 is a diagram showing an example of area correspondence information. As shown in FIG. 5, the area correspondence information is information in which a corresponding boundary area is defined for each boundary area among a plurality of boundary areas.
照合部320は、複数の領域(本実施形態では複数の境界領域)のうち、第2の移動体が存在した領域と、第2の移動体が領域に存在したときに抽出された特徴量であって、当該領域に対応づけられた第2の移動体の特徴量とを含む移動体情報から、選択された対応領域に対応付けられた特徴量を取得する。第2の移動体は、追跡装置200が追跡し続けている、あるいは追跡していた移動体である。具体的には、照合部320は、領域選択部310によって選択された対応領域を示す情報を受け取る。さらに、照合部320は、記憶装置400の移動体情報記憶部420に記憶された移動体情報から、選択された対応領域に対応付けられた移動体の特徴量を抽出する。
The
図6は、移動体情報の一例を示す図である。図6に示すように、移動体情報は、識別IDと、移動体の特徴量と、境界領域を識別する情報とが対応づけられている。移動体情報に含まれる特徴量と、境界領域を識別する情報とは、移動体が境界領域に存在したときに抽出された特徴量と、その移動体が存在した境界領域を識別する情報とを示す。例えば、図6に示す移動体情報の二行目は、識別ID「001」の移動体が「境界領域x1」に存在したときに抽出された特徴量は「特徴量a」であることを示している。 FIG. 6 is a diagram showing an example of mobile information. As shown in FIG. 6, the moving body information is associated with an identification ID, a feature amount of the moving body, and information for identifying a boundary area. The feature amount and the information identifying the boundary area included in the moving object information are the feature amount extracted when the moving object was present in the boundary area and the information identifying the boundary area where the moving object was present. show. For example, the second line of the moving body information shown in FIG. 6 indicates that the feature quantity extracted when the moving body with the identification ID “001” exists in the “boundary region x1” is the “feature quantity a”. ing.
照合部320が、移動体情報から、領域選択部310によって選択された対応領域に対応づけられた特徴量を取得する例について説明する。選択された対応領域が、境界領域x1、及び境界領域x5である場合、照合部320は、図6に示す移動体情報から、選択された対応領域のそれぞれに対応づけられた、特徴量a、及び特徴量bを取得する。一方、図2の状況では、追跡中でない移動体(第1の移動体)が境界領域x3に存在したとき、境界領域x3に対応する対応領域として領域選択部310によって選択される領域は、境界領域x2、境界領域x3、及び境界領域x4である。仮に、移動体情報において、境界領域x3およびx4について、第1の移動体と異なる第2の移動体の特徴量が記憶され、境界領域x2について第1の移動体と同じ第2の移動体の特徴量が記憶されている場合を想定する。この場合、照合部320は、境界領域x3およびx4に対応付けられた、第1の移動体とは異なる第2の移動体の特徴量と、境界領域x2に対応付けられた、第1の移動体と同じ第2の移動体の特徴量を取得する。
An example will be described in which the
そして、照合部320は、取得された特徴量と、第1の移動体が存在したときに抽出された第1の移動体の特徴量とを照合する。照合した結果、合致する特徴量がある、とは、一の撮像データに含まれる移動体(第1の移動体)と、他の撮像データに含まれる移動体(第2の移動体)とが同定されたことを示す。照合した結果、合致する特徴量がある場合、照合部320は、合致した特徴量と対応付けられた移動体の識別IDを含む照合結果を追跡装置200に送信する。このとき、照合部320は、その識別IDと、第1の移動体の特徴量と、第1の移動体が存在した境界領域の情報とを対応付け、移動体情報を更新する。照合部320は、照合手段の一例である。
And the
照合した結果、合致する特徴量がある場合、照合部320は、第1の移動体の特徴量と合致する特徴量を、移動体情報から破棄してもよい。図2の状況では、照合部320は、境界領域x3に移動した移動体の特徴量と、移動体情報に含まれる境界領域x2に対応づけられた特徴量とが合致したとき、移動体情報から、境界領域x2に対応づけられた特徴量を破棄してもよい。
As a result of matching, if there is a matching feature quantity, the
また、照合部320は、第1の移動体の特徴量であって、第1の移動体が存在した境界領域に、対応付けられていない境界領域に対応付けられた特徴量が、移動体情報に含まれる場合、当該特徴量を、移動体情報から破棄してもよい。例えば、照合部320は、第1の移動体の識別IDと同じ識別IDと、領域選択部310が選択した対応領域と異なる境界領域と、が対応づけられた特徴量を、移動体情報から破棄してもよい。図2の状況においては、境界領域x3に移動した移動体と同一の移動体の特徴量であって、境界領域x1または境界領域x5と対応付けられる特徴量が、移動体情報に含まれる場合、照合部320は、境界領域x1または境界領域x5と対応付けられているその移動体の特徴量を、移動体情報から破棄してもよい。このように、移動体情報から特徴量を破棄することによって、移動体情報のデータ量の増加を抑えることができる。なお、特徴量を破棄する機能は、移動体情報記憶部420が有していてもよい。
In addition, the
照合した結果、合致する特徴量がなかった場合、検出された移動体は、初めて撮像範囲に移動した移動体である。そのため照合部320は、撮像装置100が検出された移動体に関して、新しく識別IDを生成する。そして、照合部320は、生成した識別IDを含む照合結果を追跡装置200に送信する。このとき、照合部320は、生成した識別IDと、検出された移動体の特徴量と、検出された移動体が存在した境界領域の情報とを対応づけて、移動体情報を更新する。
As a result of matching, if there is no matching feature amount, the detected moving object is the moving object that has moved into the imaging range for the first time. Therefore, the
また、照合部320は、検出された移動体が、追跡中の移動体である通知を追跡装置200から受信すると、その通知に含まれる移動体の識別IDと、撮像装置100から取得した特徴量と、検出された移動体が存在した境界領域を示す情報とを対応付けて、移動体情報を更新する。
In addition, when receiving from the tracking device 200 a notification that the detected moving object is the moving object being tracked, the
本実施形態において、照合装置300が追跡装置200から受信する通知は、領域選択部310、及び照合部320のいずれか一方が追跡装置200から受信し、いずれか一方が通知を他方に送ってもよいし、双方が追跡装置200から受信してもよい。また、照合装置300に、追跡装置200と通信可能な通信部を設け、通信部が通知を受信し、通信部が通知の内容にしたがって、領域選択部310、及び照合部320のいずれかに通知を送るようにしてもよい。
In this embodiment, the notification received by the
追跡システム1000の動作
次に、追跡システム1000の動作を説明する。本実施形態の追跡システム1000は、撮像装置100が、撮像データから移動体を検出し、検出された移動体に関する情報を追跡装置200及び照合装置300に送信する。追跡装置200は、受信した情報に基づいて、移動体を追跡する。検出された移動体が、追跡中の移動体(第2の移動体)であって、境界領域に存在するとき、照合装置300は、検出された移動体の特徴量と、その移動体が存在した境界領域の情報とを対応付けて記憶する。検出された移動体が、追跡中でない移動体(第1の移動体)であって、境界領域に存在するとき、照合装置300は、検出された移動体の特徴量と、移動体情報に含まれる特徴量とを照合し、移動体の同定を行う。このとき、照合装置300は、検出された移動体が存在した境界領域の情報を用いて、移動体情報の中から、検出された移動体の特徴量と照合する対象を絞り込む。
Operation of Tracking System 1000 Next, the operation of tracking system 1000 will be described. In the tracking system 1000 of this embodiment, the
以下に、撮像装置100及び照合装置300の各々の動作を、図7及び図8のフローチャートを用いて説明する。以下に、説明する動作において、領域対応情報記憶部410には、図5に示す領域対応情報が格納され、移動体情報記憶部420には、図6に示す移動体情報が格納されているとする。なお、本実施形態では、図2に示す状況を用いて、撮像装置100、追跡装置200、照合装置300の動作を説明するが、追跡システム1000を適用する場面はこの例に限らない。また、本明細書において、フローチャートの各ステップを「S701」のように、それぞれのステップに付した番号を用いて表現する。
Operations of the
まず、撮像装置100の動作について説明する。
First, the operation of the
図7は、撮像装置100の動作を説明するフローチャートである。まず、撮像部110は、撮像範囲を撮像し、撮像データを生成する(S701)。ここで、図2に示すように、撮像装置100は、各階の各部屋に設置されており、エレベータ内部及び出入口間を除く各部屋が撮像範囲であるとする。
FIG. 7 is a flowchart for explaining the operation of the
移動体検出部120は、生成された撮像データを読み出す。移動体検出部120は、撮像データから移動体を検出すると(S702の「YES」)、領域判定部130及び特徴量抽出部140に、移動体を検出したことを示す通知を送る。このとき、通知には、移動体検出部120が取得した移動体の位置情報を含む。移動体検出部120が撮像データから移動体を検出しなかった場合(S702の「NO」)、撮像装置100は、S701の処理に戻る。
The moving
特徴量抽出部140は、移動体検出部120から通知を受け取ると、検出された移動体の特徴量を抽出する(S703)。領域判定部130は、移動体検出部120から通知を受け取ると、通知に含まれる位置情報に基づいて、検出された移動体が境界領域内に存在するか否かを判定する。領域判定部130は、移動体は境界領域内にいると判定した場合(S704の「YES」)、移動体はどの境界領域にいるかを特定する(S705)。例えば、移動体検出部120からの通知に含まれる位置情報が地点Bを示す場合、領域判定部130は、移動体が境界領域x2内に存在していると判定する。そして、領域判定部130は、領域識別情報を生成する。
Upon receiving the notification from the moving
移動体検出部120、特徴量抽出部140、及び領域判定部130は、S702、S703及びS704において取得した、位置情報、特徴量、及び領域識別情報を、追跡装置200及び照合装置300に送信する(S706)。
The moving
領域判定部130が、移動体は境界領域の外にいると判定した場合(S704の「NO」)、領域識別情報には、移動体は境界領域の外に存在することを示す情報が含まれる。そして、移動体検出部120、特徴量抽出部140、及び領域判定部130は、取得した情報を追跡装置200に送信する(S707)。
When the
次に、撮像装置100から情報を受け取ったときの照合装置300の動作について説明する。
Next, the operation of the
図8は、照合装置300の動作を説明するフローチャートである。まず、照合装置300は、撮像装置100から検出された移動体の特徴量、及び領域識別情報を受信する(S801)。次に、照合装置300は、追跡装置200から、検出された移動体が追跡中であるか否かを示す情報を含む通知を受信する(S802)。検出された移動体が追跡中の移動体である場合(S803の「YES」)、すなわち、検出された移動体が第2の移動体である場合、照合部320は、通知に含まれる識別IDと、検出された移動体の特徴量と、領域識別情報とに基づいて、移動体情報を更新する(S804)。例えば、撮像装置100から、「特徴量e」及び「境界領域x2」の情報を受け取り、追跡装置200から、識別ID「005」を受け取ったとする。すると、照合部320は、記憶装置400の移動体情報記憶部420にアクセスし、受け取った情報を用いて移動体情報を更新する。図9は、図6に示す移動体情報を更新した移動体情報の一例を示す図である。図9に示すように、照合部320は、識別ID「005」、「特徴量e」及び「境界領域x2」を対応付けて、移動体情報を追加することによって、移動体情報を更新する。
FIG. 8 is a flow chart for explaining the operation of the
検出された移動体が追跡中でない移動体の場合(S803の「NO」)、例えば、図2に示すようにエレベータ内から境界領域x3に移動した第1の移動体である場合、照合装置300は、照合処理を行う(S805)。 If the detected moving object is not being tracked (“NO” in S803), for example, if it is the first moving object that has moved from the elevator to the boundary area x3 as shown in FIG. performs collation processing (S805).
図10は、照合装置300の照合処理を説明するフローチャートである。領域選択部310は、記憶装置400の領域対応情報記憶部410から、領域対応情報を読み出す。そして、領域選択部310は、領域識別情報が示す境界領域に対応する対応領域を、領域対応情報から選択する(S1001)。領域選択部310は、選択した対応領域の情報を照合部320に送る。例えば、領域識別情報に「境界領域x3」を示す情報が含まれている場合、領域選択部310は、図5に示す領域対応情報に基づいて、境界領域x3の対応領域である、「境界領域x2」、「境界領域x3」、及び「境界領域x4」を選択する。そして、「境界領域x2」、「境界領域x3」、及び「境界領域x4」を示す情報を照合部320に送る。
FIG. 10 is a flowchart for explaining the matching process of the
照合部320は、撮像装置100から特徴量を受け取り、領域選択部310から対応領域の情報を受け取ると、記憶装置400の移動体情報記憶部420から移動体情報を読み出す。そして照合部320は、移動体情報から、選択された対応領域に対応付けられた特徴量を取得する(S1002)。そして、照合部320は、取得した特徴量と、第1の移動体の特徴量とを照合する(S1003)。
The
図8に戻り、照合した結果、合致する特徴量がある場合(S806の「YES」)、照合部320は、移動体情報から、合致した特徴量に対応付けられた識別IDを含む照合結果を追跡装置200に送信する(S807)。そして、照合部320は、合致した特徴量に対応付けられた識別IDと、検出された移動体の特徴量と、領域識別情報とに基づいて、移動体情報を更新する(S808)。例えば、撮像装置100から受け取った特徴量が「特徴量e」であるとする。領域選択部310から受け取った対応領域の情報が、境界領域x2、境界領域x3、及び境界領域x4を示す情報である場合、図9に示す移動体情報から、各対応領域に対応付けられた特徴量、「特徴量e」、「特徴量d」、及び「特徴量c」を取得する。すると、撮像装置100から受け取った特徴量と合致する特徴量は、識別ID「005」に対応付けられた特徴量であることがわかる。そのため、照合部320は、識別ID「005」を含む照合結果を追跡装置200に送信する。そして、照合部320は、識別ID「005」と、「特徴量e」と、領域識別情報に含まれる「境界領域x3」とを対応付けて、移動体情報に追加することによって、移動体情報を更新する。追跡装置200は、検出された移動体を識別ID「005」の移動体として追跡を開始する。
Returning to FIG. 8, if there is a matching feature amount as a result of matching (“YES” in S806), the
照合した結果、合致する特徴量がなかった場合(S806の「NO」)、照合部320は、識別IDを新しく生成し、生成された識別IDを含む照合結果を追跡装置200に送信する(S809)。照合部320は、生成された識別IDと、検出された移動体の特徴量と、領域識別情報とに基づいて、移動体情報を更新する。追跡装置200は、検出された移動体に、新しく生成された識別IDを付与して追跡する。
As a result of matching, if there is no matching feature amount ("NO" in S806), the
以上のように、第1の実施形態にかかる照合装置300は、撮像範囲内に予め定められた複数の領域の各々と、複数の領域のいずれかであって、各々の領域に対応付けられた対応領域とを含む領域対応情報から、複数の領域のうち、第1の移動体が出現した領域に対応付けられた前記対応領域を選択する。そして、照合装置300は、複数の領域のうち、第2の移動体が存在した領域と、第2の移動体が前記領域に存在したときに抽出された特徴量であって、当該領域に対応づけられた第2の移動体の特徴量とを含む移動体情報から、選択された対応領域に対応付けられた特徴量を取得し、取得された特徴量と、第1の移動体が出現したときに抽出された第1の移動体の特徴量とを照合する。この構成により、照合装置300は、検出された移動体の特徴量と照合する対象を絞り込むことができる。したがって、第1の実施形態にかかる照合装置300は、撮像範囲に出現した移動体の同定において、計算リソースの増加を抑制することが可能になるという効果が得られる。
As described above, the
また、第1の実施形態にかかる照合装置300は、検出された移動体の特徴量と照合する対象を絞り込むことができるので、照合の精度を高めることができる。
In addition, since the
[変形例1]
照合装置が、領域対応情報記憶部と移動体情報記憶部とを備えてもよい。
[Modification 1]
The collation device may include an area correspondence information storage unit and a moving body information storage unit.
図11は、本変形例にかかる追跡システム1001の構成の一例を示すブロック図である。図11に示すように、本変形例にかかる追跡システム1001の構成は、照合装置301が、領域対応情報記憶部410と移動体情報記憶部420とを備えることを除いて、図3に示す追跡システム1000と同様である。
FIG. 11 is a block diagram showing an example of the configuration of a
本変形例にかかる追跡システム1001の動作は、図7、図8及び図10に示すフローチャートと同様である。
The operation of the
本変形例にかかる照合装置301は、第1の実施形態において説明した照合装置300と同様の効果を奏する。
The
[変形例2]
撮像装置が、領域選択部と、照合部とを備えてもよい。
[Modification 2]
The imaging device may include an area selection section and a matching section.
図12は、本変形例にかかる追跡システム1002の構成の一例を示すブロック図である。図12に示すように、本変形例にかかる追跡システム1002の構成は、撮像装置101、追跡装置200、及び記憶装置400を備え、撮像装置101が領域選択部310と、照合部320とを備える。
FIG. 12 is a block diagram showing an example configuration of a tracking system 1002 according to this modification. As shown in FIG. 12, the configuration of a tracking system 1002 according to this modification includes an
本変形例にかかる追跡システム1002の動作を説明する。なお、図12に示す追跡システム1002の動作が、第1の実施形態の説明と重複する内容については説明を省略する。 The operation of the tracking system 1002 according to this modification will be described. The description of the operation of the tracking system 1002 shown in FIG. 12 that overlaps with the description of the first embodiment will be omitted.
撮像装置102は、図7に示すフローチャートのS701乃至S705、及びS707と同様の処理を行う。S705の処理の次に、移動体検出部120、特徴量抽出部140、及び領域判定部130は、S702、S703及びS704において取得した、位置情報、特徴量、及び領域識別情報を、追跡装置200と、撮像装置102に含まれる領域選択部310及び照合部320とに送信する。
The
次に、撮像装置102は、追跡装置200から、検出された移動体が追跡中であるか否かを示す情報を含む通知を受信する。撮像装置102に含まれる領域選択部310及び照合部320は、追跡装置200から撮像装置102が受信した情報と、移動体検出部120、特徴量抽出部140、及び領域判定部130から受信した情報とを用いて、S803以降の処理を行う。
The
本変形例にかかる撮像装置101は、第1の実施形態において説明した照合装置300と同様の効果を奏する。
The
[変形例3]
照合装置が、移動体検出部と、領域判定部と、特徴量抽出部とを備えてもよい。
[Modification 3]
The matching device may include a moving body detection section, an area determination section, and a feature amount extraction section.
図13は、本変形例にかかる追跡システム1003の構成の一例を示すブロック図である。図13に示すように、本変形例にかかる追跡システム1003の構成は、撮像装置102が移動体検出部120と、領域判定部130と、特徴量抽出部140とを備えず、照合装置302が移動体検出部120と、領域判定部130と、特徴量抽出部140とを備えることを除いて、図3に示す追跡システム1000と同様である。
FIG. 13 is a block diagram showing an example of the configuration of a tracking system 1003 according to this modification. As shown in FIG. 13, in the configuration of the tracking system 1003 according to this modification, the
本変形例にかかる追跡システム1003の動作を説明する。なお、図13に示す追跡システム1003の動作が、第1の実施形態の説明と重複する内容については説明を省略する。 The operation of the tracking system 1003 according to this modification will be described. The description of the operation of the tracking system 1003 shown in FIG. 13 that overlaps with the description of the first embodiment will be omitted.
撮像装置102は、撮像データを生成し、生成した撮像データを照合装置302に送信する。
The
照合装置302が、撮像データを受信すると、移動体検出部120はS702の処理を行い、特徴量抽出部140はS703の処理を行い、領域判定部130はS704及びS705の処理を行う。次に、照合装置302は、検出された移動体の特徴量、位置情報、及び領域識別情報を追跡装置200に送信する。
When the
そして、検出された移動体が境界領域に存在している場合、照合装置302は、追跡装置200からの、移動体が追跡中であるか否かを示す通知にしたがって、S802以降の処理を行う。
Then, if the detected moving body exists in the boundary area, the
本変形例にかかる照合装置302は、第1の実施形態において説明した照合装置300と同様の効果を奏する。
The
第2の実施形態
第2の実施形態では、照合装置が、検出された移動体の特徴量と、移動体情報に含まれる特徴量とを照合する際に、特徴量が抽出された時刻を考慮する例について説明する。
Second Embodiment In the second embodiment, when the matching device matches the feature amount of the detected moving object with the feature amount included in the moving object information, the time at which the feature amount is extracted is taken into consideration. An example of
本実施形態にかかる追跡システムの構成は、第1の実施形態と同様である。以下、本実施形態にかかる追跡システムの動作が、第1の実施形態の説明と重複する内容については、説明を省略する。 The configuration of the tracking system according to this embodiment is the same as that of the first embodiment. Hereinafter, the description of the contents of the operation of the tracking system according to the present embodiment that overlaps with the description of the first embodiment will be omitted.
本実施形態にかかる撮像装置100、及び照合装置300の動作を説明する。
Operations of the
本実施形態では、撮像装置100は、S706の処理において、追跡装置200及び照合装置300に、検出された移動体の特徴量と、位置情報と、領域識別情報と、特徴量が抽出された時刻とを送信する。
In the present embodiment, in the process of S706, the
照合装置300は、S801の処理において、検出された移動体の特徴量と、位置情報と、領域識別情報と、特徴量が抽出された時刻とを受信する。検出された移動体が追跡中である場合(S803の「YES」)、照合部320は、S804の処理において、撮像装置100から受信した、特徴量と、境界領域を示す情報と、特徴量が抽出された時刻(第1の時刻)と、追跡装置200から受信した識別IDとを対応付けて、移動体情報として記憶する。図14は、本実施形態にかかる移動体情報の一例を示す図である。
In the process of S801, the
検出された移動体が追跡中でない場合(S803の「NO」)、S806の処理において、照合部320は、移動体情報から、領域選択部310が選択した対応領域に対応付けられた特徴量を読み出す。そして、照合部320は、読み出した特徴量のうち、検出された移動体の特徴量を抽出した時刻との差が所定の時間以内の特徴量と、検出された移動体の特徴量とを照合する。例えば、照合装置300が撮像装置100から受け取った情報のうち、検出された移動体の特徴量が「特徴量e」、時刻が「12:07」であるとする。また、領域選択部310が選択した領域が「境界領域x2」、「境界領域x3」及び「境界領域x4」であるとする。所定の時間を5分間とすると、図14に示す移動体情報のうち、検出された移動体の特徴量と照合する特徴量は、識別ID「005」に対応付けられた「特徴量e」である。
If the detected moving object is not being tracked ("NO" in S803), in the process of S806, the
なお、本実施形態において用いられる時刻は、移動体が検出された時刻、または撮像データが生成された時刻であってもよい。 Note that the time used in this embodiment may be the time when the moving object is detected or the time when the imaging data is generated.
また、本実施形態において、境界領域ごとに、所定の時間が異なってもよい。例えば、領域選択部310が選択した領域が「境界領域x2」、「境界領域x3」及び「境界領域x4」の場合、所定の時間を5分とし、「境界領域x1」及び「境界領域x5」の場合、所定の時間を3分としてもよい。
Also, in the present embodiment, the predetermined time may differ for each boundary area. For example, when the regions selected by the
以上のように、第2実施形態において、移動体情報には、第2の移動体の特徴量に、第2の移動体が境界領域に存在した時刻がさらに対応づけられる。そして第2の実施形態にかかる照合装置300は、選択された対応領域に対応付けられた特徴量のうち、第1の移動体が出現した時刻と前記第1の時刻との差が所定の値以内となる時刻である第1の時刻に対応付けられた特徴量と、第1の移動体が出現したときに抽出された第1の移動体の特徴量とを照合する。この構成により、検出された移動体の特徴量と照合する対象を絞り込むことができるので、第2の実施形態にかかる照合装置300は、異なる映像に含まれる移動体の同定において、計算リソースの増加をさらに抑制することが可能になるという効果が得られる。
As described above, in the second embodiment, in the moving body information, the feature amount of the second moving body is further associated with the time at which the second moving body was present in the boundary area. Then, the
また、第2の実施形態において、照合部320は、照合装置300のシステム時間等から、現時刻を取得してもよい。そして、照合部320は、移動体情報のうち、現時刻との差が所定の時間以上である時刻と対応付けられた特徴量を破棄してもよい。なお、照合部320に代わり移動体情報記憶部420が、特徴量を破棄してもよい。
Further, in the second embodiment, the
このように、時刻に応じて特徴量を破棄することにより、移動体情報のデータ量の増加を抑えることができる。 In this way, by discarding the feature amount according to the time, it is possible to suppress an increase in the data amount of the mobile body information.
第3の実施形態
第3の実施形態では、撮像範囲の外から境界領域に移動した移動体が、撮像範囲の外を、移動体が乗り入れ可能な移動装置を用いて移動していた場合に、照合装置が、移動装置の稼働情報を考慮して照合を行う例について説明する。
Third Embodiment In the third embodiment, when a moving body that has moved from outside the imaging range to the boundary area moves outside the imaging range using a moving device that allows the moving body to enter, An example in which a verification device performs verification in consideration of operation information of a mobile device will be described.
具体的には、図2に示す状況において、移動体が境界領域x2から、エレベータを用いて境界領域x3に移動したとする。このとき、エレベータは1階と2階とにのみ停止する、といった稼働の制限が設けられているとする。この場合、境界領域x3に移動した移動体の特徴量に対して、境界領域x4において抽出された移動体の特徴量と照合する必要はない。また、図2に示す状況において、移動体が、進行方向が上であるエレベータから境界領域x3に移動した場合、その移動体は1階からエレベータに乗った可能性が高い。この場合においても、境界領域x3に移動した移動体の特徴量に対して、境界領域x4において抽出された移動体の特徴量と照合する必要はない。本実施形態では、照合装置は、このようなエレベータ等の移動装置の稼働情報を考慮して、特徴量の照合を行う。 Specifically, in the situation shown in FIG. 2, it is assumed that the moving object moves from the boundary area x2 to the boundary area x3 using an elevator. At this time, it is assumed that the elevator is restricted to stop only on the first and second floors. In this case, it is not necessary to collate the feature amount of the moving object that has moved to the boundary area x3 with the feature amount of the moving object extracted in the boundary area x4. In addition, in the situation shown in FIG. 2, when the moving object moves from the elevator whose traveling direction is upward to the boundary region x3, it is highly likely that the moving object got on the elevator from the first floor. Even in this case, it is not necessary to collate the feature amount of the moving object that has moved to the boundary area x3 with the feature amount of the moving object extracted in the boundary area x4. In the present embodiment, the verification device performs verification of feature amounts in consideration of the operation information of such moving devices such as elevators.
図15は、本開示の第3の実施形態にかかる追跡システム1004を示すブロック図である。図15に示すように、本実施形態にかかる追跡システム1004の構成は、記憶装置401が稼働情報記憶部430を備えることを除いて、第1の実施形態と同様である。以下、追跡システム1004の構成、及び動作が、第1の実施形態の説明と重複する内容については、説明を省略する。
FIG. 15 is a block diagram illustrating a tracking system 1004 according to a third embodiment of the disclosure. As shown in FIG. 15 , the configuration of a tracking system 1004 according to this embodiment is the same as that of the first embodiment, except that the
稼働情報記憶部430は、稼働情報を格納する。図16は、第3の実施形態にかかる稼働情報の一例を示す図である。図16は、図2に示す状況におけるエレベータに関する稼働情報である。図16の例では、時刻ごとにエレベータが停止する階が定められているが、稼働情報の例はこれに限らない。例えば、時刻ごとに、エレベータの進む方向が対応付けられた情報であってもよいし、エレベータが止まった時刻と、そのエレベータが止まった階層とが対応付けられた情報であってもよい。
The operating
次に、追跡システム1004の動作について説明する。領域対応情報記憶部410には、図5に示す領域対応情報が格納され、移動体情報記憶部420には、図9に示す移動体情報が格納され、稼働情報記憶部430には、図16に示す稼働情報が格納されているとする。また、本実施形態では、図2に示す状況を用いて、追跡システム1004の動作を説明するが、追跡システム1004を適用する場面はこの例に限らない。
The operation of tracking system 1004 will now be described. The area correspondence
撮像装置100は、S706の処理において、検出された移動体の特徴量と、位置情報と、領域識別情報と、移動体が検出された時刻とを送信する。
In the process of S706, the
照合装置300は、S801の処理において、検出された移動体の特徴量と、位置情報と、領域識別情報と、移動体が検出された時刻とを受信する。
In the process of S801, the
領域選択部310は、S805の処理において、対応領域を選択し、稼働情報記憶部430から稼働情報を読み出す。領域選択部310は、読み出した稼働情報と、領域識別情報と、移動体が検出された時刻とに基づいて、選択した対応領域のうち、検出された移動体が存在した境界領域に移動可能な対応領域を選択する。例えば、照合装置300が撮像装置100から受け取った情報のうち、領域識別情報に含まれる境界領域を示す情報が「境界領域x3」、時刻が「9:00」であるとする。このとき領域選択部310は、図5に示す領域対応情報から、「境界領域x3」に対応する「境界領域x2」、「境界領域x3」及び「境界領域x4」を選択する。そして、時刻が「9:00」であるため、図16に示す稼働情報から、エレベータの稼働状態は、1階及び2階にのみ停止、である。そのため、領域選択部310は、選択した対応領域のうち、「境界領域x2」及び「境界領域x3」をさらに選択する。そして、照合部320は、検出された移動体の特徴量と、移動体情報のうち、「境界領域x2」または「境界領域x3」に対応付けられた特徴量と、を照合する。
The
なお、本実施形態において、照合装置300が、領域対応情報記憶部410、移動体情報記憶部420、及び稼働情報記憶部430を備えてもよい。
In addition, in the present embodiment, the
また、移動装置の例はエレベータに限らない。例えば、移動装置はエスカレータ、または電車等であってもよい。 Also, examples of mobile devices are not limited to elevators. For example, the mobile device may be an escalator, a train, or the like.
以上のように、第3の実施形態にかかる照合装置300は、第1の移動体が移動装置を用いて撮像範囲の外から複数の領域のいずれかに出現したとき、第1の移動体が出現した領域に対応付けられた対応領域のうち、移動装置の稼働情報に応じた対応領域を選択する。この構成により、検出された移動体の特徴量と照合する対象を絞り込むことができるので、第3の実施形態にかかる照合装置300は、異なる映像に含まれる移動体の同定において、計算リソースの増加をさらに抑制することが可能になるという効果が得られる。
As described above, the
以上、上述した実施形態を参照して本開示を説明した。しかしながら、本開示は、上述した実施形態には限定されない。即ち、本開示は、本開示のスコープ内において、種々の上記開示要素の多様な組み合わせ乃至選択等、当業者が理解し得る様々な態様を適用することができる。 The present disclosure has been described above with reference to the above-described embodiments. However, the disclosure is not limited to the embodiments described above. That is, within the scope of the present disclosure, various aspects that can be understood by those skilled in the art, such as various combinations and selections of the various disclosed elements described above, can be applied.
上記の実施形態の一部又は全部は、以下の付記のようにも記載されうるが、以下には限られない。 Some or all of the above-described embodiments can also be described in the following supplementary remarks, but are not limited to the following.
(付記1)
撮像範囲内に予め定められた複数の領域の各々と、前記複数の領域のいずれかであって、前記各々の領域に対応付けられた対応領域とを含む領域対応情報から、前記複数の領域のうち、第1の移動体が存在した領域に対応付けられた前記対応領域を選択し、
前記複数の領域のうち、第2の移動体が存在した領域と、前記第2の移動体が前記領域に存在したときに抽出された特徴量であって、当該領域に対応づけられた前記第2の移動体の特徴量とを含む移動体情報から、前記選択された対応領域に対応付けられた特徴量を取得し、前記取得された特徴量と、前記第1の移動体が存在したときに抽出された前記第1の移動体の特徴量とを照合する、
照合方法。
(Appendix 1)
each of a plurality of regions predetermined within an imaging range and a corresponding region that is one of the plurality of regions and is associated with each of the plurality of regions based on region correspondence information; Selecting the corresponding area associated with the area where the first moving object was present,
an area in which a second moving object exists among the plurality of areas, and a feature amount extracted when the second moving object exists in the area, wherein 2, the feature amount associated with the selected corresponding area is acquired from the moving body information including the feature amount of the moving body of No. 2, and when the acquired feature amount and the first moving body exist. Matching with the feature amount of the first moving object extracted in
Matching method.
(付記2)
前記第1の移動体の特徴量は、前記第1の移動体が前記撮像範囲の外から前記複数の領域のいずれかに移動したときに抽出された特徴量である、付記1に記載の照合方法。
(Appendix 2)
The collation according to
(付記3)
前記第1の移動体の特徴量と、前記第1の移動体が存在した領域とを対応づけて、前記移動体情報に設定する、付記1または2のいずれか一項に記載の照合方法。
(Appendix 3)
3. The collation method according to any one of
(付記4)
照合した結果、前記第1の移動体の特徴量と合致する特徴量がある場合、当該合致する特徴量を、前記移動体情報から破棄する、付記1乃至3のいずれか一項に記載の照合方法。
(Appendix 4)
4. The collation according to any one of
(付記5)
前記第1の移動体の特徴量であって、前記第1の移動体が存在した領域に対応付けられていない領域に対応付けられた特徴量が、前記移動体情報に含まれる場合、当該第1の移動体の特徴量を、前記移動体情報から破棄する、付記1乃至4のいずれか一項に記載の照合方法。
(Appendix 5)
If the moving object information includes a feature amount of the first moving object that is associated with an area that is not associated with an area where the first moving object exists, 5. The collation method according to any one of
(付記6)
前記移動体情報は、前記第2の移動体の特徴量に、前記第2の移動体が前記領域に存在した時刻である第1の時刻がさらに対応づけられ、
前記選択された対応領域に対応付けられた特徴量のうち、前記第1の移動体が存在した時刻との差が所定の値以内である前記第1の時刻に対応付けられた特徴量と、前記第1の移動体が存在したときに抽出された前記第1の移動体の特徴量とを照合する、付記1乃至5のいずれか一項に記載の照合方法。
(Appendix 6)
wherein the moving object information further associates a first time, which is a time when the second moving object exists in the region, with the characteristic quantity of the second moving object;
a feature amount associated with the first time, which is within a predetermined value from the time at which the first moving object exists, among the feature amounts associated with the selected corresponding region; 6. The collation method according to any one of
(付記7)
前記第1の移動体が移動装置を用いて前記撮像範囲の外から前記複数の領域のいずれかに移動したとき、当該第1の移動体が移動した領域に対応付けられた前記対応領域のうち、前記移動装置の稼働情報に応じた前記対応領域を選択する、付記1乃至6のいずれか一項に記載の照合方法。
(Appendix 7)
When the first moving body moves from outside the imaging range to one of the plurality of areas using a moving device, out of the corresponding areas associated with the area to which the first moving body has moved 7. The collation method according to any one of
(付記8)
撮像範囲内に予め定められた複数の領域の各々と、前記複数の領域のいずれかであって、前記各々の領域に対応付けられた対応領域とを含む領域対応情報から、前記複数の領域のうち、第1の移動体が存在した領域に対応付けられた前記対応領域を選択する領域選択手段と、
前記複数の領域のうち、第2の移動体が存在した領域と、前記第2の移動体が前記領域に存在したときに抽出された特徴量であって、当該領域に対応づけられた前記第2の移動体の特徴量とを含む移動体情報から、前記選択された対応領域に対応付けられた特徴量を取得し、前記取得された特徴量と、前記第1の移動体が存在したときに抽出された前記第1の移動体の特徴量とを照合する照合手段と、を備える照合装置。
(Appendix 8)
each of a plurality of regions predetermined within an imaging range and a corresponding region that is one of the plurality of regions and is associated with each of the plurality of regions based on region correspondence information; an area selection means for selecting the corresponding area associated with the area in which the first moving object was present;
an area in which a second moving object exists among the plurality of areas, and a feature amount extracted when the second moving object exists in the area, wherein 2, the feature amount associated with the selected corresponding area is acquired from the moving body information including the feature amount of the moving body of No. 2, and when the acquired feature amount and the first moving body exist. and a matching means for matching the feature amount of the first moving object extracted in the above.
(付記9)
前記第1の移動体の特徴量は、前記第1の移動体が前記撮像範囲の外から前記複数の領域のいずれかに移動したときに抽出された特徴量である、付記8に記載の照合装置。
(Appendix 9)
The verification according to appendix 8, wherein the feature amount of the first moving object is a feature amount extracted when the first moving object moves from outside the imaging range to one of the plurality of regions. Device.
(付記10)
前記照合手段は、前記第1の移動体の特徴量と、前記第1の移動体が存在した領域とを対応づけて、前記移動体情報に設定する、付記8または9のいずれか一項に記載の照合装置。
(Appendix 10)
10. The method according to any one of appendices 8 and 9, wherein the collating means associates the feature amount of the first moving object with an area in which the first moving object existed, and sets the information in the moving object information. Verification device as described.
(付記11)
前記照合手段は、照合した結果、前記第1の移動体の特徴量と合致する特徴量がある場合、当該合致する特徴量を、前記移動体情報から破棄する、付記8乃至10のいずれか一項に記載の照合装置。
(Appendix 11)
11. Any one of appendices 8 to 10, wherein when there is a feature amount that matches the feature amount of the first moving object as a result of the matching, the matching means discards the matching feature amount from the moving object information. 3. A matching device as described in
(付記12)
前記照合手段は、前記第1の移動体の特徴量であって、前記第1の移動体が存在した領域に対応付けられていない領域に対応付けられた特徴量が、前記移動体情報に含まれる場合、当該第1の移動体の特徴量を、前記移動体情報から破棄する、付記7乃至11のいずれか一項に記載の照合装置。
(Appendix 12)
The collating means may include, in the moving body information, a feature amount of the first moving body that is associated with an area that is not associated with an area in which the first moving body exists. 12. The collation device according to any one of appendices 7 to 11, wherein, if the first moving object is detected, the feature amount of the first moving object is discarded from the moving object information.
(付記13)
前記移動体情報は、前記第2の移動体の特徴量に、前記第2の移動体が前記領域に存在した時刻である第1の時刻がさらに対応づけられ、
前記照合手段は、前記選択された対応領域に対応付けられた特徴量のうち、前記第1の移動体が存在した時刻との差が所定の値以内である前記第1の時刻に対応付けられた特徴量と、前記第1の移動体が存在したときに抽出された前記第1の移動体の特徴量とを照合する、付記7乃至12のいずれか一項に記載の照合装置。
(Appendix 13)
wherein the moving object information further associates a first time, which is a time when the second moving object exists in the region, with the characteristic quantity of the second moving object;
The collation means associates the feature value associated with the selected corresponding region with the first time that differs from the time at which the first moving object exists within a predetermined value. 13. The collation device according to any one of appendices 7 to 12, wherein the feature amount of the first moving object is collated with the feature amount of the first moving object extracted when the first moving object exists.
(付記14)
前記領域選択手段は、前記第1の移動体が移動装置を用いて前記撮像範囲の外から前記複数の領域のいずれかに移動したとき、当該第1の移動体が移動した領域に対応付けられた前記対応領域のうち、前記移動装置の稼働情報に応じた前記対応領域を選択する、付記7乃至13のいずれか一項に記載の照合装置。
(Appendix 14)
When the first moving object moves from outside the imaging range to one of the plurality of areas using a moving device, the area selecting means associates the moving area with the moving area of the first moving object. 14. The verification device according to any one of appendices 7 to 13, wherein the corresponding region is selected from the corresponding regions corresponding to the movement information of the mobile device.
(付記15)
撮像範囲内に予め定められた複数の領域の各々と、前記複数の領域のいずれかであって、前記各々の領域に対応付けられた対応領域とを含む領域対応情報から、前記複数の領域のうち、第1の移動体が存在した領域に対応付けられた前記対応領域を選択する処理と、
前記複数の領域のうち、第2の移動体が存在した領域と、前記第2の移動体が前記領域に存在したときに抽出された特徴量であって、当該領域に対応づけられた前記第1の移動体の特徴量とを含む移動体情報から、前記選択された対応領域に対応付けられた特徴量を取得し、前記取得された特徴量と、前記第2の移動体が存在したときに抽出された前記第2の移動体の特徴量とを照合する処理と、をコンピュータに実行させるプログラム。
(Appendix 15)
each of a plurality of regions predetermined within an imaging range and a corresponding region that is one of the plurality of regions and is associated with each of the plurality of regions based on region correspondence information; Among them, a process of selecting the corresponding area associated with the area where the first moving object was present;
an area in which a second moving object exists among the plurality of areas, and a feature amount extracted when the second moving object exists in the area, wherein When the feature amount associated with the selected corresponding region is acquired from the moving body information including the feature amount of one moving body, and the acquired feature amount and the second moving body exist. A program for causing a computer to execute a process of collating with the feature amount of the second moving object extracted in the above.
10 コンピュータ装置
11 プロセッサ
12 RAM
13 ROM
14 記憶装置
15 入出力インタフェース
16 バス
17 ドライブ装置
18 プログラム
19 周辺機器
20 記録媒体
100、101、102 撮像装置
110 撮像部
120 移動体検出部
130 領域判定部
140 特徴量抽出部
200 追跡装置
300、301、302 照合装置
310 領域選択部
320 照合部
400、401 記憶装置
410 領域対応情報記憶部
420 移動体情報記憶部
1000、1001、1002、1003、1004 追跡システム
10
13 ROMs
14
Claims (8)
第2の移動体が前記境界領域に存在したときに抽出された特徴量と、前記第2の移動体が存在した前記境界領域と、が対応付けられた移動体情報から、選択された前記対応領域に対応付けられた特徴量を取得し、当該取得された特徴量と、前記第1の移動体が出現したときに抽出された前記第1の移動体の特徴量とを照合し、
前記境界領域のうち、エレベータから移動可能な領域に前記第1の移動体が出現した場合、
前記選択するステップにおいて、時刻ごとにエレベータが停止可能な階が示された稼働情報と、前記第1の移動体が検出された時刻と、に基づいて、当該検出された時刻において、前記第1の移動体が出現した前記境界領域に、エレベータを経由して移動可能な前記対応領域を選択する、
照合方法。 The first moving object has appeared from the area correspondence information indicating the corresponding area which is at least one of a plurality of boundary areas predetermined within the imaging range and which corresponds to each of the boundary areas. selecting the corresponding region corresponding to the boundary region ;
The selected moving body information in which the feature amount extracted when the second moving body was present in the boundary area and the boundary area in which the second moving body was present are associated with each other . Acquiring a feature amount associated with the corresponding region, comparing the acquired feature amount with the feature amount of the first moving object extracted when the first moving object appears ,
When the first moving body appears in an area movable from the elevator in the boundary area,
In the selecting step, based on the operation information indicating floors where the elevator can stop at each time and the time when the first moving body is detected, at the detected time, the first selecting the corresponding area that can move via an elevator to the boundary area where the moving body of
Matching method.
選択された前記対応領域に対応付けられた特徴量のうち、前記第1の移動体が出現した時刻との差が所定の値以内となる時刻である第1の時刻に対応付けられた特徴量と、前記第1の移動体が出現したときに抽出された前記第1の移動体の特徴量とを照合する、請求項1乃至5のいずれか一項に記載の照合方法。 wherein the moving object information further associates a time at which the second moving object was present in the boundary area with the characteristic quantity of the second moving object;
Among the feature amounts associated with the selected corresponding region, the feature amount associated with a first time that is a time at which the difference from the time when the first moving body appears is within a predetermined value. 6. The collation method according to any one of claims 1 to 5, wherein the feature amount of said first moving object extracted when said first moving object appears is collated with said first moving object.
第2の移動体が前記境界領域に存在したときに抽出された特徴量と、前記第2の移動体が存在した前記境界領域と、が対応付けられた移動体情報から、選択された前記対応領域に対応付けられた特徴量を取得し、当該取得された特徴量と、前記第1の移動体が出現したときに抽出された前記第1の移動体の特徴量とを照合する照合手段と、を備え、
前記境界領域のうち、エレベータから移動可能な領域に前記第1の移動体が出現した場合、
前記領域選択手段は、時刻ごとにエレベータが停止可能な階が示された稼働情報と、前記第1の移動体が検出された時刻と、に基づいて、当該検出された時刻において、前記第1の移動体が出現した前記境界領域に、エレベータを経由して移動可能な前記対応領域を選択する、
照合装置。 The first moving object has appeared from the area correspondence information indicating the corresponding area which is at least one of a plurality of boundary areas predetermined within the imaging range and which corresponds to each of the boundary areas. an area selection means for selecting the corresponding area corresponding to the boundary area ;
The selected moving body information in which the feature amount extracted when the second moving body was present in the boundary area and the boundary area in which the second moving body was present are associated with each other . Verification means for obtaining a feature amount associated with the corresponding region and comparing the obtained feature amount with the feature amount of the first moving object extracted when the first moving object appears . and
When the first moving body appears in an area movable from the elevator in the boundary area,
The region selecting means selects the first floor at the detected time based on the operation information indicating floors on which the elevator can stop for each time and the time when the first moving object is detected. selecting the corresponding area that can move via an elevator to the boundary area where the moving body of
Verification device.
第2の移動体が前記境界領域に存在したときに抽出された特徴量と、前記第2の移動体が存在した前記境界領域と、が対応付けられた移動体情報から、選択された前記対応領域に対応付けられた特徴量を取得し、当該取得された特徴量と、前記第2の移動体が出現したときに抽出された前記第2の移動体の特徴量とを照合する処理と、をコンピュータに実行させ、
前記境界領域のうち、エレベータから移動可能な領域に前記第1の移動体が出現した場合、
前記選択する処理において、時刻ごとにエレベータが停止可能な階が示された稼働情報と、前記第1の移動体が検出された時刻と、に基づいて、当該検出された時刻において、前記第1の移動体が出現した前記境界領域に、エレベータを経由して移動可能な前記対応領域を選択する、
プログラム。 The first moving object has appeared from the area correspondence information indicating the corresponding area which is at least one of a plurality of boundary areas predetermined within the imaging range and which corresponds to each of the boundary areas. a process of selecting the corresponding area corresponding to the boundary area ;
The selected moving body information in which the feature amount extracted when the second moving body was present in the boundary area and the boundary area in which the second moving body was present are associated with each other . a process of acquiring a feature amount associated with the corresponding region and collating the acquired feature amount with the feature amount of the second moving object extracted when the second moving object appears ; , on the computer , and
When the first moving body appears in an area movable from the elevator in the boundary area,
In the selecting process, based on the operation information indicating floors where the elevator can stop at each time and the time when the first moving body is detected, at the detected time, the first selecting the corresponding area that can move via an elevator to the boundary area where the moving body of
program.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019126653A JP7334512B2 (en) | 2019-07-08 | 2019-07-08 | Verification method, verification device, and program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019126653A JP7334512B2 (en) | 2019-07-08 | 2019-07-08 | Verification method, verification device, and program |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2021012558A JP2021012558A (en) | 2021-02-04 |
JP7334512B2 true JP7334512B2 (en) | 2023-08-29 |
Family
ID=74227500
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019126653A Active JP7334512B2 (en) | 2019-07-08 | 2019-07-08 | Verification method, verification device, and program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP7334512B2 (en) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN117185064B (en) * | 2023-08-18 | 2024-03-05 | 山东五棵松电气科技有限公司 | Intelligent community management system, method, computer equipment and storage medium |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2006146378A (en) | 2004-11-17 | 2006-06-08 | Hitachi Ltd | Monitoring system using multiple camera |
JP2015073191A (en) | 2013-10-02 | 2015-04-16 | キヤノン株式会社 | Image processing system and control method therefor |
WO2015098442A1 (en) | 2013-12-26 | 2015-07-02 | 株式会社日立国際電気 | Video search system and video search method |
JP2016045742A (en) | 2014-08-22 | 2016-04-04 | 東芝テック株式会社 | Information processing device and program |
-
2019
- 2019-07-08 JP JP2019126653A patent/JP7334512B2/en active Active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2006146378A (en) | 2004-11-17 | 2006-06-08 | Hitachi Ltd | Monitoring system using multiple camera |
JP2015073191A (en) | 2013-10-02 | 2015-04-16 | キヤノン株式会社 | Image processing system and control method therefor |
WO2015098442A1 (en) | 2013-12-26 | 2015-07-02 | 株式会社日立国際電気 | Video search system and video search method |
JP2016045742A (en) | 2014-08-22 | 2016-04-04 | 東芝テック株式会社 | Information processing device and program |
Also Published As
Publication number | Publication date |
---|---|
JP2021012558A (en) | 2021-02-04 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5369175B2 (en) | Elevator door detection apparatus and detection method using video | |
US20230410582A1 (en) | Information processing apparatus, information processing system, and information processing method | |
KR100804678B1 (en) | Method for classifying scene by personal of video and system thereof | |
JP5077164B2 (en) | Tracking device and tracking method | |
CN109465819B (en) | Human body recognition system and human body recognition method | |
US10467461B2 (en) | Apparatus for searching for object and control method thereof | |
JP7540430B2 (en) | Information processing device, information processing method, and program | |
US9891798B2 (en) | Face image tracking system | |
JPWO2009142098A1 (en) | Image processing apparatus, camera, image processing method and program | |
JP2016122300A (en) | Image processing apparatus, image processing method, and program | |
JP7334512B2 (en) | Verification method, verification device, and program | |
EP3860116A1 (en) | Authentication system, authentication method, and storage medium | |
JP7468779B2 (en) | Information processing device, information processing method, and storage medium | |
JP7020567B2 (en) | Information processing systems, information processing equipment, information processing methods, and programs | |
JP7327923B2 (en) | Information processing device, information processing method, system and program | |
WO2020261508A1 (en) | Image processing device, person search system, image processing method, and non-transitory computer readable medium | |
JP7298729B2 (en) | Information processing system, information processing device, information processing method, and program | |
KR102518061B1 (en) | Method and apparatus for checking whether mask is worn through facial contour estimation | |
JP6773144B2 (en) | Content selection device, content selection method, content selection system and program | |
JP7088108B2 (en) | Tracking methods, tracking devices, and programs | |
JP2007179224A (en) | Information processing device, method, and program | |
WO2009101671A1 (en) | Device for personal authentication registration, method for personal authentication registration, and program for personal authentication registration | |
JP5227046B2 (en) | Motion detection device and motion detection method | |
US20230222833A1 (en) | Image processing apparatus, image processing method, and storage medium | |
WO2024214281A1 (en) | Information processing device, information processing method, and recording medium |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
RD01 | Notification of change of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7421 Effective date: 20211015 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20220615 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20230427 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20230509 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20230614 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20230718 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20230731 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 7334512 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |