JP5071535B2 - Feature information addition system, apparatus, method and program - Google Patents

Feature information addition system, apparatus, method and program Download PDF

Info

Publication number
JP5071535B2
JP5071535B2 JP2010186806A JP2010186806A JP5071535B2 JP 5071535 B2 JP5071535 B2 JP 5071535B2 JP 2010186806 A JP2010186806 A JP 2010186806A JP 2010186806 A JP2010186806 A JP 2010186806A JP 5071535 B2 JP5071535 B2 JP 5071535B2
Authority
JP
Japan
Prior art keywords
feature information
video data
feature
unit
video
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2010186806A
Other languages
Japanese (ja)
Other versions
JP2012048278A (en
Inventor
志傑 斎藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NEC Corp
Original Assignee
NEC Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NEC Corp filed Critical NEC Corp
Priority to JP2010186806A priority Critical patent/JP5071535B2/en
Publication of JP2012048278A publication Critical patent/JP2012048278A/en
Application granted granted Critical
Publication of JP5071535B2 publication Critical patent/JP5071535B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Description

本発明は、映像データに特徴情報を付加する特徴情報付加システム、特徴情報付加装置、特徴情報付加方法および特徴情報付加プログラムに関する。   The present invention relates to a feature information addition system, a feature information addition device, a feature information addition method, and a feature information addition program for adding feature information to video data.

企業や個人の施設の安全性を確保するための手段として、または店舗等に訪れた来店者の年齢、性別などの特徴を把握する手段として、施設や店舗に監視カメラを設置することが一般的になっている。特に広範な施設や店舗では、人間による監視、観察に限界があることから、複数の監視カメラで撮影した映像によって現場を把握するということが行われている。   It is common to install surveillance cameras at facilities and stores as a means to ensure the safety of companies and private facilities, or as a means of grasping the characteristics of visitors such as age and gender It has become. Particularly in a wide range of facilities and stores, monitoring and observation by humans are limited, and therefore, it is performed to grasp the site from images taken by a plurality of surveillance cameras.

関連する技術として、例えば、特許文献1には、画像情報や音声情報から特徴量を収集して個人認識処理を行う方法が記載されている。   As a related technique, for example, Patent Document 1 describes a method of collecting individual features from image information and audio information and performing personal recognition processing.

特許文献1に記載された方法では、複数種の特徴量を収集し、それらのうち有効な特徴量を特定して個人認識処理を行うことで、照合精度を高めている。   In the method described in Patent Document 1, a plurality of types of feature values are collected, and effective feature amounts are identified among them, and personal recognition processing is performed, thereby improving collation accuracy.

特開2006−293644号公報JP 2006-293644 A

しかしながら、複数の監視カメラを導入する際には、導入コストを考慮して比較的安価であるモノクロ監視カメラを導入する例がある。この場合、監視カメラの利用者は、モノクロ映像からでは人物の服装の色特徴などを認識することができず、人物を特定することができない場合がある。   However, when introducing a plurality of surveillance cameras, there is an example of introducing a monochrome surveillance camera that is relatively inexpensive considering the introduction cost. In this case, the user of the surveillance camera may not be able to recognize the color characteristics of the person's clothes from the monochrome video, and may not be able to identify the person.

また、パンデミック対策等でサーモグラフィカメラを導入することがある。この場合、サーモグラフィカメラは、人物の温度情報を取得することは可能であるが、人物を特定するための情報を取得することが難しい。そのため、リアルタイムでの人による監視等が別途必要であり、見逃した場合には、人物を特定することが困難になるということがある。   In addition, a thermographic camera may be introduced as a countermeasure against pandemic. In this case, the thermographic camera can acquire the temperature information of the person, but it is difficult to acquire information for specifying the person. Therefore, real-time monitoring by a person or the like is separately required, and if it is missed, it may be difficult to specify a person.

上記の例のように、撮影機器の特性によって取得できる特徴情報が限定されるため、利用者が知りたいと思っている特徴情報を得ることができない場合がある。   As in the above example, the feature information that can be acquired is limited depending on the characteristics of the imaging device, and thus there are cases where the feature information that the user wants to know cannot be obtained.

特許文献1に記載された方法を用いれば、複数種の特徴量を収集し、それらのうち有効な特徴量を特定して個人認識処理を行うため、照合精度を高めることができるが、これは特定した人物が予め登録された人物と合致するか否かを照合するにすぎない。そのため、この方法は、上記のような監視カメラなどが撮影した複数の人物が映るような映像から、任意の人物を特定することを支援する目的には適用できない。   If the method described in Patent Document 1 is used, a plurality of types of feature amounts are collected, and effective feature amounts among them are identified and personal recognition processing is performed. It is only checked whether or not the specified person matches a person registered in advance. For this reason, this method cannot be applied to the purpose of supporting the identification of an arbitrary person from a video in which a plurality of persons photographed by the monitoring camera or the like as described above is reflected.

そこで、本発明は、撮影機器の特性によって取得できる特徴情報が限定されている場合であっても、撮影した映像から任意の被写体を特定することを支援できる特徴情報付加システム、特徴情報付加装置、特徴情報付加方法及び特徴情報付加プログラムを提供することを目的とする。   Therefore, the present invention provides a feature information addition system, a feature information addition device, and a feature information addition device that can support the identification of an arbitrary subject from a photographed video even when the feature information that can be acquired is limited by the characteristics of the imaging device It is an object to provide a feature information addition method and a feature information addition program.

本発明による特徴情報付加システムは、複数の撮影手段が撮影した映像データから被写体の特徴情報をそれぞれ抽出する特徴情報抽出手段と、特徴情報抽出手段が抽出した特徴情報に基づいて、異なる撮影手段が撮影した映像データに含まれる被写体が同一であるか否かを判定する判定手段と、判定手段が同一であると判定すると、異なる撮影手段のうちの一方の撮影手段が撮影した映像データに他方の撮影手段が撮影した映像データから抽出した特徴情報を付与する特徴情報付与手段とを含むことを特徴とする。   The feature information addition system according to the present invention includes a feature information extraction unit that extracts feature information of a subject from video data captured by a plurality of shooting units, and a different shooting unit based on the feature information extracted by the feature information extraction unit. If it is determined that the determination unit determines whether or not the subjects included in the captured video data are the same, and the determination unit is the same, the video data captured by one of the different imaging units is included in the other video data. And feature information providing means for assigning feature information extracted from video data photographed by the photographing means.

本発明による特徴情報付加装置は、複数の撮影手段が撮影した映像データから被写体の特徴情報をそれぞれ抽出する特徴情報抽出手段と、特徴情報抽出手段が抽出した特徴情報に基づいて、異なる撮影手段が撮影した映像データに含まれる被写体が同一であるか否かを判定する判定手段と、判定手段が同一であると判定すると、異なる撮影手段のうちの一方の撮影手段が撮影した映像データに他方の撮影手段が撮影した映像データから抽出した特徴情報を付与する特徴情報付与手段とを備えたことを特徴とする。   The feature information adding apparatus according to the present invention includes a feature information extraction unit that extracts feature information of a subject from video data captured by a plurality of shooting units, and a different shooting unit based on the feature information extracted by the feature information extraction unit. If it is determined that the determination unit determines whether or not the subjects included in the captured video data are the same, and the determination unit is the same, the video data captured by one of the different imaging units is included in the other video data. It is characterized by comprising characteristic information adding means for adding characteristic information extracted from video data taken by the photographing means.

本発明による特徴情報付加方法は、複数の撮影手段が撮影した映像データから被写体の特徴情報をそれぞれ抽出し、抽出した特徴情報に基づいて、異なる撮影手段が撮影した映像データに含まれる被写体が同一であるか否かを判定し、同一であると判定すると、異なる撮影手段のうちの一方の撮影手段が撮影した映像データに他方の撮影手段が撮影した映像データから抽出した特徴情報を付与することを特徴とする。   The feature information adding method according to the present invention extracts feature information of a subject from video data shot by a plurality of shooting means, and based on the extracted feature information, subjects included in video data shot by different shooting means are the same. If it is determined that they are the same, the feature information extracted from the video data photographed by the other photographing means is added to the video data photographed by one of the different photographing means. It is characterized by.

本発明による特徴情報付加プログラムは、コンピュータに、複数の撮影手段が撮影した映像データから被写体の特徴情報をそれぞれ抽出する特徴情報抽出処理と、抽出した特徴情報に基づいて、異なる撮影手段が撮影した映像データに含まれる被写体が同一であるか否かを判定する判定処理と、同一であると判定すると、異なる撮影手段のうちの一方の撮影手段が撮影した映像データに他方の撮影手段が撮影した映像データから抽出した特徴情報を付与する特徴情報付与処理とを実行させることを特徴とする。   The feature information addition program according to the present invention includes a feature information extraction process for extracting feature information of a subject from video data photographed by a plurality of photographing means on a computer, and a different photographing means based on the extracted feature information. When it is determined that the subject included in the video data is the same as the determination processing, and the video data captured by one of the different photographing means is captured by the other photographing means. A feature information adding process for adding feature information extracted from video data is executed.

本発明によれば、撮影機器の特性によって取得できる特徴情報が限定されている場合であっても、撮影した映像から任意の被写体を特定することを支援できる。   ADVANTAGE OF THE INVENTION According to this invention, even if it is a case where the characteristic information which can be acquired with the characteristic of imaging device is limited, it can support specifying arbitrary subjects from the image | photographed image | video.

本発明による特徴情報付加システムの構成の一例を示すブロック図である。It is a block diagram which shows an example of a structure of the feature information addition system by this invention. 映像特徴DB装置300が記憶するデータベースの一例を示す説明図である。It is explanatory drawing which shows an example of the database which the image | video feature DB apparatus 300 memorize | stores. 特徴情報付加システムが実行する処理例を示す流れ図である。It is a flowchart which shows the process example which a feature information addition system performs. 特徴情報付加システムの最小の構成例を示すブロック図である。It is a block diagram which shows the minimum structural example of a feature information addition system.

以下、本発明の実施形態について図面を参照して説明する。図1は、本発明による特徴情報付加システムの構成の一例を示すブロック図である。図1に示すように、特徴情報付加システムは、撮影機器100と、情報処理装置200と、映像特徴DB(データベース)装置300とを含む。また、撮影機器100と情報処理装置200とは、相互に通信可能である。また、情報処理装置200と映像特徴DB装置300とは、相互に通信可能である。   Embodiments of the present invention will be described below with reference to the drawings. FIG. 1 is a block diagram showing an example of the configuration of a feature information addition system according to the present invention. As shown in FIG. 1, the feature information addition system includes a photographing device 100, an information processing device 200, and a video feature DB (database) device 300. In addition, the photographing apparatus 100 and the information processing apparatus 200 can communicate with each other. Further, the information processing apparatus 200 and the video feature DB apparatus 300 can communicate with each other.

撮影機器100は、映像を撮影する装置である。撮影機器100は、具体的には、カラーカメラやモノクロカメラ、サーモグラフィカメラなどによって実現される。なお、撮影する映像の形式や、映像送信の形式(同軸ケーブルを用いたアナログ形式や、イーサネットケーブル(イーサネットは登録商標)を用いた、デジタル方式等)はどのようなものでもよい。   The imaging device 100 is an apparatus that captures video. Specifically, the photographing apparatus 100 is realized by a color camera, a monochrome camera, a thermography camera, or the like. Note that any video format or video transmission format (analog format using a coaxial cable, digital format using an Ethernet cable (Ethernet is a registered trademark), etc.) may be used.

撮影機器100は、撮影手段110と、送信手段120とを含む。   The imaging device 100 includes an imaging unit 110 and a transmission unit 120.

撮影手段110は、映像を撮影する機能を備えている。撮影手段110は、レンズやCCD素子などといった、映像を撮影するための機器および機構によって実現される。   The photographing means 110 has a function of photographing a video. The photographing means 110 is realized by a device and mechanism for photographing an image such as a lens or a CCD element.

送信手段120は、外部に映像データを送信する機能を備えている。送信手段120は、撮影した映像をデータとして外部に送信するための機器および機構で実現される。なお、送信手段120が外部に送信する映像データの形式についてはどのようなものでもよい。   The transmission unit 120 has a function of transmitting video data to the outside. The transmission unit 120 is realized by a device and a mechanism for transmitting captured images as data to the outside. Note that any format may be used for the video data transmitted from the transmission unit 120 to the outside.

情報処理装置200は、具体的には、プログラムに従って動作するパーソナルコンピュータやサーバ装置等によって実現される。情報処理装置200は、通信手段210と、映像処理手段220と、映像解析手段230とを含む。   Specifically, the information processing apparatus 200 is realized by a personal computer, a server apparatus, or the like that operates according to a program. The information processing apparatus 200 includes a communication unit 210, a video processing unit 220, and a video analysis unit 230.

通信手段210は、具体的には、プログラムに従って動作する情報処理装置のCPU及びネットワークインターフェース部によって実現される。通信手段210は、外部および内部の各手段との通信を行う機能を備えている。   Specifically, the communication unit 210 is realized by a CPU and a network interface unit of an information processing apparatus that operates according to a program. The communication unit 210 has a function of performing communication with external and internal units.

映像処理手段220は、具体的には、プログラムに従って動作する情報処理装置のCPUによって実現される。映像処理手段220は、管理手段221と、変換手段222とを含む。   Specifically, the video processing means 220 is realized by a CPU of an information processing apparatus that operates according to a program. The video processing unit 220 includes a management unit 221 and a conversion unit 222.

管理手段221は、撮影機器100が複数存在する場合に、撮影機器100を特定するために、それぞれの送信機器100から、通信手段210を介して受信した映像データに対して、どの撮影機器から受信したかを識別するためのIDである撮影機器IDを付与する機能を備えている。ここでは、管理手段221は、受信した映像データに付加されているIDをそのまま付与してもよいし、新たに生成したIDを付与してもよい。また、管理手段221は、例えば、付与したIDを記憶部に記憶しておき、同じ機器から受信した場合には、同じIDを付与するようにする。   When there are a plurality of photographing devices 100, the management unit 221 receives from which photographing device the video data received from each transmitting device 100 via the communication unit 210 in order to identify the photographing device 100. A function of assigning a photographing device ID, which is an ID for identifying whether or not Here, the management unit 221 may assign the ID added to the received video data as it is, or may assign a newly generated ID. For example, the management unit 221 stores the assigned ID in the storage unit and assigns the same ID when received from the same device.

変換手段222は、撮影機器100から受信した映像データを、特定の形式のデータ形式に変換する機能と、変換した映像データをハードディスク装置などの記憶部の特定の場所に格納させる機能とを備えている。   The conversion unit 222 has a function of converting the video data received from the photographing apparatus 100 into a specific data format, and a function of storing the converted video data in a specific location of a storage unit such as a hard disk device. Yes.

データ形式の変換処理として、例えば、変換手段222は、撮影機器100がコンポジット信号で送信した映像データを、デジタルデータであるAVI形式に変換する。   As the data format conversion processing, for example, the conversion unit 222 converts the video data transmitted by the photographing apparatus 100 as a composite signal into the AVI format that is digital data.

映像データを格納させる処理として、例えば、変換手段222は、変換した映像データを、特定のコンピュータ上の記憶部の特定のディレクトリに格納させる。また、その際に、変換手段222は、特定のコンピュータ上の特定のディレクトリに格納されていることを示すデータを作成する機能を備えている。   As processing for storing video data, for example, the conversion unit 222 stores the converted video data in a specific directory of a storage unit on a specific computer. At that time, the conversion means 222 has a function of creating data indicating that the data is stored in a specific directory on a specific computer.

なお、変換手段222が変換した映像データは、変換した形式に応じて、一般的な付属データを含む。例えば、AVI形式に変換した場合には、変換後の映像データは、データのタイムスタンプや解像度、FPS(Frames Per Second)といった情報を含む。   The video data converted by the conversion unit 222 includes general attached data according to the converted format. For example, when converted to the AVI format, the converted video data includes information such as data time stamp, resolution, and FPS (Frames Per Second).

映像解析手段230は、具体的には、プログラムに従って動作する情報処理装置のCPUによって実現される。映像解析手段230は、識別手段231と、特徴抽出手段232と、照合手段233と、書込手段234とを含む。   Specifically, the video analysis unit 230 is realized by a CPU of an information processing apparatus that operates according to a program. The video analysis unit 230 includes an identification unit 231, a feature extraction unit 232, a collation unit 233, and a writing unit 234.

識別手段231は、変換手段222が変換した映像データに対して、データを個々に識別するためのIDであるデータIDを付与する機能を備えている。   The identification unit 231 has a function of assigning a data ID, which is an ID for individually identifying the data, to the video data converted by the conversion unit 222.

特徴抽出手段232は、映像データから様々な特徴を取り出す機能を備えている。例えば、特徴抽出手段232は、映像データのタイムスタンプから撮影時刻という特徴情報を抽出したり、映像データの先頭を画像情報として抽出したりする機能を備えている。   The feature extraction unit 232 has a function of extracting various features from the video data. For example, the feature extraction unit 232 has a function of extracting feature information such as a shooting time from a time stamp of video data or extracting the top of video data as image information.

また、例えば、特徴抽出手段232は、特開2007−122097号公報(係数決定方法、特徴抽出方法、システム及びプログラム、並びにパタン照合方法、システム及びプログラム)に記載された方法などを用いて、映像中の人物の顔特徴を示す特徴情報を抽出する機能を備えている。また、例えば、特徴抽出手段232は、特開2009−110460号公報(人物画像検索装置)に記載された方法などを用いて、服装の色特徴を示す特徴情報を抽出する機能を備えている。   Further, for example, the feature extraction unit 232 uses a method described in Japanese Patent Application Laid-Open No. 2007-122097 (a coefficient determination method, a feature extraction method, a system and a program, and a pattern matching method, a system and a program). It has a function of extracting feature information indicating the facial features of the person inside. Further, for example, the feature extraction unit 232 has a function of extracting feature information indicating the color feature of clothes using a method described in Japanese Patent Laid-Open No. 2009-110460 (person image search device).

照合手段233は、複数の映像データの特徴を照合するために、映像特徴DB装置300に対して映像データを送信させるための命令を出力する機能を備えている。また、照合手段233は、受け取った映像データの特徴を照合し、条件に合致していれば一方の映像データの特徴を他方にも付与する命令を書込手段234に出力する機能を備えている。条件としては、例えば、複合的な設定や、一方の特徴情報を他方へ付与する場合に一致している必要のある特徴情報の設定が可能である。   The collation means 233 has a function of outputting a command for causing the video feature DB device 300 to transmit video data in order to collate the features of a plurality of video data. The collating unit 233 has a function of collating the characteristics of the received video data, and outputting to the writing unit 234 a command for assigning the characteristics of one video data to the other if the conditions are met. . As conditions, for example, it is possible to set complex information or feature information that needs to match when one feature information is assigned to the other.

書込手段234は、照合手段233が出力した命令に基づいて、映像特徴DB装置300にデータを書き込む機能を備えている。具体的には、書込手段234がデータとともに所定の命令を映像特徴DB装置300に送信することで、映像特徴DB装置300が、受信した命令に従って、映像特徴DB装置300が記憶するデータベース(以下、単にDBともいう)にデータを書き込む。   The writing unit 234 has a function of writing data to the video feature DB device 300 based on the command output from the matching unit 233. Specifically, the writing unit 234 transmits a predetermined command together with data to the video feature DB device 300, so that the video feature DB device 300 stores a database (hereinafter referred to as the video feature DB device 300) according to the received command. , Simply referred to as DB).

映像特徴DB装置300は、具体的には、磁気ディスク装置や光ディスク装置などの記憶装置によって実現され、データベースを記憶する。なお、映像特徴DB装置300は、情報処理装置200内に実装されてもよいし、外部のコンピュータ上に実装されてもよい。   Specifically, the image feature DB device 300 is realized by a storage device such as a magnetic disk device or an optical disk device, and stores a database. Note that the video feature DB apparatus 300 may be mounted in the information processing apparatus 200 or may be mounted on an external computer.

映像特徴DB装置300は、外部から受信した一覧取得命令や書込命令、消去命令に基づいて、データベースにデータを追加または削除する機能を備えている。   The video feature DB device 300 has a function of adding or deleting data in the database based on a list acquisition command, a write command, or an erase command received from the outside.

映像特徴DB装置300は、例えば、図2に示す撮影機器ID310と、データID320と、映像データ330と、時刻340と、色特徴350と、顔特徴360と、温度特徴370とを含むデータベースを記憶する。図2は、映像特徴DB装置300が記憶するデータベースの一例を示す説明図である。   The video feature DB apparatus 300 stores, for example, a database including the photographing device ID 310, the data ID 320, the video data 330, the time 340, the color feature 350, the face feature 360, and the temperature feature 370 shown in FIG. To do. FIG. 2 is an explanatory diagram illustrating an example of a database stored in the video feature DB apparatus 300.

撮影機器ID310は、複数の撮影機器100を区別するためのデータである。撮影機器ID310は、管理手段221によって付与され、書込手段234によって映像特徴DB装置300内のデータベースに書き込まれる。   The photographing device ID 310 is data for distinguishing a plurality of photographing devices 100. The photographing device ID 310 is given by the management unit 221 and written into the database in the video feature DB apparatus 300 by the writing unit 234.

データID320は、各データを区別するためのデータである。データID320は、識別手段231によって付与され、書込手段234によって映像特徴DB装置300内のデータベースに書き込まれる。   The data ID 320 is data for distinguishing each data. The data ID 320 is given by the identification unit 231 and is written in the database in the video feature DB device 300 by the writing unit 234.

映像データ330は、実映像データ、実映像データの一部または実映像データが格納されている場所を示すデータである。映像データ330は、変換手段222によって作成され、書込手段234によって映像特徴DB装置300内のデータベースに書き込まれる。   The video data 330 is data indicating actual video data, a part of the actual video data, or a location where the actual video data is stored. The video data 330 is created by the conversion unit 222 and written to the database in the video feature DB device 300 by the writing unit 234.

時刻340は、データを取得した時刻を示すデータである。時刻340は、特徴抽出手段232により抽出され、書込手段234によって映像特徴DB装置300内のデータベースに書き込まれる。   The time 340 is data indicating the time when the data is acquired. The time 340 is extracted by the feature extraction unit 232 and written into the database in the video feature DB apparatus 300 by the writing unit 234.

色特徴350は、映像内の人物の服装の色特徴を示すデータである。例えば上下の服それぞれに対しての、ある色のRGB値と割合といった形式で表される。色特徴350は、特徴抽出手段232により抽出され、書込手段234によって映像特徴DB装置300内のデータベースに書き込まれる。   The color feature 350 is data indicating the color feature of a person's clothes in the video. For example, it is expressed in the form of RGB value and ratio of a certain color for each of the upper and lower clothes. The color feature 350 is extracted by the feature extraction unit 232 and written to the database in the video feature DB apparatus 300 by the writing unit 234.

顔特徴360は、映像内の人物の顔特徴を現すデータである。顔特徴360は、特徴抽出手段232により抽出され、書込手段234によって映像特徴DB装置300内に書き込まれる。   The face feature 360 is data representing the face feature of a person in the video. The face feature 360 is extracted by the feature extracting unit 232 and written into the video feature DB apparatus 300 by the writing unit 234.

温度特徴370は、映像内の人物の表面温度を現すデータであり、摂氏等の形式で表される。温度特徴370は、特徴抽出手段232により抽出され、書込手段234によって映像特徴DB装置300内のデータベースに書き込まれる。   The temperature feature 370 is data representing the surface temperature of the person in the video, and is expressed in a format such as Celsius. The temperature feature 370 is extracted by the feature extraction unit 232 and written into the database in the video feature DB device 300 by the writing unit 234.

なお、映像処理手段220内の各手段および映像解析手段230内の各手段は、データの受け渡しのため、相互に通信が可能である。   Note that each means in the video processing means 220 and each means in the video analysis means 230 can communicate with each other for data transfer.

次に、図1から3を参照して、特徴情報付加システムの動作について説明する。図3は、特徴情報付加システムが実行する処理例を示すシーケンス図である。   Next, the operation of the feature information addition system will be described with reference to FIGS. FIG. 3 is a sequence diagram illustrating an example of processing executed by the feature information addition system.

本実施形態では、撮影機器100が3つ設置されており、それぞれ、カラーカメラ、モノクロカメラ、サーモグラフィカメラである。また、それぞれのカメラに対して、管理手段221が付与する撮影機器IDは、「a001」「a002」「a003」である。   In the present embodiment, three photographing devices 100 are installed, which are a color camera, a monochrome camera, and a thermography camera, respectively. In addition, the photographing device IDs given by the management unit 221 to the respective cameras are “a001”, “a002”, and “a003”.

カラーカメラとサーモグラフィカメラとは、同じ箇所を撮影している。また、モノクロカメラは、カラーカメラの近距離の箇所に設置されているが、同じ場所を撮影していない。また、映像特徴DB装置300内には、初期状態ではひとつもデータが格納されていないものとする。なお、本実施形態では、撮影機器が3つ設置されている例について説明するが、これに限らず、本発明は、撮影機器の数は2つ以上であればいくつであっても適用可能である。本発明は、このように複数の相互に異なる形式の撮影機器が存在する環境で、相互に特徴情報を補完しあう場合に、特に有効である。   The color camera and the thermography camera photograph the same part. In addition, the monochrome camera is installed at a short distance from the color camera, but does not photograph the same place. Further, it is assumed that no data is stored in the video feature DB device 300 in the initial state. In this embodiment, an example in which three photographing devices are installed will be described. However, the present invention is not limited to this, and the present invention can be applied to any number of photographing devices as long as the number is two or more. is there. The present invention is particularly effective in the case where feature information is mutually complemented in an environment where there are a plurality of different types of photographing devices.

まず、カラーカメラで撮影を行う。撮影機器100の撮影手段110は、撮影範囲に存在する人物のカラー映像を撮影し、カラー映像データとして送信手段120に出力する(図3のステップS1)。なお、本実施形態では、被写体が人物である例について説明するが、これに限らず、例えば、動物などであってもよい。   First, take a picture with a color camera. The photographing unit 110 of the photographing apparatus 100 photographs a color image of a person existing in the photographing range and outputs it as color image data to the transmission unit 120 (step S1 in FIG. 3). In the present embodiment, an example in which the subject is a person will be described. However, the present invention is not limited thereto, and may be an animal, for example.

次いで、送信手段120は、カラー映像データを情報処理装置200の通信手段210に送信する(図3のステップS2)。   Next, the transmission unit 120 transmits the color video data to the communication unit 210 of the information processing apparatus 200 (step S2 in FIG. 3).

次いで、通信手段210は、管理手段221に受信したカラー映像データを出力する(図3のステップS3)。   Next, the communication unit 210 outputs the received color video data to the management unit 221 (step S3 in FIG. 3).

次いで、管理手段221は、受け取ったカラー映像データに撮影機器ID310を付与し、変換手段222に出力する(図3のステップS4)。ここで、管理手段221が付与する撮影ID310は「a001」であるものとする。   Next, the management unit 221 assigns the photographing device ID 310 to the received color video data and outputs it to the conversion unit 222 (step S4 in FIG. 3). Here, it is assumed that the shooting ID 310 assigned by the management unit 221 is “a001”.

次いで、変換手段222は、受け取ったカラー映像データの形式を変換する。本実施形態では、変換手段222は、カラー映像データ自体をAVI形式に変換するものとする。カラー映像データを変換した後、変換手段222は、AVI形式に変換したカラー映像データを識別手段231に出力する(図3のステップS5)。   Next, the conversion means 222 converts the format of the received color video data. In this embodiment, it is assumed that the conversion unit 222 converts the color video data itself into the AVI format. After converting the color video data, the conversion means 222 outputs the color video data converted into the AVI format to the identification means 231 (step S5 in FIG. 3).

次いで、識別手段231は、受け取ったカラー映像データにデータID320を付与する。ここで、識別手段231が付与するデータID320は「A001」である。データIDを付与した後、識別手段231は、カラー映像データを特徴抽出手段232に出力する(図3のステップS6)。   Next, the identification unit 231 gives a data ID 320 to the received color video data. Here, the data ID 320 given by the identification unit 231 is “A001”. After giving the data ID, the identification unit 231 outputs the color video data to the feature extraction unit 232 (step S6 in FIG. 3).

次いで、特徴抽出手段232は、カラー映像データから特徴を抽出する。特徴抽出手段232が抽出する特徴は、カラー映像データの撮影した時刻を示す時刻340、撮影した人物の上下の服装の色の特徴を示す色特徴350および撮影した人物の顔の特徴を示す顔特徴360である。これらの特徴を抽出した後、特徴抽出手段232は、カラー映像データと抽出した特徴とを照合手段233に出力する(図3のステップS7)。   Next, the feature extraction unit 232 extracts features from the color video data. Features extracted by the feature extraction unit 232 are a time 340 indicating the time when the color video data was captured, a color feature 350 indicating the color features of the clothes above and below the captured person, and a facial feature indicating the characteristics of the captured person's face. 360. After extracting these features, the feature extraction unit 232 outputs the color video data and the extracted features to the collation unit 233 (step S7 in FIG. 3).

次いで、照合手段233は、受け取ったカラー映像データを映像特徴DB装置300内に格納されている各データと照合するため、映像特徴DB装置300内のデータ一覧を取得する命令を通信手段210に出力する(図3のステップS8)。本実施形態では、照合手段には以下の条件が設定されているものとする。なお、以下の条件は一例であり、これ以外の条件を設定してもよい。   Next, the collation unit 233 outputs a command for obtaining a data list in the video feature DB device 300 to the communication unit 210 in order to collate the received color video data with each data stored in the video feature DB device 300. (Step S8 in FIG. 3). In the present embodiment, it is assumed that the following conditions are set in the collation means. The following conditions are examples, and other conditions may be set.

第一の条件:時刻340が所定時間以内(本例では、1分以内)であり、かつ顔特徴360が一致するデータ同士の場合には、一方に色特徴350が存在し、他方に色特徴350が存在しなければ、存在しないデータのほうに存在する色特徴350を付与する。   First condition: When the time 340 is within a predetermined time (in this example, within 1 minute) and the data of which the facial features 360 match each other, the color feature 350 exists on one side and the color feature on the other side If 350 does not exist, the color feature 350 which exists in the data which does not exist is provided.

第二の条件:撮影機器ID310が「a001」または「a003」のデータには、時刻ID340が一致する場合(厳密には異なる場合であっても、例えば、誤差が所定の範囲内であれば同一とみなす)、互いが保持している色特徴350、顔特徴360および温度特徴370のデータに関して、保持していないデータ箇所に対して保持している側のデータを付与する。   Second condition: When the photographing device ID 310 is “a001” or “a003” and the time ID 340 matches (even if strictly different, for example, the same if the error is within a predetermined range) As for the data of the color feature 350, the face feature 360, and the temperature feature 370 held by each other, the data on the held side is added to the data portion that is not held.

次いで、通信手段210は、照合手段233より受け取ったデータ一覧取得命令を映像特徴DB装置300に送信する(図3のステップS9)。   Next, the communication unit 210 transmits the data list acquisition command received from the collation unit 233 to the video feature DB device 300 (step S9 in FIG. 3).

次いで、映像特徴DB装置300は、受け取ったデータ一覧取得命令に基づいて、DB内のデータ一覧を抽出し、通信手段210に送信する動作を行う。ただし、現時点ではDB内にはデータが存在せず、該当データは存在しないため、映像特徴DB装置300は、実データを送信せず、「データ一覧は存在しない」という状態を表すデータだけを通信手段210に送信する(図3のステップS10)。   Next, the video feature DB device 300 performs an operation of extracting a data list in the DB and transmitting it to the communication unit 210 based on the received data list acquisition command. However, since there is no data in the DB at present and no corresponding data exists, the video feature DB device 300 does not transmit actual data, and only communicates data indicating a state of “no data list”. It transmits to the means 210 (step S10 of FIG. 3).

次いで、通信手段210は、「データ一覧は存在しない」という状態を表すデータを照合手段233に出力する(図3のステップS11)。   Next, the communication unit 210 outputs data representing the state “data list does not exist” to the collation unit 233 (step S11 in FIG. 3).

次いで、照合手段233は、「データ一覧は存在しない」という状態を表すデータを受け取ったため、照合処理を行わない。そして、照合手段233は、現在の映像データ、付与した情報および抽出した特徴を全てそのまま映像特徴DB装置へ書き込む決定を行い、書き込み命令とともに、現在の映像データ、付与した情報および抽出した特徴を書込手段234に出力する(図3のステップS13)。   Next, since the collation unit 233 receives data indicating a state that “the data list does not exist”, the collation process is not performed. Then, the collation unit 233 determines to write the current video data, the added information, and the extracted features as they are to the video feature DB device, and writes the current video data, the added information, and the extracted features together with the write command. Is output to the insertion means 234 (step S13 in FIG. 3).

次いで、書込手段234は、映像特徴DB装置300に対して現在の映像データ、付与した情報および抽出した特徴を書き込む指示を通信手段210に出力する(図3のステップS14)。   Next, the writing unit 234 outputs an instruction to write the current video data, the added information, and the extracted feature to the video feature DB device 300 (step S14 in FIG. 3).

次いで、通信手段210は、DBへの書き込み命令とともに、現在の映像データ、付与した情報および抽出した特徴を映像特徴DB装置300に送信し、映像特徴DB装置300内にデータを書き込ませる(図3のステップS15)。具体的には、映像特徴DB装置300が、書き込み命令に従って、現在の映像データ、付与した情報および抽出した特徴をデータベースに書き込む。この時点で、映像特徴DB装置300内に存在するデータは、データID320が「A001」で識別されるものひとつである。   Next, the communication unit 210 transmits the current video data, the added information, and the extracted features to the video feature DB device 300 together with the DB write command, and causes the data to be written in the video feature DB device 300 (FIG. 3). Step S15). Specifically, the video feature DB device 300 writes the current video data, the assigned information, and the extracted features in the database according to the write command. At this time, the data existing in the video feature DB device 300 is one of which the data ID 320 is identified by “A001”.

次に、処理をステップS1に移行し、モノクロカメラで撮影を行う。撮影機器100の撮影手段110は、撮影範囲内に存在する人物のモノクロ映像を撮影し、モノクロ映像データとして送信手段120に出力する(図3のステップS1)。   Next, the process proceeds to step S1, and photographing is performed with a monochrome camera. The photographing unit 110 of the photographing apparatus 100 photographs a monochrome video of a person existing within the photographing range and outputs it as monochrome video data to the transmission unit 120 (step S1 in FIG. 3).

次いで、送信手段120は、モノクロ映像データを情報処理装置200の通信手段210に送信する(図3のステップS2)。   Next, the transmission unit 120 transmits the monochrome video data to the communication unit 210 of the information processing apparatus 200 (step S2 in FIG. 3).

次いで、通信手段210は、管理手段221にモノクロ映像データを出力する(図3のステップS3)。   Next, the communication unit 210 outputs monochrome video data to the management unit 221 (step S3 in FIG. 3).

次いで、管理手段221は、受け取ったモノクロ映像データに撮影機器ID310を付与し、変換手段222に出力する(図3のステップS4)。ここで、管理手段221が付与する撮影ID310は「a002」である。   Next, the management unit 221 assigns the photographing device ID 310 to the received monochrome video data, and outputs it to the conversion unit 222 (step S4 in FIG. 3). Here, the shooting ID 310 assigned by the management unit 221 is “a002”.

次いで、変換手段222は、受け取ったモノクロ映像データの形式をAVI形式に変換する(図3のステップS5)。   Next, the conversion means 222 converts the format of the received monochrome video data into the AVI format (step S5 in FIG. 3).

次いで、識別手段231は、受け取ったモノクロ映像データにデータID320を付与する。ここで識別手段231が付与するデータID320は「A002」である。データIDを付与した後、識別手段231は、モノクロ映像データを特徴抽出手段232に出力する(図3のステップS6)。   Next, the identification unit 231 gives a data ID 320 to the received monochrome video data. Here, the data ID 320 given by the identification unit 231 is “A002”. After assigning the data ID, the identification unit 231 outputs the monochrome video data to the feature extraction unit 232 (step S6 in FIG. 3).

次いで、特徴抽出手段232は、モノクロ映像データより特徴を抽出する。ここで特徴抽出手段232が抽出する特徴は、モノクロ映像データの撮影された時刻を示す時刻340および人物の顔の特徴を示す顔特徴360である。特徴を抽出した後、特徴抽出手段232は、モノクロ映像データと抽出した特徴とを照合手段233に出力する(図3のステップS7)。   Next, the feature extraction unit 232 extracts features from the monochrome video data. Here, the features extracted by the feature extraction unit 232 are a time 340 indicating the time when the monochrome video data was captured and a face feature 360 indicating the characteristics of the face of the person. After extracting the features, the feature extracting unit 232 outputs the monochrome video data and the extracted features to the matching unit 233 (step S7 in FIG. 3).

次いで、照合手段233は、受け取ったモノクロ映像データを映像特徴DB装置300内に格納されている各データと照合するため、映像特徴DB装置300内のデータ一覧を取得する命令を通信手段210に出力する(図3のステップS8)。   Next, the collation unit 233 outputs a command for obtaining a data list in the video feature DB device 300 to the communication unit 210 in order to collate the received monochrome video data with each data stored in the video feature DB device 300. (Step S8 in FIG. 3).

次いで、通信手段210は、照合手段233より受け取ったデータ一覧取得命令を映像特徴DB装置300に送信する(図3のステップS9)。   Next, the communication unit 210 transmits the data list acquisition command received from the collation unit 233 to the video feature DB device 300 (step S9 in FIG. 3).

次いで、映像特徴DB装置300は、受け取ったデータ一覧取得命令に基づいて、DB内のデータ一覧を抽出し、通信手段210に送信する。現時点で送信するデータは、データID320が「A001」で識別されるデータである(図3のステップS10)。   Next, the video feature DB device 300 extracts a data list in the DB based on the received data list acquisition command, and transmits the data list to the communication unit 210. The data transmitted at the present time is data identified by the data ID 320 of “A001” (step S10 in FIG. 3).

次いで、通信手段210は、データID320が「A001」で識別されるデータを照合手段233に出力する(図3のステップS11)。   Next, the communication unit 210 outputs data identified by the data ID 320 of “A001” to the verification unit 233 (step S11 in FIG. 3).

次いで、照合手段233は、データID320が「A001」で識別されるデータ(以下、単に「A001」ともいう)と、データIDに「A002」を付与したデータ(以下、単に「A002」ともいう)とを照合する(図3のステップS12)。   Next, the collation means 233 has data ID 320 identified by “A001” (hereinafter also simply referred to as “A001”) and data obtained by adding “A002” to the data ID (hereinafter also simply referred to as “A002”). Are collated (step S12 in FIG. 3).

具体的には、「A001」と「A002」とは、時刻340が1分以内であり、かつ顔特徴360が一致するデータ同士である。また、「A001」には、色特徴350が存在し、「A002」には、色特徴350が存在しない。したがって、第1の条件に合致するため、照合機能233は、「A001」の色特徴350を「A002」の色特徴として、「A002」で識別されるデータに付与する。   Specifically, “A001” and “A002” are data in which the time 340 is within one minute and the facial features 360 match. Further, “A001” has a color feature 350, and “A002” has no color feature 350. Therefore, in order to meet the first condition, the matching function 233 assigns the color feature 350 of “A001” to the data identified by “A002” as the color feature of “A002”.

そして、照合機能233は、「A002」の現在の映像データ、付与した情報、抽出した特徴および新たに付与した色特徴を映像特徴DB装置に書き込む決定を行い、現在の映像データ、付与した情報、抽出した特徴および新たに付与した色特徴を書込手段234に出力する(図3のステップS13)。   The collation function 233 determines to write the current video data of “A002”, the added information, the extracted feature, and the newly added color feature to the video feature DB device, and the current video data, the added information, The extracted feature and the newly added color feature are output to the writing means 234 (step S13 in FIG. 3).

次いで、書込手段234は、映像特徴DB装置300に対して現在の映像データ、付与した情報、抽出した特徴および新たに付与した色特徴を書き込む指示を通信手段210に出力する(図3のステップS14)。   Next, the writing unit 234 outputs an instruction to write the current video data, the added information, the extracted feature, and the newly added color feature to the video feature DB device 300 (step in FIG. 3). S14).

次いで、通信手段210は、DBへの書き込み命令とともに、現在の映像データ、付与した情報、抽出した特徴および新たに付与した色特徴を映像特徴DB装置300に送信する(図3のステップS15)。すると、映像特徴DB装置300は、受信した書き込み命令に従って、現在の映像データ、付与した情報、抽出した特徴および新たに付与した色特徴をデータベースに書き込む。この時点で、映像特徴DB装置300内に存在するデータは、データID320が「A001」と「A002」とで識別されるものである。   Next, the communication unit 210 transmits the current video data, the added information, the extracted feature, and the newly added color feature to the video feature DB device 300 together with the DB write command (step S15 in FIG. 3). Then, the video feature DB device 300 writes the current video data, the added information, the extracted features, and the newly added color features in the database according to the received write command. At this time point, the data existing in the video feature DB device 300 is identified by the data ID 320 of “A001” and “A002”.

次に、処理をステップS1に移行し、カラーカメラおよびサーモグラフィカメラで撮影を行う。それぞれの撮影機器100の撮影手段110は、撮影範囲内に存在する人物のカラー映像と表面温度映像とを撮影し、カラー映像データと表面温度映像データとして送信手段120に出力する(図3のステップS1)。   Next, the process proceeds to step S1, and photographing is performed with a color camera and a thermography camera. The photographing means 110 of each photographing device 100 takes a color image and a surface temperature image of a person existing within the photographing range, and outputs the color image data and the surface temperature image data to the transmitting means 120 (step in FIG. 3). S1).

次いで、送信手段120は、カラー映像データと表面温度映像データとを情報処理装置200の通信手段210に送信する(図3のステップS2)。   Next, the transmission unit 120 transmits the color video data and the surface temperature video data to the communication unit 210 of the information processing apparatus 200 (step S2 in FIG. 3).

次いで、通信手段210は、管理手段221にカラー映像データと表面温度映像データとを出力する(図3のステップS3)。   Next, the communication unit 210 outputs the color video data and the surface temperature video data to the management unit 221 (Step S3 in FIG. 3).

次いで、管理手段221は、受け取ったカラー映像データに撮影機器ID310を付与する。ここで管理手段221が付与する撮影機器ID310は「a001」である。   Next, the management unit 221 gives a photographing device ID 310 to the received color video data. Here, the photographing device ID 310 assigned by the management unit 221 is “a001”.

同様に、管理手段221は、表面温度映像データに撮影機器ID310を付与する。ここで管理手段221が付与する撮影機器IDは「a003」である。その後、管理手段221は、両映像データを変換手段222に出力する(図3のステップS4)。   Similarly, the management unit 221 assigns a photographing device ID 310 to the surface temperature video data. Here, the photographing device ID given by the management unit 221 is “a003”. Thereafter, the management unit 221 outputs both video data to the conversion unit 222 (step S4 in FIG. 3).

次いで、変換手段222は、受け取った両映像データの形式をAVI形式に変換する(図3のステップS5)。   Next, the conversion means 222 converts the format of both received video data to the AVI format (step S5 in FIG. 3).

次いで、識別手段231は、受け取った両映像データにデータID320を付与する。ここで識別手段231が付与するデータID320は、カラー映像データには「A003」であり、表面温度映像データには「A004」である。データIDを付与した後、識別手段231は、映像データを特徴抽出手段232に出力する(図3のステップS6)。   Next, the identification unit 231 gives a data ID 320 to both received video data. Here, the data ID 320 given by the identification means 231 is “A003” for the color video data and “A004” for the surface temperature video data. After giving the data ID, the identification unit 231 outputs the video data to the feature extraction unit 232 (step S6 in FIG. 3).

次いで、特徴抽出手段232は、映像データより特徴を抽出する。ここでは、特徴抽出手段232は、カラー映像データと表面温度映像データとから、映像データの撮影された時刻を示す時刻340を抽出する。また、特徴抽出手段232は、カラー映像データから色特長350を抽出し、表面温度映像データから温度特徴370を抽出する。特徴を抽出した後、特徴抽出手段232は、それぞれの映像データと抽出した特徴とを照合手段233に出力する(図3のステップS7)。   Next, the feature extraction unit 232 extracts features from the video data. Here, the feature extraction unit 232 extracts a time 340 indicating the time when the video data was captured from the color video data and the surface temperature video data. Also, the feature extraction unit 232 extracts the color feature 350 from the color video data, and extracts the temperature feature 370 from the surface temperature video data. After extracting the features, the feature extracting unit 232 outputs each video data and the extracted features to the matching unit 233 (step S7 in FIG. 3).

次いで、照合手段233は、受け取った映像データを映像特徴DB装置300内に格納されている各データと照合するため、映像特徴DB装置300内のデータ一覧を取得する命令を通信手段210に出力する(図3のステップS8)。   Next, the collation unit 233 outputs a command for obtaining a data list in the video feature DB device 300 to the communication unit 210 in order to collate the received video data with each data stored in the video feature DB device 300. (Step S8 in FIG. 3).

次いで、通信手段210は、照合手段233より受け取ったデータ一覧取得命令を映像特徴DB装置300に送信する(図3のステップS9)。   Next, the communication unit 210 transmits the data list acquisition command received from the collation unit 233 to the video feature DB device 300 (step S9 in FIG. 3).

次いで、映像特徴DB装置300は、受け取ったデータ一覧取得命令に基づいて、DB内のデータ一覧を抽出し、通信手段210に送信する(図3のステップS10)。現時点で映像特徴DB装置300送信するデータは、データID320が「A001」と「A002」とで識別されるデータである。   Next, the video feature DB apparatus 300 extracts a data list in the DB based on the received data list acquisition command, and transmits it to the communication unit 210 (step S10 in FIG. 3). The data transmitted to the video feature DB device 300 at this time is data whose data ID 320 is identified by “A001” and “A002”.

次いで、通信手段210は、データID320が「A001」で識別されるデータを照合手段233に出力する(図3のステップS11)。   Next, the communication unit 210 outputs data identified by the data ID 320 of “A001” to the verification unit 233 (step S11 in FIG. 3).

次いで、照合手段233は、データID320が「A001」と「A002」と「A003」と「A004」とで識別されるデータを照合する(図3のステップS12)。   Next, the collation unit 233 collates data identified by the data ID 320 of “A001”, “A002”, “A003”, and “A004” (step S12 in FIG. 3).

具体的には、データID320が「A003」と「A004」とのデータにおいて、それぞれ撮影機器ID310が「a001」と「a003」とであり、時刻ID340が一致する。したがって、第2の条件に合致するため、照合手段233は、互いが保持している色特徴350、顔特徴360および温度特徴370のデータについて、保持していないデータ箇所に対して保持している側のデータを付与する。   Specifically, in the data with the data ID 320 of “A003” and “A004”, the photographing device IDs 310 are “a001” and “a003”, respectively, and the time IDs 340 match. Therefore, in order to meet the second condition, the matching unit 233 holds the data of the color feature 350, the face feature 360, and the temperature feature 370 held by each other with respect to the data portions that are not held. Side data is given.

また、照合手段233は、データID320が「A003」のデータには、温度特徴370を付与し、データID320が「A004」のデータには、色特徴350を付与する。   Further, the collation unit 233 gives the temperature feature 370 to the data whose data ID 320 is “A003”, and gives the color feature 350 to the data whose data ID 320 is “A004”.

また、照合手段233は、データID320が「A003」と「A004」とのデータに関して、映像データ、付与した情報、抽出した特徴および新たに付与した特徴を映像特徴DB装置300に書き込む決定を行う。その後、照合手段233は、映像データ、付与した情報、抽出した特徴および新たに付与した特徴を書込手段234に出力する(図3のステップS13)。   Further, the collation unit 233 determines to write the video data, the added information, the extracted feature, and the newly added feature to the video feature DB device 300 regarding the data with the data ID 320 of “A003” and “A004”. Thereafter, the collating unit 233 outputs the video data, the added information, the extracted feature, and the newly added feature to the writing unit 234 (step S13 in FIG. 3).

次いで、書込手段234は、映像特徴DB装置300に対して映像データ、付与した情報、抽出した特徴および新たに付与した特徴を書き込む指示を、通信手段210に出力する(図3のステップS14)。   Next, the writing unit 234 outputs an instruction to write the video data, the added information, the extracted feature, and the newly added feature to the video feature DB device 300 to the communication unit 210 (step S14 in FIG. 3). .

次いで、通信手段210は、データベースへの書き込み命令とともに、映像データ、付与した情報、抽出した特徴および新たに付与した特徴を映像特徴DB装置300に送信する。すると、映像特徴DB装置300は、書き込み命令に従って、映像データ、付与した情報、抽出した特徴および新たに付与した特徴をデータベースに書き込む(図3のステップS15)。この時点で、映像特徴DB装置300内に存在するデータは、データID320が「A001」、「A002」、「A003」または「A004」のいずれかで識別されるものである。   Next, the communication unit 210 transmits the video data, the added information, the extracted features, and the newly added features to the video feature DB device 300 together with the database write command. Then, the video feature DB apparatus 300 writes the video data, the added information, the extracted features, and the newly added features in the database according to the write command (step S15 in FIG. 3). At this time, the data existing in the video feature DB device 300 is identified by the data ID 320 of “A001”, “A002”, “A003”, or “A004”.

その後、例えば、利用者が映像データを再生する操作を行うと、情報処理装置200は、利用者の操作に従って、映像特徴DB装置300から特徴情報の付与された映像データを抽出し、再生する。   Thereafter, for example, when the user performs an operation of reproducing the video data, the information processing apparatus 200 extracts the video data to which the feature information is added from the video feature DB apparatus 300 according to the operation of the user and reproduces it.

以上のように、本実施形態では、撮影機器が撮影した映像に映っている人物から、取得可能な特徴情報を取得し、同一人物と判断できる特徴情報が一致する場合、一方の特徴情報を他方の特徴情報として付与する。これにより、映像の特性によって本来は取得できないはずの人物の特徴情報を取得することができる。例として、人物の服装の色特徴という特徴情報に関して、この情報を本来なら持たないモノクロ映像に対しても、服装の色特徴を持っているカラー映像内の他の特定の特徴を照合し、同一であればモノクロ映像側にも服装の色特徴を付与することが可能である。   As described above, in the present embodiment, when the feature information that can be obtained is obtained from the person shown in the video captured by the photographing device and the feature information that can be determined to be the same person matches, Is added as feature information. Thereby, it is possible to acquire feature information of a person who should not be originally acquired due to the characteristics of the video. As an example, regarding the feature information of the color feature of a person's clothing, even if it is a monochrome image that does not originally have this information, other specific features in the color image having the clothing color feature are collated and the same If so, it is possible to add the color feature of the clothes to the monochrome image side.

本発明の効果は、本来ならば撮影機器の特性から取得することができない特徴情報を、その映像機器から撮影した映像データから取得できる点である。その理由は、複数の映像データに付与したそれぞれの特徴情報を照合することにより、本来取得していない特徴情報も付与できるためである。   The effect of the present invention is that characteristic information that cannot be acquired from the characteristics of the imaging device can be acquired from video data captured from the video device. The reason is that feature information not originally acquired can be given by collating each feature information given to a plurality of video data.

以上のことから、本発明は、撮影機器によって撮影した物体、主に人物の特徴情報に関して、撮影機器の特性から、単体では取得できない特徴情報を他の映像との照合により取得できるようにすることができる。   From the above, the present invention makes it possible to acquire feature information that cannot be acquired by itself, by collating with other images, from the characteristics of the imaging device, with respect to the characteristics of the object captured by the imaging device, mainly the characteristics of the person. Can do.

また、本発明には、次のような背景や課題がある。昨今監視カメラは多数の施設や店舗で活用され、またその映像中から特定の人物を発見する必要のあるシーンが確実に広がっている。そのなかでも特に、服装の色に基づいて特定の人物を発見するという方法においては、事件の容疑者に対する目撃情報等、あいまいな外見の特徴を元に特定人物を発見する必要がある場合において非常に有効な手段である。   Further, the present invention has the following background and problems. In recent years, surveillance cameras have been used in many facilities and stores, and scenes where it is necessary to find a specific person in the video have definitely spread. In particular, the method of discovering a specific person based on the color of clothes is very important when it is necessary to find a specific person based on ambiguous appearance characteristics such as sighting information on the suspect in the case. It is an effective means.

しかし、監視カメラで撮影された映像がカラー映像ではなくモノクロ映像の場合、モノクロ映像から服装の色を見分けることが困難なため、効果を発揮するのが難しいという問題がある。   However, when the video imaged by the surveillance camera is not a color video but a monochrome video, it is difficult to distinguish the color of clothes from the monochrome video, so that there is a problem that it is difficult to exert the effect.

実社会ではコスト面等の理由からモノクロ映像しか撮影できない監視カメラもまだ多く設置されており、服装の色を元に特定の人物を発見する技術が有効に活用できない場面も多々存在する。このように、撮影機器の特性によって、発見したい人物を発見できない例はカラーカメラ、モノクロカメラ以外でも存在している。   In the real world, there are still many surveillance cameras that can shoot only monochrome images due to cost reasons, and there are many scenes where technology for finding a specific person based on the color of clothes cannot be used effectively. As described above, there are examples other than the color camera and the monochrome camera in which the person to be discovered cannot be found due to the characteristics of the photographing device.

以上の課題に対して、本発明により、特徴情報を相互に補完して付与することが可能になるので、モノクロ映像からも服装の色の特徴を見分けることが可能になり、効率的な特定の人物の発見が実現可能となる。   With respect to the above problems, the present invention makes it possible to complement and give feature information to each other, so that it is possible to distinguish the color feature of clothes even from a monochrome image, and efficient identification A person can be discovered.

次に、本発明による特徴情報付加システムの最小構成について説明する。図4は、特徴情報付加システムの最小の構成例を示すブロック図である。図4に示すように、特徴情報付加システムは、最小の構成要素として、特徴情報抽出手段10、判定手段20、特徴情報付加手段30とを含む。   Next, the minimum configuration of the feature information addition system according to the present invention will be described. FIG. 4 is a block diagram illustrating a minimum configuration example of the feature information addition system. As shown in FIG. 4, the feature information addition system includes a feature information extraction unit 10, a determination unit 20, and a feature information addition unit 30 as minimum components.

図4に示す最小構成の特徴情報付加システムでは、特徴情報抽出手段10は、複数の撮影手段が撮影した映像データから被写体の特徴情報をそれぞれ抽出する。次いで、判定手段20は、特徴情報抽出手段10が抽出した特徴情報に基づいて、異なる撮影手段が撮影した映像データに含まれる被写体が合致するか否かを判定する。次いで、特徴情報付与手段30は、判定手段20が合致すると判定すると、異なる撮影手段のうちの一方の映像データに他方の映像データから抽出した特徴情報を付与する。   In the minimum configuration feature information adding system shown in FIG. 4, the feature information extraction unit 10 extracts subject feature information from video data captured by a plurality of imaging units. Next, based on the feature information extracted by the feature information extraction unit 10, the determination unit 20 determines whether or not the subject included in the video data captured by the different imaging unit matches. Next, when it is determined that the determination unit 20 matches, the feature information adding unit 30 adds the feature information extracted from the other video data to one video data of different photographing units.

従って、最小構成の特徴情報付加システムによれば、他の撮影手段が撮影した映像から抽出した被写体の特徴情報を付加することができるため、撮影手段の特性によって抽出できる特徴情報が限定されている場合であっても、映像から任意の被写体を特定することを支援することができる。   Therefore, according to the feature information addition system with the minimum configuration, the feature information of the subject extracted from the video captured by the other imaging unit can be added, and thus the feature information that can be extracted is limited by the characteristics of the imaging unit. Even in this case, it is possible to assist in identifying an arbitrary subject from the video.

なお、本実施形態では、以下の(1)〜(5)に示すような特徴情報付加システムの特徴的構成が示されている。   In the present embodiment, the characteristic configuration of the characteristic information addition system as shown in the following (1) to (5) is shown.

(1)特徴情報付加システムは、複数の撮影手段(例えば、カラーカメラやモノクロカメラ、サーモグラフィカメラなど)が撮影した映像データから被写体(例えば、人物)の特徴情報をそれぞれ抽出する特徴情報抽出手段(例えば、特徴抽出手段232によって実現される)と、特徴情報抽出手段が抽出した特徴情報に基づいて、異なる撮影手段が撮影した映像データに含まれる被写体が同一であるか否かを判定する判定手段(例えば、照合手段233によって実現される)と、判定手段が同一であると判定すると、異なる撮影手段のうちの一方の撮影手段が撮影した映像データに他方の撮影手段が撮影した映像データから抽出した特徴情報を付与する特徴情報付与手段(例えば、照合手段233や書込手段234によって実現される)とを含むことを特徴とする。   (1) The feature information addition system is a feature information extraction unit (each of which extracts feature information of a subject (for example, a person) from video data captured by a plurality of imaging units (for example, a color camera, a monochrome camera, a thermography camera, etc.)). For example, based on the feature information extracted by the feature information extraction unit 232 and a determination unit that determines whether or not the subjects included in the video data captured by different imaging units are the same If it is determined that the determination means is the same (for example, realized by the collating means 233), the video data captured by one of the different imaging means is extracted from the video data captured by the other imaging means. Feature information providing means (for example, realized by collating means 233 or writing means 234) for providing the feature information Characterized in that it contains.

(2)特徴情報付加システムにおいて、特徴情報抽出手段は、特徴情報として映像データから撮影時刻を示す時刻特徴情報(例えば、時刻340)を抽出し、判定手段は、特徴情報抽出手段が抽出した時刻特徴情報に基づいて、異なる撮影手段が撮影した映像データに含まれる被写体が同一であるか否かを判定するように構成されていてもよい。   (2) In the feature information addition system, the feature information extraction unit extracts time feature information (for example, time 340) indicating the shooting time from the video data as the feature information, and the determination unit extracts the time extracted by the feature information extraction unit. Based on the feature information, it may be configured to determine whether or not the subjects included in the video data photographed by different photographing means are the same.

(3)特徴情報付加システムにおいて、特徴情報抽出手段は、特徴情報として映像データから人物である被写体の顔特徴を示す顔特徴情報(例えば、顔特徴360)を抽出し、判定手段は、特徴情報抽出手段が抽出した顔特徴情報と、時刻特徴情報とに基づいて、異なる撮影手段が撮影した映像データに含まれる被写体が同一であるか否かを判定するように構成されていてもよい。   (3) In the feature information addition system, the feature information extraction unit extracts facial feature information (for example, a facial feature 360) indicating the facial feature of the subject as a person from the video data as the feature information, and the determination unit includes the feature information. Based on the facial feature information extracted by the extracting unit and the time feature information, it may be configured to determine whether or not the subjects included in the video data captured by the different capturing units are the same.

(4)特徴情報付加システムにおいて、特徴情報抽出手段は、特徴情報として、異なる撮影手段のうちの一方の撮影手段(例えば、カラーカメラ)が撮影した映像データから被写体の色特徴を示す色特徴情報(例えば、色特徴350)を抽出し、特徴情報付与手段は、判定手段が被写体と異なる撮影手段のうちの他方の撮影手段(例えば、モノクロカメラ)が撮影した映像データに含まれる被写体とが同一であると判定すると、他方の撮影手段が撮影した映像データに色特徴情報を付与する(例えば、特徴情報を付与して映像特徴DB装置300に格納する)ように構成されていてもよい。   (4) In the feature information addition system, the feature information extraction unit includes, as the feature information, color feature information indicating the color feature of the subject from video data captured by one of the different imaging units (for example, a color camera). (For example, the color feature 350) is extracted, and the feature information providing unit is the same as the subject included in the video data captured by the other capturing unit (for example, a monochrome camera) out of the capturing unit whose determination unit is different from the subject. If it is determined that the color feature information is added to the video data captured by the other imaging means (for example, the feature information is added and stored in the video feature DB device 300).

(5)特徴情報付加システムにおいて、特徴情報抽出手段は、特徴情報として、異なる撮影手段のうちの一方の撮影手段(例えば、サーモグラフィカメラ)が撮影した映像データから被写体の温度特徴を示す温度特徴情報(例えば、温度特徴370)を抽出し、特徴情報付与手段は、判定手段が被写体と異なる撮影手段のうちの他方の撮影手段(例えば、モノクロカメラ)が撮影した映像データに含まれる被写体とが同一であると判定すると、他方の撮影手段が撮影した映像データに温度特徴情報を付与するように構成されていてもよい。   (5) In the feature information addition system, the feature information extraction unit includes, as the feature information, temperature feature information indicating temperature characteristics of the subject from video data captured by one of the different imaging units (for example, a thermography camera). (For example, the temperature feature 370) is extracted, and the feature information adding unit is the same as the subject included in the video data captured by the other capturing unit (for example, a monochrome camera) among the capturing units whose determination unit is different from the subject. If it is determined that the temperature characteristic information is obtained, the temperature characteristic information may be added to the video data captured by the other imaging unit.

本発明は、監視カメラなどが撮影した映像から任意の人物を特定する作業を支援する用途に適用可能である。   The present invention can be applied to a use for supporting an operation of identifying an arbitrary person from a video taken by a surveillance camera or the like.

10 特徴情報抽出手段
20 判定手段
30 特徴情報付加手段
100 撮影機器
110 撮影手段
120 送信手段
200 情報処理装置
210 通信手段
220 映像処理手段
221 管理手段
222 変換手段
230 映像解析手段
231 識別手段
232 特徴抽出手段
233 照合手段
234 書込手段
300 映像特徴DB装置
DESCRIPTION OF SYMBOLS 10 Feature information extraction means 20 Judgment means 30 Feature information addition means 100 Imaging equipment 110 Imaging means 120 Transmission means 200 Information processing apparatus 210 Communication means 220 Video processing means 221 Management means 222 Conversion means 230 Video analysis means 231 Identification means 232 Feature extraction means 233 verification means 234 writing means 300 video feature DB device

Claims (8)

複数の撮影手段が撮影した映像データから被写体の特徴情報をそれぞれ抽出する特徴情報抽出手段と、
前記特徴情報抽出手段が抽出した特徴情報に基づいて、異なる撮影手段が撮影した映像データに含まれる被写体が同一であるか否かを判定する判定手段と、
前記判定手段が同一であると判定すると、前記異なる撮影手段のうちの一方の撮影手段が撮影した映像データに他方の撮影手段が撮影した映像データから抽出した特徴情報を付与する特徴情報付与手段とを
含むことを特徴とする特徴情報付加システム。
Feature information extracting means for extracting feature information of each subject from video data taken by a plurality of photographing means;
Determination means for determining whether or not the subjects included in the video data captured by the different imaging means are the same based on the feature information extracted by the feature information extraction means;
If it is determined that the determination unit is the same, a feature information adding unit that adds feature information extracted from video data captured by the other imaging unit to video data captured by one of the different imaging units. A feature information addition system characterized by including
特徴情報抽出手段は、特徴情報として映像データから撮影時刻を示す時刻特徴情報を抽出し、
判定手段は、前記特徴情報抽出手段が抽出した時刻特徴情報に基づいて、異なる撮影手段が撮影した映像データに含まれる被写体が同一であるか否かを判定する
請求項1記載の特徴情報付加システム。
The feature information extraction means extracts time feature information indicating the shooting time from the video data as feature information,
The feature information addition system according to claim 1, wherein the determination unit determines whether or not the subjects included in the video data captured by the different imaging units are the same based on the time feature information extracted by the feature information extraction unit. .
特徴情報抽出手段は、特徴情報として映像データから人物である被写体の顔特徴を示す顔特徴情報を抽出し、
判定手段は、前記特徴情報抽出手段が抽出した顔特徴情報と、時刻特徴情報とに基づいて、異なる撮影手段が撮影した映像データに含まれる被写体が同一であるか否かを判定する
請求項2記載の特徴情報付加システム。
The feature information extraction means extracts facial feature information indicating the facial feature of the subject as a person from the video data as feature information,
The determination unit determines whether the subjects included in the video data captured by the different imaging units are the same based on the face feature information extracted by the feature information extraction unit and the time feature information. The feature information addition system described.
特徴情報抽出手段は、特徴情報として、異なる撮影手段のうちの一方の撮影手段が撮影した映像データから被写体の色特徴を示す色特徴情報を抽出し、
特徴情報付与手段は、判定手段が前記被写体と前記異なる撮影手段のうちの他方の撮影手段が撮影した映像データに含まれる被写体とが同一であると判定すると、前記他方の撮影手段が撮影した映像データに前記色特徴情報を付与する
請求項1から請求項3のうちのいずれか1項に記載の特徴情報付加システム。
The feature information extraction unit extracts color feature information indicating the color feature of the subject from the video data captured by one of the different imaging units as the feature information,
When the determination unit determines that the subject is the same as the subject included in the video data captured by the other photographing unit among the different photographing units, the feature information providing unit captures the video captured by the other photographing unit. The feature information addition system according to any one of claims 1 to 3, wherein the color feature information is added to data.
特徴情報抽出手段は、特徴情報として、異なる撮影手段のうちの一方の撮影手段が撮影した映像データから被写体の温度特徴を示す温度特徴情報を抽出し、
特徴情報付与手段は、判定手段が前記被写体と前記異なる撮影手段のうちの他方の撮影手段が撮影した映像データに含まれる被写体とが同一であると判定すると、前記他方の撮影手段が撮影した映像データに前記温度特徴情報を付与する
請求項1から請求項4のうちのいずれか1項に記載の特徴情報付加システム。
The feature information extracting means extracts temperature feature information indicating the temperature characteristics of the subject from the video data taken by one of the different shooting means as the feature information,
When the determination unit determines that the subject is the same as the subject included in the video data captured by the other photographing unit among the different photographing units, the feature information providing unit captures the video captured by the other photographing unit. The feature information addition system according to any one of claims 1 to 4, wherein the temperature feature information is added to data.
複数の撮影手段が撮影した映像データから被写体の特徴情報をそれぞれ抽出する特徴情報抽出手段と、
前記特徴情報抽出手段が抽出した特徴情報に基づいて、異なる撮影手段が撮影した映像データに含まれる被写体が同一であるか否かを判定する判定手段と、
前記判定手段が同一であると判定すると、前記異なる撮影手段のうちの一方の撮影手段が撮影した映像データに他方の撮影手段が撮影した映像データから抽出した特徴情報を付与する特徴情報付与手段とを
備えたことを特徴とする特徴情報付加装置。
Feature information extracting means for extracting feature information of each subject from video data taken by a plurality of photographing means;
Determination means for determining whether or not the subjects included in the video data captured by the different imaging means are the same based on the feature information extracted by the feature information extraction means;
If it is determined that the determination unit is the same, a feature information adding unit that adds feature information extracted from video data captured by the other imaging unit to video data captured by one of the different imaging units. A feature information adding device characterized by comprising:
複数の撮影手段が撮影した映像データから被写体の特徴情報をそれぞれ抽出し、
抽出した特徴情報に基づいて、異なる撮影手段が撮影した映像データに含まれる被写体が同一であるか否かを判定し、
同一であると判定すると、前記異なる撮影手段のうちの一方の撮影手段が撮影した映像データに他方の撮影手段が撮影した映像データから抽出した特徴情報を付与する
ことを特徴とする特徴情報付加方法。
Extract feature information of each subject from video data shot by multiple shooting means,
Based on the extracted feature information, it is determined whether or not the subjects included in the video data captured by different imaging means are the same,
If it is determined that they are the same, the feature information extracted from the video data photographed by the other photographing means is added to the video data photographed by one of the different photographing means. .
コンピュータに、
複数の撮影手段が撮影した映像データから被写体の特徴情報をそれぞれ抽出する特徴情報抽出処理と、
抽出した特徴情報に基づいて、異なる撮影手段が撮影した映像データに含まれる被写体が同一であるか否かを判定する判定処理と、
同一であると判定すると、前記異なる撮影手段のうちの一方の撮影手段が撮影した映像データに他方の撮影手段が撮影した映像データから抽出した特徴情報を付与する特徴情報付与処理とを
実行させるための特徴情報付加プログラム。
On the computer,
Feature information extraction processing for extracting feature information of each subject from video data taken by a plurality of photographing means;
A determination process for determining whether or not the subjects included in the video data captured by different imaging means are the same based on the extracted feature information;
If it is determined that they are the same, a feature information adding process for adding feature information extracted from the video data photographed by the other photographing means to the video data photographed by one of the different photographing means is executed. Feature information addition program.
JP2010186806A 2010-08-24 2010-08-24 Feature information addition system, apparatus, method and program Active JP5071535B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2010186806A JP5071535B2 (en) 2010-08-24 2010-08-24 Feature information addition system, apparatus, method and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2010186806A JP5071535B2 (en) 2010-08-24 2010-08-24 Feature information addition system, apparatus, method and program

Publications (2)

Publication Number Publication Date
JP2012048278A JP2012048278A (en) 2012-03-08
JP5071535B2 true JP5071535B2 (en) 2012-11-14

Family

ID=45903125

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010186806A Active JP5071535B2 (en) 2010-08-24 2010-08-24 Feature information addition system, apparatus, method and program

Country Status (1)

Country Link
JP (1) JP5071535B2 (en)

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004004357A (en) * 2002-05-31 2004-01-08 Sony Corp Image pick up apparatus
JP2006113739A (en) * 2004-10-13 2006-04-27 Matsushita Electric Ind Co Ltd Image correction processor
JP2006333132A (en) * 2005-05-26 2006-12-07 Sony Corp Imaging apparatus and method, program, program recording medium and imaging system
JP2007013939A (en) * 2005-05-30 2007-01-18 Matsushita Electric Ind Co Ltd Meta data adding device and meta data adding method
JP2009188697A (en) * 2008-02-06 2009-08-20 Fujifilm Corp Multi-focus camera apparatus and image processing method and program used therein

Also Published As

Publication number Publication date
JP2012048278A (en) 2012-03-08

Similar Documents

Publication Publication Date Title
CN103119595B (en) Shared by the automatic media hitting by shutter
JP4569471B2 (en) Electronic image storage method, electronic image storage device, and electronic image storage system
US9076069B2 (en) Registering metadata apparatus
US10282619B2 (en) Processing apparatus, storage medium, and control method
TW201011696A (en) Information registering device for detection, target sensing device, electronic equipment, control method of information registering device for detection, control method of target sensing device, information registering device for detection control progr
US20130329059A1 (en) Person detection system
KR101534808B1 (en) Method and System for managing Electronic Album using the Facial Recognition
JP5568153B1 (en) Passenger detection system
JP2011039959A (en) Monitoring system
JP5153478B2 (en) Image processing apparatus and image processing method
JP2011014059A (en) Behavior analysis system and behavior analysis method
WO2023005662A1 (en) Image processing method and apparatus, electronic device, program product and computer-readable storage medium
JP5071535B2 (en) Feature information addition system, apparatus, method and program
JP7020567B2 (en) Information processing systems, information processing equipment, information processing methods, and programs
US9076031B2 (en) Image capture apparatus, control method of image capture apparatus, and recording medium
JP2019083532A (en) Image processing system, image processing method, and image processing program
CN109492626A (en) A kind of noninductive face case field management method and its system
JP2014042170A (en) Photographing system, photographing support method, photographing device and control method of the same, management device and control method of the same, and program
JP2022058833A (en) Information processing system, information processing apparatus, information processing method, and program
KR20150029313A (en) Apparatus and method for creating closeness between people based on photos, and computer-readable recording medium with program therefor
US20110085696A1 (en) Image data management apparatus, method and program
JP7211484B2 (en) Image processing device, control method, and program
JP5550222B2 (en) Image processing apparatus and control method thereof
CN113283410A (en) Face enhancement recognition method, device and equipment based on data association analysis
JP2008242682A (en) Automatic meta information imparting system, automatic meta information imparting method, and automatic meta information imparting program

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20120717

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20120724

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20120806

R150 Certificate of patent or registration of utility model

Ref document number: 5071535

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20150831

Year of fee payment: 3