JP2016025522A - Image processing system and image processing system control method - Google Patents

Image processing system and image processing system control method Download PDF

Info

Publication number
JP2016025522A
JP2016025522A JP2014149040A JP2014149040A JP2016025522A JP 2016025522 A JP2016025522 A JP 2016025522A JP 2014149040 A JP2014149040 A JP 2014149040A JP 2014149040 A JP2014149040 A JP 2014149040A JP 2016025522 A JP2016025522 A JP 2016025522A
Authority
JP
Japan
Prior art keywords
tracking
spectral
spectral distribution
solid
background
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2014149040A
Other languages
Japanese (ja)
Inventor
杉山 幹子
Mikiko Sugiyama
幹子 杉山
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2014149040A priority Critical patent/JP2016025522A/en
Publication of JP2016025522A publication Critical patent/JP2016025522A/en
Pending legal-status Critical Current

Links

Abstract

PROBLEM TO BE SOLVED: To perform object detection in consideration of the difference of incident light within a photographing area by obtaining a spectral reflectance characteristic to a target.SOLUTION: In the case of obtaining the spectral distribution of a solid body existing within image data captured by plural monitor cameras, this system previously holds the spectral distribution of a background matter solid body that becomes a subject, obtains the spectral distribution of incident light from a background matter near a target, and obtains a spectral reflectance characteristic to the target by using the spectral distribution of the incident light, thereby making it possible to perform the object detection in consideration of the difference of incident light within a photographing area.SELECTED DRAWING: Figure 6

Description

本発明は画像処理装置および画像処理装置の制御方法に関し、特に、複数の監視カメラで撮影された画像内に存在する対象物を追跡し、色による対象物の特定を行う技術に関する。   The present invention relates to an image processing apparatus and a method for controlling the image processing apparatus, and more particularly to a technique for tracking an object present in images taken by a plurality of surveillance cameras and specifying the object by color.

従来、人物や車両などを監視対象物とし、複数のカメラ間において対象物の照合を行う技術が存在している。例えば、人物を対象とした場合は顔認識や歩行状態を解析した技術、車両を対象物とした場合は車両の形状、車両ナンバーを解析した技術が存在している。これらの技術は、撮影された対象物の向きや撮影位置などにより必ずしも認識に適した画像が得られるとは限らない。   2. Description of the Related Art Conventionally, there has been a technology that uses a person or a vehicle as a monitoring target and performs verification of the target among a plurality of cameras. For example, there are technologies that analyze face recognition and walking conditions when a person is a target, and technologies that analyze the shape and vehicle number of a vehicle when a vehicle is an object. With these techniques, an image suitable for recognition is not always obtained depending on the orientation of the photographed object and the photographing position.

色の特徴量を抽出する従来技術(非特許文献1)では、色の特徴量としてRGBの三次元色ヒストグラムを用いている。求めたヒストグラム間の類似度の差により人物の対応付けを行っている。このようなRGB値の色空間では、光源の影響を除去した場合、異なる物体になる可能性がある。特に、屋外を含めた広領域に設置された監視カメラでは、物体への入射光が同じであることは稀である。そのため、判定精度が低下する場合がある。   In the conventional technique (Non-Patent Document 1) for extracting color feature amounts, an RGB three-dimensional color histogram is used as the color feature amount. Persons are associated based on the difference in similarity between the obtained histograms. In such a color space of RGB values, when the influence of the light source is removed, there is a possibility that the object becomes a different object. In particular, in a surveillance camera installed in a wide area including the outdoors, it is rare that the incident light to the object is the same. Therefore, the determination accuracy may be reduced.

前述のように、光源により見え方が変わる色空間ではなく、分光を用いた画像処理により照明用光源を除去して求めた色特徴量を用いる技術が存在する(特許文献1)。特許文献1では、画像により色が変化する要因となる光源特性及び被写体の分光反射率を推定することで、光源変動の影響を除去した被写体固有の色を推定する。これにより、光源環境に依存しない色にて対象物の比較を行う。   As described above, there is a technique that uses a color feature amount obtained by removing an illumination light source by image processing using spectroscopy instead of a color space in which appearance changes depending on a light source (Patent Document 1). In Patent Document 1, a light source characteristic that causes a color change according to an image and a spectral reflectance of the subject are estimated, thereby estimating a subject-specific color from which the influence of light source fluctuation is removed. As a result, the objects are compared using colors that do not depend on the light source environment.

特開2009−231921号公報JP 2009-231921 A

本田拓也、他4名、「入退室解析の色特徴量を用いた人物対応付けに関する検討」電子情報通信学会総合大会講演論文集2009年_情報・システム(2)、225、2009−03−04Takuya Honda and four others, “Study on person matching using color features for room entry / exit analysis” Proceedings of the IEICE General Conference 2009_Information & Systems (2), 225, 2009-03-04

物体の色は光により変動する。しかしながら、監視カメラの撮影領域内は常に光が一様にあたるとは限らない。特に、屋外などに設置された撮影領域では建物や木などの影にあたる箇所は暗くなる。前述の特許文献1では、撮影領域内の入射光の違いを考慮して物体の分光反射率を求めておらず、異なる入射光により色の特徴量を求めているので、物体検知の精度が低下する問題点があった。
本発明は前述の問題点に鑑み、対象物固有の分光反射率を求め、撮影領域内の入射光の違いを考慮した物体検知を行うことができるようにすることを目的とする。
The color of an object varies with light. However, the light does not always shine uniformly within the imaging area of the surveillance camera. In particular, in a shooting area installed outdoors or the like, a shadowed part such as a building or a tree becomes dark. In the above-mentioned Patent Document 1, the spectral reflectance of an object is not calculated in consideration of the difference in incident light within the imaging region, and the color feature amount is calculated using different incident light, so that the accuracy of object detection decreases. There was a problem to do.
In view of the above-described problems, an object of the present invention is to obtain a spectral reflectance specific to an object and perform object detection in consideration of a difference in incident light in an imaging region.

本発明の画像処理装置は、監視制御装置および複数の監視装置により構成され、前記複数の監視装置において撮影された画像データを解析し対象物の特定を行う画像処理装置において、撮影される画像領域内に存在する物体の位置情報および物体固体の分光分布情報をもつ背景物情報を保持する保持手段と、追跡対象物固体に近傍する背景物を抽出し、前記抽出した背景物の背景物情報を取得する抽出手段と、前記抽出した背景物情報と撮影された画像データの分光反射率より背景物への入射光の分光分布を求める算出手段と、前記背景物への入射光の分光分布と撮影された画像データより追跡対象物の分光反射率を求めて、前記追跡対象物固体の分光分布を求める算出手段と、前記追跡対象物と同様に、異なる撮影画像データ内の追跡対象物の候補となるオブジェクトへの入射光の分光分布を求める算出手段と、前記算出した入射光の分光分布と前記追跡対象物の候補となるオブジェクトの分光反射率より、追跡対象物の候補となるオブジェクトの固体の分光分布を求める算出手段と、前記求めた追跡対象物固体の分光分布と前記求めた追跡対象物の候補となるオブジェクトの固体の分光分布とを比較し、類似度に基づいて追跡対象物の候補となるオブジェクトの情報を決定する決定手段とを有することを特徴とする。   An image processing apparatus according to an embodiment of the present invention includes a monitoring control device and a plurality of monitoring devices, and an image region captured in an image processing device that analyzes image data captured by the plurality of monitoring devices and identifies an object. A holding means for holding background object information having position information of an object existing inside and spectral distribution information of the object solid, and a background object close to the tracking object solid is extracted, and the background object information of the extracted background object is Extracting means for obtaining, calculating means for obtaining a spectral distribution of incident light on the background object from the extracted background object information and spectral reflectance of the captured image data, and a spectral distribution of the incident light on the background object and photographing Calculating means for obtaining the spectral reflectance of the tracking object from the obtained image data and obtaining the spectral distribution of the tracking object solid, and the tracking object in different photographed image data as in the tracking object An object to be a tracking target candidate based on the calculating means for obtaining the spectral distribution of the incident light on the candidate object, and the spectral reflectance of the object to be tracked and the calculated spectral distribution of the incident light. The calculation means for obtaining the spectral distribution of the solid of the object, the spectral distribution of the obtained tracking object solid is compared with the solid spectral distribution of the object as the candidate of the obtained tracking object, and the tracking object is determined based on the similarity. And determining means for determining information of an object that is a candidate for an object.

本発明によれば、追跡対象物と同じ入射光の背景物を取得し、予め保持している背景物の固体の分光分布より追跡対象物の入射光の分光分布を推定し、追跡対象物固体の分光分布を取得することにより、物体検知の精度を向上させることができる。   According to the present invention, a background object having the same incident light as that of the tracking object is acquired, the spectral distribution of the incident light of the tracking object is estimated from the spectral distribution of the solid of the background object held in advance, and the tracking object solid is obtained. By acquiring the spectral distribution, it is possible to improve the accuracy of object detection.

本発明に係る画像処理装置の構成の一例を示すブロック図である。It is a block diagram which shows an example of a structure of the image processing apparatus which concerns on this invention. 本発明の第1の実施形態に係る監視装置の構成の一例を示すブロック図である。It is a block diagram which shows an example of a structure of the monitoring apparatus which concerns on the 1st Embodiment of this invention. 本発明の第1の実施形態に係る画像処理装置の一構成要素である監視制御装置及び対象物検知装置で使用されるコンピュータシステムの構成の一例を示すブロック図である。It is a block diagram which shows an example of a structure of the computer system used with the monitoring control apparatus and target object detection apparatus which are one component of the image processing apparatus which concerns on the 1st Embodiment of this invention. 本発明の第1の実施形態に係る監視装置の一構成要素である撮像装置の構成例を示すブロック図である。It is a block diagram which shows the structural example of the imaging device which is one component of the monitoring apparatus which concerns on the 1st Embodiment of this invention. 本発明の第1の実施形態に係る監視制御装置の処理手順の一例を示すフローチャートである。It is a flowchart which shows an example of the process sequence of the monitoring control apparatus which concerns on the 1st Embodiment of this invention. 本発明の第1の実施形態に係る追跡対象物情報の取得処理の一例を示すフローチャートである。It is a flowchart which shows an example of the acquisition process of the tracking target object information which concerns on the 1st Embodiment of this invention. 本発明の第1の実施形態に係る追跡対象物及び対象物の候補に係る情報を格納するための追跡対象物情報テーブルの一例を示す図である。It is a figure which shows an example of the tracking target object information table for storing the information which concerns on the tracking target object which concerns on the 1st Embodiment of this invention, and the candidate of a target object. 本発明の第1の実施形態に係る追跡対象物撮影画像の一例を示す図である。It is a figure which shows an example of the tracking target object picked-up image which concerns on the 1st Embodiment of this invention. 本発明の第1の実施形態に係る追跡対象物情報の検知処理の一例を示すフローチャートである。It is a flowchart which shows an example of the detection process of the tracking target object information which concerns on the 1st Embodiment of this invention. 本発明の第1の実施形態に係る背景物情報テーブルの取得処理の一例を示すフローチャートである。It is a flowchart which shows an example of the acquisition process of the background object information table which concerns on the 1st Embodiment of this invention. 本発明の第1の実施形態に係る撮影領域を分割した一例を示す図である。It is a figure which shows an example which divided | segmented the imaging | photography area | region which concerns on the 1st Embodiment of this invention. 本発明の第1の実施形態に係る背景物情報テーブルの一例を示す図である。It is a figure which shows an example of the background object information table which concerns on the 1st Embodiment of this invention. 本発明の第1の実施形態に係る分光反射率における比較の一例を示す図である。It is a figure which shows an example of the comparison in the spectral reflectance which concerns on the 1st Embodiment of this invention. 本発明の第2の実施形態に係る画像処理装置の構成要素の一例を示す図である。It is a figure which shows an example of the component of the image processing apparatus which concerns on the 2nd Embodiment of this invention.

以下、添付の図面を参照して。本発明をその好適な実施形態に基づいて詳細に説明する。なお、以下の実施形態において示す構成は一例に過ぎず、本発明は図示された構成に限定されるものではない。
[第1の実施形態]
図1は、本発明の実施形態における画像処理装置の一例を示すブロック図である。本実施形態の画像処理装置は、監視制御装置101及び2つ以上の複数の監視装置(102から107)により構成され、複数の監視装置において撮影された画像データを解析し、対象物の特定を行う。これらの監視制御装置101、監視装置(102から107)はネットワーク108で接続されている。
Hereinafter, refer to the attached drawings. The present invention will be described in detail based on preferred embodiments thereof. The configurations shown in the following embodiments are merely examples, and the present invention is not limited to the illustrated configurations.
[First Embodiment]
FIG. 1 is a block diagram illustrating an example of an image processing apparatus according to an embodiment of the present invention. The image processing apparatus according to the present embodiment includes a monitoring control apparatus 101 and two or more monitoring apparatuses (102 to 107), analyzes image data captured by the plurality of monitoring apparatuses, and specifies an object. Do. These monitoring control device 101 and monitoring devices (102 to 107) are connected by a network.

監視制御装置101は、追跡対象物がいずれかの監視装置(102から107)により検出された場合、その追跡対象物の情報を、ネットワーク108を経由して他の監視装置へ転送する。そして、追跡対象物と類似する色特徴量を持つ対象物が撮影されたかどうかを検出させる。   When the tracking target object is detected by any of the monitoring apparatuses (102 to 107), the monitoring control apparatus 101 transfers information on the tracking target object to another monitoring apparatus via the network. Then, it is detected whether or not an object having a color feature amount similar to the tracking object is photographed.

また、監視制御装置101は、各監視装置(102から107)より検出結果が送付された場合、候補となる対象物の情報を取得し、検出された監視装置やその候補となる対象物の情報や画像データを、後述する出力装置308に表示する。その他の監視制御装置101及び各情報の詳細については、後述する「監視制御装置」にて説明する。   Further, when the detection result is sent from each of the monitoring devices (102 to 107), the monitoring control device 101 acquires information on the candidate object, and information on the detected monitoring device and the candidate object. And the image data are displayed on the output device 308 described later. The details of the other monitoring control device 101 and each information will be described in “Monitoring control device” described later.

いずれかの監視装置(102から107)である監視装置201は、図2に示すように撮像装置202と対象物検知装置203で構成される。
撮像装置202は、分光特性が取得可能な撮像装置、例えばマルチバンドカメラなどの撮像装置を用いて構成され、分光画像データを生成する。
As shown in FIG. 2, the monitoring device 201 that is one of the monitoring devices (102 to 107) includes an imaging device 202 and an object detection device 203.
The imaging device 202 is configured using an imaging device capable of acquiring spectral characteristics, for example, an imaging device such as a multiband camera, and generates spectral image data.

対象物検知装置203は、撮像装置202で生成された分光画像データより追跡対象物の検出を行う。
監視制御装置101より送られてきた追跡対象物情報より撮像装置202で撮影された画像データにおいて、追跡対象物と類似する対象物を検知し、候補対象物があれば候補対象物情報を監視制御装置101に転送する。その他の監視装置及び各情報の詳細については、「監視装置における撮像装置」及び「監視装置における対象物検知装置」にて説明する。
The object detection device 203 detects a tracking object from the spectral image data generated by the imaging device 202.
A target similar to the tracking target is detected in the image data captured by the imaging device 202 from the tracking target information sent from the monitoring control apparatus 101. If there is a candidate target, the candidate target information is monitored and controlled. Transfer to device 101. Details of the other monitoring devices and each information will be described in “Imaging device in monitoring device” and “Object detection device in monitoring device”.

以下に各装置の構成について説明する。
<監視制御装置>
本実施形態における画像処理装置の一構成要素である監視制御装置101は、図3に示すようなコンピュータシステムにより構成される。
具体的には、CPU301、ROM302、RAM303、外部記憶装置304、Input I/F305、入力装置306、OutputI/F307、出力装置308、ネットワークI/F309を具備する。
The configuration of each device will be described below.
<Monitoring control device>
The monitoring control apparatus 101, which is a component of the image processing apparatus in the present embodiment, is configured by a computer system as shown in FIG.
Specifically, a CPU 301, a ROM 302, a RAM 303, an external storage device 304, an input I / F 305, an input device 306, an output I / F 307, an output device 308, and a network I / F 309 are provided.

CPU301は、コンピュータシステムの全体の制御処理を行うものである。
ROM(Read Only Memory)302は、読出し専用メモリである。ROM302は、使用者が電気的にプログラムを書き込むことができるPROM(Programmable ROM)と製造するときに内容を書き込むマスクROMとがあるが、本実施形態においては何れのROMであってもよい。
The CPU 301 performs overall control processing of the computer system.
A ROM (Read Only Memory) 302 is a read only memory. The ROM 302 includes a PROM (Programmable ROM) in which a user can electrically write a program and a mask ROM into which contents are written at the time of manufacture. In this embodiment, any ROM may be used.

RAM(Random Access Memory)303は、自由書き込み・自由読出しができるメモリである。RAM303は、本実施形態の処理を行う際に一時的にデータを蓄える等の機能を有する。   A RAM (Random Access Memory) 303 is a memory that can be freely written and read. The RAM 303 has a function of temporarily storing data when performing the processing of the present embodiment.

外部記憶装置304は、不揮発性の記憶装置である。外部記憶装置304には、例えば、HDドライブ、FDドライブ、MOドライブ、CD−RWドライブ、DVD−RWドライブ、Blu−ray(登録商標)ドライブ等がある。外部記憶装置304は、プログラムデータを格納するとともに、プログラムデータの動作に必要なデータを格納することができる。   The external storage device 304 is a nonvolatile storage device. Examples of the external storage device 304 include an HD drive, an FD drive, an MO drive, a CD-RW drive, a DVD-RW drive, and a Blu-ray (registered trademark) drive. The external storage device 304 can store program data and data necessary for the operation of the program data.

InputI/F305は、コンピュータシステムが具備するキーボード、マウスなどからの入力装置306からの入力信号を処理するものであり、コンピュータシステムの操作及びデータ入力に用いられるものである。   The Input I / F 305 processes an input signal from the input device 306 from a keyboard, a mouse, or the like included in the computer system, and is used for operation of the computer system and data input.

入力装置306は、InputI/F305を経由してコンピュータシステムへ入力信号を送るためのキーボード、マウスなどがある。
OutputI/F307はコンピュータシステムに接続されるモニタやプリンタなどからの出力信号を処理するものであり、コンピュータシステムの操作及びデータ出力に用いられるものである。
The input device 306 includes a keyboard and a mouse for sending input signals to the computer system via the Input I / F 305.
The Output I / F 307 processes output signals from a monitor or printer connected to the computer system, and is used for operation of the computer system and data output.

出力装置308は、OutputI/F307を経由してコンピュータシステムからの出力信号を受信して処理する出力装置を示している。この出力装置308はCRT、液晶ディスプレイ、プラズマディスプレイ、リアプロジェクションテレビまたはフロントプロジェクタおよびその制御回路を用いて実現される。   An output device 308 indicates an output device that receives and processes an output signal from the computer system via the Output I / F 307. The output device 308 is realized using a CRT, a liquid crystal display, a plasma display, a rear projection television or a front projector, and a control circuit thereof.

システムバス310は、コンピュータシステム内の各ブロック間の各種データのやりとり及び電力の供給をするものである。システムバス310は、アドレス線、データ線、制御線、電源・グラウンド線等からなる。   The system bus 310 exchanges various data between blocks in the computer system and supplies power. The system bus 310 includes an address line, a data line, a control line, a power supply / ground line, and the like.

ネットワークI/F309は、イントラネットなどのネットワークに接続するための通信制御を処理し、ユーザの環境に応じてさまざまな通信インタフェースが適用される。無線LANやイーサーネットインタフェースに接続される。   The network I / F 309 processes communication control for connecting to a network such as an intranet, and various communication interfaces are applied depending on the user environment. Connected to a wireless LAN or Ethernet interface.

<監視装置における撮像装置>
本実施形態における監視装置201の一構成要素である撮像装置202は、分光特性が取得可能な撮像装置を用いる。本撮像装置の一例を図4において説明する。
図4において、401はレンズやシャッターで構成される入光部、402は異なる分光透過率を持つ4種類以上のカラーフィルタ、403はイメージセンサである。また、404はゲイン調整部(AGC)、405はA/D変換部、406は信号処理部、407は外部記憶装置、408はD/A変換部、409は表示部である。410はCPUであり各構成の処理全てに係る。411はROM、412はRAMであり、CPU410の処理に必要なプログラム、データ、作業領域等を格納する。413はユーザがカメラの動作を指示するための操作部である。
<Imaging device in monitoring device>
The imaging device 202 that is one component of the monitoring device 201 in this embodiment uses an imaging device that can acquire spectral characteristics. An example of the imaging apparatus will be described with reference to FIG.
In FIG. 4, reference numeral 401 denotes a light incident portion composed of a lens and a shutter, 402 denotes four or more types of color filters having different spectral transmittances, and 403 denotes an image sensor. Reference numeral 404 denotes a gain adjustment unit (AGC), 405 denotes an A / D conversion unit, 406 denotes a signal processing unit, 407 denotes an external storage device, 408 denotes a D / A conversion unit, and 409 denotes a display unit. Reference numeral 410 denotes a CPU, which is related to all processing of each configuration. Reference numeral 411 denotes a ROM, and 412 denotes a RAM, which stores programs, data, work areas, and the like necessary for the processing of the CPU 410. Reference numeral 413 denotes an operation unit for the user to instruct the operation of the camera.

前述した撮像装置202の処理の一例を説明する。
撮像した対象物からの光は入光部401及びカラーフィルタ402を介してイメージセンサ403へ到達し、光電変換によって電気信号に変換される。イメージセンサ403で変換された電気信号は、ゲイン調整部404で予め設定されたゲイン値によりゲイン調整が行われる。
An example of the processing of the imaging device 202 described above will be described.
Light from the imaged object reaches the image sensor 403 via the light incident portion 401 and the color filter 402, and is converted into an electric signal by photoelectric conversion. The electric signal converted by the image sensor 403 is subjected to gain adjustment by a gain value set in advance by the gain adjustment unit 404.

ゲイン調整された電気信号が、A/D変換部405でデジタル信号に変換される。その後、変換されたデジタル信号は信号処理部406でデモザイキング、ノイズリダクション等の画像処理が行われ、分光画像データが生成される。また、信号処理部406によって生成された分光画像データは記憶装置407に格納される。
信号処理部406によって生成された分光画像データよりRGB値に変換され、D/A変換部408によって電圧に変換され、表示部409に表示される。
The gain-adjusted electrical signal is converted into a digital signal by the A / D converter 405. Thereafter, the converted digital signal is subjected to image processing such as demosaicing and noise reduction in the signal processing unit 406, and spectral image data is generated. The spectral image data generated by the signal processing unit 406 is stored in the storage device 407.
The spectral image data generated by the signal processing unit 406 is converted into RGB values, converted into a voltage by the D / A conversion unit 408, and displayed on the display unit 409.

<監視装置における対象物検知装置>
次に、本実施形態における監視装置201の一構成要素である対象物検知装置203について説明する。
本実施形態における対象物検知装置は、図3に示すようなコンピュータシステムにより構成される。図3に示すコンピュータシステムに関しては既に「監視制御装置」にて説明しているため省略する。
<Object detection device in monitoring device>
Next, the object detection device 203 that is a component of the monitoring device 201 in the present embodiment will be described.
The object detection apparatus in the present embodiment is configured by a computer system as shown in FIG. Since the computer system shown in FIG. 3 has already been described in “Monitoring and Control Device”, a description thereof will be omitted.

ここまで、本実施形態における画像処理装置の構成に関して説明した。以下に、本実施形態における監視制御装置及び監視装置の処理に関して説明する。
<監視制御装置の処理>
本実施形態における監視制御装置101の処理に関して、図5を用いて説明する。
ネットワーク108に接続されている任意の監視装置において、追跡する対象物に関する情報(以降、「追跡対象物情報」と述べる)が転送された場合、S501にて、追跡対象物情報及び転送した監視装置の識別情報を取得しRAM303に保持する。
Up to this point, the configuration of the image processing apparatus according to the present embodiment has been described. Hereinafter, the monitoring control device and the processing of the monitoring device in the present embodiment will be described.
<Processing of monitoring control device>
The process of the monitoring control apparatus 101 in this embodiment is demonstrated using FIG.
In any monitoring device connected to the network 108, when information related to an object to be tracked (hereinafter referred to as “tracking object information”) is transferred, the tracking object information and the transferred monitoring device are transmitted in S501. Is acquired and stored in the RAM 303.

S502において、追跡対象物情報を転送した監視装置以外の監視装置に、取得した追跡対象物情報を転送し、追跡対象物の検知処理を実行する。追跡対象物の検知処理については以降の「監視装置における追跡対象物の検知処理」で詳細に述べる。各監視装置において、追跡対象物と類似する対象物があった場合、追跡対象物候補としてその画像データ等(以降、「追跡対象物候補情報」と述べる)が転送される。   In S502, the acquired tracking object information is transferred to a monitoring apparatus other than the monitoring apparatus that transferred the tracking object information, and the tracking object detection process is executed. The tracking object detection process will be described in detail in the following “Tracking Object Detection Process in Monitoring Device”. When there is an object similar to the tracking object in each monitoring device, the image data or the like (hereinafter referred to as “tracking object candidate information”) is transferred as the tracking object candidate.

S503において、ネットワーク108を経由して、取得した追跡対象候補情報と転送した監視装置の識別情報をRAM303に保存する。
S504において、送付された追跡対象物候補情報を監視装置の識別情報と共に出力装置308に表示する。
前記、追跡対象物情報及び追跡対象物候補情報の詳細については、「監視装置における追跡対象物情報の取得処理」及び「監視装置における追跡対象物情報の検知処理」で説明する。
In step S <b> 503, the acquired tracking target candidate information and the transferred monitoring device identification information are stored in the RAM 303 via the network 108.
In step S504, the sent tracking object candidate information is displayed on the output device 308 together with the monitoring device identification information.
Details of the tracking object information and the tracking object candidate information will be described in “Trace Object Information Acquisition Process in Monitoring Device” and “Tracking Object Information Detection Process in Monitoring Device”.

<監視装置における追跡対象物情報の取得処理>
ネットワーク108に接続されている監視装置(102を例として説明する)が、追跡対象物情報を監視制御装置101に転送するまでの処理(追跡対象物の取得処理)について、図6及び図7、図8を用いて説明する。図6は追跡対象物の取得処理のフローチャートを示す。図7は追跡対象物に係る情報を格納する追跡対象物情報テーブルを示す。また、図8は追跡対象物撮影画像の一例を示す。
<Acquisition processing of tracking object information in monitoring device>
FIG. 6 and FIG. 7 show the processing (tracking object acquisition processing) until the monitoring device connected to the network 108 (explained as an example of 102) transfers the tracking object information to the monitoring control device 101. This will be described with reference to FIG. FIG. 6 shows a flowchart of the tracking target acquisition process. FIG. 7 shows a tracking object information table for storing information related to the tracking object. FIG. 8 shows an example of a tracking object photographed image.

S601において、撮像装置202に係る背景物情報テーブルの取得を行う。この背景物情報テーブルは、撮像装置202で撮影される画像領域内で静止している被写体に関する情報、例えば、撮影される画像領域内に存在する物体の位置情報および物体固体の分光分布情報をもつ背景物情報に関する情報を格納したテーブルである。この背景物情報テーブルおよびこのテーブルの作成方法に関しては、「監視装置の背景物情報テーブルの取得処理」にて詳細に説明する。   In step S601, the background object information table related to the imaging apparatus 202 is acquired. This background object information table has information on a subject that is stationary in an image area photographed by the imaging apparatus 202, for example, position information of an object existing in the image area to be photographed and spectral distribution information of an object solid. It is the table which stored the information regarding background object information. The background object information table and the method of creating the table will be described in detail in “Background object information table acquisition process of monitoring device”.

S602において、監視装置102の撮像装置202で撮影された映像より追跡すべき被写体が映っている画像データ(以降、「追跡対象物撮影画像データ」と述べる)の取得を行う。追跡対象物撮影画像データは、記憶装置407に格納されている撮像装置202で生成された画像を出力装置308に表示し、ユーザが入力装置306により画像データを選択することにより取得する。   In step S <b> 602, image data (hereinafter, referred to as “tracked object captured image data”) in which a subject to be tracked is captured from an image captured by the imaging device 202 of the monitoring device 102 is acquired. The tracking target photographed image data is acquired by displaying an image generated by the imaging device 202 stored in the storage device 407 on the output device 308 and selecting image data by the input device 306 by the user.

選択された画像データは、RGB画像とそのRGB画像に対応した分光画像データが取得される。また、この分光画像データより追跡対象物の分光反射率を取得する。例えば、追跡対象物撮影画像データを、監視装置102のディスプレイなどの出力装置308に表示した一例を図8(a)に示す。取得された追跡対象物撮影画像データは、追跡対象物情報テーブルの対象物撮影画像データ702に格納され、RAM303に保持される。   As the selected image data, an RGB image and spectral image data corresponding to the RGB image are acquired. Further, the spectral reflectance of the tracking object is acquired from the spectral image data. For example, FIG. 8A shows an example in which the tracking object photographed image data is displayed on the output device 308 such as a display of the monitoring device 102. The acquired tracked object captured image data is stored in the object captured image data 702 of the tracked object information table and held in the RAM 303.

S603において、ユーザが入力装置306を用いて、S602で求めた対象物撮影画像データ内に存在する追跡対象物を指定する。以降、指定された画像データを「追跡対象物画像データ」と述べる。指定された追跡対象物画像データは、追跡対象物情報テーブルの対象物画像データ703として、RAM303に保持される。本実施形態においては、追跡対象物画像データを画像データとして格納するがこれに限らず、対象物撮影画像データ702における座標領域を保持することも可能である。   In step S <b> 603, the user uses the input device 306 to specify a tracking target existing in the target captured image data obtained in step S <b> 602. Hereinafter, the designated image data is referred to as “tracking object image data”. The designated tracking object image data is held in the RAM 303 as the object image data 703 in the tracking object information table. In the present embodiment, the tracking target object image data is stored as image data. However, the present invention is not limited to this, and a coordinate area in the target captured image data 702 can be held.

また、ユーザが追跡対象物を指定する方法は、画像データ内に存在するオブジェクトを自動的に抽出し、抽出された各オブジェクトの画像データを選択することにより指定してもよい。
例えば、図8(a)に示した追跡対象物撮影画像データにおいて、追跡対象物を選択した場合の一例を(b)に示す。太線で選択された箇所が追跡対象物情報テーブルの対象物画像データ703となる。追跡対象物情報テーブルの対象物画像データ703はRAM303に保持される。
In addition, the method for specifying the tracking object by the user may be performed by automatically extracting an object existing in the image data and selecting the image data of each extracted object.
For example, FIG. 8B shows an example in which the tracking target is selected in the tracking target photographed image data shown in FIG. The portion selected by the bold line becomes the object image data 703 in the tracking object information table. Object image data 703 in the tracking object information table is stored in the RAM 303.

S604において、追跡対象物に近傍している被写体(以降「追跡対象物の背景物」と述べる)情報を求める。本処理に関しては、「監視装置の背景物情報テーブルの取得処理」にて詳細に述べる。取得した追跡対象物の背景物情報は、RAM303に保持される。すなわち、追跡対象物固体に近傍する背景物を抽出し、背景物情報を取得する。また、被写体情報は、追跡対象物を撮影した監視装置から取得する。すなわち、追跡対象物を撮影した監視装置に保持している背景物情報より、追跡対象物に対応する背景物を特定し、その背景物の分光反射率を、分光画像データより取得する。この分光画像データは、S602で取得された分光画像データである。   In step S <b> 604, information about a subject (hereinafter referred to as “background object of the tracking target”) that is close to the tracking target is obtained. This process will be described in detail in “Background Object Information Table Acquisition Process of Monitoring Device”. The acquired background object information of the tracking object is stored in the RAM 303. That is, a background object close to the tracking object solid is extracted, and background object information is acquired. In addition, the subject information is acquired from a monitoring device that captures the tracking target. That is, the background object corresponding to the tracking object is specified from the background object information held in the monitoring device that captured the tracking object, and the spectral reflectance of the background object is acquired from the spectral image data. This spectral image data is the spectral image data acquired in S602.

S605において、S604より取得された追跡対象物の背景物情報より、S601で取得した背景物情報テーブルから背景物の固体の分光分布(Rx(λ))を求める。追跡対象物を撮影した監視装置に保持している背景物情報より、背景物の固体の分光分布を取得する。この背景物の固体の分光分布は、監視装置に保持している背景情報に含まれる背景物の物体固体の分光分布情報である。例えば、S604で取得した追跡対象物の背景物が壁の場合、S605では壁の分光分布を求める。
S606において、S605で取得した背景物の固体の分光分布(Rx(λ))と、S602で求めた対象物撮影画像データ702より背景物の分光反射率(Cx(λ))を取得し、以下の式1より入射光の分光分布(Ex(λ))を算出する。
Ex(λ)=Cx(λ)/Rx(λ) ・・・式1
算出された入射光の分光分布(Ex(λ))は追跡対象物情報テーブルの撮影入射光情報705としてRAM303に格納される。このように、S605で取得した背景物情報とS602で求めた撮影画像データの分光反射率より、背景物への入射光の分光分布を求める。そして、S605で取得した背景物の固体の分光分布と、S602で取得した背景物の分光反射率より、追跡対象物への入射光の分光分布を求める。
In S605, from the background object information of the tracking object acquired in S604, the spectral distribution (Rx (λ)) of the solid of the background object is obtained from the background object information table acquired in S601. The spectral distribution of the solid of the background object is acquired from the background object information held in the monitoring device that captured the tracking object. The spectral distribution of the solid of the background object is spectral distribution information of the object solid of the background object included in the background information held in the monitoring device. For example, when the background object of the tracking target acquired in S604 is a wall, the spectral distribution of the wall is obtained in S605.
In S606, the spectral reflectance (Cx (λ)) of the background object acquired in S605 and the spectral reflectance (Cx (λ)) of the background object are acquired from the object captured image data 702 obtained in S602. The spectral distribution (Ex (λ)) of the incident light is calculated from Equation (1).
Ex (λ) = Cx (λ) / Rx (λ) Equation 1
The calculated spectral distribution (Ex (λ)) of the incident light is stored in the RAM 303 as the photographing incident light information 705 in the tracking object information table. As described above, the spectral distribution of the incident light on the background object is obtained from the background object information obtained in S605 and the spectral reflectance of the captured image data obtained in S602. Then, from the spectral distribution of the solid of the background object acquired in S605 and the spectral reflectance of the background object acquired in S602, the spectral distribution of the incident light on the tracking object is obtained.

S607において、S606で取得した入射光の分光分布(Ex(λ))とS603で取得した追跡対象物画像データより追跡対象物画像の分光反射率(Cy(λ))を取得し、追跡対象物固体の分光分布(Ry(λ))を式2により算出する。
Ry(λ)=Cy(λ)×Ex(λ) ・・・式2
求めた追跡対象物固体の分光分布(Ry(λ))は、追跡対象物情報テーブルの対象物固体の分光反射率704に格納される。このように、背景物への入射光の分光分布と撮影された画像データより追跡対象物の分光反射率を求めて、追跡対象物固体の分光分布を求める。すなわち、S606で求めた入射光の分光分布と、S603で取得した追跡対象物の分光反射率より、追跡対象物固体の分光分布を求める。
In S607, the spectral reflectance (Cy (λ)) of the tracking target image is acquired from the spectral distribution (Ex (λ)) of the incident light acquired in S606 and the tracking target image data acquired in S603. The spectral distribution (Ry (λ)) of the solid is calculated by Equation 2.
Ry (λ) = Cy (λ) × Ex (λ) Equation 2
The obtained spectral distribution (Ry (λ)) of the tracking object solid is stored in the spectral reflectance 704 of the object solid in the tracking object information table. In this way, the spectral reflectance of the tracking object is obtained from the spectral distribution of the incident light on the background object and the captured image data, and the spectral distribution of the tracking object solid is obtained. That is, the spectral distribution of the tracking object solid is obtained from the spectral distribution of the incident light obtained in S606 and the spectral reflectance of the tracking object acquired in S603.

S608において、追跡対象物情報テーブルの撮像装置の設置場所情報701に撮像装置を識別する情報として撮像装置の設置場所を格納する。また、撮像装置の記憶装置407に格納されている撮影された時間情報を取得し、追跡対象物情報テーブルの撮影時間情報706に格納する。前述したRAM303に格納されている追跡対象物情報テーブルを追跡対象物情報として監視制御装置101に転送する。   In S608, the installation location of the imaging device is stored as information for identifying the imaging device in the installation location information 701 of the imaging device in the tracking target object information table. Further, the captured time information stored in the storage device 407 of the imaging apparatus is acquired and stored in the shooting time information 706 of the tracking target object information table. The tracking object information table stored in the RAM 303 is transferred to the monitoring control apparatus 101 as tracking object information.

前述したように、本実施形態では、追跡対象物と同じ入射光の背景物を取得し、予め保持している背景物の固体の分光分布より追跡対象物の入射光の分光分布を推定し、追跡対象物固体の分光分布を取得する。   As described above, in this embodiment, a background object having the same incident light as that of the tracking object is acquired, and the spectral distribution of the incident light of the tracking object is estimated from the solid spectral distribution of the background object held in advance. Obtain the spectral distribution of the tracking object solid.

<監視装置の背景物情報テーブルの取得処理>
本実施形態における背景物情報テーブルの取得処理の一例を、図10及び図11、図12を用いて説明する。図10は、背景物情報テーブルの取得処理の一例を説明するフローチャートである。図11は、撮影領域を分割した一例を示す。図12は背景物情報テーブルの一例を示す。以下の処理で取得された背景物情報テーブルは対象物検知装置203のROM302もしくはRAM303、外部記憶装置304に保存される。
<Background object information table acquisition process of monitoring device>
An example of background object information table acquisition processing in the present embodiment will be described with reference to FIGS. 10, 11, and 12. FIG. 10 is a flowchart for explaining an example of the background object information table acquisition process. FIG. 11 shows an example in which the imaging region is divided. FIG. 12 shows an example of the background object information table. The background object information table acquired by the following processing is stored in the ROM 302 or RAM 303 of the object detection device 203 and the external storage device 304.

S1001において、撮影装置の場所を原点として人物が動作可能な撮影領域を等間隔に分割する。撮影領域を分割した一例を図11(a)及び(b)に示す。例えば、図11(b)は、上空から撮影領域を監視装置から等距離間隔で領域を分割した図である。図11(a)は、監視装置で撮影される領域を地面と平行に等距離間隔で分割し、更に図11(b)と同様に上空から撮影領域を監視装置から等距離間隔で分割した図である。   In step S1001, a shooting area in which a person can operate is divided into equal intervals with the location of the shooting apparatus as the origin. An example in which the imaging region is divided is shown in FIGS. For example, FIG. 11B is a diagram in which the shooting area is divided from the sky at equal distance intervals from the monitoring device. FIG. 11A is a diagram in which a region photographed by the monitoring device is divided at equal distance intervals in parallel with the ground, and the photographing region is divided from the monitoring device at equal distance intervals from the sky as in FIG. 11B. It is.

分割した撮影領域は、番号で管理され背景物情報テーブルの撮影領域分割番号1201に番号が格納される。また、分割された領域は背景物情報テーブルの撮影領域情報1202に格納される。   The divided shooting areas are managed by numbers, and the numbers are stored in shooting area division numbers 1201 of the background object information table. The divided areas are stored in the shooting area information 1202 of the background object information table.

S1002において、分割された領域ごとに撮影画像に写される背景物をユーザが判断する。例えば、図11(a)のように分割された領域ごとに写される被写体となる背景物が何か判断する。
具体的に述べると、図11(a)の領域14では壁が背景物と判断する。抽出された背景物の位置情報を撮像装置のセンサーにより取得する。取得した位置情報は背景物位置情報1203に格納される。
In step S <b> 1002, the user determines a background object to be captured in the captured image for each divided area. For example, as shown in FIG. 11A, it is determined what a background object is a subject that is captured for each divided area.
More specifically, the wall is determined to be a background object in the region 14 of FIG. The position information of the extracted background object is acquired by the sensor of the imaging device. The acquired position information is stored in the background object position information 1203.

S1003において、S1002において、取得した背景物に対しユーザが分光測色器により背景物固体の分光分布(Rx(λ))を取得する。取得した背景物固体の分光分布(Rx(λ))を分割された領域の識別番号と共に対象物検知装置203の入力装置306により入力し、背景物情報テーブルの背景物固体の分光分布1204に格納する。本実施形態では、領域ごとに背景物の固体の分光分布を取得したが、同じ背景物であれば一度測色するだけでもよい。また、本実施形態では、領域ごとに背景物固体の分光分布を格納するが、背景物情報テーブルと、背景物固体の分光分布を別テーブルにして別管理しても構わない。   In step S1003, in step S1002, the user acquires the spectral distribution (Rx (λ)) of the background object solid using the spectrocolorimeter with respect to the acquired background object. The obtained spectral distribution (Rx (λ)) of the background object solid is input together with the identification number of the divided area by the input device 306 of the object detection device 203 and stored in the background object solid spectral distribution 1204 of the background object information table. To do. In this embodiment, the spectral distribution of the solid of the background object is acquired for each region. However, if the background object is the same, the color may be measured once. In this embodiment, the spectral distribution of the background object solid is stored for each region. However, the background object information table and the spectral distribution of the background object solid may be managed separately as separate tables.

<監視装置における追跡対象物の検知処理>
本実施形態における追跡対象物の検知処理について図9のフローチャートを用いて説明する。
S901において、監視制御装置101より各監視装置(例として、監視装置103で説明する)に転送された追跡対象物情報を、ネットワーク108を経由して取得する。取得した追加対象物情報は監視装置103のRAM303に保持される。
<Detection processing of tracking object in monitoring device>
The tracking target object detection process in this embodiment will be described with reference to the flowchart of FIG.
In step S <b> 901, the tracking target object information transferred from the monitoring control apparatus 101 to each monitoring apparatus (explained by the monitoring apparatus 103 as an example) is acquired via the network 108. The acquired additional object information is held in the RAM 303 of the monitoring device 103.

S902において、監視装置103の背景物情報テーブルの取得を行う。この背景物情報テーブルの取得処理は、「追跡対象物の取得処理」のS601の「背景物情報テーブルの取得処理」と同じである。ここでは、追跡対象物固体に近傍する背景物を抽出し、抽出した背景物の背景物情報を取得する。   In step S902, the background object information table of the monitoring apparatus 103 is acquired. The background object information table acquisition process is the same as the “background object information table acquisition process” in S601 of “tracking target object acquisition process”. Here, the background object close to the tracking object solid is extracted, and the background object information of the extracted background object is acquired.

S903において、監視装置103で撮影された映像データから追跡対象物の候補を取得するために注目画像データを記憶装置407から取得する。すなわち、追跡対象物を特定した監視装置以外の監視装置にて撮影した分光画像データを、その監視装置より取得する。この分光画像データは、注目画像データである。
S904において、注目画像データ内に存在するオブジェクトを自動抽出する。そして、抽出されたオブジェクトにおいて、対象物候補画像データに設定する。そして、S903で取得した分光画像データより追跡対象物の候補となるオブジェクトの分光反射率を取得する。ここで、抽出されたオブジェクトの全てに対して色特徴量による人物検出を行うのではなく、従来の認識技術(顔認識や歩行の状態を検知して認識)を用いて、予め色特徴量を求めるオブジェクトを選択して決定しておいてもよい。
In step S <b> 903, attention image data is acquired from the storage device 407 in order to acquire a tracking target candidate from the video data captured by the monitoring device 103. That is, spectral image data captured by a monitoring device other than the monitoring device that identifies the tracking object is acquired from the monitoring device. This spectral image data is attention image data.
In step S904, objects existing in the target image data are automatically extracted. Then, in the extracted object, the target object image data is set. Then, the spectral reflectance of the object that is a candidate for the tracking target is acquired from the spectral image data acquired in S903. Here, instead of performing person detection based on color feature amounts for all the extracted objects, the color feature amounts are determined in advance using conventional recognition technology (detection by detecting the state of face recognition or walking). The object to be obtained may be selected and determined.

S905において、対象物候補画像の背景物情報の取得を行う。この処理は、「追跡対象物の取得処理」のS604の「追跡対象物の背景物情報の取得」と同様に行う。すなわち、追跡対象物の候補となるオブジェクトを撮影した監視装置に保持している背景物情報より、追跡対象物の候補となるオブジェクトに対応する背景物を特定し、その背景物の分光反射率を、S903で取得した分光画像データより取得する。
S906において、S905で求めた背景物情報とS902で求めた背景物情報テーブルより背景物固体の分光分布(Rm(λ))を取得する。すなわち、追跡対象物の候補となるオブジェクトを撮影した監視装置に保持している背景物情報より背景物の固体の分光分布を取得する。
In step S905, the background object information of the candidate object image is acquired. This processing is performed in the same manner as “acquisition of background information of tracking target” in S604 of “tracking target acquisition processing”. In other words, the background object corresponding to the object to be tracked object candidate is identified from the background object information held in the monitoring device that captured the object to be tracked object object, and the spectral reflectance of the background object is determined. , Acquired from the spectral image data acquired in S903.
In S906, the spectral distribution (Rm (λ)) of the background object solid is acquired from the background object information obtained in S905 and the background object information table obtained in S902. That is, the spectral distribution of the solid of the background object is acquired from the background object information held in the monitoring device that captured the object that is a candidate for the tracking target.

S907において、S906で取得した背景物の固体の分光分布(Rm(λ))とS903で求めた注目画像データより背景物の分光反射率(Cm(λ))を取得し、以下の式3より入射光の分光分布(Em(λ))を算出する。すなわち、S906で取得した背景物の固体の分光分布とS905で取得した背景物の分光反射率より、追跡対象物の候補となるオブジェクトへの入射光の分光分布を求める。すなわち、追跡対象物と同様に、異なる撮影画像データ内の追跡対象物の候補となるオブジェクトへの入射光の分光分布を求める。
Em(λ)=Cm(λ)/Rm(λ) ・・・式3
算出された入射光の分光分布(Em(λ))は対象物候補情報テーブルの撮影入射光情報705としてRAM303に格納される。
In S907, the spectral reflectance (Cm (λ)) of the background object obtained in S906 and the spectral reflectance (Cm (λ)) of the background object are obtained from the target image data obtained in S903. A spectral distribution (Em (λ)) of incident light is calculated. That is, the spectral distribution of the incident light on the object to be a tracking target object is obtained from the solid spectral distribution of the background object acquired in S906 and the spectral reflectance of the background object acquired in S905. That is, similarly to the tracking object, the spectral distribution of the incident light on the object to be a tracking object candidate in different captured image data is obtained.
Em (λ) = Cm (λ) / Rm (λ) Equation 3
The calculated spectral distribution (Em (λ)) of incident light is stored in the RAM 303 as photographing incident light information 705 in the object candidate information table.

S908において、S907で取得した入射光の分光分布(Em(λ))とS904で取得した注目画像データより対象物候補の分光反射率(Cn(λ))を取得し、対象物候補の固体の分光分布(Rn(λ))を式4により算出する。以上のように、S907で求めた入射光の分光分布とS904で取得した追跡対象物の候補となるオブジェクトの分光反射率より、追跡対象物の候補となるオブジェクトの固体の分光分布を求める。すなわち、S606で算出した入射光の分光分布とS908で算出した追跡対象物の候補となるオブジェクトの分光反射率より、追跡対象物の候補となるオブジェクトの固体の分光分布を求める。
Rn(λ)=Cn(λ)×Em(λ) ・・・式4
求めた対象物候補の固体の分光分布(Rn(λ))は、対象物候補情報テーブルの対象物固体画像の分光反射率704に格納される。
In S908, the spectral reflectance (Cn (λ)) of the object candidate is acquired from the spectral distribution (Em (λ)) of the incident light acquired in S907 and the target image data acquired in S904. The spectral distribution (Rn (λ)) is calculated by Equation 4. As described above, the solid spectral distribution of the object as the tracking target candidate is obtained from the spectral distribution of the incident light obtained in S907 and the spectral reflectance of the object as the tracking target candidate acquired in S904. That is, the solid spectral distribution of the object as the tracking target candidate is obtained from the spectral distribution of the incident light calculated at S606 and the spectral reflectance of the object as the tracking target candidate calculated at S908.
Rn (λ) = Cn (λ) × Em (λ) Equation 4
The obtained spectral distribution (Rn (λ)) of the target object solid is stored in the spectral reflectance 704 of the target object solid image in the target object information table.

S909において、S901で取得した追跡対象物情報より追跡対象物固体の分光分布(Ry(λ))をRAM303より取得する。
S910において、S908で求めた追跡対象物候補の固体の分光分布(Rn(λ))とS909で取得した追跡対象物固体の分光分布(Ry(λ))を取得し比較して類似度を求める。なお、追跡対象物と追跡対象物候補の画像は必ずしも大きさが一致するとは限らない。そのため、例えば、対象物における分光反射率において各波長の最大・最小範囲を求め比較を行う。
In S909, the spectral distribution (Ry (λ)) of the tracking target object solid is acquired from the RAM 303 from the tracking target information acquired in S901.
In S910, the spectral distribution (Rn (λ)) of the tracking object candidate solid obtained in S908 and the spectral distribution (Ry (λ)) of the tracking target solid acquired in S909 are acquired and compared to obtain the similarity. . Note that the size of the tracking target object and the tracking target candidate image does not necessarily match. Therefore, for example, the maximum and minimum ranges of each wavelength are obtained and compared in the spectral reflectance of the object.

図13を例にあげると、追跡対象物固体の分光反射率が図13(a)のような範囲であったとする。また、追跡対象物の候補において固体の分光反射率が図13(b)のような範囲であった場合、2つを比較すると図13(c)に示すような差異が発生する。
各波長において定められた閾値内に分光反射率が含まれる場合、S912において追跡対象物の候補として、監視制御装置101に追跡対象物候補情報として、対象物候補情報テーブルを転送する。なお、取得した対象物候補は類似度の高いものから転送する。このように、S607で求めた追跡対象物固体の分光分布とS908で求めた追跡対象物の候補となるオブジェクトの固体の分光分布とを比較し、類似度に基づいて追跡対象物の候補となるオブジェクトの情報を決定する。以上のように、本実施形態では、追跡対象物の固体の分光分布と追跡対象物の候補のオブジェクトの固体の分光分布を比較する。其々の固体の分光分布は、以下のようにして求める。すなわち、撮影された画像データより、背景物を抽出し、その背景物の入射光の分光分布を求め、その入射光の分光分布を用いて、追跡対象物もしくは追跡対象物の候補のオブジェクトの分光反射率より、固体の分光分布を求める。
Taking FIG. 13 as an example, it is assumed that the spectral reflectance of the tracking object solid is in the range as shown in FIG. Further, when the spectral reflectance of the solid in the tracking target candidate is in the range as shown in FIG. 13B, a difference as shown in FIG. 13C occurs when the two are compared.
If the spectral reflectance is included within the threshold value determined for each wavelength, the object candidate information table is transferred as tracking object candidate information to the monitoring control apparatus 101 as a tracking object candidate in S912. In addition, the acquired object candidate is transferred from a thing with a high similarity. In this way, the spectral distribution of the tracking object solid obtained in S607 is compared with the spectral distribution of the solid object of the object that is the tracking object candidate obtained in S908, and the tracking object candidate is obtained based on the similarity. Determine object information. As described above, in the present embodiment, the solid spectral distribution of the tracking target object is compared with the solid spectral distribution of the tracking target candidate object. The spectral distribution of each solid is determined as follows. That is, the background object is extracted from the captured image data, the spectral distribution of the incident light of the background object is obtained, and the spectral distribution of the incident light is used to determine the spectral of the tracking object or the candidate object of the tracking object. The spectral distribution of the solid is obtained from the reflectance.

[第2の実施形態]
本発明の第1の実施形態における監視装置201は、監視制御装置へ転送するデータを削減し対象物の検知処理を分散させるために、各監視装置201内に対象物検知装置203を含め、撮像装置202と対象物検知装置203で構成されていた。しかし、第2の実施形態では、各監視装置201における対象物検知装置203の設置負担を考え、監視制御装置にて対象物の検知処理を実施する。
[Second Embodiment]
The monitoring apparatus 201 according to the first embodiment of the present invention includes an object detection apparatus 203 in each monitoring apparatus 201 in order to reduce the data to be transferred to the monitoring control apparatus and distribute the object detection processing. The apparatus 202 and the object detection apparatus 203 were comprised. However, in the second embodiment, considering the installation burden of the object detection device 203 in each monitoring device 201, the object detection processing is performed by the monitoring control device.

第2の実施形態における画像処理装置の構成要素の一例を、図14を用いて説明する。
図14に示すように、本実施形態の画像処理装置においては、監視制御装置1401は監視制御部1402と、対象物検知部1403で構成される。また、監視装置は撮像装置1410で構成される。
この場合、撮像装置1410で撮影された映像データはネットワーク108を経由して監視制御装置1401に逐次転送される。
An example of components of the image processing apparatus according to the second embodiment will be described with reference to FIG.
As shown in FIG. 14, in the image processing apparatus of this embodiment, the monitoring control device 1401 includes a monitoring control unit 1402 and an object detection unit 1403. In addition, the monitoring device includes an imaging device 1410.
In this case, video data captured by the imaging device 1410 is sequentially transferred to the monitoring control device 1401 via the network 108.

また、この映像データは転送した撮像装置と対応づけて管理される。また、各監視装置で保持されていた背景情報テーブルは対象物検知部1403により、監視装置と背景情報テーブルで対応づけて管理される。これにより、映像データの撮影は分散された撮像装置1410(監視カメラ)上で実施され、画像データ等のデータ管理及び検知処理等は監視制御装置1401において実施する。   The video data is managed in association with the transferred imaging device. The background information table held in each monitoring device is managed by the object detection unit 1403 in association with the monitoring device and the background information table. As a result, the video data is captured on the distributed imaging devices 1410 (monitoring cameras), and data management and detection processing of image data and the like are performed in the monitoring control device 1401.

第1の実施形態における画像処理装置の監視装置の背景物情報テーブルの取得処理では、人が背景物に対して分光測色器により背景物の固体の分光分布を求めていた。しかし、第3の実施形態における画像処理装置では、これに限らず、既存の背景物の固体の分光分布を保持するデータベースがあった場合、それより求めても構わない。   In the acquisition processing of the background object information table of the monitoring apparatus of the image processing apparatus according to the first embodiment, a person obtains the spectral distribution of the solid of the background object using a spectrocolorimeter with respect to the background object. However, in the image processing apparatus according to the third embodiment, the present invention is not limited to this, and if there is a database that holds the spectral distribution of the solid of the existing background object, it may be obtained from that.

(その他の実施形態)
また、本発明は、以下の処理を実行することによっても実現される。即ち、前述した実施形態の機能を実現するソフトウェア(コンピュータプログラム)を、ネットワーク又は各種のコンピュータ読み取り可能な記憶媒体を介してシステム或いは装置に供給する。そして、そのシステム或いは装置のコンピュータ(または、CPUやMPU等)がプログラムを読み出して実行する処理である。
(Other embodiments)
The present invention can also be realized by executing the following processing. That is, software (computer program) that implements the functions of the above-described embodiments is supplied to a system or apparatus via a network or various computer-readable storage media. Then, the computer (or CPU, MPU, etc.) of the system or apparatus reads out and executes the program.

101 監視制御装置
102〜107 監視装置
108 ネットワーク
101 monitoring control devices 102 to 107 monitoring device 108 network

Claims (9)

監視制御装置および複数の監視装置により構成され、前記複数の監視装置において撮影された画像データを解析し対象物の特定を行う画像処理装置において、
撮影される画像領域内に存在する物体の位置情報および物体固体の分光分布情報をもつ背景物情報を保持する保持手段と、
追跡対象物固体に近傍する背景物を抽出し、前記抽出した背景物の背景物情報を取得する抽出手段と、
前記抽出した背景物情報と撮影された画像データの分光反射率より背景物への入射光の分光分布を求める算出手段と、
前記背景物への入射光の分光分布と撮影された画像データより追跡対象物の分光反射率を求めて、前記追跡対象物固体の分光分布を求める算出手段と、
前記追跡対象物と同様に、異なる撮影画像データ内の追跡対象物の候補となるオブジェクトへの入射光の分光分布を求める算出手段と、
前記算出した入射光の分光分布と前記追跡対象物の候補となるオブジェクトの分光反射率より、追跡対象物の候補となるオブジェクトの固体の分光分布を求める算出手段と、
前記求めた追跡対象物固体の分光分布と前記求めた追跡対象物の候補となるオブジェクトの固体の分光分布とを比較し、類似度に基づいて追跡対象物の候補となるオブジェクトの情報を決定する決定手段と、
を有することを特徴とする画像処理装置。
In an image processing apparatus configured by a monitoring control device and a plurality of monitoring devices, analyzing image data taken by the plurality of monitoring devices and specifying an object,
Holding means for holding background object information having position information of an object existing in a captured image region and spectral distribution information of an object solid;
Extracting means for extracting a background object close to the tracking object solid, and acquiring background object information of the extracted background object;
Calculating means for obtaining a spectral distribution of incident light on the background object from the extracted background object information and the spectral reflectance of the captured image data;
A calculation means for obtaining a spectral distribution of the tracking object solid by obtaining a spectral reflectance of the tracking object from a spectral distribution of incident light on the background object and the captured image data;
Similar to the tracking object, calculation means for obtaining a spectral distribution of incident light on an object to be a tracking object candidate in different captured image data;
From the calculated spectral distribution of the incident light and the spectral reflectance of the object to be tracked object candidate, a calculation means for obtaining the solid spectral distribution of the object to be tracked object candidate;
The obtained spectral distribution of the tracking object solid is compared with the obtained spectral distribution of the solid object of the object to be tracked, and information on the object to be the tracking object candidate is determined based on the similarity. A determination means;
An image processing apparatus comprising:
監視制御装置および複数の監視装置により構成され、前記複数の監視装置において撮影された画像データを解析し対象物の特定を行う画像処理装置において、
追跡対象物を撮影した分光画像データを監視装置より取得する第1の取得手段と、
前記第1の取得手段で取得した分光画像データより追跡対象物の分光反射率を取得する第2の取得手段と、
追跡対象物を撮影した監視装置に保持している背景物情報より、追跡対象物に対応する背景物を特定し、その背景物の分光反射率を分光画像データより取得する第3の取得手段と、
追跡対象物を撮影した監視装置に保持している背景物情報より、背景物の固体の分光分布を取得する第4の取得手段と、
前記第4の取得手段で取得した背景物の固体の分光分布と、前記第3の取得手段で取得した背景物の分光反射率より追跡対象物への入射光の分光分布を求める第1の算出手段と、
前記第1の算出手段で求めた入射光の分光分布と、前記第2の取得手段で取得した追跡対象物の分光反射率より追跡対象物固体の分光分布を求める第2の算出手段と、
前記追跡対象物を特定した監視装置以外の監視装置にて撮影した分光画像データを監視装置より取得する第5の取得手段と、
前記第5の取得手段で取得した分光画像データより追跡対象物の候補となるオブジェクトの分光反射率を取得する第6の取得手段と、
追跡対象物の候補となるオブジェクトを撮影した監視装置に保持している背景物情報より、追跡対象物の候補となるオブジェクトに対応する背景物を特定し、その背景物の分光反射率を前記分光画像データより取得する第7の取得手段と、
追跡対象物の候補となるオブジェクトを撮影した監視装置に保持している背景物情報より背景物の固体の分光分布を取得する第8の取得手段と、
前記第8の取得手段で取得した背景物の固体の分光分布と前記第7の取得手段で取得した背景物の分光反射率より、追跡対象物の候補となるオブジェクトへの入射光の分光分布を求める第3の算出手段と、
前記第3の算出手段で求めた入射光の分光分布と前記第6の取得手段で取得した追跡対象物の候補となるオブジェクトの分光反射率より追跡対象物の候補となるオブジェクトの固体の分光分布を求める第4の算出手段と、
前記第2の算出手段で求めた追跡対象物固体の分光分布と前記第4の算出手段で求めた追跡対象物の候補となるオブジェクトの固体の分光分布とを比較し、類似度に基づいて追跡対象物の候補となるオブジェクトの情報を決定する決定手段と、
を有することを特徴とする画像処理装置。
In an image processing apparatus configured by a monitoring control device and a plurality of monitoring devices, analyzing image data taken by the plurality of monitoring devices and specifying an object,
First acquisition means for acquiring spectral image data obtained by photographing the tracking object from the monitoring device;
Second acquisition means for acquiring the spectral reflectance of the tracking object from the spectral image data acquired by the first acquisition means;
A third acquisition means for identifying a background object corresponding to the tracking object from the background object information held in the monitoring device that captured the tracking object, and acquiring the spectral reflectance of the background object from the spectral image data; ,
A fourth acquisition means for acquiring the spectral distribution of the solid of the background object from the background object information held in the monitoring device that captured the tracking object;
A first calculation for obtaining a spectral distribution of incident light on the tracking object from the spectral distribution of the solid of the background object acquired by the fourth acquisition means and the spectral reflectance of the background object acquired by the third acquisition means. Means,
Second calculation means for obtaining the spectral distribution of the tracking object solid from the spectral distribution of the incident light obtained by the first calculation means and the spectral reflectance of the tracking object obtained by the second acquisition means;
Fifth acquisition means for acquiring from the monitoring device spectral image data captured by a monitoring device other than the monitoring device that identifies the tracking object;
Sixth acquisition means for acquiring a spectral reflectance of an object to be a tracking target candidate from the spectral image data acquired by the fifth acquisition means;
The background object corresponding to the object to be tracked object candidate is identified from the background object information held in the monitoring device that has photographed the object to be tracked object candidate, and the spectral reflectance of the background object is determined as the spectral object. Seventh acquisition means for acquiring from image data;
An eighth acquisition means for acquiring the spectral distribution of the solid of the background object from the background object information held in the monitoring device that captured the object that is the candidate for the tracking object;
Based on the spectral distribution of the solid of the background object acquired by the eighth acquisition unit and the spectral reflectance of the background object acquired by the seventh acquisition unit, the spectral distribution of the incident light on the object to be tracked object is obtained. A third calculating means to obtain;
Based on the spectral distribution of the incident light obtained by the third calculating means and the spectral reflectance of the object as the tracking target candidate acquired by the sixth acquiring means, the spectral distribution of the solid of the object as the tracking target candidate is obtained. A fourth calculating means for obtaining
The spectral distribution of the tracking target object solid obtained by the second calculation means is compared with the spectral distribution of the solid object of the object that is the tracking target candidate obtained by the fourth calculation means, and tracking is performed based on the similarity. A determination means for determining information on an object that is a candidate for a target;
An image processing apparatus comprising:
前記背景物情報は、各監視装置が予め保持し、
撮影領域を分割した領域ごとに、分割した領域の情報、分割した撮影領域に存在する背景物の位置情報、背景物の固体の分光分布を保持することを特徴とする請求項1または2に記載の画像処理装置。
The background object information is held in advance by each monitoring device,
The information of the divided area, the position information of the background object existing in the divided imaging area, and the spectral distribution of the solid of the background object are held for each area obtained by dividing the imaging area. Image processing apparatus.
前記背景物情報は、監視制御装置が予め保持し、
撮影領域を分割した領域ごとに、分割した領域の情報、分割した撮影領域に存在する背景物の位置情報、背景物の固体の分光分布を保持することを特徴とする請求項1または2に記載の画像処理装置。
The background object information is held in advance by the monitoring control device,
The information of the divided area, the position information of the background object existing in the divided imaging area, and the spectral distribution of the solid of the background object are held for each area obtained by dividing the imaging area. Image processing apparatus.
監視制御装置および複数の監視装置により構成され、前記複数の監視装置において撮影された画像データを解析し対象物の特定を行う画像処理装置の制御方法において、
撮影される画像領域内に存在する物体の位置情報および物体固体の分光分布情報をもつ背景物情報を保持する保持工程と、
追跡対象物固体に近傍する背景物を抽出し、前記抽出した背景物の背景物情報を取得する抽出工程と、
前記抽出した背景物情報と撮影された画像データの分光反射率より背景物への入射光の分光分布を求める算出工程と、
前記背景物への入射光の分光分布と撮影された画像データより追跡対象物の分光反射率を求めて、前記追跡対象物固体の分光分布を求める算出工程と、
前記追跡対象物と同様に、異なる撮影画像データ内の追跡対象物の候補となるオブジェクトへの入射光の分光分布を求める算出工程と、
前記算出した入射光の分光分布と前記追跡対象物の候補となるオブジェクトの分光反射率より、追跡対象物の候補となるオブジェクトの固体の分光分布を求める算出工程と、
前記求めた追跡対象物固体の分光分布と前記求めた追跡対象物の候補となるオブジェクトの固体の分光分布とを比較し、類似度に基づいて追跡対象物の候補となるオブジェクトの情報を決定する決定工程と、
を有することを特徴とする画像処理装置の制御方法。
In a control method of an image processing apparatus configured by a monitoring control device and a plurality of monitoring devices, analyzing image data taken by the plurality of monitoring devices and specifying an object,
A holding step for holding background object information having position information of an object existing in a captured image region and spectral distribution information of an object solid;
An extraction step of extracting a background object close to the tracking object solid and acquiring background object information of the extracted background object;
A calculation step for obtaining a spectral distribution of incident light on the background object from the extracted background object information and the spectral reflectance of the captured image data;
Obtaining the spectral reflectance of the tracking object from the spectral distribution of the incident light on the background object and the captured image data, calculating the spectral distribution of the tracking object solid,
Similar to the tracking object, a calculation step for obtaining a spectral distribution of incident light on an object to be a tracking object candidate in different captured image data;
From the calculated spectral distribution of the incident light and the spectral reflectance of the object as the tracking target object, a calculation step for obtaining the solid spectral distribution of the object as the tracking target candidate;
The obtained spectral distribution of the tracking object solid is compared with the obtained spectral distribution of the solid object of the object to be tracked, and information on the object to be the tracking object candidate is determined based on the similarity. A decision process;
A control method for an image processing apparatus, comprising:
監視制御装置および複数の監視装置により構成され、前記複数の監視装置において撮影された画像データを解析し対象物の特定を行う画像処理装置の制御方法において、
追跡対象物を撮影した分光画像データを監視装置より取得する第1の取得工程と、
前記第1の取得工程で取得した分光画像データより追跡対象物の分光反射率を取得する第2の取得工程と、
追跡対象物を撮影した監視装置に保持している背景物情報より、追跡対象物に対応する背景物を特定し、その背景物の分光反射率を分光画像データより取得する第3の取得工程と、
追跡対象物を撮影した監視装置に保持している背景物情報より、背景物の固体の分光分布を取得する第4の取得工程と、
前記第4の取得工程で取得した背景物の固体の分光分布と、前記第3の取得工程で取得した背景物の分光反射率より追跡対象物への入射光の分光分布を求める第1の算出工程と、
前記第1の算出工程で求めた入射光の分光分布と、前記第2の取得工程で取得した追跡対象物の分光反射率より追跡対象物固体の分光分布を求める第2の算出工程と、
前記追跡対象物を特定した監視装置以外の監視装置にて撮影した分光画像データを監視装置より取得する第5の取得工程と、
前記第5の取得工程で取得した分光画像データより追跡対象物の候補となるオブジェクトの分光反射率を取得する第6の取得工程と、
追跡対象物の候補となるオブジェクトを撮影した監視装置に保持している背景物情報より、追跡対象物の候補となるオブジェクトに対応する背景物を特定し、その背景物の分光反射率を前記分光画像データより取得する第7の取得工程と、
追跡対象物の候補となるオブジェクトを撮影した監視装置に保持している背景物情報より背景物の固体の分光分布を取得する第8の取得工程と、
前記第8の取得工程で取得した背景物の固体の分光分布と前記第7の取得工程で取得した背景物の分光反射率より、追跡対象物の候補となるオブジェクトへの入射光の分光分布を求める第3の算出工程と、
前記第3の算出工程で求めた入射光の分光分布と前記第6の取得工程で取得した追跡対象物の候補となるオブジェクトの分光反射率より追跡対象物の候補となるオブジェクトの固体の分光分布を求める第4の算出工程と、
前記第2の算出工程で求めた追跡対象物固体の分光分布と前記第4の算出工程で求めた追跡対象物の候補となるオブジェクトの固体の分光分布とを比較し、類似度に基づいて追跡対象物の候補となるオブジェクトの情報を決定する決定工程と、
を有することを特徴とする画像処理装置の制御方法。
In a control method of an image processing apparatus configured by a monitoring control device and a plurality of monitoring devices, analyzing image data taken by the plurality of monitoring devices and specifying an object,
A first acquisition step of acquiring, from the monitoring device, spectral image data obtained by imaging the tracking object;
A second acquisition step of acquiring the spectral reflectance of the tracking object from the spectral image data acquired in the first acquisition step;
A third acquisition step of identifying a background object corresponding to the tracking object from the background object information held in the monitoring device that captured the tracking object, and acquiring the spectral reflectance of the background object from the spectral image data; ,
A fourth acquisition step for acquiring a spectral distribution of the solid of the background object from the background object information held in the monitoring device that images the tracking object;
The first calculation for obtaining the spectral distribution of the incident light on the tracking object from the spectral distribution of the solid of the background object acquired in the fourth acquisition step and the spectral reflectance of the background object acquired in the third acquisition step. Process,
A second calculation step of obtaining a spectral distribution of the tracking object solid from the spectral distribution of the incident light obtained in the first calculation step and the spectral reflectance of the tracking object obtained in the second acquisition step;
A fifth acquisition step of acquiring from the monitoring device spectral image data captured by a monitoring device other than the monitoring device that identifies the tracking object;
A sixth acquisition step of acquiring the spectral reflectance of the object that is a candidate for the tracking target from the spectral image data acquired in the fifth acquisition step;
The background object corresponding to the object to be tracked object candidate is identified from the background object information held in the monitoring device that has photographed the object to be tracked object candidate, and the spectral reflectance of the background object is determined as the spectral object. A seventh acquisition step of acquiring from image data;
An eighth acquisition step of acquiring the spectral distribution of the solid of the background object from the background object information held in the monitoring device that captured the object that is a candidate for the tracking target;
Based on the spectral distribution of the solid of the background object acquired in the eighth acquisition step and the spectral reflectance of the background object acquired in the seventh acquisition step, the spectral distribution of incident light on the object that is a candidate for the tracking target is calculated. A third calculation step to be obtained;
Based on the spectral distribution of the incident light obtained in the third calculation step and the spectral reflectance of the object as the tracking target candidate acquired in the sixth acquisition step, the spectral distribution of the solid of the object as the tracking target candidate A fourth calculation step for obtaining
The spectral distribution of the tracking target object solid obtained in the second calculation step is compared with the spectral distribution of the solid of the object that is the tracking target candidate obtained in the fourth calculation step, and tracking is performed based on the similarity. A determination step for determining information on objects that are candidates for the object;
A control method for an image processing apparatus, comprising:
監視制御装置および複数の監視装置により構成され、前記複数の監視装置において撮影された画像データを解析し対象物の特定を行う画像処理装置の制御方法をコンピュータに実行させるプログラムにおいて、
撮影される画像領域内に存在する物体の位置情報および物体固体の分光分布情報をもつ背景物情報を保持する保持手順と、
追跡対象物固体に近傍する背景物を抽出し、前記抽出した背景物の背景物情報を取得する抽出手順と、
前記抽出した背景物情報と撮影された画像データの分光反射率より背景物への入射光の分光分布を求める算出手順と、
前記背景物への入射光の分光分布と撮影された画像データより追跡対象物の分光反射率を求めて、前記追跡対象物固体の分光分布を求める算出手順と、
前記追跡対象物と同様に、異なる撮影画像データ内の追跡対象物の候補となるオブジェクトへの入射光の分光分布を求める算出手順と、
前記算出した入射光の分光分布と前記追跡対象物の候補となるオブジェクトの分光反射率より、追跡対象物の候補となるオブジェクトの固体の分光分布を求める算出手順と、
前記求めた追跡対象物固体の分光分布と前記求めた追跡対象物の候補となるオブジェクトの固体の分光分布とを比較し、類似度に基づいて追跡対象物の候補となるオブジェクトの情報を決定する決定手順と、
をコンピュータに実行させることを特徴とするプログラム。
In a program comprising a monitoring control device and a plurality of monitoring devices, causing a computer to execute a control method of an image processing device that analyzes image data taken by the plurality of monitoring devices and identifies an object,
A holding procedure for holding background object information having position information of an object existing in a captured image region and spectral distribution information of an object solid,
An extraction procedure for extracting a background object close to the tracking object solid and acquiring background object information of the extracted background object;
A calculation procedure for obtaining a spectral distribution of incident light on the background object from the extracted background object information and the spectral reflectance of the captured image data,
Obtaining the spectral reflectance of the tracking object from the spectral distribution of the incident light on the background object and the captured image data, and calculating the spectral distribution of the tracking object solid,
Similar to the tracking object, a calculation procedure for obtaining a spectral distribution of incident light on an object to be a tracking object candidate in different captured image data;
From the calculated spectral distribution of the incident light and the spectral reflectance of the object as the tracking target object, a calculation procedure for obtaining the solid spectral distribution of the object as the tracking target candidate;
The obtained spectral distribution of the tracking object solid is compared with the obtained spectral distribution of the solid object of the object to be tracked, and information on the object to be the tracking object candidate is determined based on the similarity. Decision procedure;
A program that causes a computer to execute.
監視制御装置および複数の監視装置により構成され、前記複数の監視装置において撮影された画像データを解析し対象物の特定を行う画像処理装置の制御方法をコンピュータに実行させるプログラムにおいて、
追跡対象物を撮影した分光画像データを監視装置より取得する第1の取得手順と、
前記第1の取得手順で取得した分光画像データより追跡対象物の分光反射率を取得する第2の取得手順と、
追跡対象物を撮影した監視装置に保持している背景物情報より、追跡対象物に対応する背景物を特定し、その背景物の分光反射率を分光画像データより取得する第3の取得手順と、
追跡対象物を撮影した監視装置に保持している背景物情報より、背景物の固体の分光分布を取得する第4の取得手順と、
前記第4の取得手順で取得した背景物の固体の分光分布と、前記第3の取得手順で取得した背景物の分光反射率より追跡対象物への入射光の分光分布を求める第1の算出手順と、
前記第1の算出手順で求めた入射光の分光分布と、前記第2の取得手順で取得した追跡対象物の分光反射率より追跡対象物固体の分光分布を求める第2の算出手順と、
前記追跡対象物を特定した監視装置以外の監視装置にて撮影した分光画像データを監視装置より取得する第5の取得手順と、
前記第5の取得手順で取得した分光画像データより追跡対象物の候補となるオブジェクトの分光反射率を取得する第6の取得手順と、
追跡対象物の候補となるオブジェクトを撮影した監視装置に保持している背景物情報より、追跡対象物の候補となるオブジェクトに対応する背景物を特定し、その背景物の分光反射率を前記分光画像データより取得する第7の取得手順と、
追跡対象物の候補となるオブジェクトを撮影した監視装置に保持している背景物情報より背景物の固体の分光分布を取得する第8の取得手順と、
前記第8の取得手順で取得した背景物の固体の分光分布と前記第7の取得手順で取得した背景物の分光反射率より、追跡対象物の候補となるオブジェクトへの入射光の分光分布を求める第3の算出手順と、
前記第3の算出手順で求めた入射光の分光分布と前記第6の取得手順で取得した追跡対象物の候補となるオブジェクトの分光反射率より追跡対象物の候補となるオブジェクトの固体の分光分布を求める第4の算出手順と、
前記第2の算出手順で求めた追跡対象物固体の分光分布と前記第4の算出手順で求めた追跡対象物の候補となるオブジェクトの固体の分光分布とを比較し、類似度に基づいて追跡対象物の候補となるオブジェクトの情報を決定する決定手順と、
をコンピュータに実行させることを特徴とするプログラム。
In a program comprising a monitoring control device and a plurality of monitoring devices, causing a computer to execute a control method of an image processing device that analyzes image data taken by the plurality of monitoring devices and identifies an object,
A first acquisition procedure for acquiring spectral image data obtained by photographing a tracking object from a monitoring device;
A second acquisition procedure for acquiring the spectral reflectance of the tracking object from the spectral image data acquired in the first acquisition procedure;
A third acquisition procedure for identifying a background object corresponding to the tracking object from the background object information held in the monitoring device that captured the tracking object and acquiring the spectral reflectance of the background object from the spectral image data; ,
A fourth acquisition procedure for acquiring the spectral distribution of the solid of the background object from the background object information held in the monitoring device that captured the tracking object;
First calculation for obtaining the spectral distribution of the incident light on the tracking object from the spectral distribution of the solid of the background object acquired in the fourth acquisition procedure and the spectral reflectance of the background object acquired in the third acquisition procedure. Procedure and
A second calculation procedure for obtaining a spectral distribution of the tracking object solid from the spectral distribution of the incident light obtained in the first calculation procedure and the spectral reflectance of the tracking object obtained in the second acquisition procedure;
A fifth acquisition procedure for acquiring, from the monitoring device, spectral image data captured by a monitoring device other than the monitoring device that identifies the tracking object;
A sixth acquisition procedure for acquiring the spectral reflectance of an object as a tracking target candidate from the spectral image data acquired in the fifth acquisition procedure;
The background object corresponding to the object to be tracked object candidate is identified from the background object information held in the monitoring device that has photographed the object to be tracked object candidate, and the spectral reflectance of the background object is determined as the spectral object. A seventh acquisition procedure for acquiring from image data;
An eighth acquisition procedure for acquiring the spectral distribution of the solid of the background object from the background object information held in the monitoring device that captured the object to be tracked object candidate;
From the spectral distribution of the solid of the background object acquired in the eighth acquisition procedure and the spectral reflectance of the background object acquired in the seventh acquisition procedure, the spectral distribution of the incident light on the object that is a candidate for the tracking target is calculated. A third calculation procedure to be obtained;
The spectral distribution of the solid of the object that is a candidate for the tracking target based on the spectral distribution of the incident light obtained in the third calculation procedure and the spectral reflectance of the object that is the candidate for the tracking target acquired in the sixth acquisition procedure. A fourth calculation procedure for obtaining
The spectral distribution of the tracking object solid obtained in the second calculation procedure is compared with the spectral distribution of the solid of the object that is a candidate for the tracking object obtained in the fourth calculation procedure, and tracking is performed based on the similarity. A decision procedure for determining information on objects that are candidates for the object;
A program that causes a computer to execute.
請求項7または8に記載のプログラムを記憶したことを特徴とするコンピュータ読み取り可能な記憶媒体。   A computer-readable storage medium storing the program according to claim 7 or 8.
JP2014149040A 2014-07-22 2014-07-22 Image processing system and image processing system control method Pending JP2016025522A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2014149040A JP2016025522A (en) 2014-07-22 2014-07-22 Image processing system and image processing system control method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2014149040A JP2016025522A (en) 2014-07-22 2014-07-22 Image processing system and image processing system control method

Publications (1)

Publication Number Publication Date
JP2016025522A true JP2016025522A (en) 2016-02-08

Family

ID=55271931

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014149040A Pending JP2016025522A (en) 2014-07-22 2014-07-22 Image processing system and image processing system control method

Country Status (1)

Country Link
JP (1) JP2016025522A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019029935A (en) * 2017-08-02 2019-02-21 キヤノン株式会社 Image processing system and control method thereof

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019029935A (en) * 2017-08-02 2019-02-21 キヤノン株式会社 Image processing system and control method thereof
JP7085812B2 (en) 2017-08-02 2022-06-17 キヤノン株式会社 Image processing device and its control method

Similar Documents

Publication Publication Date Title
JP6451133B2 (en) Anomaly detection device, anomaly detection method, anomaly detection system, and program
US11004214B2 (en) Image processing apparatus, image processing method, and storage medium
EP4055812B1 (en) A system for performing ambient light image correction
JP2015197745A (en) Image processing apparatus, imaging apparatus, image processing method, and program
JP6521626B2 (en) Object tracking device, method and program
US10467736B2 (en) Image adjustment based on locally flat scenes
US10863113B2 (en) Image processing apparatus, image processing method, and storage medium
JP6157165B2 (en) Gaze detection device and imaging device
US8670609B2 (en) Systems and methods for evaluating images
CN108537741B (en) Image processing apparatus and control method for controlling image processing apparatus
US10600164B2 (en) Image adjustment based on locally flat scenes
CN110581950A (en) Camera, system and method for selecting camera settings
JP2016025522A (en) Image processing system and image processing system control method
JP6099973B2 (en) Subject area tracking device, control method thereof, and program
US20120188437A1 (en) Electronic camera
WO2015154526A1 (en) Color restoration method and apparatus for low-illumination-level video surveillance images
EP4055811B1 (en) A system for performing image motion compensation
JP6350331B2 (en) TRACKING DEVICE, TRACKING METHOD, AND TRACKING PROGRAM
JP2018088207A (en) Image processing apparatus, imaging apparatus, image processing method, image processing program and storage medium
US9049382B2 (en) Image processing apparatus and image processing method
KR101326095B1 (en) Apparatus for uniting images and method thereof
US10306153B2 (en) Imaging apparatus, image sensor, and image processor
JP6776532B2 (en) Image processing equipment, imaging equipment, electronic devices and image processing programs
JP2014222210A (en) Illumination light color estimation device, illumination light color estimation method, and program
JP2016109443A (en) Shape estimation device, method and program for estimating shape