JP2017073071A - Identity determination program, identity determination device, and identity determination method - Google Patents

Identity determination program, identity determination device, and identity determination method Download PDF

Info

Publication number
JP2017073071A
JP2017073071A JP2015201236A JP2015201236A JP2017073071A JP 2017073071 A JP2017073071 A JP 2017073071A JP 2015201236 A JP2015201236 A JP 2015201236A JP 2015201236 A JP2015201236 A JP 2015201236A JP 2017073071 A JP2017073071 A JP 2017073071A
Authority
JP
Japan
Prior art keywords
pixel
region
image
person
background
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2015201236A
Other languages
Japanese (ja)
Other versions
JP6540445B2 (en
Inventor
松田 裕司
Yuji Matsuda
裕司 松田
健太郎 辻
Kentaro Tsuji
健太郎 辻
明燮 鄭
Mingbian Zheng
明燮 鄭
信浩 宮▲崎▼
Nobuhiro Miyazaki
信浩 宮▲崎▼
瀬川 英吾
Eigo Segawa
英吾 瀬川
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Ltd
Original Assignee
Fujitsu Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Ltd filed Critical Fujitsu Ltd
Priority to JP2015201236A priority Critical patent/JP6540445B2/en
Publication of JP2017073071A publication Critical patent/JP2017073071A/en
Application granted granted Critical
Publication of JP6540445B2 publication Critical patent/JP6540445B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Abstract

PROBLEM TO BE SOLVED: To reduce an erroneous determination as to whether subjects are identical with each other.SOLUTION: It is determined whether pixels in predetermined areas are color-mixed with a background in a first image and a second image, respectively and when color mixture is determined, the color-mixed pixels are deleted from the predetermined areas and feature quantity in the predetermined areas where the color-mixed pixels are deleted is calculated. On the basis of the feature quantity in the predetermined areas of the respective first and second images, it is determined whether or not a subject in the predetermined area of the first image is identical with a subject in the predetermined area of the second image.SELECTED DRAWING: Figure 2

Description

本発明は、同一判定プログラム、同一判定装置、および同一判定方法に関する。   The present invention relates to an identical determination program, an identical determination device, and an identical determination method.

人物の移動情報は、混雑の解消や、商業施設における店舗や人員の最適化よるサービスの向上などに活用されている。監視カメラの映像から人物を検出し、複数のカメラにまたがって移動する人物を対応付けることで、自動的に広範囲の人物の移動を把握できる。   Person movement information is used to eliminate congestion and improve services by optimizing stores and personnel in commercial facilities. By detecting a person from the video of the surveillance camera and associating a person who moves across multiple cameras, it is possible to automatically grasp the movement of a wide range of persons.

従来、同一人物であるか否かの判定には、人物の服装の色や模様などの特徴が利用されている。このとき、異なる監視カメラに写る同一人物から同じ特徴を得るために、背景の影響を受けないように人物領域のみを抽出し、人物領域の特徴に基づいて、同一人物であるか否かを判定している。   Conventionally, characteristics such as the color and pattern of a person's clothes are used to determine whether or not they are the same person. At this time, in order to obtain the same feature from the same person in different surveillance cameras, only the person area is extracted so as not to be affected by the background, and it is determined whether or not the person is the same based on the characteristics of the person area. doing.

画像から任意の移動物体を抽出して色を変更或いは調整し、他の画像と合成する装置が知られている(例えば、特許文献1参照)。画像中の物体の輪郭検出および物体抽出を行う装置が知られている(例えば、特許文献2参照)。画像中の任意の物体を抽出し、抽出した画像の色や形を変更して、元の画像や背景画像に重ね合わせ、新たな画像を作成する装置が知られている(例えば、特許文献3参照)。   An apparatus is known that extracts an arbitrary moving object from an image, changes or adjusts the color, and combines it with another image (see, for example, Patent Document 1). An apparatus for detecting the contour of an object in an image and extracting the object is known (see, for example, Patent Document 2). An apparatus is known that extracts an arbitrary object in an image, changes the color or shape of the extracted image, overlays the original image or background image, and creates a new image (for example, Patent Document 3). reference).

また、非特許文献1に記載の移動物体の検出方法や非特許文献2に記載の人検出方法が知られている。   Also, a moving object detection method described in Non-Patent Document 1 and a human detection method described in Non-Patent Document 2 are known.

特開平5−120417号公報JP-A-5-120417 特開平6−203157号公報JP-A-6-203157 特開平7−203299号公報JP-A-7-203299

長屋茂喜、外4名、「時間相関型背景判定法による移動物体検出」、電子情報通信学会論文誌、D-II、 vol.79、 no.4、 pp.568-576、 1995Shigeki Nagaya, 4 others, “Detection of moving objects using time-correlated background judgment method”, IEICE Transactions, D-II, vol.79, no.4, pp.568-576, 1995 山内悠嗣、外2名、「画像からの統計的学習手法に基づく人検出」,電子情報通信学会論文誌、vol.J96-D、 No.9、 pp.2017-2040、 2013Atsushi Yamauchi and two others, “Human Detection Based on Statistical Learning from Images”, IEICE Transactions, vol.J96-D, No.9, pp.2017-2040, 2013

監視カメラで撮影された画像において、人物の輪郭画素は、人物の周囲(背景)の色と混色する場合がある。輪郭画素の混色が発生すると、同一人物であるか否かの誤判定が起きる可能性が高くなる。   In an image taken with a surveillance camera, the outline pixel of a person may be mixed with the color around the person (background). When the color mixture of the contour pixels occurs, there is a high possibility of erroneous determination as to whether or not they are the same person.

一つの側面では、本発明は、複数の画像に含まれる被写体が同一であるか否かを判定する際、誤判定が起きる可能性を低減することを目的とする。   In one aspect, an object of the present invention is to reduce the possibility of erroneous determination when determining whether or not subjects included in a plurality of images are the same.

実施の形態の同一判定プログラムは、コンピュータに、第1の画像において第1の領域の第1の画素が、前記第1の領域と隣接する第1の背景画素と混色するか判定し、前記第1の画素が前記第1の背景画素と混色すると判定した場合、前記第1の輪郭画素を除外した前記第1の領域の第1の特徴量を算出させる。   The same determination program according to the embodiment determines whether the first pixel in the first area in the first image is mixed with the first background pixel adjacent to the first area in the computer, and When it is determined that one pixel is mixed with the first background pixel, the first feature amount of the first region excluding the first contour pixel is calculated.

第2の画像において第2の領域の第2の画素が、前記第2の領域と隣接する第2の背景画素と混色するか判定し、前記第2の画素が前記第2の背景画素と混色すると判定した場合、前記第2の輪郭画素を除外した前記第2の領域の第2の特徴量を算出させる。   In the second image, it is determined whether the second pixel in the second area is mixed with the second background pixel adjacent to the second area, and the second pixel is mixed with the second background pixel. If it is determined, the second feature amount of the second region excluding the second contour pixel is calculated.

前記第1の特徴量と前記第2の特徴量に基づいて、前記第1の領域の被写体と前記第2の領域の被写体とが同一であるか否かを判定させる。   Based on the first feature quantity and the second feature quantity, it is determined whether or not the subject in the first area and the subject in the second area are the same.

実施の形態に係る同一判定プログラムによれば、複数の画像に含まれる被写体が同一であるか否かを判定する際、誤判定が起きる可能性を低減することができる。   According to the same determination program according to the embodiment, it is possible to reduce the possibility of erroneous determination when determining whether or not subjects included in a plurality of images are the same.

混色が発生した場合の画像の一部を示す図である。It is a figure which shows a part of image when color mixing generate | occur | produces. 実施の形態に係る人物判定システムの構成図である。It is a lineblock diagram of a person judging system concerning an embodiment. 特徴情報テーブルの例である。It is an example of a feature information table. 実施の形態に係る人物領域抽出処理のフローチャートである。It is a flowchart of the person area extraction process which concerns on embodiment. 注目画素、内側画素、および外側画素を示す図である。It is a figure which shows an attention pixel, an inner side pixel, and an outer side pixel. 注目画素に対する内側および外側の画素の位置を示す図である。It is a figure which shows the position of the inner side and outer side pixel with respect to an attention pixel. 注目画素に対する内側および外側の画素の位置を示す図である。It is a figure which shows the position of the inner side and outer side pixel with respect to an attention pixel. 注目画素に対する内側および外側の画素の位置を示す図である。It is a figure which shows the position of the inner side and outer side pixel with respect to an attention pixel. 注目画素に対する内側および外側の画素の位置を示す図である。It is a figure which shows the position of the inner side and outer side pixel with respect to an attention pixel. 注目画素に対する内側および外側の画素の位置を示す図である。It is a figure which shows the position of the inner side and outer side pixel with respect to an attention pixel. 注目画素に対する内側および外側の画素の位置を示す図である。It is a figure which shows the position of the inner side and outer side pixel with respect to an attention pixel. 実施の形態に係る閾値算出処理のフローチャートである。It is a flowchart of the threshold value calculation process which concerns on embodiment. 実施の形態に係る人物判定処理のフローチャートである。It is a flowchart of the person determination process which concerns on embodiment. 従来の人物領域抽出方法を用いた人物の判定処理を示す図である。It is a figure which shows the determination process of the person using the conventional person area extraction method. 実施の形態に係る人物領域抽出方法を用いた人物の判定処理を示す図である。It is a figure which shows the determination process of the person using the person area extraction method which concerns on embodiment. 情報処理装置(コンピュータ)の構成図である。It is a block diagram of information processing apparatus (computer).

以下、図面を参照しながら実施の形態について説明する。
図1は、混色が発生した場合の画像の一部を示す図である。図1において、境界より左側(左端から2列目まで)が背景の画素、境界より右側(右端から3列目まで)が人物領域の画素である。混色が発生すると、図1に示すように、背景の画素と隣接する人物領域の画素(輪郭画素)は、背景の画素の色と人物領域(輪郭画素を除く)の画素の色とが混ざった色となる。
Hereinafter, embodiments will be described with reference to the drawings.
FIG. 1 is a diagram illustrating a part of an image when color mixing occurs. In FIG. 1, the pixel on the left side (from the left end to the second column) is the background pixel, and the right side (from the right end to the third column) is the person area pixel. When the color mixture occurs, as shown in FIG. 1, the color of the background pixel and the color of the pixel in the person region (excluding the contour pixel) are mixed in the pixel in the human region (contour pixel) adjacent to the background pixel. Become a color.

人物領域の輪郭画素が混色している場合に、背景差分に基づく人物領域の抽出を行うと、混色画素は背景画素と異なるために人物領域として抽出される。混色画素の色は人物の周囲の色によって異なるため、混色画素が人物領域に含まれると、人物の周囲の色によって得られる人物特徴が異なる。   If the person region is extracted based on the background difference when the contour pixels of the person region are mixed colors, the mixed color pixels are extracted as the person region because they are different from the background pixels. Since the color of the mixed color pixel differs depending on the color around the person, if the mixed color pixel is included in the person region, the person characteristics obtained by the color around the person are different.

街中や商業施設において監視カメラを利用する場合、被撮影者のプライバシー保護のため、例えば、顔が把握できないように映像を低解像度化して利用する。低解像度化した画像において、人物の輪郭画素の混色が起き易くなる。   When a surveillance camera is used in a city or a commercial facility, for example, the video is reduced in resolution so that the face cannot be grasped in order to protect the privacy of the subject. In a low-resolution image, color mixing of outline pixels of a person is likely to occur.

低解像度の画像では、人物領域の画素数が少ないため、人物領域における混色画素の割合が大きくなり、同一人物の画像でも人物領域から得られる特徴が周囲の色によって大きく異なってしまい、同一人物であるか否かの誤判定が起き易い。   In low-resolution images, the number of pixels in the person area is small, so the ratio of mixed-color pixels in the person area is large, and even in the same person image, the characteristics obtained from the person area are greatly different depending on the surrounding colors. Misjudgment of whether or not there is likely to occur.

図2は、実施の形態に係る人物判定システムの構成図である。
人物判定システム101は、カメラ201−i(i=1〜2)およびサーバ301を備える。
FIG. 2 is a configuration diagram of the person determination system according to the embodiment.
The person determination system 101 includes a camera 201-i (i = 1 to 2) and a server 301.

カメラ201−iは、それぞれ異なる場所に設置され、定期的若しくは常に撮影を行う。カメラ201−iは、撮影した画像をサーバ301に送信する。カメラ201−iは、サーバ301とLocal Area Network(LAN)やWide Area Network(WAN)等のネットワークを介して接続している。また、カメラ201−iは、サーバ301と直接接続していても良い。また、カメラ201−iの数は一例であり、任意の数でよい。カメラ201−iは撮影装置の一例である。   The cameras 201-i are installed in different places, and regularly or constantly take pictures. The camera 201-i transmits the captured image to the server 301. The camera 201-i is connected to the server 301 via a network such as a local area network (LAN) or a wide area network (WAN). In addition, the camera 201-i may be directly connected to the server 301. The number of cameras 201-i is an example and may be an arbitrary number. The camera 201-i is an example of an imaging device.

サーバ301は、処理部311および記憶部321を備える。
処理部311は、人物領域の抽出や同一人物の判定等の処理を行う。処理部311は、送受信部312、人物領域抽出部313、人物領域更新部314、特徴生成部315、および判定部316を含む。
The server 301 includes a processing unit 311 and a storage unit 321.
The processing unit 311 performs processing such as extraction of a person region and determination of the same person. The processing unit 311 includes a transmission / reception unit 312, a person region extraction unit 313, a person region update unit 314, a feature generation unit 315, and a determination unit 316.

送受信部312は、サーバ301と接続する装置とのデータの送受信を行う。送受信部312は、カメラ201−iから画像を受信し、記憶部322に格納する。   The transmission / reception unit 312 transmits / receives data to / from a device connected to the server 301. The transmission / reception unit 312 receives an image from the camera 201-i and stores it in the storage unit 322.

人物領域抽出部313は、画像内の人物が映っている領域(人物領域)を検出し、人物領域を抽出する。   The person area extraction unit 313 detects an area (person area) where a person is shown in the image, and extracts the person area.

人物領域更新部314は、輪郭画素に混色が発生している場合、人物領域から混色が発生している輪郭画素を削除し、新たな人物領域とする。   When color mixing has occurred in the contour pixel, the person area update unit 314 deletes the contour pixel in which color mixing has occurred from the person area, and sets it as a new person area.

特徴生成部315は、人物領域の特徴量を算出し、特徴情報テーブル323に記載する。人物領域抽出部313、人物領域更新部314、および特徴生成部315は、算出部の一例である。   The feature generation unit 315 calculates the feature amount of the person area and writes it in the feature information table 323. The person area extraction unit 313, the person area update unit 314, and the feature generation unit 315 are examples of a calculation unit.

判定部316は、人物領域の特徴量に基づいて、同一人物であるか否かの判定を行う。
記憶部321は、撮影画像322−j(j=1〜m:mは2以上の整数)および特徴情報テーブル323を格納する。
The determination unit 316 determines whether or not they are the same person based on the feature amount of the person area.
The storage unit 321 stores a captured image 322-j (j = 1 to m: m is an integer of 2 or more) and a feature information table 323.

撮影画像322−jは、カメラ201−iにより撮影された画像である。尚、送受信部312は、カメラ201−iから動画を受信し、記憶部322に格納しても良い。その場合、受信した動画の各フレームが撮影画像322−jに相当する。   The captured image 322-j is an image captured by the camera 201-i. Note that the transmission / reception unit 312 may receive a moving image from the camera 201-i and store it in the storage unit 322. In that case, each frame of the received moving image corresponds to the captured image 322-j.

特徴情報テーブル323は、撮影画像322−j内の人物領域の特徴量が記載されたテーブルである。尚、特徴情報テーブル323に記載される特徴量は、撮影画像322−jの人物領域に混色が発生している場合には、輪郭画素を除いた人物領域の特徴量である。   The feature information table 323 is a table in which feature amounts of person areas in the captured image 322-j are described. Note that the feature amount described in the feature information table 323 is the feature amount of the person area excluding the contour pixel when color mixing occurs in the person area of the captured image 322-j.

図3は、特徴情報テーブルの例である。
特徴情報テーブル323は、項目として、カメラID、人物ID、座標1、座標2、および特徴量を有する。特徴情報テーブル323の各レコードには、撮影画像322−jの人物領域に関する情報が記載されている。詳細には、特徴情報テーブル323の各レコードには、カメラID、人物ID、座標1、座標2、および特徴量が対応付けられて記載されている。例えば、図3において、特徴情報テーブル323の1行目には、カメラ201−1により撮影された撮影画像322−1の人物領域に関する情報が記載され、2行目にはカメラ201−2により撮影画像322−2の人物領域に関する情報が記載される。
FIG. 3 is an example of a feature information table.
The feature information table 323 includes, as items, a camera ID, a person ID, coordinates 1, coordinates 2, and feature amounts. Each record of the feature information table 323 describes information about the person area of the captured image 322-j. Specifically, each record of the feature information table 323 describes a camera ID, a person ID, coordinates 1, coordinates 2, and a feature amount in association with each other. For example, in FIG. 3, the first line of the feature information table 323 describes information related to the person area of the captured image 322-1 captured by the camera 201-1, and the second line is captured by the camera 201-2. Information about the person area of the image 322-2 is described.

カメラIDは、撮影画像322−jを撮影したカメラ201−iを識別する識別子である。   The camera ID is an identifier for identifying the camera 201-i that has captured the captured image 322-j.

人物IDは、撮影画像322−j内の人物領域の人物を識別する識別子である。
座標1は、撮影画像322−jにおいて人物領域を包含する矩形の左上の座標である。
The person ID is an identifier for identifying a person in a person area in the captured image 322-j.
Coordinate 1 is the upper left coordinate of the rectangle that includes the person area in the captured image 322-j.

座標2は、撮影画像322−jにおいて人物領域を包含する矩形の右下の座標である。座標1および2は、撮影画像322−jにおける人物の大まかな位置を表す。   Coordinate 2 is the lower right coordinate of the rectangle that includes the person area in the captured image 322-j. Coordinates 1 and 2 represent the approximate position of a person in the captured image 322-j.

特徴量は、人物領域の特徴を示す情報である。特徴量は、例えば、人物領域の画素の色ヒストグラムである。色ヒストグラムは、人物領域の画素の各色成分(R(赤)、G(緑)、B(青))の各画素値の頻度を表す。また、色ヒストグラムは、RGBの色毎に計数してもよいし、RGBの組み合わせごとに該当する画素を計数してもよい。色ヒストグラムは、人物領域の大きさ(画素数)によらずに比較するため、頻度を人物領域の画素数で除算して正規化し、正規化した頻度(正規化頻度)を特徴情報テーブル323の特徴量に記載する。また、RGB色空間以外の色空間(例えばHSV色空間など)に変換してヒストグラムを作成し、特徴量としても良い。   The feature amount is information indicating the feature of the person area. The feature amount is, for example, a color histogram of pixels in the person area. The color histogram represents the frequency of each pixel value of each color component (R (red), G (green), B (blue)) of the pixel in the person area. The color histogram may be counted for each RGB color, or the corresponding pixel may be counted for each RGB combination. Since the color histogram is compared regardless of the size (number of pixels) of the person area, the frequency is divided by the number of pixels of the person area and normalized, and the normalized frequency (normalized frequency) is stored in the feature information table 323. It is described in the feature amount. In addition, a histogram may be created by converting into a color space other than the RGB color space (for example, HSV color space), and may be used as a feature amount.

図4は、実施の形態に係る人物領域抽出処理のフローチャートである。
ここでは、カメラ201−1が撮影した画像(撮影画像322−1)の人物領域を抽出して特徴量を算出する場合を説明する。
FIG. 4 is a flowchart of person area extraction processing according to the embodiment.
Here, a case will be described in which a feature amount is calculated by extracting a person region of an image (captured image 322-1) captured by the camera 201-1.

ステップS501において、送受信部312は、カメラ201−1から撮影した画像(撮影画像322−1)を受信し、記憶部322に格納する。   In step S <b> 501, the transmission / reception unit 312 receives an image (captured image 322-1) captured from the camera 201-1 and stores it in the storage unit 322.

ステップS502において、人物領域抽出部313は、撮影画像322−1内で人物が映っている人物領域を検出し、検出した人物領域を撮影画像322−1から抽出する。人物領域抽出部313は、例えば、背景差分法により人物領域を検出する。人物領域抽出部313は、例えば、非特許文献1,2の記載の方法を用いて、人物領域を検出してもよい。背景差分法を用いる場合、予めカメラ201−1により人物が映っていない画像を撮影しておき、人物領域抽出部313は、当該画像と検出対象の撮影画像322−1とを比較し、差分に基づいて、人物領域を検出する。   In step S502, the person area extraction unit 313 detects a person area where a person is shown in the photographed image 322-1 and extracts the detected person area from the photographed image 322-1. The person area extraction unit 313 detects a person area by, for example, a background difference method. The person area extraction unit 313 may detect the person area using, for example, the methods described in Non-Patent Documents 1 and 2. When the background subtraction method is used, an image in which no person is shown is captured in advance by the camera 201-1, and the person area extraction unit 313 compares the image with the captured image 322-1 to be detected, and determines the difference. Based on this, the person area is detected.

ステップS503において、人物領域抽出部313は、人物領域のうち、未評価の輪郭画素のうちの1つを注目画素として選択し、注目画素の混色率を算出する。   In step S503, the person area extraction unit 313 selects one of the unevaluated contour pixels as the attention pixel in the person area, and calculates a color mixture ratio of the attention pixel.

ここで、混色率の算出方法について説明する。
混色画素の画素値は、その外側の画素の画素値と内側の画素の画素値との線形和で表されると考えられ、外側の画素の画素値の割合(混色率)が閾値以上の場合に、輪郭画素は人物領域と背景領域の色が混色していると判定される。
Here, a method of calculating the color mixture rate will be described.
The pixel value of a mixed color pixel is considered to be represented by the linear sum of the pixel value of the outer pixel and the pixel value of the inner pixel, and the ratio (color mixing ratio) of the pixel value of the outer pixel is equal to or greater than the threshold In addition, it is determined that the color of the person region and the background region is mixed in the contour pixel.

図5は、注目画素、内側画素、および外側画素を示す図である。図5は、撮影画像322−1の人物領域と背景の一部分の画像である。   FIG. 5 is a diagram illustrating a target pixel, an inner pixel, and an outer pixel. FIG. 5 is an image of a part of the person area and background of the photographed image 322-1.

図5において、左端から2列目までの画素は背景領域であり、右端から3列目までの画素がステップS502で検出された人物領域である。図5において、背景領域と隣接する人物領域の画素、すなわち左端から3列目の画素が輪郭画素となる。   In FIG. 5, the pixels from the left end to the second column are background regions, and the pixels from the right end to the third column are human regions detected in step S502. In FIG. 5, the pixels in the person region adjacent to the background region, that is, the pixels in the third column from the left end are the contour pixels.

ここで、図5の上から2段目の輪郭画素を注目画素Iとし、注目画素Iの混色率を算出する場合を説明する。 Here, the contour pixels of the second row and the pixel of interest I C from the top of FIG. 5, the case of calculating the color mixing ratio of the pixel of interest I C.

注目画素Iに隣接し且つ人物領域に含まれる画素を内側画素I、注目画素Iに隣接し且つ人物領域に含まれない画素を外側画素Iとする。注目画素Iの画素値をV、内側画素Iの画素値をV、および外側画素Iの画素値をVとする。 A pixel adjacent to the target pixel I C and included in the person area is referred to as an inner pixel I i , and a pixel adjacent to the target pixel I C and not included in the person area is referred to as an outer pixel I o . The pixel value of the target pixel I C is V c , the pixel value of the inner pixel I i is V i , and the pixel value of the outer pixel I o is V o .

混色画素の画素値は、その外側の画素の画素値と内側の画素の画素値との線形和で表されると考えらので、注目画素Iの画素値をVは、混色率αとすると下式(1)で表される。
=αV+(1−α)V ・・・(1)
Since the pixel value of the mixed color pixel is considered to be represented by the linear sum of the pixel value of the outer pixel and the pixel value of the inner pixel, the pixel value V c of the target pixel I C is the color mixing rate α Then, it is represented by the following formula (1).
V c = αV o + (1 -α) V i ··· (1)

上式(1)より、混色率αは、下式(2)で算出される。
α=(V−V)/(V−V) ・・・(2)
From the above equation (1), the color mixture rate α is calculated by the following equation (2).
α = (V c −V i ) / (V o −V i ) (2)

尚、画素値V、V、VがそれぞれRGBの3成分で表される場合、画素値V=(VcR,VcG,VcB)、V=(ViR,ViG,ViB)、V=(VoR,VoG,VoB)とすると、上式(2)における画素値の差分は下記の様にユークリッド距離で算出される。
−V=((VcR−ViR+(VcG−ViG+(VcB−ViB1/2
−V=((VoR−ViR+(VoG−ViG+(VoB−ViB1/2
When the pixel values V c , V i , and V o are represented by three components of RGB, the pixel values V c = (V cR , V cG , V cB ), V i = (V iR , V iG , When V iB ) and V o = (V oR , V oG , V oB ), the difference between the pixel values in the above equation (2) is calculated by the Euclidean distance as follows.
V c −V i = ((V cR −V iR ) 2 + (V cG −V iG ) 2 + (V cB −V iB ) 2 ) 1/2
V o −V i = ((V oR −V iR ) 2 + (V oG −V iG ) 2 + (V oB −V iB ) 2 ) 1/2

注目画素に対する内側画素と外側画素の位置は、例えば、以下に示すようになる。
図6A〜6Fは、注目画素に対する内側および外側の画素の位置を示す図である。
The positions of the inner pixel and the outer pixel with respect to the target pixel are as follows, for example.
6A to 6F are diagrams illustrating the positions of the inner and outer pixels with respect to the target pixel.

図6Aに示すように、注目画素Iの上下に輪郭画素が隣接している場合、注目画素Iの左右に隣接する画素のうち、人物領域に含まれる一方の画素が内側画素Iとなり、人物領域に含まれない他方の画素が外側画素Iとなる。 As shown in FIG. 6A, if the contour pixels above and below the target pixel I c are adjacent the target pixel among the pixels adjacent to the left and right I c, one of the pixel next to the inner pixels I i included in the human region The other pixel not included in the person area is the outer pixel I o .

図6Bに示すように、注目画素Iの左右に輪郭画素が隣接している場合、注目画素Iの上下に隣接する画素のうち、人物領域に含まれる一方の画素が内側画素Iとなり、人物領域に含まれない他方の画素が外側画素Iとなる。 As shown in FIG. 6B, if the contour pixels on the left and right of the pixel of interest I c are adjacent the target pixel among the pixels adjacent above and below the I c, one of the pixel next to the inner pixels I i included in the human region The other pixel not included in the person area is the outer pixel I o .

図6Cに示すように、注目画素Iの下と右に輪郭画素が隣接している場合、注目画素Iの右下と左上に隣接する画素のうち、人物領域に含まれる一方の画素が内側画素Iとなり、人物領域に含まれない他方の画素が外側画素Iとなる。 As shown in FIG. 6C, if the contour pixels on the bottom and right of the pixel of interest I c is adjacent, of the pixels adjacent to the lower right and upper left of the pixel of interest I c, it is one of the pixels contained in the human region inner pixels I i, and the other pixels that are not included in the person area is outside the pixel I o.

図6Dに示すように、注目画素Iの上と左に輪郭画素が隣接している場合、注目画素Iの左上と右下に隣接する画素のうち、人物領域に含まれる一方の画素が内側画素Iとなり、人物領域に含まれない他方の画素が外側画素Iとなる。 As shown in FIG. 6D, if the contour pixels on the top and left of the pixel of interest I c is adjacent, of the pixels adjacent to the upper left and lower right of the pixel of interest I c, it is one of the pixels contained in the human region inner pixels I i, and the other pixels that are not included in the person area is outside the pixel I o.

図6Eに示すように、注目画素Iの下と左に輪郭画素が隣接している場合、注目画素Iの左下と右上に隣接する画素のうち、人物領域に含まれる一方の画素が内側画素Iとなり、人物領域に含まれない他方の画素が外側画素Iとなる。 As shown in FIG. 6E, if the contour pixels on the bottom and left of the pixel of interest I c is adjacent, of the pixels adjacent to the lower left and upper right of the pixel of interest I c, one of pixels included in the person area inside pixels I i, and the other pixels that are not included in the person area is outside the pixel I o.

図6Fに示すように、注目画素Iの上と右に輪郭画素が隣接している場合、注目画素Iの右上と左下に隣接する画素のうち、人物領域に含まれる一方の画素が内側画素Iとなり、人物領域に含まれない他方の画素が外側画素Iとなる。 As shown in FIG. 6F, if the contour pixels on the top and right of the pixel of interest I c is adjacent, of the pixels adjacent to the upper right and lower left of the pixel of interest I c, one of pixels included in the person area inside pixels I i, and the other pixels that are not included in the person area is outside the pixel I o.

混色しているか否かの判定(ステップS504)に用いる閾値は、予め設定された値を用いても良いし、後述するように、撮影画像322−jの背景に基づいて算出しても良い。   As the threshold used for determining whether or not colors are mixed (step S504), a preset value may be used, or may be calculated based on the background of the captured image 322-j, as will be described later.

図4に戻り説明を続ける。
ステップS504において、人物領域抽出部313は、注目画素の混色率と閾値とを比較し、注目画素の混色率が閾値以上であるか否か判定する。注目画素の混色率が閾値以上である場合、制御はステップS505に進み、注目画素の混色率が閾値未満の場合、制御はステップS506に進む。尚、閾値は、例えば、予め設定された定数である。また、後述の閾値算出処理によって算出された閾値を用いても良い。
Returning to FIG.
In step S504, the person region extraction unit 313 compares the color mixture ratio of the target pixel with a threshold value, and determines whether or not the color mixture ratio of the target pixel is equal to or greater than the threshold value. If the color mixture ratio of the target pixel is equal to or greater than the threshold, the control proceeds to step S505. If the color mixture ratio of the target pixel is less than the threshold, the control proceeds to step S506. Note that the threshold is, for example, a preset constant. Further, a threshold value calculated by a threshold value calculation process described later may be used.

ステップS505において、人物領域更新部314は、注目画素を人物領域から削除し、注目画素を削除した人物領域を新たな人物領域とする。   In step S505, the person area update unit 314 deletes the target pixel from the person area, and sets the person area from which the target pixel is deleted as a new person area.

ステップS506において、人物領域更新部314は、全ての輪郭画素に対して評価を行ったか否か、すなわち全ての輪郭画素の混色率と閾値とを比較したか否か判定する。全ての輪郭画素に対して評価を行った場合、制御はステップS507に進み、全ての輪郭画素に対して評価を行ってない場合、制御はステップS503に戻る。   In step S506, the person area update unit 314 determines whether or not all the contour pixels have been evaluated, that is, whether or not the color mixing ratio of all the contour pixels is compared with the threshold value. If all the contour pixels have been evaluated, the control proceeds to step S507. If all the contour pixels have not been evaluated, the control returns to step S503.

ステップS507において、特徴生成部315は、人物領域の特徴量を算出する。例えば、特徴生成部315は、人物領域の色ヒストグラムを算出する。すなわち、人物領域の画素の各色成分(R(赤)、G(緑)、B(青))の各画素値の頻度を算出する。また、色ヒストグラムは、RGBの色毎に計数してもよいし、RGBの組み合わせごとに該当する画素を計数してもよい。色ヒストグラムは、人物領域の大きさ(画素数)によらずに比較するため、頻度を人物領域の画素数で除算して正規化し、正規化した頻度(正規化頻度)を特徴量としても良い。また、RGB色空間以外の色空間(例えばHSV色空間など)に変換してヒストグラムを作成し、特徴量としても良い。   In step S507, the feature generation unit 315 calculates a feature amount of the person area. For example, the feature generation unit 315 calculates a color histogram of the person area. That is, the frequency of each pixel value of each color component (R (red), G (green), B (blue)) of the pixel in the person area is calculated. The color histogram may be counted for each RGB color, or the corresponding pixel may be counted for each RGB combination. Since color histograms are compared regardless of the size (number of pixels) of the person area, the frequency may be normalized by dividing by the number of pixels of the person area, and the normalized frequency (normalized frequency) may be used as the feature amount. . In addition, a histogram may be created by converting into a color space other than the RGB color space (for example, HSV color space), and may be used as a feature amount.

ステップS508において、特徴生成部315は、算出した色ヒストグラムを特徴情報テーブル323の特徴量の欄に記載する。また、特徴生成部315は、カメラID、人物ID、座標1、座標2を特徴情報テーブル323に記載する。詳細には、例えば、送受信部312は、撮影画像322−1を撮影したカメラ201−1を特徴生成部315に通知し、特徴生成部315は、カメラ201−1に対応する識別子「1」をカメラIDとして特徴情報テーブル323に記載する。特徴生成部315は、既に特徴情報テーブル323の人物IDとして記載されている識別子とは異なる識別子をカメラIDとして特徴情報テーブル323に記載する。人物領域抽出部313は、人物領域を包含する矩形の左上と右下の座標を特徴生成部315に通知し、特徴生成部315は、通知された矩形の左上と右下の座標をそれぞれ座標1および座標2として特徴情報テーブル323に記載する。   In step S508, the feature generation unit 315 writes the calculated color histogram in the feature amount column of the feature information table 323. In addition, the feature generation unit 315 describes the camera ID, person ID, coordinates 1 and coordinates 2 in the feature information table 323. Specifically, for example, the transmission / reception unit 312 notifies the feature generation unit 315 of the camera 201-1 that has captured the captured image 322-1. The feature generation unit 315 assigns the identifier “1” corresponding to the camera 201-1. It is described in the feature information table 323 as a camera ID. The feature generation unit 315 describes an identifier different from the identifier already described as the person ID of the feature information table 323 in the feature information table 323 as a camera ID. The person area extraction unit 313 notifies the feature generation unit 315 of the upper left and lower right coordinates of the rectangle including the person area, and the feature generation unit 315 sets the upper left and lower right coordinates of the notified rectangle as coordinates 1 respectively. And the coordinates 2 are described in the feature information table 323.

上記の実施の形態では、撮影画像322−1の特徴量を算出する場合を説明したが、撮影画像322−2〜323−jの特徴量も同様に算出する。また、上記の実施の形態では、輪郭画素について、混色率を算出し、混色しているか否かの判定結果に基づいて人物領域から削除を行っていたが、
輪郭画素以外の人物領域の画素についても、混色率を算出し、混色しているか否かの判定結果に基づいて人物領域から削除を行ってもよい。
In the above-described embodiment, the case where the feature amount of the captured image 322-1 is calculated has been described, but the feature amount of the captured images 322-2 to 323-j is also calculated in the same manner. Further, in the above embodiment, the color mixture ratio is calculated for the contour pixel, and deletion is performed from the person area based on the determination result of whether or not color mixing is performed.
For the pixels in the person area other than the contour pixels, the color mixture ratio may be calculated and deleted from the person area based on the determination result of whether or not the colors are mixed.

混色しているか否かの判定(ステップS504)に用いる閾値は、予め設定された値を用いても良いし、以下に説明するように、異なるカメラ201−iにより撮影された画像に基づいて算出しても良い。   The threshold value used for determining whether or not colors are mixed (step S504) may be a preset value, or calculated based on images taken by different cameras 201-i as described below. You may do it.

図7は、実施の形態に係る閾値算出処理のフローチャートである。
ステップS511において、人物領域抽出部313は、第1の画像および第2の画像を取得し、第1の画像の背景画像(第1の背景画像)と第2の画像の背景画像(第2の背景画像)を取得する。背景画像は、人物等の移動物体が映っていない画像であり、例えば、撮影画像322−jから人物領域を削除した画像である。第1の画像および第2の画像に人物などの移動物体が映っていない場合、第1の画像および第2の画像をそれぞれ第1の背景画像および第2の背景画像として良い。第1の画像および第2の画像は、それぞれ異なるカメラ201−iによって撮影された画像である。第1の背景画像および第2の背景画像は、例えば、人物などの移動物体が映っていない撮影画像322−jである。また、第1および第2の背景画像は、撮影画像322−jから人物領域を削除した画像である。例えば、人物領域抽出部313は、カメラ201−1によって撮影された撮影画像322−1を取得し、撮影画像322−1の人物領域の検出と削除を行って、第1の背景画像を生成する。さらに、人物領域抽出部313は、カメラ201−2によって撮影された撮影画像322−2を取得し、撮影画像322−2の人物領域の検出と削除を行って、第2の背景画像を生成する。
FIG. 7 is a flowchart of threshold value calculation processing according to the embodiment.
In step S511, the person region extraction unit 313 acquires the first image and the second image, and the background image (first background image) of the first image and the background image (second image) of the second image. Background image). The background image is an image in which a moving object such as a person is not reflected, and is, for example, an image obtained by deleting a person area from the captured image 322-j. When a moving object such as a person is not reflected in the first image and the second image, the first image and the second image may be used as the first background image and the second background image, respectively. The first image and the second image are images taken by different cameras 201-i. The first background image and the second background image are, for example, captured images 322-j in which a moving object such as a person is not reflected. The first and second background images are images obtained by deleting the person area from the captured image 322-j. For example, the person area extraction unit 313 acquires the captured image 322-1 captured by the camera 201-1, detects and deletes the person area of the captured image 322-1, and generates a first background image. . Furthermore, the person area extraction unit 313 acquires the captured image 322-2 captured by the camera 201-2, detects and deletes the person area of the captured image 322-2, and generates a second background image. .

ステップS512において、人物領域抽出部313は、第1の背景画像と第2の背景画像の色ヒストグラムを算出する。色ヒストグラムの算出方法は、上述のステップS507と同様である。   In step S512, the person region extraction unit 313 calculates a color histogram of the first background image and the second background image. The method for calculating the color histogram is the same as in step S507 described above.

ステップS513において、人物領域抽出部313は、第1の背景画像と第2の背景画像の色ヒストグラムの類似度を算出する。類似度は、例えば、色ヒストグラム間の相互相関やヒストグラムインターセクションである。また、人物領域抽出部313は、第1の背景画像と第2の背景画像をそれぞれ複数のブロックに分割し、それぞれのブロックについて色ヒストグラムを算出および類似度の算出を行い、各背景画像の複数のブロックの類似度の最小値や平均値を用いても良い。   In step S513, the person region extraction unit 313 calculates the similarity between the color histograms of the first background image and the second background image. The similarity is, for example, a cross-correlation between color histograms or a histogram intersection. In addition, the person area extraction unit 313 divides the first background image and the second background image into a plurality of blocks, calculates a color histogram and a similarity for each block, and calculates a plurality of background images. The minimum value or the average value of the similarities of the blocks may be used.

ステップS514において、人物領域抽出部313は、算出した類似度に基づいて閾値を算出し、算出した閾値をステップS504で用いる閾値として設定する。類似度をSとして場合、閾値Tは、下式(3)で算出される。
T=r×S ・・・(3)
ここで、rは0から1の間の値をとる任意の係数であり、予め設定されている。
In step S514, the person region extraction unit 313 calculates a threshold value based on the calculated similarity, and sets the calculated threshold value as a threshold value used in step S504. When the similarity is S, the threshold T is calculated by the following equation (3).
T = r × S (3)
Here, r is an arbitrary coefficient that takes a value between 0 and 1, and is set in advance.

人物領域抽出部313は、例えば、閾値算出処理を人物領域抽出処理より前に実行する。また、人物領域抽出部313は、閾値算出処理を定期的に実行し、閾値を変更するようにしても良い。   For example, the person area extraction unit 313 executes a threshold calculation process before the person area extraction process. In addition, the person area extraction unit 313 may periodically execute a threshold calculation process to change the threshold.

2つの撮影画像322−jの背景が類似した色である場合には、人物領域に混色が発生していても、人物の色特徴は類似する可能性が高い。一方で、背景が異なる色である場合には、人物領域の混色が発生していると、混色率が低くとも、人物領域の色特徴が異なる可能性が高い。そのため、混色画素を人物領域から除外するかどうか判定する閾値を、背景の類似度に基づいて算出することで、撮影環境に適した閾値を設定することが可能となる。   When the backgrounds of the two photographed images 322-j are similar in color, there is a high possibility that the color characteristics of the persons are similar even if color mixing occurs in the person area. On the other hand, when the background is a different color, if color mixing occurs in the person area, there is a high possibility that the color characteristics of the person area are different even if the color mixing ratio is low. Therefore, it is possible to set a threshold value suitable for the shooting environment by calculating a threshold value for determining whether or not to exclude the mixed color pixel from the person region based on the similarity of the background.

図8は、実施の形態に係る人物判定処理のフローチャートである。
ここでは、異なるカメラ201−iによって撮影された画像に映っている人物が同一人物であるか否か判定する場合を説明する。具体的には、カメラ201−1により撮影された撮影画像322−1に映る人物と、カメラ201−2により撮影された撮影画像322−2に映る人物とが同一人物であるか否かを判定する場合を説明する。どの撮影画像322−jに映る人物を判定するかは、例えば、ユーザ等により指示される。
FIG. 8 is a flowchart of person determination processing according to the embodiment.
Here, a case will be described in which it is determined whether or not a person shown in an image taken by a different camera 201-i is the same person. Specifically, it is determined whether or not the person shown in the shot image 322-1 shot by the camera 201-1 and the person shown in the shot image 322-2 shot by the camera 201-2 are the same person. The case where it does is demonstrated. The user or the like is instructed as to which photographed image 322-j the person to be shown in is determined.

先ず、判定部316は、撮影画像322−1に映る第1の人物と撮影画像322−2に映る第2の人物とが同一人物であるか判定する指示を受信する。   First, the determination unit 316 receives an instruction to determine whether the first person shown in the captured image 322-1 and the second person reflected in the captured image 322-2 are the same person.

ステップS521において、判定部316は、第1の人物を選択する。詳細には、判定部316は、特徴情報記憶テーブル323を参照し、撮影画像322−1の人物領域の特徴量を取得する。判定部316は、例えば、図3に記載の特徴情報記憶テーブル323の1行目の特徴量「XXX」を取得する。   In step S521, the determination unit 316 selects the first person. Specifically, the determination unit 316 refers to the feature information storage table 323 and acquires the feature amount of the person area of the captured image 322-1. For example, the determination unit 316 acquires the feature amount “XXX” in the first row of the feature information storage table 323 illustrated in FIG. 3.

ステップS522において、判定部316は、判定部316は、第2の人物を選択する。詳細には、判定部316は、特徴情報記憶テーブル323を参照し、撮影画像322−2の人物領域の特徴量を取得する。判定部316は、例えば、図3に記載の特徴情報記憶テーブル323の2行目の特徴量「YYY」を取得する。   In step S522, the determination unit 316 selects the second person. Specifically, the determination unit 316 refers to the feature information storage table 323 and acquires the feature amount of the person area of the captured image 322-2. For example, the determination unit 316 acquires the feature amount “YYY” in the second row of the feature information storage table 323 illustrated in FIG. 3.

ステップS523において、判定部316は、第1の人物および第2の人物の特徴量の類似度を算出する。すなわち、判定部316は、撮影画像322−1の人物領域の特徴量「XXX」と撮影画像322−2の人物領域の特徴量「YYY」の類似度を算出する。上述のように、特徴量は、例えば、色ヒストグラムである。類似度は、例えば、2つの色ヒストグラム間の相互相関やヒストグラムインターセクションである。   In step S523, the determination unit 316 calculates the similarity between the feature amounts of the first person and the second person. That is, the determination unit 316 calculates the similarity between the feature amount “XXX” of the person area of the captured image 322-1 and the feature amount “YYY” of the person area of the captured image 322-2. As described above, the feature amount is, for example, a color histogram. The similarity is, for example, a cross-correlation between two color histograms or a histogram intersection.

ステップS524において、判定部316は、算出した類似度が閾値以上であるか否か判定する。類似度が閾値以上である場合、制御はステップS525に進み、類似度が閾値未満である場合、制御はステップS526に進む。尚、閾値は、例えば、予め設定された定数である。   In step S524, the determination unit 316 determines whether the calculated similarity is greater than or equal to a threshold value. If the similarity is greater than or equal to the threshold, control proceeds to step S525, and if the similarity is less than the threshold, control proceeds to step S526. Note that the threshold is, for example, a preset constant.

ステップS525において、判定部316は、第1の人物と第2の人物が同一人物であると判定する。すなわち、判定部316は、撮影画像322−1に映る人物と撮影画像322−2に映る人物とが同一人物であると判定する。判定部316は、撮影画像322−1に映る人物と撮影画像322−2に映る人物とが同一人物であることを示す情報を記憶部321に格納する。また、判定部316は、特徴情報記憶テーブル323において、同一人物であると判定したときに使用した2つ特長量に対応する2つの人物IDを同じ値に設定しても良い。   In step S525, the determination unit 316 determines that the first person and the second person are the same person. That is, the determination unit 316 determines that the person shown in the shot image 322-1 and the person shown in the shot image 322-2 are the same person. The determination unit 316 stores information indicating that the person shown in the photographed image 322-1 and the person shown in the photographed image 322-2 are the same person in the storage unit 321. Further, the determination unit 316 may set the two person IDs corresponding to the two feature amounts used when it is determined that they are the same person in the feature information storage table 323 to the same value.

ステップS526において、判定部316は、第1の人物と第2の人物が同一人物でないと判定する。すなわち、判定部316は、撮影画像322−1に映る人物と撮影画像322−2に映る人物とが同一人物でないと判定する。   In step S526, the determination unit 316 determines that the first person and the second person are not the same person. That is, the determination unit 316 determines that the person shown in the shot image 322-1 and the person shown in the shot image 322-2 are not the same person.

上述の説明では、撮影画像322−1と撮影画像322−2の組み合わせに対して処理を行ったが、判定部316は、上述の人物判定処理を撮影画像322−jの全ての組み合わせに対して行っても良い。   In the above description, the processing is performed on the combination of the captured image 322-1 and the captured image 322-2. However, the determination unit 316 performs the above-described person determination process on all combinations of the captured image 322-j. You can go.

尚、上述の人物判定処理では、異なるカメラで撮影された2つの画像の人物について同一人物であるか判定したが、同じカメラで撮影された2つの画像の人物について同一人物であるか否かを判定してもよい。   In the person determination process described above, it is determined whether or not two images taken by different cameras are the same person, but whether or not the two images taken by the same camera are the same person. You may judge.

ここで、従来の人物領域抽出方法と実施の形態に係る人物領域抽出方法のそれぞれを用いた場合の人物の判定処理を説明する。   Here, a person determination process using each of the conventional person area extraction method and the person area extraction method according to the embodiment will be described.

図9は、従来の人物領域抽出方法を用いた人物の判定処理を示す図である。
撮影画像322−1,322−2に映る人物は、同一人物であるとする。また、撮影画像322−1,322−2のそれぞれの背景の色は異なるとする。
FIG. 9 is a diagram showing a person determination process using a conventional person region extraction method.
It is assumed that the persons shown in the captured images 322-1 and 322-2 are the same person. In addition, it is assumed that the background colors of the captured images 322-1 and 322-2 are different.

撮影画像322−1,322−2に対して、例えば、従来の背景差分法などを用いた人物領域抽出方法を適用して、人物領域を抽出する。このとき、背景と隣接する輪郭画素も人物領域に含まれている。また、輪郭画素において混色が発生しているとする。   For example, a person area extraction method using a conventional background subtraction method or the like is applied to the captured images 322-1 and 322-2 to extract a person area. At this time, contour pixels adjacent to the background are also included in the person area. Further, it is assumed that color mixing occurs in the contour pixel.

混色が発生した場合、輪郭画素の色(画素値)は、背景の色によって、異なる色となる。すなわち、撮影画像322−1,322−2のそれぞれにおいて、人物領域(輪郭画素を除く)の色が同じでも、背景の色が異なる場合、輪郭画素の色も異なる。   When color mixing occurs, the color (pixel value) of the contour pixel differs depending on the background color. That is, in each of the captured images 322-1 and 322-2, even if the color of the person region (excluding the contour pixel) is the same, if the background color is different, the color of the contour pixel is also different.

この場合、輪郭画素を含む人物領域の特徴量(色ヒストグラム)を算出すると、撮影画像322−1,322−2のそれぞれの人物領域の特徴量は異なる。特に撮影画像322−1,322−2が低解像度の場合、輪郭画素の影響が大きくなるため、撮影画像322−1,322−2のそれぞれの人物領域の特徴量は大きく異なる。   In this case, when the feature amount (color histogram) of the person region including the contour pixel is calculated, the feature amounts of the person regions of the captured images 322-1 and 322-2 are different. In particular, when the captured images 322-1 and 322-2 have a low resolution, the influence of the contour pixels is large, and thus the feature amounts of the person regions of the captured images 322-1 and 322-2 are greatly different.

そのため、撮影画像322−1に映る人物と322−2に映る人物は、同一人物でないと判定されてしまい、誤判定となる。   Therefore, it is determined that the person shown in the captured image 322-1 and the person shown in 322-2 are not the same person, resulting in a false determination.

図10は、実施の形態に係る人物領域抽出方法を用いた人物の判定処理を示す図である。   FIG. 10 is a diagram illustrating a person determination process using the person region extraction method according to the embodiment.

撮影画像322−1,322−2に映る人物は、同一人物であるとする。また、撮影画像322−1,322−2のそれぞれの背景の色は異なるとする。   It is assumed that the persons shown in the captured images 322-1 and 322-2 are the same person. In addition, it is assumed that the background colors of the captured images 322-1 and 322-2 are different.

撮影画像322−1,322−2に対して、例えば、従来の背景差分法などを用いた人物領域抽出方法を適用して、人物領域を抽出する。このとき、背景と隣接する輪郭画素も人物領域に含まれている。また、輪郭画素において混色が発生しているとする。   For example, a person area extraction method using a conventional background subtraction method or the like is applied to the captured images 322-1 and 322-2 to extract a person area. At this time, contour pixels adjacent to the background are also included in the person area. Further, it is assumed that color mixing occurs in the contour pixel.

実施の形態において、輪郭画素が混色している場合、輪郭画素を人物領域から削除して、人物領域を更新する。そして、更新後の人物領域、すなわち混色している輪郭画素を含まない人物領域の特徴量を(色ヒストグラム)を算出する。   In the embodiment, when the contour pixel is mixed in color, the contour pixel is deleted from the person area and the person area is updated. Then, the feature amount (color histogram) of the updated human region, that is, the human region that does not include the mixed color contour pixel is calculated.

この場合、輪郭画素を含まない人物領域の特徴量(色ヒストグラム)を算出すると、撮影画像322−1,322−2のそれぞれの輪郭画素を含まない人物領域の特徴量は一致(類似)する。   In this case, when the feature amount (color histogram) of the person region not including the contour pixel is calculated, the feature amounts of the person region not including the contour pixel in the captured images 322-1 and 322-2 match (similar).

そのため、撮影画像322−1に映る人物と322−2に映る人物は、同一人物であると判定され、正しく判定できる。   For this reason, the person shown in the captured image 322-1 and the person shown in 322-2 are determined to be the same person, and can be determined correctly.

実施の形態に係る人物判定システムは、混色が発生した場合に、混色した画素を除いた人物領域の特徴量を算出し、算出した特長量に基づいて同一人物であるか否か判定している。それにより、同一人物であるか否かの誤判定を低減することができる。特に、撮影画像が低解像度の場合、すなわち混色が起こりやすくなる場合に、同一人物であるか否かの誤判定を低減する効果が大きくなる。   When a color mixture occurs, the person determination system according to the embodiment calculates the feature amount of the person area excluding the mixed color pixel, and determines whether or not they are the same person based on the calculated feature amount. . Thereby, it is possible to reduce erroneous determination as to whether or not they are the same person. In particular, when the captured image has a low resolution, that is, when color mixing is likely to occur, the effect of reducing erroneous determination as to whether or not they are the same person is increased.

尚、上述の実施の形態では、人物の同一判定を行っていたが、同一判定の対象は人に限らず、車やバイク等の任意の物体でもよい。撮影画像の映る人物や車、バイク等は被写体の一例である。   In the above-described embodiment, a person is determined to be the same, but the target of the same determination is not limited to a person, and may be an arbitrary object such as a car or a motorcycle. A person, a car, a motorcycle, or the like in which a captured image is shown is an example of a subject.

図11は、情報処理装置(コンピュータ)の構成図である。
実施の形態のサーバ301は、例えば、図11に示すような情報処理装置1によって実現可能である。
FIG. 11 is a configuration diagram of an information processing apparatus (computer).
The server 301 of the embodiment can be realized by an information processing apparatus 1 as shown in FIG. 11, for example.

情報処理装置1は、CPU2、メモリ3、入力部4、出力部5、記憶部6、記録媒体駆動部7、及びネットワーク接続部8を備え、それらはバス9により互いに接続されている。   The information processing apparatus 1 includes a CPU 2, a memory 3, an input unit 4, an output unit 5, a storage unit 6, a recording medium drive unit 7, and a network connection unit 8, which are connected to each other by a bus 9.

CPU2は、情報処理装置1全体を制御する中央処理装置である。CPU2は、処理部311に対応する。   The CPU 2 is a central processing unit that controls the entire information processing apparatus 1. The CPU 2 corresponds to the processing unit 311.

メモリ3は、プログラム実行の際に、記憶部6(あるいは可搬記録媒体10)に記憶されているプログラムあるいはデータを一時的に格納するRead Only Memory(ROM)やRandom Access Memory(RAM)等のメモリである。CPU2は、メモリ3を利用してプログラムを実行することにより、上述した各種処理を実行する。   The memory 3 is a Read Only Memory (ROM) or Random Access Memory (RAM) that temporarily stores a program or data stored in the storage unit 6 (or the portable recording medium 10) during program execution. It is memory. The CPU 2 executes the various processes described above by executing programs using the memory 3.

この場合、可搬記録媒体10等から読み出されたプログラムコード自体が実施の形態の機能を実現する。   In this case, the program code itself read from the portable recording medium 10 or the like realizes the functions of the embodiment.

入力部4は、例えば、キーボード、マウス、タッチパネル、カメラ、またはセンサ等であり、ユーザ又はオペレータからの指示や情報の入力、情報処理装置1で用いられるデータの取得等に用いられる。   The input unit 4 is, for example, a keyboard, a mouse, a touch panel, a camera, or a sensor, and is used for inputting an instruction or information from a user or an operator, acquiring data used in the information processing apparatus 1, or the like.

出力部5は、例えば、ディスプレイ、またはプリンタ等である。出力部5は、ユーザ又はオペレータへの問い合わせや処理結果を出力したり、CPU2による制御により動作する装置である。   The output unit 5 is, for example, a display or a printer. The output unit 5 is a device that outputs an inquiry to a user or an operator and a processing result, or operates under the control of the CPU 2.

記憶部6は、例えば、磁気ディスク装置、光ディスク装置、テープ装置等である。情報処理装置1は、記憶部6に、上述のプログラムとデータを保存しておき、必要に応じて、それらをメモリ3に読み出して使用する。メモリ3および記憶部6は、記憶部321に対応する。   The storage unit 6 is, for example, a magnetic disk device, an optical disk device, a tape device, or the like. The information processing apparatus 1 stores the above-described program and data in the storage unit 6 and reads them into the memory 3 and uses them as necessary. The memory 3 and the storage unit 6 correspond to the storage unit 321.

記録媒体駆動部7は、可搬記録媒体10を駆動し、その記録内容にアクセスする。可搬記録媒体としては、メモリカード、フレキシブルディスク、Compact Disk Read Only Memory(CD−ROM)、光ディスク、光磁気ディスク等、任意のコンピュータ読み取り可能な記録媒体が用いられる。ユーザは、この可搬記録媒体10に上述のプログラムとデータを格納しておき、必要に応じて、それらをメモリ3に読み出して使用する。   The recording medium driving unit 7 drives the portable recording medium 10 and accesses the recorded contents. As the portable recording medium, any computer-readable recording medium such as a memory card, a flexible disk, a compact disk read only memory (CD-ROM), an optical disk, a magneto-optical disk, or the like is used. The user stores the above-described program and data in the portable recording medium 10 and reads them into the memory 3 and uses them as necessary.

ネットワーク接続部8は、Local Area Network(LAN)やWide Area Network(WAN)等の任意の通信ネットワークに接続され、通信に伴うデータ変換を行う。ネットワーク接続部8は、通信ネットワークを介して接続された装置へデータの送信または通信ネットワークを介して接続された装置からデータを受信する。   The network connection unit 8 is connected to an arbitrary communication network such as a local area network (LAN) or a wide area network (WAN), and performs data conversion accompanying communication. The network connection unit 8 transmits data to a device connected via a communication network or receives data from a device connected via a communication network.

以上の実施の形態に関し、さらに以下の付記を開示する。
(付記1)
第1の画像において第1の領域の第1の画素が、前記第1の領域と隣接する第1の背景画素と混色するか判定し、
前記第1の画素が前記第1の背景画素と混色すると判定した場合、前記第1の画素を除外した前記第1の領域の第1の特徴量を算出し、
第2の画像において第2の領域の第2の画素が、前記第2の領域と隣接する第2の背景画素と混色するか判定し、
前記第2の画素が前記第2の背景画素と混色すると判定した場合、前記第2の画素を除外した前記第2の領域の第2の特徴量を算出し、
前記第1の特徴量と前記第2の特徴量に基づいて、前記第1の領域の被写体と前記第2の領域の被写体とが同一であるか否かを判定する
処理をコンピュータに実行させることを特徴とする同一判定プログラム。
(付記2)
前記コンピュータは、
前記第1の画素の画素値と、前記第1の背景画素の画素値と、前記第1の画素と隣接する前記第1の領域の画素の画素値と、に基づいて、第1の混色率を算出し、前記第1の混色率が閾値以上であるか否かに基づいて、前記第1の領域の第1の画素が前記第1の領域と隣接する第1の背景画素と混色しているか否かを判定し、
前記第2の画素の画素値と、前記第2の背景画素の画素値と、前記第2の画素と隣接する前記第2の領域の画素の画素値と、に基づいて、第2の混色率を算出し、前記第2の混色率が前記閾値以上であるか否かに基づいて、前記第2の領域の第2の画素が前記第2の領域と隣接する第2の背景画素と混色しているか否かを判定することを特徴とする付記1記載の同一判定プログラム。
(付記3)
前記第1の画像は第1の撮影装置により撮影された画像であり、前記第2の画像は前記第1の撮影装置とは異なる第2の撮影装置により撮影された画像であり、
前記コンピュータは、前記第1の画像の前記第1の領域以外の第1の背景画像と、前記第2の画像の前記第2の領域以外の第2の背景画像と、に基づいて、前記閾値を算出することを特徴とする付記2記載の同一判定プログラム。
(付記4)
第1の画像において第1の領域の第1の画素が、前記第1の領域と隣接する第1の背景画素と混色するか判定し前記第1の画素が前記第1の背景画素と混色すると判定した場合、前記第1の画素を除外した前記第1の領域の第1の特徴量を算出し、第2の画像において第2の領域の第2の画素が、前記第2の領域と隣接する第2の背景画素と混色するか判定し、前記第2の画素が前記第2の背景画素と混色すると判定した場合、前記第2の輪郭画素を除外した前記第2の領域の第2の特徴量を算出する算出部と、
前記第1の特徴量と前記第2の特徴量に基づいて、前記第1の領域の被写体と前記第2の領域の被写体とが同一であるか否かを判定する判定部と、
を備える同一判定装置。
(付記5)
前記算出部は、前記第1の画素の画素値と、前記第1の背景画素の画素値と、前記第1の画素と隣接する前記第1の領域の画素の画素値と、に基づいて、第1の混色率を算出し、前記第1の混色率が閾値以上であるか否かに基づいて、前記第1の領域の第1の画素が前記第1の領域と隣接する第1の背景画素と混色しているか否かを判定し、前記第2の画素の画素値と、前記第2の背景画素の画素値と、前記第2の画素と隣接する前記第2の領域の画素の画素値と、に基づいて、第2の混色率を算出し、前記第2の混色率が前記閾値以上であるか否かに基づいて、前記第2の領域の第2の画素が前記第2の領域と隣接する第2の背景画素と混色しているか否かを判定することを特徴とする付記4記載の同一判定装置。
(付記6)
前記第1の画像は第1の撮影装置により撮影された画像であり、前記第2の画像は前記第1の撮影装置とは異なる第2の撮影装置により撮影された画像であり、
前記算出部は、前記第1の画像の前記第1の領域以外の第1の背景画像と、前記第2の画像の前記第2の領域以外の第2の背景画像と、に基づいて、前記閾値を算出することを特徴とする付記5記載の同一判定装置。
(付記7)
情報処理装置が実行する同一判定方法であって、
第1の画像において第1の領域の第1の画素が、前記第1の領域と隣接する第1の背景画素と混色するか判定し、
前記第1の画素が前記第1の背景画素と混色すると判定した場合、前記第1の画素を除外した前記第1の領域の第1の特徴量を算出し、
第2の画像において第2の領域の第2の画素が、前記第2の領域と隣接する第2の背景画素と混色するか判定し、
前記第2の画素が前記第2の背景画素と混色すると判定した場合、前記第2の画素を除外した前記第2の領域の第2の特徴量を算出し、
前記第1の特徴量と前記第2の特徴量に基づいて、前記第1の領域の被写体と前記第2の領域の被写体とが同一であるか否かを判定する
ことを特徴とする同一判定方法。
(付記8)
前記情報処理装置は、
前記第1の画素の画素値と、前記第1の背景画素の画素値と、前記第1の画素と隣接する前記第1の領域の画素の画素値と、に基づいて、第1の混色率を算出し、前記第1の混色率が閾値以上であるか否かに基づいて、前記第1の領域の第1の画素が前記第1の領域と隣接する第1の背景画素と混色しているか否かを判定し、
前記第2の画素の画素値と、前記第2の背景画素の画素値と、前記第2の画素と隣接する前記第2の領域の画素の画素値と、に基づいて、第2の混色率を算出し、前記第2の混色率が前記閾値以上であるか否かに基づいて、前記第2の領域の第2の画素が前記第2の領域と隣接する第2の背景画素と混色しているか否かを判定することを特徴とする付記7記載の同一判定方法。
(付記9)
前記第1の画像は第1の撮影装置により撮影された画像であり、前記第2の画像は前記第1の撮影装置とは異なる第2の撮影装置により撮影された画像であり、
前記情報処理装置は、前記第1の画像の前記第1の領域以外の第1の背景画像と、前記第2の画像の前記第2の領域以外の第2の背景画像と、に基づいて、前記閾値を算出することを特徴とする付記8記載の同一判定方法。
Regarding the above embodiment, the following additional notes are disclosed.
(Appendix 1)
Determining whether the first pixel of the first region in the first image is mixed with the first background pixel adjacent to the first region;
If it is determined that the first pixel is mixed with the first background pixel, the first feature amount of the first region excluding the first pixel is calculated;
Determining whether the second pixel of the second region in the second image is mixed with the second background pixel adjacent to the second region;
When it is determined that the second pixel is mixed with the second background pixel, a second feature amount of the second region excluding the second pixel is calculated,
Causing the computer to execute a process of determining whether the subject in the first area and the subject in the second area are the same based on the first feature quantity and the second feature quantity The same judgment program characterized by
(Appendix 2)
The computer
Based on the pixel value of the first pixel, the pixel value of the first background pixel, and the pixel value of the pixel in the first region adjacent to the first pixel, a first color mixing ratio And the first pixel in the first region is mixed with the first background pixel adjacent to the first region based on whether or not the first color mixing ratio is equal to or greater than a threshold value. Whether or not
Based on the pixel value of the second pixel, the pixel value of the second background pixel, and the pixel value of the pixel in the second region adjacent to the second pixel, a second color mixing ratio And the second pixel in the second region is mixed with the second background pixel adjacent to the second region based on whether the second color mixing ratio is equal to or greater than the threshold. The same determination program as set forth in appendix 1, characterized by determining whether or not
(Appendix 3)
The first image is an image photographed by a first photographing device, and the second image is an image photographed by a second photographing device different from the first photographing device;
The computer uses the threshold based on a first background image other than the first region of the first image and a second background image of the second image other than the second region. The same determination program as described in appendix 2, characterized by:
(Appendix 4)
In the first image, it is determined whether the first pixel in the first area is mixed with the first background pixel adjacent to the first area, and the first pixel is mixed with the first background pixel. When the determination is made, the first feature amount of the first region excluding the first pixel is calculated, and the second pixel of the second region is adjacent to the second region in the second image. If the second pixel is mixed with the second background pixel, and if it is determined that the second pixel is mixed with the second background pixel, the second region of the second region excluding the second contour pixel is determined. A calculation unit for calculating a feature amount;
A determination unit configured to determine whether the subject in the first area and the subject in the second area are the same based on the first feature amount and the second feature amount;
The same determination apparatus provided with.
(Appendix 5)
The calculation unit is based on the pixel value of the first pixel, the pixel value of the first background pixel, and the pixel value of the pixel in the first region adjacent to the first pixel. A first background in which a first pixel in the first area is adjacent to the first area based on whether the first color mixing ratio is calculated and the first color mixing ratio is equal to or greater than a threshold value. A pixel value of the second pixel, a pixel value of the second background pixel, and a pixel of the pixel in the second region adjacent to the second pixel are determined. A second color mixing ratio is calculated based on the value, and a second pixel in the second region is calculated based on whether the second color mixing ratio is equal to or greater than the threshold. The identical determination device according to appendix 4, wherein it is determined whether or not a color is mixed with a second background pixel adjacent to the region.
(Appendix 6)
The first image is an image photographed by a first photographing device, and the second image is an image photographed by a second photographing device different from the first photographing device;
The calculation unit, based on a first background image other than the first region of the first image and a second background image other than the second region of the second image, The identical determination device according to appendix 5, wherein a threshold value is calculated.
(Appendix 7)
The same determination method executed by the information processing apparatus,
Determining whether the first pixel of the first region in the first image is mixed with the first background pixel adjacent to the first region;
If it is determined that the first pixel is mixed with the first background pixel, the first feature amount of the first region excluding the first pixel is calculated;
Determining whether the second pixel of the second region in the second image is mixed with the second background pixel adjacent to the second region;
When it is determined that the second pixel is mixed with the second background pixel, a second feature amount of the second region excluding the second pixel is calculated,
Based on the first feature value and the second feature value, it is determined whether or not the subject in the first area and the subject in the second area are the same. Method.
(Appendix 8)
The information processing apparatus includes:
Based on the pixel value of the first pixel, the pixel value of the first background pixel, and the pixel value of the pixel in the first region adjacent to the first pixel, a first color mixing ratio And the first pixel in the first region is mixed with the first background pixel adjacent to the first region based on whether or not the first color mixing ratio is equal to or greater than a threshold value. Whether or not
Based on the pixel value of the second pixel, the pixel value of the second background pixel, and the pixel value of the pixel in the second region adjacent to the second pixel, a second color mixing ratio And the second pixel in the second region is mixed with the second background pixel adjacent to the second region based on whether the second color mixing ratio is equal to or greater than the threshold. The same determination method according to appendix 7, characterized in that it is determined whether or not there is.
(Appendix 9)
The first image is an image photographed by a first photographing device, and the second image is an image photographed by a second photographing device different from the first photographing device;
The information processing device, based on a first background image other than the first region of the first image and a second background image other than the second region of the second image, The same determination method according to appendix 8, wherein the threshold value is calculated.

101 人物判定システム
201 カメラ
301 サーバ
311 処理部
312 送受信部
313 人物領域抽出部
314 人物領域更新部
315 特徴生成部
316 判定部
321 記憶部
322 撮影画像
323 特徴情報記憶テーブル
DESCRIPTION OF SYMBOLS 101 Person determination system 201 Camera 301 Server 311 Processing part 312 Transmission / reception part 313 Person area extraction part 314 Person area update part 315 Feature generation part 316 Determination part 321 Storage part 322 Captured image 323 Feature information storage table

Claims (5)

第1の画像において第1の領域の第1の画素が、前記第1の領域と隣接する第1の背景画素と混色するか判定し、
前記第1の画素が前記第1の背景画素と混色すると判定した場合、前記第1の画素を除外した前記第1の領域の第1の特徴量を算出し、
第2の画像において第2の領域の第2の画素が、前記第2の領域と隣接する第2の背景画素と混色するか判定し、
前記第2の画素が前記第2の背景画素と混色すると判定した場合、前記第2の画素を除外した前記第2の領域の第2の特徴量を算出し、
前記第1の特徴量と前記第2の特徴量に基づいて、前記第1の領域の被写体と前記第2の領域の被写体とが同一であるか否かを判定する
処理をコンピュータに実行させることを特徴とする同一判定プログラム。
Determining whether the first pixel of the first region in the first image is mixed with the first background pixel adjacent to the first region;
If it is determined that the first pixel is mixed with the first background pixel, the first feature amount of the first region excluding the first pixel is calculated;
Determining whether the second pixel of the second region in the second image is mixed with the second background pixel adjacent to the second region;
When it is determined that the second pixel is mixed with the second background pixel, a second feature amount of the second region excluding the second pixel is calculated,
Causing the computer to execute a process of determining whether the subject in the first area and the subject in the second area are the same based on the first feature quantity and the second feature quantity The same judgment program characterized by
前記コンピュータは、
前記第1の画素の画素値と、前記第1の背景画素の画素値と、前記第1の画素と隣接する前記第1の領域の画素の画素値と、に基づいて、第1の混色率を算出し、前記第1の混色率が閾値以上であるか否かに基づいて、前記第1の領域の第1の画素が前記第1の領域と隣接する第1の背景画素と混色しているか否かを判定し、
前記第2の画素の画素値と、前記第2の背景画素の画素値と、前記第2の画素と隣接する前記第2の領域の画素の画素値と、に基づいて、第2の混色率を算出し、前記第2の混色率が前記閾値以上であるか否かに基づいて、前記第2の領域の第2の画素が前記第2の領域と隣接する第2の背景画素と混色しているか否かを判定することを特徴とする請求項1記載の同一判定プログラム。
The computer
Based on the pixel value of the first pixel, the pixel value of the first background pixel, and the pixel value of the pixel in the first region adjacent to the first pixel, a first color mixing ratio And the first pixel in the first region is mixed with the first background pixel adjacent to the first region based on whether or not the first color mixing ratio is equal to or greater than a threshold value. Whether or not
Based on the pixel value of the second pixel, the pixel value of the second background pixel, and the pixel value of the pixel in the second region adjacent to the second pixel, a second color mixing ratio And the second pixel in the second region is mixed with the second background pixel adjacent to the second region based on whether the second color mixing ratio is equal to or greater than the threshold. The same determination program according to claim 1, wherein it is determined whether or not there is any.
前記第1の画像は第1の撮影装置により撮影された画像であり、前記第2の画像は前記第1の撮影装置とは異なる第2の撮影装置により撮影された画像であり、
前記コンピュータは、前記第1の画像の前記第1の領域以外の第1の背景画像と、前記第2の画像の前記第2の領域以外の第2の背景画像と、に基づいて、前記閾値を算出することを特徴とする請求項2記載の同一判定プログラム。
The first image is an image photographed by a first photographing device, and the second image is an image photographed by a second photographing device different from the first photographing device;
The computer uses the threshold based on a first background image other than the first region of the first image and a second background image of the second image other than the second region. The same determination program according to claim 2, wherein:
第1の画像において第1の領域の第1の画素が、前記第1の領域と隣接する第1の背景画素と混色するか判定し、前記第1の画素が前記第1の背景画素と混色すると判定した場合、前記第1の画素を除外した前記第1の領域の第1の特徴量を算出し、第2の画像において第2の領域の第2の画素が、前記第2の領域と隣接する第2の背景画素と混色するか判定し、前記第2の画素が前記第2の背景画素と混色すると判定した場合、前記第2の画素を除外した前記第2の領域の第2の特徴量を算出する算出部と、
前記第1の特徴量と前記第2の特徴量に基づいて、前記第1の領域の被写体と前記第2の領域の被写体とが同一であるか否かを判定する判定部と、
を備える同一判定装置。
In the first image, it is determined whether the first pixel in the first area is mixed with the first background pixel adjacent to the first area, and the first pixel is mixed with the first background pixel. If it is determined, the first feature amount of the first region excluding the first pixel is calculated, and the second pixel of the second region in the second image is the second region and the second region. If it is determined whether the second background pixel is mixed with a color, and if it is determined that the second pixel is mixed with the second background pixel, the second region of the second region excluding the second pixel A calculation unit for calculating a feature amount;
A determination unit configured to determine whether the subject in the first area and the subject in the second area are the same based on the first feature amount and the second feature amount;
The same determination apparatus provided with.
情報処理装置が実行する同一判定方法であって、
第1の画像において第1の領域の第1の画素が、前記第1の領域と隣接する第1の背景画素と混色するか判定し、
前記第1の画素が前記第1の背景画素と混色すると判定した場合、前記第1の画素を除外した前記第1の領域の第1の特徴量を算出し、
第2の画像において第2の領域の第2の画素が、前記第2の領域と隣接する第2の背景画素と混色するか判定し、
前記第2の画素が前記第2の背景画素と混色すると判定した場合、前記第2の画素を除外した前記第2の領域の第2の特徴量を算出し、
前記第1の特徴量と前記第2の特徴量に基づいて、前記第1の領域の被写体と前記第2の領域の被写体とが同一であるか否かを判定する
ことを特徴とする同一判定方法。
The same determination method executed by the information processing apparatus,
Determining whether the first pixel of the first region in the first image is mixed with the first background pixel adjacent to the first region;
If it is determined that the first pixel is mixed with the first background pixel, the first feature amount of the first region excluding the first pixel is calculated;
Determining whether the second pixel of the second region in the second image is mixed with the second background pixel adjacent to the second region;
When it is determined that the second pixel is mixed with the second background pixel, a second feature amount of the second region excluding the second pixel is calculated,
Based on the first feature value and the second feature value, it is determined whether or not the subject in the first area and the subject in the second area are the same. Method.
JP2015201236A 2015-10-09 2015-10-09 Same determination program, same determination apparatus, and same determination method Active JP6540445B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2015201236A JP6540445B2 (en) 2015-10-09 2015-10-09 Same determination program, same determination apparatus, and same determination method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015201236A JP6540445B2 (en) 2015-10-09 2015-10-09 Same determination program, same determination apparatus, and same determination method

Publications (2)

Publication Number Publication Date
JP2017073071A true JP2017073071A (en) 2017-04-13
JP6540445B2 JP6540445B2 (en) 2019-07-10

Family

ID=58538279

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015201236A Active JP6540445B2 (en) 2015-10-09 2015-10-09 Same determination program, same determination apparatus, and same determination method

Country Status (1)

Country Link
JP (1) JP6540445B2 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017204095A (en) * 2016-05-10 2017-11-16 富士通株式会社 Feature quantity comparison program, information processor, and feature quantity comparison method
JP2019149006A (en) * 2018-02-27 2019-09-05 富士通株式会社 Image selection program, information processing device, system, and image selection method

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07302342A (en) * 1994-05-09 1995-11-14 Fujitsu Ltd Method and device for extracting contour
JP2000048211A (en) * 1998-07-31 2000-02-18 Matsushita Electric Ind Co Ltd Movile object tracking device
JP2010049296A (en) * 2008-08-19 2010-03-04 Secom Co Ltd Moving object tracking device

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07302342A (en) * 1994-05-09 1995-11-14 Fujitsu Ltd Method and device for extracting contour
JP2000048211A (en) * 1998-07-31 2000-02-18 Matsushita Electric Ind Co Ltd Movile object tracking device
JP2010049296A (en) * 2008-08-19 2010-03-04 Secom Co Ltd Moving object tracking device

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017204095A (en) * 2016-05-10 2017-11-16 富士通株式会社 Feature quantity comparison program, information processor, and feature quantity comparison method
JP2019149006A (en) * 2018-02-27 2019-09-05 富士通株式会社 Image selection program, information processing device, system, and image selection method

Also Published As

Publication number Publication date
JP6540445B2 (en) 2019-07-10

Similar Documents

Publication Publication Date Title
JP6428266B2 (en) COLOR CORRECTION DEVICE, COLOR CORRECTION METHOD, AND COLOR CORRECTION PROGRAM
JP6587435B2 (en) Image processing apparatus, information processing method, and program
US10074029B2 (en) Image processing system, image processing method, and storage medium for correcting color
US20130258198A1 (en) Video search system and method
JP2011029737A (en) Surveillance image retrieval apparatus and surveillance system
JP2011165008A (en) Image recognition apparatus and method
JP6362085B2 (en) Image recognition system, image recognition method and program
US10762372B2 (en) Image processing apparatus and control method therefor
CN109961472B (en) Method, system, storage medium and electronic device for generating 3D thermodynamic diagram
US20160253554A1 (en) Determination device and determination method
US20190114783A1 (en) Image processing apparatus, image processing method, and non-transitory computer-readable storage medium
CN107622497A (en) Image cropping method, apparatus, computer-readable recording medium and computer equipment
JP2019149006A (en) Image selection program, information processing device, system, and image selection method
US20190246048A1 (en) Image processing apparatus, image processing method, and storage medium
JP2021108193A (en) Image processing device, image processing method, and program
JP6540445B2 (en) Same determination program, same determination apparatus, and same determination method
JP6289308B2 (en) Information processing apparatus and program
JP6410427B2 (en) Information processing apparatus, information processing method, and program
JP2019050553A (en) Image processing apparatus, image providing apparatus, control method of the same, and program
KR102096784B1 (en) Positioning system and the method thereof using similarity-analysis of image
US10783365B2 (en) Image processing device and image processing system
JP3860560B2 (en) Display interface method and apparatus
JP2009289210A (en) Device and method for recognizing important object and program thereof
JP2018063675A (en) Image processor and control method
KR101288248B1 (en) Human tracking system and method for privacy masking

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180608

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20190425

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20190514

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20190527

R150 Certificate of patent or registration of utility model

Ref document number: 6540445

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150