JP6540445B2 - Same determination program, same determination apparatus, and same determination method - Google Patents

Same determination program, same determination apparatus, and same determination method Download PDF

Info

Publication number
JP6540445B2
JP6540445B2 JP2015201236A JP2015201236A JP6540445B2 JP 6540445 B2 JP6540445 B2 JP 6540445B2 JP 2015201236 A JP2015201236 A JP 2015201236A JP 2015201236 A JP2015201236 A JP 2015201236A JP 6540445 B2 JP6540445 B2 JP 6540445B2
Authority
JP
Japan
Prior art keywords
pixel
area
image
person
background
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2015201236A
Other languages
Japanese (ja)
Other versions
JP2017073071A (en
Inventor
松田 裕司
裕司 松田
健太郎 辻
健太郎 辻
明燮 鄭
明燮 鄭
信浩 宮▲崎▼
信浩 宮▲崎▼
瀬川 英吾
英吾 瀬川
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Ltd
Original Assignee
Fujitsu Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Ltd filed Critical Fujitsu Ltd
Priority to JP2015201236A priority Critical patent/JP6540445B2/en
Publication of JP2017073071A publication Critical patent/JP2017073071A/en
Application granted granted Critical
Publication of JP6540445B2 publication Critical patent/JP6540445B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Image Analysis (AREA)
  • Closed-Circuit Television Systems (AREA)

Description

本発明は、同一判定プログラム、同一判定装置、および同一判定方法に関する。   The present invention relates to an identity determination program, an identity determination device, and an identity determination method.

人物の移動情報は、混雑の解消や、商業施設における店舗や人員の最適化よるサービスの向上などに活用されている。監視カメラの映像から人物を検出し、複数のカメラにまたがって移動する人物を対応付けることで、自動的に広範囲の人物の移動を把握できる。   People's travel information is used to eliminate congestion and improve services by optimizing stores and personnel in commercial facilities. By detecting a person from the video of the surveillance camera and associating a person moving across a plurality of cameras, it is possible to automatically grasp the movement of a person in a wide range.

従来、同一人物であるか否かの判定には、人物の服装の色や模様などの特徴が利用されている。このとき、異なる監視カメラに写る同一人物から同じ特徴を得るために、背景の影響を受けないように人物領域のみを抽出し、人物領域の特徴に基づいて、同一人物であるか否かを判定している。   Heretofore, features such as the color and pattern of clothes of a person have been used to determine whether or not they are the same person. At this time, in order to obtain the same feature from the same person captured in different surveillance cameras, only the person area is extracted so as not to be affected by the background, and it is determined whether or not the same person is based on the features of the person area. doing.

画像から任意の移動物体を抽出して色を変更或いは調整し、他の画像と合成する装置が知られている(例えば、特許文献1参照)。画像中の物体の輪郭検出および物体抽出を行う装置が知られている(例えば、特許文献2参照)。画像中の任意の物体を抽出し、抽出した画像の色や形を変更して、元の画像や背景画像に重ね合わせ、新たな画像を作成する装置が知られている(例えば、特許文献3参照)。   An apparatus is known which extracts an arbitrary moving object from an image, changes or adjusts the color, and combines it with another image (see, for example, Patent Document 1). There is known an apparatus for performing contour detection and object extraction of an object in an image (see, for example, Patent Document 2). There is known an apparatus for extracting an arbitrary object in an image, changing the color and shape of the extracted image, and superimposing it on the original image or background image to create a new image (for example, Patent Document 3) reference).

また、非特許文献1に記載の移動物体の検出方法や非特許文献2に記載の人検出方法が知られている。   In addition, a method of detecting a moving object described in Non-Patent Document 1 and a human detection method described in Non-Patent Document 2 are known.

特開平5−120417号公報Unexamined-Japanese-Patent No. 5-120417 特開平6−203157号公報Japanese Patent Laid-Open No. 6-203157 特開平7−203299号公報JP-A-7-203299

長屋茂喜、外4名、「時間相関型背景判定法による移動物体検出」、電子情報通信学会論文誌、D-II、 vol.79、 no.4、 pp.568-576、 1995Nagaya Shigeki, 4 others, "Moving object detection by time-correlated background detection method", Transactions of the Institute of Electronics, Information and Communication Engineers, D-II, vol. 79, no. 4, pp. 568-576, 1995 山内悠嗣、外2名、「画像からの統計的学習手法に基づく人検出」,電子情報通信学会論文誌、vol.J96-D、 No.9、 pp.2017-2040、 2013Atsushi Yamauchi and 2 others, "Human Detection Based on Statistical Learning from Images", Transactions of the Institute of Electronics, Information and Communication Engineers, vol. J96-D, No. 9, pp. 2017-2040, 2013

監視カメラで撮影された画像において、人物の輪郭画素は、人物の周囲(背景)の色と混色する場合がある。輪郭画素の混色が発生すると、同一人物であるか否かの誤判定が起きる可能性が高くなる。   In an image captured by a surveillance camera, the contour pixels of a person may be mixed with the color of the person's surroundings (background). When color mixture of outline pixels occurs, there is a high possibility that an erroneous determination as to whether the person is the same person will occur.

一つの側面では、本発明は、複数の画像に含まれる被写体が同一であるか否かを判定する際、誤判定が起きる可能性を低減することを目的とする。   In one aspect, the present invention aims to reduce the possibility of an erroneous determination when determining whether the subject included in a plurality of images is the same.

実施の形態の同一判定プログラムは、コンピュータに、第1の画像において第1の領域の第1の画素が、前記第1の領域と隣接する第1の背景画素と混色するか判定し、前記第1の画素が前記第1の背景画素と混色すると判定した場合、前記第1の輪郭画素を除外した前記第1の領域の第1の特徴量を算出させる。   The same determination program according to the embodiment causes the computer to determine whether the first pixel in the first area in the first image mixes with the first background pixel adjacent to the first area, When it is determined that one pixel mixes with the first background pixel, the first feature value of the first region excluding the first contour pixel is calculated.

第2の画像において第2の領域の第2の画素が、前記第2の領域と隣接する第2の背景画素と混色するか判定し、前記第2の画素が前記第2の背景画素と混色すると判定した場合、前記第2の輪郭画素を除外した前記第2の領域の第2の特徴量を算出させる。   In the second image, it is determined whether the second pixel of the second area mixes with the second background pixel adjacent to the second area, and the second pixel mixes with the second background pixel Then, when it is determined, the second feature value of the second region excluding the second contour pixel is calculated.

前記第1の特徴量と前記第2の特徴量に基づいて、前記第1の領域の被写体と前記第2の領域の被写体とが同一であるか否かを判定させる。   Based on the first feature quantity and the second feature quantity, it is determined whether the subject in the first area and the subject in the second area are the same.

実施の形態に係る同一判定プログラムによれば、複数の画像に含まれる被写体が同一であるか否かを判定する際、誤判定が起きる可能性を低減することができる。   According to the same determination program according to the embodiment, when determining whether or not subjects included in a plurality of images are the same, the possibility of an erroneous determination can be reduced.

混色が発生した場合の画像の一部を示す図である。It is a figure which shows a part of image when mixed color generate | occur | produces. 実施の形態に係る人物判定システムの構成図である。It is a block diagram of a person judging system concerning an embodiment. 特徴情報テーブルの例である。It is an example of a feature information table. 実施の形態に係る人物領域抽出処理のフローチャートである。It is a flow chart of person area extraction processing concerning an embodiment. 注目画素、内側画素、および外側画素を示す図である。It is a figure which shows an attention pixel, an inner side pixel, and an outer side pixel. 注目画素に対する内側および外側の画素の位置を示す図である。It is a figure which shows the position of the inside and the outside pixel with respect to an attention pixel. 注目画素に対する内側および外側の画素の位置を示す図である。It is a figure which shows the position of the inside and the outside pixel with respect to an attention pixel. 注目画素に対する内側および外側の画素の位置を示す図である。It is a figure which shows the position of the inside and the outside pixel with respect to an attention pixel. 注目画素に対する内側および外側の画素の位置を示す図である。It is a figure which shows the position of the inside and the outside pixel with respect to an attention pixel. 注目画素に対する内側および外側の画素の位置を示す図である。It is a figure which shows the position of the inside and the outside pixel with respect to an attention pixel. 注目画素に対する内側および外側の画素の位置を示す図である。It is a figure which shows the position of the inside and the outside pixel with respect to an attention pixel. 実施の形態に係る閾値算出処理のフローチャートである。It is a flowchart of the threshold value calculation process which concerns on embodiment. 実施の形態に係る人物判定処理のフローチャートである。It is a flow chart of person determination processing concerning an embodiment. 従来の人物領域抽出方法を用いた人物の判定処理を示す図である。It is a figure which shows the determination processing of a person using the conventional person area extraction method. 実施の形態に係る人物領域抽出方法を用いた人物の判定処理を示す図である。It is a figure which shows the determination processing of a person using the person area extraction method concerning an embodiment. 情報処理装置(コンピュータ)の構成図である。It is a block diagram of an information processor (computer).

以下、図面を参照しながら実施の形態について説明する。
図1は、混色が発生した場合の画像の一部を示す図である。図1において、境界より左側(左端から2列目まで)が背景の画素、境界より右側(右端から3列目まで)が人物領域の画素である。混色が発生すると、図1に示すように、背景の画素と隣接する人物領域の画素(輪郭画素)は、背景の画素の色と人物領域(輪郭画素を除く)の画素の色とが混ざった色となる。
Hereinafter, embodiments will be described with reference to the drawings.
FIG. 1 is a view showing a part of an image when color mixing occurs. In FIG. 1, the left side (from the left end to the second column) of the boundary is the pixel of the background, and the right side (from the right end to the third column) of the boundary is the pixel of the person area. When color mixing occurs, as shown in FIG. 1, the pixel of the background and the pixel (outline pixel) of the adjacent person area are a mixture of the color of the background pixel and the color of the pixel of the person area (excluding the outline pixel) It becomes a color.

人物領域の輪郭画素が混色している場合に、背景差分に基づく人物領域の抽出を行うと、混色画素は背景画素と異なるために人物領域として抽出される。混色画素の色は人物の周囲の色によって異なるため、混色画素が人物領域に含まれると、人物の周囲の色によって得られる人物特徴が異なる。   When the outline pixels of the human area are mixed, when the human area is extracted based on the background difference, the mixed color pixels are extracted as a human area because they are different from the background pixels. Since the color of the mixed color pixel differs depending on the color around the person, when the mixed color pixel is included in the person area, the person feature obtained differs depending on the color around the person.

街中や商業施設において監視カメラを利用する場合、被撮影者のプライバシー保護のため、例えば、顔が把握できないように映像を低解像度化して利用する。低解像度化した画像において、人物の輪郭画素の混色が起き易くなる。   When a surveillance camera is used in a town or a commercial facility, for example, the image is reduced in resolution so that the face can not be grasped and used to protect the privacy of the subject. In a low resolution image, color mixing of outline pixels of a person is likely to occur.

低解像度の画像では、人物領域の画素数が少ないため、人物領域における混色画素の割合が大きくなり、同一人物の画像でも人物領域から得られる特徴が周囲の色によって大きく異なってしまい、同一人物であるか否かの誤判定が起き易い。   In low-resolution images, the percentage of mixed-color pixels in the human region is large because the number of pixels in the human region is small, and even in the image of the same person, the features obtained from the human region differ greatly depending on the surrounding color. Misjudgment of whether or not there is easy to occur.

図2は、実施の形態に係る人物判定システムの構成図である。
人物判定システム101は、カメラ201−i(i=1〜2)およびサーバ301を備える。
FIG. 2 is a block diagram of a person determination system according to the embodiment.
The person determination system 101 includes cameras 201-i (i = 1 to 2) and a server 301.

カメラ201−iは、それぞれ異なる場所に設置され、定期的若しくは常に撮影を行う。カメラ201−iは、撮影した画像をサーバ301に送信する。カメラ201−iは、サーバ301とLocal Area Network(LAN)やWide Area Network(WAN)等のネットワークを介して接続している。また、カメラ201−iは、サーバ301と直接接続していても良い。また、カメラ201−iの数は一例であり、任意の数でよい。カメラ201−iは撮影装置の一例である。   The cameras 201-i are installed at different places, and perform photographing regularly or constantly. The camera 201-i transmits the captured image to the server 301. The camera 201-i is connected to the server 301 via a network such as a Local Area Network (LAN) or a Wide Area Network (WAN). Also, the camera 201-i may be directly connected to the server 301. Also, the number of cameras 201-i is an example, and may be an arbitrary number. The camera 201-i is an example of an imaging device.

サーバ301は、処理部311および記憶部321を備える。
処理部311は、人物領域の抽出や同一人物の判定等の処理を行う。処理部311は、送受信部312、人物領域抽出部313、人物領域更新部314、特徴生成部315、および判定部316を含む。
The server 301 includes a processing unit 311 and a storage unit 321.
The processing unit 311 performs processing such as extraction of a person area and determination of the same person. The processing unit 311 includes a transmission / reception unit 312, a person area extraction unit 313, a person area update unit 314, a feature generation unit 315, and a determination unit 316.

送受信部312は、サーバ301と接続する装置とのデータの送受信を行う。送受信部312は、カメラ201−iから画像を受信し、記憶部322に格納する。   The transmission / reception unit 312 transmits / receives data to / from an apparatus connected to the server 301. The transmission / reception unit 312 receives an image from the camera 201-i and stores the image in the storage unit 322.

人物領域抽出部313は、画像内の人物が映っている領域(人物領域)を検出し、人物領域を抽出する。   The person area extraction unit 313 detects an area (person area) in which a person is displayed in the image, and extracts a person area.

人物領域更新部314は、輪郭画素に混色が発生している場合、人物領域から混色が発生している輪郭画素を削除し、新たな人物領域とする。   When color mixing occurs in the outline pixels, the person area updating unit 314 deletes outline pixels in which color mixing has occurred from the person area, and sets it as a new person area.

特徴生成部315は、人物領域の特徴量を算出し、特徴情報テーブル323に記載する。人物領域抽出部313、人物領域更新部314、および特徴生成部315は、算出部の一例である。   The feature generation unit 315 calculates the feature amount of the person area and writes the calculated feature amount in the feature information table 323. The person area extraction unit 313, the person area update unit 314, and the feature generation unit 315 are an example of a calculation unit.

判定部316は、人物領域の特徴量に基づいて、同一人物であるか否かの判定を行う。
記憶部321は、撮影画像322−j(j=1〜m:mは2以上の整数)および特徴情報テーブル323を格納する。
The determination unit 316 determines whether or not the same person is on the basis of the feature amount of the person area.
The storage unit 321 stores a photographed image 322-j (j = 1 to m: m is an integer of 2 or more) and the feature information table 323.

撮影画像322−jは、カメラ201−iにより撮影された画像である。尚、送受信部312は、カメラ201−iから動画を受信し、記憶部322に格納しても良い。その場合、受信した動画の各フレームが撮影画像322−jに相当する。   The photographed image 322-j is an image photographed by the camera 201-i. The transmitting and receiving unit 312 may receive a moving image from the camera 201-i and store the moving image in the storage unit 322. In that case, each frame of the received moving image corresponds to the captured image 322-j.

特徴情報テーブル323は、撮影画像322−j内の人物領域の特徴量が記載されたテーブルである。尚、特徴情報テーブル323に記載される特徴量は、撮影画像322−jの人物領域に混色が発生している場合には、輪郭画素を除いた人物領域の特徴量である。   The feature information table 323 is a table in which feature amounts of a person area in the captured image 322-j are described. The feature quantity described in the feature information table 323 is a feature quantity of the person area excluding the outline pixels when color mixing occurs in the person area of the photographed image 322-j.

図3は、特徴情報テーブルの例である。
特徴情報テーブル323は、項目として、カメラID、人物ID、座標1、座標2、および特徴量を有する。特徴情報テーブル323の各レコードには、撮影画像322−jの人物領域に関する情報が記載されている。詳細には、特徴情報テーブル323の各レコードには、カメラID、人物ID、座標1、座標2、および特徴量が対応付けられて記載されている。例えば、図3において、特徴情報テーブル323の1行目には、カメラ201−1により撮影された撮影画像322−1の人物領域に関する情報が記載され、2行目にはカメラ201−2により撮影画像322−2の人物領域に関する情報が記載される。
FIG. 3 is an example of the feature information table.
The feature information table 323 has items of camera ID, person ID, coordinates 1, coordinates 2, and feature amounts. In each record of the feature information table 323, information on a person area of the photographed image 322-j is described. In detail, in each record of the feature information table 323, a camera ID, a person ID, coordinates 1, coordinates 2, and a feature amount are described in association with each other. For example, in FIG. 3, in the first line of the feature information table 323, information related to the person area of the captured image 322-1 captured by the camera 201-1 is described, and in the second line, the image is captured by the camera 201-2. Information on the person area of the image 322-2 is described.

カメラIDは、撮影画像322−jを撮影したカメラ201−iを識別する識別子である。   The camera ID is an identifier that identifies the camera 201-i that has captured the captured image 322-j.

人物IDは、撮影画像322−j内の人物領域の人物を識別する識別子である。
座標1は、撮影画像322−jにおいて人物領域を包含する矩形の左上の座標である。
The person ID is an identifier for identifying a person in the person area in the photographed image 322-j.
The coordinate 1 is the upper left coordinate of the rectangle that includes the person area in the captured image 322-j.

座標2は、撮影画像322−jにおいて人物領域を包含する矩形の右下の座標である。座標1および2は、撮影画像322−jにおける人物の大まかな位置を表す。   The coordinate 2 is a lower right coordinate of a rectangle that includes the person area in the captured image 322-j. Coordinates 1 and 2 represent rough positions of the person in the captured image 322-j.

特徴量は、人物領域の特徴を示す情報である。特徴量は、例えば、人物領域の画素の色ヒストグラムである。色ヒストグラムは、人物領域の画素の各色成分(R(赤)、G(緑)、B(青))の各画素値の頻度を表す。また、色ヒストグラムは、RGBの色毎に計数してもよいし、RGBの組み合わせごとに該当する画素を計数してもよい。色ヒストグラムは、人物領域の大きさ(画素数)によらずに比較するため、頻度を人物領域の画素数で除算して正規化し、正規化した頻度(正規化頻度)を特徴情報テーブル323の特徴量に記載する。また、RGB色空間以外の色空間(例えばHSV色空間など)に変換してヒストグラムを作成し、特徴量としても良い。   The feature amount is information indicating the feature of the person area. The feature amount is, for example, a color histogram of pixels of a person area. The color histogram represents the frequency of each pixel value of each color component (R (red), G (green), B (blue)) of the pixel of the person area. The color histogram may be counted for each of the RGB colors, or the corresponding pixels may be counted for each of the RGB combinations. Since the color histogram is compared regardless of the size (number of pixels) of the person area, the frequency is divided by the number of pixels of the person area and normalized, and the normalized frequency (normalized frequency) is Describe in the feature amount. Further, it may be converted to a color space other than the RGB color space (for example, HSV color space etc.) to create a histogram, and may be used as a feature amount.

図4は、実施の形態に係る人物領域抽出処理のフローチャートである。
ここでは、カメラ201−1が撮影した画像(撮影画像322−1)の人物領域を抽出して特徴量を算出する場合を説明する。
FIG. 4 is a flowchart of person area extraction processing according to the embodiment.
Here, the case where the person area of the image (captured image 322-1) captured by the camera 201-1 is extracted and the feature amount is calculated will be described.

ステップS501において、送受信部312は、カメラ201−1から撮影した画像(撮影画像322−1)を受信し、記憶部322に格納する。   In step S501, the transmission and reception unit 312 receives an image (captured image 322-1) captured from the camera 201-1 and stores the image in the storage unit 322.

ステップS502において、人物領域抽出部313は、撮影画像322−1内で人物が映っている人物領域を検出し、検出した人物領域を撮影画像322−1から抽出する。人物領域抽出部313は、例えば、背景差分法により人物領域を検出する。人物領域抽出部313は、例えば、非特許文献1,2の記載の方法を用いて、人物領域を検出してもよい。背景差分法を用いる場合、予めカメラ201−1により人物が映っていない画像を撮影しておき、人物領域抽出部313は、当該画像と検出対象の撮影画像322−1とを比較し、差分に基づいて、人物領域を検出する。   In step S502, the person area extraction unit 313 detects a person area where a person appears in the captured image 322-1, and extracts the detected person area from the captured image 322-1. The human area extraction unit 313 detects a human area by, for example, the background subtraction method. The person area extraction unit 313 may detect a person area using, for example, the methods described in Non-Patent Documents 1 and 2. In the case of using the background subtraction method, an image in which a person is not captured is captured in advance by the camera 201-1, and the person area extraction unit 313 compares the image with the captured image 322-1 to be detected, Based on the person area is detected.

ステップS503において、人物領域抽出部313は、人物領域のうち、未評価の輪郭画素のうちの1つを注目画素として選択し、注目画素の混色率を算出する。   In step S503, the human area extraction unit 313 selects one of the unevaluated contour pixels in the human area as a target pixel, and calculates the color mixing ratio of the target pixel.

ここで、混色率の算出方法について説明する。
混色画素の画素値は、その外側の画素の画素値と内側の画素の画素値との線形和で表されると考えられ、外側の画素の画素値の割合(混色率)が閾値以上の場合に、輪郭画素は人物領域と背景領域の色が混色していると判定される。
Here, the method of calculating the color mixing ratio will be described.
It is considered that the pixel value of the mixed color pixel is represented by a linear sum of the pixel value of the outside pixel and the pixel value of the inside pixel, and the ratio (color mixing ratio) of the outside pixel is equal to or more than the threshold In addition, it is determined that the color of the person area and the background area are mixed in the outline pixel.

図5は、注目画素、内側画素、および外側画素を示す図である。図5は、撮影画像322−1の人物領域と背景の一部分の画像である。   FIG. 5 is a diagram showing a pixel of interest, an inner pixel, and an outer pixel. FIG. 5 shows an image of a person area and a part of the background of the photographed image 322-1.

図5において、左端から2列目までの画素は背景領域であり、右端から3列目までの画素がステップS502で検出された人物領域である。図5において、背景領域と隣接する人物領域の画素、すなわち左端から3列目の画素が輪郭画素となる。   In FIG. 5, the pixels from the left end to the second column are the background area, and the pixels from the right end to the third column are the person area detected in step S502. In FIG. 5, the pixels of the person area adjacent to the background area, that is, the pixels in the third column from the left end become outline pixels.

ここで、図5の上から2段目の輪郭画素を注目画素Iとし、注目画素Iの混色率を算出する場合を説明する。 Here, assuming that the contour pixel at the second stage from the top of FIG. 5 is the pixel of interest I C , the case where the color mixing ratio of the pixel of interest I C is calculated will be described.

注目画素Iに隣接し且つ人物領域に含まれる画素を内側画素I、注目画素Iに隣接し且つ人物領域に含まれない画素を外側画素Iとする。注目画素Iの画素値をV、内側画素Iの画素値をV、および外側画素Iの画素値をVとする。 A pixel adjacent to the pixel of interest I C and included in the person area is an inner pixel I i , and a pixel adjacent to the pixel of interest I C and not included in the person area is an outer pixel I o . The pixel value of the target pixel I C is V c , the pixel value of the inner pixel I i is V i , and the pixel value of the outer pixel I o is V o .

混色画素の画素値は、その外側の画素の画素値と内側の画素の画素値との線形和で表されると考えらので、注目画素Iの画素値をVは、混色率αとすると下式(1)で表される。
=αV+(1−α)V ・・・(1)
Since the pixel value of the mixed color pixel is considered to be represented by a linear sum of the pixel value of the outside pixel and the pixel value of the inside pixel, the pixel value of the target pixel I C is V c is the color mixing ratio α Then, it represents by the following Formula (1).
V c = αV o + (1−α) V i (1)

上式(1)より、混色率αは、下式(2)で算出される。
α=(V−V)/(V−V) ・・・(2)
From the above equation (1), the color mixing ratio α is calculated by the following equation (2).
α = (V c −V i ) / (V o −V i ) (2)

尚、画素値V、V、VがそれぞれRGBの3成分で表される場合、画素値V=(VcR,VcG,VcB)、V=(ViR,ViG,ViB)、V=(VoR,VoG,VoB)とすると、上式(2)における画素値の差分は下記の様にユークリッド距離で算出される。
−V=((VcR−ViR+(VcG−ViG+(VcB−ViB1/2
−V=((VoR−ViR+(VoG−ViG+(VoB−ViB1/2
When the pixel values V c , V i and V o are each represented by three components of RGB, the pixel values V c = (V cR , V cG , V cB ) and V i = (V iR , V iG , Assuming that V iB ) and V o = (V o R , V oG , V oB ), the difference between the pixel values in the above equation (2) is calculated by the Euclidean distance as follows.
V c −V i = ((V cR −V iR ) 2 + (V cG −V iG ) 2 + (V cB −V iB ) 2 ) 1/2
V o −V i = ((V oR −V iR ) 2 + (V oG −V iG ) 2 + (V oB −V iB ) 2 ) 1/2

注目画素に対する内側画素と外側画素の位置は、例えば、以下に示すようになる。
図6A〜6Fは、注目画素に対する内側および外側の画素の位置を示す図である。
The positions of the inner and outer pixels with respect to the target pixel are, for example, as shown below.
6A to 6F are diagrams showing positions of inner and outer pixels with respect to a target pixel.

図6Aに示すように、注目画素Iの上下に輪郭画素が隣接している場合、注目画素Iの左右に隣接する画素のうち、人物領域に含まれる一方の画素が内側画素Iとなり、人物領域に含まれない他方の画素が外側画素Iとなる。 As shown in FIG. 6A, if the contour pixels above and below the target pixel I c are adjacent the target pixel among the pixels adjacent to the left and right I c, one of the pixel next to the inner pixels I i included in the human region The other pixel not included in the person area is the outside pixel Io .

図6Bに示すように、注目画素Iの左右に輪郭画素が隣接している場合、注目画素Iの上下に隣接する画素のうち、人物領域に含まれる一方の画素が内側画素Iとなり、人物領域に含まれない他方の画素が外側画素Iとなる。 As shown in FIG. 6B, if the contour pixels on the left and right of the pixel of interest I c are adjacent the target pixel among the pixels adjacent above and below the I c, one of the pixel next to the inner pixels I i included in the human region The other pixel not included in the person area is the outside pixel Io .

図6Cに示すように、注目画素Iの下と右に輪郭画素が隣接している場合、注目画素Iの右下と左上に隣接する画素のうち、人物領域に含まれる一方の画素が内側画素Iとなり、人物領域に含まれない他方の画素が外側画素Iとなる。 As shown in FIG. 6C, if the contour pixels on the bottom and right of the pixel of interest I c is adjacent, of the pixels adjacent to the lower right and upper left of the pixel of interest I c, it is one of the pixels contained in the human region The inside pixel I i is used , and the other pixel not included in the person area is the outside pixel I o .

図6Dに示すように、注目画素Iの上と左に輪郭画素が隣接している場合、注目画素Iの左上と右下に隣接する画素のうち、人物領域に含まれる一方の画素が内側画素Iとなり、人物領域に含まれない他方の画素が外側画素Iとなる。 As shown in FIG. 6D, if the contour pixels on the top and left of the pixel of interest I c is adjacent, of the pixels adjacent to the upper left and lower right of the pixel of interest I c, it is one of the pixels contained in the human region The inside pixel I i is used , and the other pixel not included in the person area is the outside pixel I o .

図6Eに示すように、注目画素Iの下と左に輪郭画素が隣接している場合、注目画素Iの左下と右上に隣接する画素のうち、人物領域に含まれる一方の画素が内側画素Iとなり、人物領域に含まれない他方の画素が外側画素Iとなる。 As shown in FIG. 6E, if the contour pixels on the bottom and left of the pixel of interest I c is adjacent, of the pixels adjacent to the lower left and upper right of the pixel of interest I c, one of pixels included in the person area inside pixels I i, and the other pixels that are not included in the person area is outside the pixel I o.

図6Fに示すように、注目画素Iの上と右に輪郭画素が隣接している場合、注目画素Iの右上と左下に隣接する画素のうち、人物領域に含まれる一方の画素が内側画素Iとなり、人物領域に含まれない他方の画素が外側画素Iとなる。 As shown in FIG. 6F, if the contour pixels on the top and right of the pixel of interest I c is adjacent, of the pixels adjacent to the upper right and lower left of the pixel of interest I c, one of pixels included in the person area inside pixels I i, and the other pixels that are not included in the person area is outside the pixel I o.

混色しているか否かの判定(ステップS504)に用いる閾値は、予め設定された値を用いても良いし、後述するように、撮影画像322−jの背景に基づいて算出しても良い。   A threshold value used in the determination (step S504) of whether or not color mixing occurs may use a preset value or may be calculated based on the background of the photographed image 322-j as described later.

図4に戻り説明を続ける。
ステップS504において、人物領域抽出部313は、注目画素の混色率と閾値とを比較し、注目画素の混色率が閾値以上であるか否か判定する。注目画素の混色率が閾値以上である場合、制御はステップS505に進み、注目画素の混色率が閾値未満の場合、制御はステップS506に進む。尚、閾値は、例えば、予め設定された定数である。また、後述の閾値算出処理によって算出された閾値を用いても良い。
Returning to FIG. 4, the explanation will be continued.
In step S504, the human area extraction unit 313 compares the color mixing ratio of the target pixel with the threshold, and determines whether the color mixing ratio of the target pixel is equal to or greater than the threshold. If the color mixing ratio of the pixel of interest is equal to or greater than the threshold, control proceeds to step S505, and if the color mixing ratio of the pixel of interest is less than the threshold, control proceeds to step S506. The threshold is, for example, a constant set in advance. In addition, a threshold calculated by threshold calculation processing described later may be used.

ステップS505において、人物領域更新部314は、注目画素を人物領域から削除し、注目画素を削除した人物領域を新たな人物領域とする。   In step S505, the person area updating unit 314 deletes the pixel of interest from the person area, and sets the person area from which the pixel of interest is deleted as a new person area.

ステップS506において、人物領域更新部314は、全ての輪郭画素に対して評価を行ったか否か、すなわち全ての輪郭画素の混色率と閾値とを比較したか否か判定する。全ての輪郭画素に対して評価を行った場合、制御はステップS507に進み、全ての輪郭画素に対して評価を行ってない場合、制御はステップS503に戻る。   In step S506, the human area updating unit 314 determines whether all the contour pixels have been evaluated, that is, whether the color mixture ratio of all the contour pixels has been compared with the threshold value. If all contour pixels have been evaluated, control proceeds to step S507. If all contour pixels have not been evaluated, control returns to step S503.

ステップS507において、特徴生成部315は、人物領域の特徴量を算出する。例えば、特徴生成部315は、人物領域の色ヒストグラムを算出する。すなわち、人物領域の画素の各色成分(R(赤)、G(緑)、B(青))の各画素値の頻度を算出する。また、色ヒストグラムは、RGBの色毎に計数してもよいし、RGBの組み合わせごとに該当する画素を計数してもよい。色ヒストグラムは、人物領域の大きさ(画素数)によらずに比較するため、頻度を人物領域の画素数で除算して正規化し、正規化した頻度(正規化頻度)を特徴量としても良い。また、RGB色空間以外の色空間(例えばHSV色空間など)に変換してヒストグラムを作成し、特徴量としても良い。   In step S507, the feature generation unit 315 calculates feature amounts of the person area. For example, the feature generation unit 315 calculates a color histogram of a person area. That is, the frequency of each pixel value of each color component (R (red), G (green), B (blue)) of the pixel of the person area is calculated. The color histogram may be counted for each of the RGB colors, or the corresponding pixels may be counted for each of the RGB combinations. The color histogram is compared regardless of the size (number of pixels) of the person area, so the frequency may be divided by the number of pixels of the person area and normalized, and the normalized frequency (normalized frequency) may be used as the feature amount . Further, it may be converted to a color space other than the RGB color space (for example, HSV color space etc.) to create a histogram, and may be used as a feature amount.

ステップS508において、特徴生成部315は、算出した色ヒストグラムを特徴情報テーブル323の特徴量の欄に記載する。また、特徴生成部315は、カメラID、人物ID、座標1、座標2を特徴情報テーブル323に記載する。詳細には、例えば、送受信部312は、撮影画像322−1を撮影したカメラ201−1を特徴生成部315に通知し、特徴生成部315は、カメラ201−1に対応する識別子「1」をカメラIDとして特徴情報テーブル323に記載する。特徴生成部315は、既に特徴情報テーブル323の人物IDとして記載されている識別子とは異なる識別子をカメラIDとして特徴情報テーブル323に記載する。人物領域抽出部313は、人物領域を包含する矩形の左上と右下の座標を特徴生成部315に通知し、特徴生成部315は、通知された矩形の左上と右下の座標をそれぞれ座標1および座標2として特徴情報テーブル323に記載する。   In step S <b> 508, the feature generation unit 315 writes the calculated color histogram in the column of feature amounts of the feature information table 323. In addition, the feature generation unit 315 describes the camera ID, the person ID, the coordinates 1, and the coordinates 2 in the feature information table 323. In detail, for example, the transmitting and receiving unit 312 notifies the feature generating unit 315 of the camera 201-1 that has captured the captured image 322-1, and the feature generating unit 315 generates the identifier "1" corresponding to the camera 201-1. The camera ID is described in the feature information table 323 as a camera ID. The feature generating unit 315 writes an identifier different from the identifier already described as the person ID of the feature information table 323 in the feature information table 323 as a camera ID. The human region extraction unit 313 notifies the feature generation unit 315 of the upper left and lower right coordinates of the rectangle that includes the human region, and the feature generation unit 315 generates the upper left and lower right coordinates of the notified rectangle. And the coordinates 2 are described in the feature information table 323.

上記の実施の形態では、撮影画像322−1の特徴量を算出する場合を説明したが、撮影画像322−2〜323−jの特徴量も同様に算出する。また、上記の実施の形態では、輪郭画素について、混色率を算出し、混色しているか否かの判定結果に基づいて人物領域から削除を行っていたが、
輪郭画素以外の人物領域の画素についても、混色率を算出し、混色しているか否かの判定結果に基づいて人物領域から削除を行ってもよい。
In the above embodiment, the feature amount of the captured image 322-1 is calculated. However, the feature amounts of the captured images 322-2 to 323-j are similarly calculated. In the above embodiment, the color mixing ratio is calculated for the outline pixels, and deletion is performed from the person area based on the determination result of whether color mixing is performed or not.
The color mixing ratio may also be calculated for pixels in a person area other than the outline pixels, and deletion may be performed from the person area based on the determination result of whether or not color mixing is performed.

混色しているか否かの判定(ステップS504)に用いる閾値は、予め設定された値を用いても良いし、以下に説明するように、異なるカメラ201−iにより撮影された画像に基づいて算出しても良い。   A threshold value used in the determination (step S504) of whether or not color mixing occurs may use a preset value, or, as described below, calculated based on images captured by different cameras 201-i. You may.

図7は、実施の形態に係る閾値算出処理のフローチャートである。
ステップS511において、人物領域抽出部313は、第1の画像および第2の画像を取得し、第1の画像の背景画像(第1の背景画像)と第2の画像の背景画像(第2の背景画像)を取得する。背景画像は、人物等の移動物体が映っていない画像であり、例えば、撮影画像322−jから人物領域を削除した画像である。第1の画像および第2の画像に人物などの移動物体が映っていない場合、第1の画像および第2の画像をそれぞれ第1の背景画像および第2の背景画像として良い。第1の画像および第2の画像は、それぞれ異なるカメラ201−iによって撮影された画像である。第1の背景画像および第2の背景画像は、例えば、人物などの移動物体が映っていない撮影画像322−jである。また、第1および第2の背景画像は、撮影画像322−jから人物領域を削除した画像である。例えば、人物領域抽出部313は、カメラ201−1によって撮影された撮影画像322−1を取得し、撮影画像322−1の人物領域の検出と削除を行って、第1の背景画像を生成する。さらに、人物領域抽出部313は、カメラ201−2によって撮影された撮影画像322−2を取得し、撮影画像322−2の人物領域の検出と削除を行って、第2の背景画像を生成する。
FIG. 7 is a flowchart of threshold value calculation processing according to the embodiment.
In step S511, the human region extraction unit 313 acquires the first image and the second image, and the background image of the first image (first background image) and the background image of the second image (second image). Get background image). The background image is an image on which no moving object such as a person appears, and is, for example, an image obtained by deleting a person area from the captured image 322-j. When the first image and the second image do not show a moving object such as a person, the first image and the second image may be used as the first background image and the second background image, respectively. The first image and the second image are images taken by different cameras 201-i. The first background image and the second background image are, for example, photographed images 322-j in which no moving object such as a person is shown. The first and second background images are images obtained by deleting the person area from the captured image 322-j. For example, the person area extraction unit 313 acquires a captured image 322-1 captured by the camera 201-1, performs detection and deletion of a person area of the captured image 322-1, and generates a first background image. . Furthermore, the person area extraction unit 313 acquires the captured image 322-2 captured by the camera 201-2, performs detection and deletion of the person area of the captured image 322-2, and generates a second background image. .

ステップS512において、人物領域抽出部313は、第1の背景画像と第2の背景画像の色ヒストグラムを算出する。色ヒストグラムの算出方法は、上述のステップS507と同様である。   In step S512, the human area extraction unit 313 calculates color histograms of the first background image and the second background image. The calculation method of the color histogram is the same as that of step S507 described above.

ステップS513において、人物領域抽出部313は、第1の背景画像と第2の背景画像の色ヒストグラムの類似度を算出する。類似度は、例えば、色ヒストグラム間の相互相関やヒストグラムインターセクションである。また、人物領域抽出部313は、第1の背景画像と第2の背景画像をそれぞれ複数のブロックに分割し、それぞれのブロックについて色ヒストグラムを算出および類似度の算出を行い、各背景画像の複数のブロックの類似度の最小値や平均値を用いても良い。   In step S513, the human area extraction unit 313 calculates the degree of similarity between color histograms of the first background image and the second background image. The similarity is, for example, cross correlation between color histograms or histogram intersection. In addition, the person area extraction unit 313 divides the first background image and the second background image into a plurality of blocks, calculates color histograms and calculates the degree of similarity for each block, and generates a plurality of background images. The minimum value or the average value of the block similarity may be used.

ステップS514において、人物領域抽出部313は、算出した類似度に基づいて閾値を算出し、算出した閾値をステップS504で用いる閾値として設定する。類似度をSとして場合、閾値Tは、下式(3)で算出される。
T=r×S ・・・(3)
ここで、rは0から1の間の値をとる任意の係数であり、予め設定されている。
In step S514, the person area extraction unit 313 calculates a threshold based on the calculated degree of similarity, and sets the calculated threshold as the threshold used in step S504. When the similarity is S, the threshold T is calculated by the following equation (3).
T = r × S (3)
Here, r is an arbitrary coefficient taking a value between 0 and 1 and is preset.

人物領域抽出部313は、例えば、閾値算出処理を人物領域抽出処理より前に実行する。また、人物領域抽出部313は、閾値算出処理を定期的に実行し、閾値を変更するようにしても良い。   For example, the person area extraction unit 313 executes threshold calculation processing prior to person area extraction processing. The person area extraction unit 313 may periodically execute threshold calculation processing to change the threshold.

2つの撮影画像322−jの背景が類似した色である場合には、人物領域に混色が発生していても、人物の色特徴は類似する可能性が高い。一方で、背景が異なる色である場合には、人物領域の混色が発生していると、混色率が低くとも、人物領域の色特徴が異なる可能性が高い。そのため、混色画素を人物領域から除外するかどうか判定する閾値を、背景の類似度に基づいて算出することで、撮影環境に適した閾値を設定することが可能となる。   If the backgrounds of the two captured images 322-j have similar colors, the color features of the person are likely to be similar even if color mixing occurs in the person region. On the other hand, if the color of the person area is mixed when the background is a different color, there is a high possibility that the color features of the person area may be different even if the color mixture ratio is low. Therefore, it is possible to set a threshold value suitable for the photographing environment by calculating a threshold value for determining whether to exclude mixed color pixels from the person area based on the background similarity.

図8は、実施の形態に係る人物判定処理のフローチャートである。
ここでは、異なるカメラ201−iによって撮影された画像に映っている人物が同一人物であるか否か判定する場合を説明する。具体的には、カメラ201−1により撮影された撮影画像322−1に映る人物と、カメラ201−2により撮影された撮影画像322−2に映る人物とが同一人物であるか否かを判定する場合を説明する。どの撮影画像322−jに映る人物を判定するかは、例えば、ユーザ等により指示される。
FIG. 8 is a flowchart of person determination processing according to the embodiment.
Here, the case where it is determined whether or not the persons appearing in the images captured by the different cameras 201-i are the same person will be described. Specifically, it is determined whether or not the person shown in the photographed image 322-1 photographed by the camera 201-1 and the person shown in the photographed image 322-2 photographed by the camera 201-2 are the same person. Explain the case of For example, the user or the like instructs which photographed image 322-j is to be used to determine the person.

先ず、判定部316は、撮影画像322−1に映る第1の人物と撮影画像322−2に映る第2の人物とが同一人物であるか判定する指示を受信する。   First, the determination unit 316 receives an instruction to determine whether the first person shown in the photographed image 322-1 and the second person shown in the photographed image 322-2 are the same person.

ステップS521において、判定部316は、第1の人物を選択する。詳細には、判定部316は、特徴情報記憶テーブル323を参照し、撮影画像322−1の人物領域の特徴量を取得する。判定部316は、例えば、図3に記載の特徴情報記憶テーブル323の1行目の特徴量「XXX」を取得する。   In step S521, the determination unit 316 selects the first person. Specifically, the determination unit 316 refers to the feature information storage table 323, and acquires the feature amount of the person area of the captured image 322-1. The determination unit 316, for example, acquires the feature amount "XXX" of the first line of the feature information storage table 323 described in FIG.

ステップS522において、判定部316は、判定部316は、第2の人物を選択する。詳細には、判定部316は、特徴情報記憶テーブル323を参照し、撮影画像322−2の人物領域の特徴量を取得する。判定部316は、例えば、図3に記載の特徴情報記憶テーブル323の2行目の特徴量「YYY」を取得する。   In step S522, the determination unit 316 selects the second person. Specifically, the determination unit 316 refers to the feature information storage table 323, and acquires the feature amount of the person area of the captured image 322-2. For example, the determination unit 316 acquires the feature amount “YYY” of the second line of the feature information storage table 323 described in FIG. 3.

ステップS523において、判定部316は、第1の人物および第2の人物の特徴量の類似度を算出する。すなわち、判定部316は、撮影画像322−1の人物領域の特徴量「XXX」と撮影画像322−2の人物領域の特徴量「YYY」の類似度を算出する。上述のように、特徴量は、例えば、色ヒストグラムである。類似度は、例えば、2つの色ヒストグラム間の相互相関やヒストグラムインターセクションである。   In step S523, the determination unit 316 calculates the similarity between the feature amounts of the first person and the second person. That is, the determination unit 316 calculates the similarity between the feature amount "XXX" of the person area of the captured image 322-1 and the feature amount "YYY" of the person area of the captured image 322-2. As described above, the feature value is, for example, a color histogram. The similarity is, for example, cross-correlation or histogram intersection between two color histograms.

ステップS524において、判定部316は、算出した類似度が閾値以上であるか否か判定する。類似度が閾値以上である場合、制御はステップS525に進み、類似度が閾値未満である場合、制御はステップS526に進む。尚、閾値は、例えば、予め設定された定数である。   In step S524, the determination unit 316 determines whether the calculated similarity is equal to or greater than a threshold. If the similarity is greater than or equal to the threshold, control proceeds to step S525, and if the similarity is less than the threshold, control proceeds to step S526. The threshold is, for example, a constant set in advance.

ステップS525において、判定部316は、第1の人物と第2の人物が同一人物であると判定する。すなわち、判定部316は、撮影画像322−1に映る人物と撮影画像322−2に映る人物とが同一人物であると判定する。判定部316は、撮影画像322−1に映る人物と撮影画像322−2に映る人物とが同一人物であることを示す情報を記憶部321に格納する。また、判定部316は、特徴情報記憶テーブル323において、同一人物であると判定したときに使用した2つ特長量に対応する2つの人物IDを同じ値に設定しても良い。   In step S525, the determination unit 316 determines that the first person and the second person are the same person. That is, the determination unit 316 determines that the person shown in the photographed image 322-1 and the person shown in the photographed image 322-2 are the same person. The determination unit 316 stores, in the storage unit 321, information indicating that the person shown in the photographed image 322-1 and the person shown in the photographed image 322-2 are the same person. In addition, the determination unit 316 may set two person IDs corresponding to the two feature amounts used when determining that they are the same person in the feature information storage table 323 to the same value.

ステップS526において、判定部316は、第1の人物と第2の人物が同一人物でないと判定する。すなわち、判定部316は、撮影画像322−1に映る人物と撮影画像322−2に映る人物とが同一人物でないと判定する。   In step S526, the determination unit 316 determines that the first person and the second person are not the same person. That is, the determination unit 316 determines that the person shown in the photographed image 322-1 and the person shown in the photographed image 322-2 are not the same person.

上述の説明では、撮影画像322−1と撮影画像322−2の組み合わせに対して処理を行ったが、判定部316は、上述の人物判定処理を撮影画像322−jの全ての組み合わせに対して行っても良い。   In the above description, although the process is performed on the combination of the captured image 322-1 and the captured image 322-2, the determination unit 316 performs the above-described person determination process on all combinations of the captured image 322-j. You may go.

尚、上述の人物判定処理では、異なるカメラで撮影された2つの画像の人物について同一人物であるか判定したが、同じカメラで撮影された2つの画像の人物について同一人物であるか否かを判定してもよい。   In the above-mentioned person determination processing, it was determined whether or not persons of two images photographed by different cameras are the same person, but whether persons of two images photographed by the same camera are the same person or not You may judge.

ここで、従来の人物領域抽出方法と実施の形態に係る人物領域抽出方法のそれぞれを用いた場合の人物の判定処理を説明する。   Here, determination processing of a person when each of the conventional person region extraction method and the person region extraction method according to the embodiment is used will be described.

図9は、従来の人物領域抽出方法を用いた人物の判定処理を示す図である。
撮影画像322−1,322−2に映る人物は、同一人物であるとする。また、撮影画像322−1,322−2のそれぞれの背景の色は異なるとする。
FIG. 9 is a diagram showing person determination processing using a conventional person region extraction method.
The persons shown in the photographed images 322-1 and 322-2 are assumed to be the same person. Further, it is assumed that the color of the background of each of the photographed images 322-1 and 322-2 is different.

撮影画像322−1,322−2に対して、例えば、従来の背景差分法などを用いた人物領域抽出方法を適用して、人物領域を抽出する。このとき、背景と隣接する輪郭画素も人物領域に含まれている。また、輪郭画素において混色が発生しているとする。   For example, a person area extraction method is applied to the photographed images 322-1 and 322-2 by using a conventional background subtraction method or the like to extract a person area. At this time, contour pixels adjacent to the background are also included in the human region. Further, it is assumed that color mixing occurs in the outline pixels.

混色が発生した場合、輪郭画素の色(画素値)は、背景の色によって、異なる色となる。すなわち、撮影画像322−1,322−2のそれぞれにおいて、人物領域(輪郭画素を除く)の色が同じでも、背景の色が異なる場合、輪郭画素の色も異なる。   When color mixing occurs, the color (pixel value) of the outline pixel becomes a different color depending on the color of the background. That is, in each of the photographed images 322-1 and 322-2, even if the color of the person area (excluding the outline pixel) is the same, if the background color is different, the color of the outline pixel is also different.

この場合、輪郭画素を含む人物領域の特徴量(色ヒストグラム)を算出すると、撮影画像322−1,322−2のそれぞれの人物領域の特徴量は異なる。特に撮影画像322−1,322−2が低解像度の場合、輪郭画素の影響が大きくなるため、撮影画像322−1,322−2のそれぞれの人物領域の特徴量は大きく異なる。   In this case, when the feature amount (color histogram) of a person area including contour pixels is calculated, the feature amounts of the person areas of the photographed images 322-1 and 322-2 are different. In particular, when the captured images 322-1 and 322-2 have low resolution, the influence of the outline pixels becomes large, and thus the feature amounts of the person regions of the captured images 322-1 and 322-2 greatly differ.

そのため、撮影画像322−1に映る人物と322−2に映る人物は、同一人物でないと判定されてしまい、誤判定となる。   Therefore, it is determined that the person shown in the photographed image 322-1 and the person shown in the image 322-2 are not the same person, resulting in an erroneous determination.

図10は、実施の形態に係る人物領域抽出方法を用いた人物の判定処理を示す図である。   FIG. 10 is a diagram showing person determination processing using the person area extraction method according to the embodiment.

撮影画像322−1,322−2に映る人物は、同一人物であるとする。また、撮影画像322−1,322−2のそれぞれの背景の色は異なるとする。   The persons shown in the photographed images 322-1 and 322-2 are assumed to be the same person. Further, it is assumed that the color of the background of each of the photographed images 322-1 and 322-2 is different.

撮影画像322−1,322−2に対して、例えば、従来の背景差分法などを用いた人物領域抽出方法を適用して、人物領域を抽出する。このとき、背景と隣接する輪郭画素も人物領域に含まれている。また、輪郭画素において混色が発生しているとする。   For example, a person area extraction method is applied to the photographed images 322-1 and 322-2 by using a conventional background subtraction method or the like to extract a person area. At this time, contour pixels adjacent to the background are also included in the human region. Further, it is assumed that color mixing occurs in the outline pixels.

実施の形態において、輪郭画素が混色している場合、輪郭画素を人物領域から削除して、人物領域を更新する。そして、更新後の人物領域、すなわち混色している輪郭画素を含まない人物領域の特徴量を(色ヒストグラム)を算出する。   In the embodiment, when the outline pixels are mixed, the outline pixels are deleted from the person area and the person area is updated. Then, the feature amount of the person area after the update, that is, the person area not including the mixed outline pixel is calculated (color histogram).

この場合、輪郭画素を含まない人物領域の特徴量(色ヒストグラム)を算出すると、撮影画像322−1,322−2のそれぞれの輪郭画素を含まない人物領域の特徴量は一致(類似)する。   In this case, when the feature amount (color histogram) of the person area not including the outline pixel is calculated, the feature amounts of the person area not including the outline pixel of the photographed images 322-1 and 322-2 match (similarly).

そのため、撮影画像322−1に映る人物と322−2に映る人物は、同一人物であると判定され、正しく判定できる。   Therefore, the person shown in the photographed image 322-1 and the person shown in the image 322-2 are determined to be the same person, and can be correctly determined.

実施の形態に係る人物判定システムは、混色が発生した場合に、混色した画素を除いた人物領域の特徴量を算出し、算出した特長量に基づいて同一人物であるか否か判定している。それにより、同一人物であるか否かの誤判定を低減することができる。特に、撮影画像が低解像度の場合、すなわち混色が起こりやすくなる場合に、同一人物であるか否かの誤判定を低減する効果が大きくなる。   When color mixture occurs, the person determination system according to the embodiment calculates the feature amount of the person area excluding the mixed color pixel, and determines whether or not the same person is based on the calculated feature amount. . As a result, it is possible to reduce the erroneous determination as to whether or not the same person is present. In particular, when the captured image has a low resolution, that is, when color mixing easily occurs, the effect of reducing the erroneous determination as to whether or not the same person is increased.

尚、上述の実施の形態では、人物の同一判定を行っていたが、同一判定の対象は人に限らず、車やバイク等の任意の物体でもよい。撮影画像の映る人物や車、バイク等は被写体の一例である。   In the above-described embodiment, the same determination of persons is performed. However, the target of the same determination is not limited to a person, and any object such as a car or a motorcycle may be used. A person, a car, a motorcycle or the like on which a photographed image appears is an example of a subject.

図11は、情報処理装置(コンピュータ)の構成図である。
実施の形態のサーバ301は、例えば、図11に示すような情報処理装置1によって実現可能である。
FIG. 11 is a block diagram of an information processing apparatus (computer).
The server 301 according to the embodiment can be realized by, for example, an information processing apparatus 1 as illustrated in FIG.

情報処理装置1は、CPU2、メモリ3、入力部4、出力部5、記憶部6、記録媒体駆動部7、及びネットワーク接続部8を備え、それらはバス9により互いに接続されている。   The information processing apparatus 1 includes a CPU 2, a memory 3, an input unit 4, an output unit 5, a storage unit 6, a recording medium drive unit 7, and a network connection unit 8, which are connected to one another by a bus 9.

CPU2は、情報処理装置1全体を制御する中央処理装置である。CPU2は、処理部311に対応する。   The CPU 2 is a central processing unit that controls the entire information processing apparatus 1. The CPU 2 corresponds to the processing unit 311.

メモリ3は、プログラム実行の際に、記憶部6(あるいは可搬記録媒体10)に記憶されているプログラムあるいはデータを一時的に格納するRead Only Memory(ROM)やRandom Access Memory(RAM)等のメモリである。CPU2は、メモリ3を利用してプログラムを実行することにより、上述した各種処理を実行する。   The memory 3 is a read only memory (ROM), a random access memory (RAM) or the like that temporarily stores the program or data stored in the storage unit 6 (or the portable recording medium 10) when the program is executed. It is a memory. The CPU 2 executes the various processes described above by executing a program using the memory 3.

この場合、可搬記録媒体10等から読み出されたプログラムコード自体が実施の形態の機能を実現する。   In this case, the program code itself read from the portable recording medium 10 or the like realizes the functions of the embodiment.

入力部4は、例えば、キーボード、マウス、タッチパネル、カメラ、またはセンサ等であり、ユーザ又はオペレータからの指示や情報の入力、情報処理装置1で用いられるデータの取得等に用いられる。   The input unit 4 is, for example, a keyboard, a mouse, a touch panel, a camera, or a sensor, and is used to input an instruction or information from a user or an operator, or to acquire data used in the information processing apparatus 1.

出力部5は、例えば、ディスプレイ、またはプリンタ等である。出力部5は、ユーザ又はオペレータへの問い合わせや処理結果を出力したり、CPU2による制御により動作する装置である。   The output unit 5 is, for example, a display or a printer. The output unit 5 is a device that outputs an inquiry to a user or an operator or a processing result, or operates under control of the CPU 2.

記憶部6は、例えば、磁気ディスク装置、光ディスク装置、テープ装置等である。情報処理装置1は、記憶部6に、上述のプログラムとデータを保存しておき、必要に応じて、それらをメモリ3に読み出して使用する。メモリ3および記憶部6は、記憶部321に対応する。   The storage unit 6 is, for example, a magnetic disk device, an optical disk device, a tape device, or the like. The information processing apparatus 1 stores the above-described program and data in the storage unit 6 and reads them into the memory 3 for use as needed. The memory 3 and the storage unit 6 correspond to the storage unit 321.

記録媒体駆動部7は、可搬記録媒体10を駆動し、その記録内容にアクセスする。可搬記録媒体としては、メモリカード、フレキシブルディスク、Compact Disk Read Only Memory(CD−ROM)、光ディスク、光磁気ディスク等、任意のコンピュータ読み取り可能な記録媒体が用いられる。ユーザは、この可搬記録媒体10に上述のプログラムとデータを格納しておき、必要に応じて、それらをメモリ3に読み出して使用する。   The recording medium drive unit 7 drives the portable recording medium 10 and accesses the recorded contents. As a portable recording medium, any computer readable recording medium such as a memory card, a flexible disk, a Compact Disk Read Only Memory (CD-ROM), an optical disk, a magneto-optical disk, etc. is used. The user stores the above-described program and data in the portable recording medium 10, and reads them into the memory 3 for use as needed.

ネットワーク接続部8は、Local Area Network(LAN)やWide Area Network(WAN)等の任意の通信ネットワークに接続され、通信に伴うデータ変換を行う。ネットワーク接続部8は、通信ネットワークを介して接続された装置へデータの送信または通信ネットワークを介して接続された装置からデータを受信する。   The network connection unit 8 is connected to an arbitrary communication network such as a Local Area Network (LAN) or a Wide Area Network (WAN), and performs data conversion involved in communication. The network connection unit 8 transmits data to a device connected via a communication network, or receives data from a device connected via a communication network.

以上の実施の形態に関し、さらに以下の付記を開示する。
(付記1)
第1の画像において第1の領域の第1の画素が、前記第1の領域と隣接する第1の背景画素と混色するか判定し、
前記第1の画素が前記第1の背景画素と混色すると判定した場合、前記第1の画素を除外した前記第1の領域の第1の特徴量を算出し、
第2の画像において第2の領域の第2の画素が、前記第2の領域と隣接する第2の背景画素と混色するか判定し、
前記第2の画素が前記第2の背景画素と混色すると判定した場合、前記第2の画素を除外した前記第2の領域の第2の特徴量を算出し、
前記第1の特徴量と前記第2の特徴量に基づいて、前記第1の領域の被写体と前記第2の領域の被写体とが同一であるか否かを判定する
処理をコンピュータに実行させることを特徴とする同一判定プログラム。
(付記2)
前記コンピュータは、
前記第1の画素の画素値と、前記第1の背景画素の画素値と、前記第1の画素と隣接する前記第1の領域の画素の画素値と、に基づいて、第1の混色率を算出し、前記第1の混色率が閾値以上であるか否かに基づいて、前記第1の領域の第1の画素が前記第1の領域と隣接する第1の背景画素と混色しているか否かを判定し、
前記第2の画素の画素値と、前記第2の背景画素の画素値と、前記第2の画素と隣接する前記第2の領域の画素の画素値と、に基づいて、第2の混色率を算出し、前記第2の混色率が前記閾値以上であるか否かに基づいて、前記第2の領域の第2の画素が前記第2の領域と隣接する第2の背景画素と混色しているか否かを判定することを特徴とする付記1記載の同一判定プログラム。
(付記3)
前記第1の画像は第1の撮影装置により撮影された画像であり、前記第2の画像は前記第1の撮影装置とは異なる第2の撮影装置により撮影された画像であり、
前記コンピュータは、前記第1の画像の前記第1の領域以外の第1の背景画像と、前記第2の画像の前記第2の領域以外の第2の背景画像と、に基づいて、前記閾値を算出することを特徴とする付記2記載の同一判定プログラム。
(付記4)
第1の画像において第1の領域の第1の画素が、前記第1の領域と隣接する第1の背景画素と混色するか判定し前記第1の画素が前記第1の背景画素と混色すると判定した場合、前記第1の画素を除外した前記第1の領域の第1の特徴量を算出し、第2の画像において第2の領域の第2の画素が、前記第2の領域と隣接する第2の背景画素と混色するか判定し、前記第2の画素が前記第2の背景画素と混色すると判定した場合、前記第2の輪郭画素を除外した前記第2の領域の第2の特徴量を算出する算出部と、
前記第1の特徴量と前記第2の特徴量に基づいて、前記第1の領域の被写体と前記第2の領域の被写体とが同一であるか否かを判定する判定部と、
を備える同一判定装置。
(付記5)
前記算出部は、前記第1の画素の画素値と、前記第1の背景画素の画素値と、前記第1の画素と隣接する前記第1の領域の画素の画素値と、に基づいて、第1の混色率を算出し、前記第1の混色率が閾値以上であるか否かに基づいて、前記第1の領域の第1の画素が前記第1の領域と隣接する第1の背景画素と混色しているか否かを判定し、前記第2の画素の画素値と、前記第2の背景画素の画素値と、前記第2の画素と隣接する前記第2の領域の画素の画素値と、に基づいて、第2の混色率を算出し、前記第2の混色率が前記閾値以上であるか否かに基づいて、前記第2の領域の第2の画素が前記第2の領域と隣接する第2の背景画素と混色しているか否かを判定することを特徴とする付記4記載の同一判定装置。
(付記6)
前記第1の画像は第1の撮影装置により撮影された画像であり、前記第2の画像は前記第1の撮影装置とは異なる第2の撮影装置により撮影された画像であり、
前記算出部は、前記第1の画像の前記第1の領域以外の第1の背景画像と、前記第2の画像の前記第2の領域以外の第2の背景画像と、に基づいて、前記閾値を算出することを特徴とする付記5記載の同一判定装置。
(付記7)
情報処理装置が実行する同一判定方法であって、
第1の画像において第1の領域の第1の画素が、前記第1の領域と隣接する第1の背景画素と混色するか判定し、
前記第1の画素が前記第1の背景画素と混色すると判定した場合、前記第1の画素を除外した前記第1の領域の第1の特徴量を算出し、
第2の画像において第2の領域の第2の画素が、前記第2の領域と隣接する第2の背景画素と混色するか判定し、
前記第2の画素が前記第2の背景画素と混色すると判定した場合、前記第2の画素を除外した前記第2の領域の第2の特徴量を算出し、
前記第1の特徴量と前記第2の特徴量に基づいて、前記第1の領域の被写体と前記第2の領域の被写体とが同一であるか否かを判定する
ことを特徴とする同一判定方法。
(付記8)
前記情報処理装置は、
前記第1の画素の画素値と、前記第1の背景画素の画素値と、前記第1の画素と隣接する前記第1の領域の画素の画素値と、に基づいて、第1の混色率を算出し、前記第1の混色率が閾値以上であるか否かに基づいて、前記第1の領域の第1の画素が前記第1の領域と隣接する第1の背景画素と混色しているか否かを判定し、
前記第2の画素の画素値と、前記第2の背景画素の画素値と、前記第2の画素と隣接する前記第2の領域の画素の画素値と、に基づいて、第2の混色率を算出し、前記第2の混色率が前記閾値以上であるか否かに基づいて、前記第2の領域の第2の画素が前記第2の領域と隣接する第2の背景画素と混色しているか否かを判定することを特徴とする付記7記載の同一判定方法。
(付記9)
前記第1の画像は第1の撮影装置により撮影された画像であり、前記第2の画像は前記第1の撮影装置とは異なる第2の撮影装置により撮影された画像であり、
前記情報処理装置は、前記第1の画像の前記第1の領域以外の第1の背景画像と、前記第2の画像の前記第2の領域以外の第2の背景画像と、に基づいて、前記閾値を算出することを特徴とする付記8記載の同一判定方法。
Further, the following appendices will be disclosed regarding the above embodiment.
(Supplementary Note 1)
It is determined in the first image whether or not the first pixel in the first area mixes with the first background pixel adjacent to the first area,
When it is determined that the first pixel mixes with the first background pixel, a first feature value of the first region excluding the first pixel is calculated;
In the second image, it is determined whether the second pixel in the second area mixes with the second background pixel adjacent to the second area,
When it is determined that the second pixel mixes with the second background pixel, a second feature value of the second region excluding the second pixel is calculated.
Determining whether or not the subject in the first area and the subject in the second area are the same based on the first feature quantity and the second feature quantity. The same judgment program characterized by.
(Supplementary Note 2)
The computer is
A first color mixing ratio based on a pixel value of the first pixel, a pixel value of the first background pixel, and a pixel value of a pixel of the first region adjacent to the first pixel. Is calculated, and the first pixel of the first area is mixed with the first background pixel adjacent to the first area based on whether the first color mixing ratio is equal to or higher than a threshold value. To determine if it is
A second color mixing ratio based on the pixel value of the second pixel, the pixel value of the second background pixel, and the pixel value of the second region adjacent to the second pixel. Is calculated, and the second pixel of the second area mixes with the second background pixel adjacent to the second area based on whether the second color mixing ratio is equal to or more than the threshold value. The same determination program as described in the additional statement 1, characterized in that it is determined whether or not
(Supplementary Note 3)
The first image is an image captured by a first imaging device, and the second image is an image captured by a second imaging device different from the first imaging device.
The computer determines the threshold based on a first background image other than the first region of the first image and a second background image other than the second region of the second image. The same determination program according to supplementary note 2, characterized in that:
(Supplementary Note 4)
In the first image, it is determined whether the first pixel in the first area mixes with the first background pixel adjacent to the first area, and the first pixel mixes with the first background pixel When it is determined, a first feature amount of the first area excluding the first pixel is calculated, and a second pixel of the second area in the second image is adjacent to the second area If it is determined that the second background pixel mixes with the second background pixel, it is determined that the second background pixel mixes with the second background pixel. A calculation unit that calculates a feature amount;
A determination unit that determines whether the subject in the first area and the subject in the second area are the same based on the first feature quantity and the second feature quantity;
The same judging device provided with
(Supplementary Note 5)
The calculation unit is based on a pixel value of the first pixel, a pixel value of the first background pixel, and a pixel value of a pixel of the first area adjacent to the first pixel. A first background in which a first pixel of the first area is adjacent to the first area based on whether a first color mixing ratio is calculated and whether the first color mixing ratio is equal to or higher than a threshold value. It is determined whether the color is mixed with the pixel, and the pixel value of the second pixel, the pixel value of the second background pixel, and the pixel of the second region adjacent to the second pixel are determined. A second color mixing ratio is calculated based on the value, and based on whether or not the second color mixing ratio is equal to or more than the threshold value, the second pixel of the second region is the second pixel. The same determination apparatus as set forth in claim 4, characterized in that it is determined whether color mixing is performed with a second background pixel adjacent to the area.
(Supplementary Note 6)
The first image is an image captured by a first imaging device, and the second image is an image captured by a second imaging device different from the first imaging device.
The calculation unit is configured to calculate the first background image other than the first region of the first image and the second background image other than the second region of the second image. The same determination apparatus as set forth in claim 5, wherein a threshold is calculated.
(Appendix 7)
The same determination method performed by the information processing apparatus,
It is determined in the first image whether or not the first pixel in the first area mixes with the first background pixel adjacent to the first area,
When it is determined that the first pixel mixes with the first background pixel, a first feature value of the first region excluding the first pixel is calculated;
In the second image, it is determined whether the second pixel in the second area mixes with the second background pixel adjacent to the second area,
When it is determined that the second pixel mixes with the second background pixel, a second feature value of the second region excluding the second pixel is calculated.
It is determined whether the subject in the first area and the subject in the second area are the same based on the first feature quantity and the second feature quantity. Method.
(Supplementary Note 8)
The information processing apparatus is
A first color mixing ratio based on a pixel value of the first pixel, a pixel value of the first background pixel, and a pixel value of a pixel of the first region adjacent to the first pixel. Is calculated, and the first pixel of the first area is mixed with the first background pixel adjacent to the first area based on whether the first color mixing ratio is equal to or higher than a threshold value. To determine if it is
A second color mixing ratio based on the pixel value of the second pixel, the pixel value of the second background pixel, and the pixel value of the second region adjacent to the second pixel. Is calculated, and the second pixel of the second area mixes with the second background pixel adjacent to the second area based on whether the second color mixing ratio is equal to or more than the threshold value. The same determination method as described in the additional statement 7, characterized in that it is determined whether or not
(Appendix 9)
The first image is an image captured by a first imaging device, and the second image is an image captured by a second imaging device different from the first imaging device.
The information processing apparatus is based on a first background image other than the first region of the first image and a second background image other than the second region of the second image. The same determination method according to appendix 8, wherein the threshold is calculated.

101 人物判定システム
201 カメラ
301 サーバ
311 処理部
312 送受信部
313 人物領域抽出部
314 人物領域更新部
315 特徴生成部
316 判定部
321 記憶部
322 撮影画像
323 特徴情報記憶テーブル
101 person determination system 201 camera 301 server 311 processing unit 312 transmission / reception unit 313 person area extraction unit 314 person area update unit 315 feature generation unit 316 determination unit 321 storage unit 322 photographed image 323 feature information storage table

Claims (5)

第1の画像において第1の領域の第1の画素が、前記第1の領域と隣接する第1の背景画素と混色するか判定し、
前記第1の画素が前記第1の背景画素と混色すると判定した場合、前記第1の画素を除外した前記第1の領域の第1の特徴量を算出し、
第2の画像において第2の領域の第2の画素が、前記第2の領域と隣接する第2の背景画素と混色するか判定し、
前記第2の画素が前記第2の背景画素と混色すると判定した場合、前記第2の画素を除外した前記第2の領域の第2の特徴量を算出し、
前記第1の特徴量と前記第2の特徴量に基づいて、前記第1の領域の被写体と前記第2の領域の被写体とが同一であるか否かを判定する
処理をコンピュータに実行させることを特徴とする同一判定プログラム。
It is determined in the first image whether or not the first pixel in the first area mixes with the first background pixel adjacent to the first area,
When it is determined that the first pixel mixes with the first background pixel, a first feature value of the first region excluding the first pixel is calculated;
In the second image, it is determined whether the second pixel in the second area mixes with the second background pixel adjacent to the second area,
When it is determined that the second pixel mixes with the second background pixel, a second feature value of the second region excluding the second pixel is calculated.
Determining whether or not the subject in the first area and the subject in the second area are the same based on the first feature quantity and the second feature quantity. The same judgment program characterized by.
前記コンピュータは、
前記第1の画素の画素値と、前記第1の背景画素の画素値と、前記第1の画素と隣接する前記第1の領域の画素の画素値と、に基づいて、第1の混色率を算出し、前記第1の混色率が閾値以上であるか否かに基づいて、前記第1の領域の第1の画素が前記第1の領域と隣接する第1の背景画素と混色しているか否かを判定し、
前記第2の画素の画素値と、前記第2の背景画素の画素値と、前記第2の画素と隣接する前記第2の領域の画素の画素値と、に基づいて、第2の混色率を算出し、前記第2の混色率が前記閾値以上であるか否かに基づいて、前記第2の領域の第2の画素が前記第2の領域と隣接する第2の背景画素と混色しているか否かを判定することを特徴とする請求項1記載の同一判定プログラム。
The computer is
A first color mixing ratio based on a pixel value of the first pixel, a pixel value of the first background pixel, and a pixel value of a pixel of the first region adjacent to the first pixel. Is calculated, and the first pixel of the first area is mixed with the first background pixel adjacent to the first area based on whether the first color mixing ratio is equal to or higher than a threshold value. To determine if it is
A second color mixing ratio based on the pixel value of the second pixel, the pixel value of the second background pixel, and the pixel value of the second region adjacent to the second pixel. Is calculated, and the second pixel of the second area mixes with the second background pixel adjacent to the second area based on whether the second color mixing ratio is equal to or more than the threshold value. The same determination program according to claim 1, characterized in that it is determined whether or not it is present.
前記第1の画像は第1の撮影装置により撮影された画像であり、前記第2の画像は前記第1の撮影装置とは異なる第2の撮影装置により撮影された画像であり、
前記コンピュータは、前記第1の画像の前記第1の領域以外の第1の背景画像と、前記第2の画像の前記第2の領域以外の第2の背景画像と、に基づいて、前記閾値を算出することを特徴とする請求項2記載の同一判定プログラム。
The first image is an image captured by a first imaging device, and the second image is an image captured by a second imaging device different from the first imaging device.
The computer determines the threshold based on a first background image other than the first region of the first image and a second background image other than the second region of the second image. The same determination program according to claim 2, wherein:
第1の画像において第1の領域の第1の画素が、前記第1の領域と隣接する第1の背景画素と混色するか判定し、前記第1の画素が前記第1の背景画素と混色すると判定した場合、前記第1の画素を除外した前記第1の領域の第1の特徴量を算出し、第2の画像において第2の領域の第2の画素が、前記第2の領域と隣接する第2の背景画素と混色するか判定し、前記第2の画素が前記第2の背景画素と混色すると判定した場合、前記第2の画素を除外した前記第2の領域の第2の特徴量を算出する算出部と、
前記第1の特徴量と前記第2の特徴量に基づいて、前記第1の領域の被写体と前記第2の領域の被写体とが同一であるか否かを判定する判定部と、
を備える同一判定装置。
In the first image, it is determined whether the first pixel in the first area mixes with the first background pixel adjacent to the first area, and the first pixel mixes with the first background pixel If so, a first feature amount of the first area excluding the first pixel is calculated, and a second pixel of the second area in the second image is the second area and the second area. When it is determined whether the color mixing with the adjacent second background pixel is made and it is determined that the second pixel mixes with the second background pixel, the second of the second region excluding the second pixel is determined. A calculation unit that calculates a feature amount;
A determination unit that determines whether the subject in the first area and the subject in the second area are the same based on the first feature quantity and the second feature quantity;
The same judging device provided with
情報処理装置が実行する同一判定方法であって、
第1の画像において第1の領域の第1の画素が、前記第1の領域と隣接する第1の背景画素と混色するか判定し、
前記第1の画素が前記第1の背景画素と混色すると判定した場合、前記第1の画素を除外した前記第1の領域の第1の特徴量を算出し、
第2の画像において第2の領域の第2の画素が、前記第2の領域と隣接する第2の背景画素と混色するか判定し、
前記第2の画素が前記第2の背景画素と混色すると判定した場合、前記第2の画素を除外した前記第2の領域の第2の特徴量を算出し、
前記第1の特徴量と前記第2の特徴量に基づいて、前記第1の領域の被写体と前記第2の領域の被写体とが同一であるか否かを判定する
ことを特徴とする同一判定方法。
The same determination method performed by the information processing apparatus,
It is determined in the first image whether or not the first pixel in the first area mixes with the first background pixel adjacent to the first area,
When it is determined that the first pixel mixes with the first background pixel, a first feature value of the first region excluding the first pixel is calculated;
In the second image, it is determined whether the second pixel in the second area mixes with the second background pixel adjacent to the second area,
When it is determined that the second pixel mixes with the second background pixel, a second feature value of the second region excluding the second pixel is calculated.
It is determined whether the subject in the first area and the subject in the second area are the same based on the first feature quantity and the second feature quantity. Method.
JP2015201236A 2015-10-09 2015-10-09 Same determination program, same determination apparatus, and same determination method Active JP6540445B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2015201236A JP6540445B2 (en) 2015-10-09 2015-10-09 Same determination program, same determination apparatus, and same determination method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015201236A JP6540445B2 (en) 2015-10-09 2015-10-09 Same determination program, same determination apparatus, and same determination method

Publications (2)

Publication Number Publication Date
JP2017073071A JP2017073071A (en) 2017-04-13
JP6540445B2 true JP6540445B2 (en) 2019-07-10

Family

ID=58538279

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015201236A Active JP6540445B2 (en) 2015-10-09 2015-10-09 Same determination program, same determination apparatus, and same determination method

Country Status (1)

Country Link
JP (1) JP6540445B2 (en)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6690090B2 (en) * 2016-05-10 2020-04-28 富士通株式会社 Feature amount comparison program, information processing apparatus, and feature amount comparison method
JP6973175B2 (en) * 2018-02-27 2021-11-24 富士通株式会社 Image selection program, information processing device, system, and image selection method

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07302342A (en) * 1994-05-09 1995-11-14 Fujitsu Ltd Method and device for extracting contour
JP4156084B2 (en) * 1998-07-31 2008-09-24 松下電器産業株式会社 Moving object tracking device
JP5180733B2 (en) * 2008-08-19 2013-04-10 セコム株式会社 Moving object tracking device

Also Published As

Publication number Publication date
JP2017073071A (en) 2017-04-13

Similar Documents

Publication Publication Date Title
JP6428266B2 (en) COLOR CORRECTION DEVICE, COLOR CORRECTION METHOD, AND COLOR CORRECTION PROGRAM
JP6184271B2 (en) Imaging management apparatus, imaging management system control method, and program
US20130258198A1 (en) Video search system and method
JP2011165008A (en) Image recognition apparatus and method
CA2913432A1 (en) System and method for identifying, analyzing, and reporting on players in a game from video
CN104811660A (en) Control apparatus and control method
JP6362085B2 (en) Image recognition system, image recognition method and program
US10863113B2 (en) Image processing apparatus, image processing method, and storage medium
JP2017201745A (en) Image processing apparatus, image processing method, and program
KR101645959B1 (en) The Apparatus and Method for Tracking Objects Based on Multiple Overhead Cameras and a Site Map
US10122912B2 (en) Device and method for detecting regions in an image
JP6521626B2 (en) Object tracking device, method and program
CN109961472B (en) Method, system, storage medium and electronic device for generating 3D thermodynamic diagram
JP7085812B2 (en) Image processing device and its control method
JP2016134803A (en) Image processor and image processing method
US20160253554A1 (en) Determination device and determination method
US20190114783A1 (en) Image processing apparatus, image processing method, and non-transitory computer-readable storage medium
JP2019040306A (en) Information processing device, information processing program, and information processing method
JP6540445B2 (en) Same determination program, same determination apparatus, and same determination method
JP2004348303A (en) Object detection system and program
JP2019050553A (en) Image processing apparatus, image providing apparatus, control method of the same, and program
JP2008033818A (en) Object tracking device and its control method, object tracking system, object tracking program, and recording medium recording the program
US10783365B2 (en) Image processing device and image processing system
JP2021077039A (en) Image processing apparatus, image processing method, and program
JP2018063675A (en) Image processor and control method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180608

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20190425

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20190514

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20190527

R150 Certificate of patent or registration of utility model

Ref document number: 6540445

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150