JP6725310B2 - Image processing device and program - Google Patents

Image processing device and program Download PDF

Info

Publication number
JP6725310B2
JP6725310B2 JP2016092661A JP2016092661A JP6725310B2 JP 6725310 B2 JP6725310 B2 JP 6725310B2 JP 2016092661 A JP2016092661 A JP 2016092661A JP 2016092661 A JP2016092661 A JP 2016092661A JP 6725310 B2 JP6725310 B2 JP 6725310B2
Authority
JP
Japan
Prior art keywords
subject
image
contour
feature amount
calculation unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2016092661A
Other languages
Japanese (ja)
Other versions
JP2017201454A (en
Inventor
貴裕 望月
貴裕 望月
住吉 英樹
英樹 住吉
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Japan Broadcasting Corp
Original Assignee
Japan Broadcasting Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Japan Broadcasting Corp filed Critical Japan Broadcasting Corp
Priority to JP2016092661A priority Critical patent/JP6725310B2/en
Publication of JP2017201454A publication Critical patent/JP2017201454A/en
Application granted granted Critical
Publication of JP6725310B2 publication Critical patent/JP6725310B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02DCLIMATE CHANGE MITIGATION TECHNOLOGIES IN INFORMATION AND COMMUNICATION TECHNOLOGIES [ICT], I.E. INFORMATION AND COMMUNICATION TECHNOLOGIES AIMING AT THE REDUCTION OF THEIR OWN ENERGY USE
    • Y02D10/00Energy efficient computing, e.g. low power processors, power management or thermal management

Landscapes

  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
  • Image Analysis (AREA)

Description

本発明は、画像の特徴量を算出する画像処理装置及びプログラムに関する。 The present invention relates to an image processing device and a program for calculating a feature amount of an image.

従来、被写体を含む画像を検索する手法が知られている。例えば、画像上の色、模様等の配置(以下「レイアウト」という。)を考慮した画像検索を行う場合、画像を格子状に分割した各ブロック領域から特徴量を算出し、位置が対応するブロック領域同士で特徴量を比較する手法が一般的に用いられる(例えば、特許文献1,2を参照)。 Conventionally, a method of searching an image including a subject is known. For example, when performing an image search considering the arrangement of colors, patterns, etc. on the image (hereinafter referred to as “layout”), the feature amount is calculated from each block area obtained by dividing the image in a grid pattern, and the block corresponding to the position is calculated. A method of comparing feature amounts between regions is generally used (for example, see Patent Documents 1 and 2).

しかしながら、この手法を用いると、検索結果は、背景の類似性の影響を受けてしまい、被写体の類似性がさほど反映されることはない。このため、この手法では、利用者の意図する検索結果が得られない場合がある。 However, when this method is used, the search result is affected by the similarity of the background, and the similarity of the subject is not reflected so much. Therefore, in this method, the search result intended by the user may not be obtained.

この問題を解決するために、画像の中央部のブロック領域を被写体領域上へ移動させた後、そのブロック領域について類似度を算出する際に、被写体領域に対して高い重み係数を掛ける手法が提案されている(例えば、特許文献3を参照)。 In order to solve this problem, after moving the block area at the center of the image onto the subject area, when calculating the similarity for the block area, a method of applying a high weighting coefficient to the subject area is proposed. (For example, see Patent Document 3).

ここで、画像の中央部のブロック領域を被写体領域上へ移動させた後のブロック領域を「被写体ブロック領域」という。この手法では、被写体の類似性に重きを置いた検索結果を得ることができる。 Here, the block area after the central block area of the image is moved onto the object area is referred to as “object block area”. With this method, it is possible to obtain search results that emphasize the similarity of subjects.

特開平10−260983号公報JP, 10-260983, A 特開2001−319232号公報JP 2001-319232 A 特開2013−225180号公報JP, 2013-225180, A

図12は、被写体ブロック領域内に被写体以外の背景が含まれる画像例を示す図である。図12において、四角の枠で囲まれた領域が被写体ブロック領域である。これらの被写体ブロック領域には、被写体である船とは別に背景(矢印の箇所)が含まれる。この背景は、被写体自体の画像特徴量を算出する観点からすると、余分な領域であるため、被写体ブロック領域には、被写体以外の余分な領域が含まれているといえる。 FIG. 12 is a diagram showing an example of an image in which the background other than the subject is included in the subject block area. In FIG. 12, a region surrounded by a rectangular frame is a subject block region. These subject block areas include the background (the location of the arrow) in addition to the subject boat. Since this background is an extra area from the viewpoint of calculating the image feature amount of the subject itself, it can be said that the subject block area includes an extra area other than the subject.

このように、被写体ブロック領域内には背景が含まれるため、前述の特許文献3による手法では、背景の影響を受けた検索結果を算出してしまい、結果として検索精度を向上させることができないという問題があった。 As described above, since the background is included in the subject block area, the method according to Patent Document 3 described above calculates the search result affected by the background, and as a result, the search accuracy cannot be improved. There was a problem.

そこで、本発明は前記課題を解決するためになされたものであり、その目的は、背景の影響をさほど受けることなく、被写体の類似性に重きを置いた高精度の画像検索を可能とする画像処理装置及びプログラムを提供することにある。 Therefore, the present invention has been made in order to solve the above-mentioned problems, and an object thereof is an image that enables high-accuracy image search that attaches great importance to the similarity of subjects without being affected by the background. To provide a processing device and a program.

前記課題を解決するために、請求項の画像処理装置は、被写体を含む画像の特徴量を算出する画像処理装置において、前記画像に含まれる前記被写体が存在する視覚的注意が導かれる領域を可視化するための顕著性値を画素毎に表した顕著性マップを用いて、前記被写体を含む矩形の被写体矩形領域を設定する被写体矩形領域設定部と、前記被写体矩形領域設定部により設定された前記被写体矩形領域の前記矩形の枠上に、所定数の制御点を設定し、前記所定数の制御点を直線で結んだ輪郭の動的輪郭モデルを設定し、前記所定数の制御点の位置をそれぞれ移動させる毎に、前記動的輪郭モデルのエネルギーを算出し、前記エネルギーに基づいて、前記被写体の輪郭を被写体輪郭として設定し、前記被写体輪郭内の領域を被写体領域として設定する被写体領域設定部と、前記被写体領域設定部により設定された前記被写体領域の画像特徴量を算出する被写体特徴算出部と、を備え、前記被写体領域設定部が、前記被写体矩形領域設定部により設定された前記被写体矩形領域の前記矩形の枠上に、所定数の制御点を設定し、前記所定数の制御点を直線で結んだ輪郭の動的輪郭モデルを設定し、前記所定数の制御点の位置をそれぞれ移動させる毎に、前記動的輪郭モデルの輪郭の弧長に関するエネルギー、前記動的輪郭モデルの曲率に関するエネルギー、及び前記動的輪郭モデルの画像の勾配に関するエネルギーの加算値を、前記動的輪郭モデルのエネルギーとして算出し、前記エネルギーが最小のときの前記所定数の制御点を結んだ輪郭を被写体輪郭として設定し、前記被写体輪郭内の領域を被写体領域として設定する、ことを特徴とする。
また、請求項2の画像処理装置は、請求項1に記載の画像処理装置において、前記画像から格子状の複数のブロック領域を設定するブロック設定部と、前記ブロック設定部により設定された複数のブロック領域のそれぞれについての特徴量を、全体の画像特徴量をして算出するブロック特徴算出部と、を備え、前記被写体特徴算出部により算出された前記被写体領域の画像特徴量、及び、前記ブロック特徴算出部により算出された前記全体の画像特徴量を出力する、ことを特徴とする。
In order to solve the above problems, the image processing apparatus according to claim 1 is an image processing apparatus that calculates a feature amount of an image including a subject, and selects an area in which the visual attention in which the subject included in the image is present is guided. Using a saliency map that represents a saliency value for visualization for each pixel, a subject rectangular area setting unit that sets a rectangular subject rectangular area including the subject, and the subject rectangular area setting unit that sets the subject rectangular area setting unit A predetermined number of control points are set on the rectangular frame of the subject rectangular area, an active contour model of the contour connecting the predetermined number of control points with a straight line is set, and the positions of the predetermined number of control points are set. A subject region setting unit that calculates the energy of the dynamic contour model each time it is moved, sets the contour of the subject as a subject contour based on the energy, and sets a region within the subject contour as a subject region And a subject feature calculation unit that calculates an image feature amount of the subject region set by the subject region setting unit, wherein the subject region setting unit sets the subject rectangle set by the subject rectangular region setting unit. A predetermined number of control points are set on the rectangular frame of the area, an active contour model of a contour connecting the predetermined number of control points is set, and the positions of the predetermined number of control points are moved. For each time, the added value of the energy related to the arc length of the contour of the active contour model, the energy related to the curvature of the active contour model, and the energy related to the gradient of the image of the active contour model, It is characterized in that it is calculated as energy, a contour connecting the predetermined number of control points when the energy is minimum is set as a subject contour, and an area within the subject contour is set as a subject area.
An image processing apparatus according to a second aspect is the image processing apparatus according to the first aspect, wherein a block setting unit that sets a plurality of grid-like block areas from the image, and a plurality of block setting units set by the block setting unit. A block feature calculation unit that calculates a feature amount for each of the block regions by calculating the entire image feature amount, and the image feature amount of the subject region calculated by the subject feature calculation unit; and the block It is characterized in that the overall image feature amount calculated by the feature calculation unit is output.

また、請求項の画像処理装置は、複数の検索対象画像から要求画像に類似する画像を検索する画像処理装置において、前記複数の検索対象画像のそれぞれについて、画像特徴量を算出する前処理部と、前記要求画像について、画像特徴量を算出する特徴算出部と、前記前処理部により算出された前記複数の検索対象画像のそれぞれについての画像特徴量、及び前記特徴算出部により算出された前記要求画像の画像特徴量に基づいて、前記複数の検索対象画像のそれぞれと前記要求画像との間の類似度を算出する類似度算出部と、前記類似度算出部により算出された前記類似度に基づいて、前記複数の検索対象画像から前記要求画像に類似する画像を選択する類似画像選択部と、を備え、前記前処理部が、前記複数の検索対象画像のそれぞれについて、格子状の複数のブロック領域を設定する第1のブロック設定部と、前記複数の検索対象画像のそれぞれについて、前記第1のブロック設定部により設定された複数のブロック領域の特徴量を、全体特徴量をして算出する第1のブロック特徴算出部と、前記複数の検索対象画像のそれぞれについて、当該検索対象画像に含まれる被写体が存在する視覚的注意が導かれる領域を可視化するための顕著性値を画素毎に表した顕著性マップを用いて、前記被写体を含む矩形の被写体矩形領域を設定する第1の被写体矩形領域設定部と、前記複数の検索対象画像のそれぞれについて、前記第1の被写体矩形領域設定部により設定された前記被写体矩形領域の前記矩形の枠上に、所定数の制御点を設定し、前記所定数の制御点を直線で結んだ輪郭の動的輪郭モデルを設定し、前記所定数の制御点の位置をそれぞれ移動させる毎に、前記動的輪郭モデルの輪郭の弧長に関するエネルギー、前記動的輪郭モデルの曲率に関するエネルギー、及び前記動的輪郭モデルの画像の勾配に関するエネルギーの加算値を、前記動的輪郭モデルのエネルギーとして算出し、前記エネルギーが最小のときの前記所定数の制御点を結んだ輪郭を被写体輪郭として設定し、前記被写体輪郭内の領域を被写体領域として設定する第1の被写体領域設定部と、前記複数の検索対象画像のそれぞれについて、前記第1の被写体領域設定部により設定された前記被写体領域の画像特徴量を、被写体特徴量として算出する第1の被写体特徴算出部と、を備え、前記特徴算出部が、前記要求画像について、格子状の複数のブロック領域を設定する第2のブロック設定部と、前記第2のブロック設定部により設定された複数のブロック領域の特徴量を、全体特徴量をして算出する第2のブロック特徴算出部と、前記要求画像に含まれる被写体が存在する視覚的注意が導かれる領域を可視化するための顕著性値を画素毎に表した顕著性マップを用いて、前記被写体を含む矩形の被写体矩形領域を設定する第2の被写体矩形領域設定部と、前記第2の被写体矩形領域設定部により設定された前記被写体矩形領域の前記矩形の枠上に、所定数の制御点を設定し、前記所定数の制御点を直線で結んだ輪郭の動的輪郭モデルを設定し、前記所定数の制御点の位置をそれぞれ移動させる毎に、前記動的輪郭モデルの輪郭の弧長に関するエネルギー、前記動的輪郭モデルの曲率に関するエネルギー、及び前記動的輪郭モデルの画像の勾配に関するエネルギーの加算値を、前記動的輪郭モデルのエネルギーとして算出し、前記エネルギーが最小のときの前記所定数の制御点を結んだ輪郭を被写体輪郭として設定し、前記被写体輪郭内の領域を被写体領域として設定する第2の被写体領域設定部と、前記第2の被写体領域設定部により設定された前記被写体領域の画像特徴量を、被写体特徴量として算出する第2の被写体特徴算出部と、を備え、前記類似度算出部が、前記前処理部の前記第1のブロック特徴算出部により算出された前記複数の検索対象画像のそれぞれについての全体特徴量、及び前記特徴算出部の前記第2のブロック特徴算出部により算出された前記要求画像の全体特徴量に基づいて、前記複数の検索対象画像のそれぞれと前記要求画像との間の全体類似度を算出し、前記前処理部の前記第1の被写体特徴算出部により算出された前記複数の検索対象画像のそれぞれについての被写体特徴量、及び前記特徴算出部の前記第2の被写体特徴算出部により算出された前記要求画像の被写体特徴量に基づいて、前記複数の検索対象画像のそれぞれと前記要求画像との間の被写体類似度を算出し、前記全体類似度及び前記被写体類似度に基づいて、前記複数の検索対象画像のそれぞれと前記要求画像との間の類似度を算出する、ことを特徴とする。
The image processing apparatus according to claim 3 is an image processing apparatus that searches for an image similar to a request image from a plurality of search target images, and a preprocessing unit that calculates an image feature amount for each of the plurality of search target images. A feature calculation unit that calculates an image feature amount for the requested image, an image feature amount for each of the plurality of search target images calculated by the preprocessing unit, and the image calculation amount calculated by the feature calculation unit. Based on the image feature amount of the requested image, the similarity calculation unit that calculates the similarity between each of the plurality of search target images and the requested image, and the similarity calculated by the similarity calculation unit. A similar image selection unit that selects an image similar to the request image from the plurality of search target images based on the plurality of search target images, and the preprocessing unit, for each of the plurality of search target images, a plurality of grid-like images. For each of the first block setting unit that sets a block region and each of the plurality of search target images, the feature amount of the plurality of block regions set by the first block setting unit is calculated by using the overall feature amount. For each of the first block feature calculation unit and each of the plurality of search target images, a saliency value for visualizing an area in which a subject included in the search target image is present to which visual attention is directed is provided for each pixel. A first subject rectangular area setting unit that sets a rectangular subject rectangular area including the subject using the represented saliency map, and the first subject rectangular area setting unit for each of the plurality of search target images By setting a predetermined number of control points on the rectangular frame of the subject rectangular area set by, a dynamic contour model of a contour connecting the predetermined number of control points with a straight line is set, and the predetermined number of control points is set. Each time the position of the control point is moved, an added value of energy related to the arc length of the contour of the active contour model, energy related to the curvature of the active contour model, and energy related to the gradient of the image of the active contour model is calculated. A first contour that is calculated as energy of the dynamic contour model, a contour connecting the predetermined number of control points when the energy is minimum is set as a subject contour, and an area within the subject contour is set as a subject area; First subject feature calculation for calculating the image feature amount of the subject region set by the first subject region setting unit for each of the subject region setting unit and the plurality of search target images. And a plurality of grid-shaped blocks for the requested image. A second block setting unit that sets a lock area; and a second block characteristic calculation unit that calculates the feature amounts of the plurality of block regions set by the second block setting unit by using the overall feature amount. A rectangular subject rectangular area including the subject is set using a saliency map that represents, for each pixel, a saliency value for visualizing a region in which the subject included in the requested image is guided. A predetermined number of control points are set on the second subject rectangular area setting unit and the rectangular frame of the subject rectangular area set by the second subject rectangular area setting unit, and the predetermined number of control points are set. Is set by a straight line, and each time the positions of the predetermined number of control points are moved, the energy related to the arc length of the contour of the active contour model and the curvature of the active contour model are set. Energy of the image of the active contour model and the energy of the gradient of the image of the active contour model are calculated as the energy of the active contour model, and the contour connecting the predetermined number of control points when the energy is the minimum is taken as a subject. A second subject area setting unit that sets the subject contour as an outline and sets an area within the subject contour as the subject area, and the image feature amount of the subject area set by the second subject area setting unit as the subject feature amount. And a second subject feature calculating unit that calculates as a whole, for each of the plurality of search target images calculated by the first block feature calculating unit of the preprocessing unit by the similarity calculating unit. Based on the feature amount and the overall feature amount of the request image calculated by the second block feature calculation unit of the feature calculation unit, overall similarity between each of the plurality of search target images and the request image Degree, the subject feature amount for each of the plurality of search target images calculated by the first subject feature calculation unit of the preprocessing unit, and the second subject feature calculation unit of the feature calculation unit. Based on the subject feature amount of the request image calculated by, the subject similarity between each of the plurality of search target images and the request image is calculated, based on the overall similarity and the subject similarity The similarity between each of the plurality of search target images and the requested image is calculated.

また、請求項の画像処理装置は、請求項に記載の画像処理装置において、前記特徴算出部が、さらに、前記顕著性マップを用いて、前記第2の被写体領域設定部により設定された前記被写体輪郭の全制御点の顕著性値を平均化し、平均値に基づいて、前記被写体領域の重み係数を算出する重み係数算出部を備え、前記類似度算出部が、前記特徴算出部の前記重み係数算出部により算出された前記重み係数、前記全体類似度及び前記被写体類似度に基づいて、前記複数の検索対象画像のそれぞれと前記要求画像との間の類似度を算出する、ことを特徴とする。
An image processing apparatus according to a fourth aspect is the image processing apparatus according to the third aspect, wherein the feature calculation unit is further set by the second subject area setting unit using the saliency map. A weighting factor calculation unit that averages the saliency values of all the control points of the subject contour and calculates a weighting factor of the subject region based on the average value is provided. A similarity between each of the plurality of search target images and the requested image is calculated based on the weighting factor calculated by the weighting factor calculator, the overall similarity and the subject similarity. And

また、請求項の画像処理装置は、請求項からまでのいずれか一項に記載の画像処理装置において、前記動的輪郭モデルの画像の勾配に関するエネルギーを、前記顕著性マップに表された顕著性値から得られる前記制御点の画素位置の勾配値とする、ことを特徴とする。
The image processing device according to claim 5 is the image processing device according to any one of claims 1 to 4 , wherein energy relating to a gradient of the image of the active contour model is represented in the saliency map. And a gradient value of the pixel position of the control point obtained from the saliency value.

さらに、請求項のプログラムは、コンピュータを、請求項1からまでのいずれか一項に記載の画像処理装置として機能させることを特徴とする。
Further, a program according to claim 6 causes a computer to function as the image processing device according to any one of claims 1 to 5 .

以上のように、本発明によれば、背景の影響をさほど受けることなく、被写体の類似性に重きを置いた高精度の画像検索を実現することができる。 As described above, according to the present invention, it is possible to realize a highly accurate image search that attaches great importance to the similarity of subjects without being significantly affected by the background.

実施例1の画像処理装置の構成例を示すブロック図である。3 is a block diagram showing a configuration example of an image processing apparatus of Example 1. FIG. 被写体特徴処理部の処理例を示すフローチャートである。It is a flow chart which shows an example of processing of a photographic subject feature processing part. 実施例2の画像処理装置の構成例を示すブロック図である。6 is a block diagram showing a configuration example of an image processing apparatus of Example 2. FIG. 前処理部の処理例を示すフローチャートである。It is a flow chart which shows the example of processing of a preprocessing part. 検索処理部の処理例を示すフローチャートである。It is a flow chart which shows the example of processing of a search processing part. M=4,N=4の場合のブロック領域毎の画像例を示す図である。It is a figure which shows the image example for every block area|region in case of M=4 and N=4. 画像Iの顕著性マップ及び被写体矩形領域の例を示す図である。It is a figure which shows the saliency map of the image I, and the example of a to-be-photographed object rectangular area. 動的輪郭モデルの初期輪郭及び制御点の例を示す図である。It is a figure which shows the example of the initial contour of an active contour model, and a control point. 画像Iの顕著性マップにおいて、エネルギーEが最小のときの被写体の輪郭の例を示す図である。It is a figure which shows the example of the outline of a to-be-photographed object when the energy E is the minimum in the saliency map of the image I. 画像Iにおいて、エネルギーEが最小のときの被写体の輪郭の例を示す図である。It is a figure which shows the example of the outline of the to-be-photographed object in the image I when the energy E is the minimum. 画像特徴ベクトルVIの例を示す図である。It is a diagram illustrating an example of an image feature vector V I. 被写体ブロック領域内に被写体以外の背景が含まれる画像例を示す図である。It is a figure which shows the example image which contains the background other than a to-be-photographed object in a to-be-photographed block area|region.

以下、本発明を実施するための形態について図面を用いて詳細に説明する。本発明は、画像に対し、顕著性マップを用いて被写体を含む矩形の被写体矩形領域を設定し、動的輪郭モデルのエネルギーが最小となるように被写体矩形領域から被写体領域を抽出し、被写体領域の画像特徴量を算出することを特徴とする。 Hereinafter, modes for carrying out the present invention will be described in detail with reference to the drawings. The present invention sets a rectangular subject rectangular area including a subject using a saliency map for an image, extracts the subject area from the subject rectangular area so as to minimize the energy of the active contour model, and extracts the subject area. It is characterized in that the image feature amount of is calculated.

また、本発明は、ブロック領域の画像特徴量及び被写体領域の画像特徴量を用いて、複数の検索対象画像のそれぞれと要求画像との間の類似度を算出し、複数の検索対象画像から類似度の高い画像を選択することを特徴とする。 Further, according to the present invention, the similarity between each of the plurality of search target images and the requested image is calculated using the image feature amount of the block region and the image feature amount of the subject region, and the similarity is calculated from the plurality of search target images. It is characterized by selecting an image with a high degree.

これにより、被写体領域は、被写体矩形領域に比べ、背景が含まれる度合いが低くなるから、被写体領域の画像特徴量は、被写体自体の特徴が反映された値となる。したがって、被写体領域の画像特徴量を画像検索に用いることで、背景の影響をさほど受けることなく、被写体の類似性に重きを置いた高精度の画像検索を実現することができる。 As a result, the degree of inclusion of the background in the subject area is lower than that in the subject rectangular area, so the image feature amount of the subject area becomes a value that reflects the characteristics of the subject itself. Therefore, by using the image feature amount of the subject area for the image search, it is possible to realize a high-precision image search that attaches great importance to the similarity of the subject without being affected by the background.

〔実施例1〕
まず、実施例1について説明する。実施例1は、従来のブロック領域毎の画像特徴量を算出すると共に、画像から背景を除外した被写体領域を設定し、被写体領域の画像特徴量を算出する例である。
[Example 1]
First, the first embodiment will be described. The first embodiment is an example in which a conventional image feature amount for each block region is calculated, a subject region in which the background is excluded from the image is set, and the image feature amount of the subject region is calculated.

図1は、実施例1の画像処理装置の構成例を示すブロック図である。この画像処理装置1は、ブロック設定部10、ブロック特徴算出部11、被写体特徴処理部12及び画像特徴ベクトル生成部13を備えている。 FIG. 1 is a block diagram illustrating a configuration example of the image processing apparatus according to the first embodiment. The image processing apparatus 1 includes a block setting unit 10, a block feature calculation unit 11, a subject feature processing unit 12, and an image feature vector generation unit 13.

画像処理装置1は、1枚の画像Iを入力し、ブロック領域毎の画像特徴量からなる画像全体特徴ベクトルVGIを算出すると共に、被写体領域の画像特徴量である被写体特徴ベクトルVOI及び被写体領域の重み係数WIを算出する。そして、画像処理装置1は、画像Iの画像特徴ベクトルVI={VGI, VOI}及び被写体領域の重み係数WIを出力する。 The image processing apparatus 1 inputs one image I, calculates an overall image feature vector V GI consisting of image feature amounts for each block region, and also calculates a subject feature vector V OI and an object feature amount V OI which are image feature amounts of a subject region. The weighting coefficient W I of the area is calculated. Then, the image processing apparatus 1 outputs the image feature vector V I ={V GI , V OI } of the image I and the weighting factor W I of the subject region.

ここで、画像全体特徴ベクトルVGIは、画像Iのブロック分割に基づいた画像全体の特徴量を示し、被写体特徴ベクトルVOIは、被写体の特徴量を示す。被写体領域の重み係数WIは、画像I内で被写体が目立つ程度を示し、被写体を含む画像間の類似度を算出する際に用いられる。 Here, the overall image feature vector V GI indicates the overall feature amount of the image based on the block division of the image I, and the subject feature vector V OI indicates the feature amount of the subject. The weight coefficient W I of the subject region indicates the degree to which the subject stands out in the image I, and is used when calculating the similarity between images including the subject.

ブロック設定部10は、画像Iを入力し、画像Iに対して格子状にM1×M2個のブロック領域を設定し、ブロック領域毎の画像を切り出す。M1,M2は正の整数である。そして、ブロック設定部10は、ブロック領域毎の画像をブロック特徴算出部11に出力する。 The block setting unit 10 inputs the image I, sets M1×M2 block regions in the image I in a grid pattern, and cuts out an image for each block region. M1 and M2 are positive integers. Then, the block setting unit 10 outputs the image for each block area to the block feature calculation unit 11.

図6は、M1=4,M2=4の場合のブロック領域毎の画像例を示す図である。図6に示すように、画像Iからブロック領域(m1,m2)毎の16枚の画像が切り出される。m1=1,・・・,4、m2=1,・・・,4である。 FIG. 6 is a diagram showing an example of an image for each block area when M1=4 and M2=4. As shown in FIG. 6, 16 images for each block area (m1, m2) are cut out from the image I. m1=1,..., 4, m2=1,.

図1に戻って、ブロック特徴算出部11は、ブロック設定部10からブロック領域毎の画像を入力し、ブロック領域(m1,m2)毎に画像特徴量VGI(m1,m2)を算出し、ブロック領域(m1,m2)毎の画像特徴量VGI(m1,m2)からなる画像全体特徴ベクトルVGIを生成する。そして、ブロック特徴算出部11は、画像全体特徴ベクトルVGIを画像特徴ベクトル生成部13に出力する。 Returning to FIG. 1, the block feature calculation unit 11 inputs an image for each block region from the block setting unit 10, calculates an image feature amount V GI (m1, m2) for each block region (m1, m2), An image overall feature vector V GI consisting of the image feature amount V GI (m1, m2) for each block area (m1, m2) is generated. Then, the block feature calculation unit 11 outputs the entire image feature vector V GI to the image feature vector generation unit 13.

m1=1,・・・,M1、m2=1,・・・,M2とすると、画像全体特徴ベクトルVGIは、以下の式で表される。
[数1]
GI={VGI(1,1),・・・,VGI(M1,M2)} ・・・(1)
When m1=1,..., M1, m2=1,..., M2, the overall image feature vector V GI is expressed by the following equation.
[Equation 1]
V GI ={V GI (1,1),..., V GI (M1,M2)} (1)

被写体特徴処理部12は、画像Iを入力し、画像Iから被写体領域を設定し、被写体特徴ベクトルVOI及び重み係数WIを算出し、被写体特徴ベクトルVOIを画像特徴ベクトル生成部13に出力し、重み係数WIを外部へ出力する。 The subject feature processing unit 12 inputs the image I, sets the subject region from the image I , calculates the subject feature vector V OI and the weighting coefficient W I, and outputs the subject feature vector V OI to the image feature vector generation unit 13. Then, the weight coefficient W I is output to the outside.

被写体特徴処理部12は、被写体矩形領域設定部14、被写体領域設定部15、被写体特徴算出部16及び重み係数算出部17を備えている。図2は、被写体特徴処理部12の処理例を示すフローチャートである。 The subject feature processing unit 12 includes a subject rectangular region setting unit 14, a subject region setting unit 15, a subject feature calculation unit 16, and a weighting factor calculation unit 17. FIG. 2 is a flowchart showing a processing example of the subject feature processing unit 12.

被写体矩形領域設定部14は、画像Iを入力し(ステップS201)、画像Iの顕著性マップを生成し、画像Iの顕著性マップを用いて、被写体を含む矩形の被写体矩形領域を設定する(ステップS202)。そして、被写体矩形領域設定部14は、画像I及び被写体矩形領域を特定するための情報を被写体領域設定部15に出力する。 The subject rectangular area setting unit 14 inputs the image I (step S201), generates a saliency map of the image I, and uses the saliency map of the image I to set a rectangular subject rectangular area including the subject ( Step S202). Then, the subject rectangular area setting unit 14 outputs information for identifying the image I and the subject rectangular area to the subject area setting unit 15.

顕著性マップを生成する処理及び被写体矩形領域を設定する処理は既知であり、詳細については前述の特許文献3を参照されたい。 The processing for generating the saliency map and the processing for setting the subject rectangular area are known, and for details, refer to Patent Document 3 mentioned above.

画像の顕著性マップは、色、輝度、方向等を考慮し、画像中の物体(被写体)が存在する視覚的注意が導かれる領域を可視化したマップであり、画素毎にその位置の顕著性値で表される。画像の顕著性マップは既知であり、詳細については以下の文献を参照されたい。
[非特許文献] L.Itti, C.Koch, and E.Niebur:“A Model of Saliency-Based Visual Attention for Rapid Scene Analysis”, IEEE Transactions on Pattern Analysis and Machine Intelligence, VOl.20, No11, 1998年11月
[特許文献] 特表2007−515009号公報
The saliency map of an image is a map that visualizes a region where an object (subject) in the image is guided, in consideration of color, brightness, direction, etc., and the saliency value of the position of each pixel. It is represented by. Image saliency maps are known, see the following references for details.
[Non-Patent Document] L. Itti, C. Koch, and E. Niebur: “A Model of Saliency-Based Visual Attention for Rapid Scene Analysis”, IEEE Transactions on Pattern Analysis and Machine Intelligence, VOl. 20, No11, 1998. November [Patent Document] Japanese Patent Publication No. 2007-51509

図7は、画像Iの顕著性マップ及び被写体矩形領域の例を示す図である。図7に示すとおり、画像Iの顕著性マップは、各画素の位置の顕著性値で表され、顕著性値が輝度の高さで表されている。また、四角で囲んだ領域が被写体矩形領域である。 FIG. 7 is a diagram showing an example of the saliency map of the image I and the subject rectangular area. As shown in FIG. 7, the saliency map of the image I is represented by the saliency value at each pixel position, and the saliency value is represented by the brightness level. The area surrounded by a square is the subject rectangular area.

図1及び図2に戻って、被写体領域設定部15は、被写体矩形領域設定部14から画像I及び被写体矩形領域を特定するための情報を入力する。そして、被写体領域設定部15は、被写体矩形領域の矩形枠上に、Nc個の制御点{CP(1),・・・,CP(Nc)}を任意に設定する。被写体領域設定部15は、Nc個の制御点{CP(1),・・・,CP(Nc)}を直線で結んだ輪郭を、これらの制御点を持つ動的輪郭モデルの初期輪郭として設定する(ステップS203)。Ncは、予め設定される。 Returning to FIG. 1 and FIG. 2, the subject area setting unit 15 inputs information for specifying the image I and the subject rectangular area from the subject rectangular area setting unit 14. Then, the subject region setting unit 15, on the rectangular frame of the object rectangular region, N c pieces of control points {CP (1), ···, CP (N c)} set arbitrarily. Subject region setting unit 15, N c pieces of control points {CP (1), ···, CP (N c)} of connecting it contour with a straight line, the initial contour of the active contour model with these control points (Step S203). N c is preset.

図8は、動的輪郭モデルの初期輪郭及び制御点の例を示す図である。図8において、丸印が制御点を示し、制御点を直線で結んだ輪郭が動的輪郭モデルの初期輪郭である。 FIG. 8 is a diagram showing an example of initial contours and control points of the active contour model. In FIG. 8, circles indicate control points, and the contour connecting the control points with a straight line is the initial contour of the active contour model.

図1及び図2に戻って、被写体領域設定部15は、以下に示す動的輪郭モデルの全制御点のエネルギーEを算出し、エネルギーEが最小となる方向へ制御点を移動させ、エネルギーEが最小となる位置で各制御点を停止させる。 Returning to FIG. 1 and FIG. 2, the subject region setting unit 15 calculates the energies E of all the control points of the active contour model shown below, moves the control points in the direction in which the energy E is the minimum, and outputs the energy E. Stop each control point at the position where is minimum.

尚、動的輪郭モデルのエネルギーを最小にする手法は、例えばスネーク法が用いられる。詳細については、以下の非特許文献を参照されたい。
[非特許文献] M.Kass, A.Witkin, and D.Terzopoulos:“Snakes:Active contour models,” International Journal of Computer Vision, 1(4):321-331, 1998年1月
As a method for minimizing the energy of the active contour model, for example, the snake method is used. For details, refer to the following non-patent documents.
[Non-Patent Document] M. Kass, A. Witkin, and D. Terzopoulos: “Snakes: Active contour models,” International Journal of Computer Vision, 1(4): 321-331, January 1998.

具体的には、被写体領域設定部15は、動的輪郭モデルのエネルギーEを算出し(ステップS204)、エネルギーEが最小であるか否かを判定する(ステップS205)。 Specifically, the subject area setting unit 15 calculates the energy E of the active contour model (step S204) and determines whether the energy E is the minimum (step S205).

被写体領域設定部15は、ステップS205において、エネルギーEが最小でないと判定した場合(ステップS205:N)、動的輪郭モデルの面積が小さくなるように、その輪郭を収縮させる方向に、任意の制御点を任意に移動させる(ステップS206)。そして、ステップS204〜ステップS206の処理を繰り返す。被写体領域設定部15は、ステップS205において、エネルギーEが最小であると判定した場合(ステップS205:Y)、ステップS207へ移行する。 When it is determined in step S205 that the energy E is not the minimum (step S205: N), the subject area setting unit 15 performs arbitrary control in a direction in which the contour is contracted so that the area of the active contour model is reduced. The point is arbitrarily moved (step S206). Then, the processing of steps S204 to S206 is repeated. When the subject area setting unit 15 determines in step S205 that the energy E is the minimum (step S205: Y), the process proceeds to step S207.

尚、被写体領域設定部15は、ステップS205におけるエネルギーEの最小の判定を、ステップS204及びステップS206の処理を所定回数行った後に行うようにしてもよい。また、被写体領域設定部15は、エネルギーEの極小点を検出した場合に、当該極小点がエネルギーEの最小点であると判定するようにしてもよい。 The subject area setting unit 15 may perform the minimum determination of the energy E in step S205 after performing the processes of steps S204 and S206 a predetermined number of times. Further, the subject area setting unit 15 may determine that the minimum point of the energy E is the minimum point of the energy E, when the minimum point of the energy E is detected.

ステップS204において、動的輪郭モデルのエネルギーEは、以下の式にて算出される。
[数2]
E=ELEN+ECRV+EIMG ・・・(2)
In step S204, the energy E of the active contour model is calculated by the following formula.
[Equation 2]
E = E LEN + E CRV + E IMG ... (2)

動的輪郭モデルのエネルギーEは、輪郭全体の弧長に関するエネルギーELEN、各制御点における曲率(輪郭全体の曲率)に関するエネルギーECRV、及び各制御点における画像の勾配に関するエネルギーEIMGを加算することで求められる。 The energy E of the active contour model adds the energy E LEN for the arc length of the entire contour, the energy E CRV for the curvature at each control point (curvature of the entire contour), and the energy E IMG for the gradient of the image at each control point. Required by that.

エネルギーELENが小さい場合は、輪郭全体の弧長が短いことを示しており、各制御点の曲率に関するエネルギーECRVが小さい場合は、輪郭の曲がり具合がきつくない(小さい、滑らかである)ことを示している。また、各制御点における画像の勾配に関するエネルギーEIMGが小さい場合は、各制御点が被写体と背景との間の境界に存在する割合が高いことを示している。したがって、動的輪郭モデルのエネルギーEが最小の場合とは、総合的に、輪郭全体の弧長が短く、各制御点の曲がり具合がきつくなく(小さく、滑らかであり)、かつ、各制御点が被写体と背景との間の境界に存在する割合が高いことを示している。 When the energy E LEN is small, it indicates that the arc length of the entire contour is short, and when the energy E CRV related to the curvature of each control point is small, the contour does not bend sharply (small and smooth). Is shown. Further, when the energy E IMG related to the gradient of the image at each control point is small, it is indicated that each control point has a high proportion at the boundary between the subject and the background. Therefore, the case where the energy E of the active contour model is minimum means that the arc length of the entire contour is short, the bending of each control point is not tight (small and smooth), and each control point is Indicates that there is a high ratio of being present at the boundary between the subject and the background.

ここで、制御点CP(i)(i=1,・・・,Nc)において、制御点CP(i)のx座標をxi、制御点CP(i)のy座標をyiとする。また、x0=xNcとする。輪郭全体の弧長に関するエネルギーELENは、以下の式にて算出される。
[数3]
Here, at the control point CP(i) (i=1,..., N c ), the x coordinate of the control point CP(i) is x i , and the y coordinate of the control point CP(i) is y i . .. In addition, x 0 =x Nc . Energy E LEN related to the arc length of the entire contour is calculated by the following formula.
[Equation 3]

各制御点における曲率に関するエネルギーECRVは、以下の式にて算出される。
[数4]
The energy E CRV regarding the curvature at each control point is calculated by the following formula.
[Equation 4]

各制御点における画像に関するエネルギーEIMGは、以下の式にて算出される。
[数5]
I’(i)としては、制御点CP(i)における画像エネルギーであり、画像Iにおける制御点の画素位置の画素値から得られる勾配(エッジ)情報(勾配値)が用いられる。
The energy E IMG regarding the image at each control point is calculated by the following formula.
[Equation 5]
I′(i) is image energy at the control point CP(i), and gradient (edge) information (gradient value) obtained from the pixel value at the pixel position of the control point in the image I is used.

ここで、背景が複雑なテクスチャを持つ場合、エネルギーEが最小となる方向へ制御点を移動させる過程で、制御点が被写体と背景との間のエッジではなく、背景内のエッジで停止してしまうことがあり得る。これでは、後述するステップS207において、本来の被写体の輪郭とは大きく異なる被写体輪郭が設定されてしまう可能性がある。 Here, when the background has a complicated texture, in the process of moving the control point in the direction in which the energy E becomes the minimum, the control point stops at the edge in the background, not the edge between the subject and the background. It can happen. In this case, in step S207 described later, a subject contour that is significantly different from the original contour of the subject may be set.

そこで、被写体領域設定部15は、各制御点における画像に関するエネルギーEIMGを算出する際の画像エネルギーI’(i)として、ステップS202にて生成した画像Iの顕著性マップを利用する。すなわち、被写体領域設定部15は、画像エネルギーI’(i)として、画像Iの顕著性マップにおける顕著性値から得られる制御点の画素位置の勾配値を用いる。 Therefore, the subject area setting unit 15 uses the saliency map of the image I generated in step S202 as the image energy I′(i) when calculating the energy E IMG regarding the image at each control point. That is, the subject region setting unit 15 uses, as the image energy I′(i), the gradient value of the pixel position of the control point obtained from the saliency value in the saliency map of the image I.

画像Iの顕著性マップは、画像Iにおいて視覚的注意が導かれる被写体が存在する領域(画像I全体の中で目立つ領域)を可視化した顕著性値により構成されている。したがって、この顕著性マップを用いることで、後述するステップS207において、本来の被写体の輪郭に近い被写体輪郭を設定し、精度の高い被写体領域を設定することができる。この場合、背景と被写体との間の境界が曖昧な場合であっても、大まかな被写体領域を設定することができる。 The saliency map of the image I is composed of saliency values that visualize a region (a conspicuous region in the entire image I) in which a subject to which visual attention is directed exists in the image I. Therefore, by using this saliency map, it is possible to set a subject contour close to the original contour of the subject and to set a highly accurate subject area in step S207 described later. In this case, a rough subject area can be set even if the boundary between the background and the subject is ambiguous.

被写体領域設定部15は、ステップS205から移行して、エネルギーEが最小のときの全制御点を直線で結んだ輪郭を、被写体の輪郭(被写体輪郭)として設定し、被写体輪郭内の領域を被写体領域として設定する(ステップS207)。そして、被写体領域設定部15は、画像I及び被写体領域を特定するための情報を被写体特徴算出部16及び重み係数算出部17に出力する。 The subject area setting unit 15 shifts from step S205, and sets the contour connecting all the control points when the energy E is the minimum as a contour of the subject (subject contour), and the region within the subject contour is set as the subject. The area is set (step S207). Then, the subject region setting unit 15 outputs information for identifying the image I and the subject region to the subject feature calculation unit 16 and the weighting factor calculation unit 17.

図9は、画像Iの顕著性マップにおいて、エネルギーEが最小のときの被写体の輪郭の例を示す図であり、図10は、画像Iにおいて、エネルギーEが最小のときの被写体の輪郭の例を示す図である。図9及び図10に示すように、エネルギーEが最小のときの全制御点を直線で結ぶことで、被写体輪郭が設定される。 FIG. 9 is a diagram showing an example of the contour of the subject when the energy E is the minimum in the saliency map of the image I, and FIG. 10 is an example of the contour of the subject when the energy E is the minimum in the image I. FIG. As shown in FIGS. 9 and 10, the object contour is set by connecting all the control points when the energy E is the minimum with a straight line.

図9及び図10から、被写体輪郭は、図8に示した動的輪郭モデルの初期輪郭に比べ、被写体の形状に近い輪郭となっていることがわかる。つまり、図9及び図10の被写体輪郭内の領域である被写体領域は、図7に示した被写体矩形領域(従来の被写体ブロック領域)よりも、被写体以外の背景が存在する領域(背景領域)の面積が狭くなっている。 It can be seen from FIGS. 9 and 10 that the subject contour is closer to the shape of the subject than the initial contour of the active contour model shown in FIG. That is, the subject area, which is an area within the subject contour in FIGS. 9 and 10, is an area (background area) in which a background other than the subject is present rather than the subject rectangular area (conventional subject block area) shown in FIG. The area is getting smaller.

図1及び図2に戻って、被写体特徴算出部16は、被写体領域設定部15から画像I及び被写体領域を特定するための情報を入力する。そして、被写体特徴算出部16は、画像I内の被写体領域の画素のみから画像特徴量を算出し、これを被写体特徴ベクトルVOIとして画像特徴ベクトル生成部13に出力する(ステップS208)。 Returning to FIG. 1 and FIG. 2, the subject feature calculation unit 16 inputs information for specifying the image I and the subject region from the subject region setting unit 15. Then, the subject feature calculation unit 16 calculates the image feature amount only from the pixels of the subject region in the image I, and outputs this as the subject feature vector V OI to the image feature vector generation unit 13 (step S208).

重み係数算出部17は、被写体領域設定部15から画像I及び被写体領域を特定するための情報を入力する。そして、重み係数算出部17は、画像Iの顕著性マップを用いて、ステップS207にて被写体領域設定部15により設定された被写体輪郭の全制御点の顕著性値を平均化する。重み係数算出部17は、以下の式にて、平均値Kaveを所定値(255)で除算することで、被写体領域の重み係数WIを求め、重み係数WIを外部へ出力する(ステップS209)。
[数6]
I=Kave/255 ・・・(6)
The weighting factor calculation unit 17 inputs information for specifying the image I and the subject region from the subject region setting unit 15. Then, using the saliency map of the image I, the weighting factor calculation unit 17 averages the saliency values of all the control points of the subject contour set by the subject area setting unit 15 in step S207. The weighting factor calculation unit 17 obtains the weighting factor W I of the subject area by dividing the average value K ave by a predetermined value (255) in the following formula, and outputs the weighting factor W I to the outside (step S209).
[Equation 6]
W I =K ave /255 (6)

画像特徴ベクトル生成部13は、ブロック特徴算出部11から画像全体特徴ベクトルVGIを入力すると共に、被写体特徴処理部12の被写体特徴算出部16から被写体特徴ベクトルVOIを入力する。そして、画像特徴ベクトル生成部13は、画像全体特徴ベクトルVGI及び被写体特徴ベクトルVOIからなる画像Iの画像特徴ベクトルVI={VGI, VOI}を生成し、画像Iの画像特徴ベクトルVI={VGI, VOI}を外部へ出力する。 The image feature vector generation unit 13 inputs the entire image feature vector V GI from the block feature calculation unit 11 and the subject feature vector V OI from the subject feature calculation unit 16 of the subject feature processing unit 12. Then, the image feature vector generation unit 13 generates an image feature vector V I ={V GI , V OI } of the image I composed of the entire image feature vector V GI and the subject feature vector V OI, and the image feature vector of the image I is generated. Output V I ={V GI , V OI } to the outside.

図11は、画像特徴ベクトルVIの例示す図である。図11に示すように、画像Iの画像特徴ベクトルVI={VGI, VOI}は、ブロック領域(m1,m2)毎の画像特徴量VGI(m1,m2)からなる画像全体特徴ベクトルVGIと、被写体領域の画像特徴量である被写体特徴ベクトルVOIとから構成される。 FIG. 11 is a diagram showing an example of the image feature vector V I. As shown in FIG. 11, the image feature vector V I ={V GI , V OI } of the image I is the entire image feature vector consisting of the image feature amount V GI (m1, m2) for each block area (m1, m2). V GI and a subject feature vector V OI which is an image feature amount of the subject region.

以上のように、実施例1の画像処理装置1によれば、被写体特徴処理部12の被写体矩形領域設定部14は、画像Iの顕著性マップを用いて画像Iの被写体矩形領域を設定する。そして、被写体領域設定部15は、被写体矩形領域の矩形枠上にNc個の制御点を設定し、Nc個の制御点を直線で結んだ輪郭を動的輪郭モデルの初期輪郭として設定する。そして、被写体領域設定部15は、動的輪郭モデルについて、輪郭全体の弧長に関するエネルギーELEN、各制御点における曲率に関するエネルギーECRV、及び各制御点における画像に関するエネルギーEIMGを加算したエネルギーEを求める。 As described above, according to the image processing apparatus 1 of the first embodiment, the subject rectangular area setting unit 14 of the subject feature processing unit 12 sets the subject rectangular area of the image I using the saliency map of the image I. Then, the subject area setting unit 15 sets N c control points on the rectangular frame of the subject rectangular area, and sets a contour connecting the N c control points with a straight line as the initial contour of the active contour model. .. Then, the subject region setting unit 15 adds the energy E LEN regarding the arc length of the entire contour, the energy E CRV regarding the curvature at each control point, and the energy E IMG regarding the image at each control point to the active contour model. Ask for.

被写体領域設定部15は、エネルギーEが最小となる方向へ制御点を移動させ、エネルギーEが最小となる位置で各制御点を停止させ、その位置で被写体輪郭を設定し、被写体輪郭内の領域を被写体領域として設定する。 The subject area setting unit 15 moves the control point in the direction in which the energy E is minimized, stops each control point at the position where the energy E is minimized, sets the subject contour at that position, and sets the region within the subject contour. Is set as the subject area.

被写体特徴算出部16は、画像I内の被写体領域の画像特徴量を被写体特徴ベクトルVOIとして算出する。 The subject feature calculation unit 16 calculates the image feature amount of the subject region in the image I as a subject feature vector V OI .

これにより、被写体領域は、被写体矩形領域に比べ、背景が含まれる度合いが低いから、被写体特徴ベクトルVOIは、背景の特徴がさほど反映されず、被写体自体の特徴が反映された画像特徴量となる。 As a result, the subject region is less likely to include the background than the subject rectangular region, so that the subject feature vector V OI does not reflect the background feature so much and the subject feature vector V OI has an image feature amount that reflects the feature of the subject itself. Become.

したがって、被写体特徴ベクトルVOIを画像検索に用いることで、背景の影響をさほど受けることなく、被写体の類似性に重きを置いた高精度の画像検索を実現することができる。また、被写体特徴ベクトルVOIを、大量の画像を分類する処理に用いることも可能であり、被写体の類似性に重きを置いた高精度の画像分類処理を実現することができる。 Therefore, by using the subject feature vector V OI for the image search, it is possible to realize a highly accurate image search that emphasizes the similarity of the subjects without being affected by the background. In addition, the subject feature vector V OI can be used for a process of classifying a large number of images, and a highly accurate image classifying process that emphasizes the similarity of the subjects can be realized.

さらに、被写体特徴ベクトルVOIに加え、従来のブロック領域毎の画像特徴量からなる画像全体特徴ベクトルVGIを用いることで、画像Iにおける色、模様等のレイアウトの類似性を保持しながら、背景の影響をさほど受けることなく、被写体の類似性に重きを置いた高精度の画像検索を実現することができる。また、被写体特徴ベクトルVOI及び画像全体特徴ベクトルVGIを、大量の画像を分類する処理に用いることも可能である。例えば、画像全体で分類した後、被写体の類似性に重きを置いた高精度の画像分類処理を実現することができる。 Furthermore, in addition to the object feature vector V OI , the conventional image overall feature vector V GI consisting of the image feature amount for each block area is used, so that the background of the background can be maintained while maintaining the similarity of the layout such as color and pattern in the image I. It is possible to realize a highly accurate image search that attaches great importance to the similarity of subjects without being affected by the above. It is also possible to use the subject feature vector V OI and the entire image feature vector V GI in the process of classifying a large number of images. For example, it is possible to implement high-precision image classification processing that emphasizes the similarity of the subjects after classifying the entire images.

〔実施例2〕
次に、実施例2について説明する。実施例2は、実施例1にて算出したブロック領域毎の画像特徴量及び被写体領域の画像特徴量を用いて、複数の検索対象画像から要求画像に類似する画像を選択する例である。実施例2では、複数の検索対象画像のそれぞれと要求画像との間で、ブロック領域毎の画像特徴量及び被写体領域の画像特徴量を反映した類似度を算出し、複数の検索対象画像から類似度の高い画像を選択する。
[Example 2]
Next, a second embodiment will be described. The second embodiment is an example in which an image similar to the request image is selected from a plurality of search target images using the image feature amount of each block region and the image feature amount of the subject region calculated in the first embodiment. In the second embodiment, between each of the plurality of search target images and the request image, the similarity reflecting the image feature amount of each block region and the image feature amount of the subject region is calculated, and the similarity is calculated from the plurality of search target images. Select a high-quality image.

図3は、実施例2の画像処理装置の構成例を示すブロック図である。この画像処理装置2は、検索対象画像DB(データベース)20、前処理部21、画像特徴ベクトルDB22及び検索処理部23を備えている。 FIG. 3 is a block diagram illustrating a configuration example of the image processing apparatus according to the second embodiment. The image processing apparatus 2 includes a search target image DB (database) 20, a preprocessing unit 21, an image feature vector DB 22 and a search processing unit 23.

画像処理装置2は、要求画像Qに類似する画像を、複数の検索対象画像I[1],・・・,I[ND]の中から選択して出力する。具体的には、画像処理装置2は、複数の検索対象画像I[1],・・・,I[ND]の画像特徴ベクトルVI[1],・・・,VI[ND]を算出し、1枚の要求画像Qを入力して要求画像Qの画像特徴ベクトルVQ及び重み係数WQを算出する。そして、画像処理装置2は、要求画像Qと複数の検索対象画像I[1],・・・,I[ND]との間の類似度S(1),・・・S(ND)をそれぞれ算出する。画像処理装置2は、複数の検索対象画像I[1],・・・,I[ND]のうち類似度Sの高い所定数の画像を選択して出力する。 The image processing apparatus 2 selects an image similar to the requested image Q from the plurality of search target images I[1],..., I[N D ] and outputs it. Specifically, the image processing apparatus 2 uses the image feature vectors V I [1],..., V I [N D ] of the plurality of search target images I[1],..., I[N D ]. Is calculated and one requested image Q is input, and the image feature vector V Q and the weighting coefficient W Q of the requested image Q are calculated. Then, the image processing apparatus 2 uses the similarities S(1),... S(N D ) between the request image Q and the plurality of search target images I[1],..., I[N D ]. Are calculated respectively. The image processing device 2, a plurality of retrieval target image I [1], · · ·, and selects and outputs the image of the predetermined high number of similarity S of the I [N D].

検索対象画像DB20には、ND枚の検索対象画像I[1],・・・,I[ND]が格納されている。NDは検索対象画像数であり、2以上の整数である。 The search target image DB 20 stores N D search target images I[1],..., I[N D ]. N D is the number of images to be searched and is an integer of 2 or more.

前処理部21は、図1に示した画像処理装置1と同様の処理を行う。まず、前処理部21は、検索対象画像DB20から検索対象画像I[1],・・・,I[ND]を順番に読み出す。そして、前処理部21は、検索対象画像I[1],・・・,I[ND]のそれぞれについて、画像特徴ベクトルVI[1],・・・,VI[ND]を算出し、これらを画像特徴ベクトルDB22に格納する。画像特徴ベクトルは、VI[1]={VGI[1],VOI[1]},・・・,VI[ND]={VGI[ND],VOI[ND]}である。 The preprocessing unit 21 performs the same processing as that of the image processing apparatus 1 shown in FIG. First, the preprocessing unit 21 sequentially reads the search target images I[1],..., I[N D ] from the search target image DB 20. Then, the preprocessing unit 21 calculates image feature vectors V I [1],..., V I [N D ] for each of the search target images I[1],..., I[N D ]. Then, these are stored in the image feature vector DB 22. The image feature vector is V I [1]={V GI [1], V OI [1]},..., V I [N D ]={V GI [N D ], V OI [N D ] }.

n=1,・・・,NDとして、画像I[n]の画像特徴ベクトルVI[n]は、ブロック領域(m1,m2)毎の画像特徴量VGI(m1,m2)からなる画像全体特徴ベクトルVGI[n]と、被写体領域の画像特徴量である被写体特徴ベクトルVOI[n]とから構成される。 When n=1,..., N D , the image feature vector V I [n] of the image I [n] is an image including the image feature amount V GI (m1, m2) for each block area (m1, m2). It is composed of the overall feature vector V GI [n] and the subject feature vector V OI [n] which is the image feature amount of the subject region.

画像特徴ベクトルDB22には、ND枚の検索対象画像I[1],・・・,I[ND]の画像特徴ベクトルVI[1]={VGI[1],VOI[1]},・・・,VI[ND]={VGI[ND],VOI[ND]}が格納されている。 The image feature vector DB 22 has image feature vectors V I [1]={V GI [1], V OI [1] of N D search target images I[1],..., I[N D ]. },..., V I [N D ]={V G I [N D ], V OI [N D ]} are stored.

図4は、前処理部21の処理例を示すフローチャートである。前処理部21は、パラメータn=1を設定し(ステップS401)、検索対象画像DB20から検索対象画像I[n]を読み出す(ステップS402)。 FIG. 4 is a flowchart showing a processing example of the preprocessing unit 21. The preprocessing unit 21 sets the parameter n=1 (step S401) and reads the search target image I[n] from the search target image DB 20 (step S402).

前処理部21は、検索対象画像I[n]について、画像全体特徴ベクトルVGI[n]及び被写体特徴ベクトルVOI[n]からなる画像特徴ベクトルVI[n]を算出し、これを画像特徴ベクトルDB22に格納する(ステップS403)。画像特徴ベクトルVI[n]の算出手法は、図1に示した画像処理装置1の処理と同様である。 The pre-processing unit 21 calculates an image feature vector V I [n] consisting of the entire image feature vector V GI [n] and the subject feature vector V OI [n] for the search target image I[n], and calculates this as an image. It is stored in the feature vector DB 22 (step S403). The method of calculating the image feature vector V I [n] is the same as the processing of the image processing apparatus 1 shown in FIG.

前処理部21は、パラメータnに1を加算し(ステップS404)、パラメータnが所定の検索対象画像数NDよりも大きいか否かを判定する(ステップS405)。前処理部21は、ステップS405において、パラメータnが検索対象画像数NDよりも大きくないと判定した場合(ステップS405:N)、ステップS402へ移行する。一方、前処理部21は、ステップS405において、パラメータnが検索対象画像数NDよりも大きいと判定した場合(ステップS405:Y)、処理を終了する。 The preprocessing unit 21 adds 1 to the parameter n (step S404), and determines whether or not the parameter n is larger than the predetermined number of search target images N D (step S405). When the pre-processing unit 21 determines in step S405 that the parameter n is not larger than the search target image number N D (step S405: N), the pre-processing unit 21 proceeds to step S402. On the other hand, when the pre-processing unit 21 determines in step S405 that the parameter n is larger than the number N D of search target images (step S405: Y), the process ends.

これにより、画像特徴ベクトルDB22には、検索対象画像I[n]の画像特徴ベクトルVI[n]={VGI[n],VOI[n]}が格納される(n=1,・・・,ND)。 As a result, the image feature vector DB 22 stores the image feature vector V I [n]={V GI [n], V OI [n]} of the search target image I[n] (n=1, ... .., N D ).

図3に戻って、検索処理部23は、要求画像Qを入力し、要求画像Qの画像特徴ベクトルVQ及び重み係数WQを算出し、画像特徴ベクトルDB22から画像特徴ベクトルVI[1],・・・,VI[ND]を読み出す。そして、検索処理部23は、重み係数WQを用いて、要求画像Qと検索対象画像I[1],・・・,I[ND]との間の類似度S(1),・・・,S(ND)を算出し、類似度の高いR枚の画像I[n1],・・・,I[nR]を検索結果として出力する。 Returning to FIG. 3, the search processing unit 23 inputs the request image Q, calculates the image feature vector V Q and the weighting factor W Q of the request image Q, and from the image feature vector DB 22 the image feature vector V I [1]. ,..., V I [N D ] is read. The search processing unit 23 uses the weighting factor W Q, requested image Q and the search target image I [1], · · ·, the similarity S (1) between the I [N D], ·· , S(N D ) are calculated, and R images I[n 1 ],..., I[n R ] having a high degree of similarity are output as search results.

検索処理部23は、特徴算出部24、類似度算出部25及び類似画像選択部26を備えている。図5は、検索処理部23の処理例を示すフローチャートである。検索処理部23の特徴算出部24は、図1に示した画像処理装置1と同様の処理を行う。特徴算出部24は、要求画像Qを入力し(ステップS501)、画像全体特徴ベクトルVGQ及び被写体特徴ベクトルVOQからなる画像特徴ベクトルVQ={VGQ,VOQ}を算出すると共に、重み係数WQを算出する(ステップS502)。そして、特徴算出部24は、要求画像Qの画像特徴ベクトルVQ={VGQ,VOQ}及び重み係数WQを類似度算出部25に出力する。 The search processor 23 includes a feature calculator 24, a similarity calculator 25, and a similar image selector 26. FIG. 5 is a flowchart showing a processing example of the search processing unit 23. The feature calculation unit 24 of the search processing unit 23 performs the same processing as that of the image processing device 1 shown in FIG. The feature calculation unit 24 inputs the requested image Q (step S501), calculates an image feature vector V Q ={V GQ , V OQ } composed of the entire image feature vector V GQ and the subject feature vector V OQ , and weights it. The coefficient W Q is calculated (step S502). Then, the feature calculation unit 24 outputs the image feature vector V Q ={V GQ , V OQ } of the requested image Q and the weighting factor W Q to the similarity calculation unit 25.

類似度算出部25は、特徴算出部24から要求画像Qの画像特徴ベクトルVQ={VGQ,VOQ}及び重み係数WQを入力する。そして、類似度算出部25は、パラメータn=1を設定し(ステップS503)、画像特徴ベクトルDB22から検索対象画像I[n]の画像特徴ベクトルVI[n]={VGI[n],VOI[n]}を読み出す(ステップS504)。 The similarity calculation unit 25 inputs the image feature vector V Q ={V GQ , V OQ } of the requested image Q and the weighting coefficient W Q from the feature calculation unit 24. Then, the similarity calculation unit 25 sets the parameter n=1 (step S503), and the image feature vector V I [n]={V GI [n], of the search target image I[n] is set from the image feature vector DB 22. V OI [n]} is read (step S504).

類似度算出部25は、要求画像Qの画像全体特徴ベクトルVGQと検索対象画像I[n]の画像全体特徴ベクトルVGI[n]との間の画像全体の類似度SG(n)を算出すると共に、要求画像Qの被写体特徴ベクトルVOQと検索対象画像I[n]の被写体特徴ベクトルVOI[n]との間の被写体の類似度SO(n)を算出する。これらの類似度は、ベクトル同士を内積して求めたり、ユークリッド距離を0〜1に正規化したり等、一般的な算出手法にて求められる。 The similarity calculation unit 25 determines the similarity S G (n) of the entire image between the image entire feature vector V GQ of the requested image Q and the image entire feature vector V GI [n] of the search target image I[n]. Along with the calculation, the similarity S O (n) of the subject between the subject feature vector V OQ of the request image Q and the subject feature vector V OI [n] of the search target image I[n] is calculated. These similarities are obtained by a general calculation method such as inner product of vectors or normalization of Euclidean distance to 0 to 1.

類似度算出部25は、画像全体の類似度SG(n)、被写体の類似度SO(n)及び要求画像Qの重み係数WQを用いて、以下の式にて、要求画像Qと検索対象画像I[n]との間の総合的な類似度S(n)を算出する(ステップS505)。そして、類似度算出部25は、類似度S(n)を類似画像選択部26に出力する。
[数7]
S(n)=(SG(n)+WQO(n))/(1+WQ) ・・・(7)
The similarity calculating unit 25 uses the similarity S G (n) of the entire image, the similarity S O (n) of the subject, and the weighting factor W Q of the request image Q to calculate the required image Q as An overall similarity S(n) with the search target image I[n] is calculated (step S505). Then, the similarity calculation unit 25 outputs the similarity S(n) to the similar image selection unit 26.
[Equation 7]
S (n) = (S G (n) + W Q S O (n)) / (1 + W Q) ··· (7)

前記式(7)において、被写体が目立っている場合(重み係数WQが大きい場合)、類似度S(n)へ反映される被写体の類似度SO(n)の割合は高い。逆に、被写体が目立たない場合(重み係数WQが小さい場合)、類似度S(n)へ反映される被写体の類似度SO(n)の割合が低い。これにより、被写体の目立ち度合いに応じた類似度S(n)を得ることができる。 In Expression (7), when the subject is conspicuous (when the weighting coefficient W Q is large), the ratio of the subject similarity S O (n) reflected in the similarity S(n) is high. On the contrary, when the subject is not conspicuous (when the weighting coefficient W Q is small), the ratio of the subject similarity S O (n) reflected in the similarity S(n) is low. As a result, the similarity S(n) according to the degree of conspicuousness of the subject can be obtained.

尚、類似度算出部25は、重み係数WQを用いることなく、類似度SG(n),SO(n)を加算することで、類似度S(n)を求めるようにしてもよい。 The similarity calculation unit 25 may calculate the similarity S(n) by adding the similarity S G (n) and S O (n) without using the weighting factor W Q. ..

類似度算出部25は、パラメータnに1を加算し(ステップS506)、パラメータnが所定の検索対象画像数NDよりも大きいか否かを判定する(ステップS507)。類似度算出部25は、ステップS507において、パラメータnが検索対象画像数NDよりも大きくないと判定した場合(ステップS507:N)、ステップS504へ移行する。 The similarity calculation unit 25 adds 1 to the parameter n (step S506), and determines whether the parameter n is larger than the predetermined number N D of search target images (step S507). When the similarity calculation unit 25 determines in step S507 that the parameter n is not larger than the search target image number N D (step S507: N), the similarity calculation unit 25 proceeds to step S504.

一方、類似度算出部25は、ステップS507において、パラメータnが検索対象画像数NDよりも大きいと判定した場合(ステップS507:Y)、ステップS508へ移行する。 On the other hand, when the similarity calculation unit 25 determines in step S507 that the parameter n is larger than the search target image number N D (step S507: Y), the similarity calculation unit 25 proceeds to step S508.

これにより、類似度算出部25において、要求画像Qと全ての検索対象画像I[n]との間の類似度S(n)が得られる(n=1,・・・,ND)。 As a result, the similarity calculation unit 25 obtains the similarity S(n) between the request image Q and all the search target images I[n] (n=1,..., N D ).

類似画像選択部26は、類似度算出部25から全ての類似度S(n)を入力し、検索対象画像DB20に格納されたND枚の検索対象画像I[1],・・・,I[ND]から、類似度S(n)の値の高い上位R枚の画像I[n1],・・・,I[nR]を選択する。Rは、1以上の整数である。そして、類似画像選択部26は、選択したR枚の画像I[n1],・・・,I[nR]またはこれらの画像を特定するための情報を検索結果として出力する(ステップS508)。 The similar image selection unit 26 inputs all the similarity S(n) from the similarity calculation unit 25, and the N D search target images I[1],..., I stored in the search target image DB 20. from [n D], the image I [n 1] values of high-level R sheets of similarity S (n), ···, selects the I [n R]. R is an integer of 1 or more. Then, the similar image selection unit 26 outputs the selected R images I[n 1 ],..., I[n R ] or information for specifying these images as a search result (step S508). ..

以上のように、実施例2の画像処理装置2によれば、前処理部21は、実施例1の画像処理装置1と同様の処理にて、ND枚(n=1,・・・,ND)の検索対象画像I[n]のそれぞれについて、画像全体特徴ベクトルVGI[n]及び被写体特徴ベクトルVOI[n]からなる画像特徴ベクトルVI[n]={VGI[n],VOI[n]}を算出する。 As described above, according to the image processing apparatus 2 of the second embodiment, the preprocessing unit 21 performs N D sheets (n=1,..., And) by the same processing as the image processing apparatus 1 of the first embodiment. For each of the search target images I[n] of N D ), an image feature vector V I [n]={V GI [n] consisting of the entire image feature vector V GI [n] and the subject feature vector V OI [n]. , V OI [n]} is calculated.

検索処理部23の特徴算出部24は、要求画像Qについて、画像全体特徴ベクトルVGQ及び被写体特徴ベクトルVOQからなる画像特徴ベクトルVQ={VGQ,VOQ}を算出すると共に、重み係数WQを算出する。 The feature calculation unit 24 of the search processing unit 23 calculates an image feature vector V Q ={V GQ , V OQ } composed of the entire image feature vector V GQ and the subject feature vector V OQ for the requested image Q, and a weighting factor. Calculate W Q.

類似度算出部25は、画像全体特徴ベクトルVGQと画像全体特徴ベクトルVGI[n]との間の類似度SG(n)を算出し、被写体特徴ベクトルVOQと被写体特徴ベクトルVOI[n]との間の類似度SO(n)を算出し、類似度SG(n),SO(n)及び重み係数WQを用いて、要求画像Qと検索対象画像I[n]との間の類似度S(n)を算出する。 The similarity calculation unit 25 calculates the similarity S G (n) between the overall image feature vector V GQ and the overall image feature vector V GI [n], and the subject feature vector V OQ and the subject feature vector V OI [ calculating a similarity S O (n) between the n], the similarity S G (n), using S O (n) and the weighting factor W Q, requested image Q and the search target image I [n] And a similarity S(n) between and.

類似画像選択部26は、類似度S(n)の値の高い上位R枚の画像I[n1],・・・,I[nR]を選択し、これを検索結果として出力する。 The similar image selection unit 26 selects the upper R images I[n 1 ],..., I[n R ] having a high value of the similarity S(n), and outputs this as a search result.

これにより、画像における色、模様等のレイアウトの類似性を保持しながら、背景の影響をさほど受けることなく、被写体の類似性に重きを置いた高精度の画像検索を実現することができる。 As a result, it is possible to realize a highly accurate image search that attaches importance to the similarity of the subject without being affected by the background so much while maintaining the similarity of the layout such as colors and patterns in the image.

尚、本発明の実施例1,2による画像処理装置1,2のハードウェア構成としては、通常のコンピュータを使用することができる。画像処理装置1,2は、CPU、RAM等の揮発性の記憶媒体、ROM等の不揮発性の記憶媒体、及びインターフェース等を備えたコンピュータによって構成される。 A normal computer can be used as the hardware configuration of the image processing apparatuses 1 and 2 according to the first and second embodiments of the present invention. The image processing devices 1 and 2 are configured by a computer including a CPU, a volatile storage medium such as a RAM, a non-volatile storage medium such as a ROM, and an interface.

画像処理装置1に備えたブロック設定部10、ブロック特徴算出部11、被写体特徴処理部12及び画像特徴ベクトル生成部13の各機能は、これらの機能を記述したプログラムをCPUに実行させることによりそれぞれ実現される。また、画像処理装置2に備えた前処理部21及び検索処理部23の各機能もこれらの機能を記述したプログラムをCPUに実行させることによりそれぞれ実現される。 The functions of the block setting unit 10, the block feature calculation unit 11, the subject feature processing unit 12, and the image feature vector generation unit 13 included in the image processing apparatus 1 are respectively executed by causing the CPU to execute a program that describes these functions. Will be realized. Further, each function of the preprocessing unit 21 and the search processing unit 23 included in the image processing apparatus 2 is also realized by causing the CPU to execute a program describing these functions.

また、これらのプログラムは、磁気ディスク(フロッピー(登録商標)ディスク、ハードディスク等)、光ディスク(CD−ROM、DVD等)、半導体メモリ等の記憶媒体に格納して頒布することもでき、ネットワークを介して送受信することもできる。 Further, these programs can be stored and distributed in a storage medium such as a magnetic disk (floppy (registered trademark) disk, hard disk, etc.), optical disk (CD-ROM, DVD, etc.), semiconductor memory, etc., and distributed via a network. You can also send and receive.

1,2 画像処理装置
10 ブロック設定部
11 ブロック特徴算出部
12 被写体特徴処理部
13 画像特徴ベクトル生成部
14 被写体矩形領域設定部
15 被写体領域設定部
16 被写体特徴算出部
17 重み係数算出部
20 検索対象画像DB
21 前処理部
22 画像特徴ベクトルDB
23 検索処理部
24 特徴算出部
25 類似度算出部
26 類似画像選択部
1, 2 image processing device 10 block setting unit 11 block feature calculation unit 12 subject feature processing unit 13 image feature vector generation unit 14 subject rectangular region setting unit 15 subject region setting unit 16 subject feature calculation unit 17 weighting factor calculation unit 20 search target Image DB
21 preprocessing unit 22 image feature vector DB
23 Search Processing Section 24 Feature Calculation Section 25 Similarity Calculation Section 26 Similar Image Selection Section

Claims (6)

被写体を含む画像の特徴量を算出する画像処理装置において、
前記画像に含まれる前記被写体が存在する視覚的注意が導かれる領域を可視化するための顕著性値を画素毎に表した顕著性マップを用いて、前記被写体を含む矩形の被写体矩形領域を設定する被写体矩形領域設定部と、
前記被写体矩形領域設定部により設定された前記被写体矩形領域の前記矩形の枠上に、所定数の制御点を設定し、前記所定数の制御点を直線で結んだ輪郭の動的輪郭モデルを設定し、
前記所定数の制御点の位置をそれぞれ移動させる毎に、前記動的輪郭モデルのエネルギーを算出し、
前記エネルギーに基づいて、前記被写体の輪郭を被写体輪郭として設定し、前記被写体輪郭内の領域を被写体領域として設定する被写体領域設定部と、
前記被写体領域設定部により設定された前記被写体領域の画像特徴量を算出する被写体特徴算出部と、を備え、
前記被写体領域設定部は、
前記被写体矩形領域設定部により設定された前記被写体矩形領域の前記矩形の枠上に、所定数の制御点を設定し、前記所定数の制御点を直線で結んだ輪郭の動的輪郭モデルを設定し、
前記所定数の制御点の位置をそれぞれ移動させる毎に、前記動的輪郭モデルの輪郭の弧長に関するエネルギー、前記動的輪郭モデルの曲率に関するエネルギー、及び前記動的輪郭モデルの画像の勾配に関するエネルギーの加算値を、前記動的輪郭モデルのエネルギーとして算出し、
前記エネルギーが最小のときの前記所定数の制御点を結んだ輪郭を被写体輪郭として設定し、前記被写体輪郭内の領域を被写体領域として設定する、ことを特徴とする画像処理装置。
In an image processing device that calculates a feature amount of an image including a subject,
A rectangular subject rectangular area including the subject is set using a saliency map that represents, for each pixel, a saliency value for visualizing a region in the image in which the subject is present and in which visual attention is guided. Subject rectangular area setting unit,
A predetermined number of control points are set on the rectangular frame of the subject rectangular area set by the subject rectangular area setting unit, and an active contour model of a contour connecting the predetermined number of control points with a straight line is set. Then
Each time the positions of the predetermined number of control points are moved, the energy of the active contour model is calculated,
A subject area setting unit that sets the contour of the subject as a subject contour based on the energy, and sets a region within the subject contour as a subject area;
A subject feature calculation unit that calculates an image feature amount of the subject region set by the subject region setting unit,
The subject area setting unit,
A predetermined number of control points are set on the rectangular frame of the subject rectangular area set by the subject rectangular area setting unit, and an active contour model of a contour connecting the predetermined number of control points with a straight line is set. Then
Every time the positions of the predetermined number of control points are moved, energy related to the arc length of the contour of the active contour model, energy related to the curvature of the active contour model, and energy related to the gradient of the image of the active contour model. An added value of is calculated as the energy of the active contour model,
An image processing apparatus, wherein a contour connecting the predetermined number of control points when the energy is minimum is set as a subject contour, and an area within the subject contour is set as a subject area.
請求項1に記載の画像処理装置において、
前記画像から格子状の複数のブロック領域を設定するブロック設定部と、
前記ブロック設定部により設定された複数のブロック領域のそれぞれについての特徴量を、全体の画像特徴量をして算出するブロック特徴算出部と、を備え、
前記被写体特徴算出部により算出された前記被写体領域の画像特徴量、及び、前記ブロック特徴算出部により算出された前記全体の画像特徴量を出力する、ことを特徴とする画像処理装置。
The image processing apparatus according to claim 1,
A block setting unit for setting a plurality of grid-like block regions from the image,
A block feature calculation unit that calculates the feature amount for each of the plurality of block areas set by the block setting unit by calculating the entire image feature amount,
An image processing apparatus, which outputs the image feature amount of the subject region calculated by the subject feature calculation unit and the overall image feature amount calculated by the block feature calculation unit.
複数の検索対象画像から要求画像に類似する画像を検索する画像処理装置において、
前記複数の検索対象画像のそれぞれについて、画像特徴量を算出する前処理部と、
前記要求画像について、画像特徴量を算出する特徴算出部と、
前記前処理部により算出された前記複数の検索対象画像のそれぞれについての画像特徴量、及び前記特徴算出部により算出された前記要求画像の画像特徴量に基づいて、前記複数の検索対象画像のそれぞれと前記要求画像との間の類似度を算出する類似度算出部と、
前記類似度算出部により算出された前記類似度に基づいて、前記複数の検索対象画像から前記要求画像に類似する画像を選択する類似画像選択部と、を備え、
前記前処理部は、
前記複数の検索対象画像のそれぞれについて、格子状の複数のブロック領域を設定する第1のブロック設定部と、
前記複数の検索対象画像のそれぞれについて、前記第1のブロック設定部により設定された複数のブロック領域の特徴量を、全体特徴量をして算出する第1のブロック特徴算出部と、
前記複数の検索対象画像のそれぞれについて、当該検索対象画像に含まれる被写体が存在する視覚的注意が導かれる領域を可視化するための顕著性値を画素毎に表した顕著性マップを用いて、前記被写体を含む矩形の被写体矩形領域を設定する第1の被写体矩形領域設定部と、
前記複数の検索対象画像のそれぞれについて、前記第1の被写体矩形領域設定部により設定された前記被写体矩形領域の前記矩形の枠上に、所定数の制御点を設定し、前記所定数の制御点を直線で結んだ輪郭の動的輪郭モデルを設定し、
前記所定数の制御点の位置をそれぞれ移動させる毎に、前記動的輪郭モデルの輪郭の弧長に関するエネルギー、前記動的輪郭モデルの曲率に関するエネルギー、及び前記動的輪郭モデルの画像の勾配に関するエネルギーの加算値を、前記動的輪郭モデルのエネルギーとして算出し、
前記エネルギーが最小のときの前記所定数の制御点を結んだ輪郭を被写体輪郭として設定し、前記被写体輪郭内の領域を被写体領域として設定する第1の被写体領域設定部と、
前記複数の検索対象画像のそれぞれについて、前記第1の被写体領域設定部により設定された前記被写体領域の画像特徴量を、被写体特徴量として算出する第1の被写体特徴算出部と、を備え、
前記特徴算出部は、
前記要求画像について、格子状の複数のブロック領域を設定する第2のブロック設定部と、
前記第2のブロック設定部により設定された複数のブロック領域の特徴量を、全体特徴量をして算出する第2のブロック特徴算出部と、
前記要求画像に含まれる被写体が存在する視覚的注意が導かれる領域を可視化するための顕著性値を画素毎に表した顕著性マップを用いて、前記被写体を含む矩形の被写体矩形領域を設定する第2の被写体矩形領域設定部と、
前記第2の被写体矩形領域設定部により設定された前記被写体矩形領域の前記矩形の枠上に、所定数の制御点を設定し、前記所定数の制御点を直線で結んだ輪郭の動的輪郭モデルを設定し、
前記所定数の制御点の位置をそれぞれ移動させる毎に、前記動的輪郭モデルの輪郭の弧長に関するエネルギー、前記動的輪郭モデルの曲率に関するエネルギー、及び前記動的輪郭モデルの画像の勾配に関するエネルギーの加算値を、前記動的輪郭モデルのエネルギーとして算出し、
前記エネルギーが最小のときの前記所定数の制御点を結んだ輪郭を被写体輪郭として設定し、前記被写体輪郭内の領域を被写体領域として設定する第2の被写体領域設定部と、
前記第2の被写体領域設定部により設定された前記被写体領域の画像特徴量を、被写体特徴量として算出する第2の被写体特徴算出部と、を備え、
前記類似度算出部は、
前記前処理部の前記第1のブロック特徴算出部により算出された前記複数の検索対象画像のそれぞれについての全体特徴量、及び前記特徴算出部の前記第2のブロック特徴算出部により算出された前記要求画像の全体特徴量に基づいて、前記複数の検索対象画像のそれぞれと前記要求画像との間の全体類似度を算出し、
前記前処理部の前記第1の被写体特徴算出部により算出された前記複数の検索対象画像のそれぞれについての被写体特徴量、及び前記特徴算出部の前記第2の被写体特徴算出部により算出された前記要求画像の被写体特徴量に基づいて、前記複数の検索対象画像のそれぞれと前記要求画像との間の被写体類似度を算出し、
前記全体類似度及び前記被写体類似度に基づいて、前記複数の検索対象画像のそれぞれと前記要求画像との間の類似度を算出する、ことを特徴とする画像処理装置。
In an image processing device for searching an image similar to a requested image from a plurality of search target images,
For each of the plurality of search target images, a pre-processing unit that calculates the image feature amount,
A feature calculation unit that calculates an image feature amount for the requested image;
Based on the image feature amount of each of the plurality of search target images calculated by the preprocessing unit, and the image feature amount of the request image calculated by the feature calculation unit, each of the plurality of search target images And a similarity calculation unit that calculates a similarity between the requested image and
A similar image selecting unit that selects an image similar to the requested image from the plurality of search target images based on the similarity calculated by the similarity calculating unit,
The pre-processing unit,
A first block setting unit that sets a plurality of grid-shaped block areas for each of the plurality of search target images;
A first block feature calculation unit that calculates a feature amount of a plurality of block areas set by the first block setting unit as an overall feature amount for each of the plurality of search target images;
For each of the plurality of search target images, using a saliency map that represents, for each pixel, a saliency value for visualizing a region in which a subject included in the search target image is present where visual attention is guided, A first subject rectangular area setting unit that sets a rectangular subject rectangular area including a subject;
For each of the plurality of search target images, a predetermined number of control points are set on the rectangular frame of the subject rectangular area set by the first subject rectangular area setting unit, and the predetermined number of control points are set. Set the active contour model of the contour that connects
Every time the positions of the predetermined number of control points are moved, energy related to the arc length of the contour of the active contour model, energy related to the curvature of the active contour model, and energy related to the gradient of the image of the active contour model. An added value of is calculated as the energy of the active contour model,
A first subject area setting unit that sets a contour connecting the predetermined number of control points when the energy is minimum as a subject contour, and sets an area within the subject contour as a subject area;
A first subject feature calculation unit that calculates an image feature amount of the subject region set by the first subject region setting unit as a subject feature amount for each of the plurality of search target images;
The feature calculation unit,
A second block setting unit that sets a plurality of grid-shaped block areas for the requested image;
A second block feature calculation unit that calculates the feature amount of the plurality of block areas set by the second block setting unit as the overall feature amount;
A rectangular subject rectangular area including the subject is set using a saliency map that represents, for each pixel, a saliency value for visualizing a region in which the subject included in the requested image is guided. A second subject rectangular area setting unit,
A dynamic contour having a predetermined number of control points set on the rectangular frame of the subject rectangular area set by the second subject rectangular area setting unit and connecting the predetermined number of control points with a straight line Set the model,
Every time the positions of the predetermined number of control points are moved, energy related to the arc length of the contour of the active contour model, energy related to the curvature of the active contour model, and energy related to the gradient of the image of the active contour model. An added value of is calculated as the energy of the active contour model,
A second subject area setting unit that sets a contour connecting the predetermined number of control points when the energy is minimum as a subject contour, and sets a region within the subject contour as a subject area;
A second subject feature calculation unit that calculates an image feature amount of the subject region set by the second subject region setting unit as a subject feature amount,
The similarity calculation unit,
The overall feature amount for each of the plurality of search target images calculated by the first block feature calculation unit of the preprocessing unit, and the total feature amount calculated by the second block feature calculation unit of the feature calculation unit Based on the overall feature amount of the requested image, calculate the overall similarity between each of the plurality of search target images and the requested image,
The subject feature amount for each of the plurality of search target images calculated by the first subject feature calculation unit of the preprocessing unit, and the subject feature amount calculated by the second subject feature calculation unit of the feature calculation unit Based on the subject feature amount of the request image, the subject similarity between each of the plurality of search target images and the request image is calculated,
An image processing apparatus, wherein the similarity between each of the plurality of search target images and the requested image is calculated based on the overall similarity and the subject similarity.
請求項に記載の画像処理装置において、
前記特徴算出部は、さらに、
前記顕著性マップを用いて、前記第2の被写体領域設定部により設定された前記被写体輪郭の全制御点の顕著性値を平均化し、平均値に基づいて、前記被写体領域の重み係数を算出する重み係数算出部を備え、
前記類似度算出部は、
前記特徴算出部の前記重み係数算出部により算出された前記重み係数、前記全体類似度及び前記被写体類似度に基づいて、前記複数の検索対象画像のそれぞれと前記要求画像との間の類似度を算出する、ことを特徴とする画像処理装置。
The image processing apparatus according to claim 3 ,
The feature calculation unit further includes
Using the saliency map, the saliency values of all the control points of the subject contour set by the second subject area setting unit are averaged, and the weighting factor of the subject area is calculated based on the average value. A weighting factor calculator,
The similarity calculation unit,
The similarity between each of the plurality of search target images and the requested image is calculated based on the weighting factor calculated by the weighting factor calculator of the feature calculator, the overall similarity and the subject similarity. An image processing apparatus, characterized by:
請求項からまでのいずれか一項に記載の画像処理装置において、
前記動的輪郭モデルの画像の勾配に関するエネルギーを、前記顕著性マップに表された顕著性値から得られる前記制御点の画素位置の勾配値とする、ことを特徴とする画像処理装置。
The image processing apparatus according to any one of claims 1 to 4 ,
An image processing apparatus, wherein energy relating to a gradient of an image of the active contour model is set as a gradient value of a pixel position of the control point obtained from a saliency value represented in the saliency map.
コンピュータを、請求項1からまでのいずれか一項に記載の画像処理装置として機能させるためのプログラム。
A program for causing a computer to function as the image processing device according to any one of claims 1 to 5 .
JP2016092661A 2016-05-02 2016-05-02 Image processing device and program Active JP6725310B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2016092661A JP6725310B2 (en) 2016-05-02 2016-05-02 Image processing device and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016092661A JP6725310B2 (en) 2016-05-02 2016-05-02 Image processing device and program

Publications (2)

Publication Number Publication Date
JP2017201454A JP2017201454A (en) 2017-11-09
JP6725310B2 true JP6725310B2 (en) 2020-07-15

Family

ID=60264465

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016092661A Active JP6725310B2 (en) 2016-05-02 2016-05-02 Image processing device and program

Country Status (1)

Country Link
JP (1) JP6725310B2 (en)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7322965B2 (en) * 2019-10-28 2023-08-08 富士通株式会社 LEARNING METHODS, LEARNING PROGRAMS AND LEARNING DEVICES
US20240212311A1 (en) * 2021-10-08 2024-06-27 Rakuten Group, Inc. Information processing apparatus, information processing method, and non-transitory computer readable medium

Also Published As

Publication number Publication date
JP2017201454A (en) 2017-11-09

Similar Documents

Publication Publication Date Title
US7324104B1 (en) Method of centerline generation in virtual objects
JP5677798B2 (en) 3D object recognition and position and orientation determination method in 3D scene
CN110136156B (en) Polygonal area detection method and device
US10762704B2 (en) Method for establishing a deformable 3D model of an element, and associated system
US9430872B2 (en) Performance prediction for generation of point clouds from passive imagery
JP6716996B2 (en) Image processing program, image processing apparatus, and image processing method
CN112927353A (en) Three-dimensional scene reconstruction method based on two-dimensional target detection and model alignment, storage medium and terminal
JP2006012147A (en) Stretching by mesh parameterization using spectral analysis
CN110781937B (en) Point cloud feature extraction method based on global visual angle
CN111831660A (en) Method and device for evaluating metric space division mode, computer equipment and storage medium
CN110599506A (en) Point cloud segmentation method for three-dimensional measurement of complex special-shaped curved surface robot
Pound et al. A patch-based approach to 3D plant shoot phenotyping
JP2018055199A (en) Image processing program, image processing device, and image processing method
JP6725310B2 (en) Image processing device and program
CN112102178A (en) Point cloud feature-preserving denoising method and device, electronic equipment and storage medium
CN117372604B (en) 3D face model generation method, device, equipment and readable storage medium
JP2019105992A (en) Image processing device, image processing program and image processing method
JP2006234678A (en) Target discrimination device
JP2005165969A (en) Image processor and method
CN107220481B (en) Quantitative evaluation method for comprehensive quality of planar element map
CN110570511A (en) point cloud data processing method, device and system and storage medium
CN112927256A (en) Boundary fusion method and device for partitioned area and mobile robot
CN114511571A (en) Point cloud data semantic segmentation method and system and related components
JP7370759B2 (en) Image processing device, image processing method and program
CN113658338A (en) Point cloud tree monomer segmentation method and device, electronic equipment and storage medium

Legal Events

Date Code Title Description
A80 Written request to apply exceptions to lack of novelty of invention

Free format text: JAPANESE INTERMEDIATE CODE: A80

Effective date: 20160516

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190401

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20200304

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200317

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200514

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200601

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200625

R150 Certificate of patent or registration of utility model

Ref document number: 6725310

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250