JP6517652B2 - Object saliency map calculation device, method and program - Google Patents

Object saliency map calculation device, method and program Download PDF

Info

Publication number
JP6517652B2
JP6517652B2 JP2015195822A JP2015195822A JP6517652B2 JP 6517652 B2 JP6517652 B2 JP 6517652B2 JP 2015195822 A JP2015195822 A JP 2015195822A JP 2015195822 A JP2015195822 A JP 2015195822A JP 6517652 B2 JP6517652 B2 JP 6517652B2
Authority
JP
Japan
Prior art keywords
object candidate
ranking
area
areas
saliency map
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2015195822A
Other languages
Japanese (ja)
Other versions
JP2017068739A (en
Inventor
周平 田良島
周平 田良島
豪 入江
豪 入江
島村 潤
潤 島村
新井 啓之
啓之 新井
之人 渡邉
之人 渡邉
大我 吉田
大我 吉田
明 小島
明 小島
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nippon Telegraph and Telephone Corp
Original Assignee
Nippon Telegraph and Telephone Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Telegraph and Telephone Corp filed Critical Nippon Telegraph and Telephone Corp
Priority to JP2015195822A priority Critical patent/JP6517652B2/en
Publication of JP2017068739A publication Critical patent/JP2017068739A/en
Application granted granted Critical
Publication of JP6517652B2 publication Critical patent/JP6517652B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Image Analysis (AREA)

Description

本発明は、物体顕著性マップ算出装置、方法、及びプログラムに係り、特に、画像から物体顕著性マップを算出するための物体顕著性マップ算出装置、方法、及びプログラムに関する。   The present invention relates to an object saliency map calculation apparatus, method, and program, and more particularly, to an object saliency map calculation apparatus, method, and program for calculating an object saliency map from an image.

物体顕著性マップは、画像中のどの領域に主要物体が写り込んでいそうかを定量的に示したものであり、画像を構成する各ピクセルに対し、そのピクセルが主要物体に含まれる尤もらしさ(顕著性スコア)が定義される。物体顕著性マップは、物体認識(物体セグメンテーションや物体検出)や画像編集(リサイズやフィルタリング)の構成要素としてごく一般的に用いられており、その産業上の利用価値は極めて高い。   The object saliency map quantitatively indicates in which region in the image the main object is likely to be reflected, and for each pixel constituting the image, the likelihood that the pixel is included in the main object ( The saliency score is defined. Object saliency maps are very commonly used as components of object recognition (object segmentation and object detection) and image editing (resize and filtering), and their industrial utility value is extremely high.

物体顕著性マップを算出する代表的な方法の1つは、画像中の局所的なコントラスト変化の検出に基づくものである。例えば非特許文献1では、ピクセルのUniqueness(空間的に近いピクセルとのコントラストが高いほど顕著)とDistribution(見た目の類似したピクセルが画像中で局所的に集中しているほど顕著)とから物体顕著性を算出する方法が開示されている。   One of the representative methods of calculating the object saliency map is based on the detection of local contrast changes in the image. For example, in Non-Patent Document 1, an object is remarkable because of the Uniqueness of pixels (the higher the contrast with pixels close in space is higher) and the Distribution (where the pixels with similar appearance are concentrated locally in the image). A method of calculating gender is disclosed.

物体顕著性マップを算出する方法として、画像中の物体らしい領域(物体候補領域)の抽出に基づく方法も代表的である。例えば非特許文献2では、画像から物体候補領域を複数抽出し、各ピクセルの物体顕著性を、そのピクセルを含む全ての物体候補領域の物体らしさスコアの和として算出する方法が開示されている。   As a method of calculating an object saliency map, a method based on extraction of an object-like region (object candidate region) in an image is also representative. For example, Non-Patent Document 2 discloses a method of extracting a plurality of object candidate regions from an image and calculating object saliency of each pixel as a sum of object likeness scores of all object candidate regions including the pixel.

F. Perazzi et al., Saliency Filters: Contrast Based Filtering for Salient Region Detection, in CVPR, 2012.F. Perazzi et al., Saliency Filters: Contrast Based Filtering for Salient Region Detection, in CVPR, 2012. J. C. Rubio et al., Unsupervised Co-segmentation through Region Matching, in CVPR, 2012.J. C. Rubio et al., Unsupervised Co-segmentation through Region Matching, in CVPR, 2012.

非特許文献1のような局所的なコントラスト変化検出に基づく方法では、基本的には周辺とのコントラストが高い小さな領域ほどより顕著性が高く算出されるため、主要物体のアピアランスが複雑な場合、主要物体の一部分の顕著性のみが極端に高く検出され、得られる物体顕著性マップから主要物体の全貌が正確に捉えられないという問題がある。例えば図5(A)のような画像を入力としたとき、非特許文献1で開示されている方法を用いると図5(B)のような物体顕著性マップが得られる。図5(B)では主要物体(イラストが書かれた板)の一部(ビニールボートおよびその上のキャラクター)の顕著性のみが極端に高く検出されており、主要物体の全貌を明確に捉えることができていない。   In the method based on local contrast change detection as in Non-Patent Document 1, basically, small areas with high contrast with the periphery are calculated with higher saliency, so if the appearance of the main object is complicated, There is a problem that only the saliency of a part of the main object is detected extremely high, and the entire object of the main object can not be accurately captured from the obtained object saliency map. For example, when an image as shown in FIG. 5A is used as the input, the object saliency map as shown in FIG. 5B can be obtained by using the method disclosed in Non-Patent Document 1. In Fig. 5 (B), only the saliency of a part (vinyl boat and the character above it) of the main object (plate on which the illustration is written) is detected extremely high, and a clear view of the main object is obtained. It has not been done.

しかし、非特許文献2のような物体顕著性マップ算出方法が礎としている物体候補領域は、色やエッジといったごく基本的な画像特徴量から特定されるため、抽出される各物体候補領域が画像中の主要物体を正しく捉えているとは限らず、したがって算出される物体顕著性マップも主要物体の全貌を正しく捉えているとは限らないという問題がある。図5(C)は、非特許文献2で開示されている手法で算出された物体顕著性マップである。図5から明らかなように、図5(B)に比して主要物体のより広い範囲の顕著性が高く評価されてはいるものの、それは主要物体の一部であり、主要物体全貌が図5(C)で捉えられているとは言えない。   However, since the object candidate area based on the object saliency map calculation method as described in Non-Patent Document 2 is specified from a very basic image feature such as color or edge, each object candidate area to be extracted is an image There is a problem that not only the main objects in the map are correctly captured, and therefore the calculated object saliency map does not necessarily capture the entire surface of the main objects. FIG. 5C is an object saliency map calculated by the method disclosed in Non-Patent Document 2. As apparent from FIG. 5, although the saliency of the wider area of the main object is highly evaluated compared to FIG. 5 (B), it is a part of the main object, and the main object total view It can not be said that it is caught in (C).

このように、物体顕著性マップを算出する公知の技術では、算出される物体顕著性マップで主要物体を正しく捉えることができないという問題があった。   As described above, in the known technique of calculating the object saliency map, there is a problem that the main object can not be correctly captured by the calculated object saliency map.

本発明は、上記問題点を解決するために成されたものであり、画像中の主要物体をより正しく捉えた物体顕著性マップを算出できる物体顕著性マップ算出装置、方法、及びプログラムを提供することを目的とする。   The present invention has been made to solve the above problems, and provides an object saliency map calculation apparatus, method, and program that can calculate an object saliency map that more accurately captures the main object in an image. The purpose is

上記目的を達成するために、第1の発明に係る物体顕著性マップ算出装置は、画像を入力として、前記画像の物体顕著性マップを算出する物体顕著性マップ算出装置における物体顕著性マップ算出方法であって、物体候補領域抽出部が、入力画像から物体らしい部分を捉えた複数の物体候補領域を抽出するステップと、空間重複度算出部が、前記抽出された物体候補領域毎に、前記物体候補領域と、他の物体候補領域の各々とのペアの各々についての空間的な重複度を算出するステップと、物体候補領域ランキング部が、前記物体候補領域毎に算出された前記ペアの各々についての前記重複度に基づいて、前記複数の物体候補領域をランキングするステップと、顕著スコア算出部が、前記物体候補領域ランキング部によって得られたランキング上位の物体候補領域を1つ以上用いて、前記入力画像の各ピクセルの顕著スコアを算出するステップと、を含んで実行することを特徴とする。   In order to achieve the above object, an object saliency map calculation device according to a first aspect of the present invention calculates an object saliency map calculation method in an object saliency map calculation device that calculates an object saliency map of the image using an image as an input. The object candidate area extraction unit extracts a plurality of object candidate areas in which an object-like part is captured from the input image; and the spatial overlap degree calculation unit calculates the object candidate area for each of the extracted object candidate areas. Calculating the degree of spatial redundancy for each of the pair of the candidate area and each of the other object candidate areas, and the object candidate area ranking unit for each of the pairs calculated for each of the object candidate areas Ranking the plurality of object candidate regions on the basis of the degree of overlap, and the salient score calculating unit further comprising: rankining obtained by the object candidate region ranking unit The object candidate region of the upper with one or more, and executes include a step of calculating a remarkable score of each pixel of the input image.

また、第1の発明に係る物体顕著性マップ算出方法において、前記物体候補領域ランキング部がランキングするステップは、前記物体候補領域毎に算出された前記ペアの各々についての前記重複度に基づいて、主要物体らしさが高い他の物体候補領域と広い領域で重複している物体候補領域ほど上位となるように、前記複数の物体候補領域をランキングするようにしてもよい。   In the object saliency map calculation method according to the first invention, the step of ranking the object candidate area ranking unit is performed based on the degree of duplication for each of the pairs calculated for each of the object candidate areas. The plurality of object candidate areas may be ranked such that the object candidate areas overlapping in a large area with another object candidate area having high likelihood of a main object are ranked higher.

また、第1の発明に係る物体顕著性マップ算出方法において、前記物体候補領域ランキング部がランキングするステップは、前記物体候補領域毎に算出された前記ペアの各々についての前記重複度を要素とする行列Aと、前記複数の物体候補領域の各々についての、他の物体候補領域の各々との前記重複度の和を対角成分とする次数行列Dとに基づいて、予め定めた条件を満たすまで、前回のランキングが上位の物体候補領域と広い領域で重複している物体候補領域ほど上位となるように、前記複数の物体候補領域の各々のランキングスコアを更新することを繰り返して、前記複数の物体候補領域をランキングするようにしてもよい。   Further, in the object saliency map calculation method according to the first invention, the step of ranking the object candidate area ranking unit uses the duplication degree for each of the pairs calculated for each of the object candidate areas as an element Based on the matrix A and the order matrix D in which the sum of the overlapping degrees with each of the other object candidate areas for each of the plurality of object candidate areas is a diagonal component, until a predetermined condition is satisfied And updating the ranking score of each of the plurality of object candidate areas repeatedly so that the previous ranking becomes higher as the object candidate area overlaps in a broader area with the upper object candidate area. The object candidate areas may be ranked.

また、第1の発明に係る物体顕著性マップ算出方法において、前記物体候補領域ランキング部がランキングするステップは、前記物体候補領域の各々のうち、全ての他の物体候補領域と重ならない前記物体候補領域についてのランキングスコアをゼロとして、前記予め定めた条件を満たすまで、前記複数の物体候補領域の各々のランキングスコアを更新することを繰り返して、前記複数の物体候補領域をランキングするようにしてもよい。   Further, in the object saliency map calculation method according to the first invention, in the step of ranking by the object candidate area ranking unit, the object candidate not overlapping with all other object candidate areas in each of the object candidate areas Even if the ranking score for the region is zero and the ranking score of each of the plurality of object candidate regions is repeatedly updated until the predetermined condition is satisfied, the plurality of object candidate regions are ranked. Good.

第2の発明に係る物体顕著性マップ算出装置は、画像を入力として、前記画像の物体顕著性マップを算出する物体顕著性マップ算出装置であって、入力画像から物体らしい部分を捉えた複数の物体候補領域を抽出する物体候補領域抽出部と、前記抽出された物体候補領域毎に、前記物体候補領域と、他の物体候補領域の各々とのペアの各々についての空間的な重複度を算出する空間重複度算出部と、前記物体候補領域毎に算出された前記ペアの各々についての前記重複度に基づいて、前記複数の物体候補領域をランキングする物体候補領域ランキング部と、前記物体候補領域ランキング部によって得られたランキング上位の物体候補領域を1つ以上用いて、前記入力画像の各ピクセルの顕著スコアを算出する顕著スコア算出部と、を含んで構成されている。   An object saliency map calculation device according to a second aspect of the present invention is an object saliency map calculation device that calculates an object saliency map of an image using an image as an input, and a plurality of object saliency map calculation devices that capture an object-like part from an input image. Calculate the degree of spatial redundancy for each of the pair of the object candidate area and each of the other object candidate areas, for each of the extracted object candidate areas, and an object candidate area extraction unit for extracting an object candidate area A spatial overlap degree calculation unit, an object candidate area ranking unit for ranking the plurality of object candidate areas based on the overlap degree for each of the pairs calculated for each of the object candidate areas, and the object candidate area And a saliency score calculation unit for calculating a saliency score of each pixel of the input image using one or more ranking candidate object candidates obtained by the ranking unit. It is.

また、第2の発明に係る物体顕著性マップ算出装置において、前記物体候補領域ランキング部は、前記物体候補領域毎に算出された前記ペアの各々についての前記重複度に基づいて、主要物体らしさが高い他の物体候補領域と広い領域で重複している物体候補領域ほど上位となるように、前記複数の物体候補領域をランキングするようにしてもよい。   Further, in the object saliency map calculation device according to the second invention, the object candidate area ranking unit is a main object likeness based on the overlapping degree for each of the pairs calculated for each of the object candidate areas. The plurality of object candidate areas may be ranked such that the higher the object candidate area overlapping with the other high object candidate area in the larger area, the higher the priority.

また、第2の発明に係る物体顕著性マップ算出装置において、前記物体候補領域ランキング部は、前記物体候補領域毎に算出された前記ペアの各々についての前記重複度を要素とする行列Aと、前記複数の物体候補領域の各々についての、他の物体候補領域の各々との前記重複度の和を対角成分とする次数行列Dとに基づいて、予め定めた条件を満たすまで、前回のランキングが上位の物体候補領域と広い領域で重複している物体候補領域ほど上位となるように、前記複数の物体候補領域の各々のランキングスコアを更新することを繰り返して、前記複数の物体候補領域をランキングするようにしてもよい。   Further, in the object saliency map calculation device according to the second aspect, the object candidate area ranking unit includes a matrix A having the degree of duplication for each of the pairs calculated for each of the object candidate areas as an element; Based on the degree matrix D in which the sum of the degree of overlap with each of the plurality of object candidate regions with each of the other object candidate regions is a diagonal component, the previous ranking is performed until a predetermined condition is satisfied. Repeating the updating of the ranking scores of each of the plurality of object candidate areas so that the object candidate area overlapping with the upper object candidate area in a wider area becomes higher, the plurality of object candidate areas It may be ranked.

第3の発明に係るプログラムは、コンピュータに、第1の発明に係る物体顕著性マップ算出方法の各ステップを実行させるためのプログラムである。   The program concerning the 3rd invention is a program for making a computer perform each step of the object saliency map calculation method concerning the 1st invention.

本発明の物体顕著性マップ算出装置、方法、及びプログラムによれば、入力画像から物体らしい部分を捉えた複数の物体候補領域を抽出し、抽出された物体候補領域毎に、物体候補領域と、他の物体候補領域の各々とのペアの各々についての空間的な重複度を算出し、物体候補領域毎に算出されたペアの各々についての重複度に基づいて、複数の物体候補領域をランキングし、ランキング上位の物体候補領域を1つ以上用いて、入力画像の各ピクセルの顕著スコアを算出することにより、画像中の主要物体をより正しく捉えた物体顕著性マップを算出できる、という効果が得られる。   According to the object saliency map calculation apparatus, method, and program of the present invention, a plurality of object candidate regions in which a portion likely to be an object is captured is extracted from an input image, and an object candidate region is extracted for each extracted object candidate region. A degree of spatial redundancy is calculated for each of the pairs with each of the other object candidate regions, and a plurality of object candidate regions are ranked based on the degree of redundancy for each of the pairs calculated for each of the object candidate regions. By calculating the saliency score of each pixel of the input image by using one or more object candidates in the ranking ranking, an object saliency map in which the main object in the image is captured more correctly can be calculated. Be

本発明の実施の形態に係る物体顕著性マップ算出装置の構成を示すブロック図である。It is a block diagram which shows the structure of the object saliency map calculation apparatus based on embodiment of this invention. 物体候補領域の抽出の一例を示す図である。It is a figure which shows an example of extraction of an object candidate area | region. 空間重複度の算出の一例を示す図である。It is a figure which shows an example of calculation of space duplication degree. 本発明の実施の形態に係る物体顕著性マップ算出装置における物体顕著性マップ算出処理ルーチンを示すフローチャートである。It is a flowchart which shows the object saliency map calculation processing routine in the object saliency map calculation apparatus based on embodiment of this invention. 従来技術及び本発明の手法による物体顕著性マップの一例である。It is an example of the object saliency map by the technique of a prior art and this invention.

以下、図面を参照して本発明の実施の形態を詳細に説明する。   Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings.

<本発明の実施の形態に係る概要> <Overview of Embodiment of the Present Invention>

まず、本発明の実施の形態における概要を説明する。   First, an outline of the embodiment of the present invention will be described.

本発明の実施の形態に係る手法は上記の課題を鑑みてなされたものである。公知の技術のうち、特に物体候補領域の抽出に基づく方法では、抽出される候補領域が主要物体を必ずしも捉えてはいないことが原因で、得られる物体顕著性マップもまた主要物体を必ずしも正しく捉えることができていなかった。この問題を解決すべく、任意の物体候補領域抽出処理で得られる1つ以上の物体候補領域間の空間的な重複度に基づき物体候補領域をランキングし、ランキング上位の物体候補領域を用いて物体顕著性マップを算出することで、画像中の主要物体をより正しく捉えた物体顕著性マップを算出する。物体候補領域間の空間的な重複度に基づくランキングは、仮に物体候補領域が、主要物体を正しく捉えている度合で理想的にランキングされていると仮定すると、主要物体を正しく捉えた物体候補領域は、主要物体を正しく捉えている度合の高い他の物体候補領域とより広い領域を共有しているであろうという考察に基づいている。他の多くの物体候補領域とより重複している物体候補領域ほど上位にくるよう物体候補領域をランキングすることで、主要物体をより正しく捉えた物体候補領域を選択することが可能となり、得られた物体候補領域を用いることで、図5(D)が示すように、画像中の主要物体をより正しく捉えた物体顕著性マップを算出することが可能となる。   The method according to the embodiment of the present invention has been made in view of the above problems. Among the known techniques, especially in the method based on the extraction of object candidate regions, the obtained object saliency map also necessarily correctly captures the main objects, because the extracted candidate regions do not necessarily capture the main objects. It was not possible. In order to solve this problem, the object candidate areas are ranked based on the degree of spatial overlap between one or more object candidate areas obtained by arbitrary object candidate area extraction processing, and the object candidate area of the ranking upper rank is used for the object By calculating the saliency map, an object saliency map that captures the main objects in the image more correctly is calculated. The ranking based on the degree of spatial overlap between object candidate areas is an object candidate area that correctly captured the main object, assuming that the object candidate area is ideally ranked with the degree of correctly capturing the main object. Is based on the consideration that it may share a larger area with another object candidate area having a high degree of correct capture of the main object. By ranking object candidate areas so that object candidate areas overlapping with many other object candidate areas come higher, it becomes possible to select an object candidate area that has captured the main object more correctly, By using the object candidate area, as shown in FIG. 5D, it is possible to calculate an object saliency map in which the main object in the image is captured more correctly.

<本発明の実施の形態に係る物体顕著性マップ算出装置の構成> <Configuration of Object Saliency Map Calculation Device According to Embodiment of the Present Invention>

次に、本発明の実施の形態に係る物体顕著性マップ算出装置の構成について説明する。図1に示すように、本発明の実施の形態に係る物体顕著性マップ算出装置100は、CPUと、RAMと、後述する物体顕著性マップ算出処理ルーチンを実行するためのプログラムや各種データを記憶したROMと、を含むコンピュータで構成することが出来る。この物体顕著性マップ算出装置100は、機能的には図1に示すように入力部10と、演算部20と、出力部50とを備えている。   Next, the configuration of the object saliency map calculation device according to the embodiment of the present invention will be described. As shown in FIG. 1, the object saliency map calculation device 100 according to the embodiment of the present invention stores a CPU, a RAM, a program for executing an object saliency map calculation processing routine described later, and various data. And a ROM containing the This object saliency map calculation device 100 functionally includes an input unit 10, a calculation unit 20, and an output unit 50 as shown in FIG.

入力部10は、入力画像を受け付ける。   The input unit 10 receives an input image.

演算部20は、物体候補領域抽出部30と、空間重複度算出部32と、物体候補領域ランキング部34と、顕著スコア算出部36とを含んで構成されている。   The calculation unit 20 is configured to include an object candidate area extraction unit 30, a spatial overlap degree calculation unit 32, an object candidate area ranking unit 34, and a salient score calculation unit 36.

物体候補領域抽出部30は、以下に説明するように、入力画像から物体らしい部分を捉えた複数の物体候補領域を抽出する。   The object candidate area extraction unit 30 extracts, from the input image, a plurality of object candidate areas in which a portion that seems to be an object is captured, as described below.

物体候補領域抽出部30は、具体的には、入力画像から、N個の物体候補領域集合 More specifically, the object candidate area extraction unit 30 selects N 1 object candidate area sets from the input image.

を抽出する。Nは正の整数の値をとるパラメータであり、例えば300などとすればよい。物体候補領域集合^Rを抽出する方法としては、例えば参考文献1や参考文献2で開示されているような、画像中の任意の矩形部分領域の物体らしさを評価する手法を用いて、特に物体らしさの高い上位N領域を選択すればよい。なお、ベクトル、行列、又は集合を表す場合には、記号の前に「^」を付して表現する。 Extract N 1 is a parameter which takes a positive integer value, and may be 300, for example. As a method of extracting the object candidate area set ^ R, for example, the method of evaluating the object likeness of any rectangular partial area in the image as disclosed in, for example, the reference 1 and the reference 2 It is sufficient to select the top N 1 region with high likelihood. In addition, when representing a vector, a matrix, or a set, it is represented by attaching "^" to the front of a symbol.

[参考文献1]B. Alexe et al., Measuring the Objectness of Image Windows, TPAMI, 2012. [Reference 1] B. Alexe et al., Measuring the Objectness of Image Windows, TPAMI, 2012.

[参考文献2]M. M. Cheng et al., BING: Binarized Normed Gradients for Objectness Estimation at 300fps, in CVPR, 2014. [Reference 2] M. M. Cheng et al., BING: Binarized Normed Gradients for Objectness Estimation at 300 fps, in CVPR, 2014.

あるいは、参考文献3や参考文献4で開示されているような、見た目に一貫性のある任意の形状の部分領域を複数抽出し、その物体らしさを評価する方法を用いて、特に物体らしさの高い上位N領域を物体候補領域集合^Rとして選択してもよい。物体矩形候補領域集合Bは、各物体候補領域r∈Rを囲う最小の矩形領域の集合として一意に定義できる。 Alternatively, as disclosed in Reference 3 and Reference 4, a plurality of partial regions of arbitrary shape having a consistent appearance are extracted, and the object likeness is evaluated, and the object likeness is particularly high. The top N 1 regions may be selected as the object candidate region set ^ R. The object rectangle candidate region set B can be uniquely defined as a set of minimum rectangular regions surrounding each object candidate region r i ∈R.

[参考文献3]J. Carreira et al., CPMC: Automatic Object Segmentation Using Constrained Parametric Min-Cuts, TPAMI, 2012. [Reference 3] J. Carreira et al., CPMC: Automatic Object Segmentation Using Constrained Parametric Min-Cuts, TPAMI, 2012.

[参考文献4]P. Arbelaez et al., Multiscale Combinatorial Grouping, in CVPR, 2014. [Reference 4] P. Arbelaez et al., Multiscale Combinatorial Grouping, in CVPR, 2014.

更には、参考文献5や参考文献6に開示されているような、見た目に一貫性のある任意の形の部分領域を複数抽出するのみの方法を用いてもよい。この場合、各部分領域の物体らしさは与えられないため、部分領域からランダムにN領域を選択したり、あるいは得られた全ての部分領域を物体候補領域として選択してもよい(この場合、抽出された部分領域の数をNと設定する)。 Furthermore, it is possible to use a method of extracting a plurality of partial regions of an arbitrary form that are consistent in appearance, as disclosed in Reference 5 and Reference 6. In this case, since the object-likeness of each partial region is not given, the N 1 region may be selected at random from the partial regions, or all of the obtained partial regions may be selected as object candidate regions (in this case, The number of extracted partial areas is set to N 1 ).

[参考文献5]J.R.R. Uijlings et al., Selective Search for Object Recognition, IJCV, 2013. [Reference 5] J. R. R. Uijlings et al., Selective Search for Object Recognition, IJCV, 2013.

[参考文献6]P. Krahenbuhl et al., Geodesic Object Proposal, in ECCV, 2014. [Reference 6] P. Krahenbuhl et al., Geodesic Object Proposal, in ECCV, 2014.

なお、参考文献3、参考文献4、参考文献5、参考文献6で開示されている方法で直接得られる物体候補領域は任意の形状を取りうるが、図2に示すように、任意の形状を参考文献1、参考文献2で得られるような矩形の物体候補領域に変換して以降の処理で用いてもよい。任意の形状の物体候補領域は、例えば物体候補領域を囲う最小の矩形領域を定義することで、矩形の物体候補領域へと変換することができる。   In addition, although the object candidate area | region directly obtained by the method currently disclosed by the reference document 3, the reference document 4, the reference document 5, and the reference document 6 can take arbitrary shapes, as shown in FIG. It may be converted into a rectangular object candidate area as obtained in Reference 1 and Reference 2 and used in subsequent processing. An object candidate area of an arbitrary shape can be converted into a rectangular object candidate area, for example, by defining a minimum rectangular area surrounding the object candidate area.

空間重複度算出部32は、物体候補領域抽出部30により抽出された物体候補領域毎に、以下に説明するように、当該物体候補領域と、他の物体候補領域の各々とのペア(以下、物体候補領域ペアと称する)の各々についての空間的な重複度を算出する。   The space overlap degree calculation unit 32 sets, for each of the object candidate areas extracted by the object candidate area extraction unit 30, a pair of the object candidate area and each of the other object candidate areas as described below. The degree of spatial redundancy is calculated for each of the object candidate area pairs).

空間重複度算出部32において、物体候補領域ペアの空間重複度は、物体候補領域rに対応するバイナリマスク^bに基づいて算出される。ここでバイナリマスク^bは、入力画像と同サイズであり、物体候補領域rに含まれるピクセルに1、含まれないピクセルに0が割り当てられたデータとして定義される。ここで、物体候補領域rと物体候補領域r(1≦i,j≦N,i≠j)とのペアの空間重複度aijを算出することを考える。空間重複度aijは、例えば以下の(1)式で定義されるJaccard類似度を用いて計算することができる。 In the space overlap degree calculation unit 32, the space overlap degree of the object candidate area pair is calculated based on the binary mask b corresponding to the object candidate area r. Here, the binary mask b is the same size as the input image, and is defined as data in which 1 is assigned to pixels included in the object candidate area r and 0 is assigned to pixels not included. Here, it is considered to calculate the degree of spatial overlap a ij of a pair of the object candidate area r i and the object candidate area r j (1 ≦ i, j ≦ N 1 , i) j). The degree of spatial overlap a ij can be calculated using, for example, Jaccard similarity defined by the following equation (1).

Jaccard類似度は、直感的には図3に示すように、物体候補領域ペアの共通領域の面積を物体候補領域ペアの和集合領域の面積で割ることで算出される。一般に物体矩形領域が任意の形状を取る場合、Jaccard類似度の算出には高次元特徴の比較が必要となるが、物体候補領域抽出部30で得られる物体候補領域が矩形の場合、図3の下部に示すように物体候補領域ペアの共通領域の面積もまた矩形となることを利用すれば、Jaccard類似度は数回の演算(矩形の面積演算など)で高速に算出することができるため好適である。   The Jaccard similarity is calculated intuitively as shown in FIG. 3 by dividing the area of the common area of the object candidate area pair by the area of the union region of the object candidate area pair. Generally, when an object rectangular area takes an arbitrary shape, it is necessary to compare high-dimensional features to calculate Jaccard similarity, but when an object candidate area obtained by the object candidate area extraction unit 30 is a rectangle, FIG. As shown in the lower part of the figure, taking advantage of the fact that the area of the common area of the object candidate area pair is also rectangular, it is preferable because the Jaccard similarity can be calculated at high speed by several operations (such as area calculation of rectangles). It is.

物体候補領域ランキング部34は、以下に説明するように、空間重複度算出部32により物体候補領域毎に算出された物体候補領域ペアの各々についての重複度に基づいて、主要物体らしさが高い他の物体候補領域と広い領域で重複している物体候補領域ほど上位となるように、複数の物体候補領域をランキングする。   The object candidate area ranking unit 34 is, as described below, based on the overlap degree for each of the object candidate area pairs calculated for each object candidate area by the space overlap degree calculation unit 32 and has high main object likeliness. A plurality of object candidate areas are ranked such that the object candidate areas overlapping in a wide area with the object candidate area are ranked higher.

より詳細には、空間重複度算出部32により物体候補領域毎に算出された物体候補領域ペアの各々についての前記重複度を要素とする行列^Aと、複数の物体候補領域の各々についての、他の物体候補領域の各々との重複度の和を対角成分とする次数行列^Dとに基づいて、予め定めた収束条件を満たすまで、前回のランキングが上位の物体候補領域と広い領域で重複している物体候補領域ほど上位となるように、複数の物体候補領域の各々のランキングスコアを更新することを繰り返して、複数の物体候補領域をランキングする。   More specifically, a matrix AA having the degree of overlap as an element for each of the object candidate area pairs calculated for each of the object candidate areas by the space degree of overlap calculation unit 32, and for each of a plurality of object candidate areas Based on the order matrix ^ D having the sum of the degree of overlap with each of the other object candidate regions as a diagonal component, the previous ranking is performed in the upper object candidate region and the wide region until the predetermined convergence condition is satisfied. Updating the ranking score of each of the plurality of object candidate areas is repeated to rank the plurality of object candidate areas so that the overlapping object candidate areas become higher.

ここで物体候補領域は、ランキング上位の物体候補領域とより重複している物体候補領域ほど上位となるようランキングされるものとする。本実施の形態では、収束条件は予め定めた回数とする。   Here, it is assumed that the object candidate area is ranked higher in the object candidate area that overlaps with the object candidate area higher in ranking. In the present embodiment, the convergence condition is a predetermined number of times.

物体候補領域ランキング部34は、具体的には、物体候補領域をランキング上位の物体候補領域とより広い領域で重複している物体候補領域ほど上位となるようランキングするため、例えば以下の方法を用いる。   Specifically, the object candidate area ranking unit 34 uses, for example, the following method, to rank the object candidate areas in order of being higher as object candidate areas overlapping in a wider area with the object candidate area higher in ranking. .

まず、各物体候補領域rのランキングスコアp>0を要素とするベクトル First, a vector having the ranking score p i > 0 of each object candidate region r i as an element

を考え、以下の(2)式を満たすベクトル^pを算出する。 And calculate the vector ^ p which satisfies the following equation (2).

ただし、   However,

とする。 I assume.

ここで行列   Matrix here

は、空間重複度算出部32で得られた空間重複度aijを要素としている。ただし、aii=0である。また、行列 The element has the spatial degree of overlap a ij obtained by the spatial degree of overlap calculation unit 32. However, a ii = 0. Also, the matrix

は行列^Aの次数行列である。具体的には、行列^Dは対角成分のみ値を持ち、他の物体候補領域の各々との重複度の和を対角成分とする。すなわち、対角成分の値は、 Is the order matrix of the matrix ^ A. Specifically, the matrix D D has only diagonal components, and the sum of the degrees of overlap with each of the other object candidate regions is used as the diagonal component. That is, the value of the diagonal component is

である。上記(2)式は、 It is. The above equation (2) is

かつ行列^Dの全対角成分が非ゼロである場合ベクトル^pの解を一意に与える。(2)式を解く方法として、本実施の形態では、ベクトル^pの初期値pAnd if all the diagonal elements of the matrix ^ D are nonzero, the solution of the vector ^ p is uniquely given. (2) As a method of solving the equation, in the present embodiment, the initial value p 0 of the vector ^ p is

と与え、収束するまで以下の(3)式に従ってベクトル^pを更新する。 Then, the vector ^ p is updated according to the following equation (3) until convergence.

ただし、tは繰り返し回数を表すインデクスである。収束した回数をTと表すとし、以降^p=^pとする。得られたベクトル^pのランキングスコアが高い順に物体候補領域をランキングすることで、物体候補領域を、ランキング上位の物体候補領域とより重複している物体候補領域ほど上位となるようランキングすることができる。 Where t is an index representing the number of repetitions. Let T be the number of times of convergence, and let ^ p = ^ p T hereafter. By ranking the object candidate areas in descending order of the ranking score of the obtained vector pp, the object candidate areas may be ranked higher in order of object candidate areas overlapping with the object candidate area higher in ranking. it can.

また、物体候補領域ランキング部34では、物体候補領域の各々のうち、全ての他の物体候補領域と重ならない物体候補領域についてのランキングスコアをゼロとしたベクトル^pを用いて、上記(3)式に従ってベクトル^pを更新することを繰り返す。   Further, the object candidate area ranking unit 34 uses the vector p p with the ranking score as zero for object candidate areas that do not overlap with all other object candidate areas in each of the object candidate areas, using the above (3) Repeat updating vector ^ p according to the equation.

これは、抽出された物体候補領域の中に、他とは空間的に完全に孤立した物体候補領域、すなわち、他の候補領域と一切空間的重複が無いようなものが存在する場合、Nの物体候補領域全てを用いて上記(1)式を計算しようとすると、計算される行列^Dの対角成分にゼロ要素が混在するために解ベクトル^pが算出できないという問題があるためである。これは、例えば以下のように解決することができる。まず、空間的に孤立した物体候補領域をすべて除外することで得られるN’物体候補領域を対象として(3)式からベクトル^p’を算出する。次に、除外した孤立物体候補領域のランキングスコアをゼロとしてベクトル^p’の対応する位置に挿入し、解ベクトル^pを算出すればよい。孤立物体候補領域のランキングスコアをゼロとするのは、本発明の実施の形態における原理、すなわち主要物体を正しく捉えた物体候補領域は、主要物体を正しく捉えている度合の高い他の物体候補領域と多くの領域を共有しているという観点に基づけば、重複する物体候補領域が存在しない物体候補領域は主要物体を捉えてはいないと考えられるためである。 This is because if there are object candidates that are completely spatially isolated from one another, that is, there is no spatial overlap with other candidate regions, among the extracted object candidate regions, N 1 If the above equation (1) is to be calculated using all of the object candidate regions of, there is a problem that the solution vector ^ p can not be calculated because zero elements are mixed in the diagonal elements of the calculated matrix ^ D. is there. This can be solved, for example, as follows. First, a vector ^ p 'is calculated from the equation (3) for an N 1 ' object candidate region obtained by excluding all spatially isolated object candidate regions. Next, the ranking score of the excluded isolated object candidate region may be set to zero and inserted into the corresponding position of the vector ^ p 'to calculate the solution vector ^ p. It is the principle in the embodiment of the present invention that the ranking score of the isolated object candidate area is zero, that is, the object candidate area that correctly captured the main object is another object candidate area having a high degree of correctly capturing the main object. Based on the viewpoint of sharing many regions, it is considered that an object candidate region in which there is no overlapping object candidate region is considered not to capture the main object.

顕著スコア算出部36は、物体候補領域ランキング部34によって得られたランキング上位の物体候補領域を1つ以上用いて、入力画像の各ピクセルの顕著スコアを算出し、出力部50に出力する。   The saliency score calculation unit 36 calculates a saliency score of each pixel of the input image using one or more ranking candidate object regions obtained by the object candidate region ranking unit 34, and outputs the saliency score to the output unit 50.

顕著スコア算出部36は、具体的には、物体候補領域ランキング手段で得られたランキング上位N(≦N)物体候補領域を用いて、画像中の各ピクセルxの顕著スコアs(x)を算出する。Nはパラメータであり、例えばN=300のとき、N=30などと設定すればよい。画像中ピクセルxの顕著スコアs(x)は、物体候補領域r∈^R’に対応するバイナリマスクbと、スコアベクトル^pとを用いて、以下の(4)式で計算することができる。ここで^R’は、ランキング上位Nの物体候補領域の集合である。 Specifically, the saliency score calculation unit 36 uses the ranking upper N 2 (≦ N 1 ) object candidate region obtained by the object candidate region ranking means to set the saliency score s (x) of each pixel x in the image. Calculate N 2 is a parameter. For example, when N 1 = 300, it may be set as N 2 = 30. Pronounced score s of the image in pixels x (x) is a binary mask b i corresponding to the object candidate region r i ∈ ^ R ', with the score vector ^ p, be calculated by the following equation (4) Can. Where ^ R 'is a set of object candidate region of ranking N 2.

<本発明の実施の形態に係る物体顕著性マップ算出装置の作用> <Operation of Object Saliency Map Calculation Device According to Embodiment of the Present Invention>

次に、本発明の実施の形態に係る物体顕著性マップ算出装置100の作用について説明する。入力部10において入力画像を受け付けると、物体顕著性マップ算出装置100は、図4に示す物体顕著性マップ算出処理ルーチンを実行する。   Next, the operation of the object saliency map calculation device 100 according to the embodiment of the present invention will be described. When the input unit 10 receives an input image, the object saliency map calculation device 100 executes an object saliency map calculation processing routine shown in FIG. 4.

まず、ステップS100では、入力部10において受け付けた入力画像から物体らしい部分を捉えた複数の物体候補領域を抽出する。   First, in step S100, a plurality of object candidate regions in which a portion likely to be an object is captured are extracted from the input image received by the input unit 10.

次に、ステップS102では、ステップS100で抽出した物体候補領域毎に、上記(1)式に従って、当該物体候補領域と、他の物体候補領域の各々とのペアの各々についての空間的な重複度を算出する。   Next, in step S102, for each of the object candidate areas extracted in step S100, the degree of spatial redundancy for each of the pair of the object candidate area and each of the other object candidate areas according to the equation (1). Calculate

ステップS104では、上記(3)式に従って、行列^Aと、次数行列^Dとに基づいて、前回のランキングが上位の物体候補領域と広い領域で重複している物体候補領域ほど上位となるように、複数の物体候補領域の各々のランキングスコアからなるベクトル^pを更新する。   In step S104, based on the matrix AA and the order matrix に 従 っ て D according to the equation (3), the previous ranking is higher in the object candidate area overlapping with the upper object candidate area in a wider area. Then, the vector ^ p consisting of the ranking score of each of the plurality of object candidate regions is updated.

ステップS106では、収束条件を満たすかを判定し、収束条件を満たしていればステップS108へ移行し、収束条件を満たしていなければステップS104に戻って更新を繰り返す。   In step S106, it is determined whether the convergence condition is satisfied, and if the convergence condition is satisfied, the process proceeds to step S108. If the convergence condition is not satisfied, the process returns to step S104 to repeat the update.

ステップS108では、ステップS104により更新されたベクトル^pに基づいて、複数の物体候補領域をランキングする。   In step S108, a plurality of object candidate regions are ranked based on the vector p p updated in step S104.

ステップS110では、ステップS108で得られたランキング上位Nの物体候補領域を用いて、上記(4)式に従って、入力画像の各ピクセルの顕著スコアを算出し、出力部50に出力して処理を終了する。 In step S110, the salient score of each pixel of the input image is calculated according to the equation (4) using the object candidate region of ranking top N 2 obtained in step S108, and output to the output unit 50 for processing. finish.

以上説明したように、本発明の実施の形態に係る物体顕著性マップ算出装置によれば、入力画像から物体らしい部分を捉えた複数の物体候補領域を抽出し、抽出された物体候補領域毎に、物体候補領域と、他の物体候補領域の各々とのペアの各々についての空間的な重複度を算出し、物体候補領域毎に算出されたペアの各々についての重複度に基づいて、複数の物体候補領域をランキングし、ランキング上位の物体候補領域を1つ以上用いて、入力画像の各ピクセルの顕著スコアを算出することにより、画像中の主要物体をより正しく捉えた物体顕著性マップを算出できる。   As described above, according to the object saliency map calculation device according to the embodiment of the present invention, a plurality of object candidate regions capturing a portion likely to be an object are extracted from an input image, and for each extracted object candidate region Calculating a spatial degree of overlap for each of the pair of the object candidate area and each of the other object candidate areas, and based on the degree of overlap for each of the pairs calculated for each of the object candidate areas, By calculating the saliency score of each pixel of the input image by ranking object candidate regions and using one or more object candidates in the top ranking, an object saliency map that more accurately captures the main object in the image is calculated. it can.

なお、本発明は、上述した実施の形態に限定されるものではなく、この発明の要旨を逸脱しない範囲内で様々な変形や応用が可能である。   The present invention is not limited to the above-described embodiment, and various modifications and applications can be made without departing from the scope of the present invention.

10 入力部
20 演算部
30 物体候補領域抽出部
32 空間重複度算出部
34 物体候補領域ランキング部
36 顕著スコア算出部
50 出力部
100 物体顕著性マップ算出装置
DESCRIPTION OF REFERENCE NUMERALS 10 input unit 20 operation unit 30 object candidate area extraction unit 32 space overlap degree calculation unit 34 object candidate area ranking unit 36 salient score calculation unit 50 output unit 100 object saliency map calculation device

Claims (4)

入力画像から、前記入力画像の各ピクセルの顕著スコアを算出する物体顕著性マップ算出装置における物体顕著性マップ算出方法であって、
物体候補領域抽出部が、前記入力画像から物体らしい部分を捉えた複数の物体候補領域を抽出するステップと、
空間重複度算出部が、前記抽出された物体候補領域毎に、前記物体候補領域と、他の物体候補領域の各々とのペアの各々についての空間的な重複度を算出するステップと、
物体候補領域ランキング部が、前記物体候補領域毎に算出された前記ペアの各々についての前記重複度を要素とする行列Aと、前記複数の物体候補領域の各々についての、他の物体候補領域の各々との前記重複度の和を対角成分とする次数行列Dとに基づいて、予め定めた条件を満たすまで、前回のランキングが上位の物体候補領域と広い領域で重複している物体候補領域ほど上位となるように、前記複数の物体候補領域の各々のランキングスコアを更新することを繰り返して、前記複数の物体候補領域をランキングするステップと、
顕著スコア算出部が、前記物体候補領域ランキング部によって得られたランキング上位の物体候補領域を1つ以上用いて、前記入力画像の各ピクセルの顕著スコアを算出するステップと、
を含む物体顕著性マップ算出方法。
An object saliency map calculation method in an object saliency map calculation device for calculating a saliency score of each pixel of the input image from an input image,
A step of object candidate region extraction unit extracts a plurality of object candidate area captured object seems portion from said input image,
Calculating a spatial degree of overlap for each of the pair of the object candidate area and each of the other object candidate areas, for each of the extracted object candidate areas;
An object candidate area ranking unit uses a matrix A having the degree of duplication for each of the pairs calculated for each of the object candidate areas as an element, and another object candidate area for each of the plurality of object candidate areas An object candidate area in which the previous ranking overlaps in a wide area with the upper object candidate area until a predetermined condition is satisfied based on the order matrix D in which the sum of the overlapping degrees with each other is a diagonal component Updating the ranking score of each of the plurality of object candidate regions so as to be approximately higher, and ranking the plurality of object candidate regions;
Calculating a saliency score of each pixel of the input image by using a one or more ranking candidate object regions obtained by the object candidate region ranking unit;
Object saliency map calculation method including.
前記物体候補領域ランキング部がランキングするステップは、前記物体候補領域の各々のうち、全ての他の物体候補領域と重ならない前記物体候補領域についてのランキングスコアをゼロとして、前記予め定めた条件を満たすまで、前記複数の物体候補領域の各々のランキングスコアを更新することを繰り返して、前記複数の物体候補領域をランキングする請求項に記載の物体顕著性マップ算出方法。 The step in which the object candidate area ranking unit performs ranking is performed by setting the ranking score of the object candidate areas that do not overlap all the other object candidate areas among the object candidate areas as zero, and satisfying the predetermined condition. up, repeatedly updating the ranking score of each of the plurality of object candidate region, the object saliency map calculation method according to claim 1 for ranking the plurality of object candidate region. 入力画像から、前記入力画像の各ピクセルの顕著スコアを算出する物体顕著性マップ算出装置であって、
前記入力画像から物体らしい部分を捉えた複数の物体候補領域を抽出する物体候補領域抽出部と、
前記抽出された物体候補領域毎に、前記物体候補領域と、他の物体候補領域の各々とのペアの各々についての空間的な重複度を算出する空間重複度算出部と、
前記物体候補領域毎に算出された前記ペアの各々についての前記重複度を要素とする行列Aと、前記複数の物体候補領域の各々についての、他の物体候補領域の各々との前記重複度の和を対角成分とする次数行列Dとに基づいて、予め定めた条件を満たすまで、前回のランキングが上位の物体候補領域と広い領域で重複している物体候補領域ほど上位となるように、前記複数の物体候補領域の各々のランキングスコアを更新することを繰り返して、前記複数の物体候補領域をランキングする物体候補領域ランキング部と、
前記物体候補領域ランキング部によって得られたランキング上位の物体候補領域を1つ以上用いて、前記入力画像の各ピクセルの顕著スコアを算出する顕著スコア算出部と、
を含む物体顕著性マップ算出装置。
An object saliency map calculation device that calculates a saliency score of each pixel of the input image from an input image,
An object candidate region extraction unit for extracting a plurality of object candidate area captured object seems portion from said input image,
A spatial overlap degree calculation unit that calculates a spatial overlap degree for each of the pair of the object candidate area and each of the other object candidate areas, for each of the extracted object candidate areas;
A matrix A having the degree of duplication for each of the pairs calculated for each of the object candidate areas as an element, and the degree of duplication with each of the other object candidate areas for each of the plurality of object candidate areas Based on the order matrix D having the sum as a diagonal component, the previous ranking becomes higher in the object candidate area overlapping with the upper object candidate area in a wider area until the predetermined condition is satisfied, An object candidate area ranking unit that ranks the plurality of object candidate areas by repeatedly updating the ranking score of each of the plurality of object candidate areas ;
A saliency score calculation unit that calculates a saliency score of each pixel of the input image using one or more ranking candidate object candidate regions obtained by the object candidate region ranking unit;
Object saliency map calculation device including.
コンピュータに、請求項1又は請求項2に記載の物体顕著性マップ算出方法の各ステップを実行させるためのプログラム。 The program for making a computer perform each step of the object saliency map calculation method of Claim 1 or Claim 2 .
JP2015195822A 2015-10-01 2015-10-01 Object saliency map calculation device, method and program Active JP6517652B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2015195822A JP6517652B2 (en) 2015-10-01 2015-10-01 Object saliency map calculation device, method and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015195822A JP6517652B2 (en) 2015-10-01 2015-10-01 Object saliency map calculation device, method and program

Publications (2)

Publication Number Publication Date
JP2017068739A JP2017068739A (en) 2017-04-06
JP6517652B2 true JP6517652B2 (en) 2019-05-22

Family

ID=58494910

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015195822A Active JP6517652B2 (en) 2015-10-01 2015-10-01 Object saliency map calculation device, method and program

Country Status (1)

Country Link
JP (1) JP6517652B2 (en)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2018189802A1 (en) * 2017-04-11 2018-10-18 楽天株式会社 Image processing device, image processing method, and program
US20200232908A1 (en) * 2017-07-11 2020-07-23 Siemens Healthcare Diagnostics Inc. Image-based tube top circle detection with multiple candidates
WO2019088223A1 (en) * 2017-11-02 2019-05-09 株式会社Nttドコモ Detection device and detection program

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3506958B2 (en) * 1998-09-10 2004-03-15 富士写真フイルム株式会社 Image processing method, image processing apparatus, and recording medium
JP5277804B2 (en) * 2008-09-05 2013-08-28 富士通株式会社 Fingerprint authentication apparatus, fingerprint authentication program, and fingerprint authentication method
JP2010176504A (en) * 2009-01-30 2010-08-12 Canon Inc Image processor, image processing method, and program
JP2014016688A (en) * 2012-07-06 2014-01-30 Kddi Corp Non-realistic conversion program, device and method using saliency map

Also Published As

Publication number Publication date
JP2017068739A (en) 2017-04-06

Similar Documents

Publication Publication Date Title
US10726244B2 (en) Method and apparatus detecting a target
CN109325954B (en) Image segmentation method and device and electronic equipment
WO2019201035A1 (en) Method and device for identifying object node in image, terminal and computer readable storage medium
US9367766B2 (en) Text line detection in images
WO2019100724A1 (en) Method and device for training multi-label classification model
WO2019100723A1 (en) Method and device for training multi-label classification model
CN110738207A (en) character detection method for fusing character area edge information in character image
CN109284749A (en) Refine image recognition
US20210081695A1 (en) Image processing method, apparatus, electronic device and computer readable storage medium
WO2017181892A1 (en) Foreground segmentation method and device
CN108154151B (en) Rapid multi-direction text line detection method
JP6517652B2 (en) Object saliency map calculation device, method and program
JP2018142189A (en) Program, distance measuring method, and distance measuring device
CN108520263B (en) Panoramic image identification method and system and computer storage medium
CN105825228B (en) Image-recognizing method and device
JP6389742B2 (en) Image segmentation method, apparatus, and program
CN105718934A (en) Method for pest image feature learning and identification based on low-rank sparse coding technology
KR101906663B1 (en) Collaborative facial color feature learning method of multiple color spaces for face recognition and apparatus therefor
CN111382638A (en) Image detection method, device, equipment and storage medium
US20230394871A1 (en) Method for verifying the identity of a user by identifying an object within an image that has a biometric characteristic of the user and separating a portion of the image comprising the biometric characteristic from other portions of the image
CN109325489B (en) Image recognition method and device, storage medium and electronic device
JP2018180646A (en) Object candidate area estimation device, object candidate area estimation method and object candidate area estimation program
JP2011248680A (en) Image processing system
JP6448036B2 (en) Object region identification method, apparatus, and program
JP2016103242A (en) Image processing method, image processor and program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20171221

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20181122

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20181204

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190130

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20190402

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20190418

R150 Certificate of patent or registration of utility model

Ref document number: 6517652

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150