JP2016162420A - 注目領域検出装置、注目領域検出方法及びプログラム - Google Patents

注目領域検出装置、注目領域検出方法及びプログラム Download PDF

Info

Publication number
JP2016162420A
JP2016162420A JP2015043745A JP2015043745A JP2016162420A JP 2016162420 A JP2016162420 A JP 2016162420A JP 2015043745 A JP2015043745 A JP 2015043745A JP 2015043745 A JP2015043745 A JP 2015043745A JP 2016162420 A JP2016162420 A JP 2016162420A
Authority
JP
Japan
Prior art keywords
area
saliency
input image
region
background
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2015043745A
Other languages
English (en)
Other versions
JP2016162420A5 (ja
JP6642970B2 (ja
Inventor
正雄 山中
Masao Yamanaka
正雄 山中
山本 貴久
Takahisa Yamamoto
貴久 山本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2015043745A priority Critical patent/JP6642970B2/ja
Priority to US15/059,179 priority patent/US10169673B2/en
Publication of JP2016162420A publication Critical patent/JP2016162420A/ja
Publication of JP2016162420A5 publication Critical patent/JP2016162420A5/ja
Priority to US16/200,437 priority patent/US10748023B2/en
Application granted granted Critical
Publication of JP6642970B2 publication Critical patent/JP6642970B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/25Determination of region of interest [ROI] or a volume of interest [VOI]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/26Segmentation of patterns in the image field; Cutting or merging of image elements to establish the pattern region, e.g. clustering-based techniques; Detection of occlusion
    • G06V10/267Segmentation of patterns in the image field; Cutting or merging of image elements to establish the pattern region, e.g. clustering-based techniques; Detection of occlusion by performing operations on regions, e.g. growing, shrinking or watersheds
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/46Descriptors for shape, contour or point-related descriptors, e.g. scale invariant feature transform [SIFT] or bags of words [BoW]; Salient regional features
    • G06V10/462Salient features, e.g. scale invariant feature transforms [SIFT]

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Image Analysis (AREA)

Abstract

【課題】 注目領域が背景領域と重複している場合や、注目領域と背景領域の特徴量が類似する場合などで、注目領域の検出精度を向上させること。
【解決手段】 本発明は、入力画像に設定した部分領域と背景領域との重複する領域における特徴量を算出し、この算出した特徴量と入力画像の各位置における特徴量とに基づいて、入力画像の各位置における顕著度を算出する。そして、この顕著度の大きさに基づいて、入力画像から注目領域を検出する。
【選択図】 図1

Description

本発明は、視覚的顕著度に基づいて、入力画像から注目領域を検出する技術に関する。
従来から、入力画像中の注目領域を検出する種々の方法が知られている。特許文献1に記載の方法では、まず入力画像の四隅の領域(画像の左上、右上、左下、右下)を背景領域に設定し、各背景領域から特徴量を抽出する。そして、各背景領域から抽出した特徴量と画像中の各点から抽出した特徴量との相違に基づいて、画像の各点における顕著度を算出し、この顕著度の大きさに基づいて画像中の注目領域を検出している。
特開2011−53759号公報
H.Vinod "Integer Programming and The Theory of Grouping" Journal Amererican Statististical Association,vo.64,pp.506−517 (1969) Dorin Comaniciu,Peter Meer, Senior Member,Mean shift: A robust approach toward feature space analysis,IEEE Trans. on PAMI, 2002. 大津展之:判別および最小2乗法に基づく自動しきい値選定法,電子通信学会論文誌、J63−D−4(1980−4)、349.356.
しかしながら、非特許文献1に記載の方法では、注目領域が背景領域と重複している場合や、注目領域と背景領域の特徴量が類似する場合などにおいては、注目領域の検出精度が低下するという問題があった。
以上の課題を解決するために、本発明は、入力画像を複数の部分領域に分割する領域分割手段と、前記入力画像に背景領域を設定する背景領域設定手段と、前記部分領域と前記背景領域との重複する領域における特徴量を算出する特徴量算出手段と、前記算出した特徴量と前記入力画像の各位置における特徴量とに基づいて、前記入力画像の各位置における顕著度を算出する顕著度算出手段と、前記算出した顕著度に基づいて、前記入力画像の注目領域を検出する検出手段と、を有することを特徴とする。
以上の構成によれば、本発明は、注目領域が背景領域と重複している場合や、注目領域と背景領域の特徴量が類似する場合であっても、注目領域の検出精度の低下を軽減させることができる。
第1の実施形態に関わる注目領域検出装置の構成を示す概略ブロック図。 第1の実施形態において領域分割部の機能を説明する図。 第1の実施形態において背景領域設定部の機能を説明する図。 第1の実施形態において部分領域と背景領域との関係を示す図。 第1の実施形態において検出部の機能を説明する図。 第1の実施形態に関わる注目領域検出方法のフローチャート。 第2の実施形態に関わる注目領域検出装置の構成を示す概略ブロック図。 第2の実施形態において背景領域の設定方法の一例を示す図。 第2の実施形態において背景領域の設定方法の別の例を示す図。 第2の実施形態において背景領域の設定方法のまた別の例を示す図。 第2の実施形態において統合部の機能を説明する図。 第2の実施形態に関わる注目領域検出方法のフローチャート。 第3の実施形態において領域分割部の機能を説明する図。
[第1の実施形態]
以下、図面を参照して本発明の実施形態を詳細に説明する。図1は、本実施形態に係る注目領域検出装置の構成を示す概略ブロック図である。注目領域検出装置1は、領域分割部11、背景領域設定部12、重複率算出部13、特徴量算出部14、顕著度算出部15、検出部16を有する。
本実施形態に係る注目領域検出装置1は、半導体集積回路(LSI)を用いて実現される。または、注目領域検出装置1が、CPU、ROM、RAM、HDD等のハードウェア構成を備えるようにしてもよい。その場合、CPUがROMやHD等に格納されたプログラムを実行することにより、例えば、後述する各機能構成やフローチャートの処理が実現される。RAMは、CPUがプログラムを展開して実行するワークエリアとして機能する記憶領域を有する。ROMは、CPUが実行するプログラム等を格納する記憶領域を有する。HDは、CPUが処理を実行する際に要する各種のプログラム、閾値に関するデータ等を含む各種のデータを格納する記憶領域を有する。
領域分割部11は、注目領域検出装置1の外部から入力される入力画像を取得し、各画素間の色特徴の類似性に基づきN個の部分領域R(n=1,...,N)に分割する。図2は、領域分割部11によって入力画像をN個の部分領域R(n=1,...,N)に分割する様子を示している。ここでは、入力画像の水平方向サイズをX、垂直方向サイズをYとしている。図2の例では、領域分割部11は、部分領域R(斜線部分)、R(点線部分)、R(斜線部分と点線部分以外の部分)の3つの部分領域R(n=1,...,3)に分割している。入力画像を複数の部分領域に分割する手法としては、非特許文献1,2に記載された方法の他、種々の自動領域分割アルゴリズムを用いればよい。領域分割部11は、入力画像を背景領域設定部12に出力するとともに、N個の部分領域R(n=1,...,N)に分割した結果を重複率算出部13、特徴量算出部14に出力する。
背景領域設定部12は、入力画像に背景領域Bを設定する。図3は、背景領域設定部12による背景領域Bの設定の様子を示している。同図(a)は元の入力画像であり、背景領域設定部12は、例えば同図(b)〜(d)のように背景領域Bを設定する。図3(b)の例では、入力画像の左部、上部、右部の幅Wの画枠領域を背景領域Bとして設定しており、図3(c)の例では、入力画像の左部、上部、右部、下部の幅Wの画枠領域を背景領域Bとして設定している。また、図3(d)の例では、入力画像の左上部、右上部、左下部、右下部の幅Wの正方領域を背景領域Bとして設定している。
なお、これらの例に限らず、背景領域設定部12は、入力画像の端部に少なくとも1以上の領域を背景領域Bとして設定すればよい。また、背景領域Bを設定するためのWの大きさは、所定値として予め決めておいてもよいし、画像中の注目領域の位置と大きさとが付与された学習用画像セットを用いて適切な値が求められるよう機械学習しておき、入力画像ごとに決定するようにしてもよい。背景領域設定部12は、設定した背景領域Bの結果を重複率算出部13に出力する。
重複率算出部13は、領域分割部11が入力画像を分割して生成した分割領域R(n=1,...,N)と、背景領域設定部12が設定した背景領域Bとが重複する領域(R∩B)の重複率W(n=1,...,N)を算出する。重複率W(n=1,...,N)は、以下の数1式のように、背景領域Bの面積Sと、部分領域R(n=1,...,N)と背景領域Bとが重複する領域(R∩B)における面積S(n=1,...,N)と、の比率として与えられる。
また、重複率W(n=1,...,N)は、以下の数2式により与えられてもよい。すなわち、部分領域R(n=1,...,N)の面積S’(n=1,...,N)と、部分領域R(n=1,...,N)と背景領域Bとが重複する領域(R∩B)における面積S(n=1,...,N)と、の比率として与えられてもよい。
重複率算出部13は、算出した重複率W(n=1,...,N)を顕著度算出部15に出力する。
特徴量算出部14は、領域分割部11が生成した部分領域R(n=1,...,N)と、背景領域設定部12が設定した背景領域Bとに基づいて、特徴量F(n=1,...,N)を算出する。特徴量F(n=1,...,N)は、部分領域R(n=1,...,N)と背景領域Bとが重複する領域(R∩B)における色特徴の平均値(A(Y),A(Cb),A(Cr))で与えられる。図4は、部分領域R(n=1,...,N)と背景領域Bとが重複する領域(R∩B)を示している。同図(a)は入力画像を部分領域R(n=1,...,N)に分割した様子を示しており、同図(b)〜(d)には、この部分領域R(n=1,...,N)が、図3(b)〜(d)のように設定した背景領域Bと重複している様子を示している。
なお、特徴量F(n=1,...,N)を、部分領域R(n=1,...,N)と背景領域Bとが重複する領域(R∩B)における色特徴の中央値(M(Y),M(Cb),M(Cr))で与えてもよい。また、他の基本統計量(F(Y),F(Cb),F(Cr))で与えてもよい。特徴量算出部14は、算出した特徴量F(n=1,...,N)を顕著度算出部15に出力する。
顕著度算出部15は、重複率算出部13が算出した重複率W(n=1,...,N)と、特徴量算出部14が算出した特徴量F(n=1,...,N)とに基づいて、顕著度Sx,y(x=1,...,X,y=1,...,Y)を算出する。顕著度Sx,yは、以下の数3式のように、入力画像中の着目点(x,y)における色特徴(Y,Cb,Cr)と特徴量F(n=1,...,N)との距離D(n=1,...,N)と、重複率W(n=1,...,N)と、の積和で与えられる。
顕著度Sx,yは、数4式のように、入力画像中の着目点(x,y)における色特徴(Y,Cb,Cr)と特徴量F(n=1,...,N)との距離D(n=1,...,N)と、重複率W(n=1,...,N)と、の積和のうちの最大値で与えてもよい。
x,y=max(D・W,D・W,...,D・W) (数4)
ここで、距離Dは、特徴量算出部14が算出した領域(R∩B)における特徴量F(n=1,...,N)と、入力画像中の着目点(x,y)における特徴量との相違に相当するものである。具体的には、数5式のように、領域(R∩B)における色特徴の平均値(A(Y),A(Cb),A(Cr))と、入力画像の着目点(x,y)における色特徴(Y,Cb,Cr)と、のユークリッド距離DEまたはマンハッタン距離DMで与えられる。
なお、特徴量算出部14が、領域(R∩B)における色特徴の中央値や他の基本統計量を用いて特徴量F(n=1,...,N)を算出している場合は、数5式において、これらの値を色特徴の平均値に代えて距離Dを算出すればよい。顕著度算出部15は、算出した顕著度Sx,yを検出部16に出力する。
検出部16は、顕著度算出部15が算出した顕著度Sx,y(x=1,...,X,y=1,...,Y)に基づいて、入力画像から注目領域を検出する。本実施形態では、検出部16は、まず顕著度Sx,yを画像上に配置した顕著度マップを作成する。図5は、検出部16による注目領域の検出処理を説明する図であり、同図(a)は、検出部16が作成する顕著度マップを示している。そして、検出部16は、作成した顕著度マップに対して2値化処理することで、注目領域の候補領域(図5(b)の白色領域)とそれ以外の領域(図5(b)の黒色領域)とに分離する。顕著度マップを2値化処理する手法としては、非特許文献3に開示されている、クラス内分散を最小化し、クラス間分散を最大化することにより適応的に閾値を設定する手法を採用すればよい。さらに、検出部16は、得られた注目領域の候補領域に対して、図5(c)のように外接する矩形領域を設定することにより、最終的な注目領域を検出する。
このようにして検出された注目領域は、注目領域検出結果を用いて処理を行う装置へと出力される。例えば、デジタルカメラのような撮像装置においては、検出された注目領域にフォーカスを合わせ、当該領域を高画質化するような処理に供される。また、デジタルカメラのような撮像装置に備えられた半導体集積回路が前述の注目領域検出装置としての機能を実現するようにしてもよく、この場合、撮像装置自体が本実施形態の注目領域検出装置に相当する。
図6は、本実施形態に係る注目領域検出方法のフローチャートを示している。本処理が開始されると、まず、ステップS101において、領域分割部11は、入力画像を取得し、各画素間の色特徴の類似性に基づきN個の部分領域R(n=1,...,N)に分割する。次に、ステップS102では、背景領域設定部12が、入力画像に対して背景領域Bを設定する。
ステップS103において、重複率算出部13は、領域分割部11により生成された分割領域R(n=1,...,N)と、背景領域設定部12により設定された背景領域Bとが重複する領域(R∩B)の重複率W(n=1,...,N)を算出する。そして、ステップS104において、特徴量算出部14は、領域(R∩B)における特徴量F(n=1,...,N)として、当該領域における色特徴に関する情報(例えば平均値)を算出し、顕著度算出部15に出力する。
ステップS105では、顕著度算出部15は、重複率W(n=1,...,N)と特徴量F(n=1,...,N)とに基づいて、顕著度Sx,y(x=1,...,X,y=1,...,Y)を算出する。そして、S106において、検出部16が顕著度Sx,yから顕著度マップを作成し、この顕著度マップに基づき注目領域を検出する。なお、本実施形態の注目領域検出方法の各ステップの処理は順に実行される必要はなく、例えば、ステップS101の部分領域に分割する処理と、ステップS102の背景領域を設定する処理とを並行して行ってもよい。
以上、本実施形態によれば、入力画像に設定した部分領域と背景領域との重複する領域における特徴量を算出し、この重複領域の特徴量と入力画像の各位置における特徴量とに基づいて、入力画像の各位置における顕著度を算出する。そのため、注目領域が背景領域と重複している場合や、注目領域と背景領域の特徴量が類似する場合であっても、算出した顕著度に基づいて、精度よく注目領域を検出することが可能となる。
(その他)
上述の説明において、顕著度算出部15は、重複率W(n=1,...,N)と特徴量F(n=1,...,N)とに基づいて、顕著度Sx,yを算出している。しかし、重複率の情報は用いずに、特徴量Fから導出される距離D(n=1,...,N)に基づいて算出するようにしてもよい。例えば、以下の数6式のように、顕著度Sx,yを距離D(n=1,...,N)のうちの最小値として与えてもよい。
x,y=min(D,D,...,D) (数6)
また、重複率W(n=1,...,N)が閾値T以上の部分領域R(n=1,...,N’)に注目するようにしてもよい。つまり、数7式のように、入力画像中の着目点(x,y)における色特徴(Y,Cb,Cr)と、閾値T以上の部分領域R(n=1,...,N’)の特徴量F(n=1,...,N’)との距離D(n=1,...,N’)のうちの最小値でもよい。ここで、閾値Tは、予め定められた所定値であてもよいし、画像中の注目領域の位置と大きさとが付与された学習用画像セットを用いて適切な値が求められるよう機械学習しておき、入力画像ごとに決定するようにしてもよい。
x,y=min(D,D,...,DN’) (数7)
このように、重複率の情報を用いずに顕著度Sx,yを算出することにより、重複率算出部13の構成およびその処理を省略することができる。
[第2の実施形態]
次に、本発明の第2の実施形態として、複数の背景領域B(k=1,...,K)を設定し、各背景領域に対して算出された顕著度Sk,x,y(k=1,...,K)を階層的に足し合わせて、統合顕著度ISx,yを算出する構成について説明を行う。なお、第1の実施形態において既に説明をした構成については、同一の符号を付し、その説明を省略する。
図7は、本実施形態に係る注目領域検出装置の構成を示す概略ブロック図である。本実施形態の注目領域検出装置1は、第1の実施形態で説明をした各機能部に加えて、統合部21を備えている。また、本実施形態では、背景領域設定部12が実行する処理の内容が、第1の実施形態と異なっている。
本実施形態において、背景領域設定部12は、取得した入力画像に複数の背景領域B(k=1,...,K)を設定する。図8〜10は、背景領域設定部12によって設定される背景領域B(k=1,...,K)の様子を示している。
背景領域設定部12は、例えば図8(a)〜(c)のように、入力画像の左部、上部、右部に対して複数の幅W(k=1,...,K)で規定される画枠領域を、背景領域B(k=1,...,K)として設定する。なお、背景領域B(k=1,...,K)は、図9(a)〜(c)のように、入力画像の左部、上部、右部、下部に対する複数の幅W(k=1,...,K)の画枠領域として設定してもよい。また、図10(a)〜(c)のように、入力画像の左上部、右上部、左下部、右下部における複数の幅W(k=1,...,K)の正方領域として設定してもよい。いずれにしても、本実施形態では、入力画像の端部の少なくとも1か所に対して複数の幅W(k=1,...,K)で規定される領域を、背景領域B(k=1,...,K)とすることができる。なお、複数の幅W(k=1,...,K)の間隔や個数Kの値は、予め定められた所定値とすることができる。または、画像中の注目領域の位置と大きさとが付与された学習用画像セットを用いて適切な値が求められるよう機械学習しておき、入力画像ごとに決定するようにしてもよい。
そして、重複率算出部13は、各背景領域B(k=1,...,K)に対して、第1の実施形態と同様にして、重複率Wk,n(k=1,...,K)を算出する。同様にして、特徴量算出部14、顕著度算出部15は、各背景領域B(k=1,...,K)に対して、特徴量Fk,n(k=1,...,K)、顕著度Sk,x,y(k=1,...,K)を算出する。
統合部21は、顕著度算出部15が算出した顕著度Sk,x,y(k=1,...,K)を階層的に足し合わせて統合顕著度ISx,yを算出する。図11は、統合顕著度ISx,yを算出する処理を模式的に示す図であり、同図においては、顕著度S1,x,y〜S3,x,yを階層的に足し合わせている。
検出部16は、統合部21により算出された統合顕著度ISx,y(x=1,...,X,y=1,...,Y)に基づいて、入力画像から注目領域を検出する。検出部16による注目領域の検出処理の内容は、第1の第1の実施形態と同様であり、生成した顕著度マップに基づいて注目領域の候補領域を抽出し、候補領域に外接する矩形領域を設定することにより、最終的な注目領域を検出する。
図12は、本実施形態に係る注目領域検出方法のフローチャートを示している。本実施形態の検出フローが第1の実施形態と異なる点は、ステップS105とS106との間に、ステップS201の処理が実行されることである。ステップS201では、統合部21が、前述したように、顕著度算出部15が算出した顕著度Sk,x,y(k=1,...,K)を階層的に足し合わせて統合顕著度ISx,yを算出する。また、ステップS102において、背景領域設定部12は、複数の背景領域B(k=1,...,K)を設定する。
以上、本実施形態によれば、入力画像に大きさの異なる複数の背景領域を設定し、この複数の背景領域ごとに顕著度を算出する。そして、算出した複数の背景領域ごとの顕著度を統合し、統合顕著度に基づいて入力画像から注目領域を検出する。したがって、第1の実施形態のように単一のサイズで背景領域を設定する場合に比べて、注目領域の検出の炉バスト性を向上させることができる。
[第3の実施形態]
次に、本発明の第3の実施形態について説明を行う。本実施形態では、複数の部分領域Rk,n(k=1,...,K,n=1,...,N)を設定し、各部分領域に対して算出される顕著度Sk,x,y(k=1,...,K)を階層的に足し合わせて統合顕著度ISx,yを算出する。なお、第1、第2の実施形態において既に説明をした構成については、同一の符号を付し、その説明を省略する。
本実施形態の注目領域検出装置1は、第2の実施形態で説明した注目領域検出装置1の構成と同じである。すなわち、第1の実施形態で説明をした各機能部に加えて、統合部21を備えた構成となっている。ただし、本実施形態では、領域分割部11が実行する処理の内容が、第1、第2の実施形態と異なっている。
本実施形態の領域分割部11は入力画像を取得し、各画素間の色特徴の類似性に基づいて、粒度が異なるN通りで、取得した入力画像を部分領域Rk,n(n=1,...,N)に分割する。本実施形態で、粒度は、入力画像からどの程度細かく部分領域に分割するかという、分割の細かさに相当している。
図13は、領域分割部11が、元の入力画像(同図(a))に対して、k=1番目の粒度からk=3番目の粒度までの3通り(同図(b)〜(d))で、部分領域Rk,n(n=1,...,N)に分割している様子を示す図である。図12(b)は、領域分割部11が、k=1番目の粒度で入力画像を部分領域に分割する様子を示しており、ここでは、3つの部分領域R1,n(n=1,...,3)に分割されている。同様にして、図12(c)はk=2番目の粒度の場合であり、R21、R22、R23、R24の4つの部分領域R2,n(n=1,...,4)に分割されている。また、図12(d)はk=3番目の粒度の場合であり、R31、R32、R33、R34、R35の5つの部分領域R3,n(n=1,...,5)に分割されている。なお、粒度の個数Kの値は、予め定められた所定値としてもよいし、画像中の注目領域の位置と大きさとが付与された学習用画像セットを用いて適切な値が求められるよう機械学習しておき、入力画像ごとに決定するようにしてもよい。
そして、重複率算出部13、特徴量算出部14、顕著度算出部15は、各粒度Nで分割された部分領域に対して、重複率Wk,n(k=1,...,K)、特徴量Fk,n(k=1,...,K)、顕著度Sk,x,y(k=1,...,K)を算出する。そして、統合部21は、第2の実施形態と同様にして、顕著度算出部15が算出した顕著度Sk,x,y(k=1,...,K)を階層的に足し合わせて統合顕著度ISx,yを算出する。また、検出部16は、第2の実施形態と同じように、統合部21により算出された統合顕著度ISx,y(x=1,...,X,y=1,...,Y)に基づいて、入力画像から注目領域を検出する。
本実施形態に係る注目領域検出方法のフローは、第2の実施形態と同様である。ただし、本実施形態の検出フローにおいて、ステップS101において、領域分割部11は、粒度が異なるN通りで、入力画像を複数の部分領域Rk,n(n=1,...,N)に分割する。また、ステップS201では、統合部21が、粒度Nごとに算出された顕著度Sk,x,y(k=1,...,K)を階層的に足し合わせて統合顕著度ISx,yを算出する。
以上、本実施形態によれば、複数の粒度によって入力画像を複数の部分領域に分割し、複数の粒度ごとに顕著度を算出する。そして、複数の粒度ごとに算出した顕著度を統合して、統合顕著度に基づいて入力画像から注目領域を検出する。したがって、第1の実施形態のように単一の粒度で部分領域に分割する場合に比べて、注目領域の検出の炉バスト性を向上させることができる。
[その他の実施形態]
また、本発明は、上記実施形態の機能を実現するソフトウェア(プログラム)を、ネットワーク又は各種記憶媒体を介してシステム或いは装置に供給し、そのシステム或いは装置のコンピュータ(又はCPUやMPU等)がプログラムを読み出して実行する処理である。また、本発明は、複数の機器から構成されるシステムに適用しても、1つの機器からなる装置に適用してもよい。本発明は上記実施例に限定されるものではなく、本発明の趣旨に基づき種々の変形(各実施例の有機的な組合せを含む)が可能であり、それらを本発明の範囲から除外するものではない。即ち、上述した各実施例及びその変形例を組み合わせた構成も全て本発明に含まれるものである。
1 注目領域検出装置
11 領域分割部
12 背景領域設定部
13 重複率算出部
14 特徴量算出部
15 顕著度算出部
16 検出部

Claims (10)

  1. 入力画像を複数の部分領域に分割する領域分割手段と、
    前記入力画像に背景領域を設定する背景領域設定手段と、
    前記部分領域と前記背景領域との重複する領域における特徴量を算出する特徴量算出手段と、
    前記算出した特徴量と前記入力画像の各位置における特徴量とに基づいて、前記入力画像の各位置における顕著度を算出する顕著度算出手段と、
    前記算出した顕著度に基づいて、前記入力画像の注目領域を検出する検出手段と、
    を有することを特徴とする注目領域検出装置。
  2. 前記背景領域は、前記入力画像の端部に設定される少なくとも1つの領域であることを特徴とする請求項1に記載の注目領域検出装置。
  3. 前記背景領域設定手段は、画像中の注目領域の位置と大きさとが付与された学習用画像セットを用いて予め機械学習されており、入力画像ごとに背景領域の大きさを決定することを特徴とする請求項1または2に記載の注目領域検出装置。
  4. 前記部分領域と前記背景領域とが重複する領域の重複率を算出する重複率算出手段を更に有し、
    前記顕著度算出手段は、前記特徴量算出手段により算出した特徴量と、前記入力画像の各位置における特徴量と、前記重複率算出手段により算出した重複率とに基づいて、前記入力画像の各位置における顕著度を算出することを特徴とする請求項1から3のいずれか1項に記載の注目領域検出装置。
  5. 前記重複率は、前記背景領域の面積と、前記背景領域と前記部分領域とが重複する領域の面積と、の比であることを特徴とする請求項4に記載の注目領域検出装置。
  6. 前記顕著度は、前記特徴量算出手段により算出した特徴量と前記入力画像の各位置における特徴量との相違と、前記重複率と、の積和であることを特徴とする請求項4または5に記載の注目領域検出装置。
  7. 複数の前記顕著度を統合する統合手段を更に有し、
    前記背景領域設定手段は、前記入力画像に大きさの異なる複数の背景領域を設定し、
    前記徴量算出手段は、前記複数の背景領域ごとに、前記部分領域と重複する領域における特徴量を算出し、
    前記顕著度算出手段は、前記複数の背景領域ごとに前記顕著度を算出し、
    前記統合手段は、前記複数の背景領域ごとの顕著度を統合し、
    前記検出手段は、前記統合された顕著度に基づいて、前記入力画像の注目領域を検出することを特徴とする請求項1から6のいずれか1項に記載の注目領域検出装置。
  8. 複数の前記顕著度を統合する統合手段を更に有し、
    前記領域分割手段は、異なる複数の粒度により、前記入力画像を複数の部分領域に分割し、
    前記徴量算出手段は、前記複数の粒度ごとに、前記部分領域と重複する領域における特徴量を算出し、
    前記顕著度算出手段は、前記複数の粒度ごとに前記顕著度を算出し、
    前記統合手段は、前記複数の粒度ごとの顕著度を統合し、
    前記検出手段は、前記統合された顕著度に基づいて、前記入力画像の注目領域を検出することを特徴とする請求項1から6のいずれか1項に記載の注目領域検出装置。
  9. 入力画像を複数の部分領域に分割するステップと、
    前記入力画像に背景領域を設定するステップと、
    前記部分領域と前記背景領域との重複する領域における特徴量を算出するステップと、
    前記算出した特徴量と前記入力画像の各位置における特徴量とに基づいて、前記入力画像の各位置における顕著度を算出するステップと、
    前記算出した顕著度に基づいて、前記入力画像の注目領域を検出するステップと、
    を有することを特徴とする注目領域検出方法。
  10. コンピュータを、請求項1から8のいずれか1項に記載の注目領域検出装置として機能させるためのプログラム。
JP2015043745A 2015-03-05 2015-03-05 注目領域検出装置、注目領域検出方法及びプログラム Active JP6642970B2 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2015043745A JP6642970B2 (ja) 2015-03-05 2015-03-05 注目領域検出装置、注目領域検出方法及びプログラム
US15/059,179 US10169673B2 (en) 2015-03-05 2016-03-02 Region-of-interest detection apparatus, region-of-interest detection method, and recording medium
US16/200,437 US10748023B2 (en) 2015-03-05 2018-11-26 Region-of-interest detection apparatus, region-of-interest detection method, and recording medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015043745A JP6642970B2 (ja) 2015-03-05 2015-03-05 注目領域検出装置、注目領域検出方法及びプログラム

Publications (3)

Publication Number Publication Date
JP2016162420A true JP2016162420A (ja) 2016-09-05
JP2016162420A5 JP2016162420A5 (ja) 2018-04-19
JP6642970B2 JP6642970B2 (ja) 2020-02-12

Family

ID=56845508

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015043745A Active JP6642970B2 (ja) 2015-03-05 2015-03-05 注目領域検出装置、注目領域検出方法及びプログラム

Country Status (2)

Country Link
US (2) US10169673B2 (ja)
JP (1) JP6642970B2 (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106599891A (zh) * 2016-10-18 2017-04-26 华中科技大学 一种基于尺度相位谱显著性的遥感图像兴趣区快速提取方法
CN113222888A (zh) * 2021-03-19 2021-08-06 复旦大学 基于深度纹理特征的纺织品纱织尺寸检测方法

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10055666B2 (en) * 2014-05-08 2018-08-21 Aselsan Elektronik Sanayi Ve Ticaret Anonim Sirketi Real-time, semi-automatic method for target tracking window initialization in thermal imagery
JP6642970B2 (ja) * 2015-03-05 2020-02-12 キヤノン株式会社 注目領域検出装置、注目領域検出方法及びプログラム
EP3611701A4 (en) * 2017-04-11 2020-12-02 Rakuten, Inc. IMAGE PROCESSING DEVICE, IMAGE PROCESSING METHOD AND PROGRAM
US11200678B2 (en) * 2019-09-17 2021-12-14 Sony Corporation Image-based mask frame interpolation
JP7392368B2 (ja) * 2019-10-03 2023-12-06 富士フイルムビジネスイノベーション株式会社 画像処理装置,システム,プログラム
CN112053335B (zh) * 2020-08-31 2023-05-12 中冶赛迪信息技术(重庆)有限公司 一种热轧棒材重叠检测方法、系统及介质
TWI800814B (zh) * 2021-04-12 2023-05-01 宏碁股份有限公司 影像拼接方法

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014215926A (ja) * 2013-04-26 2014-11-17 オムロン株式会社 画像処理装置、画像処理方法、プログラムおよび記録媒体

Family Cites Families (35)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
ES2140825T3 (es) * 1995-01-31 2000-03-01 United Parcel Service Inc Procedimiento y aparato para separar el primer plano del fondo en imagenes que contienen texto.
AUPN727295A0 (en) * 1995-12-21 1996-01-18 Canon Kabushiki Kaisha Zone segmentation for image display
US6301382B1 (en) * 1996-06-07 2001-10-09 Microsoft Corporation Extracting a matte of a foreground object from multiple backgrounds by triangulation
US5900953A (en) * 1997-06-17 1999-05-04 At&T Corp Method and apparatus for extracting a foreground image and a background image from a color document image
US6282317B1 (en) * 1998-12-31 2001-08-28 Eastman Kodak Company Method for automatic determination of main subjects in photographic images
US6721446B1 (en) * 1999-04-26 2004-04-13 Adobe Systems Incorporated Identifying intrinsic pixel colors in a region of uncertain pixels
US6504951B1 (en) * 1999-11-29 2003-01-07 Eastman Kodak Company Method for detecting sky in images
US7212668B1 (en) * 2000-08-18 2007-05-01 Eastman Kodak Company Digital image processing system and method for emphasizing a main subject of an image
AUPR212600A0 (en) * 2000-12-18 2001-01-25 Canon Kabushiki Kaisha Efficient video coding
EP1353516A1 (en) * 2002-04-08 2003-10-15 Mitsubishi Electric Information Technology Centre Europe B.V. A method and apparatus for detecting and/or tracking one or more colour regions in an image or sequence of images
US7627151B2 (en) * 2003-04-04 2009-12-01 Lumidigm, Inc. Systems and methods for improved biometric feature definition
US7844076B2 (en) * 2003-06-26 2010-11-30 Fotonation Vision Limited Digital image processing using face detection and skin tone information
US7171058B2 (en) * 2003-07-31 2007-01-30 Eastman Kodak Company Method and computer program product for producing an image of a desired aspect ratio
US7949186B2 (en) * 2006-03-15 2011-05-24 Massachusetts Institute Of Technology Pyramid match kernel and related techniques
US20080019575A1 (en) * 2006-07-20 2008-01-24 Anthony Scalise Digital image cropping using a blended map
JP5016541B2 (ja) * 2008-04-01 2012-09-05 富士フイルム株式会社 画像処理装置および方法並びにプログラム
US8135182B2 (en) * 2008-04-22 2012-03-13 Eastman Kodak Company Method for creating photo cutouts and collages
JP2010055194A (ja) * 2008-08-26 2010-03-11 Sony Corp 画像処理装置および方法、学習装置および方法、並びにプログラム
JP4868046B2 (ja) 2009-08-31 2012-02-01 カシオ計算機株式会社 画像処理装置、画像処理方法及びプログラム
US8649606B2 (en) * 2010-02-10 2014-02-11 California Institute Of Technology Methods and systems for generating saliency models through linear and/or nonlinear integration
JP2011176748A (ja) * 2010-02-25 2011-09-08 Sony Corp 画像処理装置および方法、並びにプログラム
US8363984B1 (en) * 2010-07-13 2013-01-29 Google Inc. Method and system for automatically cropping images
AU2010241260B2 (en) * 2010-10-29 2013-12-19 Canon Kabushiki Kaisha Foreground background separation in a scene with unstable textures
JP5896661B2 (ja) * 2011-09-14 2016-03-30 キヤノン株式会社 情報処理装置、情報処理装置の制御方法、およびプログラム
US9025880B2 (en) * 2012-08-29 2015-05-05 Disney Enterprises, Inc. Visual saliency estimation for images and video
EP2706503A3 (en) * 2012-09-11 2017-08-30 Thomson Licensing Method and apparatus for bilayer image segmentation
US9129148B1 (en) * 2012-11-09 2015-09-08 Orbeus Inc. System, method and apparatus for scene recognition
IL224896A (en) * 2013-02-25 2017-09-28 Agent Video Intelligence Ltd Method for extracting objects
US9191643B2 (en) * 2013-04-15 2015-11-17 Microsoft Technology Licensing, Llc Mixing infrared and color component data point clouds
US9330334B2 (en) * 2013-10-24 2016-05-03 Adobe Systems Incorporated Iterative saliency map estimation
US9349054B1 (en) * 2014-10-29 2016-05-24 Behavioral Recognition Systems, Inc. Foreground detector for video analytics system
US9460522B2 (en) * 2014-10-29 2016-10-04 Behavioral Recognition Systems, Inc. Incremental update for background model thresholds
AU2014271236A1 (en) * 2014-12-02 2016-06-16 Canon Kabushiki Kaisha Video segmentation method
JP6642970B2 (ja) * 2015-03-05 2020-02-12 キヤノン株式会社 注目領域検出装置、注目領域検出方法及びプログラム
US9965865B1 (en) * 2017-03-29 2018-05-08 Amazon Technologies, Inc. Image data segmentation using depth data

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014215926A (ja) * 2013-04-26 2014-11-17 オムロン株式会社 画像処理装置、画像処理方法、プログラムおよび記録媒体

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
柳原 徹也、前田 純治: ""画像領域における注視要素を基にした知覚的重要度の識別"", 電子情報通信学会技術研究報告, vol. 104, no. 648, JPN6019010072, 27 January 2005 (2005-01-27), JP, pages 13 - 18 *
長谷川 尭史、該3名: ""顕微鏡画像中に含まれる底生生物の自動分類法"", 電子情報通信学会技術研究報告, vol. 110, no. 420, JPN6019010073, 14 February 2011 (2011-02-14), JP, pages 125 - 129 *

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106599891A (zh) * 2016-10-18 2017-04-26 华中科技大学 一种基于尺度相位谱显著性的遥感图像兴趣区快速提取方法
CN113222888A (zh) * 2021-03-19 2021-08-06 复旦大学 基于深度纹理特征的纺织品纱织尺寸检测方法

Also Published As

Publication number Publication date
US20160259990A1 (en) 2016-09-08
JP6642970B2 (ja) 2020-02-12
US10748023B2 (en) 2020-08-18
US10169673B2 (en) 2019-01-01
US20190095741A1 (en) 2019-03-28

Similar Documents

Publication Publication Date Title
JP6642970B2 (ja) 注目領域検出装置、注目領域検出方法及びプログラム
US9275281B2 (en) Mobile image capture, processing, and electronic form generation
US9230148B2 (en) Method and system for binarization of two dimensional code image
JP6547386B2 (ja) 画像処理装置及び方法
US8805077B2 (en) Subject region detecting apparatus
US9928439B2 (en) Facilitating text identification and editing in images
US8811751B1 (en) Method and system for correcting projective distortions with elimination steps on multiple levels
US8897600B1 (en) Method and system for determining vanishing point candidates for projective correction
US20100220927A1 (en) Method of and apparatus for classifying image using histogram analysis, and method of and apparatus for recognizing text image using the histogram analysis
JP6569500B2 (ja) 画像処理装置及び画像処理方法
JP4694613B2 (ja) 原稿方向判定装置、原稿方向判定方法、プログラムおよびその記録媒体
WO2014160433A2 (en) Systems and methods for classifying objects in digital images captured using mobile devices
JP2016517587A (ja) モバイル装置を用いて取込まれたデジタル画像におけるオブジェクトの分類
JP6277750B2 (ja) 画像処理装置及び方法
CN109697414B (zh) 一种文本定位方法及装置
CN107368829B (zh) 确定输入图像中的矩形目标区域的方法和设备
JP2011129114A (ja) 検出装置、検出方法、検出プログラム、および記録媒体
CN109948521B (zh) 图像纠偏方法和装置、设备及存储介质
US20120257822A1 (en) Image processing apparatus, image processing method, and computer readable medium
US8913836B1 (en) Method and system for correcting projective distortions using eigenpoints
US20180365837A1 (en) Image processing apparatus, image processing method, and storage medium
JP2011065643A (ja) 文字認識方法及び文字認識装置
KR101377910B1 (ko) 화상 처리 방법 및 화상 처리 장치
JP6542230B2 (ja) 投影ひずみを補正するための方法及びシステム
US9483834B1 (en) Object boundary detection in an image

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180302

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180302

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20190315

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190326

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190524

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20190806

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20191106

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20191115

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20191203

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200106

R151 Written notification of patent or utility model registration

Ref document number: 6642970

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151