JP2014215926A - 画像処理装置、画像処理方法、プログラムおよび記録媒体 - Google Patents

画像処理装置、画像処理方法、プログラムおよび記録媒体 Download PDF

Info

Publication number
JP2014215926A
JP2014215926A JP2013094757A JP2013094757A JP2014215926A JP 2014215926 A JP2014215926 A JP 2014215926A JP 2013094757 A JP2013094757 A JP 2013094757A JP 2013094757 A JP2013094757 A JP 2013094757A JP 2014215926 A JP2014215926 A JP 2014215926A
Authority
JP
Japan
Prior art keywords
similarity
unit
image
region
saliency
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2013094757A
Other languages
English (en)
Other versions
JP6135283B2 (ja
Inventor
翔 阮
Sho Gen
翔 阮
湖川 盧
Huchuan Lu
湖川 盧
川 楊
Chuan Yang
川 楊
立和 張
Lihe Zhang
立和 張
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Omron Corp
Original Assignee
Omron Corp
Omron Tateisi Electronics Co
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Omron Corp, Omron Tateisi Electronics Co filed Critical Omron Corp
Priority to JP2013094757A priority Critical patent/JP6135283B2/ja
Priority to EP14154825.5A priority patent/EP2797051B1/en
Priority to US14/191,834 priority patent/US9189861B2/en
Priority to CN201410074536.8A priority patent/CN104123717B/zh
Publication of JP2014215926A publication Critical patent/JP2014215926A/ja
Application granted granted Critical
Publication of JP6135283B2 publication Critical patent/JP6135283B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/194Segmentation; Edge detection involving foreground-background segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/25Determination of region of interest [ROI] or a volume of interest [VOI]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/28Quantising the image, e.g. histogram thresholding for discrimination between background and foreground patterns
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/46Descriptors for shape, contour or point-related descriptors, e.g. scale invariant feature transform [SIFT] or bags of words [BoW]; Salient regional features
    • G06V10/462Salient features, e.g. scale invariant feature transforms [SIFT]

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Image Analysis (AREA)

Abstract

【課題】事前知識を必要とせずに、1枚の静止画像についても顕著度を精度よく評価できる画像処理装置を実現する。【解決手段】画像処理装置1は、スーパーピクセルの各々について、画像における端部領域に位置するスーパーピクセルとの類似度を示す類似マップを生成する類似マップ生成部122と、類似マップ生成部122により算出された類似マップにおいて類似度が所定閾値よりも非類似であることを示すスーパーピクセルを前景領域として特定する前景領域特定部123と、各スーパーピクセルについて前景領域との類似度を示す前景類似マップを求め、当該前景類似マップを顕著マップとして出力する顕著マップ生成部124とを備える。【選択図】図1

Description

本発明は、画像における顕著度を出力する画像処理装置および画像処理方法に関する。
従来、画像処理の分野では、画像において人間が注目すると予想される画像領域、あるいは注目すべき画像領域である顕著領域を、その画像から検出(抽出)する画像処理装置が知られている。また、このような顕著領域検出の技術を用いて、画像における各画素の顕著度(saliency measure)を算出することにより、その画像の各画素の顕著度を示す顕著マップを作成することも行われている。
こうした顕著領域検出の技術は、例えば、画像から被写体を検出するために使用されている。
さて、上記顕著領域検出のためのアルゴリズムとして、学習ベースのアルゴリズムが存在している。例えば、特許文献1には、学習対象となる複数の画像データに基づいて特徴の種類を事前に学習して決定しておき、決定された特徴の種類と顕著度の算出対象となる対象画像データとに基づいて、当該対象画像データにおける各部の特徴を抽出することが記載されている。この技術によれば、学習効果を人の経験や記憶の度合と擬制することにより、より人の感覚に近似した顕著度の判断が可能となる。
ところが、上記学習ベースのアルゴリズムでは、対象画像データに対する事前知識として、学習対象となる複数の画像データを予め用意しておく必要がある。そのため、このような事前知識を持っていない場合には顕著度を評価することができない。
一方、特許文献2には、事前知識を必要とせず、映像を構成する各フレーム間の情報を用いて顕著領域を検出する技術が記載されている。
特開2001−236508号公報(2001年8月31日公開) 特開2010−258914号公報(2010年11月11日公開)
しかしながら、特許文献2の技術は、事前知識を必要としないが、複数のフレームから構成される動画像のみを対象としており、静止画像に対する顕著度の評価に適用することができない。
本発明は、上記課題を解決するためになされたものであり、事前知識を必要とせずに、1枚の静止画像についても顕著度を精度よく評価できる画像処理装置および画像処理方法を提供することを目的とする。
本発明に係る画像処理装置は、画像における画素または連結された複数の画素からなる領域を単位構成とし、上記単位構成の各々について、画像における端部領域に位置する単位構成との第1類似度を求める類似度算出部と、上記類似度算出部により算出された第1類似度が所定閾値よりも非類似であることを示す単位構成の領域を前景領域として特定する前景領域特定部と、上記画像の各単位構成について、前景領域特定部により特定された前景領域との第2類似度を求め、当該第2類似度を当該単位構成の顕著度として出力する顕著度出力部とを備えることを特徴とする。
また、本発明に係る画像処理方法は、画像における画素または連結された複数の画素からなる領域を単位構成とし、上記単位構成の各々について、画像における端部領域に位置する単位構成との第1類似度を求める類似度算出ステップと、上記第1類似度が所定閾値よりも非類似であることを示す単位構成の領域を前景領域として特定する前景領域特定ステップと、上記画像の各単位構成について、上記前景領域との第2類似度を求め、当該第2類似度を当該単位構成の顕著度として出力する顕著度出力ステップとを含むことを特徴とする。
画像を撮像する際、人間は、注目すべき物体がなるべく画像の端部(枠)からはみ出ないようにすることが一般的である。そのため、画像の端部には主に背景領域が存在することとなる。上記の構成によれば、画像における端部領域に位置する単位構成との類似度が判定閾値より非類似であることを示す単位構成の領域が前景領域として特定されるので、画像において人間が注目すべき注目物体が前景領域として特定される確率が高くなる。
そして、画像の各単位構成について、特定された前景領域との第2類似度が顕著度として求められる。上述したように、画像において人間が注目すべき注目物体が前景領域として特定されるため、前景領域との第2類似度は、単位構成における顕著度を示すこととなる。
このように、上記の構成によれば、1枚の静止画像であっても、事前知識を必要とせずに、顕著度を精度よく評価できる画像処理装置および画像処理方法を実現することができる。
さらに、本発明の画像処理装置は、上記画像を、輝度値および/または色度が類似する互いに隣接した画素からなる画素小領域に分割し、当該画素小領域を上記単位構成とする分割処理部を備えることが好ましい。
上記の構成によれば、画素を単位構成とする場合に比べて、第1類似度および第2類似度を求める際の演算処理数が小さくなり、計算速度を向上させることができる。
さらに、本発明の画像処理装置において、上記類似度算出部は、上記単位構成の各々について、矩形状の上記画像の上端部領域に位置する単位構成との類似度である上端用類似度と、上記画像の下端部領域に位置する単位構成との類似度である下端用類似度と、上記画像の左端部領域に位置する単位構成との類似度である左端用類似度と、上記画像の右端部領域に位置する単位構成との類似度である右端用類似度とを求め、上端用類似度,下端用類似度,左端用類似度および右端用類似度を掛け合わせることで上記第1類似度を求めることが好ましい。
人間が撮像する画像には様々な形態があり、人間が注目すべき注目物体が画像の端部(枠)の一部に存在している場合もある。しかしながら、このような場合であっても、ほとんどの画像では、画像における4つの端部(上端部、下端部、左端部、右端部)の一部にのみ注目物体が重なる。そのため、注目物体が重ならない端部との類似度では、注目物体の領域と端部との類似度が低くなる傾向にある。そのため、4つの類似度を掛け合わせて第1類似度を求めることにより、注目物体が画像の端部(枠)の一部に存在している場合であっても、注目物体を前景領域として特定できる確率をある程度高く維持することができる。
さらに、本発明の画像処理装置において、上記類似度算出部は、以下の式(1)を用いて、上端用類似度,下端用類似度,左端用類似度および右端用類似度を求める。
=(D−αW)−1y ・・・ 式(1)
なお、fは、[f ,・・・,f ] で示され、上端用類似度,下端用類似度,左端用類似度および右端用類似度を示すベクトルである。ここで、f はi番目の単位構成と端部領域に位置する単位構成との類似度を示す。なお、nは画像における単位構成の数である。
Wはn行×n列の行列であり、i行j列の要素wijは以下の式で示される。
なお、cは、i番目の単位構成の特徴量を示し、cはj番目の単位構成の特徴量を示す。
Dはn行×n列の対角行列であり、D=diag(d11,・・・,dnn)で示される。なお、diiは以下の式で示される。
yは、[y,・・・,y で示され、yは、i番目の単位構成が比較対象となる端部領域に位置する場合に1であり、i番目の単位構成が比較対象となる端部領域に位置しない場合に0である。
αは所定の定数である。
上記の式(1)は、多様体(Manifold)ランキング法で用いられる式であり、多様体の類似度を精度よく求めることができる。また、上端用類似度,下端用類似度,左端用類似度および右端用類似度の4つの類似度を求める際、式(1)の(D−αW)−1が共通しているため、援用することができ、計算速度を速めることができる。
さらに、本発明の画像処理装置において、上記顕著度出力部は、i番目の単位構成が前景領域に位置する場合に1であり、i番目の単位構成が前景領域に位置しない場合に0となるyを要素とするyを用いて、上記の式(1)に従って第2類似度を求めることが好ましい。
上記の構成によれば、第2類似度を求める際に上記の式(1)を用いるため、上端用類似度,下端用類似度,左端用類似度および右端用類似度を求める際に求めた(D−αW)−1を援用することができる。その結果、顕著マップを求める際の計算速度を速めることができる。
なお、上記画像処理方法は、コンピュータによって実現してもよく、この場合には、コンピュータに上記各ステップを含む処理を実行させることにより、画像処理方法の各ステップをコンピュータにて実現させる画像処理プログラムおよびそれを記録したコンピュータ読み取り可能な記録媒体も、本発明の範疇に入る。
本発明によれば、事前知識を必要とせずに、1枚の静止画像についても顕著度を精度よく評価できる画像処理装置および画像処理方法を提供することができる。
本発明の一実施形態に係る画像処理装置の概略的構成の一例を示す機能ブロック図である。 図1に示す画像処理装置における顕著マップ生成処理の流れを示すフローチャートである。 スーパーピクセル画像の一例を示す図である。 図1に示す画像処理装置の類似マップ生成部により生成された上端用類似マップ,下端用類似マップ,左端用類似マップ,右端用類似マップの一例を示す図である。 図1に示す画像処理装置の類似マップ生成部により生成された統合類似マップと、前景領域特定部により特定された前景領域との一例を示す図である。 図1に示す画像処理装置の類似マップ生成部により生成された統合類似マップと、前景領域特定部により特定された前景領域との他の例を示す図である。 図1に示す画像処理装置の顕著マップ生成部により生成された顕著マップの一例を示す図である。 図1に示す画像処理装置により生成された顕著マップと、従来のアルゴリズムにより生成された顕著マップとの比較を示す図である。 図1に示す画像処理装置により生成された顕著マップと従来のアルゴリズムにより生成された顕著マップとの適合率−再現率カーブの比較を示す図である。 図9に示す適合率−再現率カーブにおいてF値が最大値となるときの適合率,再現率およびF値を示す図である。 図1に示す画像処理装置により顕著マップを求めるときの計算速度と従来のアルゴリズムにより顕著マップを求めるときの計算速度との比較を示す図である。
画像において顕著度が相対的に高い領域である顕著領域を検出するアルゴリズムは、様々な仮説を基に構築されている。例えば、従来のアルゴリズムでは、顕著領域を含む局所領域の中で顕著領域のコントラストが高いという仮説や、画像の中心部に近いほど顕著度が高いという仮説に基づいて構築されている。しかしながら、前者の仮説に基づくアルゴリズムでは、局所領域を特定することが難しいという問題がある。また、後者の仮説は、全ての画像についてあてはまるものではない。そこで、本発明者らは、画像における背景領域が画像の端部に存在しているという、従来用いられなかった新たな仮説に着目し、本発明を行うに至った。
(画像処理装置1の構成)
以下に、本発明の一実施形態に係る画像処理装置1の構成について、図1は、本実施形態の画像処理装置の構成を示すブロック図である。図1に示す画像処理装置は、入力画像を取得し、取得した入力画像の各画素における顕著度を示す顕著マップを出力する。なお、本実施形態において入力画像は静止画像であるとして説明するが、動画像であってもよい。
図1に示すように、画像処理装置1は、画像取得部11、制御部12、出力部13、および記憶部14を備えている。
画像取得部11は、外部からカラーの入力画像を取得するものである。画像取得部11は、例示的には、ユーザの入力操作に応じて、画像処理装置1に接続されるデジタルカメラ、あるいはデジタルビデオカメラ等の撮像装置から、リアルタイムで(同期をとって)、または、非同期で、入力画像を取得する。
しかしながら、入力画像の供給元は、特に限定されない。例えば、画像取得部11は、記憶部14に格納されている画像データを入力画像として取得してもよいし、画像処理装置1に接続される周辺機器から入力画像を取得してもよいし、有線または無線の通信ネットワークを介して入力画像を取得してもよい。
制御部12は、画像処理装置1における各種機能を統括的に制御するものである。制御部12の制御機能は、制御プログラムをCPU(Central Processing Unit)などの処理装置が実行することによって実現される。例えば、制御部12は、画像取得部11から入力される入力画像に対する各種処理を実行するための機能および構成を備えている。なお、制御部12の詳細な機能および構成については後述する。
出力部13は、制御部12による入力画像の処理結果を外部に対して出力するものである。例えば、出力部13は、各種の画像アプリケーションに上記処理結果を出力してもよい。本実施形態の出力部13は、画像取得部11が取得した入力画像に対して制御部12により生成された顕著マップを出力する。
記憶部14は、各種データおよびプログラムを記憶するものである。記憶部14は、例えば、ROM(Read Only Memory)、RAM(Random Access Memory)、および不揮発性メモリ(例えばフラッシュメモリ)等の記憶装置を組み合わせることにより実現することができる。
記憶部14には、例えば、制御部12において実行されるプログラムや、当該プログラムにおいて処理される各種データ等が格納される。
(制御部12)
次に、制御部12の各部について説明する。図1に示すように、制御部12は、SP画像生成部121、類似マップ生成部122、前景領域特定部123、および顕著マップ生成部124を備える。
SP画像生成部121は、画像取得部11から取得される入力画像を元画像として、画素を単位構成とする元画像から、スーパーピクセル(SP)を単位構成とするスーパーピクセル画像(SP画像)を生成するものである。すなわち、SP画像生成部121は、入力画像を複数のスーパーピクセルに分割する分割処理部として機能する。
ここで、スーパーピクセルとは、画像において、色または輝度などの各種パラメータの値が互いに類似している連接した複数の画素からなる小領域である。画素を単位構成とする元画像から作成されたスーパーピクセルを単位構成とする画像を、元画像と区別するために、スーパーピクセル画像と呼ぶ。
元画像の替わりに、スーパーピクセル画像を用いた画像処理を行うことによって、処理のデータ量を大幅に削減したり、上記各種パラメータ(輝度、色など)のノイズを抑制したりすることができる。
スーパーピクセル画像の生成アルゴリズムとして、複数の生成アルゴリズムが知られており、例えば、http://www2.cs.sfu.ca/~mori/research/superpixels/ に記載されている公知の方法を用いればよい。いずれの生成アルゴリズムにおいても、使用されるパラメータに依存して、生成されるスーパーピクセル画像に含まれるスーパーピクセルの総数が異なるものとなる。
SP画像生成部121は、入力画像をn個のスーパーピクセル(小領域)に分割したとき、当該n個のスーパーピクセルの各々に対して1〜nの異なる番号を付与し、各スーパーピクセルを区別する。
類似マップ生成部122は、スーパーピクセル画像の単位構成となる各スーパーピクセルについて、画像の端部に存在するスーパーピクセルとの類似度(第1類似度)を示す類似マップを算出する。画像の端部とは、矩形状の画像の上端部、下端部、左端部、右端部である。そして、端部に存在するスーパーピクセルとは、入力画像の端に位置する画素を含むスーパーピクセルである。類似マップ生成部122は、上端部,下端部,左端部,右端部の各々に対する類似マップである、上端用類似マップ,下端用類似マップ,左端用類似マップ,右端用類似マップを算出する。すなわち、上端用類似マップは、スーパーピクセルごとに上端部のスーパーピクセルとの類似度(上端用類似度)を示すマップである。同様に、下端用類似マップは、スーパーピクセルごとに下端部のスーパーピクセルとの類似度(下端用類似度)を示すマップである。左端用類似マップは、スーパーピクセルごとに左端部のスーパーピクセルとの類似度(左端用類似度)を示すマップである。右端用類似マップは、スーパーピクセルごとに右端部のスーパーピクセルとの類似度(右端用類似度)を示すマップである。
類似マップの算出方法は特に限定されるものではないが、本実施形態の類似マップ生成部122は、多様体ランキング法(Manifold Ranking法)を用いて類似マップを算出する。多様体ランキング法(Manifold Ranking法)は、D. Zhou, J. Weston, A. Gretton, O. Bousquet, and B.Scholkopf, “Ranking on data manifolds,” Advances in Neural Information Processing Systems, vol.16, pp.169-176,2004. や、J. He, M. Li, H.J. Zhang, H. Tong, and C. Zhang, “Manifold-ranking based image retrieval, ”Proc. of ACM International Conference Multimedia, pp.9-16, 2004.に記載されている公知の手法であり、Web検索における関連度を求める際にも用いられている手法である。
具体的には、類似マップ生成部122は、
=(D−αW)−1y ・・・ 式(1)
に従って、類似マップを算出する。SP画像生成部121がn個のスーパーピクセルからなるスーパーピクセル画像を生成した場合、類似マップ生成部122は、n個のスーパーピクセルの各々についての類似度を示す類似マップを算出する。以下、nはスーパーピクセルの個数を示す。
式(1)において、Wは、n行×n列の類似度行列(affinity matrix)である。Wのi行j列の要素wijは以下の式で示される。
なお、cはi番目のスーパーピクセルの特徴量を示しており、cはj番目のスーパーピクセルの特徴量を示しており、σは特徴量の類似度の分散を示している。そして、wijは、i番目のスーパーピクセルとj番目のスーパーピクセルとの類似度を示している。
特徴量としては、輝度値、色度、色空間を構成する各色成分の濃度値など様々なパラメータを用いることができる。また、i番目のスーパーピクセルの特徴量cは、i番目のスーパーピクセルに属する画素の特徴量の代表値(例えば平均値など)であってもよいし、i番目のスーパーピクセルに属する画素の特徴量の集合であってもよい。i番目のスーパーピクセルに属する複数の画素の特徴量の集合を用いる場合、i番目のスーパーピクセルに属する画素の各々について、当該画素の特徴量とj番目のスーパーピクセルに属する各画素の特徴量との差(距離)を求め、それら差から求められる演算値(例えば平均値など)を式(2)の(c−cとして算出すればよい。
Dは、ディグリーマトリクス(degree matrix)と呼ばれ、n行×n列の対角行列であり、D=diag(d11,・・・,dnn)で示される。Dの対角要素diiは以下の式で示される。
yは、インディケータ行列(indicator matrix)であり、y=[y,・・・,yで示される。ここで、yは、i番目のスーパーピクセルがスーパーピクセル画像の比較対象となる端部に位置するとき1であり、i番目のスーパーピクセルがスーパーピクセル画像の比較対象となる端部に位置しないとき0である。すなわち、上端部との類似度を示す上端用類似マップを算出する場合、上端部に位置するスーパーピクセルに対応するyのみが1に設定され、下端部との類似度を示す下端用類似マップを算出する場合、下端部に位置するスーパーピクセルに対応するyのみが1に設定され、左端部との類似度を示す左端用類似マップを算出する場合、左端部に位置するスーパーピクセルに対応するyのみが1に設定され、右端部との類似度を示す右端用類似マップを算出する場合、右端部に位置するスーパーピクセルに対応するyのみが1に設定される。
αは所定の定数(パラメータ、経験値)である。
式(1)において、f=[f ,・・・,f であり、端部領域との類似度を示すベクトルである。ここで、f はi番目のスーパーピクセルと端部領域との類似度を示す。
類似マップ生成部122は、上端部に位置するスーパーピクセルに対応するyのみが1に設定されたyを用いて式(1)を計算し、得られたfを上端用類似マップとする。同様にして、類似マップ生成部122は、yを適宜変更することで、下端用類似マップ、左端用類似マップ、右端用類似マップを算出する。
そして、類似マップ生成部122は、このようにして算出された4つの類似マップ(上端用類似マップ、下端用類似マップ、左端用類似マップ、右端用類似マップ)を掛け合わせ、統合類似マップを算出する。すなわち、i番目のスーパーピクセルに対応する4つの類似度を乗算することで、i番目のスーパーピクセルに対応する統合類似度を算出する。統合類似マップは、各スーパーピクセルと画像の全端部との類似度を示すマップとなる。
前景領域特定部123は、類似マップ生成部122が算出した統合類似マップを二値化することで前景領域を特定する。具体的には、前景領域特定部123は、画像における背景領域が画像の端部に存在しているという仮説に基づいて、判定閾値よりも非類似であることを示す類似度を有するスーパーピクセルの領域を前景領域であると特定する。ここで、判定閾値は、予め設定されていてもよいし、入力画像に応じて統合類似マップから設定されてもよい。例えば、前景領域特定部は、統合類似マップで示される類似度の平均値、最大値と最小値との中間値などを判定閾値として設定してもよい。
顕著マップ生成部124は、入力画像に対する顕著マップを生成する。顕著マップ生成部124は、各スーパーピクセルについて、前景領域特定部123により特定された前景領域との類似度(第2類似度)を示す前景類似マップを顕著マップとして生成する。顕著マップ生成部124は、前景領域特定部123により前景領域として特定されたスーパーピクセルに対応するyのみを1に設定し、それ以外のyを0に設定したy=[y,・・・,yを用いて、上記の式(1)に従って前景類似マップを求め、当該前景類似マップを顕著マップとして出力部13に送る。
(顕著マップ生成処理の流れ)
次に、画像処理装置1の制御部12によって実行される顕著マップ生成処理の流れについて、図2を用いて説明する。図2は制御部12によって実行される顕著マップ生成処理の流れを示すフローチャートである。
まず、画像取得部11は、顕著マップの生成対象となる入力画像を取得し、取得した入力画像を制御部12に送る(S1)。次に、SP画像生成部121は、入力画像を複数(n個)のスーパーピクセルに分割し、スーパーピクセル画像を生成する(S2)。図3は、S2の処理により生成されたスーパーピクセル画像の一例を示す図である。このとき、SP画像生成部121は、各スーパーピクセルを区別するために、1〜nの異なる番号をスーパーピクセルに付与する。
続いて、類似マップ生成部122は、上記の式(1)に従って、各スーパーピクセルについて、画像の上端部に位置するスーパーピクセルとの類似度を示す上端用類似マップを生成する(S3)。同様に、類似マップ生成部122は、下端用類似マップ,左端用類似マップ,右端用類似マップを生成する(S4〜S6)。
図4は、スーパーピクセル画像から生成された上端用類似マップ,下端用類似マップ,左端用類似マップ,右端用類似マップの一例を示す。なお、図4の各類似マップは、端部との類似度が高いほど濃度が濃くなる(黒に近づく)ように示されている。そのため、各類似マップにおいて、黒に近い濃度を示す領域が背景領域である確率が高く、白に近い濃度を示す領域が前景領域である確率が高くなる。
次に、類似マップ生成部122は、S3〜S6で生成した4つの類似マップを掛け合わせて統合類似マップを生成する(S7)。そして、前景領域特定部123は、統合類似マップに対して判定閾値を適用することで、判定閾値よりも類似度が低い領域を前景領域として特定する(S8)。
図5および図6は、類似マップ生成部122により求められた統合類似マップおよび前景領域特定部123により特定された前景領域の一例を示している。図5および図6に示されるように、4つの類似マップを掛け合わせることで、画像の端部(枠)全体との類似度を認識することができる。なお、図5および図6の統合類似マップでは、類似度が高いほど濃度が濃くなり(黒に近づく)、類似度が低いほど濃度が薄くなる(白に近づく)ように示されている。そのため、判定閾値よりも類似度が低い領域(図において白い領域)が前景領域として特定される。
特に、図6に示されるように、入力画像における注目物体(図6ではサッカーボール)の一部が端部に重なっていたとしても、重なっている部分の端部全体における割合が相対的に小さい場合、当該注目物体を前景領域として特定することができる。すなわち、下端用類似マップや右端用類似マップで示されるように、比較対象となる端部が注目物体の一部と重なっているため、比較対象の端部と注目物体との類似度が高くなる。しかしながら、上端用類似マップおよび左端用類似マップでは注目物体と比較対象となる端部とが類似していないため、4つの類似マップを掛け合わせて生成された統合類似マップを用いることで注目物体を前景領域として特定することができる。
そして、顕著マップ生成部124は、各スーパーピクセルについて、S8で特定された前景領域との類似度を示す前景類似マップを式(1)に従って生成し、当該前景類似マップを顕著マップとして出力部に出力する(S9)。
図7は、顕著マップ生成部124により生成された顕著マップの一例を示す図である。図7の顕著マップは、顕著度が高いほど白くなる。図7に示されるように、人間が注目すると予想される画像領域の顕著度が高くなっていることが確認できる。
(本実施形態により生成された顕著マップの精度)
本実施形態の画像処理装置1における顕著マップの生成アルゴリズムを評価するため、ある画像に関し、画像処理装置1による出力された顕著マップと従来のアルゴリズムにより生成された顕著マップとを比較した。
図8は、本実施形態の画像処理装置1により生成された顕著マップと、従来のアルゴリズムにより生成された顕著マップとの比較を示す図である。図8において、左端列は入力画像を示しており、左から2列目は真顕著領域を含む真画像を示している。真顕著領域は、入力画像から複数の人により選択された顕著領域の平均を示すものである。よって、真画像に近い顕著マップを示すアルゴリズムが精度の高いアルゴリズムであるといえる。
そして、図8の左から3番目の列が本実施形態の画像処理装置1により生成された顕著マップを示し、4番目以降の列が従来のアルゴリズムにより生成された顕著マップを示している。図8に示されるように、本実施形態の画像処理装置1により生成された顕著マップが最も真画像に近く、顕著マップを生成するアルゴリズムの精度が高いことが確認できた。
また、ある画像に関し、本実施形態の画像処理装置1による出力された顕著マップと従来のアルゴリズムにより生成された顕著マップとの適合率−再現率(Precision-Recall:PR)カーブを計算し、比較した。
適合率−再現率カーブとは、顕著マップを生成するアルゴリズムの精度を示す指標となるものであり、顕著マップに対して異なる顕著領域検出用閾値を設定したときの顕著領域の適合率(Precision)および再現率(Recall)の関係を示すものである。なお、顕著マップにおいて顕著領域検出用閾値よりも顕著度が高い領域が顕著領域として抽出される。また、適合率および再現率を求めるために、図8の左から2番目に示したような真顕著領域を含む真画像が予め準備される。ここで、画像から検出された顕著領域である評価対象顕著領域をA、真顕著領域をB、評価対象顕著領域Aと真顕著領域とが重なり合う領域をCとするとき、適合率はC/A、再現率はC/Bで示される。つまり、適合率は、画像から検出された評価対象顕著領域に含まれる真顕著領域Bの割合である。また、再現率は、真顕著領域Bに含まれる評価対象顕著領域の割合である。入力画像から生成された顕著マップに対して、当該顕著マップで示される顕著度の最大値から最小値まで顕著領域検出用閾値を変化させたときの適合率と再現率との関係をプロットすることで、適合率−再現率カーブを作成することができる。
図9は、本実施形態の画像処理装置1により生成された顕著マップ(図中、実施例を記載)と従来のアルゴリズムにより生成された顕著マップとの適合率−再現率カーブの比較を示す図である。また、図10は、各アルゴリズムにおける、適合率−再現率カーブにおいてF値(=2×適合率×再現率/(適合率+再現率))が最大値となるときの適合率,再現率およびF値を示す図である。
図9に示す適合率−再現率カーブのグラフを見ると、本実施形態の画像処理装置1により生成された顕著マップにおける適合率は、他のアルゴリズムで生成された顕著マップよりも高くなっていることがわかる。また、F値の最大値も、本実施形態の方が他のアルゴリズムよりも高くなっている。このことから、本実施形態の画像処理装置1による顕著マップの生成アルゴリズムの精度が従来よりも高いことがわかる。
なお、図8、図9、図10中の従来のアルゴリズムを示す記号は、それぞれ下記に示す文献に従ったアルゴリズムを示すものである。
〔CB〕 H. Jiang, J. Wang, Z. Yuan, T. Liu, N. Zheng, and S. Li,“Automatic salient object segmentation based on context and shape prior,” in British Machine Vision Conference, 2011, pp. 1-12.
〔GS_SP〕 Y. C. Wei, F. Wen, W. J. Zhu, and J. Sun. Geodesic saliency using background priors.
〔SF〕 F. Perazzi, P. Krahenbuhl, Y. Pritch, and A. Hornung. Saliency filters:Contrast based filtering for salient region detection. In CVPR, 2012.
〔SVO〕 K.-Y. Chang, T.-L. Liu, H.-T. Chen, and S.-H. Lai. Fusing generic
objectness and visual saliency for salient object detection. In ICCV,2011.
〔RC〕 Ming-Ming Cheng, Guo-Xin Zhang, Niloy J. Mitra, Xiaolei Huang, and Shi-Min Hu. “Global contrast based salient region detection. ” In IEEE CVPR, pages 409-416, 2011.
〔CA〕 S. Goferman, L. Zelnik-Manor, and A. Tal, “Context-aware saliency detection,” in IEEE CVPR, 2010, pp. 2376-2383.
〔FT〕 R. Achanta, S. Hemami, F. Estrada, and S. Susstrunk,“Frequency-tuned salient region detection,” in IEEE CVPR, 2009, pp. 1597-1604.
〔IT〕 L. Itti, C. Koch, and E. Niebur, “A model of saliency-based visual attention for rapid scene analysis,” IEEE TPAMI, vol. 20, no. 11, pp. 1254-1259, 1998.
〔LC〕 Y. Zhai and M. Shah, “Visual attention detection in video sequences using spatiotemporal cues,” in ACM Multimedia, 2006, pp. 815-824.
〔AC〕 R. Achanta, F. Estrada, P. Wils, and S. S ¨ usstrunk, “Salient region detection and segmentation,” in IEEE ICVS, 2008, pp. 66-75.
〔GB〕 J. Harel, C. Koch, and P. Perona, “Graph-based visual saliency,” in NIPS, 2007, pp. 545-552.
〔SR〕 X. Hou and L. Zhang, “Saliency detection: A spectral residual approach,” in IEEE CVPR, 2007, pp. 1-8.
〔MZ〕 Y. Ma and H. Zhang. Contrast-based image attention analysis by
using fuzzy growing. ACM Multimedia, 2003.
(本実施形態の処理速度)
本実施形態の画像処理装置1は、上述したように、上端用類似マップ、下端用類似マップ、左端用類似マップ、右端用類似マップ、前景類似マップの5つの類似マップを算出する。ただし、上述したように、これらの類似マップは、多様体ランキング法(Manifold Ranking法)を用いた上記の式(1)に従って算出される。各類似マップの算出過程においてはyのみが異なり、行列(D−αW)−1は共通している。そのため、最初の上端用類似マップの算出の際に行列(D−αW)−1を求めれば、他の4つの類似マップの算出の際に行列(D−αW)−1を改めて計算する必要がなく、援用すればよい。これにより、計算速度が向上する。
また、本実施形態では、上述したように、SP画像生成部121が入力画像からスーパーピクセル画像(SP画像)を生成し、その後の処理はスーパーピクセルを単位構成として行われる。そのため、計算速度が向上する。
そこで、本実施形態の画像処理装置1で用いるアルゴリズムと従来のアルゴリズムとで計算速度の比較を行った。図11は、ある画像について顕著マップを算出するときの計算速度の結果を示す図である。図11に示されるように、本実施形態の画像処理装置1における計算速度は、同じプログラミング言語を用いて実行された従来のアルゴリズムと比べて格段に速いことが確認できた。また、プログラム言語Matlabを用いたときは、プログラム言語C++を用いたときよりも一般的に4〜5倍程度計算速度が遅くなる。そのため、従来のアルゴリズムRCと比較しても、計算速度の向上が期待できる。
(変形例)
上記の説明では、類似マップ生成部122および顕著マップ生成部124は、SP画像生成部121により生成されたスーパーピクセル画像を基に、スーパーピクセルごとに類似マップおよび顕著マップを生成した。しかしながら、画像処理装置1がSP画像生成部121を備えておらず、類似マップ生成部122および顕著マップ生成部124は、画像取得部11が取得した入力画像について、画素ごとに類似マップおよび顕著マップを生成してもよい。この場合、類似マップ生成部122は、画素ごとに、入力画像の端部に位置する画素との類似度を示す類似マップを生成すればよい。
(まとめ)
以上のように、本実施形態に係る画像処理装置1は、画像における画素または連結された複数の画素からなるスーパーピクセルを単位構成とし、(a)単位構成の各々について、画像における端部領域に位置する単位構成との類似度を示す類似マップを生成する類似マップ生成部(類似度算出部)122と、(b)類似マップ生成部122により算出された類似マップにおいて類似度が所定閾値よりも非類似であることを示す単位構成の領域を前景領域として特定する前景領域特定部123と、(c)各単位構成について、前景領域特定部123により特定された前景領域との類似度を示す前景類似マップを求め、当該前景類似マップを顕著マップとして出力する顕著マップ生成部(顕著度出力部)124とを備える。
上記の構成によれば、画像における端部領域に位置する単位構成との類似度が判定閾値より非類似であることを示す単位構成の領域が前景領域として特定されるので、画像において人間が注目すべき注目物体が前景領域として特定される確率が高くなる。
そして、画像の各単位構成について、特定された前景領域との類似度が顕著度として求められる。画像において人間が注目すべき注目物体が前景領域として特定されるため、前景領域との類似度は、単位構成における顕著度を示すこととなる。
よって、1枚の静止画像であっても、事前知識を必要とせずに、顕著度を精度よく評価できる画像処理装置および画像処理方法を実現することができる。
(ソフトウェアによる実現例)
最後に、画像処理装置1の各ブロックは、集積回路(ICチップ)上に形成された論理回路によってハードウェア的に実現してもよいし、CPU(Central Processing Unit)を用いてソフトウェア的に実現してもよい。
後者の場合、画像処理装置1は、各機能を実現するプログラムの命令を実行するCPU、上記プログラムを格納したROM(Read Only Memory)、上記プログラムを展開するRAM(Random Access Memory)、上記プログラムおよび各種データを格納するメモリ等の記憶装置(記録媒体)などを備えている。そして、本発明の目的は、上述した機能を実現するソフトウェアである画像処理装置1の制御プログラムのプログラムコード(実行形式プログラム、中間コードプログラム、ソースプログラム)をコンピュータで読み取り可能に記録した記録媒体を、上記画像処理装置1に供給し、そのコンピュータ(またはCPUやMPU)が記録媒体に記録されているプログラムコードを読み出し実行することによっても、達成可能である。
上記記録媒体としては、一時的でない有形の媒体(non-transitory tangible medium)、例えば、磁気テープやカセットテープ等のテープ類、フロッピー(登録商標)ディスク/ハードディスク等の磁気ディスクやCD−ROM/MO/MD/DVD/CD−R等の光ディスクを含むディスク類、ICカード(メモリカードを含む)/光カード等のカード類、マスクROM/EPROM/EEPROM(登録商標)/フラッシュROM等の半導体メモリ類、あるいはPLD(Programmable logic device)やFPGA(Field Programmable Gate Array)等の論理回路類などを用いることができる。
また、画像処理装置1を通信ネットワークと接続可能に構成し、上記プログラムコードを通信ネットワークを介して供給してもよい。この通信ネットワークは、プログラムコードを伝送可能であればよく、特に限定されない。例えば、インターネット、イントラネット、エキストラネット、LAN、ISDN、VAN、CATV通信網、仮想専用網(Virtual Private Network)、電話回線網、移動体通信網、衛星通信網等が利用可能である。
また、この通信ネットワークを構成する伝送媒体も、プログラムコードを伝送可能な媒体であればよく、特定の構成または種類のものに限定されない。例えば、IEEE1394、USB、電力線搬送、ケーブルTV回線、電話線、ADSL(Asymmetric Digital Subscriber Line)回線等の有線でも、IrDAやリモコンのような赤外線、Bluetooth(登録商標)、IEEE802.11無線、HDR(High Data Rate)、NFC(Near Field Communication)、DLNA(登録商標)(Digital Living Network Alliance)、携帯電話網、衛星回線、地上波デジタル網等の無線でも利用可能である。なお、本発明は、上記プログラムコードが電子的な伝送で具現化された、搬送波に埋め込まれたコンピュータデータ信号の形態でも実現され得る。
本発明は上述した実施形態に限定されるものではなく、請求項に示した範囲で種々の変更が可能であり、実施形態中に開示された技術的手段を適宜組み合わせて得られる実施形態についても、本発明の技術的範囲に含まれる。
本発明は、画像から顕著領域を検出する画像処理装置等に利用することができる。
1 画像処理装置
13 出力部(顕著度出力部)
121 SP画像生成部(分割処理部)
122 類似マップ生成部(類似度算出部)
123 前景領域特定部
124 顕著マップ生成部(顕著度出力部)

Claims (8)

  1. 画像における画素または連結された複数の画素からなる領域を単位構成とし、上記単位構成の各々について、画像における端部領域に位置する単位構成との第1類似度を求める類似度算出部と、
    上記類似度算出部により算出された第1類似度が所定閾値よりも非類似であることを示す単位構成の領域を前景領域として特定する前景領域特定部と、
    上記画像の各単位構成について、前景領域特定部により特定された前景領域との第2類似度を求め、当該第2類似度を当該単位構成の顕著度として出力する顕著度出力部とを備えることを特徴とする画像処理装置。
  2. 上記画像を、輝度値および/または色度が類似する互いに隣接した画素からなる画素小領域に分割し、当該画素小領域を上記単位構成とする分割処理部を備えることを特徴とする請求項1に記載の画像処理装置。
  3. 上記類似度算出部は、上記単位構成の各々について、矩形状の上記画像の上端部領域に位置する単位構成との類似度である上端用類似度と、上記画像の下端部領域に位置する単位構成との類似度である下端用類似度と、上記画像の左端部領域に位置する単位構成との類似度である左端用類似度と、上記画像の右端部領域に位置する単位構成との類似度である右端用類似度とを求め、上端用類似度,下端用類似度,左端用類似度および右端用類似度を掛け合わせることで上記第1類似度を求めることを特徴とする請求項1または2に記載の画像処理装置。
  4. 上記類似度算出部は、以下の式(1)を用いて、上端用類似度,下端用類似度,左端用類似度および右端用類似度を求めることを特徴とする請求項3に記載の画像処理装置。
    =(D−αW)−1y ・・・ 式(1)
    (なお、fは、[f ,・・・,f ] で示され、上端用類似度,下端用類似度,左端用類似度および右端用類似度を示すベクトルである。ここで、f はi番目の単位構成と端部領域に位置する単位構成との類似度を示す。なお、nは画像における単位構成の数である。
    Wはn行×n列の行列であり、i行j列の要素wijは以下の式で示される。
    なお、cは、i番目の単位構成の特徴量を示し、cはj番目の単位構成の特徴量を示す。
    Dはn行×n列の対角行列であり、D=diag(d11,・・・,dnn)で示される。なお、diiは以下の式で示される。
    yは、[y,・・・,y で示され、yは、i番目の単位構成が比較対象となる端部領域に位置する場合に1であり、i番目の単位構成が比較対象となる端部領域に位置しない場合に0である。
    αは所定の定数である。)
  5. 上記顕著度出力部は、i番目の単位構成が前景領域に位置する場合に1であり、i番目の単位構成が前景領域に位置しない場合に0となるyを要素とするyを用いて、上記の式(1)に従って第2類似度を求めることを特徴とする請求項4に記載の画像処理装置。
  6. 画像における画素または連結された複数の画素からなる領域を単位構成とし、上記単位構成の各々について、画像における端部領域に位置する単位構成との第1類似度を求める類似度算出ステップと、
    上記第1類似度が所定閾値よりも非類似であることを示す単位構成の領域を前景領域として特定する前景領域特定ステップと、
    上記画像の各単位構成について、上記前景領域との第2類似度を求め、当該第2類似度を当該単位構成の顕著度として出力する顕著度出力ステップとを含むことを特徴とする画像処理方法。
  7. 画像における画素または連結された複数の画素からなる領域を単位構成とし、上記単位構成の各々について、画像における端部領域に位置する単位構成との第1類似度を求める類似度算出ステップと、
    上記第1類似度が所定閾値よりも非類似であることを示す単位構成の領域を前景領域として特定する前景領域特定ステップと、
    上記画像の各単位構成について、上記前景領域との第2類似度を求め、当該第2類似度を当該単位構成の顕著度として出力する顕著度出力ステップとをコンピュータにより実施するよう制御するプログラム。
  8. 請求項7に記載のプログラムを記録したコンピュータ読み取り可能な記録媒体。
JP2013094757A 2013-04-26 2013-04-26 画像処理装置、画像処理方法、プログラムおよび記録媒体 Active JP6135283B2 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP2013094757A JP6135283B2 (ja) 2013-04-26 2013-04-26 画像処理装置、画像処理方法、プログラムおよび記録媒体
EP14154825.5A EP2797051B1 (en) 2013-04-26 2014-02-12 Image processing device, image processing method, program, and recording medium
US14/191,834 US9189861B2 (en) 2013-04-26 2014-02-27 Image processing device, image processing method, program, and recording medium
CN201410074536.8A CN104123717B (zh) 2013-04-26 2014-03-03 图像处理装置、图像处理方法、程序以及记录介质

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2013094757A JP6135283B2 (ja) 2013-04-26 2013-04-26 画像処理装置、画像処理方法、プログラムおよび記録媒体

Publications (2)

Publication Number Publication Date
JP2014215926A true JP2014215926A (ja) 2014-11-17
JP6135283B2 JP6135283B2 (ja) 2017-05-31

Family

ID=50112738

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013094757A Active JP6135283B2 (ja) 2013-04-26 2013-04-26 画像処理装置、画像処理方法、プログラムおよび記録媒体

Country Status (4)

Country Link
US (1) US9189861B2 (ja)
EP (1) EP2797051B1 (ja)
JP (1) JP6135283B2 (ja)
CN (1) CN104123717B (ja)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016162420A (ja) * 2015-03-05 2016-09-05 キヤノン株式会社 注目領域検出装置、注目領域検出方法及びプログラム
JP2017005389A (ja) * 2015-06-05 2017-01-05 キヤノン株式会社 画像認識装置、画像認識方法及びプログラム
KR101785204B1 (ko) 2016-05-10 2017-10-17 한국과학기술원 로우 레벨 차이 맵과 하이 레벨 피처를 이용하는 핵심 영역 검출 방법 및 시스템

Families Citing this family (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102161212B1 (ko) * 2013-11-25 2020-09-29 한화테크윈 주식회사 움직임 검출 시스템 및 방법
ITUB20153912A1 (it) * 2015-09-25 2017-03-25 Sisvel Tech S R L Metodi e apparati per codificare e decodificare immagini digitali mediante superpixel
CN106056590B (zh) * 2016-05-26 2019-02-22 重庆大学 基于Manifold Ranking和结合前景背景特征的显著性检测方法
CN106127785B (zh) * 2016-06-30 2019-02-22 重庆大学 基于流形排序和随机游走的图像显著性检测方法
CN107316037B (zh) * 2017-03-27 2020-11-13 南京晓庄学院 一种基于视觉主体检测的果蔬识别预处理方法
CN107169954B (zh) * 2017-04-18 2020-06-19 华南理工大学 一种基于并行卷积神经网络的图像显著性检测方法
CN108009191A (zh) * 2017-09-24 2018-05-08 贵州师范学院 一种图像检索方法
KR20230041851A (ko) * 2021-09-17 2023-03-27 연세대학교 산학협력단 모조 마스크 기반 약지도 시맨틱 분할 장치 및 방법

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007157063A (ja) * 2005-12-08 2007-06-21 Sony Corp 画像処理装置及び画像処理方法、並びにコンピュータ・プログラム
JP2011053759A (ja) * 2009-08-31 2011-03-17 Casio Computer Co Ltd 画像処理装置、画像処理方法及びプログラム
JP2011191430A (ja) * 2010-03-12 2011-09-29 Toyota Infotechnology Center Co Ltd 地図情報配信システム
JP2013041545A (ja) * 2011-08-19 2013-02-28 Nippon Hoso Kyokai <Nhk> 視線位置推定装置及び視線位置推定プログラム

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3848514B2 (ja) 2000-02-23 2006-11-22 富士通株式会社 顕著性算出装置及び方法
JP5235770B2 (ja) 2009-04-27 2013-07-10 日本電信電話株式会社 顕著領域映像生成方法、顕著領域映像生成装置、プログラムおよび記録媒体
CN103049893B (zh) * 2011-10-14 2015-12-16 深圳信息职业技术学院 一种图像融合质量评价的方法及装置
CN103020965B (zh) * 2012-11-29 2016-12-21 奇瑞汽车股份有限公司 一种基于显著性检测的前景分割方法

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007157063A (ja) * 2005-12-08 2007-06-21 Sony Corp 画像処理装置及び画像処理方法、並びにコンピュータ・プログラム
JP2011053759A (ja) * 2009-08-31 2011-03-17 Casio Computer Co Ltd 画像処理装置、画像処理方法及びプログラム
JP2011191430A (ja) * 2010-03-12 2011-09-29 Toyota Infotechnology Center Co Ltd 地図情報配信システム
JP2013041545A (ja) * 2011-08-19 2013-02-28 Nippon Hoso Kyokai <Nhk> 視線位置推定装置及び視線位置推定プログラム

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016162420A (ja) * 2015-03-05 2016-09-05 キヤノン株式会社 注目領域検出装置、注目領域検出方法及びプログラム
US10748023B2 (en) 2015-03-05 2020-08-18 Canon Kabushiki Kaisha Region-of-interest detection apparatus, region-of-interest detection method, and recording medium
JP2017005389A (ja) * 2015-06-05 2017-01-05 キヤノン株式会社 画像認識装置、画像認識方法及びプログラム
KR101785204B1 (ko) 2016-05-10 2017-10-17 한국과학기술원 로우 레벨 차이 맵과 하이 레벨 피처를 이용하는 핵심 영역 검출 방법 및 시스템

Also Published As

Publication number Publication date
US20140321748A1 (en) 2014-10-30
CN104123717A (zh) 2014-10-29
EP2797051B1 (en) 2021-04-07
EP2797051A2 (en) 2014-10-29
JP6135283B2 (ja) 2017-05-31
EP2797051A3 (en) 2015-11-18
US9189861B2 (en) 2015-11-17
CN104123717B (zh) 2017-08-04

Similar Documents

Publication Publication Date Title
JP6135283B2 (ja) 画像処理装置、画像処理方法、プログラムおよび記録媒体
JP7236545B2 (ja) ビデオターゲット追跡方法と装置、コンピュータ装置、プログラム
Wang et al. Detect globally, refine locally: A novel approach to saliency detection
Hu et al. Maskrnn: Instance level video object segmentation
CN104915972B (zh) 图像处理装置、图像处理方法以及程序
JP7266106B2 (ja) 画像座標系の変換方法並びにその、装置、機器およびコンピュータプログラム
US9536321B2 (en) Apparatus and method for foreground object segmentation
US10580143B2 (en) High-fidelity 3D reconstruction using facial features lookup and skeletal poses in voxel models
US20160092726A1 (en) Using gestures to train hand detection in ego-centric video
JP2012243313A (ja) 画像処理方法および画像処理装置
CN110473185A (zh) 图像处理方法和装置、电子设备、计算机可读存储介质
US20150154471A1 (en) Image processing device and method, and computer readable medium
CN107944403B (zh) 一种图像中的行人属性检测方法及装置
CN110176024B (zh) 在视频中对目标进行检测的方法、装置、设备和存储介质
US20190035090A1 (en) Determining multiple camera positions from multiple videos
CN111311475A (zh) 检测模型训练方法、装置、存储介质和计算机设备
CN110276831B (zh) 三维模型的建构方法和装置、设备、计算机可读存储介质
KR101833943B1 (ko) 동영상의 주요 장면을 추출 및 탐색하는 방법 및 시스템
US20140198177A1 (en) Realtime photo retouching of live video
Wu et al. Single-image shadow removal using detail extraction and illumination estimation
Sheth et al. Object saliency using a background prior
CN111292331B (zh) 图像处理的方法与装置
CN115909445A (zh) 人脸图像伪造检测方法及相关设备
RU2718429C1 (ru) Устройство обнаружения локально-стационарных областей на изображении
Xue et al. A video saliency detection method based on spatial and motion information

Legal Events

Date Code Title Description
RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20151023

RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7423

Effective date: 20151028

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20160304

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20160527

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20170223

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20170328

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20170410

R150 Certificate of patent or registration of utility model

Ref document number: 6135283

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250