JP6232982B2 - 画像処理装置、画像処理方法およびプログラム - Google Patents

画像処理装置、画像処理方法およびプログラム Download PDF

Info

Publication number
JP6232982B2
JP6232982B2 JP2013249605A JP2013249605A JP6232982B2 JP 6232982 B2 JP6232982 B2 JP 6232982B2 JP 2013249605 A JP2013249605 A JP 2013249605A JP 2013249605 A JP2013249605 A JP 2013249605A JP 6232982 B2 JP6232982 B2 JP 6232982B2
Authority
JP
Japan
Prior art keywords
similarity
map
image
saliency
superpixel
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2013249605A
Other languages
English (en)
Other versions
JP2015106382A (ja
Inventor
翔 阮
翔 阮
湖川 盧
湖川 盧
立和 張
立和 張
小暉 李
小暉 李
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Omron Corp
Original Assignee
Omron Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Omron Corp filed Critical Omron Corp
Priority to JP2013249605A priority Critical patent/JP6232982B2/ja
Priority to CN201410669439.3A priority patent/CN104680512A/zh
Priority to EP14194331.6A priority patent/EP2879080B1/en
Priority to US14/551,810 priority patent/US9367762B2/en
Priority to KR1020140164186A priority patent/KR101603019B1/ko
Publication of JP2015106382A publication Critical patent/JP2015106382A/ja
Application granted granted Critical
Publication of JP6232982B2 publication Critical patent/JP6232982B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/25Determination of region of interest [ROI] or a volume of interest [VOI]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/22Matching criteria, e.g. proximity measures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/25Fusion techniques
    • G06F18/253Fusion techniques of extracted features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/28Quantising the image, e.g. histogram thresholding for discrimination between background and foreground patterns
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/46Descriptors for shape, contour or point-related descriptors, e.g. scale invariant feature transform [SIFT] or bags of words [BoW]; Salient regional features
    • G06V10/462Salient features, e.g. scale invariant feature transforms [SIFT]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/46Descriptors for shape, contour or point-related descriptors, e.g. scale invariant feature transform [SIFT] or bags of words [BoW]; Salient regional features
    • G06V10/469Contour-based spatial representations, e.g. vector-coding
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/80Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level
    • G06V10/806Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level of extracted features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20212Image combination
    • G06T2207/20221Image fusion; Image merging

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Multimedia (AREA)
  • Data Mining & Analysis (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Computation (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Evolutionary Biology (AREA)
  • General Engineering & Computer Science (AREA)
  • Software Systems (AREA)
  • Medical Informatics (AREA)
  • General Health & Medical Sciences (AREA)
  • Databases & Information Systems (AREA)
  • Computing Systems (AREA)
  • Health & Medical Sciences (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)

Description

本発明は、画像における顕著性マップを生成する技術に関する。
従来、画像処理の分野では、画像において人間が注目すると予想される画像領域、あるいは注目すべき画像領域(これらを顕著領域という)を、その画像から検出(抽出)する技術が知られている。また、このような顕著領域検出の技術を用いて、画像における各画素の顕著度(saliency measure)を算出することにより、その画像の各画素の顕著度を示す顕著性マップを作成することも行われる。
こうした顕著領域検出の技術は、例えば、画像から主要被写体を検出するために使用されている。
さて、上記顕著領域検出のためのアルゴリズムとして、学習ベースのアルゴリズムが存在している。例えば、特許文献1には、学習対象となる複数の画像データに基づいて特徴の種類を事前に学習して決定しておき、決定された特徴の種類と顕著度の算出対象となる対象画像データとに基づいて、当該対象画像データにおける各部の特徴を抽出することが記載されている。この技術によれば、学習効果を人の経験や記憶の度合いと擬制することにより、より人の感覚に近似した顕著度の判断が可能となる。
ところが、上記学習ベースのアルゴリズムでは、対象画像データに対する事前知識として、学習対象となる複数の画像データを予め用意しておく必要がある。そのため、このような事前知識を持っていない場合には顕著度を評価することができない。
一方、特許文献2には、事前知識を必要とせず、映像を構成する各フレーム間の情報を用いて顕著領域を検出する技術が記載されている。
特開2001−236508号公報 特開2010−258914号公報
しかしながら、特許文献2の技術は、事前知識を必要としないが、複数のフレームから構成される動画像のみを対象としており、静止画像に対する顕著度の評価に適用することができない。
本発明は、上記課題を解決するためになされたものであり、学習に基づく事前知識を必要とせずに、1枚の静止画像についても顕著度を精度良く評価できる画像処理技術を提供することを目的とする。
上記目的を達成するために、画像の周縁部には背景領域(顕著領域ではない領域)が存在する、あるいは、画像の周縁部には顕著領域が存在しないことが多いという仮定に基づいて顕著度を算出する。
具体的には、本発明に係る画像処理装置は、画像を取得する画像取得部と、前記画像における1つまたは複数の画素からなる領域を単位構成として、第1のアルゴリズムに基づいて前記領域と前記画像の周縁部の領域との類似度を表す第1の類似度マップを算出し、第2のアルゴリズムに基づいて前記領域と前記画像の周縁部の領域との類似度を表す第2の類似度マップを算出する類似度マップ生成部と、前記第1の類似度マップおよび前記第2の類似度マップを統合して顕著性マップを生成する顕著性マップ生成部と、を備える。
画像の周縁部の領域とは、画像の端部(上下左右端)を含む領域である。このような周縁部領域と類似度の高い領域は、背景である可能性が高く、顕著度合いが低いと判断できる。逆に、上記類似度が低い領域は、前景である可能性が高く、顕著度合いが高いと判断できる。ここで、異なるアルゴリズムによって少なくとも2つの類似度マップを生成しそれらを統合することで、1つの類似度マップに基づいて生成する場合よりも精度の良い顕著性マップを生成することができる。
本発明において、前記類似度マップ生成部は、対象の領域を前記周縁部の領域に基づいて再構成し、再構成誤差が小さいほど類似度が大きいものとして前記第1および第2の類似度マップを生成することができる。周縁部領域に基づいて対象の領域を表現したときに、元の領域を精度良く復元できる場合には、対象の領域は周縁部領域と類似度が高いといえるからである。
本発明において、第1のアルゴリズムと第2のアルゴリズムは、その特徴が異なるものであることが好ましい。例えば、顕著領域以外も類似度が低い(顕著度が高い)と判断する可能性があっても、顕著領域を確実に類似度が低いと判断するアルゴリズムと、顕著領域の類似度を高い(顕著度が低い)と判断する可能性があっても、顕著領域以外は確実に類似度が高いと判断するアルゴリズムを採用することが好ましい。
例えば、第1のアルゴリズムとして主成分分析(PCA)を用いた再構成に基づく方法が挙げられる。具体的には、前記周縁部の領域の特徴量に対して主成分分析を施して複数の固有ベクトルを算出し、対象の領域の特徴量を前記複数の固有ベクトルの線形結合によって再構成し、再構成誤差が小さいほど類似度を大きく算出するアルゴリズムを第1のアルゴリズムとして採用できる。
また、第2のアルゴリズムとしてスパースコーディング(sparse coding)を用いた再
構成に基づく方法が挙げられる。具体的には、対象の領域の特徴量を、できるだけ少ない周縁部の領域の特徴量の組合せで近似するように、コスト関数が最小となる係数を用いて前記周縁部の領域の特徴量の線形結合によって再構成し、再構成誤差が小さいほど類似度を大きく算出するアルゴリズムを第2のアルゴリズムとして採用できる。
本発明において、入力画像に対して前処理としてスーパーピクセル化処理を施すことも好ましい。すなわち、本発明の画像処理装置は、前記画像取得部が取得した画像から、画素の特徴量に基づいて連結された複数の画素からなる領域に分割してスーパーピクセル画像を生成するスーパーピクセル画像生成部を更に有するようにすることができる。この場合、類似度マップ生成部は、前記スーパーピクセル画像生成部によって生成されたスーパーピクセル画像に基づいて、スーパーピクセル単位で前記第1および第2の類似度マップを生成すればよい。
このように特徴量が類似する隣接する領域を一つの画素(スーパーピクセル)として扱うことで、データ量の削減による高速化および省メモリ化の効果と、ノイズの影響を抑制できるという効果が得られる。
スーパーピクセル化の処理においては、スーパーピクセルのサイズ、すなわち、画像をいくつのスーパーピクセルに分割するかを調整するパラメータがある。本発明において、スーパーピクセル数が異なる複数のスーパーピクセル画像を生成して、複数のスーパーピクセル画像から類似度マップを生成してもよい。類似度マップの生成では、複数のスーパーピクセル画像のそれぞれから第1のアルゴリズムに基づいて類似度マップを生成し、これら複数の類似度マップを統合して前記第1の類似度マップを生成すればよい。同様に、複数のスーパーピクセル画像のそれぞれから第2のアルゴリズムに基づいて類似度マップを生成し、これら複数の類似度マップを統合して前記第2の類似度マップを生成すればよい。
このように、複数のスーパーピクセル画像のそれぞれから類似度マップを生成し、それらを統合することで、ノイズの影響を抑制でき、より精度の良い類似度マップを生成することが可能となる。
本発明において、複数のスーパーピクセル画像のそれぞれから得られる類似度マップに対して、平滑化処理を施すことも好ましい。この際、平滑化処理として、類似度マップ算出の元になったスーパーピクセル画像をクラスタリング(グルーピング)して、各クラスタ内で再構成誤差を拡散する処理を採用することも好ましい。入力画像の周縁部に顕著物体が存在する場合は、周縁部との類似度が高くても背景であるとは限らない。上述のようなクラスタ内での平滑化処理を施すことで、クラスタ内の他の領域における類似度を取り込むことができるので、顕著物体が周縁部に存在する場合であっても顕著領域を精度よく検出できる。
本発明において、複数のスーパーピクセル画像から生成された類似度マップから第1および第2の類似度マップを生成する場合は、入力画像中の画素における特徴量と、当該画素に対応するスーパーピクセルの特徴量との類似度に基づいた重み付け平均を施すことが好ましい。すなわち、前記類似度マップ生成部は、前記複数のスーパーピクセル画像から前記第1および第2のアルゴリズムに基づいて生成された複数の類似度マップを重み付け平均して前記第1および第2の類似度マップを生成するものであり、前記重み付け平均における重みは、前記画像取得部が取得した画像における画素の特徴量と当該画素が属するスーパーピクセルの特徴量とが近いほど大きい重みとする、ことが好ましい。
このような手法により、スーパーピクセル単位で求められた類似度マップから、画素単位での類似度マップを精度良く求めることができる。
本発明において、前記類似度マップ生成部は、算出された類似度に対して、前記画像において検出された物体の位置を中心とする重み付けをして前記第1および第2の類似度マップを生成する、ことも好ましい。なお、物体位置は、類似度マップにおける類似度の小さい領域として求めることができる。
このように、画像の中心に対して大きい重みをつけるのではなく、物体の中心ほど大きい重みをつけることで、物体の中心を反映させた類似度マップの改善が行える。
本発明において、前記顕著性マップ生成部は、前記第1の類似度マップを事前確率として用い、前記第1の類似度マップと前記第2の類似度マップとから尤度を算出し、当該事前確率と尤度から顕著領域の事後確率を表す第1の顕著性マップを算出し、前記第2の類似度マップを事前確率として用い、前記第2の類似度マップと前記第1の類似度マップとから尤度を算出し、当該事前確率と尤度から顕著領域の事後確率を表す第2の顕著性マップを算出し、前記第1の顕著性マップと前記第2の顕著性マップを統合して、最終的な顕著性マップを生成する、ことが好ましい。
このように、第1の類似度マップと第2の類似度マップを互いに事前確率としてそれぞれ顕著度(前景の確率)の事後確率を求めることで、それぞれの類似度マップから多様な情報を統合した顕著性マップが得られる。また、本手法によれば、顕著物体内での顕著度をより一様にすることができる。
なお、本発明は、上記構成の少なくとも一部を有する画像処理装置として捉えることができる。また、本発明は、上記処理の少なくとも一部を含む画像処理装置の制御方法や顕著性マップ生成方法、または、かかる方法をコンピュータに実行させるためのプログラムやそのプログラムを非一時的に記憶したコンピュータ読取可能な記録媒体として捉えることもできる。上記構成および処理の各々は技術的な矛盾が生じない限り互いに組み合わせて本発明を構成することができる。
本発明によれば、学習に基づく事前知識を必要とせずに、1枚の静止画についても顕著度を精度良く評価できる。
実施形態にかかる画像処理装置の機能ブロックを示す図。 実施形態にかかる画像処理方法(顕著性マップ生成方法)の流れを示すフローチャート。 スーパーピクセル画像の例を示す図。 復元誤差マップの例を示す図。 復元誤差マップの平滑化処理におけるクラスタリングを説明する図。 復元誤差マップの平滑化処理の例を示す図。 複数の復元誤差マップを統合する統合処理の例を示す図。 物体位置を考慮した復元誤差マップの補正処理の例を示す図。 ベイズ推定に基づく2つの復元誤差マップの融合処理を説明する図。 本手法により生成された顕著性マップと従来技術によって生成された顕著性マップの比較を示す図。
画像において顕著度が相対的に高い領域である顕著領域を検出するアルゴリズムは様々な仮説を基に構築されている。例えば、従来のアルゴリズムでは、顕著領域を含む局所領域の中で顕著領域のコントラストが高いという仮説や、画像の中心部に近いほど顕著度が高いという仮説に基づいて構築されている。しかしながら、前者の仮説に基づくアルゴリズムでは、局所領域を特定することが難しいという問題がある。また、後者の仮説は、全ての画像について当てはまるものではない。そこで、本発明者らは、画像における背景領域が画像の端部(周縁部)に存在しているという、従来用いられなかった新たな仮説に着目し、本発明を行うに至った。
(構成)
本発明の一実施形態にかかる画像処理装置1の構成について説明する。図1は、画像処理装置1の構成を示す機能ブロック図である。図1に示す画像処理装置1は、入力画像を取得し、取得した入力画像の各画素における顕著度を示す顕著性マップを出力する。なお、本実施形態において入力画像は静止画像であるとして説明するが、動画像を入力として顕著性マップを出力してもよい。
図1に示すように、画像処理装置1は、画像取得部11、制御部12、出力部13および記憶部14を備える。
画像取得部11は、外部からの入力画像を取得するものである。画像取得部11は、例示的には、ユーザの入力操作に応じて、画像処理装置1に接続されるデジタルカメラあるいはデジタルビデオカメラ等の撮像装置から、リアルタイムで(同期を取って)あるいは非同期で、入力画像を取得する。
ただし、入力画像の取得方法は上記に限定されず、例えば、画像取得部11は、記憶部14に格納されている画像データを入力画像として取得してもよいし、画像処理装置1に接続される周辺機器から入力画像を取得してもよいし、有線あるいは無線の通信ネットワークを介して入力画像を取得してもよい。
制御部12は、画像処理装置1における各種機能を統括的に制御するものである。制御部12の制御機能は、制御プログラムをCPU(Central Processing Unit)などの処理
装置が実行することによって実現される。あるいは、制御機能は、ASIC(Application Specific Integrated Circuit)などによって実現されてもよい。また、これらの組合
せによって実現されてもよい。制御部12は、その制御機能の一部として、画像取得部11から入力される入力画像に対する各種処理を実行するための機能および構成を備えている。制御部12の詳細な機能および構成については後述する。
出力部13は、制御部12による入力画像の処理結果を外部に対して出力するものである。例えば、出力部13は、各種の画像アプリケーションに上記処理結果を出力してもよい。本実施形態の出力部13は、画像取得部11が取得した入力画像に対して制御部12により生成された顕著性マップを出力する。
記憶部14は、各種データおよびコンピュータプログラムを記憶するものである。記憶部14は、例えば、ROM(Read Only Memory)、RAM(Random Access Memory)、および不揮発性メモリ(例えばフラッシュメモリ)等の記憶装置を組み合わせることにより実現できる。
記憶部14には、例えば、制御部12において実行されるコンピュータプログラムや、当該プログラムにおいて処理される各種データ等が格納される。
(制御部)
次に、制御部12の各部について説明する。図1に示すように、制御部12は、SP画像生成部121、復元誤差マップ生成部122、顕著性マップ生成部123を備える。各機能部の構成を、制御部12による画像処理(顕著性マップ生成処理)の流れを示す図2のフローチャートおよびその他の図面とともに説明する。
<SP画像>
まず、制御部12は、画像取得部11に入力された入力画像を取得する(S1)。入力画像は、SP画像生成部121に渡される。SP画像生成部121は、画像取得部11から取得される入力画像を元画像として、画素を単位構成とする元画像から、スーパーピクセル(SP)を単位構成とするスーパーピクセル画像(SP画像)を生成する。ここで、スーパーピクセルとは、画像において、色または輝度などの各種のパラメータの値が互いに類似している隣接した複数の画素からなる小領域である。すなわち、スーパーピクセル画像は、入力画像の画素の特徴量に基づいて連結された複数の領域に分割された画像といえる。スーパーピクセルを単位構成とする画像を、元画像と区別するために、スーパーピクセル画像と呼ぶ。
元画像の代わりにスーパーピクセル画像を用いた画像処理を行うことによって、処理の
データ量を大幅に削減できるので処理の高速化および省メモリ化が実現できるとともに、上記の各種パラメータ(輝度、色など)のノイズを抑制することもできる。
スーパーピクセル画像の生成アルゴリズムとして、複数の生成アルゴリズムが知られている。例えば、http://www2.cs.sfu.ca/~mori/research/superpixels/ に記載されている公知の方法を用いればよい。
いずれのスーパーピクセル画像生成アルゴリズムにおいても、生成するスーパーピクセル数を制御するパラメータが存在する。このパラメータを調整することにより、一つの入力画像からスーパーピクセル数が異なる複数のスーパーピクセル画像を生成することができる。なお以下では、このようにスーパーピクセル数が異なる複数のスーパーピクセル画像のことを、解像度が異なる複数のスーパーピクセル画像などと表現する。
図3に示すように、SP画像生成部121は、1つの入力画像31(図3(a))から、解像度の異なる複数のスーパーピクセル画像32−1,・・・、32−Ns(図3(b))を生成する。生成するスーパーピクセル画像の数Nsは任意であってよく、例えば、数個〜数十個程度とすることができる。
以下では、スーパーピクセルを単位構成として画像処理を実施するが、スーパーピクセルにおける特徴量として、LabおよびRGBの色空間における平均色特徴と、画素座標とを用いる。すなわち、各スーパーピクセルの特徴量は、以下に示すものである。
Figure 0006232982
このようにLab色特徴とRGB色特徴の両方を用いることによって、顕著性マップをより精度よく算出することが可能となる。
スーパーピクセル画像全体は、以下のように表すことができる。
Figure 0006232982
ここでxiは各スーパーピクセルにおける特徴量を表し、Nはスーパーピクセルの数、Dは特徴量の次元数である。
<周縁部領域>
それぞれの解像度のスーパーピクセル画像のうち、画像の端部(上端、下端、左端、右端)を含むスーパーピクセルを、周縁部のスーパーピクセル(周縁部領域)と称する。また、周縁部のスーパーピクセルからなる画像を、周縁部画像と称する。周縁部画像の例は図3(c)に示されている。
<復元誤差マップ生成部>
復元誤差マップ生成部122は、周縁部領域をテンプレートセットとして用いて、その他の領域を復元(再構成)し、復元誤差を表す復元誤差マップを生成する。周縁部は多くの画像において背景であるので、上記の復元において、背景領域では復元誤差が小さく、前景領域では復元誤差が大きくなると考えられる。すなわち、復元誤差は対象画素が周縁部領域とどの程度類似しているかを表す尺度ともいえ、復元誤差マップは周縁部領域との類似度を表す類似度マップと捉えることもできる。
図1に示すように、復元誤差マップ生成部122は、Dense復元誤差マップ生成部122a、Sparse復元誤差マップ生成部122b、平滑化処理部122c、統合処
理部122dを備える。
Dense復元誤差マップ生成部122aとSparse復元誤差マップ生成部122bにより、異なるアルゴリズムを用いて復元誤差マップをそれぞれ生成する(図2のステップS3a〜S4aおよびS3b〜S4b)。これらの復元誤差マップは、解像度の異なるスーパーピクセル画像のそれぞれに対して生成される。平滑化処理部122cは、それぞれの復元誤差マップに対して平滑化処理を施す(S5aおよびS5b)。統合処理部122dは、解像度の異なるスーパーピクセル画像から生成された複数のDense復元誤差マップ(複数階層のDense復元誤差マップとも称する)を統合して画素単位での1つのDense復元誤差マップを生成する(S6a)とともに、解像度の異なるスーパーピクセル画像から生成された複数のSparse復元誤差マップ(複数階層のSparse復元誤差マップとも称する)を統合して画素単位での1つのSparse復元誤差マップを生成する(S6b)。
以下、復元誤差マップ生成部122内の各サブ機能部について詳しく説明する。
≪Dense復元誤差マップ生成部122a≫
Dense復元誤差マップ生成部122aは、主成分分析(PCA)を使って周縁部領域から対象領域を再構成した場合の誤差(復元誤差とも再構成誤差とも称する)を計算する。なお、以下では、Dense復元誤差マップ生成部122aによって行われるPCAを用いた復元(再構成)のことを、Dense復元と称する。
ステップS3aに示すように、スーパーピクセル画像内の各スーパーピクセルについて、周縁部のスーパーピクセルを用いたDense復元を行う。以下、Dense復元の詳細について説明する。
まず、周縁部スーパーピクセル(M個とする)の特徴量b1, b2, ..., bMからなる背景
テンプレートに対して主成分分析を行って、D’個の固有ベクトル(主成分ベクトル)u1, u2, ..., uD'からなる正規化共分散行列UBを算出する。
Figure 0006232982
ここで、D’の値は1≦D’<Mであれば任意であってよく、予め定められていてもよいし寄与率(第D’主成分までの分散の和が分散の総和に占める割合)に基づいて定めてもよい。
このPCA基底Uを用いて、各スーパーピクセルの復元係数βiを次のように算出す
る。この復元係数βiによって各スーパーピクセルを周縁部スーパーピクセルによって復
元することができる。
Figure 0006232982
ここで、エックスバー(xの上部にバーを付した記号)は、スーパーピクセル画像全体の特徴量Xの平均特徴量である。
なお、Dense復元は、主成分分析を施して得られる複数の固有ベクトル(主成分ベクトル)を用いて、対象の領域の特徴量をこれら固有ベクトルの線形結合によって再構成する手法ということができる。上記のβは固有ベクトルを線形結合する際の係数である。
次に、ステップS4aにおいて、上記にDense復元による復元誤差(再構成誤差)εi dを次のように算出する。
Figure 0006232982
このようにして、1つのスーパーピクセル画像についてのDense復元誤差マップが生成できる。
Dense復元誤差マップ生成部122aによって得られるDense復元誤差マップの一例を図4に示す。図4(a)は2種類の入力画像を示し、図4(b)は図4(a)のそれぞれの入力画像から得られるDense復元誤差マップである。図中、白く表された領域ほど復元誤差が大きい、すなわち、周縁部との類似度が小さいことを表す。
Dense復元は、周縁部領域の主成分に基づく再構成を行っているので、周縁部と異なる領域については復元誤差が大きくなる。したがって、前景部分では復元誤差が大きくなる。一方、Dense復元はノイズに弱く、背景部分であっても復元誤差が大きく算出される場合がある。
≪Sparse復元誤差マップ生成部122b≫
Sparse復元誤差マップ生成部122bは、スパースコーディングを使って周縁部領域から対象領域を再構成した場合の誤差を計算する。なお、以下では、Sparse復元誤差マップ生成部122bによって行われるスパースコーディングを用いた復元(再構成)のことを、Sparse復元と称する。
ステップS3bに示すように、スーパーピクセル内の各スーパーピクセルについて、周縁部のスーパーピクセルを用いたSparse復元を行う。以下、Sparse復元の詳細について説明する。
まず、周縁部スーパーピクセルのM個の特徴量からなる背景テンプレートB = [b1, b2,
..., bM]を用いて、各スーパーピクセルを次式のように符号化する。
Figure 0006232982
すなわち、上記のコスト関数が最小となるように復元係数αiを決定する。対象領域は
、復元係数αを用いた周縁部の特徴量ベクトルの線形結合によって近似することができる。なお、スパースコーディングは、係数(ベクトル)αの要素のうちできるだけ多くの要素が0となるように係数αiを決定するものである。すなわち、背景テンプレートB
を構成する特徴量ベクトルのうち、できるだけ少ない数の特徴量ベクトルの線形結合によって、対象領域の特徴量ベクトルを再構成するものである。
次に、ステップS4bにおいて、上記のSparse復元による復元誤差(再構成誤差)εi sを次のように算出する。
Figure 0006232982
このようにして、1つのスーパーピクセル画像についてのSparse復元誤差マップが生成できる。
Sparse復元誤差マップ生成部122bによって得られるSparse復元誤差マップの一例を図4に示す。図4(a)は2種類の入力画像を示し、図4(c)は図4(a)のそれぞれの入力画像から得られるSparse復元誤差マップである。図中、白く表された領域ほど復元誤差が大きい、すなわち、周縁部との類似度が小さいことを表す。
Sparse復元では周縁部領域の特徴量ベクトルが全て基底として用いられるため、周縁部と類似するような領域では復元誤差が小さくなり、背景領域を確実に検出できる。一方、顕著物体が周縁部にも存在する図4の右側の例では、顕著物体の一部(胴および腕)において復元誤差が小さく算出されてしまう。
Sparse復元誤差は複雑な背景に対してロバストであり、Dense復元誤差は画像周縁部に顕著物体が存在する場合により精度が高い。したがって、Dense復元誤差とSparse復元誤差は、顕著度の算出において相補的であると考えられる。
≪平滑化処理部122c≫
平滑化処理部122cは、1つのスーパーピクセル画像から生成された復元誤差マップ(Dense復元誤差マップおよびSparse復元誤差マップ)のそれぞれについて、局所領域の特徴を考慮した平滑化処理を施す(図2のステップS5aおよびS5b)。なお、平滑化処理の対象の復元誤差マップがDense復元誤差マップであるかSparse復元誤差マップであるかによって平滑化処理の内容は変わらないので、両者を区別せずに復元誤差マップと称してまとめて説明する。
平滑化処理部122cは、まず、復元誤差マップの生成の基になったスーパーピクセル画像に対して、クラスタリング(グルーピング)処理を施す。画像のクラスタリングアルゴリズムは、既存の任意のものを用いればよいが、本実施形態では、K−means法によるクラスタリングを採用する。クラスタリングの処理例を図5に示す。図5では、2つのクラスタ51,52のみが示されているが、画像全体がクラスタに分割される。
平滑化処理は、各クラスタ内で復元誤差が拡散するように行われる。ここで、誤差拡散においてクラスタ内での画像特徴量を考慮した、すなわち画像のコンテキストを考慮した拡散(平滑化)を行う。より詳細には、以下のような処理が行われる。
まず、各スーパーピクセルについての拡散後の誤差(拡散誤差)を、各スーパーピクセルの復元誤差で初期化する。
Figure 0006232982
なお、左辺が拡散誤差であり、右辺はDense復元誤差またはSparse復元誤差である。なお、ここでは、クラスタ内のスーパーピクセルは、復元誤差が大きいスーパーピクセルから順番に1,2,3、・・・のラベル(添え字i)が割り当てられるものとする。
そして、次のように、拡散誤差を算出する。
Figure 0006232982
Figure 0006232982
なお、Ncはクラスタ内のスーパーピクセル数であり、{k1, k2, ..., kNc}はクラスタ内のスーパーピクセルのラベルを表す。τは0<τ<1を満たす重みパラメータである。σ は特徴量Xの各次元における分散の和であり、δはデルタ関数である。
数式(9)の右辺第1項は、同一クラスタ内の他のスーパーピクセルの再構成誤差を重み付け平均したものといえる。この際の重みが数式(10)のwikjである。右辺第2項は、対象のスーパーピクセルの再構成誤差の初期値である。したがって、数式(9)は全体として、他のスーパーピクセルの再構成誤差の重み付け平均と、対象のスーパーピクセルの再構成誤差の初期値とを、重みパラメータτを用いて重み付け平均する処理といえる。
上記のようにして拡散誤差を、各クラスタ内で再構成誤差の大きいスーパーピクセルから順に計算する。同様の処理を全クラスタに対して行う。このような平滑化処理により、元画像の特徴(色特徴や輝度特徴)を考慮して、復元誤差の精度を向上させることができる。
図6に平滑化処理の処理結果の例を示した。図6(a)は入力元画像であり、図6(b)は平滑化処理前のDense復元誤差マップ、図6(c)は平滑化処理後のDense復元誤差マップ、図6(d)は平滑化処理前のSparse復元誤差マップ、図6(e)は平滑化処理後のSparse復元誤差マップである。顕著物体(人物)の一部(胴)が周縁部に存在するため、平滑化処理前ではDenseおよびSparseのいずれの復元誤差マップにおいても、顕著領域の一部が背景領域として検出されている(復元誤差が小さく算出されている)。これに対し、平滑化処理を行うことで、元画像の色特徴が考慮されることにより、顕著領域がより正しく認識されるようにできるとともに、顕著領域内での復元誤差(顕著度)をより一様にすることができる。
≪統合処理部122d≫
統合処理部122dは、複数のスーパーピクセル画像から生成されたスーパーピクセル単位のDenseおよびSparse復元誤差マップを統合して、画素単位のDenseおよびSparse復元誤差マップをそれぞれ1つ生成する(図2のステップS6aおよびS6b)。さらに、物体の位置を考慮した重み付けを行うことで復元誤差マップを補正(改善)する。なお、統合処理の対象の復元誤差マップがDense復元誤差マップであるかSparse復元誤差マップであるかによって統合処理の内容は変わらないので、両者を区別せずに復元誤差マップと称してまとめて説明する。またこの項では、統合処理部122dに入力されるスーパーピクセル単位の復元誤差マップをSP復元誤差マップと称し、単に復元誤差マップと記した場合は統合処理部122dが生成する画素単位の復元誤差マップを意味するものとする。
・複数階層の復元誤差マップの統合処理
統合処理部122dは、複数のSP復元誤差マップを重み付け平均して復元誤差マップを生成する。この際、入力元画像における対象画素の特徴量と、スーパーピクセル画像における当該対象画素が属するスーパーピクセルの特徴量とが近いほど、大きい重み付けを行う。具体的には、次のような演算により各画素の復元誤差を算出することによって、複数のSP復元誤差マップの統合を行う。
Figure 0006232982
ここで、zは画素位置、n(s)はs番目(s階層目)のスーパーピクセル画像における画素zを含むスーパーピクセルのラベル、εn(s)の上部にチルダを付した記号はスーパーピクセルn(s)における復元誤差、xn(s)はスーパーピクセルn(s)における特徴量、fは入力画像の画素zにおける特徴量である。
このように、画素zと対応するスーパーピクセルの特徴量の類似度を重み付けパラメータとして用いることで、複数の解像度のスーパーピクセル画像から生成されたSP復元誤差マップを統合して、精度の良い復元誤差マップを生成することができる。図7に統合処理部122dによる統合処理結果の例を示す。図7(a)は元画像であり、図7(b)(d)は複数のSP復元誤差マップを単純平均して得た復元誤差マップ、図7(c)(e)は複数の復元誤差マップから本手法による統合を行って得た復元誤差マップである。図7(b)(c)はDense復元誤差マップであり、図7(d)(e)はSparse復元誤差マップである。いずれの復元誤差マップにおいても、本手法による統合を行うことで、顕著領域をより正確に検出できることが分かる。
・物体位置を考慮した復元誤差マップの補正
上記の統合結果に、物体の位置を考慮した重み付けをして、復元誤差の補正(改善)を行う。従来は、顕著物体が画像中心にあることを仮定して、画像中心ほど大きい重みをつけた補正が行われていた。本手法では、物体の中心ほど大きな重みをつけて補正を行う。
具体的には、統合された復元誤差マップに対して、次のようなガウシアンフィルタを適用する。
Figure 0006232982
すなわち、復元誤差マップにおける重心を顕著物体の位置とみなして、この位置を中心としたガウシアンフィルタを生成する。なお、フィルタ形状を決定するパラメータσ、σとして例えば画像の幅および高さの1/4を採用することができる。
統合化復元誤差マップE(z)に上記のガウシアンフィルタG(z)を掛けて、最終的な復元誤差マップS(z)=E(z)×G(z)が得られる。図8に本手法による補正の効果を示す。図8(a)は入力元画像であり、図8(b)(c)は補正前のDenseおよびSparse復元誤差マップ、図8(d)(e)はDenseおよびSparse復
元誤差マップから算出された物体バイアスガウシアンフィルタG(z)、図8(f)(g)は補正後のDenseおよびSparse復元誤差マップである。補正後の復元誤差マップでは、顕著物体の中心をより正確に表現できており、したがって精度の良い顕著性マップの生成に役立つ。
<顕著性マップ生成部>
顕著性マップ生成部123は、復元誤差マップ生成部122が生成したDenseおよびSparse復元誤差マップを融合して、顕著性マップを生成する。本手法では、ベイズ推定を用いてこれらの復元誤差マップを融合する。DenseおよびSparse復元誤差マップは上述のように相補的なものであるため、これらを融合することで精度の良い顕著性マップが得られる。
図9を参照して、2つの復元誤差マップの融合方法についてより詳細に説明する。以下では、Dense復元誤差マップ(91)をS、Sparse復元誤差マップ(92)をSと称する。図に示すように、SとSのそれぞれを事前確率として用いて2つの顕著性マップ(95a,95b)を生成し、それらを合成して最終的な顕著性マップ(97)を得る。以下では、事前確率として用いる復元誤差マップをS(i={1,2})と表し、もう一方の復元誤差マップをS(j≠i,j={1,2})と表す。
まず、Siについて復元誤差の平均値を閾値として用いて二値化画像(93a,93b)を得る。この二値化によって、画像全体が前景Fi(復元誤差が閾値以上)と背景Bi(復元誤差が閾値未満)に分けられる。前景Fiと背景Biのそれぞれについて、次式のようにSiとSjを比較して、Siの画素zが他の復元誤差マップSjにおいて前景あるいは背景領域にある画素数を求め、その画素数に基づいて前景尤度および背景尤度を算出する。
Figure 0006232982
ここで、NFiおよびNBiはそれぞれSiにおける前景および背景の画素数、NbFi(S(z))およびNbBi(S(z))はそれぞれ画素zが他方の復元誤差マップSjの前景および背景領域にある画素数である。
次に、復元誤差マップSiと上述のようにして求められた前景尤度および背景尤度を用いてベイズ公式を用いた融合(94a,94b)を次式のように行う。
Figure 0006232982
これにより事後確率マップ(95a,95b)が得られる。
これら2つの事後確率を以下のように統合(96)して最終的な顕著性マップS(S,S)(97)が得られる。
Figure 0006232982
Dense復元誤差マップとSparse復元誤差マップをそれぞれ用いることで多様な情報を統合することができる。また、それぞれのマップを事前確率として用いることで、一様に近い顕著性マップを得ることができる。
(実験結果)
本手法および従来技術の手法によって得られる顕著性マップについて説明する。図10には、入力元画像、従来技術によって得られる顕著性マップ、本手法によって得られる顕著性マップとそれを二値化したもの、および真画像が示されている。
この際、本手法を適用する際には、以下のパラメータを採用している。
SP画像:スーパーピクセル数50〜400の8枚を生成
K−meansクラスタリングのクラスタ数K:8
平滑化(誤差拡散)処理における重みτ:0.5
PCAの主成分ベクトル数D’:寄与率が95%を満たすように決定
スパースコーディングのコスト関数でのパラメータλ:0.01
本手法によれば、従来技術と比較して、顕著領域をより精度良く検出できていることが分かる。また、検出結果が一様となっている点も本手法の優れた効果といえる。
なお、図10中の従来技術の手法は、それぞれ下記に示す文献に記載のアルゴリズムである。
[IT]L. Itti, C. Koch, and E. Niebur. A model of saliency-based visual attention for rapid scene analysis. PAMI, 20:1254-1259, 1998.
[GB]J. Harel, C. Koch, and P. Perona. Graph-based visual saliency. In NIPS, 2006.
[SR]X. Hou and L. Zhang. Saliency detection: A spectral residual approach. In CVPR, 2007.
[FT]R. Achanta, S. Hemami, F. Estrada, and S. Susstrunk. Frequency-tuned salient region detection. In CVPR, pages 1597-1604, 2009.
[CA]S. Goferman, L. Zelnik-Manor, and A. Tal. Context-aware saliency detection. In CVPR, pages 2376-2383, 2010.
[RA]E. Rahtu, J. Kannala, M. Salo, and J. Heikkilae. Segmenting salient objects from images and videos. In ECCV, pages 366-379, 2010.
[DW]L. Duan, C. Wu, J. Miao, L. Qing, and Y. Fu. Visual saliency detection by spatially weighted dissimilarity. In CVPR, pages 473-480, 2011.
[CB]H. Jiang, J. Wang, Z. Yuan, T. Liu, N. Zheng, and S. Li. Automatic salient object segmentation based on context and shape prior. In BMVC, 2011.
[RC]M.-M. Cheng, G.-X. Zhang, N. J. Mitra, X. Huang, and S.-M. Hu. Global contrast based salient region detection. In CVPR, pages 409-416, 2011.
[SVO]K.-Y. Chang, T.-L. Liu, H.-T. Chen, and S.-H. Lai. Fusing generic objectness and visual saliency for salient object detection. In ICCV, pages 914-921,
2011.
[LR]X. Shen and Y. Wu. A unified approach to salient object detection via low rank matrix recovery. In CVPR, pages 853-860, 2012.
(変形例)
上述した実施形態は本発明の一具体例を示したものであり、本発明の範囲をそれらの具体例に限定する趣旨のものではない。
例えば、類似度マップ(復元誤差マップ)は、周縁部領域との類似度を表すものであれば、上記以外の任意のアルゴリズムによって生成されても構わない。上述のように、Dense復元とSparse復元に基づく復元誤差(類似度)は、互いに特徴が異なるアルゴリズムでありそれぞれが互いを補うことで精度の良い顕著性マップを生成することがで
きるが、本手法の類似度マップの生成アルゴリズムはこれらに限られるものではない。例えば、多様体ランキング法(Manifold Ranking法)を用いて類似度マップを生成してもよい。また、周縁部領域全体との類似度を求める際に、上端部、下端部、左端部、右端部との類似度をそれぞれ求めて、これらを統合して周縁部領域との類似度を求めるようにしても良い。
また、上記の説明では2つのアルゴリズムによって類似度マップを生成しているが、3つ以上のアルゴリズムによって類似度マップを生成してもよい。この場合、これらの類似度マップを統合して最終的な顕著性マップを得るためには、全ての類似度マップのうちの任意の2つの組合せについて、それぞれを事前確率として用いて事後確率を求め、これら事後確率を統合すればよい。類似度マップの数をN個とした場合には、N×(N−1)通りの事後確率を生成して、統合すればよい。
また、上記の説明では、解像度の異なるスーパーピクセル画像を生成し、それぞれから類似度マップを生成している。しかしながら、1つのみのスーパーピクセル画像から類似度マップを生成しても構わない。この場合、解像度の異なるスーパーピクセル画像から生成された類似度マップを統合する処理(図2のステップS6a,S6b)は省略すればよい。また、スーパーピクセル化を行うことなく、画素単位の入力画像を対象として類似度マップを生成しても構わない。このようにしても、顕著物体の検出を行うことはできる。
また、類似度マップに対する平滑化処理(図2のステップS5a,S5b)も省略可能である。平滑化処理を施すことで、類似度マップにおけるばらつきを平滑化して精度を上げることができるが、この処理を省略しても顕著物体の検出を行うことはできる。
また、ベイズ推定を用いて複数の類似度マップを融合して最終的な顕著性マップを生成しているが、複数の類似度マップから最終的な顕著性マップを生成する方法は異なる方法で行ってもよい。例えば、それぞれの類似度マップの平均(単純平均でも重み付け平均でもよい)を最終的な顕著性マップとしてもよい。このような手法であっても、異なるアルゴリズムによって生成された類似度マップの特徴をともに考慮できるので、1つのみのアルゴリズムによって生成された類似度マップを顕著性マップとする場合よりも、精度が向上する。
(実装例)
上述した画像処理装置の具体的な実装は、ソフトウェア(プログラム)による実装と、ハードウェアによる実装のいずれも可能である。例えば、画像処理装置に内蔵されたコンピュータ(マイコン、CPU、MPU、FPGA等)のメモリにコンピュータプログラムを格納し、当該コンピュータプログラムをコンピュータに実行させて、各処理を実現させてもよい。また、本発明の全部または一部の処理を論理回路により実現するASIC等の専用プロセッサを設けることも好ましい。また、本発明は、クラウド環境におけるサーバーにも適用可能である。
また、例えば、記憶装置に記録されたプログラムを読み込み実行することで前述した実施形態の機能を実現するシステムや装置のコンピュータによって実行されるステップからなる方法によっても、本発明を実施することができる。この目的のために、上記プログラムは、例えば、ネットワークを通じて、又は、上記記憶装置となり得る様々なタイプの記録媒体(つまり、非一時的にデータを保持するコンピュータ読取可能な記録媒体)から、上記コンピュータに提供される。よって、上記コンピュータ(CPU、MPU等のデバイスを含む)、上記方法、上記プログラム(プログラムコード、プログラムプロダクトを含む)、上記プログラムを非一時的に保持するコンピュータ読取可能な記録媒体は、いずれも本発明の範疇に含まれる。
1 画像処理部
11 画像取得部 12 制御部
121 SP(スーパーピクセル)画像生成部 122 復元誤差マップ生成部
123 顕著性マップ生成部

Claims (12)

  1. 画像を取得する画像取得部と、
    前記画像における1つまたは複数の画素からなる領域を単位構成として、第1のアルゴリズムに基づいて前記領域と前記画像の周縁部の領域との類似度を表す第1の類似度マップを算出し、第2のアルゴリズムに基づいて前記領域と前記画像の周縁部の領域との類似度を表す第2の類似度マップを算出する類似度マップ生成部と、
    前記第1の類似度マップおよび前記第2の類似度マップを統合して顕著性マップを生成する顕著性マップ生成部と、
    を備える画像処理装置。
  2. 前記類似度マップ生成部は、対象の領域を前記周縁部の領域に基づいて再構成し、再構成誤差が小さいほど類似度が大きいものとして前記第1および第2の類似度マップを生成する、
    請求項1に記載の画像処理装置。
  3. 前記第1のアルゴリズムは、
    前記周縁部の領域の特徴量に対して主成分分析を施して複数の固有ベクトルを算出し、
    対象の領域の特徴量を前記複数の固有ベクトルの線形結合によって再構成し、
    再構成誤差が小さいほど類似度を大きく算出する、
    アルゴリズムである、
    請求項1または2に記載の画像処理装置。
  4. 前記第2のアルゴリズムは、
    対象の領域の特徴量を、できるだけ少ない周縁部の領域の特徴量の組合せで近似するように、コスト関数が最小となる係数を用いて前記周縁部の領域の特徴量の線形結合によって再構成し、
    再構成誤差が小さいほど類似度を大きく算出する、
    アルゴリズムである、
    請求項1から3のいずれか1項に記載の画像処理装置。
  5. 前記画像取得部が取得した画像から、画素の特徴量に基づいて連結された複数の画素からなる領域に分割してスーパーピクセル画像を生成するスーパーピクセル画像生成部を更に有し、
    前記類似度マップ生成部は、前記スーパーピクセル画像に基づいて前記第1および第2の類似度マップを生成する、
    請求項1から4のいずれか1項に記載の画像処理装置。
  6. 前記スーパーピクセル画像生成部は、スーパーピクセル数が異なる複数のスーパーピクセル画像を生成するものであり、
    前記類似度マップ生成部は、
    前記複数のスーパーピクセル画像のそれぞれから第1のアルゴリズムに基づいて類似度マップを生成し、これら複数の類似度マップを統合して前記第1の類似度マップを生成し、
    前記複数のスーパーピクセル画像のそれぞれから第2のアルゴリズムに基づいて類似度マップを生成し、これら複数の類似度マップを統合して前記第2の類似度マップを生成する、
    請求項5に記載の画像処理装置。
  7. 前記類似度マップ生成部は、前記複数のスーパーピクセル画像のそれぞれから前記第1
    および第2のアルゴリズムに基づいて生成された類似度マップに対して、平滑化処理を施してから、前記第1および第2の類似度マップを生成するものであり、
    前記平滑化処理は、前記類似度マップの生成に用いられたスーパーピクセル画像をクラスタリングし、各クラスタ内での類似度を平滑化する処理である、
    請求項6に記載の画像処理装置。
  8. 前記類似度マップ生成部は、前記複数のスーパーピクセル画像から前記第1および第2のアルゴリズムに基づいて生成された複数の類似度マップを重み付け平均して前記第1および第2の類似度マップを生成するものであり、前記重み付け平均における重みは、前記画像取得部が取得した画像における画素の特徴量と当該画素が属するスーパーピクセルの特徴量とが近いほど大きい重みである、
    請求項6または7に記載の画像処理装置。
  9. 前記類似度マップ生成部は、算出された類似度に対して、前記画像において検出された物体の位置を中心とする重み付けをして前記第1および第2の類似度マップを生成する、
    請求項1から8のいずれか1項に記載の画像処理装置。
  10. 前記顕著性マップ生成部は、
    前記第1の類似度マップを事前確率として用い、前記第1の類似度マップと前記第2の類似度マップとから尤度を算出し、当該事前確率と尤度から顕著領域の事後確率を表す第1の顕著性マップを算出し、
    前記第2の類似度マップを事前確率として用い、前記第2の類似度マップと前記第1の類似度マップとから尤度を算出し、当該事前確率と尤度から顕著領域の事後確率を表す第2の顕著性マップを算出し、
    前記第1の顕著性マップと前記第2の顕著性マップを統合して、最終的な顕著性マップを生成する、
    請求項1から9のいずれか1項に記載の画像処理装置。
  11. コンピュータによって実行される画像処理方法であって、
    画像を取得する画像取得ステップと、
    前記画像における1つまたは複数の画素からなる領域を単位構成として、第1のアルゴリズムに基づいて前記領域と前記画像の周縁部の領域との類似度を表す第1の類似度マップを算出し、第2のアルゴリズムに基づいて前記領域と前記画像の周縁部の領域との類似度を表す第2の類似度マップを算出する類似度マップ生成ステップと、
    前記第1の類似度マップおよび前記第2の類似度マップを統合して顕著性マップを生成する顕著性マップ生成ステップと、
    を含む、画像処理方法。
  12. 請求項11に記載の画像処理方法の各ステップをコンピュータに実行させるためのコンピュータプログラム。
JP2013249605A 2013-12-02 2013-12-02 画像処理装置、画像処理方法およびプログラム Active JP6232982B2 (ja)

Priority Applications (5)

Application Number Priority Date Filing Date Title
JP2013249605A JP6232982B2 (ja) 2013-12-02 2013-12-02 画像処理装置、画像処理方法およびプログラム
CN201410669439.3A CN104680512A (zh) 2013-12-02 2014-11-20 图像处理装置以及方法
EP14194331.6A EP2879080B1 (en) 2013-12-02 2014-11-21 Image processing device and method, and computer readable medium
US14/551,810 US9367762B2 (en) 2013-12-02 2014-11-24 Image processing device and method, and computer readable medium
KR1020140164186A KR101603019B1 (ko) 2013-12-02 2014-11-24 화상 처리 장치, 화상 처리 방법 및 컴퓨터로 판독 가능한 기록 매체

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2013249605A JP6232982B2 (ja) 2013-12-02 2013-12-02 画像処理装置、画像処理方法およびプログラム

Publications (2)

Publication Number Publication Date
JP2015106382A JP2015106382A (ja) 2015-06-08
JP6232982B2 true JP6232982B2 (ja) 2017-11-22

Family

ID=51947199

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013249605A Active JP6232982B2 (ja) 2013-12-02 2013-12-02 画像処理装置、画像処理方法およびプログラム

Country Status (5)

Country Link
US (1) US9367762B2 (ja)
EP (1) EP2879080B1 (ja)
JP (1) JP6232982B2 (ja)
KR (1) KR101603019B1 (ja)
CN (1) CN104680512A (ja)

Families Citing this family (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6351240B2 (ja) * 2013-11-20 2018-07-04 キヤノン株式会社 画像処理装置、画像処理方法及びプログラム
CN105787930B (zh) * 2016-02-17 2019-01-18 上海文广科技(集团)有限公司 基于锐利度的针对虚化图像的显著性检测方法及系统
CN106056590B (zh) * 2016-05-26 2019-02-22 重庆大学 基于Manifold Ranking和结合前景背景特征的显著性检测方法
CN106127785B (zh) * 2016-06-30 2019-02-22 重庆大学 基于流形排序和随机游走的图像显著性检测方法
CN107749066A (zh) * 2017-11-10 2018-03-02 深圳市唯特视科技有限公司 一种基于区域的多尺度时空视觉显著性检测方法
JP7056131B2 (ja) * 2017-12-15 2022-04-19 オムロン株式会社 画像処理システム、画像処理プログラム、および画像処理方法
CN108320281B (zh) * 2018-01-19 2021-11-09 福建师范大学 一种基于多特征扩散的图像显著性检测方法及终端
CN108764027A (zh) * 2018-04-13 2018-11-06 上海大学 一种基于改进的rbd显著性计算的海面目标检测方法
CN108776815A (zh) * 2018-06-04 2018-11-09 国网辽宁省电力有限公司信息通信分公司 一种基于深度特征的显著性目标检测方法
CN108961268B (zh) * 2018-06-19 2022-03-25 广东工业大学 一种显著图计算方法及相关装置
IT201800006594A1 (it) 2018-06-22 2019-12-22 "Procedimento per la mappatura dell’ambiente di un veicolo, corrispondenti sistema, veicolo e prodotto informatico"
CN109830280A (zh) * 2018-12-18 2019-05-31 深圳壹账通智能科技有限公司 心理辅助分析方法、装置、计算机设备和存储介质
CN110149516A (zh) * 2019-05-29 2019-08-20 东北石油大学 一种图像的压缩感知方法、装置及系统

Family Cites Families (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6282317B1 (en) * 1998-12-31 2001-08-28 Eastman Kodak Company Method for automatic determination of main subjects in photographic images
JP3848514B2 (ja) * 2000-02-23 2006-11-22 富士通株式会社 顕著性算出装置及び方法
US8094947B2 (en) * 2008-05-20 2012-01-10 Xerox Corporation Image visualization through content-based insets
JP5401962B2 (ja) * 2008-12-15 2014-01-29 ソニー株式会社 画像処理装置、画像処理方法および画像処理プログラム
US8559671B2 (en) * 2008-12-18 2013-10-15 The Regents Of The University Of California Training-free generic object detection in 2-D and 3-D using locally adaptive regression kernels
JP5235770B2 (ja) 2009-04-27 2013-07-10 日本電信電話株式会社 顕著領域映像生成方法、顕著領域映像生成装置、プログラムおよび記録媒体
KR101018299B1 (ko) * 2009-04-28 2011-03-04 한국과학기술원 영상에서 복수의 물체를 감지하는 방법 및 장치
EP2256667B1 (en) * 2009-05-28 2012-06-27 Honda Research Institute Europe GmbH Driver assistance system or robot with dynamic attention module
US8358855B2 (en) * 2009-07-08 2013-01-22 Honeywell International Inc. Determining probabilities from compared covariance appearance models to detect objects of interest in images
JP4868046B2 (ja) * 2009-08-31 2012-02-01 カシオ計算機株式会社 画像処理装置、画像処理方法及びプログラム
JP4862930B2 (ja) * 2009-09-04 2012-01-25 カシオ計算機株式会社 画像処理装置、画像処理方法及びプログラム
JP2012146040A (ja) * 2011-01-11 2012-08-02 Osaka City Univ 異常事態の検出システム
US9721338B2 (en) * 2011-01-11 2017-08-01 Rutgers, The State University Of New Jersey Method and apparatus for segmentation and registration of longitudinal images
US8989437B2 (en) * 2011-05-16 2015-03-24 Microsoft Corporation Salient object detection by composition
JP5811654B2 (ja) * 2011-07-15 2015-11-11 カシオ計算機株式会社 画像処理装置、画像処理方法及びプログラム
JP5654962B2 (ja) * 2011-08-19 2015-01-14 日本放送協会 視線位置推定装置及び視線位置推定プログラム
US9042648B2 (en) * 2012-02-23 2015-05-26 Microsoft Technology Licensing, Llc Salient object segmentation

Also Published As

Publication number Publication date
KR101603019B1 (ko) 2016-03-11
KR20150063924A (ko) 2015-06-10
US9367762B2 (en) 2016-06-14
CN104680512A (zh) 2015-06-03
EP2879080A2 (en) 2015-06-03
EP2879080A3 (en) 2016-03-02
US20150154471A1 (en) 2015-06-04
EP2879080B1 (en) 2021-09-22
JP2015106382A (ja) 2015-06-08

Similar Documents

Publication Publication Date Title
JP6232982B2 (ja) 画像処理装置、画像処理方法およびプログラム
US11798132B2 (en) Image inpainting method and apparatus, computer device, and storage medium
WO2022002039A1 (zh) 一种基于视觉地图的视觉定位方法、装置
Chen et al. Image matting with local and nonlocal smooth priors
US20190294970A1 (en) Systems and methods for polygon object annotation and a method of training an object annotation system
WO2022022154A1 (zh) 脸部图像处理方法、装置、设备及存储介质
US9626552B2 (en) Calculating facial image similarity
Zhuge et al. Deep embedding features for salient object detection
WO2021137946A1 (en) Forgery detection of face image
CN114155365B (zh) 模型训练方法、图像处理方法及相关装置
US11574500B2 (en) Real-time facial landmark detection
JP6071002B2 (ja) 信頼度取得装置、信頼度取得方法および信頼度取得プログラム
JP6107531B2 (ja) 特徴抽出プログラム及び情報処理装置
Rajput et al. A robust face super-resolution algorithm and its application in low-resolution face recognition system
CN110942456B (zh) 篡改图像检测方法、装置、设备及存储介质
CN111507288A (zh) 图像检测方法、装置、计算机设备和存储介质
AU2015218184A1 (en) Processing hyperspectral or multispectral image data
CN114170558A (zh) 用于视频处理的方法、系统、设备、介质和产品
US11216961B2 (en) Aligning digital images by selectively applying pixel-adjusted-gyroscope alignment and feature-based alignment models
Zou et al. Video matting via sparse and low-rank representation
WO2022206679A1 (zh) 图像处理方法、装置、计算机设备和存储介质
CN115862119A (zh) 基于注意力机制的人脸年龄估计方法及装置
JP6717049B2 (ja) 画像解析装置、画像解析方法およびプログラム
CN112183299B (zh) 行人属性预测方法、装置、电子设备及存储介质
Yuan et al. Single image super-resolution via sparse kpca and regression

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20161107

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20170908

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20170926

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20171009

R150 Certificate of patent or registration of utility model

Ref document number: 6232982

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150