JP6232982B2 - 画像処理装置、画像処理方法およびプログラム - Google Patents
画像処理装置、画像処理方法およびプログラム Download PDFInfo
- Publication number
- JP6232982B2 JP6232982B2 JP2013249605A JP2013249605A JP6232982B2 JP 6232982 B2 JP6232982 B2 JP 6232982B2 JP 2013249605 A JP2013249605 A JP 2013249605A JP 2013249605 A JP2013249605 A JP 2013249605A JP 6232982 B2 JP6232982 B2 JP 6232982B2
- Authority
- JP
- Japan
- Prior art keywords
- similarity
- map
- image
- saliency
- superpixel
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000012545 processing Methods 0.000 title claims description 62
- 238000003672 processing method Methods 0.000 title claims description 5
- 238000000034 method Methods 0.000 claims description 68
- 238000004422 calculation algorithm Methods 0.000 claims description 47
- 230000002093 peripheral effect Effects 0.000 claims description 47
- 238000009499 grossing Methods 0.000 claims description 29
- 238000000513 principal component analysis Methods 0.000 claims description 11
- 238000004590 computer program Methods 0.000 claims description 6
- 230000010354 integration Effects 0.000 description 14
- 230000006870 function Effects 0.000 description 11
- 238000001514 detection method Methods 0.000 description 10
- 239000013598 vector Substances 0.000 description 10
- 238000009792 diffusion process Methods 0.000 description 8
- 238000012937 correction Methods 0.000 description 6
- 238000011084 recovery Methods 0.000 description 6
- 230000000694 effects Effects 0.000 description 5
- 230000000007 visual effect Effects 0.000 description 4
- 238000012935 Averaging Methods 0.000 description 3
- 230000000295 complement effect Effects 0.000 description 3
- 238000013459 approach Methods 0.000 description 2
- 238000004364 calculation method Methods 0.000 description 2
- 238000007796 conventional method Methods 0.000 description 2
- 230000006837 decompression Effects 0.000 description 2
- 238000010586 diagram Methods 0.000 description 2
- 239000006185 dispersion Substances 0.000 description 2
- 239000010410 layer Substances 0.000 description 2
- 239000011159 matrix material Substances 0.000 description 2
- FKOQWAUFKGFWLH-UHFFFAOYSA-M 3,6-bis[2-(1-methylpyridin-1-ium-4-yl)ethenyl]-9h-carbazole;diiodide Chemical compound [I-].[I-].C1=C[N+](C)=CC=C1C=CC1=CC=C(NC=2C3=CC(C=CC=4C=C[N+](C)=CC=4)=CC=2)C3=C1 FKOQWAUFKGFWLH-UHFFFAOYSA-M 0.000 description 1
- 238000004458 analytical method Methods 0.000 description 1
- 238000006243 chemical reaction Methods 0.000 description 1
- 238000004891 communication Methods 0.000 description 1
- 238000011156 evaluation Methods 0.000 description 1
- 230000004927 fusion Effects 0.000 description 1
- 238000007499 fusion processing Methods 0.000 description 1
- 230000005484 gravity Effects 0.000 description 1
- 238000003384 imaging method Methods 0.000 description 1
- 238000003064 k means clustering Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 239000002365 multiple layer Substances 0.000 description 1
- 238000007781 pre-processing Methods 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 230000011218 segmentation Effects 0.000 description 1
- 230000003595 spectral effect Effects 0.000 description 1
- 230000001360 synchronised effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/25—Determination of region of interest [ROI] or a volume of interest [VOI]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/22—Matching criteria, e.g. proximity measures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/25—Fusion techniques
- G06F18/253—Fusion techniques of extracted features
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T3/00—Geometric image transformations in the plane of the image
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/28—Quantising the image, e.g. histogram thresholding for discrimination between background and foreground patterns
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/46—Descriptors for shape, contour or point-related descriptors, e.g. scale invariant feature transform [SIFT] or bags of words [BoW]; Salient regional features
- G06V10/462—Salient features, e.g. scale invariant feature transforms [SIFT]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/46—Descriptors for shape, contour or point-related descriptors, e.g. scale invariant feature transform [SIFT] or bags of words [BoW]; Salient regional features
- G06V10/469—Contour-based spatial representations, e.g. vector-coding
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/77—Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
- G06V10/80—Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level
- G06V10/806—Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level of extracted features
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20212—Image combination
- G06T2207/20221—Image fusion; Image merging
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Physics & Mathematics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Multimedia (AREA)
- Data Mining & Analysis (AREA)
- Artificial Intelligence (AREA)
- Evolutionary Computation (AREA)
- Life Sciences & Earth Sciences (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Evolutionary Biology (AREA)
- General Engineering & Computer Science (AREA)
- Software Systems (AREA)
- Medical Informatics (AREA)
- General Health & Medical Sciences (AREA)
- Databases & Information Systems (AREA)
- Computing Systems (AREA)
- Health & Medical Sciences (AREA)
- Image Analysis (AREA)
- Image Processing (AREA)
Description
構成に基づく方法が挙げられる。具体的には、対象の領域の特徴量を、できるだけ少ない周縁部の領域の特徴量の組合せで近似するように、コスト関数が最小となる係数を用いて前記周縁部の領域の特徴量の線形結合によって再構成し、再構成誤差が小さいほど類似度を大きく算出するアルゴリズムを第2のアルゴリズムとして採用できる。
本発明の一実施形態にかかる画像処理装置1の構成について説明する。図1は、画像処理装置1の構成を示す機能ブロック図である。図1に示す画像処理装置1は、入力画像を取得し、取得した入力画像の各画素における顕著度を示す顕著性マップを出力する。なお、本実施形態において入力画像は静止画像であるとして説明するが、動画像を入力として顕著性マップを出力してもよい。
装置が実行することによって実現される。あるいは、制御機能は、ASIC(Application Specific Integrated Circuit)などによって実現されてもよい。また、これらの組合
せによって実現されてもよい。制御部12は、その制御機能の一部として、画像取得部11から入力される入力画像に対する各種処理を実行するための機能および構成を備えている。制御部12の詳細な機能および構成については後述する。
次に、制御部12の各部について説明する。図1に示すように、制御部12は、SP画像生成部121、復元誤差マップ生成部122、顕著性マップ生成部123を備える。各機能部の構成を、制御部12による画像処理(顕著性マップ生成処理)の流れを示す図2のフローチャートおよびその他の図面とともに説明する。
まず、制御部12は、画像取得部11に入力された入力画像を取得する(S1)。入力画像は、SP画像生成部121に渡される。SP画像生成部121は、画像取得部11から取得される入力画像を元画像として、画素を単位構成とする元画像から、スーパーピクセル(SP)を単位構成とするスーパーピクセル画像(SP画像)を生成する。ここで、スーパーピクセルとは、画像において、色または輝度などの各種のパラメータの値が互いに類似している隣接した複数の画素からなる小領域である。すなわち、スーパーピクセル画像は、入力画像の画素の特徴量に基づいて連結された複数の領域に分割された画像といえる。スーパーピクセルを単位構成とする画像を、元画像と区別するために、スーパーピクセル画像と呼ぶ。
データ量を大幅に削減できるので処理の高速化および省メモリ化が実現できるとともに、上記の各種パラメータ(輝度、色など)のノイズを抑制することもできる。
それぞれの解像度のスーパーピクセル画像のうち、画像の端部(上端、下端、左端、右端)を含むスーパーピクセルを、周縁部のスーパーピクセル(周縁部領域)と称する。また、周縁部のスーパーピクセルからなる画像を、周縁部画像と称する。周縁部画像の例は図3(c)に示されている。
復元誤差マップ生成部122は、周縁部領域をテンプレートセットとして用いて、その他の領域を復元(再構成)し、復元誤差を表す復元誤差マップを生成する。周縁部は多くの画像において背景であるので、上記の復元において、背景領域では復元誤差が小さく、前景領域では復元誤差が大きくなると考えられる。すなわち、復元誤差は対象画素が周縁部領域とどの程度類似しているかを表す尺度ともいえ、復元誤差マップは周縁部領域との類似度を表す類似度マップと捉えることもできる。
理部122dを備える。
Dense復元誤差マップ生成部122aは、主成分分析(PCA)を使って周縁部領域から対象領域を再構成した場合の誤差(復元誤差とも再構成誤差とも称する)を計算する。なお、以下では、Dense復元誤差マップ生成部122aによって行われるPCAを用いた復元(再構成)のことを、Dense復元と称する。
テンプレートに対して主成分分析を行って、D’個の固有ベクトル(主成分ベクトル)u1, u2, ..., uD'からなる正規化共分散行列UBを算出する。
る。この復元係数βiによって各スーパーピクセルを周縁部スーパーピクセルによって復
元することができる。
Sparse復元誤差マップ生成部122bは、スパースコーディングを使って周縁部領域から対象領域を再構成した場合の誤差を計算する。なお、以下では、Sparse復元誤差マップ生成部122bによって行われるスパースコーディングを用いた復元(再構成)のことを、Sparse復元と称する。
、復元係数αiを用いた周縁部の特徴量ベクトルの線形結合によって近似することができる。なお、スパースコーディングは、係数(ベクトル)αiの要素のうちできるだけ多くの要素が0となるように係数αiを決定するものである。すなわち、背景テンプレートB
を構成する特徴量ベクトルのうち、できるだけ少ない数の特徴量ベクトルの線形結合によって、対象領域の特徴量ベクトルを再構成するものである。
平滑化処理部122cは、1つのスーパーピクセル画像から生成された復元誤差マップ(Dense復元誤差マップおよびSparse復元誤差マップ)のそれぞれについて、局所領域の特徴を考慮した平滑化処理を施す(図2のステップS5aおよびS5b)。なお、平滑化処理の対象の復元誤差マップがDense復元誤差マップであるかSparse復元誤差マップであるかによって平滑化処理の内容は変わらないので、両者を区別せずに復元誤差マップと称してまとめて説明する。
統合処理部122dは、複数のスーパーピクセル画像から生成されたスーパーピクセル単位のDenseおよびSparse復元誤差マップを統合して、画素単位のDenseおよびSparse復元誤差マップをそれぞれ1つ生成する(図2のステップS6aおよびS6b)。さらに、物体の位置を考慮した重み付けを行うことで復元誤差マップを補正(改善)する。なお、統合処理の対象の復元誤差マップがDense復元誤差マップであるかSparse復元誤差マップであるかによって統合処理の内容は変わらないので、両者を区別せずに復元誤差マップと称してまとめて説明する。またこの項では、統合処理部122dに入力されるスーパーピクセル単位の復元誤差マップをSP復元誤差マップと称し、単に復元誤差マップと記した場合は統合処理部122dが生成する画素単位の復元誤差マップを意味するものとする。
統合処理部122dは、複数のSP復元誤差マップを重み付け平均して復元誤差マップを生成する。この際、入力元画像における対象画素の特徴量と、スーパーピクセル画像における当該対象画素が属するスーパーピクセルの特徴量とが近いほど、大きい重み付けを行う。具体的には、次のような演算により各画素の復元誤差を算出することによって、複数のSP復元誤差マップの統合を行う。
上記の統合結果に、物体の位置を考慮した重み付けをして、復元誤差の補正(改善)を行う。従来は、顕著物体が画像中心にあることを仮定して、画像中心ほど大きい重みをつけた補正が行われていた。本手法では、物体の中心ほど大きな重みをつけて補正を行う。
元誤差マップから算出された物体バイアスガウシアンフィルタG(z)、図8(f)(g)は補正後のDenseおよびSparse復元誤差マップである。補正後の復元誤差マップでは、顕著物体の中心をより正確に表現できており、したがって精度の良い顕著性マップの生成に役立つ。
顕著性マップ生成部123は、復元誤差マップ生成部122が生成したDenseおよびSparse復元誤差マップを融合して、顕著性マップを生成する。本手法では、ベイズ推定を用いてこれらの復元誤差マップを融合する。DenseおよびSparse復元誤差マップは上述のように相補的なものであるため、これらを融合することで精度の良い顕著性マップが得られる。
本手法および従来技術の手法によって得られる顕著性マップについて説明する。図10には、入力元画像、従来技術によって得られる顕著性マップ、本手法によって得られる顕著性マップとそれを二値化したもの、および真画像が示されている。
SP画像:スーパーピクセル数50〜400の8枚を生成
K−meansクラスタリングのクラスタ数K:8
平滑化(誤差拡散)処理における重みτ:0.5
PCAの主成分ベクトル数D’:寄与率が95%を満たすように決定
スパースコーディングのコスト関数でのパラメータλ:0.01
[IT]L. Itti, C. Koch, and E. Niebur. A model of saliency-based visual attention for rapid scene analysis. PAMI, 20:1254-1259, 1998.
[GB]J. Harel, C. Koch, and P. Perona. Graph-based visual saliency. In NIPS, 2006.
[SR]X. Hou and L. Zhang. Saliency detection: A spectral residual approach. In CVPR, 2007.
[FT]R. Achanta, S. Hemami, F. Estrada, and S. Susstrunk. Frequency-tuned salient region detection. In CVPR, pages 1597-1604, 2009.
[CA]S. Goferman, L. Zelnik-Manor, and A. Tal. Context-aware saliency detection. In CVPR, pages 2376-2383, 2010.
[RA]E. Rahtu, J. Kannala, M. Salo, and J. Heikkilae. Segmenting salient objects from images and videos. In ECCV, pages 366-379, 2010.
[DW]L. Duan, C. Wu, J. Miao, L. Qing, and Y. Fu. Visual saliency detection by spatially weighted dissimilarity. In CVPR, pages 473-480, 2011.
[CB]H. Jiang, J. Wang, Z. Yuan, T. Liu, N. Zheng, and S. Li. Automatic salient object segmentation based on context and shape prior. In BMVC, 2011.
[RC]M.-M. Cheng, G.-X. Zhang, N. J. Mitra, X. Huang, and S.-M. Hu. Global contrast based salient region detection. In CVPR, pages 409-416, 2011.
[SVO]K.-Y. Chang, T.-L. Liu, H.-T. Chen, and S.-H. Lai. Fusing generic objectness and visual saliency for salient object detection. In ICCV, pages 914-921,
2011.
[LR]X. Shen and Y. Wu. A unified approach to salient object detection via low rank matrix recovery. In CVPR, pages 853-860, 2012.
上述した実施形態は本発明の一具体例を示したものであり、本発明の範囲をそれらの具体例に限定する趣旨のものではない。
きるが、本手法の類似度マップの生成アルゴリズムはこれらに限られるものではない。例えば、多様体ランキング法(Manifold Ranking法)を用いて類似度マップを生成してもよい。また、周縁部領域全体との類似度を求める際に、上端部、下端部、左端部、右端部との類似度をそれぞれ求めて、これらを統合して周縁部領域との類似度を求めるようにしても良い。
上述した画像処理装置の具体的な実装は、ソフトウェア(プログラム)による実装と、ハードウェアによる実装のいずれも可能である。例えば、画像処理装置に内蔵されたコンピュータ(マイコン、CPU、MPU、FPGA等)のメモリにコンピュータプログラムを格納し、当該コンピュータプログラムをコンピュータに実行させて、各処理を実現させてもよい。また、本発明の全部または一部の処理を論理回路により実現するASIC等の専用プロセッサを設けることも好ましい。また、本発明は、クラウド環境におけるサーバーにも適用可能である。
11 画像取得部 12 制御部
121 SP(スーパーピクセル)画像生成部 122 復元誤差マップ生成部
123 顕著性マップ生成部
Claims (12)
- 画像を取得する画像取得部と、
前記画像における1つまたは複数の画素からなる領域を単位構成として、第1のアルゴリズムに基づいて前記領域と前記画像の周縁部の領域との類似度を表す第1の類似度マップを算出し、第2のアルゴリズムに基づいて前記領域と前記画像の周縁部の領域との類似度を表す第2の類似度マップを算出する類似度マップ生成部と、
前記第1の類似度マップおよび前記第2の類似度マップを統合して顕著性マップを生成する顕著性マップ生成部と、
を備える画像処理装置。 - 前記類似度マップ生成部は、対象の領域を前記周縁部の領域に基づいて再構成し、再構成誤差が小さいほど類似度が大きいものとして前記第1および第2の類似度マップを生成する、
請求項1に記載の画像処理装置。 - 前記第1のアルゴリズムは、
前記周縁部の領域の特徴量に対して主成分分析を施して複数の固有ベクトルを算出し、
対象の領域の特徴量を前記複数の固有ベクトルの線形結合によって再構成し、
再構成誤差が小さいほど類似度を大きく算出する、
アルゴリズムである、
請求項1または2に記載の画像処理装置。 - 前記第2のアルゴリズムは、
対象の領域の特徴量を、できるだけ少ない周縁部の領域の特徴量の組合せで近似するように、コスト関数が最小となる係数を用いて前記周縁部の領域の特徴量の線形結合によって再構成し、
再構成誤差が小さいほど類似度を大きく算出する、
アルゴリズムである、
請求項1から3のいずれか1項に記載の画像処理装置。 - 前記画像取得部が取得した画像から、画素の特徴量に基づいて連結された複数の画素からなる領域に分割してスーパーピクセル画像を生成するスーパーピクセル画像生成部を更に有し、
前記類似度マップ生成部は、前記スーパーピクセル画像に基づいて前記第1および第2の類似度マップを生成する、
請求項1から4のいずれか1項に記載の画像処理装置。 - 前記スーパーピクセル画像生成部は、スーパーピクセル数が異なる複数のスーパーピクセル画像を生成するものであり、
前記類似度マップ生成部は、
前記複数のスーパーピクセル画像のそれぞれから第1のアルゴリズムに基づいて類似度マップを生成し、これら複数の類似度マップを統合して前記第1の類似度マップを生成し、
前記複数のスーパーピクセル画像のそれぞれから第2のアルゴリズムに基づいて類似度マップを生成し、これら複数の類似度マップを統合して前記第2の類似度マップを生成する、
請求項5に記載の画像処理装置。 - 前記類似度マップ生成部は、前記複数のスーパーピクセル画像のそれぞれから前記第1
および第2のアルゴリズムに基づいて生成された類似度マップに対して、平滑化処理を施してから、前記第1および第2の類似度マップを生成するものであり、
前記平滑化処理は、前記類似度マップの生成に用いられたスーパーピクセル画像をクラスタリングし、各クラスタ内での類似度を平滑化する処理である、
請求項6に記載の画像処理装置。 - 前記類似度マップ生成部は、前記複数のスーパーピクセル画像から前記第1および第2のアルゴリズムに基づいて生成された複数の類似度マップを重み付け平均して前記第1および第2の類似度マップを生成するものであり、前記重み付け平均における重みは、前記画像取得部が取得した画像における画素の特徴量と当該画素が属するスーパーピクセルの特徴量とが近いほど大きい重みである、
請求項6または7に記載の画像処理装置。 - 前記類似度マップ生成部は、算出された類似度に対して、前記画像において検出された物体の位置を中心とする重み付けをして前記第1および第2の類似度マップを生成する、
請求項1から8のいずれか1項に記載の画像処理装置。 - 前記顕著性マップ生成部は、
前記第1の類似度マップを事前確率として用い、前記第1の類似度マップと前記第2の類似度マップとから尤度を算出し、当該事前確率と尤度から顕著領域の事後確率を表す第1の顕著性マップを算出し、
前記第2の類似度マップを事前確率として用い、前記第2の類似度マップと前記第1の類似度マップとから尤度を算出し、当該事前確率と尤度から顕著領域の事後確率を表す第2の顕著性マップを算出し、
前記第1の顕著性マップと前記第2の顕著性マップを統合して、最終的な顕著性マップを生成する、
請求項1から9のいずれか1項に記載の画像処理装置。 - コンピュータによって実行される画像処理方法であって、
画像を取得する画像取得ステップと、
前記画像における1つまたは複数の画素からなる領域を単位構成として、第1のアルゴリズムに基づいて前記領域と前記画像の周縁部の領域との類似度を表す第1の類似度マップを算出し、第2のアルゴリズムに基づいて前記領域と前記画像の周縁部の領域との類似度を表す第2の類似度マップを算出する類似度マップ生成ステップと、
前記第1の類似度マップおよび前記第2の類似度マップを統合して顕著性マップを生成する顕著性マップ生成ステップと、
を含む、画像処理方法。 - 請求項11に記載の画像処理方法の各ステップをコンピュータに実行させるためのコンピュータプログラム。
Priority Applications (5)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2013249605A JP6232982B2 (ja) | 2013-12-02 | 2013-12-02 | 画像処理装置、画像処理方法およびプログラム |
CN201410669439.3A CN104680512A (zh) | 2013-12-02 | 2014-11-20 | 图像处理装置以及方法 |
EP14194331.6A EP2879080B1 (en) | 2013-12-02 | 2014-11-21 | Image processing device and method, and computer readable medium |
US14/551,810 US9367762B2 (en) | 2013-12-02 | 2014-11-24 | Image processing device and method, and computer readable medium |
KR1020140164186A KR101603019B1 (ko) | 2013-12-02 | 2014-11-24 | 화상 처리 장치, 화상 처리 방법 및 컴퓨터로 판독 가능한 기록 매체 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2013249605A JP6232982B2 (ja) | 2013-12-02 | 2013-12-02 | 画像処理装置、画像処理方法およびプログラム |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2015106382A JP2015106382A (ja) | 2015-06-08 |
JP6232982B2 true JP6232982B2 (ja) | 2017-11-22 |
Family
ID=51947199
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2013249605A Active JP6232982B2 (ja) | 2013-12-02 | 2013-12-02 | 画像処理装置、画像処理方法およびプログラム |
Country Status (5)
Country | Link |
---|---|
US (1) | US9367762B2 (ja) |
EP (1) | EP2879080B1 (ja) |
JP (1) | JP6232982B2 (ja) |
KR (1) | KR101603019B1 (ja) |
CN (1) | CN104680512A (ja) |
Families Citing this family (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP6351240B2 (ja) * | 2013-11-20 | 2018-07-04 | キヤノン株式会社 | 画像処理装置、画像処理方法及びプログラム |
CN105787930B (zh) * | 2016-02-17 | 2019-01-18 | 上海文广科技(集团)有限公司 | 基于锐利度的针对虚化图像的显著性检测方法及系统 |
CN106056590B (zh) * | 2016-05-26 | 2019-02-22 | 重庆大学 | 基于Manifold Ranking和结合前景背景特征的显著性检测方法 |
CN106127785B (zh) * | 2016-06-30 | 2019-02-22 | 重庆大学 | 基于流形排序和随机游走的图像显著性检测方法 |
CN107749066A (zh) * | 2017-11-10 | 2018-03-02 | 深圳市唯特视科技有限公司 | 一种基于区域的多尺度时空视觉显著性检测方法 |
JP7056131B2 (ja) * | 2017-12-15 | 2022-04-19 | オムロン株式会社 | 画像処理システム、画像処理プログラム、および画像処理方法 |
CN108320281B (zh) * | 2018-01-19 | 2021-11-09 | 福建师范大学 | 一种基于多特征扩散的图像显著性检测方法及终端 |
CN108764027A (zh) * | 2018-04-13 | 2018-11-06 | 上海大学 | 一种基于改进的rbd显著性计算的海面目标检测方法 |
CN108776815A (zh) * | 2018-06-04 | 2018-11-09 | 国网辽宁省电力有限公司信息通信分公司 | 一种基于深度特征的显著性目标检测方法 |
CN108961268B (zh) * | 2018-06-19 | 2022-03-25 | 广东工业大学 | 一种显著图计算方法及相关装置 |
IT201800006594A1 (it) | 2018-06-22 | 2019-12-22 | "Procedimento per la mappatura dell’ambiente di un veicolo, corrispondenti sistema, veicolo e prodotto informatico" | |
CN109830280A (zh) * | 2018-12-18 | 2019-05-31 | 深圳壹账通智能科技有限公司 | 心理辅助分析方法、装置、计算机设备和存储介质 |
CN110149516A (zh) * | 2019-05-29 | 2019-08-20 | 东北石油大学 | 一种图像的压缩感知方法、装置及系统 |
Family Cites Families (17)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6282317B1 (en) * | 1998-12-31 | 2001-08-28 | Eastman Kodak Company | Method for automatic determination of main subjects in photographic images |
JP3848514B2 (ja) * | 2000-02-23 | 2006-11-22 | 富士通株式会社 | 顕著性算出装置及び方法 |
US8094947B2 (en) * | 2008-05-20 | 2012-01-10 | Xerox Corporation | Image visualization through content-based insets |
JP5401962B2 (ja) * | 2008-12-15 | 2014-01-29 | ソニー株式会社 | 画像処理装置、画像処理方法および画像処理プログラム |
US8559671B2 (en) * | 2008-12-18 | 2013-10-15 | The Regents Of The University Of California | Training-free generic object detection in 2-D and 3-D using locally adaptive regression kernels |
JP5235770B2 (ja) | 2009-04-27 | 2013-07-10 | 日本電信電話株式会社 | 顕著領域映像生成方法、顕著領域映像生成装置、プログラムおよび記録媒体 |
KR101018299B1 (ko) * | 2009-04-28 | 2011-03-04 | 한국과학기술원 | 영상에서 복수의 물체를 감지하는 방법 및 장치 |
EP2256667B1 (en) * | 2009-05-28 | 2012-06-27 | Honda Research Institute Europe GmbH | Driver assistance system or robot with dynamic attention module |
US8358855B2 (en) * | 2009-07-08 | 2013-01-22 | Honeywell International Inc. | Determining probabilities from compared covariance appearance models to detect objects of interest in images |
JP4868046B2 (ja) * | 2009-08-31 | 2012-02-01 | カシオ計算機株式会社 | 画像処理装置、画像処理方法及びプログラム |
JP4862930B2 (ja) * | 2009-09-04 | 2012-01-25 | カシオ計算機株式会社 | 画像処理装置、画像処理方法及びプログラム |
JP2012146040A (ja) * | 2011-01-11 | 2012-08-02 | Osaka City Univ | 異常事態の検出システム |
US9721338B2 (en) * | 2011-01-11 | 2017-08-01 | Rutgers, The State University Of New Jersey | Method and apparatus for segmentation and registration of longitudinal images |
US8989437B2 (en) * | 2011-05-16 | 2015-03-24 | Microsoft Corporation | Salient object detection by composition |
JP5811654B2 (ja) * | 2011-07-15 | 2015-11-11 | カシオ計算機株式会社 | 画像処理装置、画像処理方法及びプログラム |
JP5654962B2 (ja) * | 2011-08-19 | 2015-01-14 | 日本放送協会 | 視線位置推定装置及び視線位置推定プログラム |
US9042648B2 (en) * | 2012-02-23 | 2015-05-26 | Microsoft Technology Licensing, Llc | Salient object segmentation |
-
2013
- 2013-12-02 JP JP2013249605A patent/JP6232982B2/ja active Active
-
2014
- 2014-11-20 CN CN201410669439.3A patent/CN104680512A/zh active Pending
- 2014-11-21 EP EP14194331.6A patent/EP2879080B1/en active Active
- 2014-11-24 US US14/551,810 patent/US9367762B2/en active Active
- 2014-11-24 KR KR1020140164186A patent/KR101603019B1/ko active IP Right Grant
Also Published As
Publication number | Publication date |
---|---|
KR101603019B1 (ko) | 2016-03-11 |
KR20150063924A (ko) | 2015-06-10 |
US9367762B2 (en) | 2016-06-14 |
CN104680512A (zh) | 2015-06-03 |
EP2879080A2 (en) | 2015-06-03 |
EP2879080A3 (en) | 2016-03-02 |
US20150154471A1 (en) | 2015-06-04 |
EP2879080B1 (en) | 2021-09-22 |
JP2015106382A (ja) | 2015-06-08 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6232982B2 (ja) | 画像処理装置、画像処理方法およびプログラム | |
US11798132B2 (en) | Image inpainting method and apparatus, computer device, and storage medium | |
WO2022002039A1 (zh) | 一种基于视觉地图的视觉定位方法、装置 | |
Chen et al. | Image matting with local and nonlocal smooth priors | |
US20190294970A1 (en) | Systems and methods for polygon object annotation and a method of training an object annotation system | |
WO2022022154A1 (zh) | 脸部图像处理方法、装置、设备及存储介质 | |
US9626552B2 (en) | Calculating facial image similarity | |
Zhuge et al. | Deep embedding features for salient object detection | |
WO2021137946A1 (en) | Forgery detection of face image | |
CN114155365B (zh) | 模型训练方法、图像处理方法及相关装置 | |
US11574500B2 (en) | Real-time facial landmark detection | |
JP6071002B2 (ja) | 信頼度取得装置、信頼度取得方法および信頼度取得プログラム | |
JP6107531B2 (ja) | 特徴抽出プログラム及び情報処理装置 | |
Rajput et al. | A robust face super-resolution algorithm and its application in low-resolution face recognition system | |
CN110942456B (zh) | 篡改图像检测方法、装置、设备及存储介质 | |
CN111507288A (zh) | 图像检测方法、装置、计算机设备和存储介质 | |
AU2015218184A1 (en) | Processing hyperspectral or multispectral image data | |
CN114170558A (zh) | 用于视频处理的方法、系统、设备、介质和产品 | |
US11216961B2 (en) | Aligning digital images by selectively applying pixel-adjusted-gyroscope alignment and feature-based alignment models | |
Zou et al. | Video matting via sparse and low-rank representation | |
WO2022206679A1 (zh) | 图像处理方法、装置、计算机设备和存储介质 | |
CN115862119A (zh) | 基于注意力机制的人脸年龄估计方法及装置 | |
JP6717049B2 (ja) | 画像解析装置、画像解析方法およびプログラム | |
CN112183299B (zh) | 行人属性预测方法、装置、电子设备及存储介质 | |
Yuan et al. | Single image super-resolution via sparse kpca and regression |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20161107 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20170908 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20170926 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20171009 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6232982 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |