JP2015148979A - 画像処理方法、画像処理プログラムおよび画像処理装置 - Google Patents

画像処理方法、画像処理プログラムおよび画像処理装置 Download PDF

Info

Publication number
JP2015148979A
JP2015148979A JP2014022034A JP2014022034A JP2015148979A JP 2015148979 A JP2015148979 A JP 2015148979A JP 2014022034 A JP2014022034 A JP 2014022034A JP 2014022034 A JP2014022034 A JP 2014022034A JP 2015148979 A JP2015148979 A JP 2015148979A
Authority
JP
Japan
Prior art keywords
image
linear combination
dictionary
training
dictionaries
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2014022034A
Other languages
English (en)
Other versions
JP2015148979A5 (ja
JP6292911B2 (ja
Inventor
良範 木村
Yoshinori Kimura
良範 木村
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2014022034A priority Critical patent/JP6292911B2/ja
Priority to US14/612,756 priority patent/US9443287B2/en
Publication of JP2015148979A publication Critical patent/JP2015148979A/ja
Publication of JP2015148979A5 publication Critical patent/JP2015148979A5/ja
Application granted granted Critical
Publication of JP6292911B2 publication Critical patent/JP6292911B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/70Denoising; Smoothing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • G06T3/40Scaling of whole images or parts thereof, e.g. expanding or contracting
    • G06T3/4053Scaling of whole images or parts thereof, e.g. expanding or contracting based on super-resolution, i.e. the output image resolution being higher than the sensor resolution
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning

Landscapes

  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)

Abstract

【課題】既知の第1の画像を未知の第2の画像に高精度に変換する。
【解決手段】画像処理方法は、第1の画像を第2の画像に変換する。該方法は、辞書学習により生成された複数の第1の辞書および該複数の第1の辞書のそれぞれに対応する複数の第2の辞書を用意し(S201)、第1の画像を第1の辞書の要素の線形結合により近似して線形結合係数を生成する処理を複数の第1の辞書のそれぞれについて行って複数の線形結合係数を求め(S206)、該複数の線形結合係数のそれぞれに対して、絶対値が最大の係数要素と2番目に大きな係数要素との比を算出して、該比が最大となる特定線形結合係数を選択し(S207)、複数の第2の辞書のうち、特定線形結合係数が生成された第1の辞書に対応する特定辞書を選択し(S208)、特定線形結合係数と特定辞書の要素との線形結合を用いて第2の画像を生成する(S209〜S211)。
【選択図】図2

Description

本発明は、与えられた既知の画像を未知の画像に高精度に変換する画像処理技術に関する。
既知の画像を未知の画像に変換する画像処理方法として、非特許文献1には、高解像度画像から画素を間引く等の劣化処理により生成された低解像度画像から、劣化処理前の高解像度画像を求める、いわゆる超解像処理が開示されている。具体的には、まず低解像度画像にニアレストネイバー法等の補間処理を行い、高解像度の中間画像を生成する。この中間画像は、補間処理の影響で平滑化されているため、次に中間画像から任意に抽出した小領域を、生成したい高解像度画像における平滑化されていない対応小領域に変換する。このような処理を中間画像の全域で行うことで高解像度画像(超解像画像)が得られる。
また、非特許文献2には、ノイズを含む劣化画像から、ノイズが加わる前の原画像を求める、いわゆるノイズ除去処理が開示されている。具体的には、まず劣化画像から任意に抽出された小領域から、生成したい原画像におけるノイズを含まない対応小領域に変換する。このような処理を劣化画像の全域で行うことでノイズが除去された原画像が得られる。
このように、従来は、劣化した画像から抽出した小領域を劣化前の画像の対応小領域へと変換する処理を行うことで、高解像度画像やノイズ除去画像を得ている。
非特許文献1および非特許文献2にて開示された画像処理方法では、劣化前の訓練画像もしくは劣化前後の訓練画像の組から抽出した複数の小領域から、辞書学習により予め生成した辞書を用いている。このような画像処理方法は、スパース表現に基づく画像処理方法もしくは以下の説明で用いるスパースコーディングと呼ばれている。なお、辞書とは、辞書学習の結果として生成される複数の小領域を要素とする集合である。また、訓練画像とは、辞書学習により辞書を生成するための画像を意味である。
Jianchao Yang, Zhaowen Wang, Zhe Lin, Scott Cohen, Thomas Huang著 「Coupled Dictionary Training for Image Super-Resolution」,Transactions on Image Processing,アメリカ合衆国,IEEE,2012,Vol.21,Issue8,p.3467-3478 Michael Elad、Michal Aharon著,「Image Denoising Via Sparse and Redundant Representations Over Learned Dictionaries」,Transactions on Image Processing,アメリカ合衆国,IEEE,2006,Vol.15,Issue12,p.3736-3745
しかしながら、非特許文献1,2にて開示された画像処理方法では、既知の任意の画像(以下、第1の画像という)を未知の任意の画像(以下、第2の画像)に高精度に変換することができない。非特許文献2にて開示された画像処理方法では、劣化画像から抽出した小領域を原画像における対応小領域に変換することはできるが、任意の第1の画像を任意の第2の画像に変換することは原理的にできない。また、非特許文献1にて開示された画像処理方法では、任意の第1の画像を任意の第2の画像に変換することはできるものの、高精度な変換を行うことができない。
本発明は、既知の第1の画像を未知の第2の画像に高精度に変換することができる画像処理方法、画像処理プログラムおよび画像処理装置を提供する。
本発明の一側面としての画像処理方法は、第1の画像を第2の画像に変換する。該画像処理方法は、辞書学習により生成された複数の第1の辞書および該複数の第1の辞書のそれぞれに対応する複数の第2の辞書を用意し、第1の画像を第1の辞書の要素の線形結合により近似して線形結合係数を生成する処理を複数の第1の辞書のそれぞれについて行って複数の線形結合係数を求め、該複数の線形結合係数のそれぞれに対して、絶対値が最大の係数要素と2番目に大きな係数要素との比を算出して、該比が最大となる特定線形結合係数を選択し、複数の第2の辞書のうち、特定線形結合係数が生成された第1の辞書に対応する特定辞書を選択し、特定線形結合係数と特定辞書の要素との線形結合を用いて第2の画像を生成することを特徴とする。
なお、上記画像処理方法をコンピュータに実行させるコンピュータプログラムとしての画像処理プログラムも、本発明の他の一側面を構成する。
また、本発明の他の一側面としての画像処理装置は、第1の画像を第2の画像に変換する画像処理を行う。該画像処理装置は、辞書学習により生成された複数の第1の辞書および該複数の第1の辞書のそれぞれに対応する複数の第2の辞書を用意する用意手段と、第1の画像を第1の辞書の要素の線形結合により近似して線形結合係数を生成する処理を複数の第1の辞書のそれぞれについて行って複数の線形結合係数を求める係数算出手段と、複数の線形結合係数のそれぞれに対して、絶対値が最大の係数要素と2番目に大きな係数要素との比を算出して、該比が最大となる特定線形結合係数を選択する係数選択手段と、複数の第2の辞書のうち、特定線形結合係数が生成された第1の辞書に対応する特定辞書を選択する辞書選択手段と、特定線形結合係数と特定辞書の要素との線形結合を用いて第2の画像を生成する画像生成手段とを有することを特徴とする。
本発明によれば、既知の第1の画像から高精度に変換した未知の第2の画像を生成することができる。
本発明の実施例1である画像処理システムの構成を示すブロック図。 実施例1において行われる画像処理の手順を示すフローチャート。 本発明の実施例2において行われる画像処理の手順を示すフローチャート。 実施例2で用いたベクトルデータを示す図。 実施例2で生成された分類ベクトルの1つを示す図。 実施例2の画像処理を用いて画像分類を行った結果を示す図。 従来の画像処理方法を用いて画像分類を行う手順を示すフローチャート。 従来の画像処理方法を用いて画像分類を行った結果を示す図。 本発明の実施例3において行われる画像処理により画像分類を行った結果を示す図。 従来の画像処理方法により画像分類を行った結果を示す図。
以下、本発明の実施例について図面を参照して説明する。
図1には、本発明の実施例1としての画像処理装置の構成を示している。画像処理装置101は、画像入力部102および画像出力部103とともに画像処理システム100を構成し、画像入力部102および画像出力部103とバス配線104で接続されている。
画像入力部102は、デジタルカメラやスライドスキャナ等の撮像装置で構成され、撮像により生成された画像(以下、入力画像という)を画像処理装置101に入力する。スライドスキャナは、病理診断のための病理標本を撮像して画像を取得する装置である。なお、画像入力部102は、USBメモリやDVD、CD−ROM等の記憶媒体から入力画像を読み出すUSBインターフェースや光学ドライブ等のインターフェース装置で構成されてもよい。また、これらの装置を複数含むように画像入力部102を構成してもよい。
本実施例で扱う入力画像は、輝度値の2次元配列データを持つモノクローム画像もしくはRGBの色ごとに輝度値の2次元配列データを持つカラー画像である。カラー画像を表す色空間はRGBに限らず、YCbCrやHSV等の他の色空間でもよい。
画像出力部103は、液晶ディスプレイ等の表示装置で構成され、画像処理装置101にて生成された画像(以下、出力画像という)を出力する。また、USBインターフェースや光学ドライブ等のインターフェース装置で画像出力部103を構成し、出力画像をUSBメモリやDVD等の記憶媒体に書き出してもよい。また、HDD等の記憶装置で画像出力部103を構成し、出力画像を記憶してもよい。さらに、これらの装置を複数含むように画像出力部103を構成してもよい。また、画像処理装置101に画像入力部102と画像出力部103を内蔵することで、画像処理装置101をデジタルカメラ等の撮像装置として構成してもよい。
なお、図1には示していないが、画像処理システム100は、CPU等により構成される制御部や、RAM等で構成される一時記憶部や、キーボード等で構成される入力デバイスを含む。
次に、本実施例の画像処理装置101が行う画像処理(画像処理方法)について、図2に示すフローチャートを用いて説明する。画像処理装置101は、コンピュータにより構成され、既知の入力画像(以下、第1の画像という)を未知の出力画像(以下、第2の画像)に変換する画像処理を、コンピュータプログラムである画像処理プログラムに従って実行する。なお、画像処理装置101は、用意手段、係数算出手段、係数選択手段、辞書選択手段および画像生成手段として機能する。
以下の説明において、第1の画像と第2の画像は同じサイズを有する、すなわち縦方向の画素数をpとして横方向の画素数をqとするときのp×qが同じであるとする。また、本実施例では第1の画像がモノクローム画像である場合について説明するが、本実施例の画像処理は第1の画像がカラー画像である場合も適用可能である。
まずステップS201では、画像処理装置101は、第1の訓練画像と第2の訓練画像を用意(準備)する。第1の訓練画像は画像処理対象である第1の画像と類似する画像であり、第2の訓練画像は画像処理の結果となる第2の画像と類似する画像である。例えば、花の画像である第1の画像を人の画像である第2の画像に変換する場合には、第1の訓練画像として花の画像を、第2の訓練画像として人の画像を用意する。
次に、ステップS202では、画像処理装置101は、第1の訓練画像におけるランダムに決定した複数の場所から複数の第1の訓練部分画像としての複数の小領域(以下、第1の訓練小領域という)を抽出する。また、第2の訓練画像における上記複数の第1の訓練小領域に対応する(同じ)場所から複数の第2の訓練部分画像としての複数の小領域(以下、第2の訓練小領域という)を抽出する。なお、第1の訓練画像から抽出される複数の第1の訓練小領域(場所)は互いに部分的に重複してもよいが、完全に重複してはならない。また、複数の第1の訓練小領域のサイズは互いに同じであり、それぞれの第1の訓練小領域のサイズは第1の訓練画像より小さく、かつ一辺が2画素以上でなければならない。第1および第2の訓練小領域のサイズも、縦方向の画素数をpとし、横方向の画素数をqとするとき、p×qとする。
次に、ステップS203では、画像処理装置101は、第1の訓練画像から抽出した各第1の訓練小領域の画素値分布からその第1の訓練小領域の画素値の平均値(DC成分という)を減算した成分であるAC成分(第1のAC成分)を求める。また、第2の訓練画像から抽出した各第2の訓練小領域についても、同様にAC成分(第2のAC成分)を求める。
そして、画像処理装置101は、互いに対応する(同じ場所の)第1および第2の訓練小領域のAC成分をそれぞれベクトルに変換してACベクトルを生成し、該ACベクトル同士を上下に連結して訓練ベクトルを生成する。この処理を、互いに対応する複数の第1および第2の訓練小領域の全てに対して行い、複数の訓練ベクトルを生成する。
次に、ステップS204では、画像処理装置101は、生成した複数の訓練ベクトルに対して、クラスタリングと呼ばれる処理を行い、類似の訓練ベクトルを集めたクラスタと呼ばれるベクトルの集合を複数生成する。
ここで、クラスタリングについて説明する。クラスタリングとは、データの集合を、類似したデータからなる複数の部分集合であるクラスタに分類する処理である。クラスタリングアルゴリズムとしては、k-means法が代表的である。k-means法では、簡単には、各クラスタの代表値(重心)とクラスタ内の他データとの距離が最小となるように重心を更新することでクラスタリングを行う。本実施例では、クラスタリングアルゴリズムとして、k-means法を用いるが、他のアルゴリズムを用いてもよい。本実施例において、クラスタリングの結果生成されるクラスタは、具体的には、ステップS203で生成した複数の訓練ベクトルのうち互いに類似する訓練ベクトルを横に連結した行列であり、この行列(クラスタ)を以下の説明では、訓練行列という。
次に、ステップS205では、画像処理装置101は、各クラスタに対して辞書学習と呼ばれる処理を行い、クラスタごとに第1の辞書と第2の辞書を生成(用意)する。クラスタをM(複数)個生成した場合には、M(同じ複数)組の第1および第2の辞書を生成する。
ここで、辞書学習について説明する。辞書学習とは、訓練行列から、第1および第2の辞書を生成する処理である。辞書学習アルゴリズムとしては、例えば非特許文献1で開示されたjoint sparse codingとcoupled dictionary trainingの2つがある。
joint sparse codingでは、まず訓練行列から、K−SVD法等により、1つの辞書行列を生成する。K−SVD法とは、訓練行列から辞書行列を生成するアルゴリズムの1つで、スパースコーディングにおいて最も一般的に用いられている。本実施例では、辞書学習においてK−SVD法を用いるが、他のアルゴリズムを用いてもよい。
joint sparse codingにおいて生成された辞書行列のうち、上半分が第1の訓練画像に対応し、下半分が第2の訓練画像に対応する。次に、joint sparse codingでは、生成された辞書行列の上半分を取り出し、取り出した行列の列ベクトルをそれぞれ小領域に変換し、得られた小領域の集合を第1の辞書と呼ぶ。また、生成された辞書行列の下半分を取り出して、同様の処理を行い、得られた小領域の集合を第2の辞書と呼ぶ。ここでの小領域のサイズは、ステップS202で定めた小領域のサイズと同じであるとする。また、辞書の要素である小領域の数は、予めユーザが指定する。
なお、これまでに説明した処理は、第1および第2の訓練画像から抽出する第1および第2の訓練小領域のサイズが互いに同じであることを前提としている。第1および第2の訓練小領域のサイズが互いに異なる場合は、以下の説明においてその都度処理の相違点を述べることとする。また、辞書行列の対応する部分を取り出し、取り出した行列の列ベクトルをそれぞれ小領域に変換する処理は必ずしも行う必要はない。目的に応じて、列ベクトルをそれぞれ小領域に変換する処理を行わず、列ベクトルの集合を辞書として扱ってもよい。
coupled dictionary trainingはjoint sparse codingとは異なる方法で学習を行うが、本実施例ではjoint sparse codingを用いることとし、coupled dictionary trainingの説明は省略する。なお、joint sparse codingとcoupled dictionary trainingのいずれを用いても、同様の効果を期待できる辞書を生成できる。
また、以上のステップS201からステップS205の処理は、画像処理装置101が常に行う必要はなく、予めユーザが行っておき、生成した複数の第1および第2の辞書の組を画像処理装置101に記憶させてもよい。そして、画像処理装置101は、記憶された複数の第1および第2の辞書の組を用いて、ステップS206以降の処理を行えばよい。
ステップS206では、画像処理装置101は、第1の画像の任意の場所から小領域(第1の小領域:以下、入力小領域という)を抽出する。そして、抽出した入力小領域のAC成分を、複数の第1の辞書の要素の線形結合により近似して複数の線形結合係数を求める。すなわち、第1の辞書がM個ある場合には、線形結合係数はM個求められる。
ここで、線形結合により近似するとは、抽出した入力小領域のAC成分を、第1の辞書の要素である小領域の重み付きの和で表現することである。そして、この重みが線形結合係数である。第1の辞書の小領域のサイズは、ステップ202で定めた小領域のサイズと同じであるとする。線形結合近似を数式で表すと、以下の(1)式のようになる。
ただし、aij(j=1〜n)は複数ある第1の辞書のうちi番目の辞書のj番目の要素を示す。また、αij(j=1〜n)は要素aijに対する重み(線形結合係数)を示す。さらに、bは第1の画像から抽出した入力小領域のAC成分を示し、nは第1の辞書の全要素数を示す。なお、画像から抽出した小領域を、辞書の要素の線形結合で近似するためのアルゴリズムとしては、非特許文献2で開示されたorthogonal matching pursuit(OMP)等がある。本実施例では、抽出した小領域を辞書の要素の線形結合で近似する場合はOMPを用いるが、他のアルゴリズムを用いてもよい。
次に、ステップS207では、画像処理装置101は、複数の線形結合係数のうち、線形結合係数の比が最大となる1つの線形結合係数(特定線形結合係数)を選択する。線形結合係数の比とは、その線形結合係数の要素(係数要素)のうち絶対値が最大の要素と2番目に大きな要素との比(絶対値)である。線形結合係数の比が最大となる線形結合係数が複数存在する場合は、そのうち1つを任意に選択する。線形結合係数の比を数式で表すと、以下の(2)式のようになる。
ただし、rは複数の線形結合係数のうちi番目の線形結合係数の比であり、αi_1はi番目の線形結合係数の要素(係数要素)のうち絶対値が最大の要素を示し、αi_2はi番目の線形結合係数の要素のうち絶対値が2番目に大きい要素を示す。
ステップS208では、画像処理装置101は、ステップS207において選択した線形結合係数が生成された第1の辞書と、これに対応する第2の辞書(特定辞書)を選択する。すなわち、i番目の線形結合係数を選択した場合には、この線形結合係数を生成したのはi番目の第1の辞書であるので、これに対応するi番目の第2の辞書を選択する。
ステップS209では、画像処理装置101は、選択した線形結合係数(特定線形結合係数)と選択した第2の辞書(特定辞書)の要素との線形結合により、第2の画像のうち入力小領域に対応する場所の小領域(第2の小領域:以下、出力小領域という)のAC成分を生成する。そして、この生成した出力小領域のAC成分を、第1の画像における該出力小領域に対応する入力小領域のDC成分を加えたうえで、該出力小領域の画素値に加える。なお、第1の画像における入力小領域のDC成分を加える処理は、目的に応じて省略したり変更したりしてもよい。また、第2の画像は第1の画像と同サイズであり、該第2の画像(出力小領域)の画素値の初期値はゼロであるとする。選択した線形結合係数と選択した第2の辞書の要素との線形結合を、数式で表すと以下の(3)式のようになる。
ただし、a′(j=1〜n)は選択した第2の辞書のj番目の要素を示し、α(j=1〜n)は選択した線形結合係数のj番目の要素を示す。また、cは第2の画像における入力小領域に対応する場所における出力小領域のAC成分を示し、nは選択した第2の辞書の全要素数を示す。
次に、ステップS210では、画像処理装置101は、第1の画像から抽出した全ての入力小領域に対するステップS206からステップS209の処理が終了したか否かを判定する。まだ全ての入力小領域に対する処理が終了していない場合はステップS206に戻り、次の入力小領域に対するステップS206からステップS209の処理を行う。全ての入力小領域に対する処理が終了した場合は、ステップS211に進む。なお、第1の画像からの入力小領域を抽出する際には入力小領域同士が部分的に重複してもよいが、第1の画像の全域を隙間なく覆うように抽出する必要がある。
ステップS211では、画像処理装置101は、ステップS209において第2の画像にて出力小領域が重複して足し合わされている場所の画素値を、その重複数で除算する。
以上の手順により、既知の第1の画像を未知の第2の画像に高精度に変換することができる。
以下、本実施例の画像処理方法の応用について説明する。
実施例2では、画像処理装置101は、図3に示すフローチャートに従って、第1の画像に対して画像分類を行い、該画像分類の結果に応じて第1の画像を第2の画像に変換する。画像分類とは、第1の画像中に存在する複数の物体像(撮像により生成された被写体像)を予め定めた種類のうちいずれかに分類し、その分類結果を第2の画像(分類画像)として示す技術である。例えば、画像分類では、物体像として人の画像(以下、単に人ともいう)と花の画像(以下、単に花ともいう)が存在する第1の画像を、人の領域と花の領域とに分け、人の領域は赤色に、花の領域は青色に塗り分けた第2の画像を生成する。もちろん、分類する物体像は人や花の画像に限らない。また、分類結果を示す方法は赤色と青色に塗り分けることに限らない。本実施例では、第1の画像を人(顔)の領域と花の領域に分類し、分類結果を第2の画像として示す方法について説明する。
まず、ステップS301では、画像処理装置101は、第1の訓練画像と第2の訓練画像を用意する。画像分類において、第1の訓練画像は分類する複数種類の物体像を含む画像である。本実施例では、人と花を分類するので、第1の訓練画像として、人の画像と花の画像を用意する。また、画像分類において、第2の訓練画像はベクトルデータである。具体的には、人の画像に対応する第1のベクトルデータと花の画像に対応する第2のベクトルデータをそれぞれ第2の訓練画像として用意する。
これら第1のベクトルデータと第2のベクトルデータは、区別できさえすれば任意のベクトルデータでよいが、同じ長さでのデータである必要がある。すなわち、本実施例にいう画像分類は、ある画像をそれに対応するベクトルデータに変換することである。具体的には、人(顔)の画像を第1のベクトルデータに変換し、花の画像を第2のベクトルデータに変換する。本実施例では、第1のベクトルデータと第2のベクトルデータとして、図4に示すような17次元のベクトルを用いる。図4(a)が第1のベクトルデータを示し、図4(b)は第2のベクトルデータを示す。また、ベクトルデータの長さは17次元に限らず、2次元以上であればよい。
次に、ステップS302では、画像処理装置101は、第1の訓練画像から複数の訓練部分画像である複数の訓練小領域を抽出する。ここで、各訓練小領域のサイズは、実施例1でも述べたように、第1の画像のサイズより小さければよいが、その一辺が2画素以上でなければならない。本実施例では、例として、各訓練小領域のサイズを8×8画素とした。また、訓練小領域の抽出ルールは、実施例1のステップS202にて説明した第1の訓練小領域の抽出ルールと同じである。
次に、ステップS303では、画像処理装置101は、実施例1のステップS203と同様の方法により、第1の訓練画像から抽出した複数の訓練小領域のそれぞれのAC成分を求める。さらに、画像処理装置101は、各訓練小領域のAC成分を変換してACベクトルを求める。そして、各訓練小領域のACベクトルと該訓練小領域を抽出した物体像に対応する第2の訓練画像である第1または第2のベクトルデータとを上下に連結して訓練ベクトルを生成する。すなわち、第1の訓練画像のうち人の画像から抽出した訓練小領域のAC成分を変換して得られたACベクトルに対しては、第1のベクトルデータを連結して訓練ベクトルを生成する。また、花の画像から抽出した訓練小領域のAC成分を変換して得られたACベクトルに対しては、第2のベクトルデータを連結して訓練ベクトルを生成する。
ステップS304では、画像処理装置101は、実施例1のステップS204にて説明した方法によって、複数の訓練ベクトルに対してクラスタリングを行い、類似の訓練ベクトルからなる複数のクラスタを生成する。
ステップS305では、画像処理装置101は、実施例のステップS205にて説明した方法によって、各クラスタに対して辞書学習を行い、クラスタごとに第1および第2の辞書を生成する。実施例1でも説明したように、クラスタをM個生成した場合にはM組の第1および第2の辞書を生成する。本実施例では、例として10個のクラスタを生成する。第1および第2の辞書の全要素数が多いほど画像処理精度は高くなることは知られている。しかし、全要素数が多いほどそれらを生成するための計算時間が必要となり、処理が遅くなる。このため、本実施例においては、例として、第1および第2の辞書の全要素数をそれぞれ1024個とする。
なお、実施例1のステップS205では、第1および第2の訓練画像から抽出する第1および第2の訓練小領域のサイズは同じであるとして辞書学習の方法を説明したので、辞書学習の結果として生成される第1および第2の辞書のサイズ(要素のサイズおよび要素数)も同じである。
これに対して、ステップS305では、第1の訓練画像から抽出する訓練小領域のサイズは8×8画素であり、第2の訓練画像(第1および第2のベクトルデータ)のサイズは17×1画素である。このため、辞書学習の結果として生成される第1および第2の辞書のサイズが異なる。具体的には、第1の辞書は8×8画素の要素を1024個含み、第2の辞書は17×1画素の要素を1024個含む。
また、クラスタに対して辞書学習を行った結果として生成される辞書行列から第1および第2の辞書を生成する処理も、ステップS205とステップS305では異なる。具体的には、実施例1のステップS205では、訓練行列の上半分が第1の辞書に対応し、下半分が第2の辞書に対応するとして第1および第2の辞書を生成した。これに対して、ステップS305では、訓練行列の1行目から64行目が第1の辞書に対応し、65行目から81行目が第2の辞書に対応するとして第1および第2の辞書を生成する。このように、訓練画像から抽出する小領域のサイズが異なると、それに応じて辞書学習における処理も若干異なる。
なお、実施例1と同様に、以上説明したステップS301からステップS305の処理は、画像処理装置101が常に行う必要はなく、予めユーザが行っておき、生成した第1および第2の辞書の組を画像処理装置101に記憶させてもよい。そして、画像処理装置101は、記憶された第1および第2の辞書の組を用いて、ステップS306以降の処理を行えばよい。
ステップS306では、画像処理装置101は、第1の画像の任意の場所から部分画像としての入力小領域を抽出し、抽出した入力小領域のAC成分を複数の第1の辞書の要素の線形結合で近似して複数の線形結合係数を求める。このとき、第1の辞書がM個ある場合には、M個の線形結合係数が求められる。なお、線形結合近似の方法は、実施例1のステップS206にて説明した方法と同じである。また、抽出する入力小領域のサイズは、ステップS302で定めた訓練小領域のサイズと同じとする。
次に、ステップS307では、画像処理装置101は、複数の線形結合係数のうち線形結合係数の比が最大の線形結合係数(特定線形結像係数)を選択する。線形結合係数の比の算出方法は、実施例1のステップS207にて説明した方法と同じである。
次に、ステップS308では、画像処理装置101は、選択した線形結合係数を生成した第1の辞書とこれに対応する第2の辞書(特定辞書)を選択する。
次に、ステップS309では、画像処理装置101は、選択した線形結合係数(特定線形結像係数)と選択した第2の辞書(特定辞書)の要素との線形結合によって分類ベクトルを生成する。なお、線形結合の方法は、実施例1のステップS209にて説明した方法と同じである。分類ベクトルとは、第1の画像から抽出した入力小領域を分類するために用いるベクトルである。図5に生成された分類ベクトルの例を示す。
さらに、画像処理装置101は、分類ベクトルと第1のベクトルデータおよび第2のベクトルデータとを比較して、入力小領域の物体像の種類を判別する。具体的には、分類ベクトルと第1のベクトルデータとが類似していれば(第1および第2のベクトルデータのうち第1のベクトルデータに対する類似度が最も高ければ)、入力小領域を人に分類する。また、分類ベクトルと第2のベクトルデータとが類似していれば(第1および第2のベクトルデータのうち第2のベクトルデータに対する類似度が最も高ければ)、入力小領域を花に分類する。分類ベクトルと第1および第2のベクトルデータとの比較方法(類似度の判別方法)としては、ベクトルの非ゼロ要素の位置に着目する方法や分類ベクトルと各ベクトルデータとの差分に着目する方法等がある。本実施例では、ベクトルの非ゼロ要素の位置に着目して、分類ベクトルと各ベクトルデータとを比較した。なお、比較方法はこれに限らず、ベクトルの類似度が判断できる方法であればどのような方法を用いてもよい。
さらに、画像処理装置101は、第1の画像から抽出した入力小領域を人に分類した場合は、該入力小領域と同サイズで画素値が全て−1の部分画像としての分類小領域(出力小領域)を、第2の画像における該入力小領域に対応する場所の画素値に加える。一方、第1の画像から抽出した入力小領域を花に分類した場合は、該入力小領域と同サイズで、かつ画素値が全て+1の分類小領域を、第2の画像における該入力小領域に対応する場所の画素値に加える。なお、実施例1でも述べたように、第2の画像は第1の画像と同サイズであり、該第2の画像(分類小領域)の画素値の初期値はゼロである。また、第2の画像に加える分類小領域の画素値は−1と+1に限らない。第1の画像から部分的に重複して入力小領域を抽出した場合でも第2の画像における対応する場所での分類が分かるような画素値であればどのような値でもよい。例えば、虚数iを用いて+i,−iとしてもよい。
次に、ステップS310では、第1の画像から抽出した全ての入力小領域に対するステップS306からステップS309の処理が終了したか否かを判定する。まだ全ての入力小領域に対する処理が終了していない場合はステップS306に戻り、次の入力小領域に対するステップS306からステップS309の処理を行う。全ての入力小領域に対する処理が終了した場合は、ステップS311に進む。ここでも、実施例1で述べたように、第1の画像からの入力小領域を抽出する際には入力小領域同士が部分的に重複してもよいが、第1の画像の全域を隙間なく覆うように抽出する必要がある。
ステップS311では、画像処理装置101は、ステップS309において第2の画像にて分類小領域が重複して足し合わされている場所の画素値を、その重複数で除算する。さらに、画像処理装置101は、第2の画像において画素値が正である領域を花に、画素値が負の領域を人に分類する。ここで、領域の画素値が正か負かを判断する際に、分類小領域が重複して足し合わされている場所では多数決によってその分類を決定する。
そして、画像処理装置101は、例えば人を赤色で、花を青色でというように、分類結果を色の違いとして示す。なお、分類結果の示し方は色の違いに限らず、どのような示した方でもよい。
以上の手順により、第1の画像に対して画像分類を行い、その分類結果を示した第2の画像に変換する。
図6には、本実施例の画像処理方法を用いて画像分類を行った例を示す。図6(a)は、左半分が人、右半分が花である第1の画像(入力画像)示す。図6(b)は、該第1の画像での画像分類の結果を示す第2の画像(分類画像)である。第2の画像では、分類結果が人であれば黒色で、花であれば白色で表している。
また、図6(c)には、真の分類画像を示す。図6(d)には、第1の辞書の1つを示す。図6(e)には、第2の辞書の1つを示す。なお、全ての画像はそれぞれの画素値の最大値が1となり、最小値が0となるように規格化されている。また、全ての画像のサイズは185×246画素である。さらに、図6(d)に示す第1の辞書は、8×8画素の要素を縦方向に32個、横方向に32個配置したものである。また、図6(e)に示す第2の辞書は、17×1画素の要素の最初の50個を横方向に配置したものである。
図6(c)の真の分類画像と図6(b)に示した画像処理装置101によって生成された分類画像とを実際に比較して誤分類率を求めたところ、11.2%であった。このことから、本実施例の画像処理方法によれば、高精度で画像分類を行えることが確認できた。
次に、本実施例の画像処理方法の従来の画像処理方法に対する優位さを検証した結果について説明する。まず、第1の画像に対して画像分類を行い、第2の画像に変換する従来の画像処理方法を、図7に示したフローチャートを用いて説明する。
ステップS701では、従来の画像処理装置は、ステップS301と同様に、第1および第2の訓練画像を用意する。具体的には、第1の訓練画像として人と花の画像を、第2の訓練画像として人と花のそれぞれに対応する第1のベクトルデータと第2のベクトルデータを用意する。なお、正確な比較を行うため、第1および第2の訓練画像はステップS301で用いるものと同じものを用いた。
次に、ステップS702では、画像処理装置は、ステップS302と同様に、第1の訓練画像から複数の第1の訓練小領域を抽出する。なお、ここで抽出する第1の訓練小領域のサイズもステップS302で抽出した入力小領域のサイズと同じである。
次に、ステップS703では、画像処理装置は、ステップS303と同様に、第1の訓練画像から抽出した複数の第1の訓練小領域のそれぞれのAC成分を求める。次に、画像処理装置は、各第1の訓練小領域のAC成分を変換したベクトルと、該第1の訓練小領域を抽出した物体像に対応する第2の訓練画像(第1または第2のベクトルデータ)とを上下に連結した訓練ベクトルを生成する。
次に、ステップS704では、画像処理装置は、訓練ベクトルを横に連結した訓練行列を生成し、訓練行列に対して辞書学習を行って第1および第2の辞書を生成する。ここでの第1および第2の辞書の全要素数はそれぞれ、529個とした。
次に、ステップS705では、画像処理装置は、第1の画像の任意の場所から入力小領域を抽出し、抽出した入力小領域のAC成分を第1の辞書の要素の線形結合で近似して複数の線形結合係数を求める。線形結合近似の方法は実施例1のステップS206にて説明した方法と同じである。また、抽出する入力小領域のサイズは、ステップS702で定めた第1の訓練小領域のサイズと同じである。
次に、ステップS706では、画像処理装置は、線形結合係数と第2の辞書の要素の線形結合により分類ベクトルを生成する。なお、線形結合の方法は、実施例1のステップS209で説明した方法と同じである。また、生成した分類ベクトルから入力小領域を分類して第2の画像を生成する方法は、ステップS309にて説明した方法と同じである。
次に、ステップS707では、画像処理装置は、第1の画像から抽出した全ての入力小領域に対するステップS705およびステップS706の処理が終了したか否かを判定する。まだ全ての入力小領域に対する処理が終了していない場合はステップS705に戻り、次の入力小領域に対するステップS705およびステップS706の処理を行う。全ての入力小領域に対する処理が終了した場合は、ステップS708に進む。ここでも、第1の画像からの入力小領域を抽出する際には入力小領域同士が部分的に重複してもよいが、第1の画像の全域を隙間なく覆うように抽出する。
ステップS708では、画像処理装置は、ステップS706において第2の画像にて分類小領域が重複して足し合わされている場所の画素値を、その重複数で除算する。
図8には、図7に示した画像処理方法によって第1の画像(入力画像)の画像分類を行い、第2の画像(分類画像)に変換した例を示す。図8(a)には、図7(a)と同様に、左半分が人で、右半分が花である入力画像を示す。図8(b)には、図7(b)と同様に、分類結果が人であれば黒色で、花であれば白色で表された分類画像を示している。
図8(c)には真の分類画像を、図8(d)には第1の辞書を、図8(e)には第2の辞書をそれぞれ示している。なお、全ての画像はそれぞれの画素値の最大値が1となり、最小値が0となるように規格化している。さらに、全ての画像のサイズは185×246画素である。また、図8(d)に示す第1の辞書は、8×8画素の要素を縦方向に23個、横方向に23個配置したものである。また、図8(e)に示す第2の辞書は、17×1画素の要素の最初の50個を横に配置したものを示している。
図8(c)の真の分類画像と図8(b)に示した従来の画像像処理装置によって生成された分類画像とを実際に比較して誤分類率を求めたところ、20%であった。このことから、本実施例の画像処理方法の従来の画像処理方法に対する画像分類での優位さを確認することができた。
本発明の実施例3として、人と花以外の被写体を含む第1の画像に対しても画像分類ができることを示す。具体的には、第1の画像をシマウマとマスカットのいずれかに分類し、分類結果を第2の画像として出力する。なお、画像分類方法は、実施例2において図3のフローチャートを用いて説明した方法と同じである。
図9には、本実施例にて画像分類を行った例を示す。図9(a)には、左半分がシマウマで、右半分がマスカットである第1の画像(入力画像)を示している。図9(b)には、画像分類の結果を示す第2の画像(分類画像)を示している。この分類画像では、分類結果がシマウマであれば黒色で、マスカットであれば白色で表している。
図9(c)には真の分類画像を、図9(d)には第1の辞書の1つを、図9(e)には第2の辞書の1つをそれぞれ示している。本実施例でも、全ての画像はそれぞれの画素値の最大値が1となり、最小値が0となるように規格化している。また、全ての画像のサイズは178×220画素である。さらに、図9(d)に示す第1の辞書は、8×8画素の要素を縦方向に32個、横方向に32個配置したものである。また、図9(e)に示す第2の辞書は、17×1画素の要素の最初の50個を横方向に配置したものである。
図9(c)の真の分類画像と図9(b)に示した本実施例にて生成された分類画像とを実際に比較して誤分類率を求めたところ、14.7%であった。
図10には、本実施例との比較のために、従来の画像処理方法を用いて画像分類を行った例を示す。図10(a)には、図9(a)と同様に、左半分がシマウマで、右半分がマスカットである入力画像を示す。図10(b)には、従来の画像処理方法により生成された分類画像を示す。この分類画像でも、図9(b)と同様に、分類結果がシマウマであれば黒色で、マスカットであれば白色で表している。
図10(c)には真の分類画像を、図10(d)には第1の辞書を、図10(e)には第2の辞書をそれぞれ示している。全ての画像はそれぞれの画素値の最大値が1となり、最小値が0となるように規格化している。また、全ての画像のサイズは178×220画素である。さらに、図10(d)に示す第1の辞書は、8×8画素の要素を縦方向に32個、横方向に32個配置したものである。また、図10(e)に示す第2の辞書は、17×1画素の要素の最初の50個を横方向に配置したものである。
図10(c)の真の分類画像と図10(b)に示した従来の画像処理方法により生成された分類画像とを実際に比較して誤分類率を求めたところ、21.1%であった。このことから、本実施例の画像処理方法の従来の画像処理方法に対する画像分類での優位さとその一般性を確認することができた。
以上説明した各実施例は代表的な例にすぎず、本発明の実施に際しては、各実施例に対して種々の変形や変更が可能である。
デジタルカメラやスライドスキャナ等の撮像装置により取得した画像から各種判定や医療診断等に用いる画像を生成する技術に応用することができる。
101 画像処理装置

Claims (9)

  1. 第1の画像を第2の画像に変換する画像処理方法であって、
    辞書学習により生成された複数の第1の辞書および該複数の第1の辞書のそれぞれに対応する複数の第2の辞書を用意し、
    前記第1の画像を前記第1の辞書の要素の線形結合により近似して線形結合係数を生成する処理を前記複数の第1の辞書のそれぞれについて行って複数の線形結合係数を求め、
    前記複数の線形結合係数のそれぞれに対して、絶対値が最大の係数要素と2番目に大きな係数要素との比を算出して、該比が最大となる特定線形結合係数を選択し、
    前記複数の第2の辞書のうち、前記特定線形結合係数が生成された前記第1の辞書に対応する特定辞書を選択し、
    前記特定線形結合係数と前記特定辞書の要素との線形結合を用いて前記第2の画像を生成することを特徴とする画像処理方法。
  2. 前記第1および第2の辞書を用意するために、
    前記第1の画像と前記第2の画像のそれぞれに応じた訓練画像である第1の訓練画像と第2の訓練画像を用意し、
    前記第1の訓練画像から複数の第1の訓練部分画像を抽出し、
    前記第2の訓練画像のうち、前記複数の第1の訓練部分画像のそれぞれに対応する複数の場所から複数の第2の訓練部分画像を抽出し、
    前記複数の第1および第2の訓練部分画像のそれぞれの画素値の分布から該画素値の平均値を減算してAC成分を生成し、
    前記各第1の訓練部分画像の前記AC成分および前記各第2の訓練部分画像の前記AC成分をそれぞれベクトルに変換してACベクトルを生成し、
    互いに対応する前記第1および第2の訓練部分画像の前記ACベクトル同士を連結して訓練ベクトルを生成する処理を前記複数の第1および第2の訓練部分画像に対して行って複数の訓練ベクトルを生成し、
    前記複数の訓練ベクトルをクラスタリングして、それぞれ類似の訓練ベクトルを含む複数のクラスタを生成し、
    前記クラスタから辞書学習アルゴリズムによって辞書行列を生成する処理を前記複数のクラスタに対して行って複数の辞書行列を生成し、
    前記複数の辞書行列のそれぞれから前記第1および第2の辞書を生成することを特徴とする請求項1に記載の画像処理方法。
  3. 前記第2の画像は、前記第1の画像に含まれる複数種類の物体像を分類した結果を示す画像であり、
    前記第1の画像に対応する第1の訓練画像と前記複数の物体像のそれぞれの種類を表す第2の訓練画像としての複数のベクトルデータとを用いた辞書学習により生成された前記複数の第1および第2の辞書を用意し、
    前記複数の線形結合係数を、前記第1の画像から抽出した部分画像を前記第1の辞書の要素の線形結合により近似して線形結合係数を生成する処理を前記複数の第1の辞書のそれぞれについて行うことにより求め、該複数の線形結合係数から前記特定線形結合係数を選択し、
    前記特定線形結合係数と前記特定辞書の要素との線形結合を用いて分類ベクトルを生成して、該分類ベクトルを用いて前記部分画像における物体像の種類を判別し、
    前記特定線形結合係数の選択および前記分類ベクトルと前記複数のベクトルデータとを用いた前記物体像の種類の判別を前記第1の画像の全域から抽出した複数の前記部分画像のそれぞれに対して行い、
    前記複数の部分画像において判別された前記物体像の種類に応じて前記第2の画像を生成することを特徴とする請求項1に記載の画像処理方法。
  4. 前記物体像の種類の判別において、前記複数のベクトルデータのうち前記分類ベクトルの類似度が最も高いベクトルデータが表す種類と判別することを特徴とする請求項3に記載の画像処理方法。
  5. 前記第1および第2の辞書を用意するために、
    前記第1の訓練画像から複数の訓練部分画像を抽出し、
    前記複数の訓練部分画像のそれぞれの画素値の分布から該画素値の平均値を減算した成分であるAC成分を生成し、
    前記各訓練部分画像のAC成分をベクトルに変換してACベクトルを生成し、
    前記ACベクトルと該ACベクトルを生成した前記訓練部分画像の前記物体像の種類を示す前記ベクトルデータとを連結して訓練ベクトルを生成する処理を前記複数の訓練部分画像に対して行って複数の訓練ベクトルを生成し、
    前記複数の訓練ベクトルをクラスタリングして、それぞれ類似の訓練ベクトルを含む複数のクラスタを生成し、
    前記クラスタから辞書学習アルゴリズムによって辞書行列を生成する処理を前記複数のクラスタに対して行って複数の辞書行列を生成し、
    前記複数の辞書行列のそれぞれから前記第1および第2の辞書を生成することを特徴とする請求項3または4に記載の画像処理方法。
  6. コンピュータに、第1の画像を第2の画像に変換する画像処理を実行させるコンピュータプログラムとしての画像処理プログラムであって、
    前記画像処理は、
    辞書学習により生成された複数の第1の辞書および該複数の第1の辞書のそれぞれに対応する複数の第2の辞書を用意し、
    前記第1の画像を前記第1の辞書の要素の線形結合により近似して線形結合係数を生成する処理を前記複数の第1の辞書のそれぞれについて行って複数の線形結合係数を求め、
    前記複数の線形結合係数のそれぞれに対して、絶対値が最大の係数要素と2番目に大きな係数要素との比を算出して、該比が最大となる特定線形結合係数を選択し、
    前記複数の第2の辞書のうち、前記特定線形結合係数が生成された前記第1の辞書に対応する特定辞書を選択し、
    前記特定線形結合係数と前記特定辞書の要素との線形結合を用いて前記第2の画像を生成する処理であることを特徴とする画像処理プログラム。
  7. 前記第2の画像は、前記第1の画像に含まれる複数種類の物体像を分類した結果を示す画像であり、
    前記画像処理は、
    前記第1の画像に対応する第1の訓練画像と前記複数の物体像のそれぞれの種類を表す第2の訓練画像としての複数のベクトルデータとを用いた辞書学習により生成された前記複数の第1および第2の辞書を用意し、
    前記複数の線形結合係数を、前記第1の画像から抽出した部分画像を前記第1の辞書の要素の線形結合により近似して線形結合係数を生成する処理を前記複数の第1の辞書のそれぞれについて行うことにより求め、該複数の線形結合係数から前記特定線形結合係数を選択し、
    前記特定線形結合係数と前記特定辞書の要素との線形結合を用いて分類ベクトルを生成して、該分類ベクトルを用いて前記部分画像における物体像の種類を判別し、
    前記特定線形結合係数の選択および前記分類ベクトルと前記複数のベクトルデータとを用いた前記物体像の種類の判別を前記第1の画像の全域から抽出した複数の前記部分画像のそれぞれに対して行い、
    前記複数の部分画像において判別された前記物体像の種類に応じて前記第2の画像を生成する処理であることを特徴とする請求項6に記載の画像処理プログラム。
  8. 第1の画像を第2の画像に変換する画像処理を行う画像処理装置であって、
    辞書学習により生成された複数の第1の辞書および該複数の第1の辞書のそれぞれに対応する複数の第2の辞書を用意する用意手段と、
    前記第1の画像を前記第1の辞書の要素の線形結合により近似して線形結合係数を生成する処理を前記複数の第1の辞書のそれぞれについて行って複数の線形結合係数を求める係数算出手段と、
    前記複数の線形結合係数のそれぞれに対して、絶対値が最大の係数要素と2番目に大きな係数要素との比を算出して、該比が最大となる特定線形結合係数を選択する係数選択手段と、
    前記複数の第2の辞書のうち、前記特定線形結合係数が生成された前記第1の辞書に対応する特定辞書を選択する辞書選択手段と、
    前記特定線形結合係数と前記特定辞書の要素との線形結合を用いて前記第2の画像を生成する画像生成手段とを有することを特徴とする画像処理装置。
  9. 前記第2の画像は、前記第1の画像に含まれる複数種類の物体像を分類した結果を示す画像であり、
    前記用意手段は、前記第1の画像に対応する第1の訓練画像と前記複数の物体像のそれぞれの種類を表す第2の訓練画像としての複数のベクトルデータとを用いた辞書学習により生成された前記複数の第1および第2の辞書を用意し、
    前記係数算出手段は、前記複数の線形結合係数を、前記第1の画像から抽出した部分画像を前記第1の辞書の要素の線形結合により近似して線形結合係数を生成する処理を前記複数の第1の辞書のそれぞれについて行うことにより求め、
    前記画像生成手段は、
    前記特定線形結合係数と前記特定辞書の要素との線形結合を用いて分類ベクトルを生成して、該分類ベクトルを用いて前記部分画像における物体像の種類を判別し、
    前記特定線形結合係数の選択および前記分類ベクトルと前記複数のベクトルデータとを用いた前記物体像の種類の判別を前記第1の画像の全域から抽出した複数の前記部分画像のそれぞれに対して行い、
    前記複数の部分画像において判別された前記物体像の種類に応じて前記第2の画像を生成することを特徴とする請求項8に記載の画像処理装置。
JP2014022034A 2014-02-07 2014-02-07 画像処理方法、画像処理プログラムおよび画像処理装置 Expired - Fee Related JP6292911B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2014022034A JP6292911B2 (ja) 2014-02-07 2014-02-07 画像処理方法、画像処理プログラムおよび画像処理装置
US14/612,756 US9443287B2 (en) 2014-02-07 2015-02-03 Image processing method and apparatus using trained dictionary

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2014022034A JP6292911B2 (ja) 2014-02-07 2014-02-07 画像処理方法、画像処理プログラムおよび画像処理装置

Publications (3)

Publication Number Publication Date
JP2015148979A true JP2015148979A (ja) 2015-08-20
JP2015148979A5 JP2015148979A5 (ja) 2017-03-09
JP6292911B2 JP6292911B2 (ja) 2018-03-14

Family

ID=53775214

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014022034A Expired - Fee Related JP6292911B2 (ja) 2014-02-07 2014-02-07 画像処理方法、画像処理プログラムおよび画像処理装置

Country Status (2)

Country Link
US (1) US9443287B2 (ja)
JP (1) JP6292911B2 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019035626A (ja) * 2017-08-10 2019-03-07 株式会社ブリヂストン タイヤ画像の認識方法及びタイヤ画像の認識装置

Families Citing this family (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9875532B2 (en) * 2013-08-15 2018-01-23 Nec Corporation Information processing device that implements image processing, and image processing method
WO2015083396A1 (ja) * 2013-12-03 2015-06-11 三菱電機株式会社 画像処理装置及び画像処理方法
WO2017160829A1 (en) 2016-03-15 2017-09-21 The Trustees Of Columbia University In The City Of New York Method and apparatus to perform local de-noising of a scanning imager image
CN106778811B (zh) * 2016-11-21 2020-12-25 西安电子科技大学 一种图像字典生成方法、图像处理方法及装置
JP6381768B1 (ja) * 2017-11-20 2018-08-29 ヤフー株式会社 学習装置、学習方法、学習プログラムおよび動作プログラム
CN109214997A (zh) * 2018-08-30 2019-01-15 中国科学院遥感与数字地球研究所 一种基于增量字典学习的遥感图像去噪方法
CN109241981B (zh) * 2018-09-03 2022-07-12 哈尔滨工业大学 一种基于稀疏编码的特征检测方法
CN110070494B (zh) * 2018-12-21 2021-09-17 北京字节跳动网络技术有限公司 图像处理方法、装置和电子设备
CN115564680B (zh) * 2022-10-17 2023-03-28 陕西师范大学 基于二维多路径匹配追踪算法的图像去噪方法

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003323622A (ja) * 2002-02-27 2003-11-14 Nec Corp 画像認識システム及びその認識方法並びにプログラム
US20100046829A1 (en) * 2008-08-21 2010-02-25 Adobe Systems Incorporated Image stylization using sparse representation
US20120134576A1 (en) * 2010-11-26 2012-05-31 Sharma Avinash Automatic recognition of images
WO2013089261A1 (ja) * 2011-12-12 2013-06-20 日本電気株式会社 画像処理システム及び画像処理方法

Family Cites Families (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5345536A (en) * 1990-12-21 1994-09-06 Matsushita Electric Industrial Co., Ltd. Method of speech recognition
US6671404B1 (en) * 1997-02-14 2003-12-30 Hewlett-Packard Development Company, L.P. Method and apparatus for recognizing patterns
JP3701197B2 (ja) * 2000-12-28 2005-09-28 松下電器産業株式会社 分類への帰属度計算基準作成方法及び装置
US20140037199A1 (en) * 2005-04-04 2014-02-06 Michal Aharon System and method for designing of dictionaries for sparse representation
US7450032B1 (en) * 2005-12-27 2008-11-11 At & T Intellectual Property Ii, L.P. System and method for encoding a signal using compressed sensor measurements
JP4957922B2 (ja) * 2006-06-07 2012-06-20 日本電気株式会社 画像方向判定装置、画像方向判定方法、および画像方向判定用プログラム
JP2010249940A (ja) * 2009-04-13 2010-11-04 Sony Corp ノイズ低減装置、ノイズ低減方法
US8693771B2 (en) * 2011-11-18 2014-04-08 Mitsubishi Electric Research Laboratories, Inc. Method for pan-sharpening panchromatic and multispectral images using dictionaries
US9324133B2 (en) * 2012-01-04 2016-04-26 Sharp Laboratories Of America, Inc. Image content enhancement using a dictionary technique
US9700276B2 (en) * 2012-02-28 2017-07-11 Siemens Healthcare Gmbh Robust multi-object tracking using sparse appearance representation and online sparse appearance dictionary update
US9589190B2 (en) * 2012-12-21 2017-03-07 Robert Bosch Gmbh System and method for detection of high-interest events in video data
KR102103984B1 (ko) * 2013-07-15 2020-04-23 삼성전자주식회사 깊이 영상 처리 방법 및 장치

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003323622A (ja) * 2002-02-27 2003-11-14 Nec Corp 画像認識システム及びその認識方法並びにプログラム
US20100046829A1 (en) * 2008-08-21 2010-02-25 Adobe Systems Incorporated Image stylization using sparse representation
US20120134576A1 (en) * 2010-11-26 2012-05-31 Sharma Avinash Automatic recognition of images
WO2013089261A1 (ja) * 2011-12-12 2013-06-20 日本電気株式会社 画像処理システム及び画像処理方法

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019035626A (ja) * 2017-08-10 2019-03-07 株式会社ブリヂストン タイヤ画像の認識方法及びタイヤ画像の認識装置
US11176408B2 (en) 2017-08-10 2021-11-16 Bridgestone Corporation Tire image recognition method and tire image recognition device
JP7132701B2 (ja) 2017-08-10 2022-09-07 株式会社ブリヂストン タイヤ画像の認識方法及びタイヤ画像の認識装置

Also Published As

Publication number Publication date
JP6292911B2 (ja) 2018-03-14
US20150227819A1 (en) 2015-08-13
US9443287B2 (en) 2016-09-13

Similar Documents

Publication Publication Date Title
JP6292911B2 (ja) 画像処理方法、画像処理プログラムおよび画像処理装置
EP2827297A2 (en) Method and apparatus for processing depth image
JP6624794B2 (ja) 画像処理装置、画像処理方法及びプログラム
CN109858333B (zh) 图像处理方法、装置、电子设备及计算机可读介质
JP6351240B2 (ja) 画像処理装置、画像処理方法及びプログラム
JP5936561B2 (ja) 画像における外観及びコンテキストに基づく物体分類
WO2018082308A1 (zh) 一种图像处理方法及终端
TW200529093A (en) Face image detection method, face image detection system, and face image detection program
JP2017004350A (ja) 画像処理装置、画像処理方法、及びプログラム
JP6937508B2 (ja) 画像処理システム、評価モデル構築方法、画像処理方法及びプログラム
JP2019204193A (ja) 画像処理装置、画像処理方法及びプログラム
CN112771516A (zh) 分类装置、分类方法、程序以及信息记录介质
US10891740B2 (en) Moving object tracking apparatus, moving object tracking method, and computer program product
KR101478709B1 (ko) Rgb-d 영상 특징점 추출 및 특징 기술자 생성 방법 및 장치
JP6202938B2 (ja) 画像認識装置および画像認識方法
US9436867B2 (en) Image processing method using sparse coding, and non-transitory computer-readable storage medium storing image processing program and image processing apparatus
JP2016058018A (ja) 画像処理方法、画像処理プログラムおよび画像処理装置
KR101592087B1 (ko) 배경 영상의 위치를 이용한 관심맵 생성 방법 및 이를 기록한 기록 매체
JP6017005B2 (ja) 画像検索装置、画像検索方法及びプログラム
KR102634186B1 (ko) 사용자의 생체 특성을 가지는 이미지 내에서 객체를 식별하고 생체 특성을 포함하는 이미지의 일부를 이미지의 다른 부분으로부터 분리함으로써 사용자의 신원을 식별하기 위한 방법(Method for verifying the identity of a user by identifying an object within an image that has a biometric characteristic of the user and separating a portion of the image comprising the biometric characteristic from other portions of the image)
CN113920099A (zh) 一种息肉分割方法、装置、计算机设备及存储介质
JP5836728B2 (ja) 画像検索装置、画像検索方法及びプログラム
JP2018200506A (ja) 画像処理装置および画像処理方法
KR101422549B1 (ko) 얼굴 인식 방법 및 그 시스템
JP2019128950A (ja) 画像処理装置、画像処理方法、及びプログラム

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170201

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20170201

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20171227

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20180116

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20180213

R151 Written notification of patent or utility model registration

Ref document number: 6292911

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

LAPS Cancellation because of no payment of annual fees