JP2017117019A - 画像処理装置、画像処理方法及びプログラム - Google Patents

画像処理装置、画像処理方法及びプログラム Download PDF

Info

Publication number
JP2017117019A
JP2017117019A JP2015249067A JP2015249067A JP2017117019A JP 2017117019 A JP2017117019 A JP 2017117019A JP 2015249067 A JP2015249067 A JP 2015249067A JP 2015249067 A JP2015249067 A JP 2015249067A JP 2017117019 A JP2017117019 A JP 2017117019A
Authority
JP
Japan
Prior art keywords
area
region
mixed
small
class
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2015249067A
Other languages
English (en)
Other versions
JP6702716B2 (ja
Inventor
雅人 青葉
Masahito Aoba
雅人 青葉
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2015249067A priority Critical patent/JP6702716B2/ja
Publication of JP2017117019A publication Critical patent/JP2017117019A/ja
Application granted granted Critical
Publication of JP6702716B2 publication Critical patent/JP6702716B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Image Analysis (AREA)

Abstract

【課題】 前景物体と背景領域が混在する領域に対して意味的なクラスラベルを扱えるようにすること。【解決手段】 本発明は、入力画像を読み込む読み込み手段と、 前記読み込んだ入力画像を複数の小領域に分割する小領域分割手段と、 前記分割された小領域のうち複数のクラスが混在する小領域を、前記複数のクラスに関する混在領域として識別する識別手段と、を有する。【選択図】 図1

Description

本発明は、画像を複数の領域に分割する技術に関する。
画像を複数の領域に分割する多くの研究が行われており、近年では、画像から人物の領域、自動車の領域、道路の領域、建物の領域、空の領域などの、意味的な領域を切り出す課題が盛んに研究されている。このような課題は、意味的領域分割(Semantic Segmentation)と呼ばれ、写っている物の種類に対応した画像補正やシーン解釈などに応用できると考えられている。意味的領域分割を行うにあたり、画像の各位置に関するクラスラベルの判別を、画素単位ではなく、小領域(superpixel)単位で行うことは、すでに一般的である。小領域は、主に類似した特徴を持つ小さな領域として画像から切り出されるもので、様々な手法が提案されている。代表的なものとして、非特許文献1のようなグラフベースの手法や、非特許文献2のようなクラスタリングベースの手法がある。
上述のようにして得られた各小領域は、その小領域内部の特徴量、あるいはその周辺のコンテクスト特徴量も一緒に用いてクラスラベルを識別することができる。通常は、様々な学習画像を用いてこのような局所ベースの領域識別器を学習させることで領域識別を行うことになる。
Efficient Graph−Based Image Segmentation,P.F.Felzenszwalb、IJCV2004. SLIC Superpixels,R.Achanta,A.Shaji,K.Smith,A.Lucchi,EPFL Technical Report,2010. Recovering Surface Layout from an Image,D.Hoiem,A.A.Efros and M.Hebert,IJCV2007. カーネル学習法とその画像認識への応用、西田健次、栗田多喜男、情報処理学会論文誌、CVIM12,2005.
ところで、世の中のシーンや物体を撮影した画像においては、複数の物体が入り組んでいる領域が存在する場合ある。例えば、空を背景にして木を撮影したような画像では、木の枝の間から空が覗いて見えるような領域がある。このような領域を含む画像を、上記のように分割された小領域を最小単位として、領域識別器を使って画像の領域クラスを識別しようとすると、空の領域と木の領域を詳細に分割することは困難な問題となる。上記のような空と木の枝が混在する小領域は、空単独で写っている小領域とも、木単独で写っている小領域とも、見えの特徴が異なる。
このような場合に、従来は学習画像における小領域内部において最も占有面積の大きいクラスを、その小領域の正解クラスとして扱って領域識別器を学習させる。あるいは、前記占有面積に対して一定の閾値を設けて、学習画像の小領域においてクラスの純度がその閾値より低い場合学習に使わないという方法がとられていた。上記のように空と木の枝が混在しているような領域では、小領域におけるそれぞれのクラスの純度は低いため、学習時の正解クラスの振り分けが不安定になり、学習された領域識別器の判定も不安定になる。
そこで、非特許文献3では、このような領域を空とも木とも別のクラスとして扱うことを提案している。この非特許文献3では、上記のような領域を”porous”領域、物体が単独で写っている領域を”solid”領域と定義して、区別している。しかしながら、この非特許文献3の手法では、”porous”領域が具体的にどのようなクラスで構成されるのか規定されておらず、意味的なクラスラベルを扱っていない。そこで、本発明は、前景物体と背景領域が混在する領域に対して意味的なクラスラベルを扱えるようにすることを目的とする。
上記課題を解決するために、本発明は、入力画像を読み込む読み込み手段と、 前記読み込んだ入力画像を複数の小領域に分割する小領域分割手段と、 前記分割された小領域のうち複数のクラスが混在する小領域を、前記複数のクラスに関する混在領域として識別する識別手段と、を有することを特徴とする。
以上の構成によれば、本発明は、前景物体と背景領域が混在する領域に対して意味的なクラスラベルを扱えるようにすることが可能となる。
各実施形態に関わる画像処理装置の構成図。 各実施形態に関わる学習時およびランタイム時の処理の詳細を示すフローチャート。 第1の実施形態において領域クラスラベルデータの一例を示す図。 第1の実施形態おいて画像を小領域に分割する処理を説明する図。 第1の実施形態において学習画像と領域クラスラベルデータから小領域を抽出する処理を説明する図。 第1の実施形態において更新クラスラベルデータの一例を示す図。 第1の実施形態において抽出されたパッチ領域の一例を示す図。 第1の実施形態において入力画像に対する領域分割処理の概要を説明する図。 第4の実施形態において簡易領域クラスラベルデータを説明する図。 第4の実施形態において初期領域クラスラベルの入力処理を説明する図。 第4の実施形態においてサンプル領域クラスラベルの修正処理を説明する図。 第3の実施形態においてテンプレートとマスクについて説明する図。 第3の実施形態においてテンプレートマッチングとマスクを用いた前景と背景の分離の処理について説明する図。 第2の実施形態において学習時およびランタイム時の処理の詳細を示すフローチャート。 第2の実施形態において混在領域を過分割する処理の概略図。
[第1の実施形態]
以下、図面を参照して本発明の第1の実施形態を詳細に説明する。図1は、各実施形態に係る画像処理装置のソフトウェア構成を示す構成図であり、図1(a)が本実施形態の画像処理装置の構成図である。本実施形態の画像処理装置は、ネットワークまたは各種情報記録媒体を介して取得したソフトウェア(プログラム)を、CPU、メモリ、ストレージデバイス、入出力装置、バス、表示装置などにより構成される計算機によって実現できる。なお、計算機については、汎用の計算機を用いてもよいし、本発明のプログラムに最適に設計されたハードウェアを用いてもよい。
最初に、学習時の装置構成概要に関して説明する。ここで学習とは、後述するランタイム時の処理を行うために利用される小領域識別器および混在領域識別器を、事前に用意された学習画像から生成することである。
図1において、学習データ記憶部5100には予め学習データが用意されている。学習データは、複数の学習画像と、学習画像の各画素に対応して領域クラスラベルが付与された領域クラスラベルデータとから構成される。学習データ読み込み部2100は、学習データ記憶部5100から学習データを読み込む。学習画像小領域分割部(第2の分割部)2200は、各学習画像を小領域に分割する。混在領域設定部2300は、学習画像小領域分割部2200による小領域分割結果と領域クラスラベルデータとに基づいて、所定の小領域に対して混在領域ラベルを付与する。小領域識別器生成部(第1の生成部)2400では、各小領域の特徴量と領域クラスラベルに基づいて学習処理を行い、小領域のクラスを識別する小領域識別器を生成する。生成された小領域識別器は、小領域識別器記憶部5200に記憶される。混在領域識別器生成部2500(第2の生成部)は、学習画像と領域クラスラベルデータに基づいて、混在領域の各画素のクラスを推定する混在領域識別器を生成する。
次に、ランタイム時の装置構成の概要に関して説明する。ここでランタイムとは、未知の入力画像に対して意味的領域分割を行うことである。入力画像読み込み部1100は、入力画像を読み込む。入力画像小領域分割部(第1の分割部)1200は、読み込んだ入力画像を複数の小領域に分割する。小領域識別部1300は、小領域識別器記憶部5200に記憶されている小領域識別器を読み出し、入力画像小領域分割部1200で分割された各小領域の領域クラスを推定する。推定されたクラスの中に後述する混在領域クラスが存在する場合、混在領域分割部1400は混在領域識別器記憶部5300から混在領域識別器を読み込み、混在領域中に存在する複数のクラス領域を分割する。
なお、学習画像読み込み部2100、学習画像小領域分割部2200、混在領域設定部2300、小領域識別器生成部2400および混在領域識別器生成部2500は、全て同じ計算機上で実現されるものでもよいし、それぞれ独立したモジュールとしてもよい。また、計算機上で実装されるプログラムとして実現してもよい。さらに、学習データ記憶部5100、小領域識別器記憶部5200、および混在領域識別器記憶部5300は、前記計算機の内部もしくは外部のストレージとして実現される。
また、入力画像読み込み部1100、入力画像小領域分割部1200、小領域識別部1300、混在領域分割部1400は、全て同じ計算機上で実現されるものでもよいし、それぞれ独立したモジュールとしてもよい。また、計算機上で実装されるプログラムとして実現してもよいし、カメラ等の撮影装置内部において回路もしくはプログラムとして実装してもよい。ランタイム時の装置は、学習時と同じ計算機上で実現してもいいし、別々の計算機で実現してもよい。小領域識別器記憶部5200、混在領域識別器記憶部5300は、学習時とランタイム時で別々の装置で実現される場合には、それぞれで異なるストレージであってもよい。その場合には、学習時に得られた各識別器を、ランタイム用の装置におけるストレージにコピーもしくは移動して用いればよい。
次に、本実施形態の画像処理装置による処理の詳細について説明する。図2は、各実施形態に関わる学習時およびランタイム時の処理の詳細を示すフローチャートであり、図2(a)が本実施形態の学習時に係るフローチャートである。図2(a)において、学習データ読み込みステップS2100では、学習画像と領域クラスラベルデータを読み込む。学習データ読み込みステップS2100は、学習データ読み込み部2100における処理に相当する。
学習データ記憶部5100には、予め複数の学習画像と領域クラスラベルデータが用意されており、学習画像とは、具体的には例えばデジタルカメラ等で撮影された画像データである。ここでは、用意されている学習画像の枚数をN枚とし、n番目の学習画像をI_n(n=1,…,N)と書くこととする。
また、領域クラスラベルデータとは、各学習画像に対して一対一対応するデータで、学習画像の各画素に対して意味的な領域クラスのラベルが割り振られているものである。図 3に、領域クラスラベルデータの一例を示す。図3(a)には学習画像800が示されており、図3(b)に学習画像800に対応する領域クラスラベルデータ810が示されている。領域クラスラベルデータの意味的な領域クラスは、公開画像データベースであるMSRC−21データセットなどで一般的に用いられているような、空(sky)、人物(body)、建物(building)といったものである。ここでは、領域クラスは、全部でN_c種類あるとする。また、学習画像I_nに対応する領域クラスラベルデータをGT_nとする。
次に、学習画像小領域分割ステップS2200では、学習画像を小領域に分割する。学習画像小領域分割ステップS2200は、学習画像小領域分割部2200における処理に相当する。小領域は、主に類似した特徴を持つ小さな領域として画像から切り出されるもので、画像を小領域に分割するいくつかの手法が提案されている。代表的なものとして、上述の非特許文献1のようなグラフベースの手法や、非特許文献2のようなクラスタリングベースの手法がある。あるいは、単純に均一サイズの長方形に画像を分割したブロック領域を小領域として用いてもよい。
図4は、画像を小領域に分割する処理を説明する図である。図4(a)が画像500を示しており、図4(b)にはこの画像500を小領域分割した結果510が示されている。ここでは、画像I_nに対する小領域分割結果として、K_n個の小領域が生成されたとする。また、学習用の小領域の総数はK_all=ΣK_n個であって、学習画像の小領域を通し番号でSP_k(k=1,…,K_all)と書くこととする。
次に、混在領域設定ステップS2300では、領域クラスラベルデータと小領域分割結果に基づき、混在領域クラスを学習画像の各画素に対して割り当てる。混在領域設定ステップS2300は、混在領域設定部2300における処理に相当する。混在領域設定ステップS2300では、N枚の領域クラスラベルデータGT_n(n=1,…,N)それぞれに対して、以下の処理が繰り返し行われる。
まず、更新クラスラベルデータとして、GTnew_nを設定する。初期値として、GTnew_nはGT_nと同じ状態とする。ここで、図5を用いて、学習画像と領域クラスラベルデータから小領域を抽出する処理を説明する。図5(a)は学習画像500とその小領域520を示しており、図5(b)は初期状態の更新クラスラベルデータの例を示している。この例では、領域クラスラベルデータ600に対して、空領域610と木領域620のクラスラベルが割り当てられている。
本実施形態では、画像I_nに対する小領域分割結果として得られたK_n個の小領域それぞれに対して、GT_n上で小領域内の各画素に付与されているクラスラベルを調べる。例えば、図5(b)の例では、図5(a)における学習画像500上の小領域520に対応する領域クラスラベルデータ上の小領域530を考える。小領域SP_k中のクラスcが割り振られた画素の数がp_c個であったとする。小領域SP_kに占める画素数が最も多いクラスがc1、次に多いクラスがc2であったとしたとき、その合計画素数p_c1+p_c2と小領域の総画素数Σp_cの比α_kは下記の数式1のように表わされる。

小領域SP_kのα_kの値が任意の閾値ρ未満の場合、その小領域は学習に用いないものとし、更新クラスラベルデータGTnew_nにおける該当箇所のクラスラベルを「非使用」として書き直す。閾値ρの値は、例えばρ=0.9などと設定する。小領域SP_kのα_kの値がρ以上である場合には、クラスc1とc2の混在度を計算する。混在度とは、もっとも単純には画素数の比率で定義され、下記の数式2のように表わされる。

ここでmix_kは、小領域SP_kの混在率と呼ぶ。空と木の枝のように二つのクラスが入り組んだ状態だけを混在領域として考えるのであれば、下記の数式3のように定義してもよい。ここで、m_c1、m_c2は、それぞれ小領域SP_k内でクラスc1およびc2が割り当てられている画素の重心である。

このようにして定義された混在度が所定の閾値θ以上であるとき、小領域SP_kは「クラスc1とc2の混在領域である」とする。閾値θの値は、例えばθ=1.5などと設定する。図5(b)の例では、小領域530における背景の空の領域531と、前景の細かい木の枝の領域532の画素数が近ければ、「空と木の混在領域」と判定される。ここで、2つのクラスの混在領域に関して、どちらを前景クラスにするかは、予め決めておく。例えば、空と木の混在領域の場合、「木を前景、空を背景とする」と定義しておく。
混在領域と判定された小領域に関しては、更新クラスラベルデータGTnew_nにおける該当箇所のクラスラベルを「クラスc1とc2の混在領域」として書き直す。一方、混在領域ではないと判断された小領域に関しては、更新クラスラベルデータGTnew_nにおける該当箇所のクラスラベルをクラスc1として書き直す。このようにして、全ての学習画像I_n(1,…,N)に対する更新クラスラベルデータGTnew_n(1,…,N)が設定される。図6には、以上のようにして更新されたクラスラベルデータ700を示す。
図2(a)のフローチャートの説明に戻ると、小領域識別器生成ステップS2400では、小領域のクラスを識別する小領域識別器を学習して生成する。小領域識別器生成ステップS2400は、小領域識別器生成部2400における処理に相当する。
学習に用いるデータは、全ての学習画像における小領域の中で、更新クラスラベルとして「非使用」が割り振られていない全ての小領域である。まず、学習に用いる小領域から、小領域特徴を抽出する。図5(a)の例では小領域のうち一つの小領域520が示されており、この小領域520の特徴量は画像500のこの領域内から得られる。ここで抽出される小領域特徴は、小領域内部における色平均値や色ヒストグラム、小領域の位置や大きさ、LBPなどのテクスチャ特徴などを用いることができる。本実施形態は、用いる特徴量に関して、その種類によって限定されるものではない。また、小領域の周囲に関する線分や色の分布などによるコンテクスト特徴を用いてもよい。小領域SP_kから抽出された小領域特徴をx_kとする。そして、GTnew_nの小領域SP_kに対応する領域クラスラベルがc_kであるすると、小領域SP_kに対する教師ベクトルτ_kは下記の数式4、数式5のようになる。

ここで、N_newは、もとの意味的クラス数N_cに、混在領域クラスを含めた総クラス数である。領域識別器の学習は、識別関数に対して小領域特徴x_kを入力したときに得られる出力ベクトルと教師ベクトルτ_kの誤差が、全学習データを通して小さくなるように識別関数のパラメータを調整して、小領域識別器を生成することである。小領域識別器は、小領域特徴x_kを入力として、各領域クラスのスコアベクトルf(x_k)を出力する。ここで、スコアベクトルf(x_k)は、N_new次元のベクトルである。スコアベクトルf(x_k)の各要素は各領域クラスに対するスコアであって、c番目の領域クラスに対するスコアをf_c(x_k)(c=1,…,N_new)と記述すると、下記の数式6のように表現される。

識別関数のモデルとその学習方法には様々なものが考えられ、例えば、SVMや多層ニューラルネットワーク、ロジスティック回帰などを用いることができる。本実施形態は、それらの種類によって限定されるものではない。学習して得られた領域識別器は、小領域識別器記憶部5200に記憶される。
次に、混在領域識別器学習ステップS2500では、混在領域の各画素を識別する混在領域識別器を生成する。混在領域識別器生成ステップS2500は、混在領域識別器生成部2500における処理に相当する。
混在領域識別器生成ステップS2500では、まず、混在領域設定ステップS2300にて設定された混在領域からパッチ領域を抽出する。パッチ領域は、混在領域中の全ての画素に対して、その画素を中心とした周辺領域を含む小さな範囲として抽出される。例えば、9×9画素の正方形領域や、半径5画素の円領域などのように、その注目画素を含む所定の領域とすることができる。図7には、抽出されたパッチ領域の例が811〜814として示されている。
画像I_nにおける混在領域の画素数がS_nであるとすれば、画像I_nからパッチ領域はS_n個抽出されることとなる。全学習画像に対して通し番号でj番目のパッチをP_jと書くこととする。ここで簡単のため、空を背景クラス、前景が木クラスである混在領域の場合を考える。これらのパッチ領域は、その中心画素が前景クラスであれば正事例、背景クラスであれば負事例と割り振られる。図7では、正事例831、832と負事例833、834とに割り振られた例を挙げている。パッチP_jに対する教師値η_jは下記のようになる。

ここでは、色情報とエッジ情報の統合による識別器生成を考える。パッチ領域からの色情報としては、パッチ全体からの色分布情報としてのRGBヒストグラムと、パッチ領域中心位置におけるRGB値を特徴量として抽出する。色情報特徴量はHSVやYCbCrなどの色空間によるものでもよく、RGBに限定されるものではない。パッチP_jから得られた色情報特徴量をy_jとする。色情報による前景/背景識別器の学習は、識別関数に対して色情報特徴量y_jを入力したときに得られる出力値と教師値η_jの誤差が、全学習データを通して小さくなるように識別関数のパラメータを調整して、領域識別器を生成することである。本実施形態は識別器の種類に限定されるものではなく、具体的な例としては、SVMやロジスティック回帰などが挙げられる。色情報による前景/背景識別器を、色情報特徴量y_jを入力とした関数g_color(y_j)と表すこととする。
次に、パッチ領域からエッジ情報を抽出する。パッチ領域P_jに対してエッジ抽出を行い、得られたエッジ画素の集合をe_jとする。エッジ集合e_jには、各エッジ画素の、パッチ中心からの相対位置が対応付けられている。ここで、ある2つのパッチ領域P_iとP_jのエッジ集合e_i、e_jのChamfer距離をD_ijとする。Chamfer距離は、異なるエッジ画像間で、最も近い位置にあるエッジ画素のペアに関する距離の平均を計算するもので、2つのエッジ画像の近さを表している。非特許文献4にあるように、このChamfer距離D_ijを引数にしたカーネルを用いてSVMを学習することができる。エッジ情報による前景/背景識別器を、エッジ集合e_jを入力とした関数g_edge(e_j)と表すこととする。
エッジ情報による前景/背景識別器のカーネルへの引数としては、パッチP_iとP_jの位相限定相関の逆数など、様々なものが考えられるが、本実施形態はその種類に限定されるものではない。また、LBPなどのテクスチャ特徴を使って、SVMやロジスティック回帰などでエッジ情報による前景/背景識別器を生成してもよい。上記のようにして得られた色情報による前景/背景識別器と、エッジ情報による前景/背景識別器の出力結果を統合することで、最終的な前景/背景識別器を得る。色情報による前景/背景識別器の出力値g_color(y_j)とエッジ情報による前景/背景識別器の出力値g_edge(e_j)を結合して、中間的な特徴ベクトルg_jとして扱う。

これを入力として、教師値η_jの値に従って関数h(g_j)を学習させることで、統合器が生成される。色情報による前景/背景識別器g_color(y_j)と、エッジ情報による前景/背景識別器g_edge(e_j)、それらを統合する統合器h(g_j)によって、前景/背景識別器は構成される。生成された前景/背景識別器は、混在領域識別器記憶部5300に書き込まれる。
以上により、学習時における処理が終了する。ランタイム時には、上記学習処理によって得られた小領域識別器と混在領域識別器を利用することによって、未知の入力画像における意味的領域分割を実行する。続いて、ランタイム時の処理に関して、図2(b)のフローチャートに従って説明する。
入力画像読み込みステップS1100では、入力画像Iが設定される。ここで、入力画像読み込みステップS1100は、入力画像読み込み部1100における処理に相当する。図8は、入力画像に対する領域分割処理の概要を説明する図であり、図8(a)には入力画像Iが100として示されている。設定される入力画像Iの入力方法に関しては種々の方法が考えられるが、本実施形態はその入力方法に関して限定されるものではない。例えば、カメラなどの撮像装置から与えられるものでもよいし、予めハードディスクなどのストレージに保存されていた画像データから与えられるものでもよい。
入力画像小領域分割ステップS1200では、入力画像Iに対する小領域分割処理が行われる。ここで、入力画像小領域分割ステップS1200は、入力画像小領域分割部1200における処理に相当する。ここで行われる小領域分割手法は、学習画像小領域分割ステップS2200と同じものが適用される。図8(b)には、入力画像の小領域分割結果200の例を示す。ここでは、入力画像Iを小領域分割して得られた小領域の総数をKとする。
次に、小領域識別ステップS1300では、入力画像Iの各小領域に関して領域クラスを識別する。ここで小領域識別ステップS1300は、小領域識別部1300における処理に相当する。小領域識別ステップS1300では、まず、入力画像小領域分割ステップS1200にて得られた各小領域から、小領域特徴量を抽出する。抽出する特徴量は、学習時における小領域識別器生成ステップS2400にて学習画像の小領域から抽出した特徴量と同じ種類のものである。ここでは、小領域SP_k(k=1,…,K)から抽出された小領域特徴をx_kとする。
小領域識別器記憶部5200には、学習時に小領域識別器生成ステップS2400にて得られた小領域識別器が記憶されているため、次にこれを読み込む。そして、読み込まれた小領域識別器fに対して、それぞれの小領域SP_kに関する小領域特徴x_kを入力することで、各領域クラスのスコアベクトルf(x_k)が出力される。

ここで、各小領域SP_kに対する領域識別結果は、スコアf(x_k)が最大となるクラスc_kとして得られるものとする。

全ての小領域SP_k(k=1,…,K)に関して領域識別器fを適用して全ての領域識別結果c_kが得られたら、小領域識別ステップS1300を終了する。図8(c)には、得られた領域識別結果300の例を示す。
混在領域分割ステップS1400では、混在領域の各画素に関して、前景/背景の判定を行うことで、詳細な意味的領域分割の結果を得る。ここで、混在領域分割ステップS1400は、混在領域分割部1400における処理に相当する。
小領域識別ステップS1300で混在領域と判定された領域の各画素を中心として、学習時と同様にしてパッチ領域を抽出する。そして、各パッチ領域P_jから、学習時と同様にして色情報特徴量y_jとエッジ集合e_jとを抽出する。それらを入力として色情報による前景/背景識別器とエッジ情報による前景/背景識別器の出力g_color(y_j)およびg_edge(e_j)をそれぞれ得る。それぞれの識別器によって得られた判定結果を結合して中間的特徴量g_j=[g_color(y_j),g_edge(e_j)]を統合器に入力することで、最終的な前景/背景の判定結果h(g_j)を得る。前景と判定された画素に対しては前景クラスのクラスラベルを割り当て直し、背景と判定された画素に対しては背景クラスのクラスラベルを割り当てる。混在領域中の各画素に対して、前景/背景識別を行った結果により、クラスラベルを割り当て直した結果の例を図8(d)の400に示す。
また、混在領域識別器による前景/背景識別結果を初期値にして、後処理による微修正を行ってもよい。混在領域識別器の出力値を単項ポテンシャルの値として用いてCRFやMRFによるスムージングを行ってもよい。また、混在領域識別器による前景/背景識別結果でシンクノードとソースノードを割り振り、グラフカットを行ってもよい。
なお、ここでは混在領域識別器hを、色特徴による識別器とエッジ特徴による識別器を統合する方法で説明したが、本実施形態は特定の混在領域識別器の構成に限定されるものではない。例えば、混在領域識別器hを畳み込みニューラルネットワークで学習させるなどといった手法であってもよい。
以上のようにして、本実施形態は、前景物体と背景領域が混在する領域に対して、中間的な「混在領域」クラスを設けることで意味的なクラスラベルを扱えるようになる。本実施形態では、小領域にクラスc1とc2が含まれる場合には、「クラスc1とc2」に関する混在領域として学習、識別できるようになり、前景物体と背景領域が混在する領域に対して意味的なクラスラベルを扱えるようにすることが可能となる。
更に、混在領域内部の各画素に対して前景と背景の2クラス判定を行うことで、領域を詳細に分割することができる。また、ここでは木と空の組み合わせによる例を示したが、本実施形態はその組み合わせによって限定されるものではない。例えば、手すりや建築物の骨組みなどの細かい人工物を前景として空を背景とするような場合や、木の枝を前景として背景に建物があるような場合などにも広く適用できるものである。
[第2の実施形態]
第2の実施形態では、混在領域と判定された領域をさらに小さな小領域に過分割して、それぞれの過分割領域を識別する構成について説明する。なお、第1の実施形態において既に説明をした構成については、同一の符号を付し、その説明を省略する。まず、図2(a)のフローチャートを参照して、学習時の処理の詳細について説明する。
図2(a)のフローチャートにおいて、学習データ読み込みステップS2100、学習画像小領域分割ステップS2200、混在領域設定ステップS2300および小領域識別器学習ステップS2400は、第1の実施形態と同様である。本実施形態では、混在領域識別器生成ステップS2500は、小領域過分割ステップS2510と過分割領域識別器学習ステップS2520に細分化される。図14(a)に、第2の実施形態における混在領域識別器生成ステップS2500のフローチャートを示す。
小領域過分割ステップS2510では、学習画像中の混在領域に関し、過分割となるように小領域分割を行う。図15は混在領域を過分割する処理の概略図であり、同図の例では、小領域520をさらに小さな複数の領域530に過分割している。ここで小領域を過分割する手法は、学習画像小領域分割ステップS2200にて用いた手法の設定パラメータを変えたものとしてもよいし、別の手法でもよい。例えば、画素値によるk−meansクラスタリングなどによって、小領域を複数の領域に過分割してもよい。
次に、過分割領域識別器学習ステップS2520では、過分割領域を前景と背景に判別するための過分割領域識別器を生成する。まず、小領域過分割ステップS2510にて得られた過分割領域から、特徴量を抽出する。特徴量は小領域における特徴量と同様、過分割領域内の色平均値や色ヒストグラム、過分割領域の大きさやLBPなどのテクスチャ特徴などを用いてもよい。更には、過分割領域内部から抽出された特徴量に、過分割領域の属する小領域の特徴量を加えてもよい。
全ての学習画像の全ての小領域を過分割して得られた過分割領域の数をMとし、通し番号mで過分割領域をOSP_m(m=1,…,M)と表すこととする。また、過分割領域OSP_mから得られた過分割領域特徴量をz_mとする。過分割領域OSP_mに対する教師値λ_mは、下記の数式11のようになる。

ここで過分割領域OSP_mが前景であるとは、OSP_mで面積的に占有率の大きいクラスが前景クラスである場合である。空と木の混在領域に関して、木を前景、空を背景とした場合、図15の例では、過分割領域531は前景で、過分割領域532は背景である。教師値λ_mと過分割領域特徴量z_m(m=1,…,M)を用いて、過分割領域識別器h(z)を学習して生成する。過分割領域識別器h(z)のモデルは様々なものが考えられるが、本実施形態はその種類によって限定されるものではない。例えば、SVMや多層ニューラルネットワーク、ロジスティック回帰などを使ってもよい。学習によって得られた過分割領域識別器h(z)は、混在領域識別器記憶部5300に書き込まれる。
次に、ランタイム時の処理を図2(b)のフローチャートに沿って説明する。図2(b)のフローチャートにおいて、入力画像読み込みステップS1100、入力画像小領域分割ステップS1200および小領域識別ステップS1300は、第1の実施形態と同様である。混在領域分割ステップS1400は、さらに小領域過分割ステップS1410と過分割領域識別ステップS1420とに細分化される。図14(b)に、第2の実施形態における混在領域分割ステップS1400のフローチャートを示す。
まず、小領域過分割ステップS1410では、入力画像において混在領域と判定された小領域を、学習時の小領域過分割ステップS2510と同様の手法にて過分割する。
過分割領域識別ステップS1420では、過分割領域識別器を用いて過分割領域を識別する。まず、過分割領域識別器学習ステップS2520と同様の手法にて過分割領域から特徴量を抽出する。次に、混在領域識別器記憶部5300から過分割領域識別器を読み込み、過分割領域識別器h(z)を用いて、混在領域の各過分割領域を前景か背景か判定する。最後に、前景と判定された過分割領域には前景のクラスラベルを割り当て、背景と判定された過分割領域には背景のクラスラベルを割り当てることにより、図8(d)のような詳細なクラス出力結果を得る。
本実施形態では、このようにして、混在領域をさらに過分割して前景と背景を判定することにより、詳細なクラス領域識別結果を得ることができる。
[第3の実施形態]
第3の実施形態では、テンプレートマッチングによるマスクの適用によって混在領域を識別する構成について説明する。なお、第1、第2の実施形態において既に説明をした構成については、同一の符号を付し、その説明を省略する。まず、図2(a)のフローチャートを参照して、学習時の処理の詳細について説明する。
図2(a)のフローチャートにおいて、学習データ読み込みステップS2100、学習画像小領域分割ステップS2200、混在領域設定ステップS2300および小領域識別器学習ステップS2400は、第1の実施形態と同様である。
本実施形態の混在領域識別器生成ステップS2500では、学習画像の混在領域からパッチ領域を切り出し、テンプレートとする。図12には、本実施形態におけるテンプレートとマスクの例を示す。図12の例では、学習画像500からパッチ領域811〜814がテンプレートとして抽出される。次に、領域クラスラベルデータからパッチ領域の位置に対応する領域をマスクとして切り出す。図12の例では、領域ラベル831〜834が、マスクとして抽出される。切り出されたテンプレートとマスクを混在領域識別器記憶部5300に記憶する。
次に、ランタイム時の処理を図2(b)のフローチャートに沿って説明する。図2(b)のフローチャートにおいて、入力画像読み込みステップS1100、入力画像小領域分割ステップS1200および小領域識別ステップS1300は、第1の実施形態と同様である。混在領域分割ステップS1400では、小領域識別ステップS1300にて混在領域と判定された領域に関して、テンプレートマッチングとマスクの適用によって、前景と背景の分離を行う。
図13を参照して、テンプレートマッチングとマスクを用いた前景と背景の分離の処理について説明する。本実施形態では、入力画像100の混在領域中の各位置に対して、混在領域識別器生成ステップS2500にて切り出したテンプレートとのマッチングを行い、最もマッチ度の高いテンプレート画像を探索し、そのテンプレートを抽出する。テンプレートマッチングの手法としては、既知のどのような手法を用いるようにしてもよい。例えば、一般的な正規化相関でもよいし、exempler−SVMなどの事例ベース検出器を使ってもよい。あるいは、ランダムツリーを使った高速マッチングを行ってもよい。
図13では、位置110における部分画像111と最もマッチ度の高いテンプレート151が示されている。次に、入力画像の部分画像111とテンプレート151の局所領域の対応を取る。局所領域の対応を取る手法としては、Harrisコーナー検出器とSIFT特徴による方法などがよく知られている。入力画像の部分画像111とテンプレート151の局所領域の対応は、図13において符号120として示されている。対応がとれれば、テンプレート151をワーピングなどの既知手法によって、入力画像の部分画像111と類似した部分画像152に変形することができる。
また、テンプレート151に対応するマスク451に関して、同様の変形を行い、変形マスク452を得る。変形したマスクを混在領域における元の位置410に適用し、混在領域の全画素に関するマスクのANDもしくはORを取ることで、最終的な出力400を得ることができる。また、第1の実施形態と同様に、マスクによって得られた結果を初期値にして、CRFやMRF、グラフカットなどによる後処理で微修正を行ってもよい。
本実施形態では、このようにしてテンプレートマッチングとマスクの変形を組み合わせることによって、事例ベースによる混在領域の詳細分割を行うことができる。
[第4の実施形態]
第1、第2および第3の実施形態で利用していた領域クラスラベルデータは、例えば、図9(b)で示したように、領域クラスラベルが細かく入力されている必要がある。しかしながら、このような詳細な領域クラスラベルをユーザが入力していくのは非常に手間のかかる作業である。そこで、本発明の第4の実施形態では、混在領域を用いて領域クラスラベルデータを入力する手間を削減し、高精度に混在領域を識別できる構成について説明する。なお、第1〜第3の実施形態において既に説明をした構成については同一の符号を付し、その説明は省略する。
図1(b)は、本実施形態に係る画像処理装置の機能構成を示す概略図である。同図において、学習画像記憶部5400には、領域クラスラベルを入力する対象である画像が予め用意されている。簡易領域クラスラベル入力部3100は、学習画像記憶部5400から任意の学習画像を読み込んで、それを表示装置に表示させる等してユーザに提示する。そして、ユーザがその学習画像に対して混在領域を含めた簡易領域クラスラベルを入力し、その入力情報を受け付ける。
初期領域クラスラベル入力部3200は、混在領域からサンプリングされた位置を中心とした周辺領域をユーザに提示し、ユーザが提示された領域に関して前景か背景かのラベルを入力した情報を受け付ける。混在領域識別器学習部3300は、学習画像と入力済みの領域クラスラベルに基づいて、混在領域の前景と背景を判定する混在領域識別器を生成する。サンプル領域識別部3400は、クラスラベルが未入力となっている混在領域の一部について、混在領域識別器を使ってそのクラスを推定する。サンプル領域クラスラベル修正部3500は、サンプル領域識別部3400の識別結果をユーザに提示し、ユーザがクラスラベルの修正を行い、その情報を受け付ける。そして、詳細な領域クラスラベルが全て入力されたら、領域クラスラベルデータを学習データ記憶部5100に書き込む。
次に、本実施形態の画像処理装置による処理の詳細について説明する。図2(c)は、本実施形態に係る処理を示すフローチャートである。同図において、簡易領域クラスラベル入力ステップS3100では、ユーザからの指示に従い、学習画像に対して簡易領域クラスラベルデータを入力する。簡易領域クラスラベル入力ステップS3100は、簡易領域クラスラベル入力部3100における処理に相当する。
簡易領域クラスラベル入力ステップS3100では、まず、学習画像記憶部5400から学習画像を読み込み、ユーザに提示する。ユーザは、提示された学習画像の各画素に対してクラスラベルを入力し、簡易領域クラスラベル入力部3100は、その簡易領域クラスラベルの情報を受け付ける。
ここで、複数のクラスラベルの領域が入り組んだ領域に関しては、仮クラスラベルとして「混在領域」のラベルを付与した簡易領域クラスラベルデータを作成する。図9には、仮クラスラベル「混在領域」をユーザが入力して、その情報を受け付けるまでの処理の流れを示す。図9(a)に示すような学習画像500に対して、最終的な目標は、ユーザが図9(b)のような詳細な領域クラスデータ600を入力できるようにすることである。しかし、これを全てユーザが手で入力するのは非常に手間のかかる作業となる。そこで、ユーザには、図9(c)のような簡易領域ラベルデータ650を入力させて、簡易領域クラスラベル入力部3100ではその情報を取得する。図9(c)の660、670は、それぞれ空および木として、ユーザが簡単に入力可能であった領域である。これに対して、680で示される領域には、空を背景にして細かい木の枝が前景として写っており、その輪郭をユーザが手で入力することは困難である。そこで、ユーザはそのような領域を適当に切り出し、「混在領域」という仮ラベルを付与する。その際、混在領域の輪郭は細かく入力する必要はなく、実際の領域より少し大きめに入力すればよい。
初期領域クラスラベル入力ステップS3200では、混在領域からサンプリングされた位置に関する前景か背景かのラベルについて、ユーザが入力した情報を取得する。初期領域クラスラベル入力ステップS3200は、初期領域クラスラベル入力部3200における処理に相当する。
当該ステップでは、まず、簡易クラスラベルデータにおける混在領域の中から任意の位置をサンプリングしてきて、その位置を中心とした周辺領域をユーザに提示する。図10は、本実施形態において初期領域クラスラベルの入力処理を説明する図である。図10では、混在領域680からサンプリングされた位置690の一例を示している。サンプリング位置は、システムがランダムに選択してもいいし、ユーザがGUIなどで指定してもよい。あるいは、輝度値の分散などを見て複雑な領域を選ぶなどとしてもよい。この位置に対応する学習画像500上の位置は590であって、位置590とその周辺領域580を拡大して表示したものが、それぞれ591、581で示されている。ユーザは、提示された領域の各画素に対して、それが前景か背景かを判断して入力する。図10の例では、拡大表示された領域581を見て、ユーザが入力した前景、背景のラベルが571に示されている。これを1つ以上のサンプル位置、例えば混在領域を含む各画像に対して2つのサンプル位置などに関してユーザに入力させ、その情報を取得することで、初期領域クラスラベル入力ステップS3200の処理を終了する。
混在領域識別器学習ステップS3300では、混在領域における前景/背景識別器を学習する。混在領域識別器学習ステップS3300は、前記混在領域識別器学習部3300における処理に相当する。仮ラベルとして混在領域が付与されている領域の中で、クラスラベルが入力済みの画素に関して、第1の実施形態における混在領域識別器学習ステップS2400と同様の処理を行い、混在領域における前景/背景識別器を生成する。
サンプル領域識別ステップS3400では、クラスラベルが未入力となっている混在領域の一部について、混在領域識別器を使ってそのクラスを推定する。サンプル領域識別ステップS3400は、前記サンプル領域識別部3400における処理に相当する。
混在領域中のクラスラベルが未入力となっている領域の一部をサンプリングし、混在領域識別器学習ステップS3300によって生成された混在領域識別器を用いて前景/背景の判定を行う。そして、混在領域識別器を用いて判定した結果をユーザに提示する。図11には、ユーザに提示する判定結果の一例を示す。サンプリングされた領域550に対して、学習画像のその部分を拡大表示したものが551、前景/背景判定の結果が561に示されている。
サンプル領域クラスラベル修正ステップS3500では、サンプル領域に関する判定結果をユーザに提示し、ユーザからの指示に従ってクラスラベルの修正を行う。サンプル領域クラスラベル修正ステップS3500は、サンプル領域クラスラベル修正部3500における処理に相当する。
サンプル領域クラスラベル修正ステップS3500では、サンプル領域識別ステップS3400における判定結果をユーザに提示し、ユーザは判定結果が間違えている画素に対して、正しいラベルを入力する。図11の例では、学習画像のサンプリングされた領域の拡大表示551と、その領域に関する判定結果561をユーザが見て比較し、正しく入力されたラベルが562に示されている。サンプル領域クラスラベル修正部3500は、ユーザによって修正を指示されたクラスラベルを、混在領域内の該当画素に対して付与する。この時点で、混在領域の全ての画素に対してクラスラベルの付与が終了していれば処理を終え、領域クラスラベルデータとして学習データ記憶部5100に書き込む。
クラスラベルが付与されていない画素が混在領域に残っている場合、混在領域識別器学習ステップS3300に戻り、再び混在領域識別器を学習させる。なお、詳細なクラスラベルを入力済みの学習画像が既にある場合、追加画像に対するラベル付け作業を行う際には、初期領域クラスラベル入力ステップS3200を省略し、混在領域識別器学習ステップS3300から行ってもよい。
本実施形態では、このようにして、サンプリングされたデータで学習された識別器を利用してクラスラベルを半自動入力することができるため、一度のラベル入力作業は少なく、ユーザが全て手作業でクラスラベルを入力する作業と比べて負担が少ない。また、繰り返しクラスラベルの修正と追加を行って混在領域識別器を学習していくことにより、混在領域識別器の推定精度が向上していくことになるため、回を追うごとにユーザの修正作業が少なくなっていくことが期待できる。
[その他の実施形態]
本発明は、上記実施形態の機能を実現するソフトウェア(プログラム)を、ネットワーク又は各種記憶媒体を介してシステム或いは装置に供給し、そのシステム或いは装置のコンピュータ(又はCPUやMPU等)がプログラムを読み出して実行する処理である。また、本発明は、複数の機器から構成されるシステムに適用しても、1つの機器からなる装置に適用してもよい。本発明は上記実施例に限定されるものではなく、本発明の趣旨に基づき種々の変形(各実施例の有機的な組合せを含む)が可能であり、それらを本発明の範囲から除外するものではない。即ち、上述した各実施例及びその変形例を組み合わせた構成も全て本発明に含まれるものである。
2100 学習データ読み込み部
2200 学習画像小領域分割部
2300 混在領域設定部
2400 小領域識別器生成部
5100 学習データ記憶部
5200 小領域識別器記憶部

Claims (14)

  1. 入力画像を読み込む読み込み手段と、
    前記読み込んだ入力画像を複数の小領域に分割する第1の分割手段と、
    前記分割された小領域のうち複数のクラスが混在する小領域を、前記複数のクラスに関する混在領域として識別する識別手段と、
    を有することを特徴とする画像処理装置。
  2. 前記混在領域を複数のクラスの領域に分割する混在領域分割手段を更に有することを特徴とする請求項1に記載の画像処理装置。
  3. 複数の学習画像と、当該複数の学習画像の各画素に対してクラスラベルが与えられた領域クラスラベルデータと、を読み込む学習データ読み込み手段と、
    前記複数の学習画像を小領域に分割する第2の分割手段と、
    前記複数の学習画像を分割してなる小領域に含まれる複数のクラスに関するクラスラベルを設定する混在領域設定手段と、
    前記領域クラスラベルデータに含まれるクラスラベルと、前記設定された複数のクラスに関するクラスラベルとに基づいて、前記小領域のクラスを識別するための領域識別器を生成する第1の生成手段と、を更に有し、
    前記識別手段は、前記第1の生成手段により生成された領域識別器を用いて、前記分割された小領域のクラスを識別することを特徴とする請求項1または2に記載の画像処理装置。
  4. 前記混在領域設定手段は、前記複数の学習画像を分割してなる小領域に含まれる複数のクラスの混在率に基づいて、前記複数のクラスに関するクラスラベルを設定することを特徴とする請求項3に記載の画像処理装置。
  5. 前記混在率は、前記小領域の画素に対する前記複数のクラスの領域の画素の比率であることを特徴とする請求項4に記載の画像処理装置。
  6. 前記複数の学習画像と前記領域クラスラベルデータとに基づいて、前記混在領域における各画素のクラスを識別する識別器を生成する第2の生成手段を更に有することを特徴とする請求項3から5のいずれか1項に記載の画像処理装置。
  7. 前記複数の学習画像の混在領域に対してユーザが入力したクラスラベルを取得する領域クラスラベル入力手段と、
    前記第1の生成手段は、前記取得したユーザが入力したクラスラベルに基づいて領域識別器を生成することを特徴とする請求項3から6のいずれか1項に記載の画像処理装置。
  8. 前記複数の学習画像の混在領域よりも大きな領域に対してユーザが入力したクラスラベルを取得する簡易領域クラスラベル入力手段と、
    前記入力されたクラスラベルに対するユーザの修正を受け付ける領域クラスラベル修正手段と、を更に有することを特徴とする請求項7に記載の画像処理装置。
  9. 前記混在領域分割手段は、前記混在領域の注目画素に含まれる所定の領域の特徴量に基づいて、前記注目画素が前景であるか背景であるかを判定することを特徴とする請求項2に記載の画像処理装置。
  10. 前記混在領域分割手段は、前記混在領域と識別された小領域を過分割してなる過分割領域の特徴量に基づいて、当該過分割領域を前景であるか背景であるか判定することを特徴とする請求項2に記載の画像処理装置。
  11. 前記混在領域分割手段は、前記混在領域の注目画素を含む所定の領域の画像と類似した学習画像の部分画像に基づいて生成された変形マスクを用いて、前記混在領域を複数のクラスに分割することを特徴とする請求項2に記載の画像処理装置。
  12. 複数の学習画像と、当該複数の学習画像の各画素に対してクラスラベルが与えられた領域クラスラベルデータと、を読み込む学習データ読み込み手段と、
    前記複数の学習画像を小領域に分割する第2の分割手段と、
    前記複数の学習画像を分割してなる小領域に含まれる複数のクラスに関するクラスラベルを設定する混在領域設定手段と、
    前記領域クラスラベルデータに含まれるクラスラベルと、前記設定された複数のクラスに関するクラスラベルとに基づいて、前記小領域のクラスを識別するための領域識別器を生成する第1の生成手段と、
    を有することを特徴とする画像処理装置。
  13. 入力画像を読み込むステップと、
    前記読み込んだ入力画像を複数の小領域に分割するステップと、
    前記分割された小領域のうち複数のクラスが混在する小領域を、前記複数のクラスに関する混在領域として識別するステップと、
    を有することを特徴とする画像処理方法。
  14. コンピュータを、請求項1から12のいずれか1項に記載の画像処理装置として機能させるためのプログラム。
JP2015249067A 2015-12-21 2015-12-21 画像処理装置、画像処理方法及びプログラム Active JP6702716B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2015249067A JP6702716B2 (ja) 2015-12-21 2015-12-21 画像処理装置、画像処理方法及びプログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015249067A JP6702716B2 (ja) 2015-12-21 2015-12-21 画像処理装置、画像処理方法及びプログラム

Publications (2)

Publication Number Publication Date
JP2017117019A true JP2017117019A (ja) 2017-06-29
JP6702716B2 JP6702716B2 (ja) 2020-06-03

Family

ID=59234482

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015249067A Active JP6702716B2 (ja) 2015-12-21 2015-12-21 画像処理装置、画像処理方法及びプログラム

Country Status (1)

Country Link
JP (1) JP6702716B2 (ja)

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019016114A (ja) * 2017-07-05 2019-01-31 キヤノン株式会社 画像処理装置、学習装置、フォーカス制御装置、露出制御装置、画像処理方法、学習方法、及びプログラム
JP2019086899A (ja) * 2017-11-02 2019-06-06 キヤノン株式会社 情報処理装置、画像領域選択方法、コンピュータプログラム、及び記憶媒体
JP2020047055A (ja) * 2018-09-20 2020-03-26 日本電信電話株式会社 画像認識器学習装置、画像認識器学習方法、及びプログラム
WO2020111048A1 (ja) * 2018-11-26 2020-06-04 大日本印刷株式会社 コンピュータプログラム、学習モデル生成装置、表示装置、粒子識別装置、学習モデル生成方法、表示方法及び粒子識別方法
JP2020161077A (ja) * 2019-03-28 2020-10-01 株式会社イシダ 学習済みモデル生成方法、学習済みモデル生成装置、商品判別方法、商品判別装置、商品判別システム及び計量装置
KR20210008051A (ko) * 2018-08-06 2021-01-20 가부시키가이샤 시마쓰세사쿠쇼 교사 라벨 화상 수정 방법, 학습 완료 모델의 작성 방법 및 화상 해석 장치
JPWO2021206053A1 (ja) * 2020-04-06 2021-10-14
JP2022068282A (ja) * 2017-07-05 2022-05-09 キヤノン株式会社 ホワイトバランス調整装置、フォーカス制御装置、露出制御装置、ホワイトバランス調整方法、フォーカス制御方法、露出制御方法、及びプログラム
US12002259B2 (en) 2017-07-05 2024-06-04 Canon Kabushiki Kaisha Image processing apparatus, training apparatus, image processing method, training method, and storage medium

Cited By (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7300027B2 (ja) 2017-07-05 2023-06-28 キヤノン株式会社 画像処理装置、画像処理方法、学習装置、学習方法、及びプログラム
US12002259B2 (en) 2017-07-05 2024-06-04 Canon Kabushiki Kaisha Image processing apparatus, training apparatus, image processing method, training method, and storage medium
JP7350208B2 (ja) 2017-07-05 2023-09-25 キヤノン株式会社 画像処理装置、画像処理方法、及びプログラム
JP2019016114A (ja) * 2017-07-05 2019-01-31 キヤノン株式会社 画像処理装置、学習装置、フォーカス制御装置、露出制御装置、画像処理方法、学習方法、及びプログラム
JP7026456B2 (ja) 2017-07-05 2022-02-28 キヤノン株式会社 画像処理装置、学習装置、フォーカス制御装置、露出制御装置、画像処理方法、学習方法、及びプログラム
JP2022068282A (ja) * 2017-07-05 2022-05-09 キヤノン株式会社 ホワイトバランス調整装置、フォーカス制御装置、露出制御装置、ホワイトバランス調整方法、フォーカス制御方法、露出制御方法、及びプログラム
JP2019086899A (ja) * 2017-11-02 2019-06-06 キヤノン株式会社 情報処理装置、画像領域選択方法、コンピュータプログラム、及び記憶媒体
KR20210008051A (ko) * 2018-08-06 2021-01-20 가부시키가이샤 시마쓰세사쿠쇼 교사 라벨 화상 수정 방법, 학습 완료 모델의 작성 방법 및 화상 해석 장치
KR102565074B1 (ko) 2018-08-06 2023-08-08 가부시키가이샤 시마쓰세사쿠쇼 교사 라벨 화상 수정 방법, 학습 완료 모델의 작성 방법 및 화상 해석 장치
JP2020047055A (ja) * 2018-09-20 2020-03-26 日本電信電話株式会社 画像認識器学習装置、画像認識器学習方法、及びプログラム
WO2020059545A1 (ja) * 2018-09-20 2020-03-26 日本電信電話株式会社 画像認識器学習装置、画像認識器学習方法、及びプログラム
JP7067383B2 (ja) 2018-09-20 2022-05-16 日本電信電話株式会社 画像認識器学習装置、画像認識器学習方法、及びプログラム
JPWO2020111048A1 (ja) * 2018-11-26 2021-10-21 大日本印刷株式会社 コンピュータプログラム、学習モデル生成装置、表示装置、粒子識別装置、学習モデル生成方法、表示方法及び粒子識別方法
WO2020111048A1 (ja) * 2018-11-26 2020-06-04 大日本印刷株式会社 コンピュータプログラム、学習モデル生成装置、表示装置、粒子識別装置、学習モデル生成方法、表示方法及び粒子識別方法
US11669948B2 (en) 2019-03-28 2023-06-06 Ishida Co., Ltd. Learned model generating method, learned model generating device, product identifying method, product identifying device, product identifying system, and measuring device
JP2020161077A (ja) * 2019-03-28 2020-10-01 株式会社イシダ 学習済みモデル生成方法、学習済みモデル生成装置、商品判別方法、商品判別装置、商品判別システム及び計量装置
JP7374453B2 (ja) 2019-03-28 2023-11-07 株式会社イシダ 学習済みモデル生成方法、学習済みモデル生成装置、商品判別方法、商品判別装置、商品判別システム及び計量装置
JP7236202B2 (ja) 2020-04-06 2023-03-09 国立大学法人 新潟大学 データ生成装置、データ生成方法及びプログラム
JPWO2021206053A1 (ja) * 2020-04-06 2021-10-14

Also Published As

Publication number Publication date
JP6702716B2 (ja) 2020-06-03

Similar Documents

Publication Publication Date Title
JP6702716B2 (ja) 画像処理装置、画像処理方法及びプログラム
CN110689037B (zh) 用于使用深度网络的自动对象注释的方法和系统
US10936911B2 (en) Logo detection
CN109154978B (zh) 用于检测植物疾病的系统和方法
Chung et al. Efficient shadow detection of color aerial images based on successive thresholding scheme
Dalla Mura et al. Classification of hyperspectral images by using extended morphological attribute profiles and independent component analysis
Tong et al. Salient object detection via bootstrap learning
AU2018102232A4 (en) Bone marrow cell marking method and system
US9898686B2 (en) Object re-identification using self-dissimilarity
US8879855B2 (en) Image segmentation for large-scale fine-grained recognition
KR101640998B1 (ko) 화상 처리 장치 및 화상 처리 방법
CN111145209B (zh) 一种医学图像分割方法、装置、设备及存储介质
Mavridaki et al. A comprehensive aesthetic quality assessment method for natural images using basic rules of photography
WO2017181892A1 (zh) 前景分割方法及装置
US8718401B2 (en) Image processing device, method and program
WO2019197021A1 (en) Device and method for instance-level segmentation of an image
CN102592132A (zh) 超像素推进型自上而下图像识别方法和系统
JP7173309B2 (ja) 学習方法、学習プログラム、および、学習装置
JP2015041254A (ja) Trimap生成装置、Trimap生成方法、及びプログラム
JP2017102622A (ja) 画像処理装置、画像処理方法及びプログラム
CN112053367A (zh) 图像处理方法、设备及存储介质
CN110969641A (zh) 图像处理方法和装置
KR20230117752A (ko) 이미지들 내의 주석이 달린 관심 영역들의 검출
US11461880B2 (en) Generating image masks from digital images utilizing color density estimation and deep learning models
Herchenbach et al. Segmentation and classification of THCs on PCBAs

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20181217

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20191107

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20191112

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200108

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200406

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200507

R151 Written notification of patent or utility model registration

Ref document number: 6702716

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151