JP2018206260A - 画像処理システム、評価モデル構築方法、画像処理方法及びプログラム - Google Patents
画像処理システム、評価モデル構築方法、画像処理方法及びプログラム Download PDFInfo
- Publication number
- JP2018206260A JP2018206260A JP2017113759A JP2017113759A JP2018206260A JP 2018206260 A JP2018206260 A JP 2018206260A JP 2017113759 A JP2017113759 A JP 2017113759A JP 2017113759 A JP2017113759 A JP 2017113759A JP 2018206260 A JP2018206260 A JP 2018206260A
- Authority
- JP
- Japan
- Prior art keywords
- image
- edge
- learning
- unit
- channel
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000012545 processing Methods 0.000 title claims abstract description 84
- 238000013210 evaluation model Methods 0.000 title claims abstract description 49
- 238000010276 construction Methods 0.000 title claims description 21
- 238000003672 processing method Methods 0.000 title claims description 7
- 238000001514 detection method Methods 0.000 claims abstract description 58
- 238000011156 evaluation Methods 0.000 claims abstract description 50
- 239000000284 extract Substances 0.000 claims abstract description 16
- 238000000605 extraction Methods 0.000 claims description 115
- 238000006243 chemical reaction Methods 0.000 claims description 36
- 238000013528 artificial neural network Methods 0.000 claims description 11
- 230000006870 function Effects 0.000 claims description 8
- 230000008859 change Effects 0.000 claims description 4
- 238000000034 method Methods 0.000 description 43
- 230000008569 process Effects 0.000 description 24
- 238000013527 convolutional neural network Methods 0.000 description 19
- 238000010586 diagram Methods 0.000 description 16
- 238000003708 edge detection Methods 0.000 description 11
- 230000007547 defect Effects 0.000 description 6
- 230000002194 synthesizing effect Effects 0.000 description 6
- 238000004458 analytical method Methods 0.000 description 3
- 238000004891 communication Methods 0.000 description 3
- 230000005484 gravity Effects 0.000 description 3
- 238000011176 pooling Methods 0.000 description 3
- 230000015572 biosynthetic process Effects 0.000 description 2
- 238000012937 correction Methods 0.000 description 2
- 238000002474 experimental method Methods 0.000 description 2
- 239000000203 mixture Substances 0.000 description 2
- 230000002093 peripheral effect Effects 0.000 description 2
- 238000012706 support-vector machine Methods 0.000 description 2
- 238000003786 synthesis reaction Methods 0.000 description 2
- 238000012935 Averaging Methods 0.000 description 1
- 238000013459 approach Methods 0.000 description 1
- FFBHFFJDDLITSX-UHFFFAOYSA-N benzyl N-[2-hydroxy-4-(3-oxomorpholin-4-yl)phenyl]carbamate Chemical compound OC1=C(NC(=O)OCC2=CC=CC=C2)C=CC(=C1)N1CCOCC1=O FFBHFFJDDLITSX-UHFFFAOYSA-N 0.000 description 1
- 239000000356 contaminant Substances 0.000 description 1
- 238000013135 deep learning Methods 0.000 description 1
- 238000003709 image segmentation Methods 0.000 description 1
- 238000007654 immersion Methods 0.000 description 1
- 238000002372 labelling Methods 0.000 description 1
- 238000010801 machine learning Methods 0.000 description 1
- 239000002184 metal Substances 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000010606 normalization Methods 0.000 description 1
- 230000009467 reduction Effects 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 230000011218 segmentation Effects 0.000 description 1
- 238000004088 simulation Methods 0.000 description 1
Landscapes
- Image Processing (AREA)
- Image Analysis (AREA)
Abstract
【解決手段】画像処理システムは、検出対象が含まれる学習用の画像から、複素モーメントフィルタにより検出対象のエッジを抽出し、抽出したエッジを含む画像に対してWT−UCMによって、検出対象の候補となる領域を抽出し、候補となる領域を含んだ画像を複数取得し、候補となる領域の特徴を学習した評価モデルを構築し、構築した評価モデルに基づいて、評価対象の画像に含まれる検出対象を特定する。
【選択図】図1
Description
なお、非特許文献3には、複素モーメントフィルタを用いたエッジの抽出法が記載されている。非特許文献3には、複素モーメントフィルタによれば、キャニー法等の一般的なエッジ抽出法に比べ、ノイズの存在下でも安定して高精度にエッジ抽出が可能であることが示されている。また、非特許文献4には、OWT−UCM(Oriented Watershed Transform Ultrametric Contour Map)によって画像内の対象物を検出する技術が記載されている。
以下、本発明の一実施形態による画像処理システムを図1〜図12を参照して説明する。本実施形態による画像処理システムは、1台または複数台のPC(personal computer)やサーバ端末などのコンピュータに実装される。画像処理システムは、細胞画像に含まれる所定の組織や、コンクリートや金属等の構造物の画像に含まれる混入物など、画像に含まれる粒状の対象物を検出する。以下の説明では、1台のコンピュータに実装された画像処理システム(画像処理装置10)によって、組織切片画像において炎症を起こしている細胞を検出する処理を例に説明を行う。
図1に示す画像処理装置10は、制御部11と、入力部12と、出力部13と、記憶部14と、を備えている。
制御部11は、画像に含まれる対象物を検出する処理を行う。制御部11は、対象物が含まれる学習用の画像(学習用画像)から対象物を検出するための評価モデルを構築する機能と、構築した評価モデルに基づいて、評価対象の画像(評価用画像)に写っている対象物を検出する機能を有している。制御部11の機能については後述する。
入力部12は、データの入力を行うインタフェースである。例えば、入力部12は、キーボード、マウス等の入力装置である。
出力部13は、データの出力を行うインタフェースである。例えば、出力部13は、対象物の検出処理の結果を他のコンピュータ装置、表示装置、プリンタ等に出力する。
記憶部14は、例えば、ROM(Read Only Memory)、フラッシュメモリ、HDD(Hard Disk Drive)等の不揮発性の記憶媒体と、RAM(Random Access Memory)、レジスタ等の揮発性の記憶媒体とを含む。記憶部14は、諸々のデータを記憶する。
スケール変換部111は、画像処理装置10に入力された画像(入力画像)に対して、拡大や縮小などのスケール変換を行う。
色変換部112は、RGB色空間の入力画像をCIE−Lab色空間の画像に変換する。
エッジ抽出部113は、複素モーメントフィルタを用いて、入力画像または入力画像に対してスケール変換や色空間の変更を行った画像に含まれる対象物のエッジ(境界)を検出する。エッジ抽出部113は、検出したエッジを抽出した画像を生成する。
合成部114は、エッジ抽出部113が生成した複数の画像を合成し、Pb(probability)画像を生成する。
候補領域抽出部115は、エッジ抽出部113によって検出されたエッジの情報を利用して、Pb画像から候補領域を抽出する。候補領域抽出部115は、候補領域の抽出にWT−UCM(Oriented Watershed Transform Ultrametric Contour Map)を用いる。なお、候補領域とは、検出対象の対象物が写ったと推定される画像中の領域である。
パッチ画像切出部116は、学習用画像と評価用画像から矩形の小領域を切り出したパッチ画像を生成する。
モデル構築部117は、学習用画像から切り出された対象物が写ったパッチ画像を学習して、対象物を検出するための評価モデルを構築する。評価モデルの構築には、例えば畳み込みニューラルネットワーク(CNN:Convolutional Neural Network)等の深層学習を用いる。
評価部118は、評価用画像から切り出されたパッチ画像に対象物が含まれているかどうかを、評価モデルによって評価する。
評価結果表示部119は、評価用画像に含まれる対象物の検出結果を表示する。例えば、評価結果表示部119は、評価用画像中に対象物が写った領域に印を付す等した画像を生成して、その画像を出力する。
まず、ユーザが画像処理装置10に学習用画像を入力する。ここで、学習用画像は、RGB色空間のカラー画像である。画像処理装置10では、入力部12が、学習用画像を取得し、記憶部14に記録する。制御部11は、学習用画像を記憶部14から読み出して、色変換部112が学習用画像をRGB色空間の画像からCIE−Lab色空間の画像へ変換する。具体的には、図2に示すように、色変換部112は、入力画像(学習用画像)からCIE−Lab色空間の各チャンネルL*、a*、b*に対応するL*チャンネル画像、a*チャンネル画像、b*チャンネル画像を生成する。
次にエッジ抽出部113が、L*チャンネル画像、a*チャンネル画像、b*チャンネル画像のそれぞれから対象物のエッジを検出する処理を行う。エッジ抽出部113は、複素モーメントフィルタ(CMF)によって、エッジ検出を行う。本実施形態で使用する複素モーメントフィルタについては、非特許文献3の他、特願2017−005786に開示がある。エッジ抽出部113は、検出したエッジを抽出した画像を生成する。次に合成部114は、L*チャンネル画像からエッジを抽出したエッジ抽出画像、a*チャンネル画像からエッジを抽出したエッジ抽出画像、b*チャンネル画像からエッジを抽出したエッジ抽出画像を、2:1:1の比で合成したPb画像を生成する。具体的には、合成部114は、各画像に対して、0.5、0.25、0.25の重み付けを付して画像の合成を行う。
なお、合成部114は、以下の式によりPb画像を[0,1]の範囲で正規化する。
Pb(x,y) =
{Pb(x,y)− min(x,y)}/{max(Pb)− min(Pb)}
図3は、本発明の一実施形態によるエッジ検出処理を説明する第2の図である。図4は、本発明の一実施形態によるエッジ検出処理を説明する第3の図である。
図2を用いて説明したように、エッジ抽出部113は、CIE−Lab色空間変換後の各チャンネル画像に対してエッジ抽出を行う。本実施形態では、さらにスケール変換部111が、各チャンネル画像に対してスケール変換を行い、エッジ抽出部113が、各スケールの画像に対して複素モーメントフィルタ(CMF)によるエッジ抽出を行う。
図3にb*チャンネル画像を例にスケール変換部111による処理を示す。スケール変換部111は、b*画像を1/2倍に縮小した縮小画像、等倍画像(1倍)、2倍に拡大した拡大画像の各画像を生成する。エッジ抽出部113は、縮小画像、等倍画像、拡大画像の3つの画像それぞれに対してエッジ抽出を行う。スケール変換部111は、縮小画像についてエッジ抽出を行った後の画像を2倍に拡大する。スケール変換部111は、拡大画像についてエッジ抽出を行った後の画像を1/2倍に縮小する。次に合成部114は、エッジ抽出を行って、画像のサイズを元のサイズに揃えた3つの画像を平均して(1:1:1の比で)合成したPb画像を生成する。
図4の右図に示すように、エッジの抽出精度は、その後生成されるUCM画像で抽出される候補領域の形状や数に影響を及ぼす。マルチスケール化した画像に基づいてエッジ抽出を行った方が、後の候補領域抽出処理(WT−UCM)によって、より正確に対象となる粒状の候補領域を検出することができる。
しかし、エッジ抽出処理は、この処理方法に限定されない。例えば、色空間の変換を行わず、RGB色空間の画像の各チャンネル画像に対してマルチスケール化を行った各画像に対して複素モーメントフィルタによるエッジ抽出処理を行っても良い。あるいは、マルチスケール化を行わずに各チャンネル画像(色空間の変換を行う、行わないに関わらず)に対するエッジ抽出処理のみを行っても良い。または、エッジ抽出に強い関連性を持つあるチャンネル画像だけを対象として、マルチスケール化を行って(あるいは行わずに)エッジ抽出処理を行っても良い。または、グレースケール化した画像に対して、マルチスケール処理を行って(あるいは行わずに)複素モーメントフィルタによるエッジ抽出処理を行っても良い。
図5は、本発明の一実施形態による候補領域の抽出処理を説明する第1の図である。
図5の上方にウォーターシェッド(Watershed)法の概要を説明した図を示す。一般的に候補領域の検出にはウォーターシェッド法が用いられることが多い。エッジ抽出部113が生成したPb画像に対してウォーターシェッド法を適用するならば、まずしきい値(パラメータ1)を与えてPb画像をエッジ抽出画像に変換する処理(しきい値処理1)を行う。そして、エッジ抽出画像に対して距離変換をおこなって距離画像を生成し、さらに距離画像に2つ目のしきい値(パラメータ2)を設定してシード画像を生成する(しきい値処理2)。そして入力画像をグレースケール化したグレースケール画像とPb画像とに適切な重み付け(パラメータ3)を与えて合成して生成した強調画像にシード画像を入力してエッジ欠けを補正した二値画像(候補領域抽出画像)を生成する。このようにウォーターシェッド法を用いる場合、入力画像ごとに3つのパラメータを適切に設定しなければならない。これに対し、本実施形態では、非特許文献4に記載のWT−UCM(Watershed Transform Ultrametric Contour Map)によりUCM(Ultrametric Contour Map)画像を生成する。UCM画像とは、画像中の弱い輪郭に基づいて検出される領域、強い境界に基づいて検出される領域など、輪郭の強度に応じて分割される領域を階層的に示した情報を含む画像である。WT−UCMは、Pb画像に含まれるエッジ欠けを補い、粒状の対象物の可能性がある閉領域を候補領域として抽出するために行う。
図6に様々な強度レベルの輪郭を選択したときに得られる領域の例を示す。
図6の左図は入力画像、左から2番目の図はWT−UCMによって得られるUCM画像である。残りの3つの図は、UCM画像に対して、左から順にしきい値「0.8」、「0.5」、「0.2」を与えたときに得られる領域を示している。実験の結果、しきい値「0.8」を与えた場合(強い輪郭で分割した場合)には、検出対象の領域の一部が背景と認識(アンダーセグメンテーション)され、しきい値「0.2」を与えた場合(弱い輪郭で分割した場合)には過分割(オーバーセグメンテーション)となることが分かった。そこで、この例の場合、候補領域抽出部115は、UCM画像に含まれる輪郭線の強度の平均した値に相当するしきい値「0.5」をUCM画像に適用し、候補領域を抽出する。
このようにWT−UCMで生成したUCM画像を二値化する際のしきい値が大きいと未分割領域が多くなり、小さいと過分割領域が多くなる。本実施形態では後の処理で候補領域を分類するので、多少過分割気味でも検出できていない領域が少ない方が良く、しきい値は、0〜0.5あたりが適切であることが分かっている。適切なしきい値は対象とする画像の種類に応じて異なるが、同じ種類の画像に対しては一度設定すれば(図6の例では0.5)変更の必要はない。
図7に、候補領域抽出部115が各領域に分割した画像から、面積の大きい画像を、背景として除去し、候補領域抽出画像を生成する処理を示す。UCM画像に対してしきい値を設定することで得られた二値画像には、背景領域も含まれるため、面積がしきい値以上の領域を取り除く必要がある。背景か否かを判定する適切なしきい値は検出対象の大きさに依存する。なお、この処理は、例えばエッジ欠けを補正する処理にウォーターシェッド法を用いた場合にも必要となる処理である。
候補領域抽出部115は、二値画像にたいして、ラスタスキャンを行い、分割された領域の大きさ(ピクセル数)に応じて分類してラべリングを行い、ラベル画像を生成する。次に候補領域抽出部115は、各領域に含まれるピクセル数を面積としてカウントし、面積が所定のしきい値以上の領域を除去することにより候補領域抽出画像を生成する。候補領域抽出画像に含まれる各領域が、検出対象となる粒状の対象物の候補となる領域である。
図8は、本発明の一実施形態によるパッチ画像の切り出し処理を説明する図である。
候補領域抽出画像が生成されると、パッチ画像切出部116が、学習用画像(最初に入力した各処理前の学習用画像)から候補領域を含んだパッチ画像を切り出す。具体的には、パッチ画像切出部116は、候補領域抽出画像に含まれる各候補領域の重心の座標情報を計算する。パッチ画像切出部116は、計算した重心の座標を中心とする候補領域を含む矩形領域の画像を、学習用画像から切り出す(パッチ画像)。このとき、パッチ画像切出部116は、入力画像に対してSymmetricパディングを行って、入力画像の周縁部の端領域を拡張する。つまり、図8の右上図に示すように、入力画像の範囲を示す破線で囲った矩形領域の各辺の内側に設定した所定の大きさの端領域について、当該端領域に沿った辺を軸として鏡像を生成し、各辺の外側を生成した鏡像によって拡張した画像から、一定サイズ(例えば21×21ピクセル)のパッチ画像を切り出す。パッチ画像切出部116は、各候補領域についてパッチ画像を生成する。これらのパッチ画像は、CNN(Convolutional Neural Network)による評価モデルを学習する際に教師データとして用いられる。
図9は、本発明の一実施形態によるCNNモデルのネットワーク構成の一例を示す図である。
本実施形態の評価モデルの構築には、CNNを用いることができる。CNNとは、ニューラルネットワークの一種で画像処理の分野で広く用いられている。CNNのモデルは、畳み込み層(Convolutional Layer)、プーリング層(Pooling Layer)、局所応答正規化層(LRN層)を備えており、一般的なニューラルネットワークよりも複雑で膨大な教師データに対応することができる。また、ニューラルネットワークを用いると、SVM(support vector machine)等の機械学習と比較して分類器の構築だけではなく、同時に特徴量を抽出するフィルタの構築も行うことができる。本実施形態では、CNNを用いて検出対象と検出対象以外を分類する評価モデル(CNNモデル)を構築する。図9に本実施形態における評価モデルの構造の一例を示す。CNNモデルのネットワーク構造は、(1)入力画像は例えば、20×20ピクセルのパッチ画像をRGBの3チャンネルに分けて得られる画像、32個の5×5の2次元フィルタから成る1つ目の畳み込み層(2)、1つ目のプーリング層及びLRN層(3)、64個の5×5の2次元フィルタから成る2つ目の畳み込み層(4)、2つ目のプーリング層及びLRN層(5)、1600次元の特徴量空間を1024次元に分類する全結合層(6)、1024次元の特徴量空間を2次元(true、false)に分類する全結合層(7)、から構成される。適切なCNNモデルのネットワーク構造は教師データの数や、画像の解像度などに応じて異なる。ただし、同程度の解像度や教師画像の数の場合、CNNモデルのネットワーク構造を調整することなく評価モデルを構築することができる。
評価部118は、評価用画像から生成されたパッチ画像を評価モデルに入力し、各パッチ画像に検出対象の粒状の対象物が含まれているかどうかを示す予測ラベルを得る。例えば、予測ラベル「1」が出力された場合、パッチ画像(評価用)の当該画素には粒状の対象物が含まれている可能性が高いことを示す。予測ラベル「0」が出力された場合、パッチ画像(評価用)の当該画素には粒状の対象物が含まれていない可能性が高いことを示す。評価部118は、評価用画像の全領域から切り出されたパッチ画像の全てについて、粒状の対象物が含まれているかどうかの評価を行う。
図10は、本発明の一実施形態による対象物の検出処理結果を示す図である。
図10の左図は、評価対象となる組織切片画像である。右図は、評価結果を示す表示を追加した組織切片画像である。検出対象の粒状の対象物は、炎症を起こした細胞である。評価結果表示部119は、評価部118によって炎症を起こした細胞である可能性が高いと評価された領域を囲む表示を行うなどして、検出対象である粒状の対象物の検出結果を表示する。
図11は、本発明の一実施形態による画像処理装置による対象物検出処理の一例を示すフローチャートである。
まず、ユーザが、学習用画像を画像処理装置10に入力し、評価モデルの構築を指示する。入力部12は、学習用画像を取得し(ステップS1)、記憶部14に記録する。また、制御部11は、評価モデルの構築処理を開始する。まず、色変換部112は、記憶部14から学習用画像を読み出して、学習用画像の色空間をRGB色空間からCIE−Lab色空間へと変換する(ステップS2)。具体的には、色変換部112は、L*チャンネル画像、a*チャンネル画像、b*チャンネル画像を生成する。次にスケール変換部111が、各チャンネル画像をマルチスケール化する(ステップS3)。具体的には、スケール変換部111は、L*チャンネル画像を1/2倍、1倍、2倍にリサイズした3個の画像を生成する。スケール変換部111は、a*チャンネル画像、b*チャンネル画像についても同様に3個ずつサイズの異なる画像を生成する。
次にモデル構築部117が、CNNにより学習済みモデル(評価モデル)を構築する(ステップS10)。モデル構築部117は、構築した評価モデルを記憶部14に記録する。以上で、評価モデルの構築処理が完了する。
また、WT−UCMを用いて検出対象の候補領域を抽出するので、ウォーターシェッド法を用いる場合に比べ、画像毎のパラメータ調整の負担を低減することができる。
また、評価モデルの構築にはCNNを用いるので、検出対象が画像に含まれるかどうかを分類する分類器に加え、検出対象を分類するための特徴量を抽出するフィルタを学習して構築することができる。これにより、精度の高い評価モデルを構築することができる。
これら適切な各処理方法を組み合わせることにより、効率的かつ精度良く対象物の検出処理を行うことができる。
コンピュータ900は、CPU901、主記憶装置902、補助記憶装置903、入出力インタフェース904、通信インタフェース905を備える。
上述の画像処理装置10は、コンピュータ900に実装される。そして、上述した各処理部の動作は、プログラムの形式で補助記憶装置903に記憶されている。CPU901は、プログラムを補助記憶装置903から読み出して主記憶装置902に展開し、当該プログラムに従って上記処理を実行する。また、CPU901は、プログラムに従って、記憶部14に対応する記憶領域を主記憶装置902に確保する。また、CPU901は、プログラムに従って、処理中のデータを記憶する記憶領域を補助記憶装置903に確保する。
また、上記プログラムは、前述した機能の一部を実現するためのものであっても良く、さらに前述した機能をコンピュータシステムにすでに記録されているプログラムとの組み合わせで実現できるものであってもよい。なお、画像処理装置10は、複数のコンピュータ900によって構成されていても良い。
Claims (10)
- 検出対象が含まれる学習用の画像から、複素モーメントフィルタにより前記検出対象のエッジを抽出するエッジ抽出部と、
前記抽出したエッジを含む画像に対してWT−UCMによって、検出対象の候補となる領域を抽出する候補領域抽出部と、
前記候補となる領域を含んだ画像を複数取得し、前記候補となる領域の特徴を学習した評価モデルをニューラルネットワークにより構築するモデル構築部と、
前記評価モデルに基づいて、評価対象の画像に含まれる検出対象を特定する特定部と、
を備える画像処理システム。 - 前記学習用の画像のサイズを変更するスケール変換部、
をさらに備え、
前記エッジ抽出部は、サイズ変更後の複数のサイズの前記学習用の画像について、エッジの抽出を行う、
請求項1に記載の画像処理システム。 - 前記学習用の画像が有する色情報について、複数のチャンネル画像を生成する色変換部、
をさらに備え、
前記エッジ抽出部は、複数のチャンネル画像それぞれについて、エッジの抽出を行う、
請求項1または請求項2に記載の画像処理システム。 - 前記色変換部は、前記学習用の画像の色空間を変換し、
前記エッジ抽出部は、色空間を変換した後の前記学習用の画像についてエッジの抽出を行う、
請求項3に記載の画像処理システム。 - 前記色変換部は、前記学習用の画像からCIE−Lab色空間におけるL*チャンネル画像と、a*チャンネル画像と、b*チャンネル画像とを生成し、
前記エッジ抽出部は、前記L*チャンネル画像と、前記a*チャンネル画像と、前記b*チャンネル画像のそれぞれについてエッジの抽出を行う、
請求項3または請求項4に記載の画像処理システム。 - 前記候補領域抽出部は、エッジ抽出後の前記L*チャンネル画像と、前記a*チャンネル画像と、前記b*チャンネル画像とを、2:1:1の比で合成した画像から、前記検出対象の候補となる領域を抽出する、
請求項5に記載の画像処理システム。 - 前記学習用の画像のうち前記候補となる領域を対象に切り出した画像を生成するパッチ画像切出部、
をさらに備え、
前記モデル構築部は、前記切り出された画像を学習して、前記候補となる領域を含む画像と、前記候補となる領域を含まない画像とを分類する評価モデルを構築する
請求項1から請求項6の何れか1項に記載の画像処理システム。 - 検出対象が含まれる学習用の画像から、複素モーメントフィルタにより前記検出対象のエッジを抽出するステップと、
前記抽出したエッジを含む画像に対してWT−UCMによって、検出対象の候補となる領域を抽出するステップと、
前記候補となる領域を含んだ画像を複数取得し、前記候補となる領域の特徴を学習した評価モデルをニューラルネットワークにより構築するステップと、
を有する評価モデル構築方法。 - 検出対象が含まれる学習用の画像から、複素モーメントフィルタにより前記検出対象のエッジを抽出するステップと、
前記抽出したエッジを含む画像に対してWT−UCMによって、検出対象の候補となる領域を抽出するステップと、
前記候補となる領域を含んだ画像を複数取得し、前記候補となる領域の特徴を学習した評価モデルをニューラルネットワークにより構築するステップと、
前記評価モデルに基づいて、評価対象の画像に含まれる検出対象を特定するステップと、
を有する画像処理方法。 - コンピュータを、
検出対象が含まれる学習用の画像から、複素モーメントフィルタにより前記検出対象のエッジを抽出する手段、
前記抽出したエッジを含む画像に対してWT−UCMによって、検出対象の候補となる領域を抽出する手段、
前記候補となる領域を含んだ画像を複数取得し、前記候補となる領域の特徴を学習した評価モデルをニューラルネットワークにより構築する手段、
前記評価モデルに基づいて、評価対象の画像に含まれる検出対象を特定する手段、
として機能させるためのプログラム。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017113759A JP6887154B2 (ja) | 2017-06-08 | 2017-06-08 | 画像処理システム、評価モデル構築方法、画像処理方法及びプログラム |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017113759A JP6887154B2 (ja) | 2017-06-08 | 2017-06-08 | 画像処理システム、評価モデル構築方法、画像処理方法及びプログラム |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2018206260A true JP2018206260A (ja) | 2018-12-27 |
JP6887154B2 JP6887154B2 (ja) | 2021-06-16 |
Family
ID=64957950
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2017113759A Active JP6887154B2 (ja) | 2017-06-08 | 2017-06-08 | 画像処理システム、評価モデル構築方法、画像処理方法及びプログラム |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6887154B2 (ja) |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111161295A (zh) * | 2019-12-30 | 2020-05-15 | 神思电子技术股份有限公司 | 一种菜品图像背景剥离方法 |
JP2021076575A (ja) * | 2019-11-05 | 2021-05-20 | トモキューブ, インコーポレーテッド | 3次元屈折率映像とディープラーニングを活用したラベルフリー方式の3次元分子像生成方法および装置 |
JP2022510329A (ja) * | 2019-05-29 | 2022-01-26 | ベイジン センスタイム テクノロジー デベロップメント カンパニー, リミテッド | 駐車スペース検出方法、装置及び電子機器 |
JP7508416B2 (ja) | 2021-07-05 | 2024-07-01 | 株式会社神戸製鋼所 | 領域境界線検出装置、該方法および該プログラムならびに領域分割処理装置 |
-
2017
- 2017-06-08 JP JP2017113759A patent/JP6887154B2/ja active Active
Cited By (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2022510329A (ja) * | 2019-05-29 | 2022-01-26 | ベイジン センスタイム テクノロジー デベロップメント カンパニー, リミテッド | 駐車スペース検出方法、装置及び電子機器 |
JP2021076575A (ja) * | 2019-11-05 | 2021-05-20 | トモキューブ, インコーポレーテッド | 3次元屈折率映像とディープラーニングを活用したラベルフリー方式の3次元分子像生成方法および装置 |
JP7122769B2 (ja) | 2019-11-05 | 2022-08-22 | トモキューブ, インコーポレーテッド | 3次元屈折率映像とディープラーニングを活用したラベルフリー方式の3次元分子像生成方法および装置 |
US11450062B2 (en) | 2019-11-05 | 2022-09-20 | Tomocube, Inc. | Method and apparatus for generating 3-D molecular image based on label-free method using 3-D refractive index image and deep learning |
CN111161295A (zh) * | 2019-12-30 | 2020-05-15 | 神思电子技术股份有限公司 | 一种菜品图像背景剥离方法 |
CN111161295B (zh) * | 2019-12-30 | 2023-11-21 | 神思电子技术股份有限公司 | 一种菜品图像背景剥离方法 |
JP7508416B2 (ja) | 2021-07-05 | 2024-07-01 | 株式会社神戸製鋼所 | 領域境界線検出装置、該方法および該プログラムならびに領域分割処理装置 |
Also Published As
Publication number | Publication date |
---|---|
JP6887154B2 (ja) | 2021-06-16 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Tong et al. | Saliency detection with multi-scale superpixels | |
CN111445478B (zh) | 一种用于cta图像的颅内动脉瘤区域自动检测系统和检测方法 | |
US8594434B2 (en) | Device, method, and computer-readable storage medium for segmentation of an image | |
JP2018022484A (ja) | 画像内の物体を検出する方法及び物体検出システム | |
JP4877374B2 (ja) | 画像処理装置及びプログラム | |
JP6887154B2 (ja) | 画像処理システム、評価モデル構築方法、画像処理方法及びプログラム | |
JP6937508B2 (ja) | 画像処理システム、評価モデル構築方法、画像処理方法及びプログラム | |
JP5900208B2 (ja) | 画像処理装置及び画像処理方法 | |
CN105513070A (zh) | 一种基于前景背景优化的rgb-d显著物体检测方法 | |
US11615515B2 (en) | Superpixel merging | |
JP4772819B2 (ja) | 画像検索装置および画像検索方法 | |
EP3872761A2 (en) | Analysing objects in a set of frames | |
CN116645592B (zh) | 一种基于图像处理的裂缝检测方法和存储介质 | |
CN112132164B (zh) | 目标检测方法、系统、计算机装置及存储介质 | |
JP5747733B2 (ja) | 対象検出装置、対象検出方法、分類器作成装置及び分類器作成方法 | |
JP2020087165A (ja) | 学習データ生成プログラム、学習データ生成装置、及び学習データ生成方法 | |
CN110991408B (zh) | 基于深度学习方法分割脑白质高信号的方法和装置 | |
US9607398B2 (en) | Image processing apparatus and method of controlling the same | |
CN108447066B (zh) | 胆道图像分割方法、终端、存储介质 | |
US11288534B2 (en) | Apparatus and method for image processing for machine learning | |
CN114549833A (zh) | 一种实例分割方法、装置、电子设备及存储介质 | |
KR102492121B1 (ko) | 데이터 증강 기술을 이용한 이미지 분류 방법 및 상기 방법을 수행하는 컴퓨팅 장치 | |
US20230162489A1 (en) | Method of extracting unsuiitable and defective data from plurality of pieces of training data used for learning of machine learning model, information processing device, and non-transitory computer-readable storage medium storing computer program | |
US20230281970A1 (en) | Systems and methods for domain adaptive object instance segmentation | |
JP2022129792A (ja) | 領域変換装置、領域変換方法及び領域変換システム |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20200407 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20210427 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20210511 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6887154 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |