JP2014203157A - 画像処理装置、画像処理方法及びプログラム - Google Patents
画像処理装置、画像処理方法及びプログラム Download PDFInfo
- Publication number
- JP2014203157A JP2014203157A JP2013076837A JP2013076837A JP2014203157A JP 2014203157 A JP2014203157 A JP 2014203157A JP 2013076837 A JP2013076837 A JP 2013076837A JP 2013076837 A JP2013076837 A JP 2013076837A JP 2014203157 A JP2014203157 A JP 2014203157A
- Authority
- JP
- Japan
- Prior art keywords
- mask
- weight
- image
- foreground
- teacher
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Image Analysis (AREA)
Abstract
【課題】事例群の要素数によらず精度よくセグメンテーションを高速化できるようにする。【解決手段】まず、マスク事例演算部207は、教師画像及び正マスク例201からマスク事例群212を求め、マスク事例集約部208は、マスク事例群212を集約し教師画像毎のマスクモデル202を求める。次いで、入力画像適応部209は、教師画像ごとのマスクモデル202を入力画像203に適応させ、前景重み及び背景重み213を求め、マスク演算部210は、入力画像203を前景重み及び背景重み213に従ってセグメンテーションし、入力画像203のマスク204を求める。【選択図】図2
Description
本発明は、特に、物体を含む画像からその物体の領域を切り出すために用いて好適な画像処理装置、画像処理方法及びプログラムに関する。
ある物体を含む画像からその物体の領域をピクセル単位で切り出す技術は一般にセグメンテーションまたは前景背景分離と呼ばれており、このセグメンテーションにはグラフカット法が広く用いられている。グラフカット法とは、ノードが画像の各ピクセルに対応する重み付きグラフを作成し、最大フロー最小カット定理に基づきそのグラフのカットを求め、そのカットを前景と背景との境界とする手法である。
特許文献1には、セグメンテーションを高速化するために、上記グラフを作成した後に、機械学習によりリンクの要不要を識別し、不要である場合には削除する手法が開示されている。また、特許文献2には、セグメンテーションを高速化するために、上記グラフをスパニングツリー構造になるまでリンクを削除する手法が開示されている。さらに特許文献3には、セグメンテーションを高速化するために、画像上で隣接かつ類似するピクセル群をスーパーピクセルとして集約し、グラフのノード数及びリンク数を削減する手法が開示されている。
一方、非特許文献1には、ユーザーが任意の矩形を物体の周囲に描くことにより、その矩形上の各ピクセルを背景と想定して色クラスタ頻度ヒストグラムを作成し、この色クラスタ頻度ヒストグラムを背景モデルとする手法が開示されている。非特許文献2には、セグメンテーションを構造化SVMの問題と捉え、複数の教師画像及びその正マスク例が用意されている場合に、教師画像あたり複数の負マスク例を生成してその重みを学習し、セグメンテーションの精度を向上させる手法が開示されている。
GrabCut−Interactive Foreground Extraction using Iterated Graph Cuts, Carsten Rother, Vladimir Kolmogorov, and Andrew Blake, SIGGRAPH 2004
Kernelized Structural SVM Learning for Supervised Object Segmentation, Luca Bertelli, Tianli Yu, Diem Vu, Salih Gokturk , CVPR2011
Jack Edmonds and Richard M. Karp. "Theoretical improvements in algorithmic efficiency for network flow problems". Journal of the ACM 19 (2): 248−264.
セグメンテーションを行う場合には、一般に処理が高速であることが望ましい。ところが、ある入力画像のマスクを求める際に、何らかの事例群に基づいてセグメンテーションを行う手法では、その事例群の要素数が多い程セグメンテーションが正確になるが、その演算量は必然的にその事例群の要素数に比例してしまう。例えば非特許文献2に記載の手法では、事例の数は負マスク例の数と等しく、その演算コストは負マスク例数に比例してしまう。
本発明は前述の問題点に鑑み、事例群の要素数によらず精度よくセグメンテーションを高速化できるようにすることを目的としている。
本発明に係る画像処理装置は、物体を映した複数の教師画像と、前記教師画像の前景となるピクセルを真とし背景となるピクセルを偽とした二値の正マスク例とに基づいて、入力画像の物体のマスクを求める画像処理装置であって、前記複数の教師画像のそれぞれについて、前記教師画像から前記正マスク例と異なる負マスク例及びその重みを求めるマスク事例演算手段と、前記正マスク例、前記負マスク例、及び前記負マスク例の重みを前記教師画像ごとに集約し、教師画像ごとのマスクモデルを求めるマスク事例集約手段と、前記マスク事例集約手段によって求められた教師画像ごとのマスクモデルに基づいて前記入力画像の前景重み及び背景重みを求める入力画像適応手段と、前記入力画像適応手段によって求められた前景重み及び背景重みに基づいて前記入力画像のマスクを求めるマスク演算手段と、を備えることを特徴とする。
本発明によれば、事例群の要素数によらず精度よくセグメンテーションを高速化することができる。
以下、本発明の実施形態について図面を参照しながら説明する。
図1は、本実施形態に係る画像処理装置100のハードウェア構成例を示すブロック図である。
図1において、撮像素子101はCCD、CMOS等で構成され、被写体像を光から電気信号に変換するための撮像手段である。信号処理回路102は撮像素子101から得られた被写体像に関する時系列信号を処理し、デジタル信号に変換する回路である。
図1は、本実施形態に係る画像処理装置100のハードウェア構成例を示すブロック図である。
図1において、撮像素子101はCCD、CMOS等で構成され、被写体像を光から電気信号に変換するための撮像手段である。信号処理回路102は撮像素子101から得られた被写体像に関する時系列信号を処理し、デジタル信号に変換する回路である。
CPU103は、ROM104に格納されている制御プログラムを実行することにより、画像処理装置100全体の制御を行う。ROM104は、CPU103が実行する制御プログラムや各種パラメータデータを格納する。制御プログラムは、CPU103によって実行されることにより、後述するフローチャートに示す各処理を実行するための各種手段として、当該装置を機能させる。RAM105は、画像や各種情報を記憶する。また、RAM105は、CPU103のワークエリアやデータの一時待避領域として機能する。また、ディスプレイ106は画像などを表示させるための表示手段である。
なお、本実施形態では、後述するフローチャートの各ステップに対応する処理を、CPU103を用いてソフトウェアで実現することとするが、その処理の一部または全部を電子回路などのハードウェアで実現するようにしても構わない。また、本実施形態に係る画像処理装置100は、撮像素子101や信号処理回路102を省いて汎用のパーソナルコンピュータ(PC)を用いて実現してもよいし、画像処理専用装置として実現するようにしても構わない。また、ネットワークまたは各種記憶媒体を介して取得したソフトウェア(プログラム)をPCタ等の処理装置(CPU,プロセッサ)にて実行してもよい。
図2は、本実施形態に係る画像処理装置100の機能構成例を示すブロック図である。
本実施形態に係る画像処理装置100は、辞書作成部205と、セグメンテーション部206とから構成されている。辞書作成部205は、複数の教師画像及びその正マスク例201の対が与えられた場合に、教師画像ごとのマスクモデル202、いわゆる辞書を作成する。セグメンテーション部206は、入力画像203を入力して、入力画像203に対応するマスク204を出力する。
本実施形態に係る画像処理装置100は、辞書作成部205と、セグメンテーション部206とから構成されている。辞書作成部205は、複数の教師画像及びその正マスク例201の対が与えられた場合に、教師画像ごとのマスクモデル202、いわゆる辞書を作成する。セグメンテーション部206は、入力画像203を入力して、入力画像203に対応するマスク204を出力する。
ここで、入力画像203及び教師画像は、同一の物体を撮影した画像であって、その縦横ピクセル数は全て同一になる様に調整されているものとする。また、マスクとは、対応する画像の各ピクセルについてその物体に属するピクセルか否かを二値で表現した画像である。入力画像及びマスクの例をそれぞれ図4(A)及び図4(B)に示す。図4(B)に示すマスクは、図4(A)の入力画像が示す動物の顔領域を前景としている。以降、マスクについて図面で表現する場合に白色を前景と表現し、黒色を背景と表現する。
辞書作成部205は、教師画像及び正マスク例201が変更されるごとに動作し、セグメンテーション部206は、入力画像203が入力されるごとに動作する。本実施形態では、入力画像203は、教師画像及び正マスク例201の変更より高頻度に入力されることを前提とする。また、辞書作成部205及びセグメンテーション部206は、必ずしも同一環境上で動作する必要はない。例えば、辞書作成部205は図1に示すハードウェア構成により動作するのではなく、通信ネットワークを介し別途設けられたPC・サーバ等の上で動作してもよい。
辞書作成部205は、マスク事例演算部207及びマスク事例集約部208から構成されており、セグメンテーション部206は、入力画像適応部209及びマスク演算部210から構成されている。
マスク事例演算部207は、教師画像及び正マスク例201から、マスク事例群212を求める。マスク事例群212は、教師画像及び正マスク例201のみならず、さらに教師画像のそれぞれについての負マスク例及びその重みを含むものである。負マスク例とは、ある教師画像から生成し得るマスク例であり、かつ正マスク例とは異なるマスクである。負マスク例の重みはその負マスクが正しくセグメンテーションする上でどれだけ重要かを示すものであり、絶対値が大きいほど重要であるものとする。負マスク例及びその重みは構造化SVM(サポートベクタマシン)を用いて生成する。教師画像あたりの負マスク例の数が多い程、セグメンテーションの精度は向上する。
マスク事例集約部208は、マスク事例群212に含まれる教師画像、正マスク例、負マスク例、及びその重みから、教師画像ごとに、正負のマスク形状の傾向や、色クラスタヒストグラム等を集約し、教師画像ごとのマスクモデル202を出力する。マスク事例集約部208で教師画像ごとにマスク事例を集約しておくことにより、セグメンテーション部206による演算量は、負マスク例数に比例せず、教師画像数に比例するようになり、演算量が減少する。
入力画像適応部209は、教師画像ごとのマスクモデル202について、教師画像ごとに入力画像203との類似度を求め、教師画像ごとのマスクモデル202の重み付き総和を求めて入力画像203に適応させ、前景重み・背景重み213を生成する。マスク演算部210は、入力画像203及び前景重み・背景重み213から重み付きグラフを生成し、その重み付きグラフを前景と背景とに分離し、マスク204を作成する。この処理は、通常の画像のグラフカット法によるセグメンテーションに相当する。
次に、辞書作成部205及びセグメンテーション部206の動作をそれぞれ図5(A)及び図5(B)を用いて説明する。但し、各ステップの詳細についてはそれぞれ後述する。
まず、図5(A)の処理について図6を参照しながら説明する。前述したように辞書作成部205は、教師画像及び正マスク例201を入力して、教師画像ごとのマスクモデル202を出力する。そこで、まず、ステップS501において、マスク事例演算部207は、教師画像及び正マスク例201からマスク事例群212を求める。例えば、辞書作成部205に、図6に示す教師画像601及び正マスク例602が与えられた場合に、教師画像601のそれぞれについて、負マスク例603、604、及び負マスク例重み605、606を求め、マスク事例群を求める。次に、ステップS502において、マスク事例集約部208は、マスク事例群212を集約し教師画像毎のマスクモデル202を求める。図6に示す例の場合、教師画像ごとのマスクモデル607を求める。
次に、図5(B)の処理について図6を参照しながら説明する。前述したようにセグメンテーション部206は、入力画像203、及び図5(A)に示したフローチャートの処理によって出力された教師画像ごとのマスクモデル202を入力する。そして、入力画像203に対応するマスク204を出力する。まず、ステップS511において、入力画像適応部209は、教師画像ごとのマスクモデル202を入力画像203に適応させ、前景重み及び背景重み213を求める。図6に示す例の場合、入力画像608及び教師画像ごとのマスクモデル607から、前景重み・背景重み609を求める。次に、ステップS512において、マスク演算部210は、入力画像203を前景重み及び背景重み213に従ってセグメンテーションし、マスク204を求める。図6に示す例の場合、入力画像608及び前景重み・背景重み609から重み付きグラフ610を作成し、重み付きグラフ610からマスク611を作成する。
ここで、図5の各ステップを通して行う演算について説明する。なお、図面では、数式中の下付き添え字を'_'記号を用いて表現している。
ステップS512で入力画像xからマスクyを求めるには、いわゆる画像のグラフカットによるセグメンテーションに従い、以下の式(1)に示す値Eを最大化するマスクyを求める。
ここで、式(1)の値Eは重み付きグラフのフローであって、値Eの最大化はグラフのノード重みを示すF(x,y)及びリンク重みを示すB(x,y)で定義される重み付きグラフの最大フロー最小カット問題と等しいものとする。また、pは画像x上のあるピクセル及びグラフ上の対応するノードを示し、qはpに隣接するピクセル及びノードを示す。下添え字に示すpは画像xやマスクyの点pにおけるピクセル値ないしマスク値を示す。また、オーバーライン付きのマスクyはマスクyの各ピクセルを否定したものを示す。さらにKFG及びKBGはそれぞれ入力画像xの前景重み、背景重みである。
式(1)に示したF(x,y)は、あるノードpとソースノード、あるノードpとシンクノードの間のリンクの重みを定義する。前景重みKFG及び背景重みKBGは、後述する教師画像xtrue及び正マスク例ytrueと、入力画像xとが与えられた時に、入力画像x上の各ピクセルについて、それぞれ前景もしくは背景と判定される場合の重みを、画像状に並べたものと解釈できる。
式(1)に示すLinkWeight(p,q)は、あるノードpと、隣接するノードqとの間のリンクの重みを定義する。リンク重みは一般に画像にグラフカットアルゴリズムを適用する際のスムージング項であって、輪郭の凹凸を抑制したり飛び地の発生を抑えたりする。定数γはスムージングの強さを経験的に定義する。値dpqはpq間のユークリッド距離であり、(xp−xq)を入力画像x上のピクセルp及びピクセルqの色のRGB空間上に変換したユークリッド距離である。σcolorはRGB空間上での色のユークリッド距離の分散であり、経験的もしくは統計的に定義する。
次に、重み付きグラフの生成及び最大フロー最小カットによるセグメンテーションについて図3を参照しながら簡単に説明する。入力画像を図3(A)に示すものとし、前景重みKFG及び背景重みKBGをそれぞれ図3(B)及び図3(C)に示すものとし、さらに生成する重み付きグラフを図3(D)に示すものとする。また、図3(A)に示す入力画像おいて、同一の模様は同色を示すものとする。さらに、図3(B)及び図3(C)において、濃色が高い値を示し、淡色が低い値を示すものとする。
入力画像上のピクセル301は重み付きグラフ上のノード311に相当し、ピクセル301とピクセル302との間の隣接関係はノード311とノード312との間のリンクに相当する。ノード311とノード312とを結ぶノード間のリンクの重みは、ピクセル301、302のRGB値により式(1)に示すLinkWeight()に従って求められる。
次に、ソースノード313を追加し、ソースノード313とノード311とにリンクを張る。このリンクの重みとして前景重みKFGのピクセル303の値を用いる。同様に、シンクノード314とノード312とのリンクの重みとして背景重みKBGのピクセル304の値を用いる。
次に、ソースノード313からシンクノード314への最大フロー最小カットを行う。この重み付きグラフは、ノード数に比してリンク数が少なく、かつ、F(x,y)の値及びB(x,y)の値を明示的に求める必要はないので、この最小カットを求めるには、非特許文献3に記載のエドモンズ・カープのアルゴリズムが適している。
最大フロー最小カットにより、重み付きグラフ上の各ピクセルは、ソースノード側とシンクノード側とに分割される。図3(D)には、ソースノードに分類されたノードを白抜きの丸印で示し、シンクノードに分類されたノードを黒の丸印で示している。図3(D)の各ノードの分割結果を改めて画像状に並べた物をマスクyとし、図3(E)に示す。シンクノード側に分類されたノード311は背景としてピクセル321に対応し、ソースノード側に分類されたノード312はピクセル322に対応する。このように図3(E)に示すマスクyがセグメンテーションの結果である。
非特許文献2に記載の方法では、式(1)に示すF(x,y)は、以下の式(2)に示す構造化SVMによる識別を行っていた。この演算はセグメンテーション部内で行われ、その演算量は負マスク例yfalseの数に比例していた。
但し、式(2)において、K′は構造化SVMのカーネル、Λは入力画像xと教師画像xtrueとの類似度、βはサブカーネルΩの重み、Ωはサブカーネルの演算を示す。サブカーネルについては後述する。
本実施形態では、式(1)に示すように、式(2)のF′(x,y)のカーネルを前景と背景とで場合分けしてそれぞれ前景重みKFG及び背景重みKBGとして置き換えた。さらに以下の式(3)に示すように、前景重みKFG及び背景重みKBGの演算に関数Iと関数Jとを導入している。関数Jは、入力画像xに依存しない範囲で、正マスク例ytrue、負マスク例yfalse及びその重みαyfalseを教師画像xtrueごとに集約する。関数Iは関数Jの結果を入力画像xに適応させたものである。また、関数Jは入力画像xに依存しないのでセグメンテーション部206内ではなく事前に辞書作成部205内で演算することができる。よって、セグメンテーション部206によるステップS511及びステップS512の演算は、関数I及び関数Kの演算のみとなる。その演算量は、負マスク例yfalseの数に対して独立であって、教師画像数xtrueの数に比例することから、演算量を減少させることができる。
式(3)において、ある負マスク例yfalseとは、ある教師画像xtrueから得られたマスクのうちの正マスク例ytrueと異なるマスクとする。また、前景重みKFG及び背景重みKBGは、複数のサブカーネル、即ち関数Iの重みβによる重み付き総和である。
関数Iは、サブカーネルであって、関数Jの、入力画像xと教師画像xtrueとの類似度Λを重みとした重み付け総和を求める関数である。また、入力画像xの個々のピクセルについて、前景重みもしくは背景重みを並べた画像状の配列でもある。サブカーネルとは、前景重み・背景重みの尺度であって、構造化SVMのカーネルとして適する、即ち半正定値性を満たす任意の関数である。I*はサブカーネルのそれぞれに応じて変化する項を示す。
Λ(xi,yj)は入力画像xと教師画像xtrueとの類似度、即ち重要度を示す。φxは画像間の類似度を導出可能な任意の特徴量である。本実施形態では特許文献4に示すHOG特徴を用いる。画像間の類似度は半正定値性を満たすべくRBFカーネル距離で定義され、0から1の値域を取る。σHOGはこのHOG特徴の分散であって、経験的に定められる定数である。
βは関数Iの個々のサブカーネルの重みである。本実施形態では、βは、説明の簡略化及び学習を高速化するために、経験的に定義するものとし、それぞれのサブカーネルを通したβの総和は1になるものとする。
関数Jは、教師画像xtrueごとに、正マスク例ytrue、負マスク例yfalse及びその重みαyfalseを前景・背景のそれぞれについて集約する。J*はサブカーネルのそれぞれに応じて変化する項を示す。
αtrueは、ある教師画像xtrueについての負マスク例重みαyfalseの総和である。負マスク例yfalse及び負マスク例重みαyfalseは、式(1)のF(x,y)を構造化SVMと見なし、その学習結果であるサポートベクタの重みとして得られる。画像における構造化SVMとは、入力画像xとマスクyとをそれぞれベクトルとみなし、その2つのベクトルの単純連結を事例のベクトルとして扱うSVMを意味する。この学習は、非特許文献2に記載の方法と同様、以下の式(4)の拘束付き最小二乗問題を逐次的に繰り返すことにより行われる。即ち、全ての教師画像について式(1)に基づきマスクを求め、そのマスクのdelta項が最大となるマスクを負マスク例yfalseとして選択・追加し、式(4)を最小化する負マスク例重みαyfalseを求める。但しdelta(ytrue,yfalse)は正マスク例ytrueと負マスク例yfalseとで異なるピクセル値を持つピクセルの数を示す。ξ及びCは経験的に設定するパラメータである。
以下、サブカーネルごとに、関数I及び関数Jについて説明する。前述したように、関数Iは関数Jの類似度による重み付き総和でなければならない。かつ、関数Jは、入力画像xに依存してはならず、関数I及び関数Jは、構造化SVMのカーネルとして適さなければならない。これらを満たす限り、関数I及び関数Jについては、任意の関数が適用可能である。本実施形態では、サブカーネルは、非特許文献2に記載の方法と同様に、マスク形状の類似度、画像内でのマスクによる色の分離性、及び教師画像群との色との一致度の3種とする。また、それぞれ形状重み、ローカル色重み、グローバル色重みと表現し、下添え字としてそれぞれShape、LColor、GColorで表記する。
マスク形状の類似度のサブカーネルの定義は、以下の式(5)に示すものとなる。
但し、x・yは画像x,yをそれぞれ行列として捉えた場合のxとyのドット積を示し、α・yはスカラ量αと行列として捉えたyとの積を示し、オーバーライン付きyはyの各ピクセルのマスク値を否定したものを示す。
前景形状モデルJFGShapeは、ある教師画像について、その個々のピクセルについて、そのピクセルが前景として識別されたときに、その識別がどれだけ正しいか、を並べた画像状の配列となる。同様に背景形状モデルJBGShapeは、あるピクセルの背景としての識別の確からしさを示す。
前景形状重みIFGShape及び背景形状重みIBGShapeは、教師画像毎の類似度を重みとする、前景形状モデルJFGShape及び背景形状モデルJBGShapeの重み付き総和をピクセルごとに並べた画像状の配列である。すなわち、入力画像の各ピクセルがどれだけ前景もしくは背景として正しく識別されやすいかを示す。
画像内でのあるマスクによる色の分離性によるサブカーネルの定義を以下の式(6)に示す。
ここで、xpは画像xのピクセルpを示し、ypはマスクyのピクセルpにおけるマスク値を示す。epは、画像においてピクセルpのみを1とし、他を0とした行列を意味する。h(xp)は画像xのピクセルpの色クラスタベクトルであって、即ち、該当する色クラスタに相当する次元のみを1とし残りを0としたベクトルを示す。色クラスタの導出手法は任意であり、例えばある色がそれぞれ0から255の値を取るRGBで表されたものとして、(R%16)*256+(G%16)*16+(B%16)として計算する。なお、%は除算した商の小数点以下の切り捨てを意味する。
前景ローカル色重みIFGLColor及び背景ローカル色重みIBGLColorは、単一画像内でのあるマスクによる色の分離性による重みである。それぞれ、入力画像xのピクセルについて、そのピクセルの色が、どれだけ前景に現れるか、あるいは背景に現れるか、を示す画像である、と解釈できる。
colorHist(x,y)は、画像xの重み付き色クラスタ頻度ヒストグラムを示す。色クラスタの導出はh(x)と等しく、また、その重みはマスクyによりピクセルごとに与えられる。ヒストグラムは色クラスタh(x)が返すクラスタ数と同じBIN数を持ち、そのBINの値は、全てのピクセルについての値の総和で正規化されている。また、色クラスタ頻度ヒストグラム同士の類似度はヒストグラム同士のドット積で求められる。
次に、教師画像群との色との一致度によるサブカーネルの定義を以下の式(7)に示す。
但し、上付きTは配列の転置を示す。
前景グローバル色重みIFGGColor及び背景グローバル色重みIBGGColorは、入力画像のそれぞれのピクセルpについて、そのピクセルpの色が、前景もしくは背景の色クラスタ頻度ヒストグラムにどれだけ近いかを示す画像であると解釈できる。この色クラスタ頻度ヒストグラムは全ての教師画像と正マスク例の対から式(6)に示すcolorHist関数によって得られ、色クラスタh(x)が返すクラスタ数と同じBIN数を持つ。また、前景の色クラスタ頻度ヒストグラムをグローバル前景色モデルFGGlobal、背景の色クラスタ頻度ヒストグラムをグローバル背景色モデルBGGlobalとする。
グローバル色モデル重みJGColorは、前景グローバル色重みIFGGColor及び背景グローバル色重みIBGGColorに共通で教師画像毎に求められる数で、その教師画像の色モデルが教師画像全体から得た色モデルにどれだけ適合するかを示す。あるいはその教師画像でグローバル色モデルによるセグメンテーションがどれだけ有効かを示す。GloColorMatch(x,y)は、画像xのマスクyによる前景背景色モデルのグローバル色モデルとの類似度である。
次に、マスク事例演算部207による図5(A)のステップS501のマスク事例群を求める詳細な動作について図7を用いて説明する。この処理では教師画像及び正マスク例201を入力し、マスク事例群212を出力する。
まず、ステップS701において、教師画像及び正マスク例から式(7)に示したグローバル前景色モデルFGGlobal及びグローバル背景色モデルBGGlobalを求める。次に、ステップS702において、教師画像ごとに、HOG特徴を求める。このHOG特徴は式(3)に示した値φである。HOG特徴の導出法については、例えば特許文献4に開示されている方法を用いるものとする。
次に、ステップS703において、評価値が収束するまで、ステップS704〜ステップS707を繰り返す。この評価値は後述するステップS705で求め、収束条件は例えば前回のループによりステップS705で求めた重みαfalseの絶対値が一定値以下になることとする。このループは式(4)の負マスク例重みαyfalseの学習と等しい。
まず、ステップS704において、最も正マスク例と異なるピクセル数が多いセグメンテーション結果を、負マスク例として選択し、新たな負マスク例yfalseとして追加する。かつ、選択された負マスク例と対応した教師画像を追加する。ステップS704のループの初回、及びループ回数が教師画像の数以下の間は、正マスク例を単純に否定したものを負マスク例として選択する。それ以外であれば、最後のステップS707の実行で求めたセグメンテーション結果のうち、最も正マスク例と異なるピクセル数が多いセグメンテーション結果を選択する。
次に、ステップS705において、ステップS704で新たに追加した負マスク例yfalseについて、式(4)を満たす負マスク例重みαyfalseを求める。そして、ステップS706において、教師画像、正マスク例、負マスク例、及び負マスク例重みを教師画像ごとに集約する。なお、この処理はマスク事例集約部208が行ってもよく、処理の詳細については後述する。次に、ステップS707において、全ての教師画像をセグメンテーションし、マスクを求める。このセグメンテーションは、それぞれの教師画像を入力画像とした場合の入力画像適応部209、マスク演算部210の動作に等しく、詳細な説明は後述する。
ステップS703のループ条件が満たされた後、グローバル前景色モデルFGGlobal、グローバル背景色モデルBGGlobal、HOG特徴、負マスク例yfalse、負マスク例重みαyfalse、及び負マスク例と教師画像との対応が出力される。すなわち、これらのパラメータがマスク事例群として出力される。
次に、マスク事例集約部208による図5(A)のステップS502の教師画像ごとのマスク事例の集約処理の詳細について図8(A)を参照しながら説明する。この処理は、式(5)及び式(7)に示す前景形状モデルJFGShape、背景形状モデルJBGShape、グローバル色モデル重みJGcolorの演算に等しい。図8(A)の処理では、マスク事例群として教師画像xtrue、正マスク例ytrue、負マスク例yfalse、負マスク例重みαyfalse、グローバル前景色モデルFGGlobal、及びグローバル背景色モデルBGGlobalを入力する。そして、教師画像ごとの前景形状モデルJFGShape、教師画像ごとの背景形状モデルJBGShape、及び教師画像ごとのグローバル色モデル重みJGcolorを教師画像ごとのマスクモデルとして出力する。
まず、ステップS801において、全ての教師画像xtrueについて、ステップS802〜ステップS805のループを繰り返す。
そして、ステップS802において、教師画像xtrueに対応する全ての負マスク例重みαyfalseの総和を求め、正マスク例重みαtrueとする。この処理は式(3)のαtrueの演算に相当する。次に、ステップS803において、前景形状モデルJFGShape、背景形状モデルJBGShape、グローバル色モデル重みJGcolorを初期化する。初期値はそれぞれ正マスク例重みと正マスク例との積、正マスク例重みと正マスク例の各ピクセルを否定したものとの積、教師画像と正マスク例の対のGloColorMatch関数と正マスク例重みとの積である。なお、GloColorMatch関数については後述する。
最後に、ステップS804〜ステップS805において、教師画像xtrueに対応する全ての負マスク例yfalseについて、ステップS805の処理を繰り返す。ステップS805においては、前景形状モデルJFGShape、背景形状モデルJBGShape、及びグローバル色モデル重みJGcolorに負マスク例を畳み込む。前景形状モデルJFGShapeについては、前景形状モデルJFGShapeから、ステップS804で着目した負マスク例とその重みとの積を減算する。背景形状モデルJBGShapeについては、背景形状モデルJBGShapeから、その負マスク例の否定とその重みとの積を減算する。グローバル色モデル重みJGcolorについては、グローバル色モデル重みJGcolorから、教師画像と負マスク例との対のGloColorMatch関数と負マスク例重みとの積を減算する。ステップS801のループを終了すると、教師画像xtrueごとの前景形状モデルJFGShape、背景形状モデルJBGShape、グローバル色モデル重みJGcolorが教師画像ごとのマスクモデルとして出力される。
次に、ステップS803及びステップS805で用いるGloColorMatch関数について、図8(B)のフローチャートを用いて説明する。この処理では、画像x及びマスクyから得られる色モデルの、グローバル色モデルとの類似度を求める。また、この処理では画像x、マスクy、グローバル前景色モデルFGGlobal、及びグローバル背景色モデルBGGlobalを入力し、求めた類似度を出力する。
まず、ステップS811において、初期設定として類似度をゼロにクリアする。次に、ステップS812において、画像x上の各ピクセルpについて、ステップS813〜ステップS816の処理を繰り返す。
まず、ステップS813において、画像x上のピクセルpの色クラスタhを求める。色クラスタの導出法は式(6)に示すh(x)に記載した通りである。次に、ステップS814〜ステップS816では、マスクy上のピクセルpが前景か否かに応じて、グローバル色モデルの色クラスタに相当する要素を類似度に加算する。ステップS814の判定の結果、前景であれば、ステップS815においてグローバル前景色モデルFGGlobalをグローバル色モデルとして使用する。一方、背景であれば、ステップS816においてグローバル背景色モデルBGGlobalをグローバル色モデルとして使用する。その後に、ステップS812のループを繰り返す。ステップS812のループが終了すると、ステップS815及びステップS816で演算した類似度が出力される。
次に、入力画像適応部209による図5のステップS511の詳細な動作について図9を用いて説明する。この処理では、入力画像203及び教師画像ごとのマスクモデル202などを入力し、入力画像203の前景重み・背景重み213を出力する。教師画像ごとのマスクモデル202は、図8に示したフローチャートに従って算出されたものである。具体的には入力画像203の他に、図7の処理によって得られたグローバル前景色モデルFGGlobal、グローバル背景色モデルBGGlobal、及び教師画像ごとのHOG特徴を入力する。さらに、図8(A)の処理によって得られた教師画像ごとの前景形状モデルJFGShape、教師画像ごとの背景形状モデルJBGShape、及び教師画像ごとのグローバル色モデル重みJGcolorを入力する。
また、図9(A)のステップS901〜ステップS908までの動作は、式(5)〜式(7)に示す演算に等しい。即ち前景形状重みIFGShape、背景形状重みIBGShape、前景ローカル色重みIFGLColor、背景ローカル色重みIBGLColor、前景グローバル色重みIFGGColor、背景グローバル色重みIBGGColorを求める演算に等しい。また、ステップS909〜ステップS911の動作は、式(3)での前景重みKFG及び背景重みKBGを求める演算に等しい。
まず、ステップS901において、前景形状重みIFGShape、背景形状重みIBGShape、前景ローカル色重みIFGLColor、及び背景ローカル色重みIBGLColorの各要素を0で初期化する。さらに、前景グローバル色重みIFGGColor、背景グローバル色重みIBGGColor、前景重みKFG、及び背景重みKBGの各要素を0で初期化する。これらは全て入力画像xと同じピクセル数を持つ画像状の配列であって、入力画像xの各ピクセルについての何らかの重みを示している。詳細については、前景形状重みIFGShape及び背景形状重みIBGShapeは式(5)に示したものであり、前景ローカル色重みIFGLColor及び背景ローカル色重みIBGLColorは式(6)に示したものである。また、前景グローバル色重みIFGGColor及び背景グローバル色重みIBGGColorは式(7)に示したものであり、前景重みKFG及び背景重みKBGは式(1)のF(x,y)で説明したものである。
次に、ステップS902において、全ての教師画像xtrueについて、ステップS903〜ステップS908の処理をループする。但し、このフローチャート内においては、教師画像そのものは保有する必要はなく、例えばそれぞれの教師画像を代表するID等を用いて処理を繰り返せばよい。
まず、ステップS903において、入力画像xからHOG特徴を取得し、ステップS902で着目した教師画像xtrueのHOG特徴との類似度Λを求める。類似度の導出は、式(3)に示したΛ(xi,xj)に従うものとする。そして、ステップS904において、前景形状重みIFGShapeに、ステップS902で着目した教師画像xtrueに対応する前景形状モデルJFGShapeと類似度Λとの積を加算する。同様に、背景形状重みIBGShapeに、ステップS902で着目した教師画像xtrueに対応する背景形状モデルJBGShapeと類似度Λとの積を加算する。ステップS903〜ステップS908のループが終了すると、前景形状重みIFGShape及び背景形状重みIBGShapeは、類似度Λとの積が教師画像の数だけ加算され、類似度による重み付き総和となる。
次に、ステップS905において、入力画像x及び教師画像xtrueに対応する前景形状モデルJFGShapeまたは背景形状モデルJBGShapeから、それぞれ、入力画像前景色モデル及び入力画像背景色モデルを求める。この入力画像前景色モデル及び入力画像背景色モデルは、式(6)のcolorHist(x,y)に相当する。これらの色モデルは式(6)で説明した様に、色クラスタヒストグラムであって、即ち、色クラスタの数だけの次元を持つ配列である。colorHist関数の動作に関しては後述する。
次に、ステップS906において、入力画像x上の各ピクセルpについて、ステップS907〜ステップS908の処理を繰り返す。
まず、ステップS907において、入力画像xのピクセルpの色クラスタhを求める。色クラスタの求め方は式(6)のh(x)に従うものとする。次に、ステップS908において、前景ローカル色重みIFGLColor、背景ローカル色重みIBGLColor、前景グローバル色重みIFGGColor、及び背景グローバル色重みIBGGColorを更新する。前景ローカル色重みIFGLColorについては、そのピクセルpに相当する場所に、ステップS905で求めた入力画像前景色モデルの色クラスタhに相当する値と類似度Λとの積を加算する。背景ローカル色重みIBGLColorについても入力画像背景色モデルを用いる以外は同様である。前景グローバル色重みIFGGColorについては、ピクセルpに相当する場所に、類似度Λと、着目した教師画像に対応するグローバル色モデル重みJGcolorと、グローバル前景色モデルFGGlobalの色クラスタhに相当する値との積を加算する。背景グローバル色重みIBGGColorについても、グローバル前景色モデルFGGlobalの代わりにグローバル背景色モデルBGGlobalを用いる以外は同様である。
ステップS902及びステップS906のループが終了すると、前景ローカル色重みIFGLColor及び背景ローカル色重みIBGLColorは、類似度Λとの積が教師画像の数×ピクセル数だけ加算され、類似度による重み付き総和となる。また、前景グローバル色重みIFGGColor及び背景グローバル色重みIBGGColorについても、類似度Λとの積が教師画像の数×ピクセル数だけ加算され、類似度による重み付き総和となる。
次に、ステップS909〜ステップS911では、前景重みKFG及び背景重みKBGの全てのピクセルpについて、式(3)に従って、その値を求める。
まず、ステップS910において、式(3)に示す通り前景重みKFGの全てのピクセルについて前景形状重みIFGShapeと前景ローカル色重みIFGLColorと前景グローバル色重みIFGGColorとのピクセルの値の重み付き総和を代入する。背景重みKBGも同様に背景形状重みIBGShapeと背景ローカル色重みIBGLColorと背景グローバル色重みIBGGColorとの重み付き総和を代入する。また、それぞれの項の重みはβShape、βLColor、βGColorとし、経験的に設定するものとする。
さらに、ステップS911において、前景重みKFG及び背景重みKBGのそれぞれのピクセルについて、教師画像の個数で割り、正規化する。そして、このステップS909のループで得られた前景重みKFG及び背景重みKBGが出力される。
次に、ステップS905で用いたcolorHist(x,y)について、図9(B)を用いて説明する。この処理では、入力画像x及び重みマスクyを入力し、その入力画像および重みマスクから生成される色クラスタ頻度ヒストグラムを返す。
まず、ステップS921において、色クラスタ頻度ヒストグラムhistを0で初期化する。次に、ステップS922〜S924のループで、入力画像x上の各ピクセルpについて、入力画像xのピクセルpの色クラスタhを求め、色クラスタ頻度ヒストグラムhistのhに対応する要素に、重みマスクy上のpに対応するピクセルの値を加算する。ステップS922〜ステップS924のループが終了した後の色クラスタ頻度ヒストグラムhistが返り値となる。
次に、マスク演算部210による図5(B)のステップS512の動作について、図10を用いて説明する。この処理では、入力画像203、前景重み・背景重み213を入力し、入力画像203に対応するマスク204を求める。式(1)で説明した値Eの最大化によるセグメンテーションに相当する。
まず、ステップS1001において、重み付きグラフGを初期化する。そして、重み付きグラフGにソースノード及びシンクノードを追加する。次に、ステップS1002〜ステップS1003において、入力画像x上の各ピクセルpについて、ノードpを重み付きグラフGに追加し、ソースノードとノードpとを結ぶリンク、シンクノードとノードpとを結ぶリンクを追加する。そして、ソースノードとノードpとを結ぶリンクの重みとして、前景重みKFG上のピクセルpの値を割り当て、シンクノードとノードpとを結ぶリンクの重みとして背景重みKBG上のピクセルpの値を割り当てる。
次に、ステップS1004〜ステップS1005において、入力画像x上で隣接する全てのピクセルp,qの対について、重み付きグラフGにノードpとノードqとの間のリンクを追加する。さらに、このリンクの重みとして、式(1)に示すLinkWeight(p,q)の演算結果を設定する。
次に、ステップS1006において、作成した重み付きグラフGに対し、ソースノードからシンクノードへの最大フローを持つ最小カットを求める。そして、ステップS1007において、重み付きグラフG上のそれぞれのノードpについて、そのノードpが最小カットによりソースノード側に分類される場合は、マスク画像においてピクセルpをマスクとする。一方、ノードpがシンクノード側に分類される場合は、マスク画像のピクセルpをマスクではないものとする。そして、このステップS1007で作成したマスクyが出力される。
以上のように本実施形態によれば、ある教師画像に対し多くの負マスク例を生成する。これにより、その負マスク例に類似する誤セグメンテーションを防ぐことが期待できる。また、本実施形態によれば、教師画像ごとにその多数の負マスク例を教師画像毎のマスクモデル202として集約する。これにより、同一の教師画像で複数の入力画像をセグメンテーションする場合のセグメンテーション部206の演算量が負マスク例数から独立となる。すなわち負マスク例数が多い場合にセグメンテーションを高速化できる。
さらに、本実施形態によれば、入力画像が与えられた後に、各ピクセルについて、そのピクセルがマスクの場合とマスクではない場合とのそれぞれについて、その重みを求める。これにより、ある入力画像のマスクを求める場合に、その最大フローを、一度の最大フロー最小カット問題の解決で求めることができる。
(その他の実施形態)
前述した実施形態におけるピクセルの代わりに、特許文献3に記載の手法を適用し、色が類似しかつ隣接するピクセル同士を統合した小領域を用いてもよい。この場合、前述した実施形態における「ピクセル」は適宜「小領域」と読み替えるものとする。また、式(1)に示すLinkWeight(p,q)の値dpqにおいて、そのユークリッド距離は、小領域の中心同士の距離に置き換える。
前述した実施形態におけるピクセルの代わりに、特許文献3に記載の手法を適用し、色が類似しかつ隣接するピクセル同士を統合した小領域を用いてもよい。この場合、前述した実施形態における「ピクセル」は適宜「小領域」と読み替えるものとする。また、式(1)に示すLinkWeight(p,q)の値dpqにおいて、そのユークリッド距離は、小領域の中心同士の距離に置き換える。
また、本発明は、以下の処理を実行することによっても実現される。即ち、上述した実施形態の機能を実現するソフトウェア(プログラム)を、ネットワーク又は各種記憶媒体を介してシステム或いは装置に供給し、そのシステム或いは装置のコンピュータ(またはCPUやMPU等)がプログラムを読み出して実行する処理である。
205 辞書作成部
206 セグメンテーション部
207 マスク事例演算部
208 マスク事例集約部
209 入力画像適応部
210 マスク演算部
206 セグメンテーション部
207 マスク事例演算部
208 マスク事例集約部
209 入力画像適応部
210 マスク演算部
Claims (7)
- 物体を映した複数の教師画像と、前記教師画像の前景となるピクセルを真とし背景となるピクセルを偽とした二値の正マスク例とに基づいて、入力画像の物体のマスクを求める画像処理装置であって、
前記複数の教師画像のそれぞれについて、前記教師画像から前記正マスク例と異なる負マスク例及びその重みを求めるマスク事例演算手段と、
前記正マスク例、前記負マスク例、及び前記負マスク例の重みを前記教師画像ごとに集約し、教師画像ごとのマスクモデルを求めるマスク事例集約手段と、
前記マスク事例集約手段によって求められた教師画像ごとのマスクモデルに基づいて前記入力画像の前景重み及び背景重みを求める入力画像適応手段と、
前記入力画像適応手段によって求められた前景重み及び背景重みに基づいて前記入力画像のマスクを求めるマスク演算手段と、
を備えることを特徴とする画像処理装置。 - 前記入力画像適応手段は、前記入力画像のピクセルのそれぞれについて、前記ピクセルがマスクである場合の前記前景重みと、前記ピクセルがマスクでない場合の前記背景重みとを求め、
前記マスク演算手段は、前記入力画像の各ピクセルをノードとした場合の前景を示すソースノードと前記ノードとの間、背景を示すシンクノードと前記ノードとの間、及び隣接するノード間をそれぞれリンクとするグラフと、前記前景重み及び背景重みとを用いて最大フロー最小カットにより前記マスクを求めることを特徴とする請求項1に記載の画像処理装置。 - 前記マスク事例集約手段は、前記教師画像ごとに前記負マスク例の重みによる重み付き総和を求め、前記重み付き総和と前記正マスク例とから前記マスクモデルとして形状モデル及び色モデル重みを求めることを特徴とする請求項1又は2に記載の画像処理装置。
- 前記入力画像適応手段は、前記入力画像と前記教師画像との間の類似度を求め、前記教師画像ごとのマスクモデルを用いた値の前記類似度による重み付き総和を求めることによって、前記入力画像の前景重み及び背景重みを求めることを特徴とする請求項1〜3の何れか1項に記載の画像処理装置。
- 前記入力画像適応手段は、前記入力画像において色が類似して隣接するピクセル同士を統合した小領域のそれぞれについて、前記小領域がマスクである場合の前記前景重みと、前記小領域がマスクでない場合の前記背景重みとを求め、
前記マスク演算手段は、前記入力画像の各小領域をノードとした場合の前景を示すソースノードと前記ノードとの間、背景を示すシンクノードと前記ノードとの間、及び隣接するノード間をそれぞれリンクとするグラフと、前記前景重み及び背景重みとを用いて最大フロー最小カットにより前記マスクを求めることを特徴とする請求項1に記載の画像処理装置。 - 物体を映した複数の教師画像と、前記教師画像の前景となるピクセルを真とし背景となるピクセルを偽とした二値の正マスク例とに基づいて、入力画像の物体のマスクを求める画像処理方法であって、
前記複数の教師画像のそれぞれについて、前記教師画像から前記正マスク例と異なる負マスク例及びその重みを求めるマスク事例演算工程と、
前記正マスク例、前記負マスク例、及び前記負マスク例の重みを前記教師画像ごとに集約し、教師画像ごとのマスクモデルを求めるマスク事例集約工程と、
前記マスク事例集約工程において求められた教師画像ごとのマスクモデルに基づいて前記入力画像の前景重み及び背景重みを求める入力画像適応工程と、
前記入力画像適応工程において求められた前景重み及び背景重みに基づいて前記入力画像のマスクを求めるマスク演算工程と、
を備えることを特徴とする画像処理方法。 - 物体を映した複数の教師画像と、前記教師画像の前景となるピクセルを真とし背景となるピクセルを偽とした二値の正マスク例とに基づいて、入力画像の物体のマスクを求める画像処理装置を制御するためのプログラムであって、
前記複数の教師画像のそれぞれについて、前記教師画像から前記正マスク例と異なる負マスク例及びその重みを求めるマスク事例演算工程と、
前記正マスク例、前記負マスク例、及び前記負マスク例の重みを前記教師画像ごとに集約し、教師画像ごとのマスクモデルを求めるマスク事例集約工程と、
前記マスク事例集約工程において求められた教師画像ごとのマスクモデルに基づいて前記入力画像の前景重み及び背景重みを求める入力画像適応工程と、
前記入力画像適応工程において求められた前景重み及び背景重みに基づいて前記入力画像のマスクを求めるマスク演算工程と、
をコンピュータに実行させることを特徴とするプログラム。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2013076837A JP2014203157A (ja) | 2013-04-02 | 2013-04-02 | 画像処理装置、画像処理方法及びプログラム |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2013076837A JP2014203157A (ja) | 2013-04-02 | 2013-04-02 | 画像処理装置、画像処理方法及びプログラム |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2014203157A true JP2014203157A (ja) | 2014-10-27 |
Family
ID=52353574
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2013076837A Pending JP2014203157A (ja) | 2013-04-02 | 2013-04-02 | 画像処理装置、画像処理方法及びプログラム |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2014203157A (ja) |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106204223A (zh) * | 2016-07-13 | 2016-12-07 | 中南大学 | 图像处理方法及系统 |
JP6148426B1 (ja) * | 2016-05-27 | 2017-06-14 | 楽天株式会社 | 画像処理装置、画像処理方法及び画像処理プログラム |
KR20180064863A (ko) * | 2016-12-06 | 2018-06-15 | 부산대학교 산학협력단 | 딥러닝을 이용한 수완부 방사선 영상으로부터 골 성숙도(smi) 자동 분석방법 |
WO2020110432A1 (ja) * | 2018-11-26 | 2020-06-04 | 株式会社ソニー・インタラクティブエンタテインメント | 学習装置、前景領域推定装置、学習方法、前景領域推定方法、及び、プログラム |
-
2013
- 2013-04-02 JP JP2013076837A patent/JP2014203157A/ja active Pending
Cited By (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP6148426B1 (ja) * | 2016-05-27 | 2017-06-14 | 楽天株式会社 | 画像処理装置、画像処理方法及び画像処理プログラム |
WO2017203705A1 (ja) * | 2016-05-27 | 2017-11-30 | 楽天株式会社 | 画像処理装置、画像処理方法及び画像処理プログラム |
CN106204223A (zh) * | 2016-07-13 | 2016-12-07 | 中南大学 | 图像处理方法及系统 |
CN106204223B (zh) * | 2016-07-13 | 2017-10-31 | 中南大学 | 图像处理方法及系统 |
KR20180064863A (ko) * | 2016-12-06 | 2018-06-15 | 부산대학교 산학협력단 | 딥러닝을 이용한 수완부 방사선 영상으로부터 골 성숙도(smi) 자동 분석방법 |
KR101901397B1 (ko) * | 2016-12-06 | 2018-09-21 | 부산대학교 산학협력단 | 딥러닝을 이용한 수완부 방사선 영상으로부터 골 성숙도(smi) 자동 분석방법 |
WO2020110432A1 (ja) * | 2018-11-26 | 2020-06-04 | 株式会社ソニー・インタラクティブエンタテインメント | 学習装置、前景領域推定装置、学習方法、前景領域推定方法、及び、プログラム |
WO2020110169A1 (ja) * | 2018-11-26 | 2020-06-04 | 株式会社ソニー・インタラクティブエンタテインメント | 学習装置、前景領域推定装置、学習方法、前景領域推定方法、及び、プログラム |
JPWO2020110432A1 (ja) * | 2018-11-26 | 2021-09-02 | 株式会社ソニー・インタラクティブエンタテインメント | 学習装置、前景領域推定装置、学習方法、前景領域推定方法、及び、プログラム |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
WO2020199478A1 (zh) | 图像生成模型训练方法、图像生成方法、装置、设备及存储介质 | |
WO2016054779A1 (en) | Spatial pyramid pooling networks for image processing | |
US9563822B2 (en) | Learning apparatus, density measuring apparatus, learning method, computer program product, and density measuring system | |
CN112016546A (zh) | 一种文本区域的定位方法及装置 | |
KR20150107579A (ko) | 화상 처리 장치 및 화상 처리 방법 | |
JP2015099563A (ja) | 画像処理装置、画像処理方法及びプログラム | |
CN109522970B (zh) | 图像分类方法、装置及系统 | |
JP2017531867A (ja) | トレーニングされたクオリティ測定法を用いる教師なし画像セグメント化の方法およびシステム | |
EP3905194A1 (en) | Pose estimation method and apparatus | |
JP6937508B2 (ja) | 画像処理システム、評価モデル構築方法、画像処理方法及びプログラム | |
JP2015203946A (ja) | ヒストグラムの重心を計算する方法 | |
Yigitbasi et al. | Edge detection using artificial bee colony algorithm (ABC) | |
US20220277574A1 (en) | Image classification using color profiles | |
JP2018045302A (ja) | 情報処理装置、情報処理方法及びプログラム | |
JP2014203157A (ja) | 画像処理装置、画像処理方法及びプログラム | |
CN113112518A (zh) | 基于拼接图像的特征提取器生成方法、装置和计算机设备 | |
US9940718B2 (en) | Apparatus and method for extracting peak image from continuously photographed images | |
KR102665603B1 (ko) | 스테레오 매칭을 위한 하드웨어 디스패러티 평가 | |
CN118154583A (zh) | 电池丝印质量检测方法及模型获取方法、装置和终端设备 | |
JP2016099980A (ja) | 画像セグメンテーション方法、装置、及びプログラム | |
CN111382760B (zh) | 图片类别的识别方法、装置及计算机可读存储介质 | |
JP2015041293A (ja) | 画像認識装置および画像認識方法 | |
WO2014205642A1 (en) | Method and apparatus for consistent segmentation of 3d models | |
JP2021527859A (ja) | 深層領域拡張を使用した画像内の不規則形状のセグメント化 | |
US12100101B2 (en) | Generating 2D mapping using 3D data |