JP6125099B2 - 画像分割方法、画像分割装置、プログラム、及び記録媒体 - Google Patents
画像分割方法、画像分割装置、プログラム、及び記録媒体 Download PDFInfo
- Publication number
- JP6125099B2 JP6125099B2 JP2016517158A JP2016517158A JP6125099B2 JP 6125099 B2 JP6125099 B2 JP 6125099B2 JP 2016517158 A JP2016517158 A JP 2016517158A JP 2016517158 A JP2016517158 A JP 2016517158A JP 6125099 B2 JP6125099 B2 JP 6125099B2
- Authority
- JP
- Japan
- Prior art keywords
- foreground
- image
- background
- pixel
- saliency
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims description 69
- 238000013145 classification model Methods 0.000 claims description 82
- 238000003709 image segmentation Methods 0.000 claims description 37
- 238000010606 normalization Methods 0.000 claims description 17
- 238000004364 calculation method Methods 0.000 claims description 15
- 238000010276 construction Methods 0.000 claims description 8
- 230000011218 segmentation Effects 0.000 claims description 5
- 239000008186 active pharmaceutical agent Substances 0.000 claims 6
- 230000008569 process Effects 0.000 description 11
- 238000004891 communication Methods 0.000 description 10
- 238000010586 diagram Methods 0.000 description 8
- 238000005516 engineering process Methods 0.000 description 6
- 230000000712 assembly Effects 0.000 description 4
- 238000000429 assembly Methods 0.000 description 4
- 230000003287 optical effect Effects 0.000 description 4
- 230000005236 sound signal Effects 0.000 description 4
- 230000001133 acceleration Effects 0.000 description 2
- 230000003993 interaction Effects 0.000 description 2
- 238000007726 management method Methods 0.000 description 2
- 239000000203 mixture Substances 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 230000002093 peripheral effect Effects 0.000 description 2
- 238000012545 processing Methods 0.000 description 2
- 230000004913 activation Effects 0.000 description 1
- 230000003044 adaptive effect Effects 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 230000015572 biosynthetic process Effects 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 238000013500 data storage Methods 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 230000006870 function Effects 0.000 description 1
- 238000010191 image analysis Methods 0.000 description 1
- 238000003384 imaging method Methods 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 238000013507 mapping Methods 0.000 description 1
- 230000005055 memory storage Effects 0.000 description 1
- 230000000750 progressive effect Effects 0.000 description 1
- 238000004549 pulsed laser deposition Methods 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 230000003068 static effect Effects 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
- 238000003786 synthesis reaction Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/162—Segmentation; Edge detection involving graph-based methods
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N5/00—Details of television systems
- H04N5/222—Studio circuitry; Studio devices; Studio equipment
- H04N5/262—Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/11—Region-based segmentation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/194—Segmentation; Edge detection involving foreground-background segmentation
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N5/00—Details of television systems
- H04N5/222—Studio circuitry; Studio devices; Studio equipment
- H04N5/262—Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
- H04N5/2624—Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects for obtaining an image which is composed of whole input images, e.g. splitscreen
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N5/00—Details of television systems
- H04N5/222—Studio circuitry; Studio devices; Studio equipment
- H04N5/262—Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
- H04N5/2625—Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects for obtaining an image which is composed of images from a temporal image sequence, e.g. for a stroboscopic effect
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N5/00—Details of television systems
- H04N5/222—Studio circuitry; Studio devices; Studio equipment
- H04N5/262—Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
- H04N5/2625—Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects for obtaining an image which is composed of images from a temporal image sequence, e.g. for a stroboscopic effect
- H04N5/2627—Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects for obtaining an image which is composed of images from a temporal image sequence, e.g. for a stroboscopic effect for providing spin image effect, 3D stop motion effect or temporal freeze effect
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N5/00—Details of television systems
- H04N5/222—Studio circuitry; Studio devices; Studio equipment
- H04N5/262—Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
- H04N5/272—Means for inserting a foreground image in a background image, i.e. inlay, outlay
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10024—Color image
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20076—Probabilistic image processing
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Image Analysis (AREA)
- Character Input (AREA)
- Image Processing (AREA)
Description
画像の顕著性モデルを生成するステップと、
前記顕著性モデルに基づいて、前記画像中の前景サンプル点と背景サンプル点とを取得するステップと、
前記顕著性モデル、前記前景サンプル点、及び前記背景サンプル点に基づいて、前景/背景分類モデルを生成するステップと、
前記前景/背景分類モデル、及び画素点に関するエッジ情報に基づいて前記画像を分割するための所定のグラフカットアルゴリズムに従って、前記画像を分割するステップと
を含む。
前記顕著性モデルに基づいて、前記画像中の前景サンプル点と背景サンプル点とを取得するステップは、
前記顕著性モデルに基づいて、前記画像中の各々の画素点の顕著性の値を算出するステップと、
前記各々の画素点の顕著性の値を正規化するステップと、
前記正規化後の顕著性の値が所定の前景閾値より大きい画素点を、前記前景サンプル点と特定するステップと、
前記正規化後の顕著性の値が所定の背景閾値より小さい画素点を、前記背景サンプル点と特定するステップとを含み、
前記所定の前景閾値は前記所定の背景閾値より大きく、前記正規化後の各々の顕著性の値はすべて(0、1)の範囲内である。
前記前景/背景分類モデルは、前景分類モデルと背景分類モデルとを含み、
前記顕著性モデル、前記前景サンプル点、及び前記背景サンプル点に基づいて、前景/背景分類モデルを生成するステップは、
前記前景サンプル点に基づいて、前景色の尤度モデルを生成するステップと、
前記背景サンプル点に基づいて、背景色の尤度モデルを生成するステップと、
前記顕著性モデルと前記前景色の尤度モデルとを乗算することにより、画素点が前景である確率を表わすための、前記前景分類モデルを取得するステップと、
前記顕著性モデルと前記背景色の尤度モデルとを乗算することにより、画素点が背景である確率を表わすための、前記背景分類モデルを取得するステップと
を含む。
前記所定のグラフカットアルゴリズムに従って、前記画像を分割するステップは、
前記前景分類モデルを用いて、前記画像中の各々の画素点の前景類似度を算出するステップと、
前記背景分類モデルを用いて、前記画像中の各々の画素点の背景類似度を算出するステップと、
前記画像中の隣接する画素点間の類似度を取得するステップと、
前記各々の画素点の前景類似度、前記各々の画素点の背景類似度、及び前記隣接する画素点間の類似度を用いて、前記所定のグラフカットアルゴリズムに必要な無向グラフを構築するステップと、
前記所定のグラフカットアルゴリズムに従って前記無向グラフを分割して、前記画像に対する分割を完了するステップと
を含む。
前記各々の画素点の前景類似度、前記各々の画素点の背景類似度、及び前記隣接する画素点間の類似度を用いて、前記所定のグラフカットアルゴリズムに必要な無向グラフを構築するステップは、
前景頂点と背景頂点と少なくとも一つの画素頂点と隣接する画素頂点との間の第1種類の辺と、前記画素頂点と前記前景頂点との間の第2種類の辺と、前記画素頂点と前記背景頂点との間の第3種類の辺と、が含まれている無向グラフであって、前記所定のグラフカットアルゴリズムに必要な無向グラフを構築するステップと、
前記第2種類の辺毎に、前記第2種類の辺と繋がれている画素頂点に対応する画素点の前記前景類似度を、前記第2種類の辺の重み値と特定するステップと、
前記第3種類の辺毎に、前記第3種類の辺と繋がれている画素頂点に対応する画素点の前記背景類似度を、前記第3種類の辺の重み値と特定するステップと、
前記第1種類の辺毎に、前記第1種類の辺と繋がれている二つの画素頂点に対応する二つの画素点の間の類似度を、前記第1種類の辺の重み値と特定するステップと
を含み、
前記無向グラフ中の画素頂点と前記画像中の各々の画素点とは1対1で対応する。
前記画像の顕著性モデルを生成するステップは、
所定の過分割アルゴリズムに従って前記画像を過分割することにより、少なくとも一つの領域を取得するステップと、
前記各々の領域の色の値と中心とを特定するステップと、
各々の領域に対応する色の値、及び各々の領域の中心に基づいて、前記顕著性モデルを生成するステップと
を含み、
一つの前記領域中の各々の画素点の色の値は同一である。
前記顕著性モデルは、
ここで、
Si1は、領域Ri中のいずれか一つの画素点の前記顕著性の値であり、
w(Rj)は、領域Rj中の画素点の数であり、
DS(Ri,Rj)は、前記領域Riと前記領域Rjとの間の空間位置の差異のメトリック値を表わすめのものであり、
DC(Ri,Rj)は、前記領域Riと前記領域Rjとの間の色の差異のメトリック値を表わすめのものであり、
Nは、前記画像を過分割した後に取得した領域の数の合計であり、
DS(Ri,Rj)は、
Center(Ri)は、前記領域Riの中心であり、
Center(Rj)は、前記領域Rjの中心であり、
前記画像中の各々の画素点の座標のすべてを、[0,1]に正規化すると、
前記画像の顕著性モデルを生成するステップは、
色の値が同一な画素点を一つの色種類に分類する方法によって、各々の画素点の色の値に基づいて前記画像中の各々の画素点を分類するステップと、
前記各々の色種類の色の値に基づいて、前記顕著性モデルを生成するステップと
を含む。
前記顕著性モデルは、
ここで、
w(Pj)は、色種類Pjの画素点の数であり、
DC(Pi,Pj)は、色種類Piと色種類Pjとの間の色の差異のメトリック値を表わすためのものである。
画像の顕著性モデルを生成するための第1生成モジュールと、
前記顕著性モデルに基づいて、前記画像中の前景サンプル点と背景サンプル点とを取得するためのサンプル取得モジュールと、
前記第1生成モジュールが生成した顕著性モデル、及び前記サンプル取得モジュールが取得した前景サンプル点と前記背景サンプル点に基づいて、前景/背景分類モデルを生成するための第2生成モジュールと、
前記第2生成モジュールが生成した前景/背景分類モデル、及び画素点に関するエッジ情報に基づいて前記画像を分割するための所定のグラフカットアルゴリズムに従って、前記画像を分割するための画像分割モジュールと
を備える。
前記サンプル取得モジュールは、
前記顕著性モデルに基づいて、前記画像中の各々の画素点の顕著性の値を算出するための第1算出ユニットと、
前記算出ユニットが算出した各々の画素点の顕著性の値を正規化するための正規化ユニットと、
前記正規化ユニットによって正規化後の顕著性の値が所定の前景閾値より大きい画素点を、前記前景サンプル点と特定するための第1特定ユニットと、
前記正規化ユニットによって正規化後の顕著性の値が所定の背景閾値より小さい画素点を、前記背景サンプル点と特定するための第2特定ユニットと
を備え、
前記所定の前景閾値は前記所定の背景閾値より大きく、前記正規化後の各々の顕著性の値はすべて(0、1)の範囲内である。
前記前景/背景分類モデルは、前景分類モデルと背景分類モデルとを含み、
前記第2生成モジュールは、
前記前景サンプル点に基づいて、前景色の尤度モデルを生成するための第1生成ユニットと、
前記背景サンプル点に基づいて、背景色の尤度モデルを生成するための第2生成ユニットと、
前記第1生成モジュールが生成した顕著性モデルと前記第1生成ユニットが生成した前景色の尤度モデルとを乗算して、画素点が前景である確率を表わすための、前記前景分類モデルを取得するための第1乗算ユニットと、
前記第1生成モジュールが生成した顕著性モデルと前記第2生成ユニットが生成した背景色の尤度モデルとを乗算して、画素点が背景である確率を表わすための、前記背景分類モデルを取得するための第2乗算ユニットと
を備える。
前記画像分割モジュールは、
前記前景分類モデルを用いて、前記画像中の各々の画素点の前景類似度を算出するための第2算出ユニットと、
前記背景分類モデルを用いて、前記画像中の各々の画素点の背景類似度を算出するための第3算出ユニットと、
前記画像中の隣接する画素点間の類似度を取得するための取得ユニットと、
前記各々の画素点の前景類似度、前記各々の画素点の背景類似度、及び前記隣接する画素点間の類似度を用いて、前記所定のグラフカットアルゴリズムに必要な無向グラフを構築するための構築ユニットと、
前記所定のグラフカットアルゴリズムに従って前記無向グラフを分割して、前記画像に対する分割を完了するための第1分割ユニットと
を備える。
前記構築ユニットは、
前景頂点と背景頂点と少なくとも一つの画素頂点と隣接する画素頂点との間の第1種類の辺と、前記画素頂点と前記前景頂点との間の第2種類の辺と、前記画素頂点と前記背景頂点との間の第3種類の辺と、が含まれている無向グラフであって、前記所定のグラフカットアルゴリズムに必要な無向グラフを構築するための構築サブユニットと、
前記第2種類の辺毎に、前記第2種類の辺と繋がれている画素頂点に対応する画素点の前記前景類似度を、前記第2種類の辺の重み値と特定するための第1特定サブユニットと、
前記第3種類の辺毎に、前記第3種類の辺と繋がれている画素頂点に対応する画素点の前記背景類似度を、前記第3種類の辺の重み値と特定するための第2特定サブユニットと、
前記第1種類の辺毎に、前記第1種類の辺と繋がれている二つの画素頂点に対応する二つの画素点の間の類似度を、前記第1種類の辺の重み値と特定するための第3特定サブユニットと
を備え、
前記無向グラフ中の画素頂点と前記画像中の各々の画素点とは1対1で対応する。
前記第1生成モジュールは、
所定の過分割アルゴリズムに従って前記画像を過分割することにより、少なくとも一つの領域を取得するための第2分割ユニットと、
前記各々の領域の色の値と中心とを特定するための第4特定ユニットと、
各々の領域に対応する色の値、及び各々の領域の中心に基づいて、前記顕著性モデルを生成するための第3生成ユニットと
を備え、
一つの前記領域中の各々の画素点の色の値は同一である。
前記顕著性モデルは、
ここで、
Si1は、領域Ri中のいずれか一つの画素点の前記顕著性の値であり、
w(Rj)は、領域Rj中の画素点の数であり、
DS(Ri,Rj)は、前記領域Riと前記領域Rjとの間の空間位置の差異のメトリック値を表わすめのものであり、
DC(Ri,Rj)は、前記領域Riと前記領域Rjとの間の色の差異のメトリック値を表わすめのものであり、
Nは、前記画像を過分割した後に取得した領域の数の合計であり、
DS(Ri,Rj)は、
Center(Ri)は、前記領域Riの中心であり、
Center(Rj)は、前記領域Rjの中心であり、
前記画像中の各々の画素点の座標のすべてを、[0,1]に正規化すると、
前記第1生成モジュールは、
色の値が同一な画素点を一つの色種類に分類する方法によって、各々の画素点の色の値に基づいて前記画像中の各々の画素点を分類するための分類ユニットと、
前記各々の色種類の色の値に基づいて、前記顕著性モデルを生成するための第4生成ユニットとを備える。
前記顕著性モデルは、
ここで、
w(Pj)は、色種類Pjの画素点の数であり、
DC(Pi,Pj)は、色種類Piと色種類Pjとの間の色の差異のメトリック値を表わすためのものである。
当該画像分割装置は、
プロセッサと、
前記プロセッサが実行可能な命令を記憶するためのメモリと
を備え、
前記プロセッサは、
画像の顕著性モデルを生成するステップと、
前記顕著性モデルに基づいて、前記画像中の前景サンプル点と背景サンプル点とを取得し、
前記顕著性モデル、前記前景サンプル点、及び前記背景サンプル点に基づいて、前景/背景分類モデルを生成し、
前記前景/背景分類モデル、及び画素点に関するエッジ情報に基づいて前記画像を分割するための所定のグラフカットアルゴリズムに従って、前記画像を分割するように構成される。
前景サンプル点と背景サンプル点とを自動的に特定し、顕著性モデル及び前景サンプル点と背景サンプル点を利用して前景/背景分類モデルを生成し、当該前景/背景分類モデルを用いて画像の分割を実現することにより、関連技術でのユーザにより手動でおおよその前景サンプル点と背景サンプル点とを選定することが必要であるため、多数の画像に対して分割を行う場合に分割効率が比較的低くなる問題を解決した。前景サンプル点と背景サンプル点を自動的に取得でき、且つ、前景/背景分類モデルを生成する際にさらに公知の顕著性モデルも用いたため、サンプル選択の自動化を実現でき、分類精度を改善する効果を得ることができる。
ステップ101において、画像の顕著性モデル(saliency model)を生成する。
ステップ102において、顕著性モデルに基づいて、画像中の前景サンプル点と背景サンプル点とを取得する。
ステップ103において、顕著性モデル、前景サンプル点及び背景サンプル点に基づいて、前景/背景分類モデルを生成する。
ステップ104において、前景/背景分類モデル及び画素点に関するエッジ情報を用いて画像を分割するための所定のグラフカットアルゴリズム(graph cut algorithm)に従って、画像を分割する。
ステップ201において、画像の顕著性モデルを生成する。
ステップ201aにおいて、所定の過分割アルゴリズム(over−segmentation algorithm)に従って、画像を過分割することにより、少なくとも一つの領域を取得する。一つの領域中の各々の画素点の色の値は同一である。
過分割後の領域中の各々の画素点は同一な色の値を有するため、当該領域の色の値を特定できる。また、領域毎に、領域に対応する中心を算出できる。
即ち、
ここで、
Si1は、領域Ri中のいずれか一つの画素点の顕著性の値であり、
w(Rj)は、領域Rj中の画素点の数であり、
DS(Ri,Rj)は、前記領域Riと前記領域Rjとの間の空間位置の差異のメトリック値を表わすめのものであり、
DC(Ri,Rj)は、前記領域Riと前記領域Rjとの間の色の差異のメトリック値を表わすめのものであり、
Nは、前記画像を過分割した後に取得した領域の数の合計であり、
DS(Ri,Rj)は、
Center(Ri)は、前記領域Riの中心であり、
Center(Rj)は、前記領域Rjの中心であり、
前記画像中の各々の画素点の座標のすべてを、[0,1]に正規化すると、
ステップ201dにおいて、色の値が同一な画素点を一つの色種類(color type)に分類する方法によって、各々の画素点の色の値に基づいて画像中の各々の画素点を分類する。
当該画像中の各々の画素点を全部読み込んだ後に、各々のストレージスペース中に格納された画素点の数の統計をとる。
即ち、
ここで、
w(Pj)は、色種類Pjの画素点の数であり、
DC(Pi,Pj)は、色種類Piと色種類Pjとの間の色の差異のメトリック値を表わすためのものである。
ステップ203において、各々の画素点の顕著性の値を正規化させる。
一般的に、各々の画素点の顕著性の値を(0、1)の範囲内に正規化させてもよい。
各々の画素点の顕著性の値を(0、1)の範囲内に正規化させる際に、実際の状況によって所定の前景閾値を設定してもよい。例えば、当該所定の前景閾値を0.8に設定してもよい。
各々の画素点の顕著性の値を(0、1)の範囲内に正規化させる際に、実際の状況によって所定の前景閾値を設定してもよい。例えば、当該所定の前景閾値を0.25に設定してもよい。
このようにすると、生成した顕著性モデルを用いて、前景サンプル点と背景サンプル点とを自動的と特定できる。
実際に適用する際には、色の尤度モデルを生成する方式はより多い。例えば、ヒストグラム統計に基づく数学モデリング方法によって色の尤度モデルを生成してもよい。さらに、ガウス混合モデル(Gaussian Mixture Model)に基づいて色の尤度モデルを生成してもよい。色の尤度モデルを生成する際に利用したサンプル点が前景サンプル点である場合、取得した色の尤度モデルを前景色の尤度モデルと特定する。
同様に、ヒストグラム統計に基づく数学モデリング方法によって色の尤度モデルを生成してもよい。さらに、ガウス混合モデル(Gaussian Mixture Model)に基づいて色の尤度モデルを生成してもよい。色の尤度モデルを生成する際に利用したサンプル点が背景サンプル点である場合、取得した色の尤度モデルを背景色の尤度モデルと特定する。
画像に対して前景分割を行う際の精度を改善するために、公知の顕著性モデル及び拡張された前景色の尤度モデルを結合して、前景分類モデルを取得してもよい。例えば、顕著性モデルと前景色の尤度モデルを乗算して、前景分類モデルを取得してもよい。
同様に、画像に対して背景分割を行う際の精度を改善するために、公知の顕著性モデル及び拡張された背景色の尤度モデルを結合して、背景分類モデルを取得してもよい。例えば、顕著性モデルと背景色の尤度モデルを乗算して、背景分類モデルを取得してもよい。
前景分類モデルは、画素点が前景である確率を表わすことができ、即ち、当該画素点の前景との類似度を表わすことができるため、前景分類モデルを用いて、画像中の各々の画素点の前景類似度を直接算出してもよい。
同様に、背景分類モデルは、画素点が背景である確率を表わすことができ、即ち、当該画素点の背景との類似度を表わすことができるため、背景分類モデルを用いて、画像中の各々の画素点の背景類似度を直接算出してもよい。
ステップ213において、各々の画素点の前景類似度、各々の画素点の背景類似度、及び隣接する画素点間の類似度を用いて、所定のグラフカットアルゴリズムに必要な無向グラフを構築する。
例えば、一つの選定された画素頂点に対して、当該画素頂点に対応する画素点を特定できる。当該画素点の前景類似度を、当該画素頂点と前景頂点の間の第2種類の辺の重み値とする。
例えば、一つの選定の画素頂点に対して、当該画素頂点に対応する画素点を特定できる。当該画素点の背景類似度を、当該画素頂点と背景頂点の間の第3種類の辺の重み値とする。
当該サンプル取得モジュール304は、顕著性モデルに基づいて画像中の前景サンプル点と背景サンプル点とを取得する。
当該画像分割モジュール308は、第2生成モジュールが生成した前景/背景分類モデル、及び画素点に関するエッジ情報を用いて画像を分割するための所定のグラフカットアルゴリズムに従って、画像を分割する。
当該サンプル取得モジュール404は、顕著性モデルに基づいて画像中の前景サンプル点と背景サンプル点とを取得する。
当該画像分割モジュール408は、第2生成モジュール406が生成した前景/背景分類モデル、及び画素点に関するエッジ情報を用いて画像を分割するための所定のグラフカットアルゴリズムに従って、画像を分割する。
当該正規化ユニット404bは、第1算出ユニット404aが算出した各々の画素点の顕著性の値を正規化する。
当該第2特定ユニット404dは、正規化ユニット404bによって正規化された後の顕著性の値が所定の背景閾値より小さい画素点を、背景サンプル点と特定する。
ここで、所定の前景閾値は所定の背景閾値より大きく、正規化後の各々の顕著性の値はすべて(0、1)の範囲内である。
当該第2生成ユニット406bは、背景サンプル点に基づいて背景色の尤度モデルを生成する。
当該第2乗算ユニット406dは、第1生成モジュール402が生成した顕著性モデルと第2生成ユニット406bが生成した背景色の尤度モデルとを乗算して、画素点が背景である確率を表わすための背景分類モデルを取得する。
当該第3算出ユニット408bは、背景分類モデルを用いて、画像中の各々の画素点の背景類似度を算出する。
当該構築ユニット408dは、各々の画素点の前景類似度、各々の画素点の背景類似度、及び隣接する画素点間の類似度を用いて、所定のグラフカットアルゴリズムに必要な無向グラフを構築する。
当該第1分割ユニット408eは、所定のグラフカットアルゴリズムに従って無向グラフを分割して、画像の分割を完了する。
当該第1特定サブユニット408d2は、第2種類の辺毎に、第2種類の辺に繋がれている画素頂点に対応する画素点の前景類似度を、第2種類の辺の重み値と特定する。
当該第3特定サブユニット408d4は、第1種類の辺毎に、第1種類の辺に繋がれている二つの画素頂点に対応する二つの画素点の間の類似度を、第1種類の辺の重み値と特定する。
当該第4特定ユニット402bは、各々の領域の色の値と中心とを特定する。
当該第3生成ユニット402cは、各々の領域に対応する色の値、及び各々の領域の中心に基づいて、顕著性モデルを生成する。
前記顕著性モデルは、
ここで、
Si1は、領域Ri中のいずれか一つの画素点の顕著性の値であり、
w(Rj)は、領域Rj中の画素点の数であり、
DS(Ri,Rj)は、前記領域Riと前記領域Rjとの間の空間位置の差異のメトリック値を表わすめのものであり、
DC(Ri,Rj)は、前記領域Riと前記領域Rjとの間の色の差異のメトリック値を表わすめのものであり、
Nは、前記画像を過分割した後に取得した領域の数の合計であり、
DS(Ri,Rj)は、
Center(Ri)は、前記領域Riの中心であり、
Center(Rj)は、前記領域Rjの中心であり、
前記画像中の各々の画素点の座標のすべてを、[0,1]に正規化すると、
当該第4生成ユニット402eは、各々の色種類の色の値に基づいて、顕著性モデルを生成する。
前記顕著性モデルは、
ここで、
w(Pj)は、色種類Pjの画素点の数であり、
DC(Pi,Pj)は、色種類Piと色種類Pjとの間の色の差異のメトリック値を表わすためのものである。
電源アセンブリ506は、装置500の多様なアセンブリに電力を供給する。電源アセンブリ506は、電源管理システム、一つ以上の電源、及び装置500のための電力の生成、管理及び割り当てに関連する他のアセンブリを含んでもよい。
Claims (17)
- 画像の顕著性モデルを生成するステップと、
前記顕著性モデルに基づいて、前記画像中の前景サンプル点と背景サンプル点とを取得するステップと、
前記顕著性モデル、前記前景サンプル点、及び前記背景サンプル点に基づいて、前景/背景分類モデルを生成するステップと、
前記前景/背景分類モデル、及び画素点に関するエッジ情報に基づいて前記画像を分割するための所定のグラフカットアルゴリズムに従って、前記画像を分割するステップと
を含み、
前記画像の顕著性モデルを生成するステップは、
所定の過分割アルゴリズムに従って前記画像を過分割することにより、少なくとも一つの領域を取得するステップと、
前記各々の領域の色の値と中心とを特定するステップと、
各々の領域に対応する色の値、及び各々の領域の中心に基づいて、前記顕著性モデルを生成するステップとを含み、
一つの前記領域中の各々の画素点の色の値は同一であり、
前記顕著性モデルは、
ここで、
S i1 は、領域R i 中のいずれか一つの画素点の前記顕著性の値であり、
w(R j )は、領域Rj中の画素点の数であり、
DS(R i ,R j )は、前記領域Riと前記領域R j との間の空間位置の差異のメトリック値を表わすものであり、
DC(R i ,R j )は、前記領域R i と前記領域R j との間の色の差異のメトリック値を表わすものであり、
Nは、前記画像を過分割した後に取得した領域の数の合計であり、
DS(R i ,R j )は、
Center(R i )は、前記領域R i の中心であり、
Center(R j )は、前記領域R j の中心であり、
前記画像中の各々の画素点の座標のすべてを、[0,1]に正規化すると、
ことを特徴とする画像分割方法。 - 前記顕著性モデルに基づいて、前記画像中の前景サンプル点と背景サンプル点とを取得するステップは、
前記顕著性モデルに基づいて、前記画像中の各々の画素点の顕著性の値を算出するステップと、
前記各々の画素点の顕著性の値を正規化するステップと、
前記正規化後の顕著性の値が所定の前景閾値より大きい画素点を、前記前景サンプル点と特定するステップと、
前記正規化後の顕著性の値が所定の背景閾値より小さい画素点を、前記背景サンプル点と特定するステップとを含み、
前記所定の前景閾値は前記所定の背景閾値より大きく、前記正規化後の各々の顕著性の値はすべて(0、1)の範囲内である
ことを特徴とする請求項1に記載の画像分割方法。 - 前記前景/背景分類モデルは、前景分類モデルと背景分類モデルとを含み、
前記顕著性モデル、前記前景サンプル点、及び前記背景サンプル点に基づいて、前景/背景分類モデルを生成するステップは、
前記前景サンプル点に基づいて、前景色の尤度モデルを生成するステップと、
前記背景サンプル点に基づいて、背景色の尤度モデルを生成するステップと、
前記顕著性モデルと前記前景色の尤度モデルとを乗算することにより、画素点が前景である確率を表わすための前記前景分類モデルを取得するステップと、
前記顕著性モデルと前記背景色の尤度モデルとを乗算することにより、画素点が背景である確率を表わすための前記背景分類モデルを取得するステップと
を含むことを特徴とする請求項1に記載の画像分割方法。 - 前記所定のグラフカットアルゴリズムに従って、前記画像を分割するステップは、
前記前景分類モデルを用いて、前記画像中の各々の画素点の前景類似度を算出するステップと、
前記背景分類モデルを用いて、前記画像中の各々の画素点の背景類似度を算出するステップと、
前記画像中の隣接する画素点間の類似度を取得するステップと、
前記各々の画素点の前景類似度、前記各々の画素点の背景類似度、及び前記隣接する画素点間の類似度を用いて、前記所定のグラフカットアルゴリズムに必要な無向グラフを構築するステップと、
前記所定のグラフカットアルゴリズムに従って前記無向グラフを分割して、前記画像に対する分割を完了するステップと
を含むことを特徴とする請求項3に記載の画像分割方法。 - 前記各々の画素点の前景類似度、前記各々の画素点の背景類似度、及び前記隣接する画素点間の類似度を用いて、前記所定のグラフカットアルゴリズムに必要な無向グラフを構築するステップは、
前景頂点と背景頂点と少なくとも一つの画素頂点と隣接する画素頂点同との間の第1種類の辺と、前記画素頂点と前記前景頂点との間の第2種類の辺と、前記画素頂点と前記背景頂点との間の第3種類の辺と、が含まれている無向グラフであって、前記所定のグラフカットアルゴリズムに必要な無向グラフを構築するステップと、
前記第2種類の辺毎に、前記第2種類の辺と繋がれている画素頂点に対応する画素点の前記前景類似度を、前記第2種類の辺の重み値と特定するステップと、
前記第3種類の辺毎に、前記第3種類の辺と繋がれている画素頂点に対応する画素点の前記背景類似度を、前記第3種類の辺の重み値と特定するステップと、
前記第1種類の辺毎に、前記第1種類の辺と繋がれている二つの画素頂点に対応する二つの画素点の間の類似度を、前記第1種類の辺の重み値と特定するステップとを含み、
前記無向グラフ中の画素頂点と前記画像中の各々の画素点とは1対1で対応する
ことを特徴とする請求項4に記載の画像分割方法。 - 前記画像の顕著性モデルを生成するステップは、
色の値が同一な画素点を一つの色種類に分類する方法によって、各々の画素点の色の値に基づいて前記画像中の各々の画素点を分類するステップと、
前記各々の色種類の色の値に基づいて、前記顕著性モデルを生成するステップと
を含むことを特徴とする請求項1乃至5のいずれか1項に記載の画像分割方法。 - 前記顕著性モデルは、
ここで、
w(Pj)は、色種類Pjの画素点の数であり、
DC(Pi,Pj)は、色種類Piと色種類Pjとの間の色の差異のメトリック値を表わすためのものである
ことを特徴とする請求項6に記載の画像分割方法。 - 画像の顕著性モデルを生成するための第1生成モジュールと、
前記顕著性モデルに基づいて、前記画像中の前景サンプル点と背景サンプル点とを取得するためのサンプル取得モジュールと、
前記第1生成モジュールが生成した顕著性モデル、及び前記サンプル取得モジュールが取得した前景サンプル点と前記背景サンプル点に基づいて、前景/背景分類モデルを生成するための第2生成モジュールと、
前記第2生成モジュールが生成した前景/背景分類モデル、及び画素点に関するエッジ情報に基づいて前記画像を分割するための所定のグラフカットアルゴリズムに従って、前記画像を分割するための画像分割モジュールと
を備え、
前記第1生成モジュールは、
所定の過分割アルゴリズムに従って前記画像を過分割することにより、少なくとも一つの領域を取得するための第2分割ユニットと、
前記各々の領域の色の値と中心とを特定するための第3特定ユニットと、
各々の領域に対応する色の値、及び各々の領域の中心に基づいて、前記顕著性モデルを生成するための第3生成ユニットと
を備え、
一つの前記領域中の各々の画素点の色の値は同一であり、
前記顕著性モデルは、
ここで、
S i1 は、領域R i 中のいずれか一つの画素点の前記顕著性の値であり、
w(R j )は、領域R j 中の画素点の数であり、
DS(R i ,R j )は、前記領域R i と前記領域R j との間の空間位置の差異のメトリック値を表わすものであり、
DC(R i ,R j )は、前記領域R i と前記領域R j との間の色の差異のメトリック値を表わすものであり、
Nは、前記画像を過分割した後に取得した領域の数の合計であり、
DS(R i ,R j )は、
Center(R i )は、前記領域R i の中心であり、
Center(R j )は、前記領域R j の中心であり、
前記画像中の各々の画素点の座標のすべてを、[0,1]に正規化すると、
ことを特徴とする画像分割装置。 - 前記サンプル取得モジュールは、
前記顕著性モデルに基づいて、前記画像中の各々の画素点の顕著性の値を算出するための第1算出ユニットと、
前記第1算出ユニットが算出した各々の画素点の顕著性の値を正規化するための正規化ユニットと、
前記正規化ユニットによって正規化後の顕著性の値が所定の前景閾値より大きい画素点を、前記前景サンプル点と特定するための第1特定ユニットと、
前記正規化ユニットによって正規化後の顕著性の値が所定の背景閾値より小さい画素点を、前記背景サンプル点と特定するための第2特定ユニットと
を備え、
前記所定の前景閾値は前記所定の背景閾値より大きく、正規化後の各々の顕著性の値はすべて(0、1)の範囲内である
ことを特徴とする請求項8に記載の画像分割装置。 - 前記前景/背景分類モデルは、前景分類モデルと背景分類モデルとを含み、
前記第2生成モジュールは、
前記前景サンプル点に基づいて、前景色の尤度モデルを生成するための第1生成ユニットと、
前記背景サンプル点に基づいて、背景色の尤度モデルを生成するための第2生成ユニットと、
前記第1生成モジュールが生成した顕著性モデルと前記第1生成ユニットが生成した前景色の尤度モデルとを乗算して、画素点が前景である確率を表わすための、前記前景分類モデルを取得するための第1乗算ユニットと、
前記第1生成モジュールが生成した顕著性モデルと前記第2生成ユニットが生成した背景色の尤度モデルとを乗算して、画素点が背景である確率を表わすための、前記背景分類モデルを取得するための第2乗算ユニットと
を備えることを特徴とする請求項8に記載の画像分割装置。 - 前記画像分割モジュールは、
前記前景分類モデルを用いて、前記画像中の各々の画素点の前景類似度を算出するための第2算出ユニットと、
前記背景分類モデルを用いて、前記画像中の各々の画素点の背景類似度を算出するための第3算出ユニットと、
前記画像中の隣接する画素点間の類似度を取得するための取得ユニットと、
前記各々の画素点の前景類似度、前記各々の画素点の背景類似度、及び前記隣接する画素点間の類似度を用いて、前記所定のグラフカットアルゴリズムに必要な無向グラフを構築するための構築ユニットと、
前記所定のグラフカットアルゴリズムに従って前記無向グラフを分割して、前記画像に対する分割を完了するための第1分割ユニットと
を備えることを特徴とする請求項10に記載の画像分割装置。 - 前記構築ユニットは、
前景頂点と背景頂点と少なくとも一つの画素頂点と隣接する画素頂点との間の第1種類の辺と、前記画素頂点と前記前景頂点との間の第2種類の辺と、前記画素頂点と前記背景頂点との間の第3種類の辺と、が含まれている無向グラフであって、前記所定のグラフカットアルゴリズムに必要な無向グラフを構築するための構築サブユニットと、
前記第2種類の辺毎に、前記第2種類の辺と繋がれている画素頂点に対応する画素点の前記前景類似度を、前記第2種類の辺の重み値と特定するための第1特定サブユニットと、
前記第3種類の辺毎に、前記第3種類の辺と繋がれている画素頂点に対応する画素点の前記背景類似度を、前記第3種類の辺の重み値と特定するための第2特定サブユニットと、
前記第1種類の辺毎に、前記第1種類の辺と繋がれている二つの画素頂点に対応する二つの画素点の間の類似度を、前記第1種類の辺の重み値と特定するための第3特定サブユニットと
を備え、
前記無向グラフ中の画素頂点と前記画像中の各々の画素点とは1対1で対応する
ことを特徴とする請求項11に記載の画像分割装置。 - 前記第1生成モジュールは、
色の値が同一な画素点を一つの色種類に分類する方法によって、各々の画素点の色の値に基づいて前記画像中の各々の画素点を分類するための分類ユニットと、
前記各々の色種類の色の値に基づいて、前記顕著性モデルを生成するための第4生成ユニットと
を備えることを特徴とする請求項8乃至12のいずれか1項に記載の画像分割装置。 - 前記顕著性モデルは、
ここで、
w(Pj)は、色種類Pjの画素点の数であり、
DC(Pi,Pj)は、色種類Piと色種類Pjとの間の色の差異のメトリック値を表わすためのものである
ことを特徴とする請求項13に記載の画像分割装置。 - プロセッサと、
前記プロセッサが実行可能な命令を記憶するためのメモリと
を備え、
前記プロセッサは、
画像の顕著性モデルを生成し、
前記顕著性モデルに基づいて、前記画像中の前景サンプル点と背景サンプル点とを取得し、
前記顕著性モデル、前記前景サンプル点、及び前記背景サンプル点に基づいて、前景/背景分類モデルを生成し、
前記前景/背景分類モデル、及び画素点に関するエッジ情報に基づいて前記画像を分割するための所定のグラフカットアルゴリズムに従って、前記画像を分割する
ように構成され、
前記画像の顕著性モデルの生成は、
所定の過分割アルゴリズムに従って前記画像を過分割することにより、少なくとも一つの領域を取得し、
前記各々の領域の色の値と中心とを特定し、
各々の領域に対応する色の値、及び各々の領域の中心に基づいて、前記顕著性モデルを生成することを含み、
一つの前記領域中の各々の画素点の色の値は同一であり、
前記顕著性モデルは、
ここで、
S i1 は、領域R i 中のいずれか一つの画素点の前記顕著性の値であり、
w(R j )は、領域R j 中の画素点の数であり、
DS(R i ,R j )は、前記領域R i と前記領域R j との間の空間位置の差異のメトリック値を表わすものであり、
DC(R i ,R j )は、前記領域R i と前記領域R j との間の色の差異のメトリック値を表わすものであり、
Nは、前記画像を過分割した後に取得した領域の数の合計であり、
DS(R i ,R j )は、
Center(R i )は、前記領域R i の中心であり、
Center(R j )は、前記領域R j の中心であり、
前記画像中の各々の画素点の座標のすべてを、[0,1]に正規化すると、
ことを特徴とする画像分割装置。 - プロセッサに実行されることにより、請求項1から請求項7のいずれかに記載の画像分割方法を実現することを特徴とするプログラム。
- 請求項16に記載のプログラムが記録された記録媒体。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201410187226.7A CN103996189B (zh) | 2014-05-05 | 2014-05-05 | 图像分割方法及装置 |
CN201410187226.7 | 2014-05-05 | ||
PCT/CN2014/089297 WO2015169061A1 (zh) | 2014-05-05 | 2014-10-23 | 图像分割方法及装置 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2016522951A JP2016522951A (ja) | 2016-08-04 |
JP6125099B2 true JP6125099B2 (ja) | 2017-05-10 |
Family
ID=51310345
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2016517158A Active JP6125099B2 (ja) | 2014-05-05 | 2014-10-23 | 画像分割方法、画像分割装置、プログラム、及び記録媒体 |
Country Status (8)
Country | Link |
---|---|
EP (1) | EP2942753B1 (ja) |
JP (1) | JP6125099B2 (ja) |
KR (1) | KR101670004B1 (ja) |
CN (1) | CN103996189B (ja) |
BR (1) | BR112014032942A2 (ja) |
MX (1) | MX358601B (ja) |
RU (1) | RU2596580C2 (ja) |
WO (1) | WO2015169061A1 (ja) |
Families Citing this family (40)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN104217440B (zh) * | 2014-09-28 | 2017-03-01 | 民政部国家减灾中心 | 一种从遥感图像中提取建成区的方法 |
CN104809729B (zh) * | 2015-04-29 | 2018-08-28 | 山东大学 | 一种鲁棒的图像显著性区域自动分割方法 |
CN105069774B (zh) * | 2015-06-30 | 2017-11-10 | 长安大学 | 基于多示例学习与图割优化的目标分割方法 |
CN105353674B (zh) * | 2015-11-03 | 2018-04-13 | 浙江华奕生态建设有限公司 | 一种多功能生活污水处理集成控制系统及方法 |
CN105342769A (zh) * | 2015-11-20 | 2016-02-24 | 宁波大业产品造型艺术设计有限公司 | 智能电动轮椅 |
CN105395210A (zh) * | 2015-12-22 | 2016-03-16 | 管迪 | 一种ct扫描成像方法 |
CN105608717A (zh) * | 2015-12-22 | 2016-05-25 | 肖古华 | 一种ct系统和ct图像重建方法 |
CN105662488A (zh) * | 2016-01-12 | 2016-06-15 | 刘书强 | 一种断指探查台 |
CN105748105A (zh) * | 2016-01-18 | 2016-07-13 | 刘焕涛 | 一种乳腺检查系统 |
CN106650744B (zh) * | 2016-09-16 | 2019-08-09 | 北京航空航天大学 | 局部形状迁移指导的图像对象共分割方法 |
CN108073881A (zh) * | 2016-11-18 | 2018-05-25 | 北京体基科技有限公司 | 基于预定区域和临近像素识别手部区域的方法及装置 |
CN108073871A (zh) * | 2016-11-18 | 2018-05-25 | 北京体基科技有限公司 | 基于两种预定区域识别手部区域的方法及装置 |
CN106898001B (zh) * | 2017-01-04 | 2020-04-14 | 努比亚技术有限公司 | 一种实现交互式图像分割的方法、装置及终端 |
CN106934774B (zh) * | 2017-03-07 | 2019-11-29 | 李强 | 一种利用超声波治疗肛瘘的控制系统 |
CN107067030A (zh) * | 2017-03-29 | 2017-08-18 | 北京小米移动软件有限公司 | 相似图片检测的方法和装置 |
CN107451522A (zh) * | 2017-04-28 | 2017-12-08 | 山东省农业可持续发展研究所 | 一种农业干旱监测与预警预报方法 |
CN108960247B (zh) * | 2017-05-22 | 2022-02-25 | 阿里巴巴集团控股有限公司 | 图像显著性检测方法、装置以及电子设备 |
CN107273893A (zh) * | 2017-06-14 | 2017-10-20 | 武汉梦之蓝科技有限公司 | 一种智能城市绿化遥感调查的数据校正控制系统 |
CN107088028A (zh) * | 2017-06-29 | 2017-08-25 | 武汉洁美雅科技有限公司 | 一种智能新式干湿两用吸尘器机器人控制系统 |
CN107452003A (zh) * | 2017-06-30 | 2017-12-08 | 大圣科技股份有限公司 | 一种含有深度信息的图像分割的方法及装置 |
CN107573029A (zh) * | 2017-10-23 | 2018-01-12 | 福建泉州皓佳新材料有限公司 | 一种陶瓷废釉水制备的多彩艺术砖及其制备方法 |
CN107894252A (zh) * | 2017-11-14 | 2018-04-10 | 江苏科沃纺织有限公司 | 一种实时监测地埋伸缩式喷滴灌装置运行状态的监控系统 |
CN108764325B (zh) * | 2018-05-23 | 2022-07-08 | 腾讯科技(深圳)有限公司 | 图像识别方法、装置、计算机设备和存储介质 |
CN109035326A (zh) * | 2018-06-19 | 2018-12-18 | 北京理工大学 | 基于亚像素图像识别的高精度定位技术 |
CN109173263B (zh) * | 2018-08-31 | 2021-08-24 | 腾讯科技(深圳)有限公司 | 一种图像数据处理方法和装置 |
CN109168220A (zh) * | 2018-09-28 | 2019-01-08 | 湖北民族学院 | 一种提高青柚产量品质的光控方法及系统 |
JP6716765B1 (ja) * | 2018-12-28 | 2020-07-01 | キヤノン株式会社 | 画像処理装置、画像処理システム、画像処理方法、プログラム |
CN110111338B (zh) * | 2019-04-24 | 2023-03-31 | 广东技术师范大学 | 一种基于超像素时空显著性分割的视觉跟踪方法 |
CN110909724B (zh) * | 2019-10-08 | 2023-11-28 | 华北电力大学 | 一种多目标图像的缩略图生成方法 |
CN110853063B (zh) * | 2019-10-31 | 2023-04-07 | 广州方硅信息技术有限公司 | 图像分割信息的处理方法、装置、设备和存储介质 |
CN111539969B (zh) * | 2020-04-23 | 2023-06-09 | 武汉铁路职业技术学院 | 图像边缘检测方法、装置、计算机设备及存储介质 |
CN111597934A (zh) * | 2020-04-30 | 2020-08-28 | 重庆科技学院 | 用于为统计应用处理训练数据的系统和方法 |
CN111640129B (zh) * | 2020-05-25 | 2023-04-07 | 电子科技大学 | 一种应用于室内墙面施工机器人的视觉砂浆识别系统 |
CN111724396B (zh) * | 2020-06-17 | 2023-07-14 | 泰康保险集团股份有限公司 | 图像分割方法及装置、计算机可读存储介质、电子设备 |
CN112347975B (zh) * | 2020-11-23 | 2023-04-07 | 浙江华络通信设备有限公司 | 一种可视化融合通信调度系统及其实现方法 |
CN112634312B (zh) * | 2020-12-31 | 2023-02-24 | 上海商汤智能科技有限公司 | 图像背景处理方法、装置、电子设备及存储介质 |
CN112800915B (zh) * | 2021-01-20 | 2023-06-27 | 北京百度网讯科技有限公司 | 建筑物变化检测方法、装置、电子设备以及存储介质 |
CN114708464B (zh) * | 2022-06-01 | 2022-08-30 | 广东艺林绿化工程有限公司 | 一种基于道路垃圾分类的市政环卫清扫垃圾车清扫方法 |
CN115841490B (zh) * | 2023-02-23 | 2023-05-09 | 山东泗水山岭石材厂 | 基于图像处理的采矿过程矿石颗粒分割方法及系统 |
CN116721115A (zh) * | 2023-06-15 | 2023-09-08 | 小米汽车科技有限公司 | 金相组织获取方法、装置、存储介质及芯片 |
Family Cites Families (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
RU2121714C1 (ru) * | 1997-02-19 | 1998-11-10 | Закрытое акционерное общество "Медицинские компьютерные системы" | Способ автоматизированной сегментации изображения цитологического препарата |
US6704456B1 (en) * | 1999-09-02 | 2004-03-09 | Xerox Corporation | Automatic image segmentation in the presence of severe background bleeding |
DE602005026862D1 (de) * | 2004-12-21 | 2011-04-21 | Canon Kk | Segmentierung eines digitalen bildes und herstellung einer kompakten repräsentation |
JP2008042346A (ja) * | 2006-08-02 | 2008-02-21 | Canon Inc | 画像処理方法、画像処理装置 |
US7899248B2 (en) * | 2007-08-30 | 2011-03-01 | Seiko Epson Corporation | Fast segmentation of images |
US8009911B2 (en) * | 2007-08-30 | 2011-08-30 | Siemens Aktiengesellschaft | Interactive image segmentation on directed graphs |
JP5235770B2 (ja) * | 2009-04-27 | 2013-07-10 | 日本電信電話株式会社 | 顕著領域映像生成方法、顕著領域映像生成装置、プログラムおよび記録媒体 |
JP5464739B2 (ja) * | 2010-01-22 | 2014-04-09 | Kddi株式会社 | 画像領域分割装置、画像領域分割方法および画像領域分割プログラム |
RU2489752C2 (ru) * | 2011-08-15 | 2013-08-10 | Дмитрий Валерьевич Шмунк | Способ сегментации изображений |
JP2013077296A (ja) | 2011-09-14 | 2013-04-25 | Ricoh Co Ltd | 画像処理装置、画像処理方法およびプログラム |
CN102982545B (zh) * | 2012-11-22 | 2015-09-16 | 清华大学深圳研究生院 | 一种图像深度估计方法 |
CN103208123B (zh) * | 2013-04-19 | 2016-03-02 | 广东图图搜网络科技有限公司 | 图像分割方法与系统 |
-
2014
- 2014-05-05 CN CN201410187226.7A patent/CN103996189B/zh active Active
- 2014-10-23 KR KR1020147036180A patent/KR101670004B1/ko active IP Right Grant
- 2014-10-23 RU RU2014153987/08A patent/RU2596580C2/ru active
- 2014-10-23 WO PCT/CN2014/089297 patent/WO2015169061A1/zh active Application Filing
- 2014-10-23 BR BR112014032942A patent/BR112014032942A2/pt not_active IP Right Cessation
- 2014-10-23 JP JP2016517158A patent/JP6125099B2/ja active Active
- 2014-10-23 MX MX2014015363A patent/MX358601B/es active IP Right Grant
-
2015
- 2015-04-15 EP EP15163752.7A patent/EP2942753B1/en active Active
Also Published As
Publication number | Publication date |
---|---|
JP2016522951A (ja) | 2016-08-04 |
BR112014032942A2 (pt) | 2017-06-27 |
EP2942753B1 (en) | 2018-07-18 |
RU2014153987A (ru) | 2016-07-20 |
MX358601B (es) | 2018-08-27 |
MX2014015363A (es) | 2016-02-19 |
KR20160009477A (ko) | 2016-01-26 |
KR101670004B1 (ko) | 2016-10-27 |
WO2015169061A1 (zh) | 2015-11-12 |
EP2942753A1 (en) | 2015-11-11 |
CN103996189B (zh) | 2017-10-03 |
RU2596580C2 (ru) | 2016-09-10 |
CN103996189A (zh) | 2014-08-20 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6125099B2 (ja) | 画像分割方法、画像分割装置、プログラム、及び記録媒体 | |
CN106651955B (zh) | 图片中目标物的定位方法及装置 | |
WO2021051857A1 (zh) | 目标对象匹配方法及装置、电子设备和存储介质 | |
WO2021051650A1 (zh) | 人脸和人手关联检测方法及装置、电子设备和存储介质 | |
JP6134446B2 (ja) | 画像分割方法、画像分割装置、画像分割デバイス、プログラム及び記録媒体 | |
WO2020134866A1 (zh) | 关键点检测方法及装置、电子设备和存储介质 | |
WO2020135529A1 (zh) | 位姿估计方法及装置、电子设备和存储介质 | |
US10007841B2 (en) | Human face recognition method, apparatus and terminal | |
WO2020007241A1 (zh) | 图像处理方法和装置、电子设备以及计算机可读存储介质 | |
KR101727169B1 (ko) | 이미지 필터를 생성하기 위한 방법 및 장치 | |
US9633444B2 (en) | Method and device for image segmentation | |
CN110443366B (zh) | 神经网络的优化方法及装置、目标检测方法及装置 | |
CN105631803B (zh) | 滤镜处理的方法和装置 | |
CN111461182B (zh) | 图像处理方法、图像处理装置及存储介质 | |
CN113065591B (zh) | 目标检测方法及装置、电子设备和存储介质 | |
CN106648063B (zh) | 手势识别方法及装置 | |
JP6170626B2 (ja) | 構図変更方法、構図変更装置、端末、プログラム及び記録媒体 | |
US20220222831A1 (en) | Method for processing images and electronic device therefor | |
CN109784327B (zh) | 边界框确定方法、装置、电子设备及存储介质 | |
CN106534951A (zh) | 视频分割方法和装置 | |
KR20210054522A (ko) | 얼굴 인식 방법 및 장치, 전자 기기 및 저장 매체 | |
WO2023155393A1 (zh) | 特征点匹配方法、装置、电子设备、存储介质和计算机程序产品 | |
CN107992893B (zh) | 压缩图像特征空间的方法及装置 | |
CN107609599B (zh) | 特征识别方法及装置 | |
US20150262033A1 (en) | Method and terminal device for clustering |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20160726 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20161024 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20170314 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20170404 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6125099 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |