JP6125099B2 - 画像分割方法、画像分割装置、プログラム、及び記録媒体 - Google Patents

画像分割方法、画像分割装置、プログラム、及び記録媒体 Download PDF

Info

Publication number
JP6125099B2
JP6125099B2 JP2016517158A JP2016517158A JP6125099B2 JP 6125099 B2 JP6125099 B2 JP 6125099B2 JP 2016517158 A JP2016517158 A JP 2016517158A JP 2016517158 A JP2016517158 A JP 2016517158A JP 6125099 B2 JP6125099 B2 JP 6125099B2
Authority
JP
Japan
Prior art keywords
foreground
image
background
pixel
saliency
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2016517158A
Other languages
English (en)
Other versions
JP2016522951A (ja
Inventor
リン ワン
リン ワン
チィウピン チン
チィウピン チン
ジジュン チェン
ジジュン チェン
Original Assignee
シャオミ・インコーポレイテッド
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by シャオミ・インコーポレイテッド filed Critical シャオミ・インコーポレイテッド
Publication of JP2016522951A publication Critical patent/JP2016522951A/ja
Application granted granted Critical
Publication of JP6125099B2 publication Critical patent/JP6125099B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/162Segmentation; Edge detection involving graph-based methods
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment
    • H04N5/262Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/194Segmentation; Edge detection involving foreground-background segmentation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment
    • H04N5/262Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
    • H04N5/2624Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects for obtaining an image which is composed of whole input images, e.g. splitscreen
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment
    • H04N5/262Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
    • H04N5/2625Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects for obtaining an image which is composed of images from a temporal image sequence, e.g. for a stroboscopic effect
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment
    • H04N5/262Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
    • H04N5/2625Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects for obtaining an image which is composed of images from a temporal image sequence, e.g. for a stroboscopic effect
    • H04N5/2627Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects for obtaining an image which is composed of images from a temporal image sequence, e.g. for a stroboscopic effect for providing spin image effect, 3D stop motion effect or temporal freeze effect
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment
    • H04N5/262Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
    • H04N5/272Means for inserting a foreground image in a background image, i.e. inlay, outlay
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10024Color image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20076Probabilistic image processing

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Image Analysis (AREA)
  • Character Input (AREA)
  • Image Processing (AREA)

Description

本発明は、画像処理分野に関し、特に、画像分割方法画像分割装置、プログラム、及び記録媒体に関する。
画像分割技術は、画像分析、画像編集、画像合成等の分野の基礎的な技術である。画像分割技術によると、画像から前景と背景とを分割し得ることができる。画像分割技術では、どのようにして、高速、且つ自動的に、画像から前景と背景とを分割するかが、現在の研究の重要な課題の一つである。
関連する画像分割方法において、まず、ユーザにより手動で選定された画像中の前景サンプル点と背景サンプル点とを取得し、次に、ユーザにより手動で選定された前景サンプル点に基づいて前景色と背景色の尤度モデル(Likelihood model)を生成し、最後に、前景色と背景色の尤度モデルに基づいて画像を分割して、分割後の前景と背景を得る。
発明者は、本発明を実現する過程において、関連技術には少なくとも以下の欠陥が存在することを発見した。即ち、従来の画像分割方法においては、ユーザにより手動でおおよその前景サンプル点と背景サンプル点とを選定することが必要であるため、多数の画像に対して分割を行う場合に、分割効率が比較的低くなる。
本発明では、関連技術において、必ず、ユーザにより手動でおおよその前景サンプル点と背景サンプル点と選定する必要があることから、多数の画像に対して分割を行う場合に、分割効率が比較的低くなるという問題を解决する、画像分割方法画像分割装置、プログラム、及び記録媒体を提供する。この課題を解決するための構成は以下のとおりである。
本発明に係る実施例の第1の態様によると、画像分割方法を提供する。当該方法は、
画像の顕著性モデルを生成するステップと、
前記顕著性モデルに基づいて、前記画像中の前景サンプル点と背景サンプル点とを取得するステップと、
前記顕著性モデル、前記前景サンプル点、及び前記背景サンプル点に基づいて、前景/背景分類モデルを生成するステップと、
前記前景/背景分類モデル、及び画素点に関するエッジ情報に基づいて前記画像を分割するための所定のグラフカットアルゴリズムに従って、前記画像を分割するステップと
を含む。
オプションとして、
前記顕著性モデルに基づいて、前記画像中の前景サンプル点と背景サンプル点とを取得するステップは、
前記顕著性モデルに基づいて、前記画像中の各々の画素点の顕著性の値を算出するステップと、
前記各々の画素点の顕著性の値を正規化するステップと、
前記正規化後の顕著性の値が所定の前景閾値より大きい画素点を、前記前景サンプル点と特定するステップと、
前記正規化後の顕著性の値が所定の背景閾値より小さい画素点を、前記背景サンプル点と特定するステップとを含み、
前記所定の前景閾値は前記所定の背景閾値より大きく、前記正規化後の各々の顕著性の値はすべて(0、1)の範囲内である。
オプションとして、
前記前景/背景分類モデルは、前景分類モデルと背景分類モデルとを含み、
前記顕著性モデル、前記前景サンプル点、及び前記背景サンプル点に基づいて、前景/背景分類モデルを生成するステップは、
前記前景サンプル点に基づいて、前景色の尤度モデルを生成するステップと、
前記背景サンプル点に基づいて、背景色の尤度モデルを生成するステップと、
前記顕著性モデルと前記前景色の尤度モデルとを乗算することにより、画素点が前景である確率を表わすための、前記前景分類モデルを取得するステップと、
前記顕著性モデルと前記背景色の尤度モデルとを乗算することにより、画素点が背景である確率を表わすための、前記背景分類モデルを取得するステップと
を含む。
オプションとして、
前記所定のグラフカットアルゴリズムに従って、前記画像を分割するステップは、
前記前景分類モデルを用いて、前記画像中の各々の画素点の前景類似度を算出するステップと、
前記背景分類モデルを用いて、前記画像中の各々の画素点の背景類似度を算出するステップと、
前記画像中の隣接する画素点間の類似度を取得するステップと、
前記各々の画素点の前景類似度、前記各々の画素点の背景類似度、及び前記隣接する画素点間の類似度を用いて、前記所定のグラフカットアルゴリズムに必要な無向グラフを構築するステップと、
前記所定のグラフカットアルゴリズムに従って前記無向グラフを分割して、前記画像に対する分割を完了するステップと
を含む。
オプションとして、
前記各々の画素点の前景類似度、前記各々の画素点の背景類似度、及び前記隣接する画素点間の類似度を用いて、前記所定のグラフカットアルゴリズムに必要な無向グラフを構築するステップは、
前景頂点と背景頂点と少なくとも一つの画素頂点と隣接する画素頂点との間の第1種類の辺と、前記画素頂点と前記前景頂点との間の第2種類の辺と、前記画素頂点と前記背景頂点との間の第3種類の辺と、が含まれている無向グラフであって、前記所定のグラフカットアルゴリズムに必要な無向グラフを構築するステップと、
前記第2種類の辺毎に、前記第2種類の辺と繋がれている画素頂点に対応する画素点の前記前景類似度を、前記第2種類の辺の重み値と特定するステップと、
前記第3種類の辺毎に、前記第3種類の辺と繋がれている画素頂点に対応する画素点の前記背景類似度を、前記第3種類の辺の重み値と特定するステップと、
前記第1種類の辺毎に、前記第1種類の辺と繋がれている二つの画素頂点に対応する二つの画素点の間の類似度を、前記第1種類の辺の重み値と特定するステップと
を含み、
前記無向グラフ中の画素頂点と前記画像中の各々の画素点とは1対1で対応する。
オプションとして、
前記画像の顕著性モデルを生成するステップは、
所定の過分割アルゴリズムに従って前記画像を過分割することにより、少なくとも一つの領域を取得するステップと、
前記各々の領域の色の値と中心とを特定するステップと、
各々の領域に対応する色の値、及び各々の領域の中心に基づいて、前記顕著性モデルを生成するステップと
を含み、
一つの前記領域中の各々の画素点の色の値は同一である。
オプションとして、
前記顕著性モデルは、
であり、
ここで、
i1は、領域R中のいずれか一つの画素点の前記顕著性の値であり、
w(R)は、領域R中の画素点の数であり、
(R,R)は、前記領域Rと前記領域Rとの間の空間位置の差異のメトリック値を表わすめのものであり、
(R,R)は、前記領域Rと前記領域Rとの間の色の差異のメトリック値を表わすめのものであり、
Nは、前記画像を過分割した後に取得した領域の数の合計であり、
(R,R)は、
であり、
Center(R)は、前記領域Rの中心であり、
Center(R)は、前記領域Rの中心であり、
前記画像中の各々の画素点の座標のすべてを、[0,1]に正規化すると、
になる。
オプションとして、
前記画像の顕著性モデルを生成するステップは、
色の値が同一な画素点を一つの色種類に分類する方法によって、各々の画素点の色の値に基づいて前記画像中の各々の画素点を分類するステップと、
前記各々の色種類の色の値に基づいて、前記顕著性モデルを生成するステップと
を含む。
オプションとして、
前記顕著性モデルは、
であり、
ここで、
w(P)は、色種類Pの画素点の数であり、
(P,P)は、色種類Pと色種類Pとの間の色の差異のメトリック値を表わすためのものである。
本発明に係る実施例の第2の態様によると、画像分割装置を提供する。当該画像分割装置は、
画像の顕著性モデルを生成するための第1生成モジュールと、
前記顕著性モデルに基づいて、前記画像中の前景サンプル点と背景サンプル点とを取得するためのサンプル取得モジュールと、
前記第1生成モジュールが生成した顕著性モデル、及び前記サンプル取得モジュールが取得した前景サンプル点と前記背景サンプル点に基づいて、前景/背景分類モデルを生成するための第2生成モジュールと、
前記第2生成モジュールが生成した前景/背景分類モデル、及び画素点に関するエッジ情報に基づいて前記画像を分割するための所定のグラフカットアルゴリズムに従って、前記画像を分割するための画像分割モジュールと
を備える。
オプションとして、
前記サンプル取得モジュールは、
前記顕著性モデルに基づいて、前記画像中の各々の画素点の顕著性の値を算出するための第1算出ユニットと、
前記算出ユニットが算出した各々の画素点の顕著性の値を正規化するための正規化ユニットと、
前記正規化ユニットによって正規化後の顕著性の値が所定の前景閾値より大きい画素点を、前記前景サンプル点と特定するための第1特定ユニットと、
前記正規化ユニットによって正規化後の顕著性の値が所定の背景閾値より小さい画素点を、前記背景サンプル点と特定するための第2特定ユニットと
を備え、
前記所定の前景閾値は前記所定の背景閾値より大きく、前記正規化後の各々の顕著性の値はすべて(0、1)の範囲内である。
オプションとして、
前記前景/背景分類モデルは、前景分類モデルと背景分類モデルとを含み、
前記第2生成モジュールは、
前記前景サンプル点に基づいて、前景色の尤度モデルを生成するための第1生成ユニットと、
前記背景サンプル点に基づいて、背景色の尤度モデルを生成するための第2生成ユニットと、
前記第1生成モジュールが生成した顕著性モデルと前記第1生成ユニットが生成した前景色の尤度モデルとを乗算して、画素点が前景である確率を表わすための、前記前景分類モデルを取得するための第1乗算ユニットと、
前記第1生成モジュールが生成した顕著性モデルと前記第2生成ユニットが生成した背景色の尤度モデルとを乗算して、画素点が背景である確率を表わすための、前記背景分類モデルを取得するための第2乗算ユニットと
を備える。
オプションとして、
前記画像分割モジュールは、
前記前景分類モデルを用いて、前記画像中の各々の画素点の前景類似度を算出するための第2算出ユニットと、
前記背景分類モデルを用いて、前記画像中の各々の画素点の背景類似度を算出するための第3算出ユニットと、
前記画像中の隣接する画素点間の類似度を取得するための取得ユニットと、
前記各々の画素点の前景類似度、前記各々の画素点の背景類似度、及び前記隣接する画素点間の類似度を用いて、前記所定のグラフカットアルゴリズムに必要な無向グラフを構築するための構築ユニットと、
前記所定のグラフカットアルゴリズムに従って前記無向グラフを分割して、前記画像に対する分割を完了するための第1分割ユニットと
を備える。
オプションとして、
前記構築ユニットは、
前景頂点と背景頂点と少なくとも一つの画素頂点と隣接する画素頂点との間の第1種類の辺と、前記画素頂点と前記前景頂点との間の第2種類の辺と、前記画素頂点と前記背景頂点との間の第3種類の辺と、が含まれている無向グラフであって、前記所定のグラフカットアルゴリズムに必要な無向グラフを構築するための構築サブユニットと、
前記第2種類の辺毎に、前記第2種類の辺と繋がれている画素頂点に対応する画素点の前記前景類似度を、前記第2種類の辺の重み値と特定するための第1特定サブユニットと、
前記第3種類の辺毎に、前記第3種類の辺と繋がれている画素頂点に対応する画素点の前記背景類似度を、前記第3種類の辺の重み値と特定するための第2特定サブユニットと、
前記第1種類の辺毎に、前記第1種類の辺と繋がれている二つの画素頂点に対応する二つの画素点の間の類似度を、前記第1種類の辺の重み値と特定するための第3特定サブユニットと
を備え、
前記無向グラフ中の画素頂点と前記画像中の各々の画素点とは1対1で対応する。
オプションとして、
前記第1生成モジュールは、
所定の過分割アルゴリズムに従って前記画像を過分割することにより、少なくとも一つの領域を取得するための第2分割ユニットと、
前記各々の領域の色の値と中心とを特定するための第4特定ユニットと、
各々の領域に対応する色の値、及び各々の領域の中心に基づいて、前記顕著性モデルを生成するための第3生成ユニットと
を備え、
一つの前記領域中の各々の画素点の色の値は同一である。
オプションとして、
前記顕著性モデルは、
であり、
ここで、
i1は、領域R中のいずれか一つの画素点の前記顕著性の値であり、
w(R)は、領域R中の画素点の数であり、
(R,R)は、前記領域Rと前記領域Rとの間の空間位置の差異のメトリック値を表わすめのものであり、
(R,R)は、前記領域Rと前記領域Rとの間の色の差異のメトリック値を表わすめのものであり、
Nは、前記画像を過分割した後に取得した領域の数の合計であり、
(R,R)は、
であり、
Center(R)は、前記領域Rの中心であり、
Center(R)は、前記領域Rの中心であり、
前記画像中の各々の画素点の座標のすべてを、[0,1]に正規化すると、
になる。
オプションとして、
前記第1生成モジュールは、
色の値が同一な画素点を一つの色種類に分類する方法によって、各々の画素点の色の値に基づいて前記画像中の各々の画素点を分類するための分類ユニットと、
前記各々の色種類の色の値に基づいて、前記顕著性モデルを生成するための第4生成ユニットとを備える。
オプションとして、
前記顕著性モデルは、
であり、
ここで、
w(P)は、色種類Pの画素点の数であり、
(P,P)は、色種類Pと色種類Pとの間の色の差異のメトリック値を表わすためのものである。
本発明に係る実施例の第3の態様によると、画像分割装置を提供する。
当該画像分割装置は、
プロセッサと、
前記プロセッサが実行可能な命令を記憶するためのメモリと
を備え、
前記プロセッサは、
画像の顕著性モデルを生成するステップと、
前記顕著性モデルに基づいて、前記画像中の前景サンプル点と背景サンプル点とを取得し、
前記顕著性モデル、前記前景サンプル点、及び前記背景サンプル点に基づいて、前景/背景分類モデルを生成し、
前記前景/背景分類モデル、及び画素点に関するエッジ情報に基づいて前記画像を分割するための所定のグラフカットアルゴリズムに従って、前記画像を分割するように構成される。
本発明にかかる実施例の第4の態様によると、プロセッサに実行されることにより、上記の画像分割方法を実現するプログラムを提供する。
本発明にかかる実施例の第5の態様によると、上記プログラムが記録された記録媒体を提供する。
本発明の実施例が提供する技術方案の有益な効果は以下のとおりである。
前景サンプル点と背景サンプル点とを自動的に特定し、顕著性モデル及び前景サンプル点と背景サンプル点を利用して前景/背景分類モデルを生成し、当該前景/背景分類モデルを用いて画像の分割を実現することにより、関連技術でのユーザにより手動でおおよその前景サンプル点と背景サンプル点とを選定することが必要であるため、多数の画像に対して分割を行う場合に分割効率が比較的低くなる問題を解決した。前景サンプル点と背景サンプル点を自動的に取得でき、且つ、前景/背景分類モデルを生成する際にさらに公知の顕著性モデルも用いたため、サンプル選択の自動化を実現でき、分類精度を改善する効果を得ることができる。
以上の概要の説明と以下の詳細な説明は、ただ例示的なものであり、本発明を制限するものではないと、理解するべきである。
ここでの図面は、明細書に組み込まれて本明細書の一部を構成し、本発明を構成する実施例を示し、明細書とともに本発明の原理の説明に用いられる。
図1は、例示的な一実施例に係る画像分割方法を示すフローチャートである。 図2Aは、例示的なもう一実施例に係る画像分割方法を示すフローチャートである。 図2Bは、例示的な一実施例に係る画像の顕著性モデルを生成する方法を示すフローチャートである。 図2Cは、例示的なもう一実施例に係る画像の顕著性モデルを生成する方法を示すフローチャートである。 図2Dは、例示的な一実施例に係る無向グラフを構築する方法を示すフローチャートである。 図2Eは、例示的な一実施例に係る無向グラフを示す模式図である。 図3は、例示的な一実施例に係る画像分割装置を示すブロック図である。 図4は、例示的なもう一実施例に係る画像分割装置を示すブロック図である。 図5は、例示的なさらにもう一実施例に係る画像分割装置を示すブロック図である。
本発明の目的、技術的特徴及び利点をさらに明確にするために、以下、図面を参照しながら本発明の実施例をさらに詳しく説明する。もちろん、説明する実施例はただ本発明のいくつかの実施例に過ぎず、全部の実施例ではない。本技術分野の当業者が本発明の実施例に基づき創造的労働を実施しない状況で獲得した他の全部の実施例は本発明の範囲に属する。
まず、本発明の各実施例において言及される電子機器は、携帯電話(スマートフォン)、タブレット端末、スマートテレビ、電子ブックリーダー、MP3(Moving Picture Experts Group Audio Layer III)プレーヤー、MP4(Moving Picture Experts Group Audio Layer IV)プレーヤー、ポータブルコンピュータ、デスクトップコンピュータ等であってもよい。
図1は、例示的な一実施例に係る画像分割方法のフローチャートである。図1に示したように、当該画像分割方法は、電子機器に適用できる。当該画像分割方法は、以下のステップを含む。
ステップ101において、画像の顕著性モデル(saliency model)を生成する。
ステップ102において、顕著性モデルに基づいて、画像中の前景サンプル点と背景サンプル点とを取得する。
ステップ103において、顕著性モデル、前景サンプル点及び背景サンプル点に基づいて、前景/背景分類モデルを生成する。
ステップ104において、前景/背景分類モデル及び画素点に関するエッジ情報を用いて画像を分割するための所定のグラフカットアルゴリズム(graph cut algorithm)に従って、画像を分割する。
上記のように、本発明に係る実施例によって提供する画像分割方法によると、前景サンプル点と背景サンプル点とを自動的に特定し、顕著性モデル及び前景サンプル点と背景サンプル点を利用して前景/背景分類モデルを生成し、当該前景/背景分類モデルを用いて画像の分割を実現することにより、関連技術でのユーザにより手動でおおよその前景サンプル点と背景サンプル点とを選定することが必要であるため、多数の画像に対して分割を行う場合に分割効率が比較的低くなる問題を解決した。前景サンプル点と背景サンプル点を自動的に取得でき、且つ、前景/背景分類モデルを生成する際にさらに公知の顕著性モデルも用いたため、サンプル選択の自動化を実現でき、分類精度を改善する効果を得ることができる。
図2Aは、例示的なもう一実施例に係る画像分割方法のフローチャートである。図2Aに示したように、当該画像分割方法は、電子機器に適用できる。当該画像分割方法は、以下のステップを含む。
ステップ201において、画像の顕著性モデルを生成する。
実際に適用する際には、様々な方法に従って、画像の顕著性モデルを生成できる。具体的には、以下のとおりである。
第1の方法は、図2Bのとおりである。当該図2Bは、例示的な一実施例に係る画像の顕著性モデルを生成する方法のフローチャートである。当該方法は、以下のステップを含む。
ステップ201aにおいて、所定の過分割アルゴリズム(over−segmentation algorithm)に従って、画像を過分割することにより、少なくとも一つの領域を取得する。一つの領域中の各々の画素点の色の値は同一である。
画像を過分割する処理は、画像を多数の領域に分割する処理である。各々の領域の中の画素点は、ある一つの特徴が同一である。例えば、過分割後のある一つの領域中の各々の画素点の色の値は同一である。或は、過分割後のある一つの領域中の各々の画素点の色の値は非常に近似する。
ここで採用する過分割アルゴリズムは、平均値シフト(Mean shift)に基づく過分割アルゴリズムである。実際に適用する際には、さらに、その他の様々な過分割アルゴリズムを採用してもよい。例えば、分水嶺(watershed)に基づく過分割アルゴリズム、ウルトラピクセルクラスタリング(ultra pixel clustering)に基づく過分割アルゴリズム等を採用してもよい、本実施例においては、過分割アルゴリズムに対して制限しない。
ステップ201bにおいて、各々の領域の色の値と中心とを特定する。
過分割後の領域中の各々の画素点は同一な色の値を有するため、当該領域の色の値を特定できる。また、領域毎に、領域に対応する中心を算出できる。
ステップ201cにおいて、各々の領域に対応する色の値、及び各々の領域の中心に基づいて、顕著性モデルを生成する。
ステップ201a、ステップ201b、及びステップ201cによって生成した顕著性モデルは以下のとおりである。
即ち、
であり、
ここで、
i1は、領域R中のいずれか一つの画素点の顕著性の値であり、
w(R)は、領域R中の画素点の数であり、
(R,R)は、前記領域Rと前記領域Rとの間の空間位置の差異のメトリック値を表わすめのものであり、
(R,R)は、前記領域Rと前記領域Rとの間の色の差異のメトリック値を表わすめのものであり、
Nは、前記画像を過分割した後に取得した領域の数の合計であり、
(R,R)は、
であり、
Center(R)は、前記領域Rの中心であり、
Center(R)は、前記領域Rの中心であり、
前記画像中の各々の画素点の座標のすべてを、[0,1]に正規化すると、
になる。
領域Rの色の値の平均値と領域Rの色の値の平均値との間のユークリッド距離によって、D(R,R)を表わすことができる。領域の色の値の平均値は、当該領域中の各々の画素点の色の値を加算した後に当該領域中の画素点の数で割り算して得た値である。理想的には、領域中の各々の画素点の色の値はすべて同一である。この場合、当該領域の色の値は、その中の一つの画素点の色の値である。しかし、実際に適用する際には、一つの領域中の各々の画素点の色の値は完全に同一ではない。一般的に、各々の画素点の色の値は比較的近似する。この場合には、当該領域中の各々の画素点の色の値を加算した後に当該領域中の画素点の数で割り算して、当該領域の色の値の平均値を取得できる。
当該顕著性モデルの構成から分かるように、当該顕著性モデルは、各々の領域中の画素点の顕著性の値が画像中の他の各々の領域の影響を受けることを表わすことができる。
第2の方法は、図2Cのとおりである。当該図2Cは、例示的なもう一実施例に係る画像の顕著性モデルを生成する方法のフローチャートである。当該方法は、以下のステップを含む。
ステップ201dにおいて、色の値が同一な画素点を一つの色種類(color type)に分類する方法によって、各々の画素点の色の値に基づいて画像中の各々の画素点を分類する。
実際に適用する際には、画素点を格納するための色の値に対応するストレージスペース(例えば、ストレージキュー、ストレージスタック等)を設定してもよい。ストレージスペースの数は、256*256*256個であってもよい。画像中の画素点を順番に読み込んで、当該画素点を当該画素点の色の値に対応するストレージスペース中に入れると、各々のストレージスペース中に格納した各々の画素点の色の値はすべて同一である。
当該画像中の各々の画素点を全部読み込んだ後に、各々のストレージスペース中に格納された画素点の数の統計をとる。
ステップ201eにおいて、各々の色種類の色の値に基づいて、顕著性モデルを生成する。
各々の色種類の色の値に基づいて、生成して得た顕著性モデルは、以下のとおりである。
即ち、
であり、
ここで、
w(P)は、色種類Pの画素点の数であり、
(P,P)は、色種類Pと色種類Pとの間の色の差異のメトリック値を表わすためのものである。
実際に適用する際には、ステップ201dによって画像中の画素点を分類した後、一つの色種類に対応する画素点の数は非常に少ない可能性があり、これら画素点の色がその他の画素点の色の顕著性の値に与える影響はあまり大きくないため、実現可能な一形態において、演算負荷を減らすために、画素点のより多い色に対応する色種類を選択して、顕著性モデルを生成してもよい。
ステップ202において、顕著性モデルに基づいて、画像中の各々の画素点の顕著性の値を算出する。
ステップ203において、各々の画素点の顕著性の値を正規化させる。
一般的に、各々の画素点の顕著性の値を(0、1)の範囲内に正規化させてもよい。
ステップ204において、正規化後の顕著性の値が所定の前景閾値より大きい画素点を、前景サンプル点と特定する。
各々の画素点の顕著性の値を(0、1)の範囲内に正規化させる際に、実際の状況によって所定の前景閾値を設定してもよい。例えば、当該所定の前景閾値を0.8に設定してもよい。
ステップ205において、正規化後の顕著性の値が所定の背景閾値より小さい画素点を、背景サンプル点と特定する。
各々の画素点の顕著性の値を(0、1)の範囲内に正規化させる際に、実際の状況によって所定の前景閾値を設定してもよい。例えば、当該所定の前景閾値を0.25に設定してもよい。
一般的には、所定の前景閾値は所定の背景閾値より大きい。
このようにすると、生成した顕著性モデルを用いて、前景サンプル点と背景サンプル点とを自動的と特定できる。
ステップ206において、前景サンプル点に基づいて前景色の尤度モデル(likelihood model)を生成する。
実際に適用する際には、色の尤度モデルを生成する方式はより多い。例えば、ヒストグラム統計に基づく数学モデリング方法によって色の尤度モデルを生成してもよい。さらに、ガウス混合モデル(Gaussian Mixture Model)に基づいて色の尤度モデルを生成してもよい。色の尤度モデルを生成する際に利用したサンプル点が前景サンプル点である場合、取得した色の尤度モデルを前景色の尤度モデルと特定する。
ステップ207において、背景サンプル点に基づいて背景色の尤度モデルを生成する。
同様に、ヒストグラム統計に基づく数学モデリング方法によって色の尤度モデルを生成してもよい。さらに、ガウス混合モデル(Gaussian Mixture Model)に基づいて色の尤度モデルを生成してもよい。色の尤度モデルを生成する際に利用したサンプル点が背景サンプル点である場合、取得した色の尤度モデルを背景色の尤度モデルと特定する。
ステップ208において、顕著性モデルと前景色の尤度モデルを乗算して、画素点が前景である確率を表わすための前景分類モデルを取得する。
画像に対して前景分割を行う際の精度を改善するために、公知の顕著性モデル及び拡張された前景色の尤度モデルを結合して、前景分類モデルを取得してもよい。例えば、顕著性モデルと前景色の尤度モデルを乗算して、前景分類モデルを取得してもよい。
ステップ209において、顕著性モデルと背景色の尤度モデルを乗算して、画素点が背景である確率を表わすための背景分類モデルを取得する。
同様に、画像に対して背景分割を行う際の精度を改善するために、公知の顕著性モデル及び拡張された背景色の尤度モデルを結合して、背景分類モデルを取得してもよい。例えば、顕著性モデルと背景色の尤度モデルを乗算して、背景分類モデルを取得してもよい。
ステップ210において、前景分類モデルを用いて画像中の各々の画素点の前景類似度を算出する。
前景分類モデルは、画素点が前景である確率を表わすことができ、即ち、当該画素点の前景との類似度を表わすことができるため、前景分類モデルを用いて、画像中の各々の画素点の前景類似度を直接算出してもよい。
ステップ211において、背景分類モデルを用いて画像中の各々の画素点の背景類似度を算出する。
同様に、背景分類モデルは、画素点が背景である確率を表わすことができ、即ち、当該画素点の背景との類似度を表わすことができるため、背景分類モデルを用いて、画像中の各々の画素点の背景類似度を直接算出してもよい。
ステップ212において、画像中の隣接する画素点間の類似度を取得する。
ステップ213において、各々の画素点の前景類似度、各々の画素点の背景類似度、及び隣接する画素点間の類似度を用いて、所定のグラフカットアルゴリズムに必要な無向グラフを構築する。
図2Dは、例示的な一実施例に係る無向グラフを構築する方法のフローチャートである。各々の画素点の前景類似度、各々の画素点の背景類似度、及び隣接する画素点間の類似度を用いて、所定のグラフカットアルゴリズムに必要な無向グラフを構築するステップは、以下のステップを含んでもよい。
ステップ213aにおいて、前景頂点と背景頂点と少なくとも一つの画素頂点と隣接する画素頂点との間の第1種類の辺と、画素頂点と前景頂点との間の第2種類の辺と、画素頂点と背景頂点との間の第3種類の辺と、が含まれている無向グラフであって、所定のグラフカットアルゴリズムに必要な無向グラフを構築する。無向グラフ中の画素頂点と画像中の各々の画素点は1対1で対応する。
無向グラフ中の画素頂点は、画像中の各々の画素点に対してマッピングを行うことにより取得したものである。即ち、画像中に含まれている画素点の数は、構築した無向グラフ中の画素頂点の数と同一であり、且つ、画素点毎に一つの画素頂点が対応しており、画素頂点毎に一つの画素点が対応している。
図2Eは、例示的な一実施例に係る無向グラフの模式図である。当該無向グラフは画素頂点を含み、これら画素頂点は画像中の画素点と1対1で対応する。説明の簡略化のために、ここでは、9個の画素頂点のみ示している。当該無向グラフは、前景頂点Sと背景頂点Tをさらに含む。ここで、画素頂点同士の間には第1種類の辺s1が繋がれており、前景頂点Sといずれか一つの画素頂点の間には第2種類の辺s2が繋がれており、背景頂点Tといずれか一つの画素頂点の間には第3種類の辺s3が繋がれている。
ステップ213bにおいて、第2種類の辺毎に、第2種類の辺に繋がれている画素頂点に対応する画素点の前景類似度を、第2種類の辺の重み値と特定する。
例えば、一つの選定された画素頂点に対して、当該画素頂点に対応する画素点を特定できる。当該画素点の前景類似度を、当該画素頂点と前景頂点の間の第2種類の辺の重み値とする。
ステップ213cにおいて、第3種類の辺毎に、第3種類の辺に繋がれている画素頂点に対応する画素点の背景類似度を、第3種類の辺の重み値と特定する。
例えば、一つの選定の画素頂点に対して、当該画素頂点に対応する画素点を特定できる。当該画素点の背景類似度を、当該画素頂点と背景頂点の間の第3種類の辺の重み値とする。
ステップ213dにおいて、第1種類の辺毎に、第1種類の辺に繋がれている二つの画素頂点に対応する二つの画素点の間の類似度を、第1種類の辺の重み値と特定する。
ステップ214において、所定のグラフカットアルゴリズムに従って無向グラフを分割して、画像の分割を完了する。
所定のグラフカットアルゴリズムは、上記のステップ213にて構築した無向グラフを用いて画像を分割するように構成されたグラフカットアルゴリズムでよい。グラフカットアルゴリズムに従って無向グラフを分割する方法は、本技術分野の当業者にとっては実現できるものであるため、ここでは詳細な説明を省略する。
上記のように、本発明に係る実施例によって提供する画像分割方法によると、前景サンプル点と背景サンプル点とを自動的に特定し、顕著性モデル及び前景サンプル点と背景サンプル点を利用して前景/背景分類モデルを生成し、当該前景/背景分類モデルを用いて画像の分割を実現することにより、関連技術でのユーザにより手動でおおよその前景サンプル点と背景サンプル点とを選定することが必要であるため、多数の画像に対して分割を行う場合に分割効率が比較的低くなる問題を解決した。前景サンプル点と背景サンプル点を自動的に取得でき、且つ、前景/背景分類モデルを生成する際にさらに公知の顕著性モデルも用いたため、サンプル選択の自動化を実現でき、分類精度を改善する効果を得ることができる。
以下は、本発明の装置の実施例であり、本発明の方法の実施例を実行することができる。本発明の装置の実施例において記述していない細部内容に対しては、本発明の方法の実施例を参照することができる。
図3は、例示的な一実施例に係る画像分割装置のブロック図である。図3に示したように、当該画像分割装置は、電子機器に適用できる。当該画像分割装置は、第1生成モジュール302、サンプル取得モジュール304、第2生成モジュール306、及び画像分割モジュール308を含むが、これらに制限されない。
当該第1生成モジュール302は、画像の顕著性モデルを生成する。
当該サンプル取得モジュール304は、顕著性モデルに基づいて画像中の前景サンプル点と背景サンプル点とを取得する。
当該第2生成モジュール306は、第1生成モジュールが生成した顕著性モデル、及びサンプル取得モジュールが取得した前景サンプル点と背景サンプル点とに基づいて、前景/背景分類モデルを生成する。
当該画像分割モジュール308は、第2生成モジュールが生成した前景/背景分類モデル、及び画素点に関するエッジ情報を用いて画像を分割するための所定のグラフカットアルゴリズムに従って、画像を分割する。
上記のように、本発明に係る実施例によって提供する画像分割装置によると、前景サンプル点と背景サンプル点とを自動的に特定し、顕著性モデル及び前景サンプル点と背景サンプル点を利用して前景/背景分類モデルを生成し、当該前景/背景分類モデルを用いて画像の分割を実現することにより、関連技術でのユーザにより手動でおおよその前景サンプル点と背景サンプル点とを選定することが必要であるため、多数の画像に対して分割を行う場合に分割効率が比較的低くなる問題を解決した。前景サンプル点と背景サンプル点を自動的に取得でき、且つ、前景/背景分類モデルを生成する際にさらに公知の顕著性モデルも用いたため、サンプル選択の自動化を実現でき、分類精度を改善する効果を得ることができる。
図4は、例示的なもう一実施例に係る画像分割装置のブロック図である。図4に示したように、当該画像分割装置は、電子機器に適用できる。当該画像分割装置は、第1生成モジュール402、サンプル取得モジュール404、第2生成モジュール406、及び画像分割モジュール408を含むが、これらに制限されない。
当該第1生成モジュール402は、画像の顕著性モデルを生成する。
当該サンプル取得モジュール404は、顕著性モデルに基づいて画像中の前景サンプル点と背景サンプル点とを取得する。
当該第2生成モジュール406は、第1生成モジュール402が生成した顕著性モデル及びサンプル取得モジュール404が取得した前景サンプル点と背景サンプル点とに基づいて、前景/背景分類モデルを生成する。
当該画像分割モジュール408は、第2生成モジュール406が生成した前景/背景分類モデル、及び画素点に関するエッジ情報を用いて画像を分割するための所定のグラフカットアルゴリズムに従って、画像を分割する。
図4に示された実施例に係る実施可能な第1の形態において、サンプル取得モジュール404は、第1算出ユニット404a、正規化ユニット404b、第1特定ユニット404c、及び第2特定ユニット404dを含んでもよい。
当該第1算出ユニット404aは、顕著性モデルに基づいて、画像中の各々の画素点の顕著性の値を算出する。
当該正規化ユニット404bは、第1算出ユニット404aが算出した各々の画素点の顕著性の値を正規化する。
当該第1特定ユニット404cは、正規化ユニット404bによって正規化された後の顕著性の値が所定の前景閾値より大きい画素点を、前景サンプル点と特定する。
当該第2特定ユニット404dは、正規化ユニット404bによって正規化された後の顕著性の値が所定の背景閾値より小さい画素点を、背景サンプル点と特定する。
ここで、所定の前景閾値は所定の背景閾値より大きく、正規化後の各々の顕著性の値はすべて(0、1)の範囲内である。
図4に示された実施例に係る実施可能な第2の形態において、前景/背景分類モデルは、前景分類モデルと背景分類モデルとを含む。当該第2生成モジュール406は、第1生成ユニット406a、第2生成ユニット406b、第1乗算ユニット406c、及び第2乗算ユニット406dを含んでもよい。
当該第1生成ユニット406aは、前景サンプル点に基づいて前景色の尤度モデルを生成する。
当該第2生成ユニット406bは、背景サンプル点に基づいて背景色の尤度モデルを生成する。
当該第1乗算ユニット406cは、第1生成モジュール402が生成した顕著性モデルと第1生成ユニット406aが生成した前景色の尤度モデルとを乗算して、画素点が前景である確率を表わすための前景分類モデルを取得する。
当該第2乗算ユニット406dは、第1生成モジュール402が生成した顕著性モデルと第2生成ユニット406bが生成した背景色の尤度モデルとを乗算して、画素点が背景である確率を表わすための背景分類モデルを取得する。
図4に示された実施例に係る実施可能な第3の形態において、画像分割モジュール408は、第2算出ユニット408a、第3算出ユニット408b、取得ユニット408c、構築ユニット408d、及び第1分割ユニット408eを含んでもよい。
当該第2算出ユニット408aは、前景分類モデルを用いて画像中の各々の画素点の前景類似度を算出する。
当該第3算出ユニット408bは、背景分類モデルを用いて、画像中の各々の画素点の背景類似度を算出する。
当該取得ユニット408cは、画像中の隣接する画素点間の類似度を取得する。
当該構築ユニット408dは、各々の画素点の前景類似度、各々の画素点の背景類似度、及び隣接する画素点間の類似度を用いて、所定のグラフカットアルゴリズムに必要な無向グラフを構築する。
当該第1分割ユニット408eは、所定のグラフカットアルゴリズムに従って無向グラフを分割して、画像の分割を完了する。
図4に示された実施例に係る実施可能な第4の形態において、構築ユニット408dは、構築サブユニット408d1、第1特定サブユニット408d2、第2特定サブユニット408d3、及び第3特定サブユニット408d4を含む。
当該構築サブユニット408d1は、前景頂点と背景頂点と少なくとも一つの画素頂点と隣接する画素頂点との間の第1種類の辺と、画素頂点と前景頂点との間の第2種類の辺と、画素頂点と背景頂点との間の第3種類の辺と、が含まれている無向グラフであって、所定のグラフカットアルゴリズムに必要な無向グラフを構築する。無向グラフ中の画素頂点と画像中の各々の画素点は1対1で対応する。
当該第1特定サブユニット408d2は、第2種類の辺毎に、第2種類の辺に繋がれている画素頂点に対応する画素点の前景類似度を、第2種類の辺の重み値と特定する。
当該第2特定サブユニット408d3は、第3種類の辺毎に、第3種類の辺に繋がれている画素頂点に対応する画素点の背景類似度を、第3種類の辺の重み値と特定する。
当該第3特定サブユニット408d4は、第1種類の辺毎に、第1種類の辺に繋がれている二つの画素頂点に対応する二つの画素点の間の類似度を、第1種類の辺の重み値と特定する。
図4に示された実施例に係る実施可能な第5の形態において、第1生成モジュール402は、第2分割ユニット402a、第4特定ユニット402b、及び第3生成ユニット402cを含んでもよい。
当該第2分割ユニット402aは、所定の過分割アルゴリズムに従って画像を過分割して、少なくとも一つの領域を取得する。ここで、一つの領域中の各々の画素点の色の値は同一である。
当該第4特定ユニット402bは、各々の領域の色の値と中心とを特定する。
当該第3生成ユニット402cは、各々の領域に対応する色の値、及び各々の領域の中心に基づいて、顕著性モデルを生成する。
図4に示された実施例に係る実施可能な第6の形態において、
前記顕著性モデルは、
であり、
ここで、
i1は、領域R中のいずれか一つの画素点の顕著性の値であり、
w(R)は、領域R中の画素点の数であり、
(R,R)は、前記領域Rと前記領域Rとの間の空間位置の差異のメトリック値を表わすめのものであり、
(R,R)は、前記領域Rと前記領域Rとの間の色の差異のメトリック値を表わすめのものであり、
Nは、前記画像を過分割した後に取得した領域の数の合計であり、
(R,R)は、
であり、
Center(R)は、前記領域Rの中心であり、
Center(R)は、前記領域Rの中心であり、
前記画像中の各々の画素点の座標のすべてを、[0,1]に正規化すると、
になる。
図4に示された実施例に係る実施可能な第7の形態において、第1生成モジュール402は、分類ユニット402d、及び第4生成ユニット402eを含んでもよい。
当該分類ユニット402dは、色の値が同一な画素点を一つの色種類に分類する方法によって、各々の画素点の色の値に基づいて画像中の各々の画素点を分類する。
当該第4生成ユニット402eは、各々の色種類の色の値に基づいて、顕著性モデルを生成する。
図4に示された実施例に係る実施可能な第8の形態において、
前記顕著性モデルは、
であり、
ここで、
w(P)は、色種類Pの画素点の数であり、
(P,P)は、色種類Pと色種類Pとの間の色の差異のメトリック値を表わすためのものである。
上記のように、本発明に係る実施例によって提供する画像分割装置によると、前景サンプル点と背景サンプル点とを自動的に特定し、顕著性モデル及び前景サンプル点と背景サンプル点を利用して前景/背景分類モデルを生成し、当該前景/背景分類モデルを用いて画像の分割を実現することにより、関連技術でのユーザにより手動でおおよその前景サンプル点と背景サンプル点とを選定することが必要であるため、多数の画像に対して分割を行う場合に分割効率が比較的低くなる問題を解決した。前景サンプル点と背景サンプル点を自動的に取得でき、且つ、前景/背景分類モデルを生成する際にさらに公知の顕著性モデルも用いたため、サンプル選択の自動化を実現でき、分類精度を改善する効果を得ることができる。
上記の実施例の装置について、その各モジュールが実行する動作の具体的な形態は既に当該方法に関するの実施例において詳細に説明したため、ここでは詳細に説明しない。
図5は、例示的な一実施例に係る画像分割装置を示すブロック図である。例えば、装置500は、携帯電話、コンピューター、デジタル放送端末、メッセージ送受信デバイス、ゲームコンソール、タブレットデバイス、医療機器、フィットネス機器、PDA(パーソナルデジタルアシスタント)等であってもよい。
図5を参照して、装置500は、プロセスアセンブリ502、メモリ504、電源アセンブリ506、マルチメディアアセンブリ508、オーディオアセンブリ510、入出力(I/O)インターフェイス512、センサアセンブリ514、及び通信アセンブリ516のような一つ以上のアセンブリを含んでよい。
プロセスアセンブリ502は、一般的には装置500の全体の動作を制御するものであり、例えば、表示、電話呼び出し、データ通信、カメラ動作、及び記録動作と関連する動作を制御する。プロセスアセンブリ502は、一つ以上のプロセッサ518を含み、これらによって命令を実行することにより、上記の方法の全部、或は一部のステップを実現するようにしてもよい。なお、プロセスアセンブリ502は、一つ以上のモジュールを含み、これらによってプロセスアセンブリ502と他のアセンブリの間のインタラクションを容易にするようにしてもよい。例えば、プロセスアセンブリ502は、マルチメディアモジュールを含み、これらによってマルチメディアアセンブリ508とプロセスアセンブリ502の間のインタラクションを容易にするようにしてもよい。
メモリ504は、各種類のデータを記憶することにより装置500の動作を支援するように構成される。これらのデータの例は、装置500において動作するいずれのアプリケーションプログラム又は方法の命令、連絡対象データ、電話帳データ、メッセージ、画像、ビデオ等を含む。メモリ504は、いずれの種類の揮発性メモリ、不揮発性メモリ記憶デバイスまたはそれらの組み合わせによって実現されてもよく、例えば、SRAM(Static Random Access Memory)、EEPROM(Electrically Erasable Programmable Read−Only Memory)、EPROM(Erasable Programmable Read Only Memory)、PROM(Programmable ROM)、ROM(Read Only Member)、磁気メモリ、フラッシュメモリ、磁気ディスク、或いは光ディスクである。
電源アセンブリ506は、装置500の多様なアセンブリに電力を供給する。電源アセンブリ506は、電源管理システム、一つ以上の電源、及び装置500のための電力の生成、管理及び割り当てに関連する他のアセンブリを含んでもよい。
マルチメディアアセンブリ508は、前記装置500とユーザの間に一つの出力インターフェイスを提供するスクリーンを含む。上記の実施例において、スクリーンは液晶モニター(LCD)とタッチパネル(TP)を含んでもよい。スクリーンがタッチパネルを含むことにより、スクリーンはタッチスクリーンを実現することができ、ユーザからの入力信号を受信することができる。タッチパネルは一つ以上のタッチセンサを含んでおり、タッチ、スライド、及びタッチパネル上のジェスチャを検出することができる。前記タッチセンサは、タッチ、或はスライドの動作の境界だけでなく、前記のタッチ、或はスライド操作に係る継続時間及び圧力も検出できる。上記の実施例において、マルチメディアアセンブリ508は、一つのフロントカメラ、及び/又はリアカメラを含む。装置500が、例えば撮影モード、或はビデオモード等の操作モードにある場合、フロントカメラ、及び/又はリアカメラは外部からマルチメディアデータを受信できる。フロントカメラとリアカメラのそれぞれは、一つの固定型の光レンズ系、或は可変焦点距離と光学ズーム機能を有するものであってもよい。
オーディオアセンブリ510は、オーディオ信号を入出力するように構成されてもよい。例えば、オーディオアセンブリ510は、一つのマイク(MIC)を含み、装置500が、例えば呼出しモード、記録モード、及び音声認識モード等の動作モードにある場合、マイクは外部のオーディオ信号を受信することができる。受信されたオーディオ信号は、さらにメモリ504に記憶されたり、通信アセンブリ516を介して送信されたりする。上記の実施例において、オーディオアセンブリ510は、オーディオ信号を出力するための一つのスピーカーをさらに含む。
I/Oインターフェイス512は、プロセスアセンブリ502と周辺インターフェイスモジュールの間にインターフェイスを提供するものであり、上記周辺インターフェイスモジュールは、キーボード、クリックホイール、ボタン等であってもよい。これらのボタンは、ホームボタン、ボリュームボタン、起動ボタン、ロッキングボタンを含んでもよいが、これらに限定されない。
センサアセンブリ514は、装置500に各種の状態に対する評価を提供するための一つ以上のセンサを含む。例えば、センサアセンブリ514は、装置500のON/OFF状態、装置500のディスプレイとキーパッドのようなアセンブリの相対的な位置決めを検出できる。また、例えば、センサアセンブリ514は、装置500、或は装置500の一つのアセンブリの位置変更、ユーザと装置500とが接触しているか否か、装置500の方位、又は加速/減速、装置500の温度の変化を検出できる。センサアセンブリ514は、何れの物理的接触がない状態にて付近の物体の存在を検出するための近接センサを含んでもよい。センサアセンブリ514は、撮影アプリケーションに適用するため、CMOS、又はCCD画像センサのような光センサを含んでもよい。上記の実施例において、当該センサアセンブリ514は、加速度センサ、ジャイロスコープセンサ、磁気センサ、圧力センサ、及び温度センサをさらに含んでもよい。
通信アセンブリ516は、装置500と他の機器の間に有線、又は利便性のよい形態の通信を提供する。装置500は、例えばWiFi、2G、3G、或はこれらの組み合わせのような、通信規格に基づいた無線ネットワークに接続されてもよい。一つの例示的な実施例において、通信アセンブリ516は、放送チャンネルを介して外部の放送管理システムからの放送信号、又は放送に関連する情報を受信する。一つの例示的な実施例において、前記通信アセンブリ516は、近距離無線通信(NFC)モジュールをさらに含むことにより、近距離通信を可能にする。例えば、NFCモジュールは、RFID(Radio Frequency IDentification)技術、IrDA(Infrared Data Association)技術、UWB(Ultra Wide Band)技術、BT(Bluetooth(登録商標))技術、他の技術に基づいて実現できる。
例示的な実施例において、装置500は、一つ以上のASIC(Application Specific Integrated Circuit)、DSP(Digital Signal Processor)、DSPD(Digital Signal Processing Device)、PLD(Programmable Logic Device)、FPGA(Field−Programmable Gate Array)、コントローラ、マイクロコントローラ、マイクロプロセッサ、または他の電子部品によって実現されるものであり、上記方法を実行する。
例示的な実施例において、さらに、命令を含むコンピュータ読取り可能な非一時的な記録媒体、例えば命令を含むメモリ504を提供しており、装置500のプロセッサ518により上記命令を実行して上記方法を実現する。例えば、前記コンピュータ読取り可能な非一時的な記録媒体は、ROM、RAM、CD-ROM、磁気テープ、フロッピー(登録商標)ディスク、光データ記憶デバイス等である。
当業者が、ここで開示した明細書を検討して本発明を実施した後、本発明の他の実施例を容易に考え出せることは明らかである。本願は、本発明のいずれの変形、用途、又は適応的な変更をカバーすることを意図しており、これらの変形、用途、又は適応的な変更は、本発明の一般的な原理に従い、また、本発明は公開していない当該技術分野の公知の知識又は通常の技術手段を含む。明細書と実施例はただ例示として考慮され、本発明の真の範囲と趣旨は以下の特許請求の範囲に記載される。
本発明は上記に記述され、また図面で示した厳密な構成に限定されず、その範囲を逸脱しない限り多様な置換えと変更を行うことができると、理解されるべきである。本発明の範囲は添付の特許請求の範囲のみにより限定される。
本願は、出願番号が201410187226.7であって、出願日が2014年5月5日である中国特許出願に基づいて優先権を主張し、当該中国特許出願のすべての内容を援用する。

Claims (17)

  1. 画像の顕著性モデルを生成するステップと、
    前記顕著性モデルに基づいて、前記画像中の前景サンプル点と背景サンプル点とを取得するステップと、
    前記顕著性モデル、前記前景サンプル点、及び前記背景サンプル点に基づいて、前景/背景分類モデルを生成するステップと、
    前記前景/背景分類モデル、及び画素点に関するエッジ情報に基づいて前記画像を分割するための所定のグラフカットアルゴリズムに従って、前記画像を分割するステップと
    を含み、
    前記画像の顕著性モデルを生成するステップは、
    所定の過分割アルゴリズムに従って前記画像を過分割することにより、少なくとも一つの領域を取得するステップと、
    前記各々の領域の色の値と中心とを特定するステップと、
    各々の領域に対応する色の値、及び各々の領域の中心に基づいて、前記顕著性モデルを生成するステップとを含み、
    一つの前記領域中の各々の画素点の色の値は同一であり、
    前記顕著性モデルは、
    であり、
    ここで、
    i1 は、領域R 中のいずれか一つの画素点の前記顕著性の値であり、
    w(R )は、領域Rj中の画素点の数であり、
    DS(R ,R )は、前記領域Riと前記領域R との間の空間位置の差異のメトリック値を表わすものであり、
    DC(R ,R )は、前記領域R と前記領域R との間の色の差異のメトリック値を表わすものであり、
    Nは、前記画像を過分割した後に取得した領域の数の合計であり、
    DS(R ,R )は、
    であり、
    Center(R )は、前記領域R の中心であり、
    Center(R )は、前記領域R の中心であり、
    前記画像中の各々の画素点の座標のすべてを、[0,1]に正規化すると、
    になる
    ことを特徴とする画像分割方法。
  2. 前記顕著性モデルに基づいて、前記画像中の前景サンプル点と背景サンプル点とを取得するステップは、
    前記顕著性モデルに基づいて、前記画像中の各々の画素点の顕著性の値を算出するステップと、
    前記各々の画素点の顕著性の値を正規化するステップと、
    前記正規化後の顕著性の値が所定の前景閾値より大きい画素点を、前記前景サンプル点と特定するステップと、
    前記正規化後の顕著性の値が所定の背景閾値より小さい画素点を、前記背景サンプル点と特定するステップとを含み、
    前記所定の前景閾値は前記所定の背景閾値より大きく、前記正規化後の各々の顕著性の値はすべて(0、1)の範囲内である
    ことを特徴とする請求項1に記載の画像分割方法。
  3. 前記前景/背景分類モデルは、前景分類モデルと背景分類モデルとを含み、
    前記顕著性モデル、前記前景サンプル点、及び前記背景サンプル点に基づいて、前景/背景分類モデルを生成するステップは、
    前記前景サンプル点に基づいて、前景色の尤度モデルを生成するステップと、
    前記背景サンプル点に基づいて、背景色の尤度モデルを生成するステップと、
    前記顕著性モデルと前記前景色の尤度モデルとを乗算することにより、画素点が前景である確率を表わすための前記前景分類モデルを取得するステップと、
    前記顕著性モデルと前記背景色の尤度モデルとを乗算することにより、画素点が背景である確率を表わすための前記背景分類モデルを取得するステップと
    を含むことを特徴とする請求項1に記載の画像分割方法。
  4. 前記所定のグラフカットアルゴリズムに従って、前記画像を分割するステップは、
    前記前景分類モデルを用いて、前記画像中の各々の画素点の前景類似度を算出するステップと、
    前記背景分類モデルを用いて、前記画像中の各々の画素点の背景類似度を算出するステップと、
    前記画像中の隣接する画素点間の類似度を取得するステップと、
    前記各々の画素点の前景類似度、前記各々の画素点の背景類似度、及び前記隣接する画素点間の類似度を用いて、前記所定のグラフカットアルゴリズムに必要な無向グラフを構築するステップと、
    前記所定のグラフカットアルゴリズムに従って前記無向グラフを分割して、前記画像に対する分割を完了するステップと
    を含むことを特徴とする請求項3に記載の画像分割方法。
  5. 前記各々の画素点の前景類似度、前記各々の画素点の背景類似度、及び前記隣接する画素点間の類似度を用いて、前記所定のグラフカットアルゴリズムに必要な無向グラフを構築するステップは、
    前景頂点と背景頂点と少なくとも一つの画素頂点と隣接する画素頂点同との間の第1種類の辺と、前記画素頂点と前記前景頂点との間の第2種類の辺と、前記画素頂点と前記背景頂点との間の第3種類の辺と、が含まれている無向グラフであって、前記所定のグラフカットアルゴリズムに必要な無向グラフを構築するステップと、
    前記第2種類の辺毎に、前記第2種類の辺と繋がれている画素頂点に対応する画素点の前記前景類似度を、前記第2種類の辺の重み値と特定するステップと、
    前記第3種類の辺毎に、前記第3種類の辺と繋がれている画素頂点に対応する画素点の前記背景類似度を、前記第3種類の辺の重み値と特定するステップと、
    前記第1種類の辺毎に、前記第1種類の辺と繋がれている二つの画素頂点に対応する二つの画素点の間の類似度を、前記第1種類の辺の重み値と特定するステップとを含み、
    前記無向グラフ中の画素頂点と前記画像中の各々の画素点とは1対1で対応する
    ことを特徴とする請求項4に記載の画像分割方法。
  6. 前記画像の顕著性モデルを生成するステップは、
    色の値が同一な画素点を一つの色種類に分類する方法によって、各々の画素点の色の値に基づいて前記画像中の各々の画素点を分類するステップと、
    前記各々の色種類の色の値に基づいて、前記顕著性モデルを生成するステップと
    を含むことを特徴とする請求項1乃至5のいずれか1項に記載の画像分割方法。
  7. 前記顕著性モデルは、
    であり、
    ここで、
    w(P)は、色種類Pjの画素点の数であり、
    DC(P,P)は、色種類Pと色種類Pとの間の色の差異のメトリック値を表わすためのものである
    ことを特徴とする請求項に記載の画像分割方法。
  8. 画像の顕著性モデルを生成するための第1生成モジュールと、
    前記顕著性モデルに基づいて、前記画像中の前景サンプル点と背景サンプル点とを取得するためのサンプル取得モジュールと、
    前記第1生成モジュールが生成した顕著性モデル、及び前記サンプル取得モジュールが取得した前景サンプル点と前記背景サンプル点に基づいて、前景/背景分類モデルを生成するための第2生成モジュールと、
    前記第2生成モジュールが生成した前景/背景分類モデル、及び画素点に関するエッジ情報に基づいて前記画像を分割するための所定のグラフカットアルゴリズムに従って、前記画像を分割するための画像分割モジュールと
    を備え
    前記第1生成モジュールは、
    所定の過分割アルゴリズムに従って前記画像を過分割することにより、少なくとも一つの領域を取得するための第2分割ユニットと、
    前記各々の領域の色の値と中心とを特定するための第3特定ユニットと、
    各々の領域に対応する色の値、及び各々の領域の中心に基づいて、前記顕著性モデルを生成するための第3生成ユニットと
    を備え、
    一つの前記領域中の各々の画素点の色の値は同一であり、
    前記顕著性モデルは、
    であり、
    ここで、
    i1 は、領域R 中のいずれか一つの画素点の前記顕著性の値であり、
    w(R )は、領域R 中の画素点の数であり、
    DS(R ,R )は、前記領域R と前記領域R との間の空間位置の差異のメトリック値を表わすものであり、
    DC(R ,R )は、前記領域R と前記領域R との間の色の差異のメトリック値を表わすものであり、
    Nは、前記画像を過分割した後に取得した領域の数の合計であり、
    DS(R ,R )は、
    であり、
    Center(R )は、前記領域R の中心であり、
    Center(R )は、前記領域R の中心であり、
    前記画像中の各々の画素点の座標のすべてを、[0,1]に正規化すると、
    になる
    ことを特徴とする画像分割装置。
  9. 前記サンプル取得モジュールは、
    前記顕著性モデルに基づいて、前記画像中の各々の画素点の顕著性の値を算出するための第1算出ユニットと、
    前記第1算出ユニットが算出した各々の画素点の顕著性の値を正規化するための正規化ユニットと、
    前記正規化ユニットによって正規化後の顕著性の値が所定の前景閾値より大きい画素点を、前記前景サンプル点と特定するための第1特定ユニットと、
    前記正規化ユニットによって正規化後の顕著性の値が所定の背景閾値より小さい画素点を、前記背景サンプル点と特定するための第2特定ユニットと
    を備え、
    前記所定の前景閾値は前記所定の背景閾値より大きく、正規化後の各々の顕著性の値はすべて(0、1)の範囲内である
    ことを特徴とする請求項に記載の画像分割装置。
  10. 前記前景/背景分類モデルは、前景分類モデルと背景分類モデルとを含み、
    前記第2生成モジュールは、
    前記前景サンプル点に基づいて、前景色の尤度モデルを生成するための第1生成ユニットと、
    前記背景サンプル点に基づいて、背景色の尤度モデルを生成するための第2生成ユニットと、
    前記第1生成モジュールが生成した顕著性モデルと前記第1生成ユニットが生成した前景色の尤度モデルとを乗算して、画素点が前景である確率を表わすための、前記前景分類モデルを取得するための第1乗算ユニットと、
    前記第1生成モジュールが生成した顕著性モデルと前記第2生成ユニットが生成した背景色の尤度モデルとを乗算して、画素点が背景である確率を表わすための、前記背景分類モデルを取得するための第2乗算ユニットと
    を備えることを特徴とする請求項に記載の画像分割装置。
  11. 前記画像分割モジュールは、
    前記前景分類モデルを用いて、前記画像中の各々の画素点の前景類似度を算出するための第2算出ユニットと、
    前記背景分類モデルを用いて、前記画像中の各々の画素点の背景類似度を算出するための第3算出ユニットと、
    前記画像中の隣接する画素点間の類似度を取得するための取得ユニットと、
    前記各々の画素点の前景類似度、前記各々の画素点の背景類似度、及び前記隣接する画素点間の類似度を用いて、前記所定のグラフカットアルゴリズムに必要な無向グラフを構築するための構築ユニットと、
    前記所定のグラフカットアルゴリズムに従って前記無向グラフを分割して、前記画像に対する分割を完了するための第1分割ユニットと
    を備えることを特徴とする請求項10に記載の画像分割装置。
  12. 前記構築ユニットは、
    前景頂点と背景頂点と少なくとも一つの画素頂点と隣接する画素頂点との間の第1種類の辺と、前記画素頂点と前記前景頂点との間の第2種類の辺と、前記画素頂点と前記背景頂点との間の第3種類の辺と、が含まれている無向グラフであって、前記所定のグラフカットアルゴリズムに必要な無向グラフを構築するための構築サブユニットと、
    前記第2種類の辺毎に、前記第2種類の辺と繋がれている画素頂点に対応する画素点の前記前景類似度を、前記第2種類の辺の重み値と特定するための第1特定サブユニットと、
    前記第3種類の辺毎に、前記第3種類の辺と繋がれている画素頂点に対応する画素点の前記背景類似度を、前記第3種類の辺の重み値と特定するための第2特定サブユニットと、
    前記第1種類の辺毎に、前記第1種類の辺と繋がれている二つの画素頂点に対応する二つの画素点の間の類似度を、前記第1種類の辺の重み値と特定するための第3特定サブユニットと
    を備え、
    前記無向グラフ中の画素頂点と前記画像中の各々の画素点とは1対1で対応する
    ことを特徴とする請求項11に記載の画像分割装置。
  13. 前記第1生成モジュールは、
    色の値が同一な画素点を一つの色種類に分類する方法によって、各々の画素点の色の値に基づいて前記画像中の各々の画素点を分類するための分類ユニットと、
    前記各々の色種類の色の値に基づいて、前記顕著性モデルを生成するための第4生成ユニットと
    を備えることを特徴とする請求項8乃至12のいずれか1項に記載の画像分割装置。
  14. 前記顕著性モデルは、
    であり、
    ここで、
    w(P)は、色種類Pの画素点の数であり、
    DC(P,P)は、色種類Pと色種類Pとの間の色の差異のメトリック値を表わすためのものである
    ことを特徴とする請求項13に記載の画像分割装置。
  15. プロセッサと、
    前記プロセッサが実行可能な命令を記憶するためのメモリと
    を備え、
    前記プロセッサは、
    画像の顕著性モデルを生成し、
    前記顕著性モデルに基づいて、前記画像中の前景サンプル点と背景サンプル点とを取得し、
    前記顕著性モデル、前記前景サンプル点、及び前記背景サンプル点に基づいて、前景/背景分類モデルを生成し、
    前記前景/背景分類モデル、及び画素点に関するエッジ情報に基づいて前記画像を分割するための所定のグラフカットアルゴリズムに従って、前記画像を分割する
    ように構成され
    前記画像の顕著性モデルの生成は、
    所定の過分割アルゴリズムに従って前記画像を過分割することにより、少なくとも一つの領域を取得し、
    前記各々の領域の色の値と中心とを特定し、
    各々の領域に対応する色の値、及び各々の領域の中心に基づいて、前記顕著性モデルを生成することを含み、
    一つの前記領域中の各々の画素点の色の値は同一であり、
    前記顕著性モデルは、
    であり、
    ここで、
    i1 は、領域R 中のいずれか一つの画素点の前記顕著性の値であり、
    w(R )は、領域R 中の画素点の数であり、
    DS(R ,R )は、前記領域R と前記領域R との間の空間位置の差異のメトリック値を表わすものであり、
    DC(R ,R )は、前記領域R と前記領域R との間の色の差異のメトリック値を表わすものであり、
    Nは、前記画像を過分割した後に取得した領域の数の合計であり、
    DS(R ,R )は、
    であり、
    Center(R )は、前記領域R の中心であり、
    Center(R )は、前記領域R の中心であり、
    前記画像中の各々の画素点の座標のすべてを、[0,1]に正規化すると、
    になる
    ことを特徴とする画像分割装置。
  16. プロセッサに実行されることにより、請求項1から請求項のいずれかに記載の画像分割方法を実現することを特徴とするプログラム。
  17. 請求項16に記載のプログラムが記録された記録媒体。
JP2016517158A 2014-05-05 2014-10-23 画像分割方法、画像分割装置、プログラム、及び記録媒体 Active JP6125099B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
CN201410187226.7A CN103996189B (zh) 2014-05-05 2014-05-05 图像分割方法及装置
CN201410187226.7 2014-05-05
PCT/CN2014/089297 WO2015169061A1 (zh) 2014-05-05 2014-10-23 图像分割方法及装置

Publications (2)

Publication Number Publication Date
JP2016522951A JP2016522951A (ja) 2016-08-04
JP6125099B2 true JP6125099B2 (ja) 2017-05-10

Family

ID=51310345

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016517158A Active JP6125099B2 (ja) 2014-05-05 2014-10-23 画像分割方法、画像分割装置、プログラム、及び記録媒体

Country Status (8)

Country Link
EP (1) EP2942753B1 (ja)
JP (1) JP6125099B2 (ja)
KR (1) KR101670004B1 (ja)
CN (1) CN103996189B (ja)
BR (1) BR112014032942A2 (ja)
MX (1) MX358601B (ja)
RU (1) RU2596580C2 (ja)
WO (1) WO2015169061A1 (ja)

Families Citing this family (40)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104217440B (zh) * 2014-09-28 2017-03-01 民政部国家减灾中心 一种从遥感图像中提取建成区的方法
CN104809729B (zh) * 2015-04-29 2018-08-28 山东大学 一种鲁棒的图像显著性区域自动分割方法
CN105069774B (zh) * 2015-06-30 2017-11-10 长安大学 基于多示例学习与图割优化的目标分割方法
CN105353674B (zh) * 2015-11-03 2018-04-13 浙江华奕生态建设有限公司 一种多功能生活污水处理集成控制系统及方法
CN105342769A (zh) * 2015-11-20 2016-02-24 宁波大业产品造型艺术设计有限公司 智能电动轮椅
CN105395210A (zh) * 2015-12-22 2016-03-16 管迪 一种ct扫描成像方法
CN105608717A (zh) * 2015-12-22 2016-05-25 肖古华 一种ct系统和ct图像重建方法
CN105662488A (zh) * 2016-01-12 2016-06-15 刘书强 一种断指探查台
CN105748105A (zh) * 2016-01-18 2016-07-13 刘焕涛 一种乳腺检查系统
CN106650744B (zh) * 2016-09-16 2019-08-09 北京航空航天大学 局部形状迁移指导的图像对象共分割方法
CN108073881A (zh) * 2016-11-18 2018-05-25 北京体基科技有限公司 基于预定区域和临近像素识别手部区域的方法及装置
CN108073871A (zh) * 2016-11-18 2018-05-25 北京体基科技有限公司 基于两种预定区域识别手部区域的方法及装置
CN106898001B (zh) * 2017-01-04 2020-04-14 努比亚技术有限公司 一种实现交互式图像分割的方法、装置及终端
CN106934774B (zh) * 2017-03-07 2019-11-29 李强 一种利用超声波治疗肛瘘的控制系统
CN107067030A (zh) * 2017-03-29 2017-08-18 北京小米移动软件有限公司 相似图片检测的方法和装置
CN107451522A (zh) * 2017-04-28 2017-12-08 山东省农业可持续发展研究所 一种农业干旱监测与预警预报方法
CN108960247B (zh) * 2017-05-22 2022-02-25 阿里巴巴集团控股有限公司 图像显著性检测方法、装置以及电子设备
CN107273893A (zh) * 2017-06-14 2017-10-20 武汉梦之蓝科技有限公司 一种智能城市绿化遥感调查的数据校正控制系统
CN107088028A (zh) * 2017-06-29 2017-08-25 武汉洁美雅科技有限公司 一种智能新式干湿两用吸尘器机器人控制系统
CN107452003A (zh) * 2017-06-30 2017-12-08 大圣科技股份有限公司 一种含有深度信息的图像分割的方法及装置
CN107573029A (zh) * 2017-10-23 2018-01-12 福建泉州皓佳新材料有限公司 一种陶瓷废釉水制备的多彩艺术砖及其制备方法
CN107894252A (zh) * 2017-11-14 2018-04-10 江苏科沃纺织有限公司 一种实时监测地埋伸缩式喷滴灌装置运行状态的监控系统
CN108764325B (zh) * 2018-05-23 2022-07-08 腾讯科技(深圳)有限公司 图像识别方法、装置、计算机设备和存储介质
CN109035326A (zh) * 2018-06-19 2018-12-18 北京理工大学 基于亚像素图像识别的高精度定位技术
CN109173263B (zh) * 2018-08-31 2021-08-24 腾讯科技(深圳)有限公司 一种图像数据处理方法和装置
CN109168220A (zh) * 2018-09-28 2019-01-08 湖北民族学院 一种提高青柚产量品质的光控方法及系统
JP6716765B1 (ja) * 2018-12-28 2020-07-01 キヤノン株式会社 画像処理装置、画像処理システム、画像処理方法、プログラム
CN110111338B (zh) * 2019-04-24 2023-03-31 广东技术师范大学 一种基于超像素时空显著性分割的视觉跟踪方法
CN110909724B (zh) * 2019-10-08 2023-11-28 华北电力大学 一种多目标图像的缩略图生成方法
CN110853063B (zh) * 2019-10-31 2023-04-07 广州方硅信息技术有限公司 图像分割信息的处理方法、装置、设备和存储介质
CN111539969B (zh) * 2020-04-23 2023-06-09 武汉铁路职业技术学院 图像边缘检测方法、装置、计算机设备及存储介质
CN111597934A (zh) * 2020-04-30 2020-08-28 重庆科技学院 用于为统计应用处理训练数据的系统和方法
CN111640129B (zh) * 2020-05-25 2023-04-07 电子科技大学 一种应用于室内墙面施工机器人的视觉砂浆识别系统
CN111724396B (zh) * 2020-06-17 2023-07-14 泰康保险集团股份有限公司 图像分割方法及装置、计算机可读存储介质、电子设备
CN112347975B (zh) * 2020-11-23 2023-04-07 浙江华络通信设备有限公司 一种可视化融合通信调度系统及其实现方法
CN112634312B (zh) * 2020-12-31 2023-02-24 上海商汤智能科技有限公司 图像背景处理方法、装置、电子设备及存储介质
CN112800915B (zh) * 2021-01-20 2023-06-27 北京百度网讯科技有限公司 建筑物变化检测方法、装置、电子设备以及存储介质
CN114708464B (zh) * 2022-06-01 2022-08-30 广东艺林绿化工程有限公司 一种基于道路垃圾分类的市政环卫清扫垃圾车清扫方法
CN115841490B (zh) * 2023-02-23 2023-05-09 山东泗水山岭石材厂 基于图像处理的采矿过程矿石颗粒分割方法及系统
CN116721115A (zh) * 2023-06-15 2023-09-08 小米汽车科技有限公司 金相组织获取方法、装置、存储介质及芯片

Family Cites Families (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
RU2121714C1 (ru) * 1997-02-19 1998-11-10 Закрытое акционерное общество "Медицинские компьютерные системы" Способ автоматизированной сегментации изображения цитологического препарата
US6704456B1 (en) * 1999-09-02 2004-03-09 Xerox Corporation Automatic image segmentation in the presence of severe background bleeding
DE602005026862D1 (de) * 2004-12-21 2011-04-21 Canon Kk Segmentierung eines digitalen bildes und herstellung einer kompakten repräsentation
JP2008042346A (ja) * 2006-08-02 2008-02-21 Canon Inc 画像処理方法、画像処理装置
US7899248B2 (en) * 2007-08-30 2011-03-01 Seiko Epson Corporation Fast segmentation of images
US8009911B2 (en) * 2007-08-30 2011-08-30 Siemens Aktiengesellschaft Interactive image segmentation on directed graphs
JP5235770B2 (ja) * 2009-04-27 2013-07-10 日本電信電話株式会社 顕著領域映像生成方法、顕著領域映像生成装置、プログラムおよび記録媒体
JP5464739B2 (ja) * 2010-01-22 2014-04-09 Kddi株式会社 画像領域分割装置、画像領域分割方法および画像領域分割プログラム
RU2489752C2 (ru) * 2011-08-15 2013-08-10 Дмитрий Валерьевич Шмунк Способ сегментации изображений
JP2013077296A (ja) 2011-09-14 2013-04-25 Ricoh Co Ltd 画像処理装置、画像処理方法およびプログラム
CN102982545B (zh) * 2012-11-22 2015-09-16 清华大学深圳研究生院 一种图像深度估计方法
CN103208123B (zh) * 2013-04-19 2016-03-02 广东图图搜网络科技有限公司 图像分割方法与系统

Also Published As

Publication number Publication date
JP2016522951A (ja) 2016-08-04
BR112014032942A2 (pt) 2017-06-27
EP2942753B1 (en) 2018-07-18
RU2014153987A (ru) 2016-07-20
MX358601B (es) 2018-08-27
MX2014015363A (es) 2016-02-19
KR20160009477A (ko) 2016-01-26
KR101670004B1 (ko) 2016-10-27
WO2015169061A1 (zh) 2015-11-12
EP2942753A1 (en) 2015-11-11
CN103996189B (zh) 2017-10-03
RU2596580C2 (ru) 2016-09-10
CN103996189A (zh) 2014-08-20

Similar Documents

Publication Publication Date Title
JP6125099B2 (ja) 画像分割方法、画像分割装置、プログラム、及び記録媒体
CN106651955B (zh) 图片中目标物的定位方法及装置
WO2021051857A1 (zh) 目标对象匹配方法及装置、电子设备和存储介质
WO2021051650A1 (zh) 人脸和人手关联检测方法及装置、电子设备和存储介质
JP6134446B2 (ja) 画像分割方法、画像分割装置、画像分割デバイス、プログラム及び記録媒体
WO2020134866A1 (zh) 关键点检测方法及装置、电子设备和存储介质
WO2020135529A1 (zh) 位姿估计方法及装置、电子设备和存储介质
US10007841B2 (en) Human face recognition method, apparatus and terminal
WO2020007241A1 (zh) 图像处理方法和装置、电子设备以及计算机可读存储介质
KR101727169B1 (ko) 이미지 필터를 생성하기 위한 방법 및 장치
US9633444B2 (en) Method and device for image segmentation
CN110443366B (zh) 神经网络的优化方法及装置、目标检测方法及装置
CN105631803B (zh) 滤镜处理的方法和装置
CN111461182B (zh) 图像处理方法、图像处理装置及存储介质
CN113065591B (zh) 目标检测方法及装置、电子设备和存储介质
CN106648063B (zh) 手势识别方法及装置
JP6170626B2 (ja) 構図変更方法、構図変更装置、端末、プログラム及び記録媒体
US20220222831A1 (en) Method for processing images and electronic device therefor
CN109784327B (zh) 边界框确定方法、装置、电子设备及存储介质
CN106534951A (zh) 视频分割方法和装置
KR20210054522A (ko) 얼굴 인식 방법 및 장치, 전자 기기 및 저장 매체
WO2023155393A1 (zh) 特征点匹配方法、装置、电子设备、存储介质和计算机程序产品
CN107992893B (zh) 压缩图像特征空间的方法及装置
CN107609599B (zh) 特征识别方法及装置
US20150262033A1 (en) Method and terminal device for clustering

Legal Events

Date Code Title Description
A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20160726

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20161024

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20170314

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20170404

R150 Certificate of patent or registration of utility model

Ref document number: 6125099

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250