KR101670004B1 - 화상 분할 방법, 장치, 프로그램 및 기록매체 - Google Patents

화상 분할 방법, 장치, 프로그램 및 기록매체 Download PDF

Info

Publication number
KR101670004B1
KR101670004B1 KR1020147036180A KR20147036180A KR101670004B1 KR 101670004 B1 KR101670004 B1 KR 101670004B1 KR 1020147036180 A KR1020147036180 A KR 1020147036180A KR 20147036180 A KR20147036180 A KR 20147036180A KR 101670004 B1 KR101670004 B1 KR 101670004B1
Authority
KR
South Korea
Prior art keywords
image
foreground
background
pixel
model
Prior art date
Application number
KR1020147036180A
Other languages
English (en)
Other versions
KR20160009477A (ko
Inventor
린 왕
치우핑 친
지준 첸
Original Assignee
시아오미 아이엔씨.
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 시아오미 아이엔씨. filed Critical 시아오미 아이엔씨.
Publication of KR20160009477A publication Critical patent/KR20160009477A/ko
Application granted granted Critical
Publication of KR101670004B1 publication Critical patent/KR101670004B1/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/162Segmentation; Edge detection involving graph-based methods
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment
    • H04N5/262Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/194Segmentation; Edge detection involving foreground-background segmentation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment
    • H04N5/262Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
    • H04N5/2624Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects for obtaining an image which is composed of whole input images, e.g. splitscreen
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment
    • H04N5/262Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
    • H04N5/2625Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects for obtaining an image which is composed of images from a temporal image sequence, e.g. for a stroboscopic effect
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment
    • H04N5/262Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
    • H04N5/2625Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects for obtaining an image which is composed of images from a temporal image sequence, e.g. for a stroboscopic effect
    • H04N5/2627Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects for obtaining an image which is composed of images from a temporal image sequence, e.g. for a stroboscopic effect for providing spin image effect, 3D stop motion effect or temporal freeze effect
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment
    • H04N5/262Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
    • H04N5/272Means for inserting a foreground image in a background image, i.e. inlay, outlay
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10024Color image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20076Probabilistic image processing

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Image Analysis (AREA)
  • Character Input (AREA)
  • Image Processing (AREA)

Abstract

본 발명은 화상 분할 방법, 장치, 프로그램 및 기록매체에 관한 것으로, 화상 처리 분야에 속한다. 상기 화상 분할 방법은 화상의 현저성 모델을 확립하는 단계 현저성 모델을 이용하여 화상의 전경 샘플 점과 배경 샘플 점을 취득하는 단계 현저성 모델, 전경 샘플 점 및 배경 샘플 점을 이용하여 전경/배경 분류 모델을 확립하는 단계 전경/배경 분류 모델 및 화소 점들 사이의 에지 정보를 이용하여 화상을 분할하기 위한 소정의 화상 분할 알고리즘에 따라, 화상을 분할 단계를 포함한다. 전경 샘플 점과 배경 샘플 점을 자동으로 확정하고, 현저성 모델 및 전경 샘플 점과 배경 샘플 점을 결합 이용하여 전경/배경 분류 모델을 수립하며, 당해 전경/배경 분류 모델을 이용하여 화상의 분할을 실현함으로써, 관련 기술에서의, 반드시 사용자에 의해 수동으로 전경 샘플 점과 배경 샘플 점을 대충 선정하는 것이 필요함으로 인한, 대량의 화상에 분할하는 경우에 분할 효율이 낮은 문제점을 해결할수 있다. 샘플 선택의 자동화를 실현할수 있고, 분할 정확도를 개선시키는 효과를 얻을수 있다.

Description

화상 분할 방법, 장치, 프로그램 및 기록매체{METHOD, DEVICE, PROGRAM AND RECORDING MEDIUM FOR IMAGE SEGMENTATION}
본 발명은 화상 처리 분야에 관한 것으로, 특히 화상 분할 방법, 장치, 프로그램 및 기록매체에 관한 것이다.
본원 발명은, 출원 번호가201410187226.7이고, 출원일자가 2014 년 5 월 5 일인 중국 특허 출원을 기초로하여 우선권을 주장하는 바, 당해 중국 특허 출원의 전부 내용은 본원 발명에 원용된다.
화상 분할 기술은 화상 분석, 화상 편집, 화상 합성 등 분야의 기초 기술이다. 화상 분할 기술에 의해, 화상에서 전경과 배경을 분할하여 얻을수 있다. 어떻게 빠르고 또 자동으로 화상에서 전경과 배경을 분할할수 있는가 하는것이 현재 연구하고 있는 하나의 중요한 과제이다.
관련 화상 분할 방법에 있어서, 먼저 사용자가 수동으로 선정한 화상의 전경 샘플 점과 배경 샘플 점과 수신한 다음, 사용자에 의해 수동으로 선정된 전경 샘플 점에 기반하여 전경 색상과 배경 색상의 가능성 모델(likelihood model)을 확립하며, 마지막으로 전경 색상과 배경 색상의 가능성 모델에 기반하여 화상을 분할하여 분할후 전경과 배경를 얻는다.
발명자는, 본 발명을 실현하는 과정에서, 관련 기술에는 적어도 다음의 결함이 있는것을 발견했다. 즉, 기존의 화상 분할 방법에 있어서는, 반드시 사용자에 의해 수동으로 대충 전경 샘플 점과 배경 샘플 점을 선정하는 것이 필요하기 때문에, 대량의 화상에 대해 분할을 실시하는 경우에 분할 효율이 상대적으로 낮아진다.
관련 기술에서의, 반드시 사용자에 의해 수동으로 대충 전경 샘플 점과 배경 샘플 점을 선정할 필요가 있기때문에 대량의 화상에 대해 분할을 실시하는 경우에 분할 효율이 상대적으로 낮아지는 문제를 해결하기 위하여, 본 발명은 화상 분할 방법, 장치, 프로그램 및 기록매체를 제공한다. 상기 기술안은 아래과 같다.
본 발명에 따른 실시 예의 제 1 측면에 따르면, 화상 분할 방법을 제공한다.
당해 방법은,
화상의 현저성 모델을 확립하는 단계;
상기 현저성 모델에 기반하여 상기 화상의 전경 샘플 점과 배경 샘플 점을 취득하는 단계;
상기 현저성 모델, 상기 전경 샘플 점 및 상기 배경 샘플 점에 기반하여 전경/배경 분류 모델을 확립하는 단계;
상기 전경/배경 분류 모델 및 화소 점들 사이의 에지 정보에 기반하여 상기 화상을 분할하기 위한 소정의 화상 분할 알고리즘에 따라, 상기 화상을 분할하는 단계
를 포함한다.
옵션으로서,
상기 현저성 모델에 기반하여 상기 화상의 전경 샘플 점과 배경 샘플 점을 취득하는 단계는,
상기 현저성 모델에 기반하여 상기 화상내의 각 화소의 현저성의 값을 산출하는 단계;
각 화소 점의 현저성의 값을 정규화시키는 단계;
정규화 후의 현저성의 값이 소정의 전경 임계 값보다 큰 화소 점을, 상기 전경 샘플 점으로 확정하는 단계;
정규화 후의 현저성의 값이 소정의 배경 임계 값보다 작은 화소 점을, 상기 배경 샘플 점으로 확정하는 단계
를 포함하고,
상기 소정의 전경 임계 값은 상기 소정의 배경 임계 값보다 크며, 정규화 후의 각 현저성의 값은 모두 (0,1)의 범위 내에 위치한다.
옵션으로서,
상기 전경/배경 분류 모델은, 전경 분류 모델과 배경 분류 모델을 포함하며,
상기 현저성 모델, 상기 전경 샘플 점 및 상기 배경 샘플 점에 기반하여 전경/배경 분류 모델을 확립하는 단계는,
상기 전경 샘플 점을 이용하여 전경 색상의 가능성 모델을 확립하는 단계;
상기 배경 샘플 점을 이용하여 배경 색상의 가능성 모델을 확립하는 단계;
상기 현저성 모델과 상기 전경 색상 가능성 모델을 곱셈함으로써, 화소 점이 전경일 확률을 표시하기 위한 상기 전경 분류 모델을 취득하는 단계;
상기 현저성 모델과 상기 배경 색상 가능성 모델을 곱셈함으로써, 화소 점이 배경일 확률을 표시하기 위한 상기 배경 분류 모델을 취득하는 단계
를 포함한다.
옵션으로서,
상기 소정의 화상 분할 알고리즘에 따라, 상기 화상을 분할하는 단계는,
상기 전경 분류 모델을 이용하여, 상기 화상내의 각 화소의 전경 유사도를 산출하는 단계;
상기 배경 분류 모델을 이용하여, 상기 화상내의 각 화소의 배경 유사도를 산출하는 단계;
상기 화상내의 인접된 화소 점들 사이의 유사도를 취득하는 단계;
각 화소 점의 전경 유사도, 각 화소 점의 배경 유사도 및 인접된 화소 점들 사이의 유사도를 이용하여, 상기 소정의 화상 분할 알고리즘에 필요한 무향 그래프를 구축하는 단계;
상기 소정의 분할 알고리즘을 이용하여 상기 무향 그래프를 분할하여 상기 화상의 분할을 완성하는 단계
를 포함한다.
옵션으로서,
상기 각 화소 점의 전경 유사도, 각 화소 점의 배경 유사도 및 인접된 화소 점들 사이의 유사도를 이용하여, 상기 소정의 화상 분할 알고리즘에 필요한 무향 그래프를 구축하는 단계는,
전경 정점, 배경 정점, 적어도 하나의 화소 정점, 인접된 두 화소 정점 사이의 제 1 유형의 변, 상기 화소 정점과 상기 배경 정점 사이의 제 2 유형의 변 및 상기 화소 정점과 상기 배경 정점 사이의 제 3 유형의 변을 포함하는, 상기 소정의 화상 분할 알고리즘에 필요한 무향 그래프를 구축하는 단계;
각 제 2 유형의 변에 대하여, 상기 제 2 유형의 변에 연결되어 있는 화소 정점에 대응되는 화소 점의 전경 유사도를 상기 제 2 종류의 변의 가중치로 확정하는 단계;
각 제 3 유형의 변에 대하여, 상기 제 3 유형의 변에 연결되어 있는 화소 정점에 대응되는 화소 점의 배경 유사도를 상기 제 3 유형의 변의 가중치로 확정하는 단계;
각 제 1 유형의 변에 대하여, 상기 제 1 유형의 변에 연결되어 있는 두 화소 정점에 대응되는 두 화소 점 사이의 유사도를 상기 제 1 유형의 변의 가중치로 확정하는 단계
를 포함하고,
상기 무향 그래프 중의 화소 정점과 상기 화상내의 각 화소 점은 1 대 1로 대응된다.
옵션으로서,
상기 화상의 현저성 모델을 확립하는 단계는,
소정의 과분할 알고리즘에 따라 상기 화상을 과분할하여 적어도 하나의 영역을 취득하는 단계;
상기 각 영역의 색상 값과 질량 중심을 확정하는 단계;
각 영역에 대응되는 색상 값 및 각 영역의 질량 중심에 기반하여, 상기 현저성 모델을 확립하는 단계
를 포함하고,
하나의 상기 영역내의 각 화소 점의 색상 값은 동일하다.
옵션으로서,
상기 현저성 모델은,
Figure 112014125138245-pct00001
이며,
여기서,
Figure 112014125138245-pct00002
는, 영역 
Figure 112014125138245-pct00003
내의 어느 한 화소 점의 현저성의 값이며,
Figure 112014125138245-pct00004
는, 영역
Figure 112014125138245-pct00005
내의 화소 점의 개수이며,
Figure 112014125138245-pct00006
는, 상기 영역
Figure 112014125138245-pct00007
과 상기 영역
Figure 112014125138245-pct00008
사이의 공간 위치의 차이의 메트릭 값을 표시하기 위한 것이며,
Figure 112014125138245-pct00009
는, 상기 영역
Figure 112014125138245-pct00010
과 상기 영역
Figure 112014125138245-pct00011
사이의 색상 차이의 메트릭 값을 표시하기 위한 것이며,
N은 상기 화상을 과분할한 후 취득한 영역의 총개수이며,
Figure 112014125138245-pct00012
는,
Figure 112014125138245-pct00013
이며,
Figure 112014125138245-pct00014
는, 상기 영역
Figure 112014125138245-pct00015
의 질량 중심이며,
Figure 112014125138245-pct00016
는, 상기 영역
Figure 112014125138245-pct00017
의 질량 중심이며,
상기 화상내의 각 화소의 좌표를 모두 [0,1]로 정규화하면
Figure 112014125138245-pct00018
를 얻는다.
옵션으로서,
상기 화상의 현저성 모델을 확립하는 단계는,
각 화소 점의 색상 값에 기반하여 색상 값이 동일한 화소 점을 하나의 색상 종류로 분류하는 방법에 따라 상기 화상내의 각 화소 점을 분류하는 단계;
각 색상 종류의 색상 값에 기반하여 상기 현저성 모델을 확립하는 단계
를 포함한다.
옵션으로서,
상기 현저성 모델은,
Figure 112014125138245-pct00019
이며,
여기서,
Figure 112014125138245-pct00020
는, 색상 종류
Figure 112014125138245-pct00021
내의 화소 점의 개수이며,
Figure 112014125138245-pct00022
는, 색상 종류
Figure 112014125138245-pct00023
와 색상 종류
Figure 112014125138245-pct00024
사이의 색상 차이의 메트릭 값을 표시하기 위한 것이다.
본 발명에 따른 실시 예의 제 2 측면에 따르면, 화상 분할 장치를 제공한다.
당해 장치는,
화상의 현저성 모델을 확립하기 위한 제 1 확립 모듈과,
상기 현저성 모델에 기반하여 상기 화상의 전경 샘플 점과 배경 샘플 점을 취득하기 위한 샘플 취득 모듈과,
상기 제 1 확립 모듈에 의해 확립된 현저성 모델 및 상기 샘플 취득 모듈에 의해 취득된 전경 샘플 점과 상기 배경 샘플 점을 이용하여 전경/배경 분류 모델을 확립하기 위한 제 2 확립 모듈과,
상기 제 2 확립 모듈에 의해 확립된 전경/배경 분류 모델 및 화소 점들 사이의 에지 정보를 이용하여 상기 화상을 분할하기 위한 소정의 화상 분할 알고리즘에 따라, 상기 화상을 분할하는 화상 분할 모듈을 구비한다.
옵션으로서,
상기 샘플 취득 모듈은,
상기 현저성 모델에 기반하여 상기 화상내의 각 화소의 현저성의 값을 산출하기 위한 제 1 산출 유닛과,
상기 산출 유닛에 의해 산출된 각 화소 점의 현저성의 값을 정규화시키기 위한 정규화 유닛과,
상기 정규화 유닛에 의해 정규화된 후의 현저성의 값이, 소정의 전경 임계 값보다 큰 화소 점을 상기 전경 샘플 점으로 확정하기 위한 제 1 확정 유닛과,
상기 정규화 유닛에 의해 정규화된 후의 현저성의 값이 소정의 배경 임계 값보다 작은 화소 점을 상기 배경 샘플 점으로 확정하기 위한 제 2 확정 유닛
을 구비하며,
상기 소정의 전경 임계 값은 상기 소정의 배경 임계 값보다 크며, 정규화 후의 각 현저성의 값은 모두 (0,1)의 범위 내에 위치한다.
옵션으로서,
상기 전경/배경 분류 모델은, 전경 분류 모델과 배경 분류 모델을 포함하며,
상기 제 2 확립 모듈은,
상기 전경 샘플 점을 이용하여 전경 색상의 가능성 모델을 확립하기 위한 제 1 확립 유닛과,
상기 배경 샘플 점을 이용하여 배경 색상의 가능성 모델을 확립하기 위한 제 2 확립 유닛과,
상기 제 1 확립 모듈에 의해 확립된 현저성 모델과 상기 제 1 확립 유닛에 의해 확립된 전경 색상 가능성 모델을 곱셈하여, 화소 점이 전경일 확률을 표시하기 위한 상기 전경 분류 모델을 취득하기 위한 제 1 곱셈 유닛과,
상기 제 1 확립 모듈에 의해 확립된 현저성 모델과 상기 제 2 확립 유닛에 의해 확립된 배경 색상 가능성 모델을 곱셈하여, 화소 점이 배경일 확률을 표시하기 위한 상기 배경 분류 모델을 취득하기 위한 제 2 곱셈 유닛
을 구비한다.
옵션으로서,
상기 화상 분할 모듈은,
상기 전경 분류 모델을 이용하여, 상기 화상내의 각 화소의 전경 유사도를 산출하기 위한 제 2 산출 유닛과,
상기 배경 분류 모델을 이용하여, 상기 화상내의 각 화소의 배경 유사도를 산출하기 위한 제 3 산출 유닛과,
상기 화상내의 인접된 화소 점들 사이의 유사도를 취득하기 위한 취득 유닛과,
각 화소 점의 전경 유사도, 각 화소 점의 배경 유사도 및 인접된 화소 점들 사이의 유사도를 이용하여, 상기 소정의 화상 분할 알고리즘에 필요한 무향 그래프를 구축하기 위한 구축 유닛과,
상기 소정의 분할 알고리즘을 이용하여 상기 무향 그래프를 분할하여 상기 화상의 분할을 완성하기 위한 제 1 분할 유닛
을 구비한다.
옵션으로서,
상기 구축 유닛은,
전경 정점, 배경 정점, 적어도 하나의 화소 정점, 인접된 두 화소 정점 사이의 제 1 유형의 변, 상기 화소 정점과 상기 배경 정점 사이의 제 2 유형의 변 및 상기 화소 정점과 상기 배경 정점 사이의 제 3 유형의 변을 포함하는, 상기 소정의 화상 분할 알고리즘에 필요한 무향 그래프를 구축하기 위한 구축 서브 유닛과,
각 제 2 유형의 변에 대하여, 상기 제 2 유형의 변에 연결되어 있는 화소 정점에 대응되는 화소 점의 전경 유사도를 상기 제 2 종류의 변의 가중치로 확정하기 위한 제 1 확정 서브 유닛과,
각 제 3 유형의 변에 대하여, 상기 제 3 유형의 변에 연결되어 있는 화소 정점에 대응되는 화소 점의 배경 유사도를 상기 제 3 유형의 변의 가중치로 확정하기 위한 제 2 확정 서브 유닛과,
각 제 1 유형의 변에 대하여, 상기 제 1 유형의 변에 연결되어 있는 두 화소 정점에 대응되는 두 화소 점 사이의 유사도를 상기 제 1 유형의 변의 가중치로 확정하는 위한 제 3 확정 서브 유닛
을 구비하며,
상기 무향 그래프 중의 화소 정점과 상기 화상내의 각 화소 점은 1 대 1로 대응된다.
옵션으로서,
상기 제 1 확립 모듈은,
소정의 과분할 알고리즘에 따라 상기 화상을 과분할하여 적어도 하나의 영역을 취득하기 위한 제 2 분할 유닛과,
상기 각 영역의 색상 값과 질량 중심을 확정하기 위한 제 3 확정 유닛과,
각 영역에 대응되는 색상 값 및 각 영역의 질량 중심에 기반하여, 상기 현저성 모델을 확립하기 위한 제 3 확립 유닛을 구비하며,
하나의 상기 영역내의 각 화소 점의 색상 값은 동일하다.
옵션으로서,
상기 현저성 모델은,
Figure 112014125138245-pct00025
이며,
여기서,
Figure 112014125138245-pct00026
는, 영역 
Figure 112014125138245-pct00027
내의 어느 한 화소 점의 현저성의 값이며,
Figure 112014125138245-pct00028
는, 영역
Figure 112014125138245-pct00029
내의 화소 점의 개수이며,
Figure 112014125138245-pct00030
는, 상기 영역
Figure 112014125138245-pct00031
과 상기 영역
Figure 112014125138245-pct00032
사이의 공간 위치의 차이의 메트릭 값을 표시하기 위한 것이며,
Figure 112014125138245-pct00033
는, 상기 영역
Figure 112014125138245-pct00034
과 상기 영역
Figure 112014125138245-pct00035
사이의 색상 차이의 메트릭 값을 표시하기 위한 것이며,
N은 상기 화상을 과분할한 후 취득한 영역의 총개수이며,
Figure 112014125138245-pct00036
는,
Figure 112014125138245-pct00037
이며,
Figure 112014125138245-pct00038
는, 상기 영역
Figure 112014125138245-pct00039
의 질량 중심이며,
Figure 112014125138245-pct00040
는, 상기 영역
Figure 112014125138245-pct00041
의 질량 중심이며,
상기 화상내의 각 화소의 좌표를 모두 [0,1]로 정규화하면
Figure 112014125138245-pct00042
를 얻는다.
옵션으로서,
상기 제 1 확립 모듈은,
각 화소 점의 색상 값에 기반하여 색상 값이 동일한 화소 점을 하나의 색상 종류로 분류하는 방법에 따라 상기 화상내의 각 화소 점을 분류하는 분류 유닛과,
각 색상 종류의 색상 값에 기반하여 상기 현저성 모델을 확립하기 위한 제 4 확립 유닛을 구비한다.
옵션으로서,
상기 현저성 모델은,
Figure 112014125138245-pct00043
이며,
여기서,
Figure 112014125138245-pct00044
는, 색상 종류
Figure 112014125138245-pct00045
내의 화소 점의 개수이며,
Figure 112014125138245-pct00046
는, 색상 종류
Figure 112014125138245-pct00047
와 색상 종류
Figure 112014125138245-pct00048
사이의 색상 차이의 메트릭 값을 표시하기 위한 것이다.
본 발명에 따른 실시 예의 제 3 측면에 따르면, 화상 분할 장치를 제공한다.
당해 장치는,
프로세서와,
상기 프로세서에 의해 수행가능한 인스트럭션을 저장하기 위한 메모리
을 구비하며,
상기 프로세서는,
화상의 현저성 모델을 확립하고,
상기 현저성 모델에 기반하여 상기 화상의 전경 샘플 점과 배경 샘플 점을 취득하고,
상기 현저성 모델, 상기 전경 샘플 점 및 상기 배경 샘플 점에 기반하여 전경/배경 분류 모델을 확립하고,
상기 전경/배경 분류 모델 및 화소 점들 사이의 에지 정보에 기반하여 상기 화상을 분할하기 위한 소정의 화상 분할 알고리즘에 따라, 상기 화상을 분할하도록 구성된다.
본 발명의 실시 예의 제 4 측면에 따르면, 프로세서에 의해 실행되는 것을 통하여 상기의 화상 분할 방법을 실현하는 기록메체에 기록된 프로그램을 제공한다.
본 발명의 실시 예의 제 5 측면에 따르면, 상기 프로그램이 기록된 기록매체를 제공한다.
전경 샘플 점과 배경 샘플 점을 자동으로 확정하고, 현저성 모델 및 전경 샘플 점과 배경 샘플 점을 결합 이용하여 전경/배경 분류 모델을 수립하며, 당해 전경/배경 분류 모델을 이용하여 화상의 분할을 실현함으로써, 관련 기술에서의, 반드시 사용자에 의해 수동으로 전경 샘플 점과 배경 샘플 점을 대충 선정하는 것이 필요함으로 인한, 대량의 화상에 분할하는 경우에 분할 효율이 낮아지는 문제점을 해결할수 있다. 전경 샘플 점과 배경 샘플 점을 자동으로 취득할수 있고, 또한 전경/배경 분류 모델을 확립할 때 기존의 현저성 모델도 사용하기때문에, 샘플 선택의 자동화를 실현할수 있고, 분할 정확도를 개선시키는 효과를 얻을수 있다.
이상의 일반적인 설명과 후술되는 세부사항은 단지 예시적인 것일뿐, 본 발명을 한정하기 위한 것이 아니라는 것을 이해해야 할 것이다.
여기서의 도면은, 명세서에 합병되어 본 명세서의 일부를 구성하고, 본 발명에 따른 실시 예를 도시하며, 명세서와 함께 본 발명의 원리를 설명하는 데 사용된다.
도 1은, 예시적인 일 실시 예에 따른 화상 분할 방법을 나타내는 플로우 차트이다.
도 2a는, 예시적인 다른 일 실시 예에 따른 화상 분할 방법을 나타내는 플로우 차트이다.
도 2b는, 예시적인 일 실시 예에 따른 화상의 현저성 모델을 설정하는 방법을 나타내는 플로우 차트이다.
도 2c는, 예시적인 다른 일 실시 예에 따른 화상의 현저성 모델을 설정하는 방법을 나타내는 플로우 차트이다.
도 2d는, 예시적인 일 실시 예에 따른 무향 그래프를 구축하는 방법을 나타내는 플로우 차트이다.
도 2e는, 예시적인 일 실시 예에 따른 무향 그래프를 나타내는 모식도이다.
도 3은, 예시적인 일 실시 예에 따른 화상 분할 장치를 나타내는 블록도이다.
도 4는, 예시적인 다른 일 실시 예에 따른 화상 분할 장치를 나타내는 블록도이다.
도 5 는, 예시적인 또 다른 일 실시 예에 따른 화상 분할 장치를 나타내는 블록도이다.
하기에 본 발명의 목적, 기술안 및 이점을 더욱 명확하게 하기 위하여 도면을 참조하면서 본 발명의 실시예를 더욱 상세하게 설명하도록 한다. 물론, 설명하는 실시 예는 단지 본 발명의 여러개의 실시 예에 불과할 뿐, 전부의 실시 예가 아니다. 본 기술분야의 통상의 지식을 가진 자에 있어서 본 발명의 실시 예에 기반하여 진보성 창출에 힘쓸 필요가 없는 전제하에서 얻은 기타 전부의 실시 예는 본 발명의 범위에 속한다.
우선, 본 발명의 각 실시 예에서 언급되는 전자 기기는 휴대 전화, 태블릿 PC, 전자 도서 리더, MP3 플레이어(Moving Picture Experts Group Audio Layer III), MP4(Moving Picture Experts Group Audio Layer IV)플레이어, 휴대용 컴퓨터, 데스크톱 컴퓨터, 등일수 있다는것을 설명할 필요가 있다.
도 1은, 예시적인 일 실시 예에 따른 화상 분할 방법을 나타낸 플로우 차트이다. 도 1에 나타낸 바와 같이, 당해 화상 분할 방법은 전자 기기에 적용될수 있다. 당해 화상 분할 방법은, 아래의 단계를 포함한다.
단계 101에 있어서, 화상의 현저성 모델(saliency model)을 확립한다.
단계 102에 있어서, 현저성 모델을 이용하여 화상의 전경 샘플 점과 배경 샘플 점을 취득한다.
단계 103에 있어서, 현저성 모델, 전경 샘플 점 및 배경 샘플 점을 이용하여 전경/배경 분류 모델을 확립한다.
단계 104에 있어서, 전경/배경 분류 모델 및 화소 점들 사이의 에지 정보를 이용하여 화상을 분할하기 위한 소정의 화상 분할 알고리즘에 따라, 화상을 분할한다.
상기와 같이, 본 발명에 따른 실시 예에 의해 제공되는 화상 분할 방법에 따르면, 전경 샘플 점과 배경 샘플 점을 자동으로 확정하고, 현저성 모델 및 전경 샘플 점과 배경 샘플 점을 결합 이용하여 전경/배경 분류 모델을 수립하며, 당해 전경/배경 분류 모델을 이용하여 화상의 분할을 실현함으로써, 관련 기술에서의, 반드시 사용자에 의해 수동으로 전경 샘플 점과 배경 샘플 점을 대충 선정하는 것이 필요함으로 인한, 대량의 화상에 분할하는 경우에 분할 효율이 낮아지는 문제점을 해결할수 있다. 전경 샘플 점과 배경 샘플 점을 자동으로 취득할수 있고, 또한 전경/배경 분류 모델을 확립할 때 기존의 현저성 모델도 사용하기때문에, 샘플 선택의 자동화를 실현할수 있고, 분할 정확도를 개선시키는 효과를 얻을수 있다.
도 2a는, 예시적인 다른 일 실시 예에 따른 화상 분할 방법의 플로우 차트이다. 도 2a에 나타낸 바와 같이 당해 화상 분할 방법은 전자 기기에 적용될수 있다. 당해 화상 분할 방법은 아래의 단계를 포함한다.
단계 201에 있어서, 화상의 현저성 모델을 확립한다.
실제로 실시할 때에는, 다양한 방법에 따라 화상의 현저성 모델을 확립할수 있다. 구체적으로는 아래과 같다.
첫 번째 방법은 도 2b과 같다. 당해 도 2b는、 예시적인 일 실시 예에 따른 화상의 현저성 모델을 수립하는 방법을 나타낸 플로우 차트이다. 당해 방법은 아래의 단계를 포함한다.
단계 201a에 있어서, 소정의 과분할 알고리즘 (over-segmentation algorithm)에 따라 화상을 과분할하여 적어도 하나의 영역을 취득한다. 여기서, 하나의 영역내의 각 화소 점의 색상 값은 동일하다.
화상을 과분할하는 처리는, 화상을 다수의 영역으로 분할하는 과정이다. 각 영역내의 화소 점의 한가지 특징이 동일하다. 예를 들면, 과분할하여 취득한 하나의 영역내의 각 화소 점의 색상 값이 동일하다. 혹은, 과분할하여 취득한 하나의 영역내의각 화소 점의 색상 값이 매우 접근한다.
여기에서 채용하는 과분할 알고리즘은, 평균 값 이동 (Mean shift)에 따른 과분할 알고리즘이다. 실제로 실시할 때에는, 기타의 다양한 과분할 알고리즘을 채용할수 있다. 예를 들면, 분수령 (watershed)에 따른 과분할 알고리즘, 울트라 픽셀 클러스터링 (ultra pixel clustering)에 따른 과분할 알고리즘 등을 채용할수 있다, 본 실시 예에서, 과분할 알고리즘에 대해 한정하지 않는다.
단계 201b에 있어서, 각 영역의 색상 값과 질량 중심을 확정한다.
과분할 후의 영역내의 각 화소 점은 동일한 색상의 값을 갖기 때문에, 당해 영역의 색상 값을 확정할수 있다. 각 영역에 대해, 각각, 영역에 해당되는 질량 중심을 산출할수 있다.
단계 201c에 있어서, 각 영역에 대응되는 색상 값 및 각 영역의 질량 중심에 기반하여, 현저성 모델을 확립한다.
단계 201a, 단계 b 및 단계 201c에 의해 설립 된 현저성 모델은 아래과 같다.
즉,
Figure 112014125138245-pct00049
이며,
여기서,
Figure 112014125138245-pct00050
는, 영역 
Figure 112014125138245-pct00051
내의 어느 한 화소 점의 현저성의 값이며,
Figure 112014125138245-pct00052
는, 영역
Figure 112014125138245-pct00053
내의 화소 점의 개수이며,
Figure 112014125138245-pct00054
는, 상기 영역
Figure 112014125138245-pct00055
과 상기 영역
Figure 112014125138245-pct00056
사이의 공간 위치의 차이의 메트릭 값을 표시하기 위한 것이며,
Figure 112014125138245-pct00057
는, 상기 영역
Figure 112014125138245-pct00058
과 상기 영역
Figure 112014125138245-pct00059
사이의 색상 차이의 메트릭 값을 표시하기 위한 것이며,
N은 상기 화상을 과분할한 후 취득한 영역의 총개수이며,
Figure 112014125138245-pct00060
는,
Figure 112014125138245-pct00061
이며,
Figure 112014125138245-pct00062
는, 상기 영역
Figure 112014125138245-pct00063
의 질량 중심이며,
Figure 112014125138245-pct00064
는, 상기 영역
Figure 112014125138245-pct00065
의 질량 중심이며,
상기 화상내의 각 화소의 좌표를 모두 [0,1]로 정규화하면
Figure 112014125138245-pct00066
를 얻는다.
영역
Figure 112014125138245-pct00067
의 평균 색상 값과 영역
Figure 112014125138245-pct00068
의 평균 색상 값의 유클리드 거리에 기반하여,
Figure 112014125138245-pct00069
를 표시할 수 있다.
영역의 평균 색상 값은, 당해 영역내의 각 화소 점의 색상 값을 가산한후에 당해 영역내의 화소 점의 개수로 나눗셈하여 얻어낸 값이다. 이상적으로는, 영역내의 각 화소 점의 색상 값은 모두 동일하다. 이 경우, 영역의 색상 값이, 바로 당해 영역내의 하나의 화소 점의 색상 값이다. 그러나, 실제로 실시할때에는, 하나의 영역내의 각 화소 점의 색상 값이 완전히 동일하지 않다. 일반적으로 각 화소 점의 색상 값은 비교적 접근한다. 이 경우에는 당해 영역에서의 각 화소 점의 색상 값을 가산한후에 당해 영역에서의 화소 점의 개수로 나눗셈하여 당해 영역의 평균 색상 값을 얻을 수 있다.
당해 현저성 모델의 구성으로부터 알수 있듯이, 당해 현저성 모델은, 각 영역내의 화소 점의 현저성의 값이 받은 화상의 기타 영역들의 영향을 표시할수 있다.
두 번째 방법은 도 2c와 같다. 당해 도 2c는 예시적인 다른 일 실시 예에 따른 화상의 현저성 모델을 수립하는 방법을 나타낸 플로우 차트이다. 당해 방법은 아래의 단계를 포함한다.
단계 201d에 있어서, 각 화소 점의 색상 값에 기반하여, 색상 값이 동일한 화소 점을 하나의 색상 종류로 분류하는 방법에 따라 화상내의 각 화소 점을 분류한다.
실제로 실시할 때에는, 화소를 저장하기 위한, 색상 값에 해당되는 저장 공간 (예를 들면, 스토리지 큐, 스토리지 스택, 등)을 설정할수 있다. 저장 공간의 개수는 256 * 256 * 256 일수 있다. 화상내의 화소 점을 순차적으로 판독하여, 당해 화소를 당해 화소 점의 색상 값에 대응되는 스토리지 스페이스에 저장한다. 이때 각 스토리지 스페이스에 저장된 각 화소 점의 색상 값은 모두 동일하다.
당해 화상내의 각 화소 점을 모두 판독한후 각 스토리지 스페이스에 포함된 화소 점의 개수를 통계한다.
단계 201e에 있어서, 각 색상 종류의 색상 값에 기반하여 현저성 모델을 확립한다.
각 색상 종류의 색상 값에 기반하여 설립하여 얻은 현저성 모델은 아래과 같다.
즉,
Figure 112014125138245-pct00070
이며,
여기서,
Figure 112014125138245-pct00071
는, 색상 종류
Figure 112014125138245-pct00072
내의 화소 점의 개수이며,
Figure 112014125138245-pct00073
는, 색상 종류
Figure 112014125138245-pct00074
와 색상 종류
Figure 112014125138245-pct00075
사이의 색상 차이의 메트릭 값을 표시하기 위한 것이다.
실제로 실시할 때에는, 단계 201d를 통하여 화상의 화소 점을 분류한 후, 하나의 색상 종류에 대응되는 화소 점의 개수가 매우 적을수 있가. 이런 화소 점의 색상이 다른 화소 점의 색상 현저성의 값에 미치는 영향이 아주 미약하기때문에, 실현 가능한 형태에 있어서, 연산 부하를 줄이기 위하여 비교적 많은 화소 점의 색상에 대응되는 색상 유형을 선택하여 현저성 모델을 확립할수 있다는것을 설명할 필요가 있다
단계 202에 있어서, 현저성 모델을 이용하여 화상내의 각 화소의 현저성의 값을 산출한다.
단계 203에 있어서, 각 화소 점의 현저성의 값을 정규화시킨다.
일반적으로, 각 화소 점의 현저성의 값을 (0,1)의 범위 내로 정규화시킬수 있다.
단계 204에 있어서, 정규화 후의 현저성의 값이 소정의 전경 임계 값보다 큰 화소 점을, 전경 샘플 점으로 확정한다.
각 화소 점의 현저성의 값을 (0,1)의 범위 내로 정규화시킬 시, 실제 상황에 따라 소정의 전경 임계 값을 설정할수 있다. 예를 들면, 당해 소정의 전경 임계 값을 0.8로 설정할수 있다.
단계 205에 있어서, 정규화 후의 현저성의 값이 소정의 배경 임계 값보다 작은 화소 점을, 배경 샘플 점으로 확정한다.
각 화소 점의 현저성의 값을 (0,1)의 범위 내로 정규화시킬 시, 실제 상황에 따라 소정의 전경 임계 값을 설정할수 있다. 예를 들면, 당해 소정의 전경 임계 값을 0.25로 설정할수 있다.
일반적으로, 소정의 전경 임계 값은 소정의 배경 임계 값보다 크다.
이렇게 하여, 확립된 현저성 모델을 이용하여 전경 샘플 점과 배경 샘플 점을 자동적으로 확정할수 있다.
단계 206에 있어서, 전경 샘플 점을 이용하여 전경 색상의 가능성 모델(likelihood model)을 확립한다.
실제로 실시할 때에는, 색상 가능성 모델을 확립하는 방법은 비교적 많다. 예를 들면, 히스토그램 통계에 따른 수학 모델링 방법에 따라 색상의 가능성 모델을 확립할수 있다. 또한, 가우스 혼합 모델 (Gaussian Mixture Model)에 따라 색상의 가능성 모델을 확립할수 있다. 색상 가능성 모델을 확립할 시, 이용한 샘플 점이 전경 샘플 점일 경우, 취득한 색상 가능성 모델을 전경 색상의 가능성 모델로 확정한다.
단계 207에 있어서, 배경 샘플 점을 이용하여 배경 색상의 가능성 모델을 확립한다.
마찬가지로, 히스토그램 통계에 따른 수학 모델링 방법에 따라 색상의 가능성 모델을 확립할수 있다. 또한, 가우스 혼합 모델 (Gaussian Mixture Model)에 따라 색상의 가능성 모델을 확립할수 있다. 색상 가능성 모델을 확립할 시, 이용한 샘플 점이 배경 샘플 점일 경우, 취득한 색상 가능성 모델을 배경 색상의 가능성 모델로 확정한다.
단계 208에 있어서, 현저성 모델과 전경 색상 가능성 모델을 곱셈하여, 화소 점이 전경일 확률을 표시하기 위한 전경 분류 모델을 취득한다.
화상에서 전경을 분할할때의 정확도를 개선하기 위하여, 공지의 현저성 모델 및 강화된 전경 가능성 모델을 결합 이용하여 전경 분류 모델을 얻을수 있다. 예를 들면, 현저성 모델과 전경 색상 가능성 모델을 곱셈하여, 전경 분류 모델을 얻을수 있다.
단계 209에 있어서, 현저성 모델과 배경 색상 가능성 모델을 곱셈하여, 화소 점이 배경일 확률을 표시하기 위한 배경 분류 모델을 취득한다.
마찬가지로, 화상에서 배경을 분할할때의 정확도를 개선하기 위하여, 공지의 현저성 모델 및 강화된 배경 가능성 모델을 결합 이용하여 배경 분류 모델을 얻을수 있다. 예를 들면, 현저성 모델과 배경 색상 가능성 모델을 곱셈하여, 배경 분류 모델을 얻을수 있다.
단계 210에 있어서, 전경 분류 모델을 이용하여, 화상내의 각 화소의 전경 유사도를 산출한다.
전경 분류 모델은 화소 점이 전경일 확률을 표시하기 위한것인 바, 즉, 당해 화소 점과 전경과의 유사성을 표시할수 있기때문에, 전경 분류 모델을 이용하여 화상내의 각 화소의 전경 유사도를 직접 산출할수 있다.
단계 211에 있어서, 배경 분류 모델을 이용하여, 화상내의 각 화소의 배경 유사도를 산출한다.
마찬가지로, 배경 분류 모델은 화소 점이 배경일 확률을 표시하기 위한것인 바, 즉, 당해 화소 점과 배경과의 유사성을 표시할수 있기때문에, 배경 분류 모델을 이용하여 화상내의 각 화소의 배경 유사도를 직접 산출할수 있다.
단계 212에 있어서, 화상내의 인접된 화소 점들 사이의 유사도를 취득한다.
단계 213에 있어서, 각 화소 점의 전경 유사도, 각 화소 점의 배경 유사도 및 인접된 화소 점들 사이의 유사도를 이용하여, 소정의 화상 분할 알고리즘에 필요한 무향 그래프를 구축한다.
도 2d는 예시적인 일 실시 예에 따른 무향 그래프를 구축하는 방법의 플로우 차트이다. 각 화소 점의 전경 유사도, 각 화소 점의 배경 유사도 및 인접된 화소 점들 사이의 유사도를 이용하여, 소정의 화상 분할 알고리즘에 필요한 무향 그래프를 구축하는 단계는, 아래의 단계를 포함할수 있다.
단계 213a에 있어서, 전경 정점, 배경 정점, 적어도 하나의 화소 정점, 인접된 두 화소 정점 사이의 제 1 종류의 변, 화소 정점과 배경 정점 사이의 제 2 종류의 변 및 화소 정점과 배경 정점 사이의 제 3 종류의 변을 포함하는, 소정의 화상 분할 알고리즘에 필요한 무향 그래프를 구축한다. 무향 그래프 중의 화소 정점과 화상내의 각 화소 점은 1 대 1로 대응된다.
무향 그래프 중의 화소 정점은 화상내의 각 화소 점에 매핑함으로써 얻은 것이다. 즉, 화상에 포함 된 화소 점의 개수는 구축 된 무향 그래프 중의 화소 정점의 수와 동일하며, 또한, 화소 지점마다 하나의 화소 정점이 지원되며, 화소 정점마다 하나의 화소 점이 대응되어있다.
도 2e는 예시적인 일 실시 예에 따른 무향 그래프의 모식도이다. 당해 무향 그래프는 화소 정점을 포함하며, 이러한 화소 정점은 화상내의 각 화소 점과 1 대 1로 대응된다. 설명의 편의를 위하여, 여기에서는 9 개의 화소 정점만을 나타내고 있다. 당해 무향 그래프는 전경 정점 S와 배경 정점 T를 더 포함한다. 여기서, 화소 정점들 사이에는 제 1 종류의 변 s1이 연결되어 있고, 전경 정점 S와 어느 하나의 화소 정점 사이에 2 종류의 변 s2가 연결되어 있으며, 배경 정점 T와 어느 하나의 화소 정점 사이에는 제 3 종류의 변 s3가 연결되어 있다.
단계 213b에 있어서, 각 제 2 유형의 변에 대하여, 제 2 유형의 변에 연결되어 있는 화소 정점에 대응되는 화소 점의 전경 유사도를 제 2 종류의 변의 가중치로 확정한다.
예를 들면, 하나의 선정된 화소 정점에 대하여, 당해 화소 정점에 대응되는 화소들을 확인할수 있다. 당해 화소 점의 전경 유사도를 당해 화소 정점과 전경 정점 사이의 제 2 유형의 변의 가중치로 확정한다.
단계 213c에 있어서, 각 제 3 유형의 변에 대하여, 제 3 종류의 변에 연결되어 있는 화소 정점에 대응되는 화소 점의 배경 유사도를 제 3 종류의 변의 가중치로 확정한다.
예를 들면, 하나의 선정 화소 정점에 대하여, 당해 화소 정점에 대응되는 화소들을 확인할수 있다. 당해 화소 점 배경 유사도를 당해 화소 정점과 배경 정점 사이의 제 3 유형의 변의 가중치로 확정한다.
단계 213d에 있어서, 각 제 1 유형의 변에 대하여, 1 종류의 변에 연결되어 있는 두 화소 정점에 대응되는 두 화소 점 사이의 유사도를 제 1 유형의 변의 가중치로 확정한다.
단계 214에 있어서, 소정의 분할 알고리즘에 따라 무향 그래프를 분할하여 화상의 분할을 완성한다.
소정의 분할 알고리즘은 Graph cut (그래프 컷) 알고리즘 일수 있다. 당해 알고리즘은 상기 단계 213에서 구축 한 무향 그래프를 이용하여 화상의 분할을 완성할수 있다. 본 기술 분야의 당업자에 있어서, Graph cut 알고리즘을 이용하여 무향 그래프를 분할하는 방법을 쉽게 실현할수있기에 여기서는 상세한 설명을 생략한다.
상기와 같이, 본 발명에 따른 실시 예에 의해 제공되는 화상 분할 방법에 따르면, 전경 샘플 점과 배경 샘플 점을 자동으로 확정하고, 현저성 모델 및 전경 샘플 점과 배경 샘플 점을 결합 이용하여 전경/배경 분류 모델을 수립하며, 당해 전경/배경 분류 모델을 이용하여 화상의 분할을 실현함으로써, 관련 기술에서의, 반드시 사용자에 의해 수동으로 전경 샘플 점과 배경 샘플 점을 대충 선정하는 것이 필요함으로 인한, 대량의 화상에 분할하는 경우에 분할 효율이 낮아지는 문제점을 해결할수 있다. 전경 샘플 점과 배경 샘플 점을 자동으로 취득할수 있고, 또한 전경/배경 분류 모델을 확립할 때 기존의 현저성 모델도 사용하기때문에, 샘플 선택의 자동화를 실현할수 있고, 분할 정확도를 개선시키는 효과를 얻을수 있다.
이하는 본 발명의 장치의 실시 예이며, 본 발명의 방법의 실시 예를 수행할수 있다. 본 발명의 장치의 실시 예 내에서 기술되지 않은 세부 내용은, 본 발명의 방법의 실시 예를 참조할수 있다.
도 3은, 예시적인 일 실시 예에 따른 화상 분할 장치의 블록도이다. 도 3에 나타낸 바와 같이, 당해 화상 분할 장치는 전자 기기에 적용될수 있다. 당해 화상 분할 장치는, 제 1 확립 모듈 (302), 샘플 취득 모듈 (304), 제 2 확립 모듈 (306) 및 화상 분할 모듈 (308)을 포함하되, 이에 한정되지 않는다.
당해 제 1 확립 모듈 (302)은, 화상의 현저성 모델을 확립한다.
당해 샘플 취득 모듈 (304)은, 현저성 모델을 이용하여 화상의 전경 샘플 점과 배경 샘플 점을 취득한다.
당해 제 2 확립 모듈 (306)은, 제 1 확립 모듈에 의해 확립된 현저성 모델 및 샘플 취득 모듈에 의해 취득된 전경 샘플 점과 배경 샘플 점을 이용하여 전경/배경 분류 모델을 확립한다.
당해 화상 분할 모듈 (308)은, 제 2 확립 모듈에 의해 확립된 전경/배경 분류 모델 및 화소 점들 사이의 에지 정보를 이용하여 화상을 분할하기 위한 소정의 화상 분할 알고리즘에 따라, 화상을 분할한다.
상기와 같이, 본 발명에 따른 실시 예에 의해 제공되는 화상 분할 장치에 따르면, 전경 샘플 점과 배경 샘플 점을 자동으로 확정하고, 현저성 모델 및 전경 샘플 점과 배경 샘플 점을 결합 이용하여 전경/배경 분류 모델을 수립하며, 당해 전경/배경 분류 모델을 이용하여 화상의 분할을 실현함으로써, 관련 기술에서의, 반드시 사용자에 의해 수동으로 전경 샘플 점과 배경 샘플 점을 대충 선정하는 것이 필요함으로 인한, 대량의 화상에 분할하는 경우에 분할 효율이 낮아지는 문제점을 해결할수 있다. 전경 샘플 점과 배경 샘플 점을 자동으로 취득할수 있고, 또한 전경/배경 분류 모델을 확립할 때 기존의 현저성 모델도 사용하기때문에, 샘플 선택의 자동화를 실현할수 있고, 분할 정확도를 개선시키는 효과를 얻을수 있다.
도 4는 예시적인 다른 일 실시 예에 따른 화상 분할 장치의 블록도이다. 도 4에 나타낸 바와 같이 당해 화상 분할 장치는 전자 기기에 적용될수 있다. 당해 화상 분할 장치는 제 1 확립 모듈 (402), 샘플 취득 모듈 (404), 제 2 확립 모듈 (406) 및 화상 분할 모듈 (408)을 포함하되, 이에 한정되지 않는다.
당해 제 1 확립 모듈 (402)은, 화상의 현저성 모델을 확립한다.
당해 샘플 취득 모듈 (404)은, 현저성 모델을 이용하여 화상의 전경 샘플 점과 배경 샘플 점을 취득한다.
당해 제 2 확립 모듈 (406)은, 제 1 확립 모듈 (402)에 의해 확정된 현저성 모델 및 샘플 취득 모듈 (404)에 의해 취득된 전경 샘플 점과 배경 샘플 점을 이용하여 전경/배경 분류 모델을 확립한다.
당해 화상 분할 모듈 (408)은, 제 2 확립 모듈 (406)에 의해 확립된 전경/배경 분류 모델 및 화소 점들 사이의 에지 정보를 이용하여 화상을 분할하기 위한 소정의 화상 분할 알고리즘에 따라, 화상을 분할한다.
도 4에 도시된 실시 예에 따른 실시 가능한 제 1 예에 있어서, 샘플 취득 모듈 (404)은, 제 1 산출 유닛 (404a), 정규화 유닛 (404b), 제 1 확정 유닛 (404c) 및 제 2 확정 유닛 (404d)을 구비할수 있다.
당해 제 1 산출 유닛 (404a)은, 현저성 모델을 이용하여 화상내의 각 화소의 현저성의 값을 산출한다.
당해 정규화 유닛 (404b)은, 제 1 산출 유닛 (404a)에 의해 산출된 각 화소 점의 현저성의 값을 정규화시킨다.
당해 제 1 확정 유닛 (404c)은, 정규화 유닛 (404b) 의해 정규화 된 후의 현저성의 값이, 소정의 전경 임계 값보다 큰 화소 점을 전경 샘플 점으로 확정한다.
당해 제 2 확정 유닛 (404d)은 정규화 유닛 (404b) 의해 정규화 된 후의 현저성의 값이, 소정의 배경 임계 값보다 작은 화소 점을 배경 샘플 점으로 확정한다.
여기서, 소정의 전경 임계 값은 소정의 배경 임계 값보다 크고, 정규화 후의 각 현저성의 값은 모두 (0,1)의 범위 내에 위치한다.
도 4에 도시 된 실시 예에 따른 실시 가능한 제 2 예에 있어서, 전경/배경 분류 모델은, 전경 분류 모델과 배경 분류 모델을 포함한다. 당해 제 2 확립 모듈 (406)은, 제 1 확립 유닛 (406a), 제 2 확립 유닛 (406b), 제 1 곱셈 유닛 (406c) 및 제 2 곱셈 유닛 (406d)을 구비할수 있다.
당해 제 1 확립 유닛 (406a)은, 전경 샘플 점을 이용하여 전경 색상의 가능성 모델을 확립한다.
당해 제 2 확립 유닛 (406b)은, 배경 샘플 점을 이용하여 배경 색상의 가능성 모델을 확립한다.
당해 제 1 곱셈 유닛 (406c)은, 제 1 확립 모듈 (402)에 의해 확립된 현저성 모델과 제 1 확립 유닛 (406a)에 의해 확립된 전경 색상 가능성 모델을 곱셈하여, 화소 점이 전경일 확률을 표시하기 위한 전경 분류 모델을 취득한다.
당해 제 2 곱셈 유닛 (406d)은, 제 1 확립 모듈 (402)에 의해 확정된 현저성 모델과 제 2 확립 유닛 (406b) 에 의해 확정된 배경 색상 가능성 모델을 곱셈하여, 화소 점이 배경일 확률을 표시하기 위한 배경 분류 모델을 취득한다.
도 4에 도시 된 실시 예에 따른 실시 가능한 제 3 예에 있어서, 화상 분할 모듈 (408)은, 제 2 산출 유닛 (408a), 제 3 산출 유닛 (408b), 취득 유닛 (408c), 구축 유닛 (408d) 및 제 1 분할 유닛 (408e)을 포함할수 있다.
당해 제 2 산출 유닛 (408a)은, 전경 분류 모델을 이용하여, 화상내의 각 화소의 전경 유사도를 산출한다.
당해 제 3 산출 유닛 (408b)은, 배경 분류 모델을 이용하여, 화상내의 각 화소의 배경 유사도를 산출한다.
당해 취득 유닛 (408c)은, 화상내의 인접된 화소 점들 사이의 유사도를 취득한다.
당해 구축 유닛 (408d)은, 각 화소 점의 전경 유사도, 각 화소 점의 배경 유사도 및 인접된 화소 점들 사이의 유사도를 이용하여, 소정의 화상 분할 알고리즘에 필요한 무향 그래프를 구축한다.
당해 제 1 분할 유닛 (408e)은, 소정의 분할 알고리즘에 따라 무향 그래프를 분할하여 화상의 분할을 완성한다.
도 4에 도시 된 실시 예에 따른 실시 가능한 제 4 예에 있어서, 구축 유닛 (408d)은, 구축 서브 유닛 (408d1), 제 1 확정 서브 유닛 (408d2), 제 2 확정 서브 유닛 (408d3) 및 제 3 확정 서브 유닛 (408d4) 을 포함한다.
당해 구축 서브 유닛 (408d1)은, 전경 정점, 배경 정점, 적어도 하나의 화소 정점, 인접된 두 화소 정점 사이의 제 1 종류의 변, 화소 정점과 배경 정점 사이의 제 2 종류의 변 및 화소 정점과 배경 정점 사이의 제 3 유형의 변을 포함하는, 소정의 화상 분할 알고리즘에 필요한 무향 그래프를 구축한다. 무향 그래프 중의 화소 정점과 화상내의 각 화소 점은 1 대 1로 대응된다.
당해 제 1 확정 서브 유닛 (408d2)은, 각 제 2 종류의 변에 대하여, 제 2 종류의 변에 연결되어 있는 화소 정점에 대응되는 화소 점의 전경 유사도를 2 종류의 변의 가중치에 확정한다.
당해 제 2 확정 서브 유닛 (408d3)은, 각 제 3 종류의 변에 대하여, 제 3 종류의 변에 연결되어 있는 화소 정점에 대응되는 화소 점의 배경 유사도를 제 3 종류의 변의 가중치로 확정한다.
당해 제 3 확정 서브 유닛 (408d4)은, 각 제 1 유형의 변에 대하여, 1 종류의 변에 연결되어 있는 두 화소 정점에 대응되는 두 화소 점 사이의 유사도를 제 1 종류의 변의 가중치로 확정한다.
도 4에 도시 된 실시 예에 따른 실시 가능한 제 5 예에 있어서, 제 1 확립 모듈 (402)은, 제 2 분할 유닛 (402a), 제 3 확정 유닛 (402b) 및 제 3 확립 유닛 (402c)을 구비할수 있다.
당해 제 2 분할 유닛 (402a)은, 소정의 과분할 알고리즘에 따라 화상을 과분할하여 적어도 하나의 영역을 취득한다. 여기서 하나의 영역내의 각 화소 점의 색상 값은 동일하다.
당해 제 3 확정 유닛 (402b)은, 각 영역의 색상 값과 질량 중심을 확정한다.
당해 제 3 확립 유닛 (402c)은, 각 영역에 대응되는 색상 값 및 각 영역의 질량 중심에 기반하여, 현저성 모델을 확립한다.
도 4에 도시 된 실시 예에 따른 실시 가능한 제 6 예에 있어서,
상기 현저성 모델은,
Figure 112014125138245-pct00076
이며,
여기서,
Figure 112014125138245-pct00077
는, 영역 
Figure 112014125138245-pct00078
내의 어느 한 화소 점의 현저성의 값이며,
Figure 112014125138245-pct00079
는, 영역
Figure 112014125138245-pct00080
내의 화소 점의 개수이며,
Figure 112014125138245-pct00081
는, 상기 영역
Figure 112014125138245-pct00082
과 상기 영역
Figure 112014125138245-pct00083
사이의 공간 위치의 차이의 메트릭 값을 표시하기 위한 것이며,
Figure 112014125138245-pct00084
는, 상기 영역
Figure 112014125138245-pct00085
과 상기 영역
Figure 112014125138245-pct00086
사이의 색상 차이의 메트릭 값을 표시하기 위한 것이며,
N은 상기 화상을 과분할한 후 취득한 영역의 총개수이며,
Figure 112014125138245-pct00087
는,
Figure 112014125138245-pct00088
이며,
Figure 112014125138245-pct00089
는, 상기 영역
Figure 112014125138245-pct00090
의 질량 중심이며,
Figure 112014125138245-pct00091
는, 상기 영역
Figure 112014125138245-pct00092
의 질량 중심이며,
상기 화상내의 각 화소의 좌표를 모두 [0,1]로 정규화하면
Figure 112014125138245-pct00093
를 얻는다.
도 4에 도시 된 실시 예에 따른 실시 가능한 제 7 예에 있어서, 제 1 확립 모듈 (402)은, 분류 유닛 (402d) 및 제 4 확립 유닛 (402e)을 구비할수 있다.
당해 분류 유닛 (402d)은, 각 화소 점의 색상 값에 기반하여 색상 값이 동일한 화소 점을 하나의 색상 종류로 분류하는 방법에 따라, 화상내의 각 화소 점을 분류한다.
당해 제 4 확립 유닛 (402e)은, 각 색상 종류의 색상 값에 기반하여 현저성 모델을 확립한다.
도 4에 도시 된 실시 예에 따른 실시 가능한 제 8 예에 있어서,
상기 현저성 모델은,
Figure 112014125138245-pct00094
이며,
여기서,
Figure 112014125138245-pct00095
는, 색상 종류
Figure 112014125138245-pct00096
내의 화소 점의 개수이며,
Figure 112014125138245-pct00097
는, 색상 종류
Figure 112014125138245-pct00098
와 색상 종류
Figure 112014125138245-pct00099
사이의 색상 차이의 메트릭 값을 표시하기 위한 것이다.
상기와 같이, 본 발명에 따른 실시 예에 의해 제공되는 화상 분할 장치에 따르면, 전경 샘플 점과 배경 샘플 점을 자동으로 확정하고, 현저성 모델 및 전경 샘플 점과 배경 샘플 점을 결합 이용하여 전경/배경 분류 모델을 수립하며, 당해 전경/배경 분류 모델을 이용하여 화상의 분할을 실현함으로써, 관련 기술에서의, 반드시 사용자에 의해 수동으로 전경 샘플 점과 배경 샘플 점을 대충 선정하는 것이 필요함으로 인한, 대량의 화상에 분할하는 경우에 분할 효율이 낮아지는 문제점을 해결할수 있다. 전경 샘플 점과 배경 샘플 점을 자동으로 취득할수 있고, 또한 전경/배경 분류 모델을 확립할 때 기존의 현저성 모델도 사용하기때문에, 샘플 선택의 자동화를 실현할수 있고, 분할 정확도를 개선시키는 효과를 얻을수 있다.
상기 실시 예 중의 장치에 관하여, 각 모듈이 조작을 수행하는 구체적인 방법은 이미 관련된 방법의 실시 예에서 상세히 설명했기에, 여기서 상세한 설명은 생략한다.
도 5은, 예시적인 일 실시 예에 따른 화상 분할 장치(500)의 블록도 이다. 예를 들면, 장치(500)은, 휴대 전화, 컴퓨터, 디지털 방송 단말기, 메시지 송수신 디바이스, 게임 콘솔, 태블릿 디바이스, 의료 기기, 피트니스 기기, 개인 디지털 보조, 등일수 있다.
도 5 에 도시된 바와 같이, 장치(500)는 프로세스 어셈블리(502), 메모리(504), 전원 어셈블리(506), 멀티미디어 어셈블리(508), 오디오 어셈블리(510), 입력/출력(I/O) 인터페이스(512), 센서 어셈블리(514) 및 통신 어셈블리(516) 등 하나 또는 복수의 어셈블리를 포함할 수 있다.
프로세스 어셈블리(502)는 통상적으로 장치(500)의 전체 조작을 제어하며, 예를 들면, 표시,전화 호출,데이터 통신,카메라 조작 및 기록 조작에 관련된 조작을 제어할 수 있다. 프로세스 소자(502)는 하나 또는 복수의 프로세서(520)을 구비하여 인스트럭션을 실행함으로써 상기 방법의 전부 혹은 일부 단계를 완성한다. 또한, 프로세스 어셈블리(502)는 하나 또는 복수의 모듈을 포함하고 있어 프로세스 어셈블리(502)와 기타 어셈블리 사이의 인트렉션에 편리하다. 예를 들면, 프로세스 어셈블리(502)는 멀티미디어 모듈을 포함고 있어 멀티미디어 어셈블리(508)와 프로세스 어셈블리(502) 사이의 인트렉션이 편리하게 된다.
메모리(504)에는 각종 유형의 데이터를 저장되어 장치(500)의 동작을 서포트한다. 이러한 데이터의 예로서 장치(500)에서 동작하는 임의의 애플리케이션 프로그램 혹은 방법을 실행하기 위한 인스트럭션,연락인 데이터,전화번호부 데이터,메시지,이미지, 비디오 등을 포함한다. 메모리(504)는 임의의 유형의 휘발성 혹은 비휘발성 메모리 혹은 양자의 조합으로 실현될 수 있으며, 예를 들면 SRAM(Static Random Access Memory), EEPROM (Electrically Erasable Programmable Read-Only Memory) ,EPROM(Erasable Programmable Read Only Memory), PROM(Programmable Read-Only Memory), ROM(Read-Only Memory),자기 메모리,플래시 메모리,자기 디스크 혹은 콤팩트 디스크 등으로 실현될 수 있다.
전력 어셈블리(506)는 장치(500)의 각 어셈블리에 전력을 공급하기 위한 것이다. 전력 어셈블리(506)는 전원 관리 시스템,하나 또는 복수의 전원 및 장치(500)를 위하여 전력을 생성, 관리 및 분배하기 위한 기타 어셈블리를 포함할 수 있다.
멀티미디어 어셈블리(508)는 상기 장치(500)와 사용자 사이에 하나의 출력 인터페이스를 제공하는 스크린을 포함한다. 일부 실시예에 있어서, 스크린은 액정 표시 장치(LCD)와 터치 패널(TP)을 포함할 수 있다. 스크린이 터치 패널을 포함할 경우, 스크린은 사용자가 입력한 신호를 수신할 수 있는 터치 스크린을 구현할 수 있다. 터치 패널은 하나 또는 복수의 터치 센서를 포함하고 있어 터치, 슬라이딩 및 터치 패널위에서의 손 움직임을 감지할 수 있다. 상기 터치 센서는 터치 혹은 슬라이딩 동작의 경계위치를 감지할 수 있을 뿐만 아니라, 상기 터치 혹은 슬라이딩 조작에 관련된 지속시간 및 압력을 검출할 수 있다. 일부 실시예에 있어서,멀티미디어 어셈블리(508)는 하나의 프론트 카메라 및/또는 리어 카메라를 포함한다. 장치(500)가 예를 들면 촬영 모드 혹은 비디오 모드 등 조작 모드 상태에 있을 경우, 프론트 카메라 및/또는 리어 카메라는 외부로부터의 멀티미디어 데이터를 수신할 수 있다. 프론트 카메라와 리어 카메라는 하나의 고정된 광학 렌즈 시스템일 수 있거나 또는 가변 초점거리와 광학 줌기능을 구비할 수 있다.
오디오 어셈블리(510)는 오디오 신호를 출력 및/또는 입력하기 위한 것이다. 예를 들면, 오디오 어셈블리(510)는 마이크로폰(MIC)을 포함하며, 장치(500)가 예를 들면 호출 모드, 기록 모드 및 음성 인식 모드 등 조작 모드에 있을 경우, 마이크로폰은 외부의 오디오 신호를 수신한다. 수신된 오디오 신호는 진일보 메모리(504)에 저장되거나 혹은 통신 어셈블리(516)를 통하여 송신될수 있다. 일부 실시예에 있어서,오디오 어셈블리(510)는 스피커를 더 포함할 수 있어 오디오 신호를 출력한다.
I/O 인터페이스(512)는 프로세스 어셈블리(502)와 주변 인터페이스 모듈 사이에 인터페이스를 제공하기 위한 것이다. 상기 주변 인터페이스 모듈은 키보드,휠 키,버튼 등일 수 있다. 이러한 버튼은 홈 버튼, 음량 버튼, 작동 버튼 및 잠금 버튼 등을 포함하지만 이에 한정되지 않는다.
센서 어셈블리(514)는 장치(500)에 각 방면의 상태평가를 제공하는 하나 또는 복수의 센서를 포함한다. 예를 들면,센서 어셈블리(514)는 장치(500)의 온/오프 상태,어셈블리의 상대위치결정을 검출할 수 있다. 예를 들면 상기 어셈블리가 장치(500)의 디스플레이 및 키패드일 시,센서 어셈블리(514)는 장치(500) 혹은 장치(500)의 일 어셈블리의 위치변경,사용자와 장치(500)사이의 접촉여부, 장치(500)의 방위 혹은 가속/감속 및 장치(500)의 온도 변화를 검출할 수 있다. 센서 어셈블리(514)는 근접 센서를 포함할 수 있어, 임의의 물리적 접촉이 없는 정황하에서 근처 물체의 존재를 검출할 수 있다. 센서 어셈블리(514)는 예를 들면 CMOS 혹은 CCD 이미지 센서 등 광센서를 더 포함할 수 있으며, 이미징 애플리케이션에 사용된다. 일부 실시예에 있어서, 상기 센서 어셈블리(514)는 가속 센서,자이로 센서,자기 센서,압력 센서 혹은 온도 센서를 포함할 수 있다.
통신 어셈블리(516)는 장치(500)와 기타 설비 사이의 유선 혹은 무선 통신에 사용된다. 장치(500)는 예를 들면 WiFi,2G 혹은 3G,혹은 이들의 조합 등의 통신규격에 따른 무선 네트워크에 접속할 수 있다. 일 예시적 실시예에 있어서,통신 어셈블리(516)는 방송 채널을 통하여 외부 방송 관리 시스템으로부터의 방송 신호 혹은 방송 관련 정보를 수신할 수 있다. 일 예시적 실시예에 있어서, 상기 통신 어셈블리(516)는 근거리 무선 통신(NFC)모듈을 더 포함하고 있어, 단거리 통신을 촉진할 수 있다. 예를 들면, NFC 모듈은 RFID 기술, IrDA 기술, UWB 기술,블루투스(BT)기술 및 기타 기술에 기초하여 실현될 수 있다.
예시적 실시예에 있어서, 장치(500)는 하나 또는 복수의 애플리케이션 전용 집적 회로(ASIC), 디지털 신호 프로세서(DSP), 디지털 신호 처리설비(DSPD), 프로그램 가능 논리 소자(PLD), 필드 프로그래머블 게이트 어레이(FPGA), 컨트롤러, , 마이크로 프로세서 혹은 기타 전자소자에 의하여 실현되어 상기 방법을 수행할 수 있다.
예시적 실시예에 있어서, 인스트럭션을 포함하는 비일시적인 컴퓨터 판독 가능한 기록 매체를 제공하는데, 예를 들면 인스트럭션을 포함하는 메모리(504) 등을 포함하며, 상기 인스트럭션은 장치(500)의 프로세서(520)에 의하여 실행되어 상기 방법을 실현할 수 있다. 예를 들면, 상기 비일시적인 컴퓨터 판독 가능한 기록 매체는 ROM, RAM, CD-ROM, 자기테이프, 플로피디스크 및 광데이터 저장 장치 등일 수 있다.
당업자는, 명세서를 검토하여 본 발명을 실현한 후, 본 발명의 기타 실시안을 용이하게 생각해낼수 있다. 본원 발명은, 본 발명의 모든 변형, 용도, 또는 적응적 변경을 포함하며, 이러한 변형, 용도, 또는 적응적 변경은, 본 발명의 일반적 원리에 따르며, 본 발명은 개시되지 않은 당업계의 공지의 지식 또는 통상적 기술수단을 포함한다. 명세서와 실시 예는 단지 예시일 뿐, 본 발명의 진정한 범위와 정신은 이하의 특허 청구의 범위에 기재된다.
본 발명은 상기에 기술되고 또 도면에 나타낸 정확한 구성에 한정되지 않으며, 그 범위를 초과하지 않는한 다양한 수정과 변경을 실현할수 있다는 것을 이해해야 할것이다. 본 발명의 범위는 단지 첨부되는 특허 청구의 범위에 의해 한정된다.

Claims (21)

  1. 화상의 현저성 모델(Salience model)을 확립하는 단계;
    상기 현저성 모델에 기반하여 상기 화상의 전경 샘플 점과 배경 샘플 점을 취득하는 단계;
    상기 현저성 모델, 상기 전경 샘플 점 및 상기 배경 샘플 점에 기반하여 전경/배경 분류 모델을 확립하는 단계; 및
    상기 전경/배경 분류 모델 및 화소 점들 사이의 에지 정보에 기반하여 상기 화상을 분할하기 위한 소정의 화상 분할 알고리즘에 따라, 상기 화상을 분할하는 단계를 포함하는 것을 특징으로 하되,
    상기 현저성 모델에 기반하여 상기 화상의 전경 샘플 점과 배경 샘플 점을 취득하는 단계는,
    상기 현저성 모델에 기반하여 상기 화상내의 각 화소의 현저성의 값을 산출하는 단계;
    각 화소 점의 현저성의 값을 정규화시키는 단계;
    정규화 후의 현저성의 값이 소정의 전경 임계 값보다 큰 화소 점을, 상기 전경 샘플 점으로 확정하는 단계; 및
    정규화 후의 현저성의 값이 소정의 배경 임계 값보다 작은 화소 점을, 상기 배경 샘플 점으로 확정하는 단계를 포함하고,
    상기 소정의 전경 임계 값은 상기 소정의 배경 임계 값보다 크며, 정규화 후의 각 현저성의 값은 모두 (0,1)의 범위 내에 위치하는 것을 특징으로 하는 화상 분할 방법.
  2. 삭제
  3. 제1항에 있어서,
    상기 전경/배경 분류 모델은, 전경 분류 모델과 배경 분류 모델을 포함하며,
    상기 현저성 모델, 상기 전경 샘플 점 및 상기 배경 샘플 점에 기반하여 전경/배경 분류 모델을 확립하는 단계는,
    상기 전경 샘플 점을 이용하여 전경 색상의 가능성 모델(likelihood model)을 확립하는 단계;
    상기 배경 샘플 점을 이용하여 배경 색상의 가능성 모델을 확립하는 단계;
    상기 현저성 모델과 상기 전경 색상 가능성 모델을 곱셈함으로써, 화소 점이 전경일 확률을 표시하기 위한 상기 전경 분류 모델을 취득하는 단계; 및
    상기 현저성 모델과 상기 배경 색상 가능성 모델을 곱셈함으로써, 화소 점이 배경일 확률을 표시하기 위한 상기 배경 분류 모델을 취득하는 단계
    를 포함하는 것을 특징으로 하는 화상 분할 방법.
  4. 제3항에 있어서,
    상기 소정의 화상 분할 알고리즘에 따라, 상기 화상을 분할하는 단계는,
    상기 전경 분류 모델을 이용하여, 상기 화상내의 각 화소의 전경 유사도를 산출하는 단계;
    상기 배경 분류 모델을 이용하여, 상기 화상내의 각 화소의 배경 유사도를 산출하는 단계;
    상기 화상내의 인접된 화소 점들 사이의 유사도를 취득하는 단계;
    각 화소 점의 전경 유사도, 각 화소 점의 배경 유사도 및 인접된 화소 점들 사이의 유사도를 이용하여, 상기 소정의 화상 분할 알고리즘에 필요한 무향 그래프를 구축하는 단계; 및
    상기 소정의 화상 분할 알고리즘을 이용하여 상기 무향 그래프를 분할하여 상기 화상의 분할을 완성하는 단계
    를 포함하는 것을 특징으로 하는 화상 분할 방법.
  5. 제4항에 있어서,
    상기 각 화소 점의 전경 유사도, 각 화소 점의 배경 유사도 및 인접된 화소 점들 사이의 유사도를 이용하여, 상기 소정의 화상 분할 알고리즘에 필요한 무향 그래프를 구축하는 단계는,
    전경 정점, 배경 정점, 적어도 하나의 화소 정점, 인접된 두 화소 정점 사이의 제 1 유형의 변, 상기 화소 정점과 상기 배경 정점 사이의 제 2 유형의 변 및 상기 화소 정점과 상기 배경 정점 사이의 제 3 유형의 변을 포함하는, 상기 소정의 화상 분할 알고리즘에 필요한 무향 그래프를 구축하는 단계;
    각 제 2 유형의 변에 대하여, 상기 제 2 유형의 변에 연결되어 있는 화소 정점에 대응되는 화소 점의 전경 유사도를 상기 제 2 유형의 변의 가중치로 확정하는 단계;
    각 제 3 유형의 변에 대하여, 상기 제 3 유형의 변에 연결되어 있는 화소 정점에 대응되는 화소 점의 배경 유사도를 상기 제 3 유형의 변의 가중치로 확정하는 단계; 및
    각 제 1 유형의 변에 대하여, 상기 제 1 유형의 변에 연결되어 있는 두 화소 정점에 대응되는 두 화소 점 사이의 유사도를 상기 제 1 유형의 변의 가중치로 확정하는 단계
    를 포함하고,
    상기 무향 그래프 중의 화소 정점과 상기 화상내의 각 화소 점은 1 대 1 로 대응되는
    것을 특징으로 하는 화상 분할 방법.
  6. 제1항에 있어서,
    상기 화상의 현저성 모델을 확립하는 단계는,
    소정의 과분할 알고리즘에 따라 상기 화상을 과분할하여 적어도 하나의 영역을 취득하는 단계;
    상기 각 영역의 색상 값과 질량 중심을 확정하는 단계; 및
    각 영역에 대응되는 색상 값 및 각 영역의 질량 중심에 기반하여, 상기 현저성 모델을 확립하는 단계
    를 포함하고,
    하나의 상기 영역내의 각 화소 점의 색상 값은 동일한
    것을 특징으로 하는 화상 분할 방법.
  7. 제6항에 있어서,
    상기 현저성 모델은,
    Figure 112014125138245-pct00100

    이며,
    여기서,
    Figure 112014125138245-pct00101
    는, 영역 
    Figure 112014125138245-pct00102
    내의 어느 한 화소 점의 현저성의 값이며,
    Figure 112014125138245-pct00103
    는, 영역
    Figure 112014125138245-pct00104
    내의 화소 점의 개수이며,
    Figure 112014125138245-pct00105
    는, 상기 영역
    Figure 112014125138245-pct00106
    과 상기 영역
    Figure 112014125138245-pct00107
    사이의 공간 위치의 차이의 메트릭 값을 표시하기 위한 것이며,
    Figure 112014125138245-pct00108
    는, 상기 영역
    Figure 112014125138245-pct00109
    과 상기 영역
    Figure 112014125138245-pct00110
    사이의 색상 차이의 메트릭 값을 표시하기 위한 것이며,
    N은 상기 화상을 과분할한 후 취득한 영역의 총개수이며,
    Figure 112014125138245-pct00111
    는,
    Figure 112014125138245-pct00112
    이며,
    Figure 112014125138245-pct00113
    는, 상기 영역
    Figure 112014125138245-pct00114
    의 질량 중심이며,
    Figure 112014125138245-pct00115
    는, 상기 영역
    Figure 112014125138245-pct00116
    의 질량 중심이며,
    상기 화상내의 각 화소의 좌표를 모두 [0,1]로 정규화하면
    Figure 112014125138245-pct00117
    를 얻는
    것을 특징으로 하는 화상 분할 방법.
  8. 제1항에 있어서,
    상기 화상의 현저성 모델을 확립하는 단계는,
    각 화소 점의 색상 값에 기반하여 색상 값이 동일한 화소 점을 하나의 색상 종류로 분류하는 방법에 따라 상기 화상내의 각 화소 점을 분류하는 단계; 및
    각 색상 종류의 색상 값에 기반하여 상기 현저성 모델을 확립하는 단계
    를 포함하는 것을 특징으로 하는 화상 분할 방법.
  9. 제8항에 있어서,
    상기 현저성 모델은,
    Figure 112014125138245-pct00118

    이며,
    여기서,
    Figure 112014125138245-pct00119
    는, 색상 종류
    Figure 112014125138245-pct00120
    내의 화소 점의 개수이며,
    Figure 112014125138245-pct00121
    는, 색상 종류
    Figure 112014125138245-pct00122
    와 색상 종류
    Figure 112014125138245-pct00123
    사이의 색상 차이의 메트릭 값을 표시하기 위한 것인
    것을 특징으로 하는 화상 분할 방법.
  10. 화상의 현저성 모델을 확립하기 위한 제 1 확립 모듈;
    상기 현저성 모델에 기반하여 상기 화상의 전경 샘플 점과 배경 샘플 점을 취득하기 위한 샘플 취득 모듈;
    상기 제 1 확립 모듈에 의해 확립된 현저성 모델 및 상기 샘플 취득 모듈에 의해 취득된 전경 샘플 점과 상기 배경 샘플 점을 이용하여 전경/배경 분류 모델을 확립하기 위한 제 2 확립 모듈; 및
    상기 제 2 확립 모듈에 의해 확립된 전경/배경 분류 모델 및 화소 점들 사이의 에지 정보를 이용하여 상기 화상을 분할하기 위한 소정의 화상 분할 알고리즘에 따라, 상기 화상을 분할하는 화상 분할 모듈을 구비하는 것을 특징으로 하되,
    상기 샘플 취득 모듈은,
    상기 현저성 모델에 기반하여 상기 화상내의 각 화소의 현저성의 값을 산출하기 위한 제 1 산출 유닛;
    상기 제 1 산출 유닛에 의해 산출된 각 화소 점의 현저성의 값을 정규화시키기 위한 정규화 유닛;
    상기 정규화 유닛에 의해 정규화된 후의 현저성의 값이, 소정의 전경 임계 값보다 큰 화소 점을 상기 전경 샘플 점으로 확정하기 위한 제 1 확정 유닛; 및
    상기 정규화 유닛에 의해 정규화된 후의 현저성의 값이 소정의 배경 임계 값보다 작은 화소 점을 상기 배경 샘플 점으로 확정하기 위한 제 2 확정 유닛
    을 구비하며,
    상기 소정의 전경 임계 값은 상기 소정의 배경 임계 값보다 크며, 정규화 후의 각 현저성의 값은 모두 (0,1)의 범위 내에 위치하는 것을 특징으로 하는, 화상 분할 장치.
  11. 삭제
  12. 제10항에 있어서,
    상기 전경/배경 분류 모델은, 전경 분류 모델과 배경 분류 모델을 포함하며,
    상기 제 2 확립 모듈은,
    상기 전경 샘플 점을 이용하여 전경 색상의 가능성 모델을 확립하기 위한 제 1 확립 유닛;
    상기 배경 샘플 점을 이용하여 배경 색상의 가능성 모델을 확립하기 위한 제 2 확립 유닛;
    상기 제 1 확립 모듈에 의해 확립된 현저성 모델과 상기 제 1 확립 유닛에 의해 확립된 전경 색상 가능성 모델을 곱셈하여, 화소 점이 전경일 확률을 표시하기 위한 상기 전경 분류 모델을 취득하기 위한 제 1 곱셈 유닛; 및
    상기 제 1 확립 모듈에 의해 확립된 현저성 모델과 상기 제 2 확립 유닛에 의해 확립된 배경 색상 가능성 모델을 곱셈하여, 화소 점이 배경일 확률을 표시하기 위한 상기 배경 분류 모델을 취득하기 위한 제 2 곱셈 유닛
    을 구비하는 것을 특징으로 하는 화상 분할 장치.
  13. 제12항에 있어서,
    상기 화상 분할 모듈은,
    상기 전경 분류 모델을 이용하여, 상기 화상내의 각 화소의 전경 유사도를 산출하기 위한 제 2 산출 유닛;
    상기 배경 분류 모델을 이용하여, 상기 화상내의 각 화소의 배경 유사도를 산출하기 위한 제 3 산출 유닛;
    상기 화상내의 인접된 화소 점들 사이의 유사도를 취득하기 위한 취득 유닛과,
    각 화소 점의 전경 유사도, 각 화소 점의 배경 유사도 및 인접된 화소 점들 사이의 유사도를 이용하여, 상기 소정의 화상 분할 알고리즘에 필요한 무향 그래프를 구축하기 위한 구축 유닛; 및
    상기 소정의 화상 분할 알고리즘을 이용하여 상기 무향 그래프를 분할하여 상기 화상의 분할을 완성하기 위한 제 1 분할 유닛
    을 구비하는 것을 특징으로 하는 화상 분할 장치.
  14. 제13항에 있어서,
    상기 구축 유닛은,
    전경 정점, 배경 정점, 적어도 하나의 화소 정점, 인접된 두 화소 정점 사이의 제 1 유형의 변, 상기 화소 정점과 상기 배경 정점 사이의 제 2 유형의 변 및 상기 화소 정점과 상기 배경 정점 사이의 제 3 유형의 변을 포함하는, 상기 소정의 화상 분할 알고리즘에 필요한 무향 그래프를 구축하기 위한 구축 서브 유닛;
    각 제 2 유형의 변에 대하여, 상기 제 2 유형의 변에 연결되어 있는 화소 정점에 대응되는 화소 점의 전경 유사도를 상기 제 2 유형의 변의 가중치로 확정하기 위한 제 1 확정 서브 유닛;
    각 제 3 유형의 변에 대하여, 상기 제 3 유형의 변에 연결되어 있는 화소 정점에 대응되는 화소 점의 배경 유사도를 상기 제 3 유형의 변의 가중치로 확정하기 위한 제 2 확정 서브 유닛; 및
    각 제 1 유형의 변에 대하여, 상기 제 1 유형의 변에 연결되어 있는 두 화소 정점에 대응되는 두 화소 점 사이의 유사도를 상기 제 1 유형의 변의 가중치로 확정하는 위한 제 3 확정 서브 유닛
    을 구비하며,
    상기 무향 그래프 중의 화소 정점과 상기 화상내의 각 화소 점은 1 대 1 로 대응되는
    것을 특징으로 하는 화상 분할 장치.
  15. 제10항 및 제12항 내지 제14항 중 어느 한 항에 있어서,
    상기 제 1 확립 모듈은,
    소정의 과분할 알고리즘에 따라 상기 화상을 과분할하여 적어도 하나의 영역을 취득하기 위한 제 2 분할 유닛;
    상기 각 영역의 색상 값과 질량 중심을 확정하기 위한 제 3 확정 유닛; 및
    각 영역에 대응되는 색상 값 및 각 영역의 질량 중심에 기반하여, 상기 현저성 모델을 확립하기 위한 제 3 확립 유닛
    을 구비하며,
    하나의 상기 영역내의 각 화소 점의 색상 값은 동일한
    것을 특징으로 하는 화상 분할 장치.
  16. 제15항에 있어서,
    상기 현저성 모델은,
    Figure 112014125138245-pct00124

    이며,
    여기서,
    Figure 112014125138245-pct00125
    는, 영역 
    Figure 112014125138245-pct00126
    내의 어느 한 화소 점의 현저성의 값이며,
    Figure 112014125138245-pct00127
    는, 영역
    Figure 112014125138245-pct00128
    내의 화소 점의 개수이며,
    Figure 112014125138245-pct00129
    는, 상기 영역
    Figure 112014125138245-pct00130
    과 상기 영역
    Figure 112014125138245-pct00131
    사이의 공간 위치의 차이의 메트릭 값을 표시하기 위한 것이며,
    Figure 112014125138245-pct00132
    는, 상기 영역
    Figure 112014125138245-pct00133
    과 상기 영역
    Figure 112014125138245-pct00134
    사이의 색상 차이의 메트릭 값을 표시하기 위한 것이며,
    N은 상기 화상을 과분할한 후 취득한 영역의 총개수이며,
    Figure 112014125138245-pct00135
    는,
    Figure 112014125138245-pct00136
    이며,
    Figure 112014125138245-pct00137
    는, 상기 영역
    Figure 112014125138245-pct00138
    의 질량 중심이며,
    Figure 112014125138245-pct00139
    는, 상기 영역
    Figure 112014125138245-pct00140
    의 질량 중심이며,
    상기 화상내의 각 화소의 좌표를 모두 [0,1]로 정규화하면
    Figure 112014125138245-pct00141
    를 얻는
    것을 특징으로 하는 화상 분할 장치.
  17. 제10항 및 제12항 내지 제14항 중 어느 한 항에 있어서,
    상기 제 1 확립 모듈은,
    각 화소 점의 색상 값에 기반하여 색상 값이 동일한 화소 점을 하나의 색상 종류로 분류하는 방법에 따라 상기 화상내의 각 화소 점을 분류하는 분류 유닛; 및
    각 색상 종류의 색상 값에 기반하여 상기 현저성 모델을 확립하기 위한 제 4 확립 유닛
    을 구비하는 것을 특징으로 하는 화상 분할 장치.
  18. 제17항에 있어서,
    상기 현저성 모델은,
    Figure 112014125138245-pct00142

    이며,
    여기서,
    Figure 112014125138245-pct00143
    는, 색상 종류
    Figure 112014125138245-pct00144
    내의 화소 점의 개수이며,
    Figure 112014125138245-pct00145
    는, 색상 종류
    Figure 112014125138245-pct00146
    와 색상 종류
    Figure 112014125138245-pct00147
    사이의 색상 차이의 메트릭 값을 표시하기 위한 것인
    것을 특징으로 하는 화상 분할 장치.
  19. 프로세서와,
    상기 프로세서에 의해 수행가능한 인스트럭션을 저장하기 위한 메모리
    을 구비하며,
    상기 프로세서는,
    화상의 현저성 모델을 확립하고,
    상기 현저성 모델에 기반하여 상기 화상의 전경 샘플 점과 배경 샘플 점을 취득하고,
    상기 현저성 모델, 상기 전경 샘플 점 및 상기 배경 샘플 점에 기반하여 전경/배경 분류 모델을 확립하고,
    상기 전경/배경 분류 모델 및 화소 점들 사이의 에지 정보에 기반하여 상기 화상을 분할하기 위한 소정의 화상 분할 알고리즘에 따라, 상기 화상 분할
    하도록 구성되는 것을 특징으로 하되,
    상기 현저성 모델에 기반하여 상기 화상의 전경 샘플 점과 배경 샘플 점을 취득하는 것은,
    상기 현저성 모델에 기반하여 상기 화상내의 각 화소의 현저성의 값을 산출하고,
    각 화소 점의 현저성의 값을 정규화시키고,
    정규화 후의 현저성의 값이 소정의 전경 임계 값보다 큰 화소 점을, 상기 전경 샘플 점으로 확정하고, 그리고,
    정규화 후의 현저성의 값이 소정의 배경 임계 값보다 작은 화소 점을, 상기 배경 샘플 점으로 확정하는 것을 포함하고,
    상기 소정의 전경 임계 값은 상기 소정의 배경 임계 값보다 크며, 정규화 후의 각 현저성의 값은 모두 (0,1)의 범위 내에 위치하는 것을 특징으로 하는 화상 분할 장치.
  20. 프로세서에 의해 실행되는 것을 통하여 제1항 및 제3항 내지 제9항 중 어느 한 항에 기재된 화상 분할방법을 실현하는 것을 특징으로 하는 기록매체에 기록된 프로그램.
  21. 제20항에 기재된 프로그램이 기록된 기록매체.
KR1020147036180A 2014-05-05 2014-10-23 화상 분할 방법, 장치, 프로그램 및 기록매체 KR101670004B1 (ko)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
CN201410187226.7A CN103996189B (zh) 2014-05-05 2014-05-05 图像分割方法及装置
CN201410187226.7 2014-05-05
PCT/CN2014/089297 WO2015169061A1 (zh) 2014-05-05 2014-10-23 图像分割方法及装置

Publications (2)

Publication Number Publication Date
KR20160009477A KR20160009477A (ko) 2016-01-26
KR101670004B1 true KR101670004B1 (ko) 2016-10-27

Family

ID=51310345

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020147036180A KR101670004B1 (ko) 2014-05-05 2014-10-23 화상 분할 방법, 장치, 프로그램 및 기록매체

Country Status (8)

Country Link
EP (1) EP2942753B1 (ko)
JP (1) JP6125099B2 (ko)
KR (1) KR101670004B1 (ko)
CN (1) CN103996189B (ko)
BR (1) BR112014032942A2 (ko)
MX (1) MX358601B (ko)
RU (1) RU2596580C2 (ko)
WO (1) WO2015169061A1 (ko)

Families Citing this family (40)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104217440B (zh) * 2014-09-28 2017-03-01 民政部国家减灾中心 一种从遥感图像中提取建成区的方法
CN104809729B (zh) * 2015-04-29 2018-08-28 山东大学 一种鲁棒的图像显著性区域自动分割方法
CN105069774B (zh) * 2015-06-30 2017-11-10 长安大学 基于多示例学习与图割优化的目标分割方法
CN105353674B (zh) * 2015-11-03 2018-04-13 浙江华奕生态建设有限公司 一种多功能生活污水处理集成控制系统及方法
CN105342769A (zh) * 2015-11-20 2016-02-24 宁波大业产品造型艺术设计有限公司 智能电动轮椅
CN105395210A (zh) * 2015-12-22 2016-03-16 管迪 一种ct扫描成像方法
CN105608717A (zh) * 2015-12-22 2016-05-25 肖古华 一种ct系统和ct图像重建方法
CN105662488A (zh) * 2016-01-12 2016-06-15 刘书强 一种断指探查台
CN105748105A (zh) * 2016-01-18 2016-07-13 刘焕涛 一种乳腺检查系统
CN106650744B (zh) * 2016-09-16 2019-08-09 北京航空航天大学 局部形状迁移指导的图像对象共分割方法
CN108073881A (zh) * 2016-11-18 2018-05-25 北京体基科技有限公司 基于预定区域和临近像素识别手部区域的方法及装置
CN108073871A (zh) * 2016-11-18 2018-05-25 北京体基科技有限公司 基于两种预定区域识别手部区域的方法及装置
CN106898001B (zh) * 2017-01-04 2020-04-14 努比亚技术有限公司 一种实现交互式图像分割的方法、装置及终端
CN106934774B (zh) * 2017-03-07 2019-11-29 李强 一种利用超声波治疗肛瘘的控制系统
CN107067030A (zh) * 2017-03-29 2017-08-18 北京小米移动软件有限公司 相似图片检测的方法和装置
CN107451522A (zh) * 2017-04-28 2017-12-08 山东省农业可持续发展研究所 一种农业干旱监测与预警预报方法
CN108960247B (zh) * 2017-05-22 2022-02-25 阿里巴巴集团控股有限公司 图像显著性检测方法、装置以及电子设备
CN107273893A (zh) * 2017-06-14 2017-10-20 武汉梦之蓝科技有限公司 一种智能城市绿化遥感调查的数据校正控制系统
CN107088028A (zh) * 2017-06-29 2017-08-25 武汉洁美雅科技有限公司 一种智能新式干湿两用吸尘器机器人控制系统
CN107452003A (zh) * 2017-06-30 2017-12-08 大圣科技股份有限公司 一种含有深度信息的图像分割的方法及装置
CN107573029A (zh) * 2017-10-23 2018-01-12 福建泉州皓佳新材料有限公司 一种陶瓷废釉水制备的多彩艺术砖及其制备方法
CN107894252A (zh) * 2017-11-14 2018-04-10 江苏科沃纺织有限公司 一种实时监测地埋伸缩式喷滴灌装置运行状态的监控系统
CN108764325B (zh) * 2018-05-23 2022-07-08 腾讯科技(深圳)有限公司 图像识别方法、装置、计算机设备和存储介质
CN109035326A (zh) * 2018-06-19 2018-12-18 北京理工大学 基于亚像素图像识别的高精度定位技术
CN109173263B (zh) * 2018-08-31 2021-08-24 腾讯科技(深圳)有限公司 一种图像数据处理方法和装置
CN109168220A (zh) * 2018-09-28 2019-01-08 湖北民族学院 一种提高青柚产量品质的光控方法及系统
JP6716765B1 (ja) * 2018-12-28 2020-07-01 キヤノン株式会社 画像処理装置、画像処理システム、画像処理方法、プログラム
CN110111338B (zh) * 2019-04-24 2023-03-31 广东技术师范大学 一种基于超像素时空显著性分割的视觉跟踪方法
CN110909724B (zh) * 2019-10-08 2023-11-28 华北电力大学 一种多目标图像的缩略图生成方法
CN110853063B (zh) * 2019-10-31 2023-04-07 广州方硅信息技术有限公司 图像分割信息的处理方法、装置、设备和存储介质
CN111539969B (zh) * 2020-04-23 2023-06-09 武汉铁路职业技术学院 图像边缘检测方法、装置、计算机设备及存储介质
CN111597934A (zh) * 2020-04-30 2020-08-28 重庆科技学院 用于为统计应用处理训练数据的系统和方法
CN111640129B (zh) * 2020-05-25 2023-04-07 电子科技大学 一种应用于室内墙面施工机器人的视觉砂浆识别系统
CN111724396B (zh) * 2020-06-17 2023-07-14 泰康保险集团股份有限公司 图像分割方法及装置、计算机可读存储介质、电子设备
CN112347975B (zh) * 2020-11-23 2023-04-07 浙江华络通信设备有限公司 一种可视化融合通信调度系统及其实现方法
CN112634312B (zh) * 2020-12-31 2023-02-24 上海商汤智能科技有限公司 图像背景处理方法、装置、电子设备及存储介质
CN112800915B (zh) * 2021-01-20 2023-06-27 北京百度网讯科技有限公司 建筑物变化检测方法、装置、电子设备以及存储介质
CN114708464B (zh) * 2022-06-01 2022-08-30 广东艺林绿化工程有限公司 一种基于道路垃圾分类的市政环卫清扫垃圾车清扫方法
CN115841490B (zh) * 2023-02-23 2023-05-09 山东泗水山岭石材厂 基于图像处理的采矿过程矿石颗粒分割方法及系统
CN116721115A (zh) * 2023-06-15 2023-09-08 小米汽车科技有限公司 金相组织获取方法、装置、存储介质及芯片

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008524728A (ja) * 2004-12-21 2008-07-10 キヤノン株式会社 デジタル画像をセグメント化する方法及びコンパクトな表現の生成方法
JP2010258914A (ja) * 2009-04-27 2010-11-11 Nippon Telegr & Teleph Corp <Ntt> 顕著領域映像生成方法、顕著領域映像生成装置、プログラムおよび記録媒体
JP2013077296A (ja) 2011-09-14 2013-04-25 Ricoh Co Ltd 画像処理装置、画像処理方法およびプログラム

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
RU2121714C1 (ru) * 1997-02-19 1998-11-10 Закрытое акционерное общество "Медицинские компьютерные системы" Способ автоматизированной сегментации изображения цитологического препарата
US6704456B1 (en) * 1999-09-02 2004-03-09 Xerox Corporation Automatic image segmentation in the presence of severe background bleeding
JP2008042346A (ja) * 2006-08-02 2008-02-21 Canon Inc 画像処理方法、画像処理装置
US7899248B2 (en) * 2007-08-30 2011-03-01 Seiko Epson Corporation Fast segmentation of images
US8009911B2 (en) * 2007-08-30 2011-08-30 Siemens Aktiengesellschaft Interactive image segmentation on directed graphs
JP5464739B2 (ja) * 2010-01-22 2014-04-09 Kddi株式会社 画像領域分割装置、画像領域分割方法および画像領域分割プログラム
RU2489752C2 (ru) * 2011-08-15 2013-08-10 Дмитрий Валерьевич Шмунк Способ сегментации изображений
CN102982545B (zh) * 2012-11-22 2015-09-16 清华大学深圳研究生院 一种图像深度估计方法
CN103208123B (zh) * 2013-04-19 2016-03-02 广东图图搜网络科技有限公司 图像分割方法与系统

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008524728A (ja) * 2004-12-21 2008-07-10 キヤノン株式会社 デジタル画像をセグメント化する方法及びコンパクトな表現の生成方法
JP2010258914A (ja) * 2009-04-27 2010-11-11 Nippon Telegr & Teleph Corp <Ntt> 顕著領域映像生成方法、顕著領域映像生成装置、プログラムおよび記録媒体
JP2013077296A (ja) 2011-09-14 2013-04-25 Ricoh Co Ltd 画像処理装置、画像処理方法およびプログラム

Also Published As

Publication number Publication date
WO2015169061A1 (zh) 2015-11-12
EP2942753A1 (en) 2015-11-11
CN103996189B (zh) 2017-10-03
EP2942753B1 (en) 2018-07-18
MX358601B (es) 2018-08-27
JP2016522951A (ja) 2016-08-04
JP6125099B2 (ja) 2017-05-10
BR112014032942A2 (pt) 2017-06-27
KR20160009477A (ko) 2016-01-26
RU2014153987A (ru) 2016-07-20
CN103996189A (zh) 2014-08-20
MX2014015363A (es) 2016-02-19
RU2596580C2 (ru) 2016-09-10

Similar Documents

Publication Publication Date Title
KR101670004B1 (ko) 화상 분할 방법, 장치, 프로그램 및 기록매체
CN106651955B (zh) 图片中目标物的定位方法及装置
RU2577188C1 (ru) Способ, аппарат и устройство для сегментации изображения
US10534972B2 (en) Image processing method, device and medium
RU2628494C1 (ru) Способ и устройство для генерирования фильтра изображения
EP3125135A1 (en) Picture processing method and device
WO2020134866A1 (zh) 关键点检测方法及装置、电子设备和存储介质
CN108010060B (zh) 目标检测方法及装置
KR20210102180A (ko) 이미지 처리 방법 및 장치, 전자 기기 및 기억 매체
TW202113680A (zh) 人臉和人手關聯檢測方法及裝置、電子設備和電腦可讀儲存媒體
TW202113757A (zh) 目標對象匹配方法及目標對象匹配裝置、電子設備和電腦可讀儲存媒介
CN107563994B (zh) 图像的显著性检测方法及装置
US9633444B2 (en) Method and device for image segmentation
US11386577B2 (en) Image processing method, image processing device, and storage medium
CN109145970B (zh) 基于图像的问答处理方法和装置、电子设备及存储介质
RU2614541C2 (ru) Способ, устройство и терминал для перенастройки изображения
EP3975046B1 (en) Method and apparatus for detecting occluded image and medium
CN109034150B (zh) 图像处理方法及装置
US20220222831A1 (en) Method for processing images and electronic device therefor
CN112598063A (zh) 神经网络生成方法及装置、电子设备和存储介质
CN113065591A (zh) 目标检测方法及装置、电子设备和存储介质
US9665925B2 (en) Method and terminal device for retargeting images
CN111242205B (zh) 图像清晰度检测方法、装置及存储介质
CN114004853A (zh) 一种识别设备屏幕边界的方法、装置及介质

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant