KR20120127247A - 화상 처리 방법과 화상 처리 장치 - Google Patents

화상 처리 방법과 화상 처리 장치 Download PDF

Info

Publication number
KR20120127247A
KR20120127247A KR1020120048891A KR20120048891A KR20120127247A KR 20120127247 A KR20120127247 A KR 20120127247A KR 1020120048891 A KR1020120048891 A KR 1020120048891A KR 20120048891 A KR20120048891 A KR 20120048891A KR 20120127247 A KR20120127247 A KR 20120127247A
Authority
KR
South Korea
Prior art keywords
region
image processing
image
color
area
Prior art date
Application number
KR1020120048891A
Other languages
English (en)
Other versions
KR101333347B1 (ko
Inventor
시민 후
밍밍 쳉
궈신 즈앙
제이 미트라 닐로이
시앙 루안
Original Assignee
칭화 유니버시티
오므론 가부시키가이샤
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 칭화 유니버시티, 오므론 가부시키가이샤 filed Critical 칭화 유니버시티
Publication of KR20120127247A publication Critical patent/KR20120127247A/ko
Application granted granted Critical
Publication of KR101333347B1 publication Critical patent/KR101333347B1/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/60Analysis of geometric attributes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/90Determination of colour characteristics
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/46Descriptors for shape, contour or point-related descriptors, e.g. scale invariant feature transform [SIFT] or bags of words [BoW]; Salient regional features
    • G06V10/462Salient features, e.g. scale invariant feature transforms [SIFT]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10024Color image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20112Image segmentation details
    • G06T2207/20164Salient point detection; Corner detection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Geometry (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)
  • Facsimile Image Signal Circuits (AREA)
  • Color Image Communication Systems (AREA)

Abstract

본 발명은, 영역의 콘트라스트에 의거하여 화상의 시각적 현저성을 검출하는 화상 처리 방법과 화상 처리 장치에 관한 것이다. 당해 방법은, 자동분할 알고리즘을 이용하여 입력 화상을 복수의 영역으로 분할하는 분할 스텝과, 상기 복수의 영역 중의 하나의 영역과 기타의 영역과의 색,의 차분의 무게부여 합을 이용하여, 당해 영역의 현저성치를 산출하는 산출 스텝을 포함한다. 본 발명은 화상에서의 시각적 현저성을 갖는 영역을 자동적으로 분석할 수 있고, 그 분석 결과는 중요한 목표 물체의 분할, 물체 식별, 적응적 화상 압축, 내용에 응한 화상의 리사이징, 및 화상 검색 등의 응용 분야에 적용 가능하다.

Description

화상 처리 방법과 화상 처리 장치{IMAGE PROCESSING METHOD AND IMAGE PROCESSING DEVICE}
본 발명은 화상 처리 기술의 분야에 속하고, 화상의 시각적 현저성(顯著性)을 검출하는 화상 처리 방법과 화상 처리 장치에 관한 것으로, 보다 구체적으로는, 영역의 콘트라스트에 의거하여 화상의 시각적 현저성을 검출하는 화상 처리 방법과 화상 처리 장치에 관한 것이다.
시각적 주의(注意)는, 인간의 시각 시스템이 신을 정확하면서 유효하게 식별하는 것을 돕는 하나의 중요한 메커니즘이다. 연산이라는 수법에 의해 화상에서의 현저성 영역을 취득하는 것은, 컴퓨터 비전 분야의 하나의 중요한 연구 과제이고, 화상 처리 시스템이 후속 처리 스텝에서 연산 리소스를 합리적으로 할당하는 것을 돕는다. 현저성 맵(Saliency map)은 많은 컴퓨터 비전 어플리케이션에 폭넓게 적용되고, 예를 들면, 주목 물체의 분할(중국 특허200910046276, 중국 특허200910081069를 참조), 물체 식별, 적응적 화상 압축, 내용에 응한 화상의 리사이징 (중국 특허200910092756을 참조), 및, 화상 검색 등에 적용되고 있다.
화상의 시각적 현저성의 검출은 종래로부터, 연구자에게 많이 주목받고 있는 과제의 하나이다. 시각적 주의에 관한 이론 연구에서는, 시각적 주의를 2종류로 분류한다. 즉, 처리가 신속하고 태스크에 의존하지 않는, 데이터 구동에 관한 현저성 검출과, 처리가 느리고 태스크에 의존하는, 목표 구동에 관한 현저성 검출로 분류한다. 본 발명에 관한 방법은 그 전자에 속한다. 생리학의 연구로부터 알 수 있는 바와 같이, 인간의 시각 세포는 센싱 필드 내의 높은 콘트라스트의 자극에 우선적으로 응답한다. 종래, 데이터 구동에 관한 시각적 현저성의 검출 연구의 대부분은, 여러 형식의 화상 내용과 신과의 콘트라스트를 산출함에 의해 시각적 현저성을 산출하는 것이다. 여기서, 설명을 간소화하기 위해, 다시 이와 같은 연구를 2개의 하위의 종류로 분류한다. 즉, 국부 콘트라스트에 의거한 방법과, 전역(全域) 콘트라스트에 의거한 방법으로 분류한다.
국부 콘트라스트에 의거한 방법은, 화상 영역과, 그 상대적인 작은 인접 영역과의 차분에 의해 현저성을 산출하는 것이다. Itti들은 1998년에 「A model of saliency-based visual attention for rapid sceneanalysis」(IEEE TPAMI, 20(11) : 1254-1259, 1998)를 제안하였다. 그 방법은, 멀티 스케일 화상 사이에서, 중심의 특징과 인접 영역의 특징과의 차분으로 화상 현저성을 정의한다. 또한, Ma와 Zhang은 2003년에 「Contrast-based image attention analysis by using fuzzy growing」(In ACM Multimedia, pages 374-381, 2003)를 제안하였다. 그 방법은, 국부 콘트라스트의 분석에 의해 현저성 맵을 얻는다. 또한, Liu들은 2007년에 「Learning to detect a salient object」(IEEE TPAMI, 33(2) : 353-367, 2011)를 제안하였다. 그 방법은, 학습 방식을 이용하여 색공간 분포나, 멀티 스케일 콘트라스트나, 중심 인접 영역의 히스토그램 차분 등, 현저성 검출 방법의 결과로서 무게부여값의 최적의 조합을 찾는다. 또한, Goferman들은 2010년의 워크인 「Context-aware saliency detection」(In CVPR, 2010)에서, 로 레벨의 단서(clue), 전체의 고려, 조직 룰, 및, 하이 레벨의 특징에 관해 모델을 구축한다. 이들의 국부적 방법의 결과, 시각적 현저성으로서 물체 전체를 균일적으로 돌출시키는 것은 아니고, 통상은 물체의 에지 부근에서 보다 높은 현저성치를 생성하였다.
전역 콘트라스트에 의거한 방법은 화상 영역과 화상 전체와의 차분을 측정함으로써 그 현저성을 평가한다. Zhai와 Shah은 2006년에 「Visual attention detection in video sequences using spatiotemporal cues」(In ACM Multimedia, pages 815-824, 2006)를 제안하였다. 그 방법은, 하나의 픽셀과 그 이외의 모든 화상 픽셀과의 휘도의 차분에 의해, 당해 픽셀의 현저성치를 산출한다. 그 방법은, 효율면이 고려되어, 화상의 휘도 정보만을 이용하고, 그 이외의 색 채널에서의 구별성을 무시하였다. Achanta 등은 2009년에 「Frequency-tuned salient region detection」(In CVPR, pages 1597-1604, 2009)를 제안하였다. 그 방법은 픽셀마다, 평균색과의 차분을 산출함으로써 현저성치를 취득한다. 그러나, 이와 같은 간단한 방법으로는, 복잡하면서 변화가 많은 자연 화상을 유효하게 분석하는데는 불충분하다.
그 분야에서, 지금까지의 관련 중국 특허로서, 학습에 의거한 영상에 있어서의 현저 물체 시퀀스의 자동 검출 방법(중국 특허 제200810150324호)이 있다. 그 방법에서는, 하나의 프레임을 처리하는데 통상 수초간의 시간이 걸리기 때문에, 다수의 리얼타임 처리에의 응용 니즈를 채우는 것이 곤란하다.
(1) 해결고자 하는 기술 과제
본 발명은 본 분야의 종래 기술의 부족을 감안하고 된 것이고, 그 해결고자 하는 기술 과제는, 어떻게 하여 신속하면서 유효하게 화상 픽셀의 현저성치를 분석하여, 화상에서의 중요 물체 영역을 균일적으로 표현하는지에 있다.
(2) 기술적 방안
상기 기술 과제를 해결하기 위해, 본 발명은, 영역의 콘트라스트에 의거하여 화상의 시각적 현저성을 검출(산출)하는 화상 처리 방법과 화상 처리 장치를 제공한다. 얻어진 현저성 맵은 일련의 컴퓨터 비전에의 응용에 적용 가능하다.
본 발명에 관한 기술적 방안 1의 화상 처리 방법은, 영역의 콘트라스트에 의거하여 화상의 시각적 현저성을 검출하는 화상 처리 방법으로서,
자동분할 알고리즘을 이용하여 입력 화상을 복수의 영역으로 분할하는 분할 스텝과,
상기 복수의 영역 중의 하나의 영역과 기타의 영역과의 색의 차분의 무게부여 합을 이용하여, 당해 영역의 현저성치를 산출하는 산출 스텝을 포함하는 것을 특징으로 한다.
기술적 방안 2.
기술적 방안 1의 화상 처리 방법에서, 상기 산출 스텝은, 상기 복수의 영역에서의 영역(rk)의 현저성(S(rk))은 이하의 식으로 정의되고,
Figure pat00001
그 중, Ds(rk,ri)및 Dc(rk,ri)은 각각, 영역(rk)과 영역(ri)과의 공간거리, 및, 영역(rk)과 영역(ri)과의 색의 차분이고, i, k는 자연수이고, w(ri)은 영역(ri)의 무게부여값이고, σs 2는 거리 요소 영향 제어 파라미터이다.
기술적 방안 3.
기술적 방안 2의 화상 처리 방법에서, 화상 픽셀의 공간 좌표를 0 내지 1로 정규화한 경우, 상기 σs 2는 0.1 이상 1.0 이하이다.
기술적 방안 4.
기술적 방안 2의 화상 처리 방법에서, 상기 영역(ri)에 포함된 픽셀의 수를 상기 영역(ri)의 무게부여값(w(ri))으로 한다.
기술적 방안 5.
기술적 방안 2의 화상 처리 방법에서, 상기 영역(rk)과 영역(ri)과의 색의 차분(Dc(rk,ri)) 은 이하의 식으로 정의되고,
Figure pat00002
그 중, f(ck ,i)은 영역(rk)에 포함되는 nk종류의 색의 i번째의 ck의 출현 빈도이고, D(c1 ,i,c2 ,j)은 2개의 색(c1 ,i, c2 ,j)의 색공간에서의 유클리드 거리이고, k={1, 2}이다.
기술적 방안 6.
기술적 방안 5의 화상 처리 방법에서, 색 채널마다, 8급 이상 128 급 이하의 컬러로 근사한다.
기술적 방안 7.
기술적 방안 1 내지 6의 어느 하나의 화상 처리 방법에서,
산출된 현저성치를 출력하는 출력 스텝과,
산출된 현저성치를 표시하는 표시 스텝과,
산출된 현저성치를 격납하는 격납 스텝과,
의 적어도 하나의 스텝을 또한 포함한다.
기술적 방안 8.
영역의 콘트라스트에 의거하여 화상의 시각적 현저성을 검출하는 화상 처리 장치로서,
자동분할 알고리즘을 이용하여 입력 화상을 복수의 영역으로 분할하는 분할 유닛과,
상기 복수의 영역 중의 하나의 영역과 기타의 영역과의 색의 차분의 무게부여 합을 이용하여, 당해 영역의 현저성치를 산출하는 산출 유닛을 포함하는 것을 특징으로 한다.
기술적 방안 9.
기술적 방안 8의 화상 처리 장치에 있어서, 상기 복수의 영역에서의 영역(rk)의 현저성(S(rk))은 이하의 식으로 정의되고,
Figure pat00003
그 중, Ds(rk,ri)및 Dc(rk,ri)은 각각, 영역(rk)과 영역(ri)과의 공간거리, 및 영역(rk)과 영역(ri)과의 색의 차분이고, i, k는 자연수이고, w(ri)은 영역(ri)의 무게부여값이고, σs 2는 거리 요소 영향 제어 파라미터이다.
기술적 방안 10.
기술적 방안 9의 화상 처리 장치에 있어서, 화상 픽셀의 공간 좌표를 0 내지 1로 정규화한 경우, 상기 σs 2는 0.1 이상 1.0 이하이다.
기술적 방안 11.
기술적 방안 9의 화상 처리 장치에 있어서, 상기 영역(ri)에 포함되는 픽셀의 수를 상기 영역(ri)의 무게부여값(w(ri))으로 한다.
기술적 방안 12.
기술적 방안 9의 화상 처리 장치에 있어서, 상기 영역(rk)과 영역(ri)과의 색의 차분 (Dc(rk,ri))은 이하의 식으로 정의되고,
Figure pat00004
그 중, f(ck ,i)은 영역(rk)에 포함되는 nk종류의 색의 i번째의 ck의 출현 빈도이고, D(c1 ,i,c2 ,j)는 2개의 색(c1 ,i, c2 ,j)의 색공간에서의 유클리드 거리이고, k={1,2}이다.
기술적 방안 13.
기술적 방안 12의 화상 처리 장치에 있어서, 색 채널마다, 8급 이상 128급 이하의 컬러로 근사한다.
기술적 방안 14.
기술적 방안 8 내지 13의 어느 하나의 화상 처리 장치에 있어서,
산출된 현저성치를 출력하는 출력 유닛과,
산출된 현저성치를 표시하는 표시 유닛과,
산출된 현저성치를 격납하는 격납 유닛과,
의 적어도 하나의 유닛을 또한 포함한다.
(3) 유익적인 효과
본 발명의 상기 기술적 방안에 의하면, 본 발명의, 영역의 콘트라스트에 의거하여 화상의 시각적 현저성을 검출(산출)하는 화상 처리 방법과 화상 처리 장치는, 자동분할 알고리즘에 의해 분할된 영역마다, 당해 영역과 기타의 영역과의 색의 차분의 무게부여 합을 이용하여 당해 영역의 현저성치를 산출함으로써, 화상 픽셀의 현저성치를 신속하면서 유효하게 분석할 수 있고, 화상에서의 중요 물체 영역을 균일적으로 표현할 수 있다. 국제적으로 최대 규모인 화상의 시각적 현저성의 측정 데이터 세트로 테스트한 결과, 본 방법은 종래의 방법보다 분명히 우수하다. 본 방법에 의하면, 복잡하면서 변화가 많은 자연 화상을 유효하게 분석할 수 있음과 함께, 다수의 리얼타임 처리에의 응용 니즈를 충족할 수 있다. 본 발명은 화상에서의 시각적 현저성 영역을 자동적으로 분석할 수 있고, 그 분석 결과는, 중요한 목표 물체의 분할, 물체 식별, 적응적 화상 압축, 내용에 응한 화상의 리사이징, 및, 화상 검색 등의 응용 분야에 적용 가능하다.
도 1은 본 발명의 실시의 형태에 관한 화상 처리 방법을 설명하는 플로우 차트.
도 2는 본 발명의 다른 실시의 형태에 관한 화상 처리 방법을 설명하는 플로우 차트.
도 3은 본 발명의 실시의 형태에 관한 화상 처리 장치를 설명하는 블록도.
도 4는 본 발명의 다른 실시의 형태에 관한 화상 처리 장치를 설명하는 블록도.
도 5는 본 발명에 관한 입력 화상을 처리하는 한 예를 도시하는 도면이다.
이하, 도면과 실시예를 조합시켜서, 본 발명의 구체적인 실시 형태에 관해 상세히 설명하다. 그리고, 이하의 실시예는 본 발명을 설명하기 위한 것이고, 본 발명의 범위를 한정하는 것이 아니다.
본 발명은 어느 화상 영역과 그 다른 화상 영역과의 색의 차분의 무게부여 합을 산출하여 당해 화상 영역의 현저성치를 산출하는 화상 처리 방법과 화상 처리 장치를 공개하였다. 당해 방법과 장치에 의해 검출된 현저성치는 일련의 화상 처리에의 응용에 대한 서포트를 제공 가능하다. 그들의 응용은 중요한 목표 물체의 분할, 내용에 응한 화상의 리사이징, 및, 화상 검색 등을 포함한다.
도 1은 본 발명의 실시의 형태에 관한 화상 처리 방법을 설명하는 플로우 차트이다.
도 1에 도시하는 바와 같이, 분할 스텝 S1에서, 유저 등에 입력된 임의의 하나의 화상 (예를 들면, 도 5의 (a)에 도시하는 입력 화상)에 대해, 임의의 화상 자동분할 알고리즘에 의해 입력 화상을 복수의 영역 블록으로 분할한다. 상기 입력 화상은 유선 또는 무선 수단으로 장치의 외부로부터 입력되어도 좋고, 촬상 장치에 촬상된 화상이 리얼타임으로 또는 나중에 입력되어도 좋고, 장치의 내장 또는 외부 부착의 격납 유닛으로부터 화상을 판독하여 입력 화상으로 하여도 좋다. 입력 화상을 자동적으로 분할하기 위한 자동분할 알고리즘으로서, 예를 들면, Felzenszwalb과 Huttenlocher가 2004년에 제안한 「Efficient graph-based image segmentation」(IJCV, 59(2) : 167-181)의 방법을 이용한다. 물론, 그 밖의 기존의 화상 자동분할 알고리즘을 이용하여도 좋다.
산출 스텝 S2에서, 분할 스텝 S1에서 자동분할 알고리즘에 의해 복수의 영역 블록으로 분할된 입력 화상 (예를 들면, 도 5의 (b)에 도시하는 것)에 관해, 분할된 영역마다, 당해 영역과 기타의 영역과의 색의 차분의 무게부여 합을 산출함으로써 당해 영역의 현저성치를 산출(검출)한다. 모든 영역에 관해 각각의 현저성치를 산출하면, 도 5의 (c)에 도시하는 화상의 현저성을 얻을 수 있다.
상기 화상 처리 방법에 의하면, 화상 픽셀의 현저성치를 신속하면서 유효하게 분석할 수 있다. 복잡하면서 변화가 많은 자연 화상을 유효하게 분석하는 것을 가능하게 함과 함께, 다수의 리얼타임 처리에의 응용 니즈를 만족시킬 수 있다.
또한, 그 화상 처리 방법에서, 분할된 복수의 영역(1, 2, ...k...m)에서의 영역(rk)의 현저성(S(rk))은 이하의 식으로 정의되고,
Figure pat00005
그 중, Ds(rk,ri)및 Dc(rk,ri)은, 각각 영역(rk)과 영역(ri)과의 공간거리, 및 영역(rk)과 영역(ri)과의 색의 차분이고, i, k, m은 자연수이고, w(ri)은 영역(ri)의 무게부여값이고, σs 2는 거리 요소 영향 제어 파라미터이다.
또한, 그 화상 처리 방법에서, 거리 요소 영향 제어 파라미터(σs 2)는 클수록, 거리 요소의 영향은 작아진다. 한편, 거리 요소 영향 제어 파라미터(σs 2)는 작을수록, 거리 요소의 영향은 커진다. 화상 픽셀의 공간 좌표를 0 내지 1로 정규화(선형 주밍)한 경우, 상기 거리 요소 영향 제어 파라미터(σs 2)는 0.01 이상 10 이하의 값을 취할 수 있다. 바람직하게는, 거리 요소 영향 제어 파라미터(σs 2)는 0.1 이상 1.0 이하이다. σs 2=0.4일 때, 우수한 화상 현저성 검출(계산) 효과를 얻을 수 있다.
또한, 그 화상 처리 방법에서, 상기 영역(ri)에 포함되는 픽셀의 수를 상기 영역의 무게부여값 w(ri)으로 하여도 좋다.
또한, 그 화상 처리 방법에서, 상기 영역(rk)과 영역(ri)과의 색의 차분(Dc(rk,ri))은 이하의 식으로 정의되고,
Figure pat00006
그 중, f(ck ,i)은 영역(rk)에 포함되는 nk종류의 색의 i번째의 ck의 출현 빈도이고, D(c1 ,i,c2 ,j)은 2개의 색(c1 ,i, c2 ,j)의 색공간에서의 유클리드 거리 (Euclidean distance)이고, k={1.2}이다.
또한, 그 화상 처리 방법에서, 색 채널마다 2급 이상 256급 이하의 컬러로 계산한다. 채용된 컬러의 등급(레벨)이 낮을수록, 계산의 양이 적어지지만, 정밀도가 나빠진다. 채용된 컬러의 등급(레벨)이 높을수록, 계산의 양이 많아지지만, 정밀도가 좋아진다. 계산을 가속하기 위해, 색 채널마다 256급의 풀 컬러로 하는 것이 필요 없고, 예를 들면, 바람직하게는 색 채널마다 8급 이상 128급 이하의 컬러로 근사한다. 본 발명의 현저성 검출 방법에 의하면, 색 채널마다 12급 컬러로 근사하면, 우수한 효과를 얻을 수 있다. 따라서 검출된 화상 현저성의 정밀도를 확보하면서, 계산의 양을 대폭적으로 저감할 수 있다.
도 2는 본 발명의 다른 실시의 형태에 관한 화상 처리 방법을 설명하는 플로우 차트이다.
도 2에 도시하는 바와 같이, 그 화상 처리 방법에서, 분할 스텝 S1과 산출 스텝 S2 외에, 산출된 현저성치를 출력하는 출력 스텝 S3과, 산출된 현저성치를 표시하는 표시 스텝 S4와, 산출된 현저성치를 격납하는 격납 스텝 S5의 적어도 하나의 스텝을 또한 포함하여도 좋다. 즉, 출력 스텝과, 표시 스텝과, 격납 스텝을 임의적으로 조합시킴으로써, 얻어진 현저성 검출 결과를 희망하는 신에 응용할 수 있다. 출력 스텝과, 표시 스텝과, 격납 스텝의 순번에 관해서는 한정되는 것이 아니다.
도 3은 본 발명의 실시의 형태에 관한 화상 처리 장치를 설명하는 블록도이다.
도 3에 도시하는 바와 같이, 본 실시 형태에 관한 화상 처리 장치(1)는 영역의 콘트라스트에 의거하여 화상의 시각적 현저성을 검출한다. 상기 화상 처리 장치(1)는, 자동분할 알고리즘을 이용하여 입력 화상을 복수의 영역으로 분할하는 분할 유닛(10)과, 상기 복수의 영역 중의 하나의 영역과 기타의 영역과의 색의 차분의 무게부여 합을 당해 하나의 영역의 현저성치로서 산출하는 산출 유닛(20)을 포함한다.
분할 유닛(10)은, 유저 등에 입력된 임의의 하나의 화상(예를 들면, 도 5의 (a)에 도시하는 입력 화상)에 대해, 임의의 화상 자동분할 알고리즘에 의해 입력 화상을 복수의 영역 블록으로 분할한다. 상기 입력 화상은 유선 또는 무선 수단으로 장치의 외부로부터 입력되어도 좋고, 촬상 장치에 촬상된 화상이 리얼타임으로 또는 나중에 입력되어도 좋고, 장치의 내장 또는 외부 부착의 격납 유닛으로부터 화상을 판독하여 입력 화상으로 하여도 좋다. 입력 화상을 자동적으로 분할하기 위한 자동분할 알고리즘으로서, 예를 들면, Felzenszwalb와 Huttenlocher가 2004년에 제안한 「Efficient graph-based image segmentation」(IJCV, 59(2) : 167-181)의 방법을 이용한다. 물론, 그 밖의 기존의 화상 자동분할 알고리즘을 이용하여도 좋다.
산출 유닛(20)은, 분할 유닛(10)에서 자동분할 알고리즘에 의해 복수의 영역 블록으로 분할된 입력 화상(예를 들면, 도 5의 (b)에 도시하는 것)에 관해, 분할된 영역마다, 당해 영역과 기타의 영역과의 색의 차분의 무게부여 합을 산출함으로써 당해 영역의 현저성치를 산출(검출)한다. 모든 영역에 관해 각각의 현저성치를 산출하면, 도 5의 (c)에 도시하는 화상의 현저성을 얻을 수 있다.
상기 화상 처리 장치에 의하면, 화상 픽셀의 현저성치를 신속하면서 유효하게 분석할 수 있다. 본 발명에 의하면, 복잡하면서 변화가 많은 자연 화상을 유효하게 분석하는 것을 가능하게 함과 함께, 다수의 리얼타임 처리에의 응용 니즈를 만족시킬 수 있다.
또한, 그 화상 처리 장치(1)에서, 분할된 복수의 영역(1, 2, ...k...m)에서의 영역(rk)의 현저성(S(rk))은 이하의 식으로 정의되고,
Figure pat00007
그 중, Ds(rk,ri)및 Dc(rk,ri) 은, 각각 영역(rk)과 영역(ri)과의 공간거리, 및 영역(rk)과 영역(ri)과의 색의 차분이고, i, k, m은 자연수이고, w(ri)은 영역(ri)의 무게부여값이고, σs 2는 거리 요소 영향 제어 파라미터이다.
또한, 그 화상 처리 장치(1)에서, 거리 요소 영향 제어 파라미터(σs 2)는 클수록, 거리 요소의 영향은 작아진다. 한편, 거리 요소 영향 제어 파라미터(σs 2)는 작을수록, 거리 요소의 영향은 커진다. 화상 픽셀의 공간 좌표를 0 내지 1로 정규화(선형 주밍)한 경우, 상기 거리 요소 영향 제어 파라미터(σs 2)는 0.01 이상 10 이하의 값을 취할 수 있다. 바람직하게는, 거리 요소 영향 제어 파라미터(σs 2)는 0.1 이상 1.0 이하이다. σs 2=0.4일 때, 우수한 화상 현저성 검출(계산) 효과를 얻을 수 있다.
또한, 그 화상 처리 장치(1)에서, 상기 영역(ri)에 포함되는 픽셀의 수를 상기 영역(ri)의 무게부여값(w(ri))로 하여도 좋다.
또한, 그 화상 처리 장치(1)에서, 상기 영역(rk)과 영역(ri)과의 색의 차분(Dc(rk,ri))은 이하의 식으로 정의되고,
Figure pat00008
그 중, f(ck ,i)은 영역(rk)에 포함되는 nk종류의 색의 i번째의 ck의 출현 빈도이고, D(c1 ,i,c2 ,j)은 2개의 색(c1 ,i, c2 ,j)의 색공간에서의 유클리드 거리(Euclidean distance)이고, k={1,2}이다.
또한, 그 화상 처리 장치(1)에서, 색 채널마다 2급 이상 256급 이하의 컬러로 계산한다. 채용된 컬러의 등급(레벨)이 낮을수록, 계산의 양이 적어지지만, 정밀도가 나빠진다. 채용된 컬러의 등급(레벨)이 높을수록, 계산의 양이 많아 지지만, 정밀도가 좋아진다. 계산을 가속하기 위해, 색 채널마다 256급의 풀 컬러로 하는 것이 필요 없고, 예를 들면, 바람직하게는 색 채널마다 8급 이상 128급 이하의 컬러로 근사한다. 본 발명의 현저성 검출 방법에 의하면, 색 채널마다 12급 컬러로 근사하면, 우수한 효과를 얻을 수 있다. 따라서 검출된 화상 현저성의 정밀도를 확보하면서, 계산의 양을 대폭적으로 저감할 수 있다. 복잡하면서 변화가 많은 자연 화상을 유효하게 분석할 수 있으면서 다수의 리얼타임 처리에의 응용 니즈를 만족할 수 있다.
도 4는 본 발명의 다른 실시의 형태에 관한 화상 처리 장치를 설명하는 블록도이다.
도 4에 도시하는 바와 같이, 화상 처리 장치(1)에서, 분할 유닛(10)과 산출 유닛(20) 외에, 산출된 현저성치를 출력하는 출력 유닛(30)과, 산출된 현저성치를 표시하는 표시 유닛(40)과, 산출된 현저성치를 격납하는 격납 유닛(50)의 적어도 하나의 유닛을 또한 포함하여도 좋다. 즉, 출력 유닛(30)과, 표시 유닛(40)과, 격납 유닛(50)을 임의적으로 조합시킴으로써, 얻어진 현저성 검출 결과를 희망하는 신에 응용할 수 있다. 본 발명에 의하면, 검출된 화상 현저성의 정밀도를 확보하면서, 계산의 양을 대폭적으로 저감할 수 있다. 복잡하면서 변화가 많은 자연 화상을 유효하게 분석하는 것을 가능하게 함과 함께, 다수의 리얼타임 처리에의 응용 니즈를 만족시킬 수 있다.
이상 본 발명은 특정한 실시예를 참조하면서 설명되어 왔지만, 그들은 단순한 예시에 지나지 않고, 당업자는 다양한 변형례, 수정례, 대체례, 치환례 등을 이해할 수 있을 것이다. 발명의 이해를 촉구하기 위해 구체적인 수치예를 이용하여 설명이 이루어졌지만, 특히 단서가 없는 한, 그들의 수치는 단순한 한 예에 지나지 않고, 적절한 여하한 값이 사용되어도 좋다. 실시예 또는 항목의 구분은 본 발명에 본질적이 아니고, 2 이상의 실시예 또는 항목에 기재된 사항이 필요에 응하여 조합시켜서 사용되어도 좋다. 설명의 편의상, 본 발명의 실시예에 관한 장치는 기능적인 블록도를 이용하여 설명되었지만, 그와 같은 장치는 하드웨어로, 소프트웨어로 또는 그들의 조합으로 실현되어도 좋다. 본 발명은 상기 실시예로 한정되지 않고, 본 발명의 정신으로부터 일탈하는 일 없이, 다양한 변형례, 수정례, 대체예, 치환례 등이 본 발명에 포함된다.

Claims (14)

  1. 영역의 콘트라스트에 의거하여 화상의 시각적 현저성을 검출하는 화상 처리 방법으로서,
    자동분할 알고리즘을 이용하여 입력 화상을 복수의 영역으로 분할하는 분할 스텝과,
    상기 복수의 영역 중의 하나의 영역과 기타의 영역과의 색의 차분의 무게부여 합을 이용하여, 당해 영역의 현저성치를 산출하는 산출 스텝을 포함하는 것을 특징으로 하는 화상 처리 방법.
  2. 제 1항에 있어서,
    상기 산출 스텝에서, 상기 복수의 영역에서의 영역(rk)의 현저성(S(rk))은 이하의 식으로 정의되고,
    Figure pat00009

    그 중, Ds(rk,ri)및 Dc(rk,ri)은 각각, 영역(rk)과 영역(ri)과의 공간거리, 및 영역(rk)과 영역(ri)과의 색의 차분이고, i, k는 자연수이고, w(ri)은 영역(ri)의 무게부여값이고, σs 2는 거리 요소 영향 제어 파라미터인 것을 특징으로 하는 화상 처리 방법.
  3. 제 2항에 있어서,
    화상 픽셀의 공간 좌표를 0 내지 1로 정규화한 경우, 상기 σs 2는 0.1 이상 1.0 이하인 것을 특징으로 하는 화상 처리 방법.
  4. 제 2항에 있어서,
    상기 영역(ri)에 포함된 픽셀의 수를 상기 영역(ri)의 무게부여값(w(ri))으로 하는 것을 특징으로 하는 화상 처리 방법.
  5. 제 2항에 있어서,
    상기 영역(rk)과 영역(ri)과의 색의 차분(Dc(rk, ri))은 이하의 식으로 정의되고,
    Figure pat00010

    그 중, f(ck ,i)는 영역(rk)에 포함되는 nk종류의 색의 i번째의의 출현 빈도이고, D(c1 ,i,c2 ,j)은 2개의 색(c1 ,i, c2 ,j)의 색공간에서의 유클리드 거리이고, k={1,2}인 것을 특징으로 하는 화상 처리 방법.
  6. 제 5항에 있어서,
    색 채널마다 8급 이상 128급 이하의 컬러로 근사하는 것을 특징으로 하는 화상 처리 방법.
  7. 제 1항 내지 제 6항 중 어느 한 항에 있어서,
    산출된 현저성치를 출력하는 출력 스텝과,
    산출된 현저성치를 표시하는 표시 스텝과,
    산출된 현저성치를 격납하는 격납 스텝 중의 적어도 하나의 스텝을 또한 포함하는 것을 특징으로 하는 화상 처리 방법.
  8. 영역의 콘트라스트에 의거하여 화상의 시각적 현저성을 검출하는 화상 처리 장치로서,
    자동분할 알고리즘을 이용하여 입력 화상을 복수의 영역으로 분할하는 분할 유닛과,
    상기 복수의 영역 중의 하나의 영역과 기타의 영역과의 색의 차분의 무게부여 합을 이용하여, 당해 영역의 현저성치를 산출하는 산출 유닛을 포함하는 것을 특징으로 하는 화상 처리 장치.
  9. 제 8항에 있어서,
    상기 복수의 영역에서의 영역(rk)의 현저성(S(rk))은 이하의 식으로 정의되고,
    Figure pat00011

    그 중, Ds(rk,ri)및 Dc(rk,ri)은 각각, 영역(rk)과 영역(ri)과의 공간거리, 및 영역(rk)과 영역(ri)과의 색의 차분이고, i, k는 자연수이고, w(ri)는 영역(ri)의 무게부여값이고, σs 2는 거리 요소 영향 제어 파라미터인 것을 특징으로 하는 화상 처리 장치.
  10. 제 9항에 있어서,
    화상 픽셀의 공간 좌표를 0 내지 1로 정규화한 경우, 상기 σs 2는 0.1 이상 1.0 이하인 것을 특징으로 하는 화상 처리 장치.
  11. 제 9항에 있어서,
    상기 영역 에 포함되는 픽셀의 수를 상기 영역(ri)의 무게부여값(w(ri))으로 하는 것을 특징으로 하는 화상 처리 장치.
  12. 제 9항에 있어서,
    상기 영역(rk)과 영역(ri)과의 색의 차분(Dc(rk,ri))은 이하의 식으로 정의되고,
    Figure pat00012

    그 중, f(ck ,i)은 영역(rk)에 포함되는 nk종류의 색의 i번째의 ck의 출현 빈도이고, D(c1 ,i, c2 ,j)는 2개의 색(c1 ,i, c2 ,j)의 색공간에서의 유클리드 거리이고, k={1,2}인 것을 특징으로 하는 화상 처리 장치.
  13. 제 12항에 있어서,
    색 채널마다 8급 이상 128급 이하의 컬러로 근사하는 것을 특징으로 하는 화상 처리 장치.
  14. 제 8항 내지 제 13항 중 어느 한 항에 있어서,
    산출된 현저성치를 출력하는 출력 유닛과,
    산출된 현저성치를 표시하는 표시 유닛과,
    산출된 현저성치를 격납하는 격납 유닛 중의 적어도 하나의 유닛을 또한 포함하는 것을 특징으로 하는 화상 처리 장치.
KR20120048891A 2011-05-13 2012-05-09 화상 처리 방법과 화상 처리 장치 KR101333347B1 (ko)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
CN201110124317.2A CN102779338B (zh) 2011-05-13 2011-05-13 图像处理方法和图像处理装置
CN201110124317.2 2011-05-13

Publications (2)

Publication Number Publication Date
KR20120127247A true KR20120127247A (ko) 2012-11-21
KR101333347B1 KR101333347B1 (ko) 2013-11-28

Family

ID=46456306

Family Applications (1)

Application Number Title Priority Date Filing Date
KR20120048891A KR101333347B1 (ko) 2011-05-13 2012-05-09 화상 처리 방법과 화상 처리 장치

Country Status (5)

Country Link
US (1) US9014467B2 (ko)
EP (1) EP2523165B1 (ko)
JP (1) JP5422018B2 (ko)
KR (1) KR101333347B1 (ko)
CN (1) CN102779338B (ko)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9824294B2 (en) 2015-06-04 2017-11-21 Omron Corporation Saliency information acquisition device and saliency information acquisition method
CN108510557A (zh) * 2018-04-09 2018-09-07 湖南国科微电子股份有限公司 图像色调映射方法及装置

Families Citing this family (37)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8401292B2 (en) * 2011-04-26 2013-03-19 Eastman Kodak Company Identifying high saliency regions in digital images
CN102779338B (zh) * 2011-05-13 2017-05-17 欧姆龙株式会社 图像处理方法和图像处理装置
US9041766B1 (en) * 2013-03-14 2015-05-26 Ca, Inc. Automated attention detection
US9100540B1 (en) 2013-03-14 2015-08-04 Ca, Inc. Multi-person video conference with focus detection
CN103247051A (zh) * 2013-05-16 2013-08-14 北京工业大学 一种基于期望步数的图像显著程度检测方法
KR102109933B1 (ko) 2013-07-01 2020-05-12 삼성전자주식회사 디스플레이의 곡률을 참조하는 영상 처리장치 및 방법
EP3039645B1 (en) 2013-08-28 2017-05-17 Aselsan Elektronik Sanayi ve Ticaret Anonim Sirketi A semi automatic target initialization method based on visual saliency
US9946795B2 (en) 2014-01-27 2018-04-17 Fujitsu Limited User modeling with salience
CN103810707B (zh) * 2014-01-28 2016-08-17 华东理工大学 一种基于移动视觉焦点的图像视觉显著性检测方法
JP6338429B2 (ja) 2014-04-15 2018-06-06 キヤノン株式会社 被写体検出装置、被写体検出方法及びプログラム
US9195903B2 (en) * 2014-04-29 2015-11-24 International Business Machines Corporation Extracting salient features from video using a neurosynaptic system
US10055666B2 (en) 2014-05-08 2018-08-21 Aselsan Elektronik Sanayi Ve Ticaret Anonim Sirketi Real-time, semi-automatic method for target tracking window initialization in thermal imagery
CN103985257A (zh) * 2014-05-14 2014-08-13 南通大学 一种智能交通视频分析方法
US9373058B2 (en) 2014-05-29 2016-06-21 International Business Machines Corporation Scene understanding using a neurosynaptic system
US10115054B2 (en) 2014-07-02 2018-10-30 International Business Machines Corporation Classifying features using a neurosynaptic system
US9798972B2 (en) 2014-07-02 2017-10-24 International Business Machines Corporation Feature extraction using a neurosynaptic system for object classification
CN104134217B (zh) * 2014-07-29 2017-02-15 中国科学院自动化研究所 一种基于超体素图割的视频显著物体分割方法
JP6525537B2 (ja) 2014-09-30 2019-06-05 キヤノン株式会社 画像処理装置及びその制御方法、プログラム、記憶媒体
WO2016060672A1 (en) * 2014-10-16 2016-04-21 Hewlett-Packard Development Company, L.P. Video coding using a saliency map
CN104318514B (zh) * 2014-10-17 2017-05-17 合肥工业大学 基于三维显著度的图像扭曲方法
CN104574366B (zh) * 2014-12-18 2017-08-25 华南理工大学 一种基于单目深度图的视觉显著性区域的提取方法
CN105160668B (zh) * 2015-08-26 2018-01-09 爱威科技股份有限公司 图像分割方法、系统与细胞图像分割方法、系统
CN105513042A (zh) * 2015-10-30 2016-04-20 河海大学 一种基于多层分析和分层推理的显著性检测方法
CN105405130B (zh) * 2015-11-02 2019-03-01 北京旷视科技有限公司 基于聚类的证照图像高光检测方法及装置
CN105528757B (zh) * 2015-12-08 2019-01-29 华南理工大学 一种基于内容的图像美学质量提升方法
CN105913064B (zh) * 2016-04-12 2017-03-08 福州大学 一种图像视觉显著性检测拟合优化方法
US10776659B2 (en) 2016-08-26 2020-09-15 Goodrich Corporation Systems and methods for compressing data
CN106650744B (zh) * 2016-09-16 2019-08-09 北京航空航天大学 局部形状迁移指导的图像对象共分割方法
US10719927B2 (en) * 2017-01-04 2020-07-21 Samsung Electronics Co., Ltd. Multiframe image processing using semantic saliency
CN107392968B (zh) * 2017-07-17 2019-07-09 杭州电子科技大学 融合颜色对比图和颜色空间分布图的图像显著性检测方法
CN107481248A (zh) * 2017-07-28 2017-12-15 桂林电子科技大学 一种图像显著区域的提取方法
CN107545576A (zh) * 2017-07-31 2018-01-05 华南农业大学 基于构图规则的图像编辑方法
CN107784662B (zh) * 2017-11-14 2021-06-11 郑州布恩科技有限公司 一种图像目标显著性度量方法
US11263752B2 (en) * 2019-05-09 2022-03-01 Boe Technology Group Co., Ltd. Computer-implemented method of detecting foreign object on background object in an image, apparatus for detecting foreign object on background object in an image, and computer-program product
JP7354686B2 (ja) 2019-08-27 2023-10-03 株式会社リコー 出力制御装置、表示制御システム、出力制御方法およびプログラム
US11373407B2 (en) * 2019-10-25 2022-06-28 International Business Machines Corporation Attention generation
CN113888086B (zh) * 2021-09-29 2024-06-28 平安银行股份有限公司 基于图像识别的物品签收方法、装置、设备及存储介质

Family Cites Families (23)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6282317B1 (en) * 1998-12-31 2001-08-28 Eastman Kodak Company Method for automatic determination of main subjects in photographic images
KR100319155B1 (ko) * 1999-02-01 2001-12-29 구자홍 신뢰도를 이용한 대표칼라 지정방법
JP3482923B2 (ja) * 1999-10-28 2004-01-06 セイコーエプソン株式会社 自動構図決定装置
GB2370438A (en) * 2000-12-22 2002-06-26 Hewlett Packard Co Automated image cropping using selected compositional rules.
US7130461B2 (en) * 2002-12-18 2006-10-31 Xerox Corporation Systems and method for automatically choosing visual characteristics to highlight a target against a background
JP2004361987A (ja) * 2003-05-30 2004-12-24 Seiko Epson Corp 画像検索システム、画像分類システム、画像検索プログラム及び画像分類プログラム、並びに画像検索方法及び画像分類方法
US20050047647A1 (en) * 2003-06-10 2005-03-03 Ueli Rutishauser System and method for attentional selection
JP4396430B2 (ja) * 2003-11-25 2010-01-13 セイコーエプソン株式会社 視線誘導情報生成システムおよび視線誘導情報生成プログラム、並びに視線誘導情報生成方法
EP1544792A1 (en) 2003-12-18 2005-06-22 Thomson Licensing S.A. Device and method for creating a saliency map of an image
JP4639754B2 (ja) * 2004-11-04 2011-02-23 富士ゼロックス株式会社 画像処理装置
US7760956B2 (en) * 2005-05-12 2010-07-20 Hewlett-Packard Development Company, L.P. System and method for producing a page using frames of a video stream
JP4821485B2 (ja) * 2006-07-31 2011-11-24 富士ゼロックス株式会社 画像処理装置及びプログラム
US7940985B2 (en) * 2007-06-06 2011-05-10 Microsoft Corporation Salient object detection
CN101329767B (zh) 2008-07-11 2011-11-16 西安交通大学 基于学习的视频中显著物体序列自动检测方法
JP5305768B2 (ja) 2008-07-22 2013-10-02 株式会社東芝 画像強調装置及び画像強調方法
JP4727720B2 (ja) * 2008-12-31 2011-07-20 株式会社モルフォ 画像処理方法および画像処理装置
CN101520894B (zh) * 2009-02-18 2011-03-30 上海大学 基于区域显著性的显著对象提取方法
CN101510299B (zh) * 2009-03-04 2011-07-20 上海大学 基于视觉显著性的图像自适应方法
CN101526955B (zh) 2009-04-01 2010-09-01 清华大学 一种基于草图的网络图元自动提取方法和系统
CN101650824B (zh) 2009-09-23 2011-12-28 清华大学 基于共形能量的内容敏感图像缩放方法
JP5556262B2 (ja) * 2010-03-15 2014-07-23 オムロン株式会社 画像属性判別装置、属性判別支援装置、画像属性判別方法、属性判別支援装置の制御方法、および、制御プログラム
CN102779338B (zh) * 2011-05-13 2017-05-17 欧姆龙株式会社 图像处理方法和图像处理装置
US9042648B2 (en) * 2012-02-23 2015-05-26 Microsoft Technology Licensing, Llc Salient object segmentation

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9824294B2 (en) 2015-06-04 2017-11-21 Omron Corporation Saliency information acquisition device and saliency information acquisition method
CN108510557A (zh) * 2018-04-09 2018-09-07 湖南国科微电子股份有限公司 图像色调映射方法及装置

Also Published As

Publication number Publication date
JP2012243313A (ja) 2012-12-10
CN102779338A (zh) 2012-11-14
EP2523165B1 (en) 2017-09-27
JP5422018B2 (ja) 2014-02-19
CN102779338B (zh) 2017-05-17
EP2523165A2 (en) 2012-11-14
US9014467B2 (en) 2015-04-21
KR101333347B1 (ko) 2013-11-28
EP2523165A8 (en) 2013-01-02
US20120288189A1 (en) 2012-11-15
EP2523165A3 (en) 2014-11-19

Similar Documents

Publication Publication Date Title
KR101333347B1 (ko) 화상 처리 방법과 화상 처리 장치
CN109886130B (zh) 目标对象的确定方法、装置、存储介质和处理器
EP2915333B1 (en) Depth map generation from a monoscopic image based on combined depth cues
CN102129693B (zh) 基于色彩直方图和全局对比度的图像视觉显著性计算方法
CN108596102B (zh) 基于rgb-d的室内场景物体分割分类器构造方法
CN111209774B (zh) 目标行为识别及显示方法、装置、设备、可读介质
US10817744B2 (en) Systems and methods for identifying salient images
CN112991238B (zh) 基于纹理色彩混合式的食物图像分割方法、系统、介质
CN102084397A (zh) 图像处理设备、方法和程序
CN110176024A (zh) 在视频中对目标进行检测的方法、装置、设备和存储介质
CN109670517A (zh) 目标检测方法、装置、电子设备和目标检测模型
JP2016009448A (ja) 判定装置、判定方法及び判定プログラム
CN113902641A (zh) 一种基于红外图像的数据中心热区判别方法及系统
Singh et al. Learning to Predict Video Saliency using Temporal Superpixels.
CN114449362B (zh) 视频封面的选取方法、装置、设备及存储介质
CN111914796A (zh) 基于深度图和骨骼点的人体行为识别方法
US8538142B2 (en) Face-detection processing methods, image processing devices, and articles of manufacture
US9798932B2 (en) Video extraction method and device
CN113515978B (zh) 数据处理方法、设备及存储介质
Zhou et al. On contrast combinations for visual saliency detection
CN113705660A (zh) 目标识别方法及相关设备
Chen et al. Dynamic visual saliency modeling based on spatiotemporal analysis
CN117409368B (zh) 基于密度分布的鱼群聚集行为和鱼群饥饿行为实时分析方法
Wang et al. Learn local priors by transferring training masks for salient object detection
Pan et al. Saliency detection based on the fusion of spatial and frequency domain analysis

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20161020

Year of fee payment: 4

FPAY Annual fee payment

Payment date: 20171018

Year of fee payment: 5

FPAY Annual fee payment

Payment date: 20181101

Year of fee payment: 6

FPAY Annual fee payment

Payment date: 20191030

Year of fee payment: 7