KR20050023122A - System and method for segmenting - Google Patents

System and method for segmenting Download PDF

Info

Publication number
KR20050023122A
KR20050023122A KR10-2005-7001820A KR20057001820A KR20050023122A KR 20050023122 A KR20050023122 A KR 20050023122A KR 20057001820 A KR20057001820 A KR 20057001820A KR 20050023122 A KR20050023122 A KR 20050023122A
Authority
KR
South Korea
Prior art keywords
pixels
blocks
image
motion
group
Prior art date
Application number
KR10-2005-7001820A
Other languages
Korean (ko)
Inventor
바레캄프크리스티안
피에크메시스시.
브라스페닝라프에이.시.
Original Assignee
코닌클리케 필립스 일렉트로닉스 엔.브이.
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 코닌클리케 필립스 일렉트로닉스 엔.브이. filed Critical 코닌클리케 필립스 일렉트로닉스 엔.브이.
Priority to KR10-2005-7001820A priority Critical patent/KR20050023122A/en
Publication of KR20050023122A publication Critical patent/KR20050023122A/en

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/215Motion-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/90Determination of colour characteristics
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/97Determining parameters from multiple pictures

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Image Analysis (AREA)

Abstract

컬러 또는 휘도와 같은 이미지 특성 및 모션에 기초하여, 제 1 비디오 이미지의 제 1 이미지 피처(214)를 상기 제 1 비디오 이미지의 인접한 제 2 이미지 피처(216)로부터 세그멘팅하기 위한 세그멘테이션 시스템(100)이 개시된다. 세그멘테이션 시스템(100)은 픽셀들의 블록들에 대한 모션 벡터들(218-230)을 추정하기 위한 블록 기반 모션 추정기(102)와, 픽셀들의 각각의 블록들의 모션 벡터들(218-230)에 기초하여 제 1 비디오 이미지를 픽셀들의 접속된 블록들의 제 1 그룹(204)과 픽셀들의 접속된 블록들의 제 2 그룹(206)으로 세그멘팅하기 위한 모션 세그멘테이션 유닛(104)과, 상기 이미지 특성의 상기 각각의 값들에 기초하여, 픽셀들의 접속된 블록들의 상기 제 1 및 제 2 그룹(214, 216)의 픽셀들의 블록들의 부분의 픽셀-기반 세그멘테이션에 의해 상기 제 2 이미지 피처(216)으로부터 상기 제 1 이미지 피처(214)를 세그멘팅하기 위한 픽셀 기반 세그멘테이션 유닛(106)을 포함한다.Segmentation system 100 for segmenting a first image feature 214 of a first video image from an adjacent second image feature 216 of the first video image based on image characteristics such as color or luminance and motion. This is disclosed. Segmentation system 100 is based on block-based motion estimator 102 for estimating motion vectors 218-230 for blocks of pixels and based on motion vectors 218-230 of respective blocks of pixels. A motion segmentation unit 104 for segmenting a first video image into a first group 204 of connected blocks of pixels and a second group of connected blocks of pixels 206, wherein each of said image characteristics Based on the values, the first image feature from the second image feature 216 by pixel-based segmentation of a portion of the blocks of pixels of the first and second group 214, 216 of connected blocks of pixels. Pixel-based segmentation unit 106 for segmenting 214.

Description

세그멘팅을 위한 시스템 및 방법{System and method for segmenting}System and method for segmenting

본 발명은 제 1 비디오 이미지의 인접한 제 2 이미지 피처로부터 제 1 비디오 이미지의 제 1 이미지 피처를 세그멘팅하는 방법에 관한 것이다.The present invention relates to a method of segmenting a first image feature of a first video image from an adjacent second image feature of a first video image.

또한, 본 발명은 제 1 비디오 이미지의 제 1 이미지 피처를 인접한 제 2 이미지 피처로부터 세그멘팅하기 위한 세그멘테이션 시스템에 관한 것이다. The invention also relates to a segmentation system for segmenting a first image feature of a first video image from an adjacent second image feature.

또한, 본 발명은 상기 세그멘테이션 시스템을 포함하는 모션 벡터 필드를 추정하기 위한 픽셀 해상도의 모션 추정기에 관한 것이다.The invention also relates to a motion estimator of pixel resolution for estimating a motion vector field comprising said segmentation system.

또한, 본 발명은,In addition, the present invention,

- 일련의 비디오 이미지들을 나타내는 신호를 수신하기 위한 수신 수단과,Receiving means for receiving a signal representing a series of video images,

- 비디오 이미지들로부터 모션 벡터 필드를 추정하기 위한 상기 픽셀 해상도의 모션 추정기와,A motion estimator of the pixel resolution for estimating a motion vector field from video images,

- 상기 비디오 이미지들 및 상기 모션 벡터 필드에 기초하여 처리된 이미지들을 결정하기 위한 모션 보상된 이미지 처리 유닛을 포함하는 이미지 처리 장치에 관한 것이다.A motion compensated image processing unit for determining processed images based on the video images and the motion vector field.

서두에서 기술된 종류의 방법의 실시예는 미국 특허 제 6,075,875 호에 공지되어 있다. 상기 방법은 예를 들어 모션 벡터들과 같은, 모션-세그멘팅된 비디오 이미지 피처들을 형성하기 위한 선행 비디오 이미지 및 선택된 비디오 이미지에서 대응하는 픽셀들의 모션 표현의 획득을 포함한다. 또한, 비디오 이미지 피처들은 그들의 공간적인 이미지 특성들에 따라 세그멘팅되어 공간적으로-세그멘팅된 비디오 이미지 피처들을 형성한다. 결과적으로, 비디오 이미지 피처들은 모션 세그멘팅된 비디오 이미지 피처들과 공간적으로-세그멘팅된 비디오 이미지 피처들의 가중된 조합으로서 공동으로 세그멘팅된다. 종래 기술에 따른 방법의 단점은 모션-세그멘팅된 비디오 이미지 피처들과 공간적으로-세그멘팅된 비디오 이미지 피처들의 비교적 복잡한 방법이란 것이다. 두 개의 다른 양들(quantities) 즉, 모션 기반 양 및 공간적인 이미지 특성이 가중된다는 것에 주의한다. 다른 양들의 가중화는 일반적이지 않다.Examples of methods of the kind described at the outset are known from US Pat. No. 6,075,875. The method includes obtaining a motion representation of corresponding pixels in a selected video image and a preceding video image for forming motion-segmented video image features, such as, for example, motion vectors. In addition, video image features are segmented according to their spatial image characteristics to form spatially-segmented video image features. As a result, the video image features are jointly segmented as a weighted combination of motion segmented video image features and spatially-segmented video image features. A disadvantage of the method according to the prior art is that it is a relatively complex method of motion-segmented video image features and spatially-segmented video image features. Note that two different quantities are weighted: motion based quantity and spatial image characteristic. The weighting of other quantities is not common.

도 1은 본 발명에 따른 세그멘테이션 시스템의 실시예를 개략적으로 도시하는 도면.1 shows schematically an embodiment of a segmentation system according to the invention;

도 2a는 블록 기반 모션 세그멘테이션을 위한 블록들의 초기 구성을 개략적으로 도시하는 도면.2A schematically illustrates an initial configuration of blocks for block based motion segmentation.

도 2b는 하나의 수정 이후 도 2a의 블록의 업데이트된 구성을 개략적으로 도시하는 도면.FIG. 2B schematically illustrates the updated configuration of the block of FIG. 2A after one modification.

도 2c는 블록 기반 모션 세그멘테이션의 블록들의 결과적인 구성을 도시하는 도면.FIG. 2C illustrates the resulting configuration of blocks of block based motion segmentation. FIG.

도 3a는 픽셀 기반 세그멘테이션을 위한 입력 블록들을 개략적으로 도시하는 도면.3A schematically illustrates input blocks for pixel based segmentation.

도 3b는 픽셀 기반 세그멘테이션을 위한 수평적인 블록의 초기 에지를 개략적으로 도시하는 도면.3B schematically illustrates the initial edge of a horizontal block for pixel based segmentation.

도 3c는 도 3b의 수평 블록 쌍에 대해 검출된 에지를 개략적으로 도시하는 도면.3C schematically illustrates detected edges for the horizontal block pair of FIG. 3B.

도 3d는 픽셀 기반 세그멘테이션을 위한 수직 블록쌍에 대한 초기 에지를 개략적으로 도시하는 도면.FIG. 3D schematically illustrates the initial edge for a vertical block pair for pixel based segmentation. FIG.

도 3e는 최종적으로 검출된 에지를 개략적으로 도시하는 도면.3E is a schematic illustration of the last detected edge.

도 4a는 픽셀 정확한 모션 벡터 필드를 추정하기 위해 움직임 추정기의 입력들 및 출력을 도시하는 도면.4A illustrates the inputs and outputs of a motion estimator to estimate a pixel accurate motion vector field.

도 4b는 픽셀 정확한 모션 벡터 필드를 추정하기 위해 대안적인 움직임 추정기의 입력들 및 출력을 도시하는 도면.4B illustrates the inputs and outputs of an alternative motion estimator to estimate a pixel accurate motion vector field.

도 5는 본 발명에 따른 이미지 처리 장치의 성분을 개략적으로 도시하는 도면.5 schematically shows the components of an image processing apparatus according to the present invention;

본 발명의 목적은 서두에서 기술한 픽셀 정확한(pixel accurate) 및 비교적 쉬운 종류의 방법을 제공하는 것이다.It is an object of the present invention to provide a method of the kind of pixel accurate and relatively easy described at the outset.

본 발명의 목적은, 제 1 비디오 이미지의 제 1 이미지 피처(214)를 상기 제 1 비디오 이미지의 인접한 제 2 이미지 피처로부터 세그멘팅하기 위한 방법으로서, 상기 제 1 이미지 피처는 실질적으로 제 1 범위의 값들이 되는 이미지 특성의 각각의 값들을 갖는 복수의 픽셀들을 갖고 상기 제 1 비디오 이미지와 제 2 비디오 이미지 사이에서 상기 제 2 이미지 피처에 관련되는 모션을 갖고, 상기 제 2 이미지 피처는 실질적으로 상기 제 1 범위의 값들과 상이한 제 2 범위의 값들이 되는 상기 이미지 특성의 각각의 값들을 갖는 복수의 픽셀들을 갖는, 상기 방법에 의해 달성되며, 상기 방법은, An object of the present invention is a method for segmenting a first image feature 214 of a first video image from an adjacent second image feature of the first video image, wherein the first image feature is substantially in a first range. Having a plurality of pixels having respective values of an image characteristic that are values, and having motion associated with the second image feature between the first and second video images, the second image feature being substantially A method is achieved by the method, having a plurality of pixels having respective values of the image characteristic that are values of a second range different from values of one range,

- 상기 제 1 비디오 이미지를 픽셀들의 블록들로 분할하는 단계와,Dividing the first video image into blocks of pixels,

- 픽셀들의 각각의 블록들에 대한 모션 벡터들을 추정하는 단계와,Estimating motion vectors for respective blocks of pixels;

- 픽셀들의 상기 각각의 블록들의 상기 모션 벡터들에 기초하여 픽섹들의 블록을 분류함으로써 상기 제 1 비디오 이미지를 픽셀들의 접속된 블록들의 제 1 그룹과 픽셀들의 접속된 블록들의 제 2 그룹으로 세그멘팅하는 단계와,Segmenting the first video image into a first group of connected blocks of pixels and a second group of connected blocks of pixels by classifying a block of pixels based on the motion vectors of the respective blocks of pixels. Steps,

- 상기 이미지 특성의 상기 각각의 값들에 기초하여, 픽셀들의 접속된 블록들의 상기 제 1 및 제 2 그룹 사이의 경계에 위치되도록 결정되는, 픽셀들의 접속된 블록들의 상기 제 1 및 제 2 그룹의 픽셀들의 블록들의 부분의 픽셀-기반 세그멘테이션에 의해 상기 제 2 이미지 피처로부터 상기 제 1 이미지 피처를 세그멘팅하는 단계를 포함한다. A pixel of the first and second group of connected blocks of pixels, determined to be located at a boundary between the first and second group of connected blocks of pixels, based on the respective values of the image characteristic Segmenting the first image feature from the second image feature by pixel-based segmentation of a portion of the blocks of data.

본 발명에 따른 방법의 이점은 두 개의 세그멘테이션 동작들이 적절한 위치에 적용된다는 것이다. 블록 기반 모션 세그멘테이션의 결과는 이미지 특성에 기초하여 픽셀 기반 세그멘테이션에 대한 입력으로서 사용된다. 픽셀 기반 세그멘테이션은 객체 경계들 즉, 픽셀들의 접속된 블록들의 제 1 및 제 2 그룹 사이의 경계의 블록들과 같은 비디오 이미지의 작은 서브셋의 이미지 피처 경계들을 복구하기 위해 적용된다. 이는 상세한 픽셀 기반 세그멘테이션 프로세스가 모든 블록들이 아닌 경계들에 있는 블록들에만 적용되기 때문에 효율적인 계산 자원 사용이 되게 하는 효율적인 전략이다. 블록 기반 모션 세그멘테이션 및 픽셀 기반 세그멘테이션은 순차적으로 적용된다. 즉, 어떠한 복잡한 가중 요소들도 종래의 기술과 같이 세그멘테이션 접근방법의 결과들 사이에서 조율되는 것을 필요로 하지 않는다.An advantage of the method according to the invention is that two segmentation operations are applied at the appropriate position. The result of block-based motion segmentation is used as input to pixel-based segmentation based on image characteristics. Pixel-based segmentation is applied to recover image feature boundaries of a small subset of the video image, such as blocks of object boundaries, ie, a boundary between the first and second groups of connected blocks of pixels. This is an efficient strategy that results in efficient computational resource usage because the detailed pixel-based segmentation process applies only to blocks at boundaries, not all blocks. Block based motion segmentation and pixel based segmentation are applied sequentially. That is, no complex weighting elements need to be coordinated between the results of the segmentation approach as in the prior art.

본 발명에 따른 방법의 실시예에서, 제 1 비디오 이미지를 픽셀들의 접속된 블록들의 제 1 그룹 및 픽셀들의 접속된 블록들의 제 2 그룹으로 세그멘팅하는 것은 모션 모델이 기초한다. 이 실시예의 이점은 강인(robust)한 방법이란 것이다. 비교적 많은 데이터, 즉 픽셀들의 접속된 블록들의 제 1 그룹에 대한 접속된 블록들의 테스트 그룹들의 대부분 또는 모든 모션 벡터들은 제 1 이미지 피처가 속하는 블록들의 적절한 구성을 추정하기 위해 적용된다. 다시 말하면, 상기는 영역 피팅(region fitting)형태이다. 많은 세그멘테이션 방법들은 블록들이 특정 세그먼트에 대응하는지를 결정하기 위해 세그먼트의 경계에 잇는 블록들을 고려한다. 모션 모델은 회전 및 또는 변환에 기초할 수 있다. 그러나, 양호하게는 세그멘팅은 결합된 모션 모델(affine motion model)에 기초한다.In an embodiment of the method according to the invention, segmenting the first video image into a first group of connected blocks of pixels and a second group of connected blocks of pixels is based on a motion model. An advantage of this embodiment is that it is a robust method. Most or all of the motion vectors of the test groups of connected blocks for the first group of connected blocks of pixels are applied to estimate the proper configuration of blocks to which the first image feature belongs. In other words, it is in the form of region fitting. Many segmentation methods consider blocks at the boundary of the segment to determine if the blocks correspond to a particular segment. The motion model can be based on rotation and / or transformation. Preferably, however, segmentation is based on an affine motion model.

본 발명에 따른 방법의 실시예에서, 제 1 비디오 이미지를 픽셀들의 접속된 블록들의 상기 제 1 그룹과 픽셀들의 접속된 블록들의 상기 제 2 그룹으로 세그멘팅하는 단계는,In an embodiment of the method according to the invention, segmenting a first video image into the first group of connected blocks of pixels and to the second group of connected blocks of pixels,

- 픽셀들의 접속된 블록들의 상기 제 1 그룹을 위해 픽셀들의 접속된 블록들의 제 1 초기 그룹을 생성하는 단계로서, 픽셀들의 접속된 블록들의 상기 제 1 초기 그룹은 픽셀들의 특정 블록을 포함하는, 상기 단계와,Creating a first initial group of connected blocks of pixels for the first group of connected blocks of pixels, wherein the first initial group of connected blocks of pixels comprises a particular block of pixels; Steps,

- 픽셀들의 접속된 블록들의 상기 제 1 초기 그룹에 대한 제 1 모션 모델을 결정하는 단계와,Determining a first motion model for the first initial group of connected blocks of pixels;

- 상기 제 1 비디오 이미지의 픽셀들의 상기 각각의 블록들에 대한 모션 벡터들을 추정하는 동안 추정되는 픽셀들의 상기 특정 블록에 대응하는 모션 벡터와 상기 제 1 모션 모델에 기초하여 픽셀들의 상기 특정 블록에 대응하는 모션 벡터사이의 제 1 정합 에러(match error)를 계산하는 단계와,A motion vector corresponding to the particular block of pixels estimated during the estimation of motion vectors for the respective blocks of pixels of the first video image and corresponding to the particular block of pixels based on the first motion model Calculating a first match error between the motion vectors,

- 픽셀들의 상기 특정 블록을 배제하고, 픽셀들의 접속된 블록들의 상기 제 1 초기 그룹에 기초하여 픽셀들의 접속된 블록들의 테스트 그룹을 위한 제 2 모션 모델을 계산하는 단계와,Excluding said specific block of pixels, calculating a second motion model for a test group of connected blocks of pixels based on said first initial group of connected blocks of pixels,

- 상기 제 1 비디오 이미지의 픽셀들의 상기 각각의 블록들에 대한 모션 벡터들을 추정하는 동안 추정되는 픽셀들의 상기 특정 블록에 대응하는 모션 벡터와 제 2 모션 모델에 기초하여 픽셀의 상기 특정 블록에 대응하는 모션 벡터 사이의 제 2 정합 에러를 계산하는 단계와,The motion vector corresponding to the particular block of pixels estimated during the estimation of the motion vectors for the respective blocks of pixels of the first video image corresponding to the particular block of pixels based on a second motion model Calculating a second matching error between the motion vectors;

- 픽셀들의 상기 제 1 및 제 2 정합 에러에 기초하여 픽셀들의 상기 특정 블록이 픽셀들의 접속된 블록들의 상기 제 1 그룹에 대응하는지를 결정하는 단계를 포함한다.Determining whether said particular block of pixels corresponds to said first group of connected blocks of pixels based on said first and second matching error of pixels.

본 발명에 따른 상기 실시예의 이점은 스캐닝 접근방법을 허용한다는 것이다. 상기는 블록 단위(block by block), 즉 좌측 상단에서 시작하여 추측 하단까지 반복적으로 테스트된다. 테스트는 각각의 블록에 대해, 이미지 피처들 중 하나에 대응하는 블록들의 그룹을 결과적으로 형성하기 위해 다른 블록들이 어디에 합병되어야 하는지에 대해 평가되다는 것을 의미한다. 스캐닝 접근방법의 이점은 비교적 쉽게 구현될 수 있는 방법이란 것에 있다. An advantage of this embodiment according to the invention is that it allows a scanning approach. It is tested repeatedly in block by block, ie from the top left to the bottom of the guess. The test means that for each block, the other blocks are evaluated where to merge to form a group of blocks corresponding to one of the image features. The advantage of the scanning approach is that it is a relatively easy to implement method.

본 발명에 따른 방법의 실시예에서, 픽셀 기반 세그멘테이션은 공간적인 컬러 모델에 기초한다. 다시 말해, 픽셀 기반 세그멘테이션이 기초하는 이미지 특성은 컬러이다. 컬러는 세그멘테이션을 위해 비교적 좋은 단서이다. 본 실시예에서, 2개이 세그멘테이션 접근 방법들이 적절한 스케일 해상도에 대해 적용된다. 컬러는 하이 주파수들을 위해 적용되고 로우 주파수들은 모션 세그멘테이션을 위해 적용된다. 색차들이 텍스쳐(texture)에 의해 유발되기 때문에, 장면에서 객체들의 상이한 속도들에 의해 유발되는 모션 차이들이 포착될 수 있다.In an embodiment of the method according to the invention, pixel-based segmentation is based on a spatial color model. In other words, the image characteristic upon which pixel-based segmentation is based is color. Color is a relatively good clue for segmentation. In this embodiment, two segmentation approaches are applied for proper scale resolution. Color is applied for high frequencies and low frequencies are applied for motion segmentation. Since chrominances are caused by texture, motion differences caused by different velocities of objects in the scene can be captured.

본 발명에 따른 방법의 실시예에서, 픽셀 기반 세그멘테이션은 공간적 휘도 모델에 기초한다. 다시 말해, 픽셀 기반 세그멘테이션이 기초하는 이미지 특성은 휘도이다. 휘도는 세그멘테이션을 위해 비교적 좋은 단서이다.In an embodiment of the method according to the invention, the pixel based segmentation is based on a spatial luminance model. In other words, the image characteristic upon which pixel-based segmentation is based is luminance. Luminance is a relatively good clue for segmentation.

본 발명에 따른 방법의 실시예에서, 픽셀들의 접속된 블록들의 상기 제 1 및 제 2 그룹사이의 경계에 위치되도록 결정되는, 픽셀들의 접속된 블록들의 상기 제 1 그룹(204c)의 픽셀들의 상기 블록의 상기 부분의 제 1 블록(302)에서 상기 이미지 특성의 값들에서의 스텝이 검출된다. 갑들에서의 스텝은 제 1 이미지 피처의 에지에 대응한다. 양호하게, 상기 스텝은,In an embodiment of the method according to the invention, said block of pixels of said first group of connected blocks of pixels 204c is determined to be located at a boundary between said first and second group of connected blocks of pixels. In a first block 302 of the portion of the step of the values of the image characteristic is detected. The step at the former corresponds to the edge of the first image feature. Preferably, the step is

- 상기 제 1 블록의 상기 픽셀들에 대해 상기 이미지 특성의 제 1 평균값을 계산하는 단계와,Calculating a first average value of the image characteristic for the pixels of the first block;

- 상기 제 1 평균값과 상기 제 1 블록의 픽셀들의 각각의 값들에 기초하여 제 1 차이 측정을 계산하는 단계와,Calculating a first difference measure based on the first average value and respective values of the pixels of the first block;

- 픽셀들의 제 2 블록의 픽셀들에 대해 상기 이미지 특성의 제 2 평균값을 계산하는 단계로서, 상기 픽셀들의 제 2 블록은 픽셀들의 상기 제 2 그룹에 대응하고 상기 제 1 블록에 접속되는 단계와,Calculating a second average value of the image characteristic for the pixels of the second block of pixels, wherein the second block of pixels corresponds to the second group of pixels and is connected to the first block;

- 상기 제 2 평균 값과 상기 제 2 블록의 상기 픽셀들의 각각의 값들에 기초하여 제 2 차이 측정을 계산하는 단계와,Calculating a second difference measure based on the second average value and respective values of the pixels of the second block;

- 특정 픽셀을 배제하는 픽셀들의 제 1 테스트 그룹을 상기 제 1 블록에 기초하여 생성하고, 상기 특정 픽셀을 포함하는 픽셀들의 제 2 그룹을 상기 제 2 블록에 기초하여 생성하는 단계와,Generating a first test group of pixels excluding a particular pixel based on the first block and generating a second group of pixels comprising the specific pixel based on the second block,

- 상기 제 1 테스트 그룹의 픽셀에 대해 상기 이미지 특성의 제 3 평균값을 계산하는 단계와,Calculating a third mean value of the image characteristic for the pixels of the first test group;

- 상기 제 3 평균값과 상기 제 1 테스트 그룹의 상기 픽셀들의 상기 각각의 값들에 기초하여 제 3 차이 측정을 계산하는 단계와,Calculating a third difference measure based on the third mean value and the respective values of the pixels of the first test group;

- 제 2 테스트 그룹의 상기 픽셀들에 대해 상기 이미지 특성의 제 4 평균 값을 계산하는 단계와,Calculating a fourth average value of the image characteristic for the pixels of a second test group;

- 상기 제 4 평균값과 상기 제 2 테스트 그룹의 상기 픽셀들의 상기 각각의 값들에 기초하여 제 4 차이 측정을 계산하는 단계와,Calculating a fourth difference measure based on the fourth average value and the respective values of the pixels of the second test group;

- 상기 제 1, 제 2, 제 3 및 제 4 차이 측정에 기초하여, 상기 특정 픽셀이 제 1 이미지 피처에 속하는지 또는 상기 제 2 이미지 피처에 속하는지를 결정하는 단계에 의해 검출된다. 상기 실시예의 이점은 강인한 방법이란 것이다. 비교적 많은 데이터, 즉 픽셀들의 접속된 블록들의 제 1 그룹에 대한 접속된 블록들의 테스트 그룹들의 대부분 또는 모든 모션 벡터들은 제 1 이미지 피처가 속하는 블록들의 적절한 구성을 추정하기 위해 적용된다. 이를 이른바 영역 피팅(region fitting) 접근 방법이라 한다.Based on the first, second, third and fourth difference measurements, it is detected by determining whether the particular pixel belongs to a first image feature or the second image feature. An advantage of this embodiment is that it is a robust method. Most or all of the motion vectors of the test groups of connected blocks for the first group of connected blocks of pixels are applied to estimate the proper configuration of blocks to which the first image feature belongs. This is called a region fitting approach.

본 발명의 다른 목적은 서두에서 기술한 종류의, 픽셀 정확한 세그멘테이션을 제공하도록 배치되고 비교적 쉬운 세그멘테이션 시스템을 제공하는 것이다. It is a further object of the present invention to provide a segmentation system of the kind described at the outset, which is arranged and relatively easy to provide pixel accurate segmentation.

본 발명의 상기 목적은, 제 1 비디오 이미지의 제 1 이미지 피처(214)를 상기 제 1 비디오 이미지의 인접한 제 2 이미지 피처로부터 세그멘팅하기 위한 세그멘테이션 시스템으로서, 상기 제 1 이미지 피처는 실질적으로 제 1 범위의 값들이 되는 이미지 특성의 각각의 값들을 갖는 복수의 픽셀들을 갖고 상기 제 1 비디오 이미지와 제 2 비디오 이미지 사이에서 상기 제 2 이미지 피처에 관련되는 모션을 갖고, 상기 제 2 이미지 피처는 실질적으로 상기 제 1 범위의 값들과 상이한 제 2 범위의 값들이 되는 상기 이미지 특성의 각각의 값들을 갖는 복수의 픽셀들을 갖는, 상기 세그멘테이션 시스템에 의해 달성되며, 상기 세그멘테이션 시스템은,The object of the present invention is a segmentation system for segmenting a first image feature 214 of a first video image from an adjacent second image feature of the first video image, the first image feature being substantially first Have a plurality of pixels having respective values of an image characteristic that are values of a range, and have a motion associated with the second image feature between the first video image and the second video image, the second image feature being substantially Achieved by the segmentation system, the segmentation system having a plurality of pixels with respective values of the image characteristic being values of a second range different from the values of the first range, wherein the segmentation system comprises:

- 상기 제 1 비디오 이미지를 픽셀들의 블록들로 분할하기 위한 수단과,Means for dividing the first video image into blocks of pixels,

- 픽셀들의 각각의 블록들에 대한 모션 벡터들을 추정하기 위한 블록 기반 모션 추정기와,A block-based motion estimator for estimating motion vectors for respective blocks of pixels,

- 픽셀들의 상기 각각의 블록들의 상기 모션 벡터들에 기초하여 픽셀들의 블록을 분류함으로써 상기 제 1 비디오 이미지를 픽셀들의 접속된 블록들의 제 1 그룹과 픽셀들의 접속된 블록들의 제 2 그룹으로 세그멘팅하기 위한 모션 세그멘테이션 유닛과,Segmenting the first video image into a first group of connected blocks of pixels and a second group of connected blocks of pixels by classifying a block of pixels based on the motion vectors of the respective blocks of pixels. A motion segmentation unit for

- 상기 이미지 특성의 상기 각각의 값들에 기초하여, 픽셀들의 접속된 블록들의 상기 제 1 및 제 2 그룹 사이의 경계에 위치되도록 결정되는, 픽셀들의 접속된 블록들의 상기 제 1 및 제 2 그룹의 픽셀들의 블록들의 부분의 픽셀-기반 세그멘테이션에 의해 상기 제 2 이미지 피처로부터 상기 제 1 이미지 피처를 세그멘팅하기 위한 픽셀 기반 세그멘테이션 유닛을 포함한다. A pixel of the first and second group of connected blocks of pixels, determined to be located at a boundary between the first and second group of connected blocks of pixels, based on the respective values of the image characteristic A pixel-based segmentation unit for segmenting the first image feature from the second image feature by pixel-based segmentation of a portion of the blocks of blocks.

본 발명의 다른 목적은 비교적 쉬운 픽셀 정확한 모션 벡터 필드를 추정하기 위해 픽셀 해상도에서의 모션 추정기를 제공하는 것이다.It is another object of the present invention to provide a motion estimator at pixel resolution to estimate a relatively easy pixel accurate motion vector field.

본 발명의 목적은 픽셀 정확한 모션 추정기가 제 9 항에서 청구된 바와 같은 세그멘테이션 시스템을 포함하므로 달성된다. 대안적으로 픽셀 정확한 모션 추정기는 세그멘테이션 시스템에 의해 계산되는 결과들이 제공된다.The object of the invention is achieved because a pixel accurate motion estimator comprises a segmentation system as claimed in claim 9. Alternatively, the pixel accurate motion estimator is provided with the results calculated by the segmentation system.

본 발명에 따른 픽셀 정확한 모션 추청기의 실시예를 서두에 기술한 바와 같은 이미지 처리 장치에 적용하는 것은 이점이 있다. 이미지 처리 장치는 예를 들어, 처리된 이미지들을 디스플레이하기 위한 디스플레이 디바이스 또는 처리된 이미지들을 저장하기 위한 저장 수단과 같은 부가적인 구성요소들을 포함할 수 있다. 모션 보상된 이미지 처리 유닛은 다음 형태들의 이미지 처리 중 하나 이상을 지원할 수 있다. It is advantageous to apply an embodiment of a pixel accurate motion hearing aid according to the invention to an image processing apparatus as described earlier. The image processing apparatus may comprise additional components, for example, a display device for displaying the processed images or storage means for storing the processed images. The motion compensated image processing unit may support one or more of the following types of image processing.

- 디-인터레이싱(De-interlacing): 인터페이싱은 홀수 또는 짝수의 이미지 라인들을 번갈아 전송하기 위한 공통적인 비디오 방송 절차이다. 디-인터레이싱은 완전한 수직 해상도의 복원 즉, 각각의 이미지에 대해 홀수 또는 짝수 라인들이 동시에 이용가능하게 하도록 시도한다.De-interlacing: Interfacing is a common video broadcast procedure for alternating transmission of odd or even image lines. De-interlacing attempts to reconstruct the full vertical resolution, ie make odd or even lines available for each image simultaneously.

- 업-변환(Up-conversion): 일련의 원 입력 이미지들로부터 보다 큰 일녀의 출력 이미지들이 계산된다. 출력 이미지는 두 개의 원 입력 이미지들 사이에 일시적으로 위치된다.Up-conversion: A larger one's output images are calculated from a series of original input images. The output image is temporarily located between two raw input images.

- 일시적 잡음 감소. 이는 공간적-일시적 잡음 감소를 초래하는 공간적 처리를 포함할 수 있다.-Temporary noise reduction. This may include spatial processing that results in spatial-temporal noise reduction.

- 비디오 압축, 즉, 예를 들어 MPEG 표준 또는 H26L 표준에 따른 인코딩 또는 디코딩.Video compression, ie encoding or decoding according to eg the MPEG standard or the H26L standard.

상기 방법의 수정 및 그에 의한 변형들은 세그멘테이션 시스템, 픽셀 정확한 모션 추정기의 수정 및 그에 의한 변형들 및 상술한 이미지 처리 장치의 수정 및 그에 의한 변형에 대응할 수 있다.Modifications and variations thereof may correspond to a segmentation system, modifications and modifications of a pixel accurate motion estimator, and modifications and modifications thereby to the image processing apparatus described above.

본 발명에 따른 이미지 처리 장치의 상기 방법, 세그멘테이션 시스템, 픽셀 정확한 모션 추정기의 이들 및 다른 측면들은 첨부한 도면들을 참조하고, 이하에 기술된 구현들 및 실시예에 관하여 설명하고 이로부터 명백해질 것이다.These and other aspects of the method, segmentation system, pixel accurate motion estimator of the image processing apparatus according to the present invention will be apparent from and elucidated with reference to the accompanying drawings, with reference to the implementations and embodiments described below.

동일한 참조 번호들은 도면들을 통해 유사한 부분들을 나태내기 위해 사용된다.Like reference numerals are used to refer to like parts throughout the figures.

도 1은 본 발명에 따른 세그멘테이션 시스템(100)의 실시예를 개략적으로 도시한다. 세그멘테이션 시스템(100)은 제 1 비디오 이미지의 인접한 제 2 이미지 피처(216)로부터 제 1 비디오 이미지의 제 1 이미지 피처(214)를 세그맨팅하도록 배열된다. 제 1 이미지 피처(214)는 실질적으로 제 1 범위의 값들이 되는 컬러 값들을 각각 갖는 복수의 픽셀들을 갖고, 제 2 이미지 피처(216)는 실질적으로 제 1 범위의 값들과 상이하게 되는 제 2 범위의 값들이 되는 컬러 값들을 각각 갖는 복수의 픽셀들을 갖는다. 제 1 이미지 피처(214)는 제 1 비디오 이미지와 제 2 비디오 이미지 사이의 제 2 이미지 피처(216)에 관련되는 모션을 갖는다. 제 2 비디오 이미지는 제 1 비디오 이미지들을 선행하고 후속할 수 있다. 세그멘테이션 시스템(100)은 입력 접속기(108)에서 비디오 이미지들을 나타내는 신호를 수신하여, 출력 접속기(100)에서 픽셀 정확한 세그멘테이션 결과(Sp)를 제공한다. 세그멘테이션 시스템(100)은,1 schematically illustrates an embodiment of a segmentation system 100 according to the present invention. The segmentation system 100 is arranged to segment the first image feature 214 of the first video image from the adjacent second image feature 216 of the first video image. The first image feature 214 has a plurality of pixels, each having color values that substantially become values of the first range, and the second image feature 216 substantially differs from the values of the first range. It has a plurality of pixels each having color values that are values of. The first image feature 214 has a motion related to the second image feature 216 between the first video image and the second video image. The second video image may precede and follow the first video images. Provides a segmentation system 100 includes input connectors 108, pixel accurate segmentation results on receiving the signal representative of a video image, output connector 100 (S p) from. Segmentation system 100,

- 모션 벡터들을 추정하기 위한 블록 기반 모션 측정기(102)를 포함한다. 이 모션 추정기(102)는 제 1 비디오 이미지가 분열 유닛(103)에 의해 분할되는 각각의 블록들에 대한 모션 벡터들(218-230)을 추정하기 위해 배열된다. 이 분할은 제 1 비디오 이미지의 픽셀들이 픽셀들의 블록들로 클러스터(cluster)링된다. 통상적으로, 픽셀들의 블록은 8*8 픽셀들을 포함한다. 양호하게는, 모션 추정기(102)는 G. de Haan 등의 논설 "True-Motion Estimation with 3-D Recursive Search Block Matching", IEEE Transactions on circuit and systems for video technology, vol 3, no5, 1993년 10월, 페이지368-379에 기술된 바와 같다. 모션 추정기(102)는,A block-based motion meter 102 for estimating motion vectors. This motion estimator 102 is arranged to estimate the motion vectors 218-230 for each of the blocks for which the first video image is divided by the splitting unit 103. This partitioning causes the pixels of the first video image to be clustered into blocks of pixels. Typically, a block of pixels contains 8 * 8 pixels. Preferably, motion estimator 102 is described by G. de Haan et al., "True-Motion Estimation with 3-D Recursive Search Block Matching", IEEE Transactions on circuit and systems for video technology, vol 3, no 5, 10 1993 Wall, as described on pages 368-379. Motion estimator 102,

- 픽셀들의 각각의 블록들의 모션 벡터들(218-230)에 기초하여 픽셀들의 블록들을 분류함으로써 제 1 비디오 이미지를 픽셀들의 접속된 블록들의 제 1 그룹(204c)(도 2c 참조) 및 픽셀들의 접속된 블록들의 제 2 그룹(206c)(도 2c 참조)으로 세그멘팅하도록 배열된 모션 세그멘테이션 유닛(104)과,The first video image by classifying blocks of pixels based on the motion vectors 218-230 of the respective blocks of pixels by connecting the first group 204c (see FIG. 2C) of the connected blocks of pixels and the connection of the pixels. A motion segmentation unit 104 arranged to segment into a second group of blocks 206c (see FIG. 2C),

- 픽셀들의 접속된 블록들의 제 1 및 제 2 그룹(204, 206) 사이의 경계에 위치되도록 결정되는, 픽셀들의 접속된 블록들의 제 1 및 제 2 그룹(204, 206)의 픽셀들의 블록들(302-306)의 부분의 픽셀 기반 세그멘테이션에 의해 제 2 이미지 피처(216)로부터 제 1 이미지 피처(215)를 세그멘팅하도록 배열된 픽셀 기반 세그멘테이션 유닛(106)에 블록 기반 모션 벡터 필드 MB를 제공한다.Blocks of pixels of the first and second groups 204, 206 of connected blocks of pixels, determined to be located at a boundary between the first and second groups 204, 206 of connected blocks of pixels ( Provide a block-based motion vector field M B to the pixel-based segmentation unit 106 arranged to segment the first image feature 215 from the second image feature 216 by pixel-based segmentation of the portion of 302-306. do.

모션 세그멘테이션 유닛(104)의 작용은 도 2a-2c와 관련하여 보다 상세히 기술될 것이고, 픽셀 기반 세그멘테이션 유닛의 작용은 도 3a-3e와 관련하여 보다 상세히 기술될 것이다.The operation of the motion segmentation unit 104 will be described in more detail with respect to FIGS. 2A-2C, and the operation of the pixel-based segmentation unit will be described in more detail with respect to FIGS. 3A-3E.

블록 기반 모션 추정기(102), 세그멘테이션 시스템(100)의 모션 세그멘테이션 유닛(104) 및 픽셀 기반 세그멘테이션 유닛(106)은 하나의 프로세서를 이용하여 구현될 수 있다. 보통, 이 기능들은 소프트웨어 프로그램 제품의 제어하에서 수행된다. 실행 동안, 보통 소프트웨어 프로그램 제품은 RAM과 같은 메모리로 로딩되고, 거기에서 실행된다. 프로그램은 ROM, 하드 디스크, 자기적인 및/또는 광학 저장매체와 같은 배경 메모리(background memory)로부터 로딩될 수 있다. 대안적으로, 어플리케이션 특정 집적 회로가 개시된 기능성을 제공한다. The block-based motion estimator 102, the motion segmentation unit 104 of the segmentation system 100, and the pixel-based segmentation unit 106 may be implemented using one processor. Usually, these functions are performed under the control of a software program product. During execution, a software program product is usually loaded into memory, such as RAM, and executed there. The program may be loaded from background memory, such as a ROM, hard disk, magnetic and / or optical storage medium. Alternatively, application specific integrated circuits provide the functionality disclosed.

도 2a에서, 모션 벡터 필드(200)는 픽셀들의 각각의 블록들에 대해 다수의 벡터들(218-230)을 포함한다. 픽셀들의 이들 블록들은 픽셀들의 접속된 블록들의 초기 그룹들(202a-212a)로 클러스터링된다. 또는, 다시 말하면, 도 2a는 블록 기반 모션 세그멘테이션에 대한 블록들의 초기 구성을 개략적으로 도시한다. 접속된 블록들의 초기 그룹들의 수는 이미지 피처들 즉, 비디오 이미지에서 세그먼트 하기를 원하는 객체들의 최대 수에 대응한다. 이런 모범적인 경우들에서, 픽셀들의 접속된 그룹들의 각각의 초기 그룹들(202a-212a)은 5 * 5 블록들을 포함한다. 접속된 블록들의 특정 초기 그룹의 픽셀들의 모든 블록들은 동일한 분류 라벨(label)을 갖는다. 스캐닝 접근방법에 의해, 모든 블록들은 평가될 것이다. 상기는 픽셀들의 접속된 블록들의 적절한 클러스터들 또는 그룹들(202c-206c)(도 2c 참조)이 결정된다는 것을 의미한다. 픽셀들의 접속된 블록들의 이러한 그룹(202c-206c)은 제 1 비디오 이미지에서 이미지 피처들(214, 216)중 하나에 대응한다. 적절한 그룹들을 찾는 것은 다수의 반복들로 달성되고, 여기서, 블록들에 대해 픽셀들의 접속된 블록들의 그룹(202c-206c)이 어디에 속하는지 테스트된다. 상기는 고정된 수의 반복들일 것이다. 대안적으로, 접속된 블록들의 다양한 중간 그룹들(202b-212b)을 평가하는 프로세스는 접속된 블록들의 다양한 중간 그룹들(202b-212b)의 수정들이 어떤 긍정적인 효과를 갖지 않는 경우 정지된다. 평가의 프로세스는 토폴로지적인 제약(topological constraint)에 제한된다. 블록들의 접속된 그룹들(202a-212a, 202b-212b)의 경계에 있는 블록들만이 테스트된다. 블록들은 다수의 반복들 후에, 블록들의 중간 그룹(202b-212b)의 경계에 위치에 위치된다는 것에 주의한다. 경계의 블록들에만 적용하는 것은 이런 제약을 갖지 않은 잘 알려진 k-수단 접근방법(k-means approach)과는 상이하다. 픽셀들(232)의 특정 블록의 평가는 다수의 단계들을 포함한다. 이는 제 1 스캔동안 픽셀들의 특정 블록(232)에 대해 기술된다(도 2a참조):In FIG. 2A, motion vector field 200 includes a number of vectors 218-230 for each block of pixels. These blocks of pixels are clustered into initial groups 202a-212a of the connected blocks of pixels. Or in other words, FIG. 2A schematically illustrates an initial configuration of blocks for block based motion segmentation. The number of initial groups of connected blocks corresponds to the image features, i.e. the maximum number of objects desired to segment in the video image. In these exemplary cases, each initial group 202a-212a of the connected groups of pixels includes 5 * 5 blocks. All blocks of pixels of a particular initial group of connected blocks have the same classification label. By the scanning approach, all blocks will be evaluated. This means that appropriate clusters or groups 202c-206c (see FIG. 2C) of the connected blocks of pixels are determined. This group of connected blocks of pixels 202c-206c corresponds to one of the image features 214, 216 in the first video image. Finding the appropriate groups is accomplished with a number of iterations, where for the blocks it is tested where the groups of connected blocks 202c-206c of pixels belong. This will be a fixed number of iterations. Alternatively, the process of evaluating the various intermediate groups 202b-212b of the connected blocks is stopped if the modifications of the various intermediate groups 202b-212b of the connected blocks do not have any positive effect. The process of evaluation is limited to topological constraints. Only blocks at the boundary of the connected groups 202a-212a and 202b-212b of the blocks are tested. Note that the blocks are located at the boundary of the middle group of blocks 202b-212b after multiple iterations. Applying only to blocks of boundaries differs from the well-known k-means approach which does not have this limitation. Evaluation of a particular block of pixels 232 includes a number of steps. This is described for a particular block of pixels 232 during the first scan (see FIG. 2A):

- 픽셀들의 특정 블록(232)을 포함하는 픽셀들의 접속된 블록들의 제 1 초기 그룹(204a)을 생성하는 단계와,Creating a first initial group 204a of connected blocks of pixels comprising a specific block of pixels 232;

- 픽셀들의 접속된 블록들의 상기 제 1 초기 그룹(204a)에 대한 제 1 모션 모델을 결정하는 단계와,Determining a first motion model for the first initial group 204a of connected blocks of pixels,

- 상기 제 1 비디오 이미지의 픽셀들의 상기 각각의 블록들에 대한 모션 벡터들(218-230)을 추정하는 동안 추정되는 픽셀들의 상기 특정 블록(232)에 대응하는 모션 벡터와 상기 제 1 모션 모델에 기초하여 픽셀들의 상기 특정 블록(232)에 대응하는 모션 벡터사이의 제 1 정합 에러(match error)를 계산하는 단계로서, 상기 정합 에러는 양호하게는 모션 벡터들 사이의 유클리드 거리(Euclidean distance)에 기초하는, 상기 단계와,The first motion model and the motion vector corresponding to the particular block 232 of pixels to be estimated while estimating the motion vectors 218-230 for the respective blocks of pixels of the first video image. Calculating a first match error between the motion vectors corresponding to the particular block 232 of pixels based on the match error being preferably at the Euclidean distance between the motion vectors. Based on the above steps,

- 픽셀들의 상기 특정 블록(232)을 배제하고, 픽셀들의 접속된 블록들의 상기 제 1 초기 그룹(204a)에 기초하여 픽셀들의 접속된 블록들의 테스트 그룹(204b)을 위한 제 2 모션 모델을 계산하는 단계와(도 2b의 204b 참조),Exclude the particular block 232 of pixels and calculate a second motion model for the test group 204b of connected blocks of pixels based on the first initial group 204a of connected blocks of pixels. Step (see 204b of FIG. 2B),

- 상기 제 1 비디오 이미지의 픽셀들의 상기 각각의 블록들에 대한 모션 벡터들(218-230)을 추정하는 동안 추정되는 픽셀들의 상기 특정 블록(232)에 대응하는 모션 벡터와 제 2 모션 모델에 기초하여 픽셀의 상기 특정 블록(232)에 대응하는 모션 벡터 사이의 제 2 정합 에러를 계산하는 단계와,Based on a second motion model and a motion vector corresponding to the particular block 232 of pixels estimated while estimating motion vectors 218-230 for the respective blocks of pixels of the first video image Calculating a second match error between the motion vectors corresponding to the particular block 232 of pixels;

- 픽셀들의 상기 제 1 및 제 2 정합 에러에 기초하여 픽셀들의 상기 특정 블록(232)이 픽셀들의 접속된 블록들의 상기 제 1 그룹(204c)에 대응하는지를 결정하는 단계를 포함한다. 이는 픽셀들의 특정 블록(232)이 픽셀들의 접속된 블록들의 제 1 초기 그룹(204a)에 보다 잘 정합하는지 또는 픽셀들의 접속된 블록의 이웃하는 그룹(202a)에 보다 잘 정합하는지가 테스트된다는 것을 의미한다. 상기 경우에서, 픽셀들의 특정 블록(232)은 블록들의 후자의 그룹(202a)에 보다 잘 정합하고, 이에 의해, 특정 블록(232)과 관련하여 픽셀들의 접속된 블록들의 이웃하는 그룹(201a)은 결과적인 블록들의 중간 그룹(202b)으로 연장된다. 블록들의 제 1 초기 그룹(204a)은 특정 블록(202)을 배제하고 블록들의 중간 그룹(204b)으로 적응된다.Determining whether the particular block 232 of pixels corresponds to the first group 204c of connected blocks of pixels based on the first and second matching error of the pixels. This means that the particular block 232 of pixels is tested to better match the first initial group 204a of the connected blocks of pixels or to the neighboring group 202a of the connected block of pixels. do. In this case, the particular block 232 of pixels better matches the latter group 202a of the blocks, whereby the neighboring group 201a of the connected blocks of pixels with respect to the particular block 232 It extends to the intermediate group 202b of the resulting blocks. The first initial group of blocks 204a is adapted to the intermediate group 204b of blocks except for the particular block 202.

대안적으로, 부가적인 정합 에러들은 픽셀들의 특정 블록(232)이 블록들의 초기 그룹들(202a-212a)중 어디에 속하는지를 결정하기 위해 고려되고, 계산된다. 예를 들어, 제 3 정합 에러는 도 2a에서 도시된 바와 같이 픽셀들의 접속된 블록들의 제 2 초기 그룹에 대해 계산되고 도 2b에서 도시된 바와 같이 픽셀들의 접속된 블록들의 제 2 테스트 그룹(202b)에 대한 제 4 정합 에러가 계산된다. Alternatively, additional matching errors are considered and calculated to determine where a particular block of pixels 232 belongs to the initial groups of blocks 202a-212a. For example, the third matching error is calculated for the second initial group of connected blocks of pixels as shown in FIG. 2A and the second test group 202b of connected blocks of pixels as shown in FIG. 2B. A fourth matching error for is calculated.

픽셀들의 특정 블록(232)이 픽셀들의 접속된 제 1 초기 그룹(204a)에 보다 잘 정합하는지 또는 픽셀들의 접속된 블록들의 이웃하는 그룹(202a)에 보다 잘 정합하는지를 위한 테스트는 픽셀들의 접속된 블록들의 제 1 초기 그룹(204a) 및 픽셀들의 접속된 블록들의 이웃하는 그룹(202a)에 관한 평가에 의해 또한 수행될 수 있다. 상기는 픽셀들의 특정 블록(232)을 픽셀들의 접속된 블록들의 제 1 초기 그룹(204a)으로부터 픽셀들의 접속된 블록들의 이웃하는 그룹(202a)으로의 이동에 의한 이들 그룹들의 적응이 없음을 의미한다. 상기 경우에, 모션 모델들은 접속된 블록들의 양 그룹들에 대해 계산된다.The test to see if a particular block of pixels 232 better matches the connected first initial group 204a of pixels or the neighboring group 202a of the connected blocks of pixels is a test of the connected block of pixels. It may also be performed by evaluating the first initial group 204a of the neighboring group of pixels and the neighboring group 202a of connected blocks of pixels. This means that there is no adaptation of these groups by moving a particular block of pixels 232 from the first initial group 204a of the connected blocks of pixels to the neighboring group 202a of the connected blocks of pixels. . In that case, motion models are calculated for both groups of connected blocks.

도 2b는 하나의 수정 이후 블록 기반 모션 세그멘테이션에 대한 블록들의 업데이트된 구성을 개략적으로 도시한다. 상기 수정은 모션 벡터 필드의 모든 관련된 블록들이 평가된 이후, 또는 직접 실행될 수 있다. 관련된 블록들은 픽셀들의 접속된 블록들의 그룹의 경계에 위치된 블록들을 의미한다. 2B schematically illustrates an updated configuration of blocks for block based motion segmentation after one modification. The modification may be performed directly after all relevant blocks of the motion vector field have been evaluated. Related blocks refer to blocks located at the boundary of a group of connected blocks of pixels.

픽셀들의 특정 블록(232)이 픽셀들의 접속된 블록들의 제 1 초기 그룹으로부터 수평적으로 위치된 블록들의 이웃하는 그룹(202a)으로 이동된 것을 도시한다. 그러나, 예를 들어, 픽셀들의 다른 블록이 블록들의 제 1 초기 그룹(204a)으로부터 밑에 있는 픽셀들의 블록들의 그룹(210a)으로의 이동과 같은 수직 방향의 이동 또한 가능하다.It is shown that a particular block of pixels 232 has been moved from a first initial group of connected blocks of pixels to a neighboring group 202a of horizontally located blocks. However, vertical movement is also possible, such as, for example, the movement of another block of pixels from the first initial group of blocks 204a to the group of blocks 210a of the underlying pixels.

다수의 반복들 이후에, 픽셀들의 블록들의 다수의 최종 그룹들(202c-206c)이 설립된다. 픽셀들의 블록들의 이들 최종 그룹들(202c-206c)은 블록 기반 모션 세그멘테이션의 출력이다. 도 2c는 상기 출력 즉, 블록 기반 모션 세그멘테이션의 결과적인 구성을 개략적으로 도시한다. 상기 출력은 부가적인 처리, 즉, 제 1 이미지 피처(214) 및 제 2 이미지 피처(216)의 실제 경계를 검출하기 위해 픽셀 기반 세그멘테이션 유닛(106)에 제공된다.After multiple iterations, multiple final groups 202c-206c of blocks of pixels are established. These final groups 202c-206c of blocks of pixels are the output of the block based motion segmentation. Figure 2c schematically illustrates the resulting configuration of the output, i. E. Block-based motion segmentation. The output is provided to the pixel-based segmentation unit 106 to detect additional processing, ie, the actual boundaries of the first image feature 214 and the second image feature 216.

양호하게는, 예를 들어 제 1 이미지 및 제 2 이미지와 같은 하나의 이미지 쌍에 대한 블록 기반 모션 세그멘테이션 결과는 후속하는 이미지 쌍의 블록 기반 모션 세그멘테이션의 초기화를 위해 적용될 수 있다.Preferably, block based motion segmentation results for one image pair, such as, for example, a first image and a second image, may be applied for initialization of block based motion segmentation of a subsequent image pair.

도 3a는 픽셀 기반 세그멘테이션에 대한 입력 블록들(302-306)을 개략적으로 도시한다. 모션 세그멘테이션 결과는 블록들 중 하나가 제 1 이미지 비디오 피처(214)에 속하고 1로서 라벨링되며, 블록들 중 2개(204 및 306)는 제 2 이미지 비디오 피처(216)에 속하고, 2로서 라벨링된다는 것을 지시한다. 이웃하는 블록들의 쌍들은 제 1 이미지 피처(214)의 실제적인 에지를 찾기 위해 평가된다.3A schematically illustrates input blocks 302-306 for pixel-based segmentation. The motion segmentation result indicates that one of the blocks belongs to the first image video feature 214 and is labeled as 1, and two of the blocks 204 and 306 belong to the second image video feature 216 and as 2 Indicates that it is labeled. Pairs of neighboring blocks are evaluated to find the actual edge of the first image feature 214.

도 3b는 이웃하는 블록들의 수평 쌍(203 및 304)에 대한 초기 에지(308)를 도시한다. 블록 기반 모션 세그멘테이션에 대해 상술한 바와 유사한 방식으로, 픽셀-기반 세그멘테이션은 수행된다. 픽셀들에 대해, 픽셀들이 어느 접속된 픽셀들의 그룹에 대응하는지를 위해 평가된다는 것이 유사하다고 의미한다. 이는 다음의 가정들에 기초하는 공간적 컬러 모델(spatial color model)에 기초하여 이루어진다 : 이웃하는 블록들의 쌍(302, 304)으로 구성되며, 실질적으로 제 1 범위의 값들이 되는 컬러 값들을 갖는 접속된 픽셀들의 제 1 그룹과, 실질적으로 제 2 범위의 값들이 되는 컬러 값들을 갖는 픽셀들의 제 2 그룹이 있다. 또한, 접속된 픽셀들의 제 1 그룹과 접속된 픽셀들의 제 2 그룹사이의 컬러값에서 변화 또는 스텝이 존재한다. 상기는 이웃하는 블록들의 쌍(302 및 304)의 픽셀에 대하여 각각의 픽셀들이 접속된 픽셀들의 두 개의 그룹들 중 어디에 대응하는지를 평가한다는 것을 의미한다. 평가는 반복적인 프로세스에 의해 이루어진다. 이는 고정된 수의 반복들이 될 수 있다. 대안적으로, 접속된 픽셀들의 다양한 중간 그룹들을 평가하는 프로세스는 접속된 픽셀들의 중간 그룹들의 수정이 어떤 긍정적인 효과도 갖지 못하는 경우 정지된다. 특정 픽셀들에 대한 평가는, 3B shows the initial edge 308 for horizontal pairs 203 and 304 of neighboring blocks. In a manner similar to that described above for block-based motion segmentation, pixel-based segmentation is performed. For pixels, it is meant that the pixels are evaluated for which group of connected pixels they correspond. This is based on a spatial color model based on the following assumptions: a concatenated pair of neighboring blocks 302, 304, connected with color values that substantially become values in the first range. There is a first group of pixels and a second group of pixels having color values that are substantially values of the second range. There is also a change or step in the color value between the first group of connected pixels and the second group of connected pixels. This means that for each pixel of the pair of neighboring blocks 302 and 304, each pixel evaluates which of the two groups of pixels it is connected to. Evaluation is an iterative process. This can be a fixed number of iterations. Alternatively, the process of evaluating various intermediate groups of connected pixels is stopped if the modification of the intermediate groups of connected pixels has no positive effect. The evaluation for specific pixels is

- 상기 제 1 블록(302)의 상기 픽셀들에 대해 상기 이미지 특성의 제 1 평균값을 계산하는 단계와,Calculating a first average value of the image characteristic for the pixels of the first block 302;

- 상기 제 1 평균값과 상기 제 1 블록(302)의 픽셀들의 각각의 값들에 기초하여 제 1 차이 측정을 계산하는 단계와,Calculating a first difference measure based on the first average value and respective values of the pixels of the first block 302;

- 픽셀들의 제 2 블록(304)의 픽셀들에 대해 상기 이미지 특성의 제 2 평균값을 계산하는 단계로서, 상기 픽셀들의 제 2 블록(304)은 픽셀들의 상기 제 2 그룹에 대응하고 상기 제 1 블록(302)에 접속되는 단계와,Calculating a second average value of the image characteristic for the pixels of the second block 304 of pixels, the second block 304 of pixels corresponding to the second group of pixels and the first block Connected to 302, and

- 상기 제 2 평균 값과 상기 제 2 블록(304)의 상기 픽셀들의 각각의 값들에 기초하여 제 2 차이 측정을 계산하는 단계와,Calculating a second difference measure based on the second average value and respective values of the pixels of the second block 304,

- 특정 픽셀을 배제하는 픽셀들의 제 1 테스트 그룹을 상기 제 2 블록(302)에 기초하여 생성하고, 상기 특정 픽셀을 포함하는 픽셀들의 제 2 그룹을 상기 제 2 블록(304)에 기초하여 생성하는 단계와,Generate a first test group of pixels excluding a particular pixel based on the second block 302 and generate a second group of pixels comprising the particular pixel based on the second block 304 Steps,

- 상기 제 1 테스트 그룹의 픽셀에 대해 상기 이미지 특성의 제 3 평균값을 계산하는 단계와,Calculating a third mean value of the image characteristic for the pixels of the first test group;

- 상기 제 3 평균값과 상기 제 1 테스트 그룹의 상기 픽셀들의 상기 각각의 값들에 기초하여 제 3 차이 측정을 계산하는 단계와,Calculating a third difference measure based on the third mean value and the respective values of the pixels of the first test group;

- 제 2 테스트 그룹의 상기 픽셀들에 대해 상기 이미지 특성의 제 4 평균 값을 계산하는 단계와,Calculating a fourth average value of the image characteristic for the pixels of a second test group;

- 상기 제 4 평균값과 상기 제 2 테스트 그룹의 상기 픽셀들의 상기 각각의 값들에 기초하여 제 4 차이 측정을 계산하는 단계와,Calculating a fourth difference measure based on the fourth average value and the respective values of the pixels of the second test group;

- 상기 제 1, 제 2, 제 3 및 제 4 차이 측정에 기초하여, 상기 특정 픽셀이 제 1 이미지 피처(214)에 속하는지 또는 상기 제 2 이미지 피처(216)에 속하는지를 결정하는 단계를 포함한다.Determining, based on the first, second, third and fourth difference measurements, whether the particular pixel belongs to the first image feature 214 or the second image feature 216. do.

다수의 반복들 이후에, 픽셀들의 최후의 제 1 그룹은 제 1 이미지 피처에 대응하는 픽셀들을 포함하고, 픽셀들의 최후의 제 2 그룹은 제 2 이미지 피처에 대응하는 픽셀들을 포함한다. 도 3c는 도 3의 수평적인 블록 쌍에 대해 검출된 에지(308)를 개략적으로 도시한다.After the multiple iterations, the last first group of pixels includes pixels corresponding to the first image feature and the last second group of pixels includes pixels corresponding to the second image feature. FIG. 3C schematically illustrates the detected edge 308 for the horizontal block pair of FIG. 3.

이웃하는 블록들의 수평적으로 위치된 쌍(302, 304)의 평가가 완료된 이후, 유사한 평가가 이웃하는 블록들의 수직적으로 위치된 쌍(302, 306)에 대해 시작된다. 도 3d는 이웃하는 블록들의 이런 수직적으로 위치된 쌍(302, 306)에 대한 초기 에지(301)를 도시한다. 도 3e는 최종적으로 검출된 에지(301)를 개략적으로 도시한다. 이웃하는 블록들의 수평적으로 위치된 쌍(302, 304) 및 이웃하는 블록들의 수직적으로 위치된 쌍(302, 306)의 평가는 동시에 수행될 수 있다.After the evaluation of the horizontally located pairs 302, 304 of the neighboring blocks is completed, a similar evaluation is started for the vertically located pairs 302, 306 of the neighboring blocks. 3D shows the initial edge 301 for this vertically located pair 302, 306 of neighboring blocks. 3E schematically shows the edge 301 finally detected. Evaluation of horizontally located pairs 302 and 304 of neighboring blocks and vertically located pairs 302 and 306 of neighboring blocks may be performed simultaneously.

비록 컬러만이 논의되었지만, 예를 들어 휘도 또는 컬러 및 휘도의 조합 또는 이웃하는 픽셀들간의 컬러/휘도 값들의 차이와 같은 유도된 특성들과 같은 다른 이미지 특성들이 픽셀 기반 세그멘테이션에 대해 적용될 수 있다.Although only color has been discussed, other image characteristics may be applied for pixel-based segmentation, such as, for example, induced characteristics such as luminance or a combination of color and luminance or differences in color / luminance values between neighboring pixels.

도 4a는 픽셀 정확한 모션 벡터 필드를 추정하기 위한 모션 추정기(400)의 입력 및 출력들을 개략적으로 도시한다. 도 1과 관련하여 기술된 바와 같이 블록 기반 모션 추정기(102)에 의해 계산되는 모션 벡터 필드(MB)는 입력 접속기(404)에 제공된다. 선택적으로, 모션 세그멘테이션 유닛(104)에 의해 계산되는 모션 모델들이 또한 제공될 수 잇다. 모션 벡터 필들(MB)의 블록 해상도 때문에, 모션 벡터들(208-230)은 제 1 비디오 이미지의 모든 픽셀들에 대해 정확한 것은 아니다. 그러나, 모션 추정기(400)의 다른 입력 접속기(406)에서, 픽셀 정확한 세그멘테이션 결과(SP)가 도 1과 관련하여 기술된 바와 같은 세그멘테이션 시스템(100)에 의해 또한 제공될 수 있다. 제공되는 정보를 조합에 의해, 픽셀 정확한 모션 벡터 필드는 결정될 수 있다. 특히, 이미지 피처들의 경계들(214, 216)에 위치되는 블록들의 픽셀들은 틀릴 수 있다. 양호하게는, 모션 벡터들은 이웃하는 블록들에 대해 추정되는 모션 벡터들에 대응하는 각각의 픽셀들에 할당될 수 있다. 적절한 이웃하는 블록들의 위치 및 이에 의한 모션 벡터는 세그멘테이션 결과(SP)에 의해 결정될 수 있다. 보통, 이미지 피처의 경계(214, 216)에 위치되는 블록들의 픽셀들의 부분에 대해, 제 1 이미지 피처(214)에 대응하는 블록의 모션 벡터와 동일한 모션 벡터가 할당되고, 픽셀들의 다른 부분에 대해 제 1 이미지 피처(216)에 인접한 제 2 이미지 피처(216)에 대응하는 블록의 모션 벡터와 동일한 다른 모션 벡터가 할당된다.4A schematically illustrates the input and outputs of a motion estimator 400 for estimating a pixel accurate motion vector field. The motion vector field M B calculated by the block-based motion estimator 102 is provided to the input connector 404 as described in connection with FIG. 1. Optionally, motion models calculated by motion segmentation unit 104 may also be provided. Because of the block resolution of the motion vector fields M B , the motion vectors 208-230 are not accurate for all the pixels of the first video image. However, at another input connector 406 of the motion estimator 400, the pixel accurate segmentation result SP may also be provided by the segmentation system 100 as described in connection with FIG. 1. By combining the information provided, the pixel accurate motion vector field can be determined. In particular, the pixels of the blocks located at the boundaries 214, 216 of the image features may be wrong. Preferably, motion vectors may be assigned to respective pixels corresponding to motion vectors estimated for neighboring blocks. The location of the appropriate neighboring blocks and thus the motion vector can be determined by the segmentation result SP . Usually, for the portion of pixels of the blocks located at the boundary 214, 216 of the image feature, the same motion vector as the motion vector of the block corresponding to the first image feature 214 is assigned, and for other portions of the pixels. Another motion vector equal to the motion vector of the block corresponding to the second image feature 216 adjacent to the first image feature 216 is assigned.

도 4b는 픽셀 정확한 모션 벡터 필드를 추정하기 위한 대안적인 모션 추정기(401)의 입력들 및 출력을 개략적으로 도시한다. 비디오 이미지들은 모션 추정기(401)의 입력 접속기(402)에 제공되고, 모션 추정기(401)의 다른 입력 접속기(406)에, 도 1과 관련하여 기술된 바와 같은 세그멘테이션 시스템(100)에 의해 제공된 픽셀 정확한 세그멘테이션 결과(SP)가 제공된다. 픽셀 정확한 모션 추정기(401)는 비디오 이미지들의 선행 또는 후속하는 대응 픽셀들과 픽셀들의 그룹들의 픽셀들을 비교함으로써 세그멘테이션 시스템(100)에 의해 세그멘팅되는 바와 같이, 각각의 이미지 피처들(214, 216)에 대응하는 픽셀들의 그룹들에 대한 모션 벡터들을 계산하도록 배열된다. 양호하게는, 상기 비교는 절대 픽셀 값 차이들의 합에 대응하는 정합 에러들에 기초된다.4B schematically illustrates the inputs and outputs of an alternative motion estimator 401 for estimating a pixel accurate motion vector field. The video images are provided to an input connector 402 of the motion estimator 401, and to another input connector 406 of the motion estimator 401, a pixel provided by the segmentation system 100 as described in connection with FIG. 1. Accurate segmentation result SP is provided. The pixel accurate motion estimator 401 is each image feature 214, 216 as segmented by the segmentation system 100 by comparing the pixels of the group of pixels with the preceding or subsequent corresponding pixels of the video images. Are arranged to calculate motion vectors for groups of pixels corresponding to. Preferably, the comparison is based on matching errors corresponding to the sum of absolute pixel value differences.

도 5는 본 발명에 따른 이미지 처리 장치(500)의 성분들을 도시한다. 상기 이미지 처리 장치(500)는,5 shows components of an image processing apparatus 500 according to the present invention. The image processing apparatus 500,

- 어떤 처리가 수행된 이후 디스플레이되는 비디오 이미지들을 나타내는 신호를 수신하기 위한 수신 유닛(502)으로서 상기 신호는 안테나 또는 케이블을 통해 수신된 방송 신호일 수 있지만, VCR(Video Cassette Recorder) 또는 DVD(Digital Versatile Disk)와 같은 저장 디바이스로부터의 신호일 수 있고, 상기 신호는 입력 접속기(510)에서 제공되는, 상기 수신 유닛(502)과,A receiving unit 502 for receiving a signal representing video images displayed after some processing is performed, which may be a broadcast signal received via an antenna or cable, but a video cassette recorder (VCR) or a digital versatile (DVD) A signal from a storage device, such as a disk, wherein the signal is provided at an input connector 510;

- 도 1 및 도 4a를 각각 관련하여 기술된 바와 같은 세그멘테이션 시스템(100) 및 모션 추정기(401)를 포함하는 처리 유닛(504)과.A processing unit 504 comprising a segmentation system 100 and a motion estimator 401 as described in relation to FIGS. 1 and 4A, respectively.

- 모션 보상된 이미지 처리 유닛(506)과,A motion compensated image processing unit 506,

- 선택적이며, 처리된 이미지들을 디스플레이하기 위한 디스플레이 유닛(508)을 포함한다. Optional and comprises a display unit 508 for displaying the processed images.

모션 보상된 이미지 처리 유닛(506)은 입력으로서 모션 벡터들 및 이미지들을 필요로 한다. 모션 보상된 이미지 처리 유닛(506)은 디-인터레이싱, 업-변환, 일시적 잡은 감소 및 비디오 압축과 같은 하나 이상의 형태의 이미지 처리를 지원할 수 있다. The motion compensated image processing unit 506 needs motion vectors and images as input. The motion compensated image processing unit 506 may support one or more forms of image processing such as de-interlacing, up-conversion, temporal jam reduction, and video compression.

상술한 실시예들은 본 발명을 제한하기 보단 예시하는 것이고, 당업자는 첨부된 청구범위의 범위로부터 벗어남 없이 대안적인 실시예들을 설계할 수 있다는 것에 주의해야 한다. 청구범위에서, 괄호들 사이에 위치된 임의의 참조 부호들은 청구항을 제한하는 것으로 해석되선 않된다. 단어 "포함하는"은 청구항에 나열되지 않은 성분들 또는 단계들의 존재를 배제하지 않는다. 성분들의 단수 표현은 이런 성분들의 복수의 존재를 배제하지 않는다. 본 발명은 몇몇의 특유한 성분들을 포함하는 하드웨어 및 적절히 프로그래밍된 컴퓨터에 의해 구현될 수 있다. 유닛은 열거하는 몇몇의 수단들을 청구하며, 이들 수단들의 몇몇은 하드웨어의 동일한 항목 및 하나에 의해 실시될 수 있다.It is to be noted that the above-described embodiments illustrate rather than limit the invention, and that those skilled in the art can design alternative embodiments without departing from the scope of the appended claims. In the claims, any reference signs placed between parentheses shall not be construed as limiting the claim. The word "comprising" does not exclude the presence of components or steps not listed in a claim. Singular expressions of components do not exclude the presence of a plurality of such components. The present invention may be implemented by hardware and some suitably programmed computer comprising several unique components. The unit claims several means of enumerating, some of which may be embodied by the same item and one of the hardware.

Claims (17)

제 1 비디오 이미지의 제 1 이미지 피처(214)를 상기 제 1 비디오 이미지의 인접한 제 2 이미지 피처(216)로부터 세그멘팅하기 위한 방법으로서, 상기 제 1 이미지 피처(214)는 실질적으로 제 1 범위의 값들이 되는 이미지 특성의 각각의 값들을 갖는 복수의 픽셀들을 갖고 상기 제 1 비디오 이미지와 제 2 비디오 이미지 사이에서 상기 제 2 이미지 피처(216)에 관련되는 모션을 갖고, 상기 제 2 이미지 피처(216)는 실질적으로 상기 제 1 범위의 값들과 상이한 제 2 범위의 값들이 되는 상기 이미지 특성의 각각의 값들을 갖는 복수의 픽셀들을 갖는, 상기 방법은, A method for segmenting a first image feature 214 of a first video image from an adjacent second image feature 216 of the first video image, wherein the first image feature 214 is substantially in a first range. The second image feature 216 has a plurality of pixels having respective values of an image characteristic that are values and has a motion associated with the second image feature 216 between the first video image and the second video image; ) Has a plurality of pixels having respective values of the image characteristic that are substantially values of the second range different from the values of the first range, - 상기 제 1 비디오 이미지를 픽셀들의 블록들로 분할하는 단계와,Dividing the first video image into blocks of pixels, - 픽셀들의 상기 각각의 블록들에 대한 모션 벡터들(218-230)을 추정하는 단계와,Estimating motion vectors 218-230 for the respective blocks of pixels; - 픽셀들의 상기 각각의 블록들의 상기 모션 벡터들(218-230)에 기초하여 픽셀들의 상기 블록들을 분류함으로써 상기 제 1 비디오 이미지를 픽셀들의 접속된 블록들의 제 1 그룹(204c)과 픽셀들의 접속된 블록들의 제 2 그룹(206c)으로 세그멘팅하고, 이어서, 상기 이미지 특성의 상기 각각의 값들에 기초하여, 픽셀들의 접속된 블록들의 상기 제 1 및 제 2 그룹(204c, 206c) 사이의 경계에 위치되도록 결정되는, 픽셀들의 접속된 블록들의 상기 제 1 및 제 2 그룹(204c, 206c)의 픽셀들의 블록들의 부분의 픽셀-기반 세그멘테이션에 의해 상기 제 2 이미지 피처(216c)로부터 상기 제 1 이미지 피처(214c)를 세그멘팅하는 단계를 포함하는, 방법.Connect the first video image to the first group of connected blocks of pixels 204c and the pixels by classifying the blocks of pixels based on the motion vectors 218-230 of the respective blocks of pixels. Segmented into a second group of blocks 206c, and then located at a boundary between the first and second groups 204c, 206c of connected blocks of pixels, based on the respective values of the image characteristic. From the second image feature 216c by pixel-based segmentation of the portion of the blocks of pixels of the first and second group 204c, 206c of the connected blocks of pixels, Segmenting 214c). 제 1 항에 있어서, 상기 제 1 비디오 이미지를 픽셀들의 접속된 블록들의 상기 제 1 그룹(204c)과 픽셀들의 접속된 블록들의 상기 제 2 그룹(206c)으로 세그멘팅하는 단계는 모션 모델에 기초하는, 방법.2. The method of claim 1, wherein segmenting the first video image into the first group 204c of connected blocks of pixels and the second group 206c of connected blocks of pixels is based on a motion model. , Way. 제 2 항에 있어서, 상기 제 1 비디오 이미지를 픽셀들의 접속된 블록들의 상기 제 1 그룹(204c)과 픽셀들의 접속된 블록들의 상기 제 2 그룹(206c)으로 세그멘팅하는 단계는 결합된 모션 모델(affine motion model)에 기초하는, 방법.3. The method of claim 2, wherein segmenting the first video image into the first group 204c of connected blocks of pixels and the second group 206c of connected blocks of pixels comprises a combined motion model ( based on an affine motion model. 제 2 항 또는 제 3 항에 있어서, 상기 제 1 비디오 이미지를 픽셀들의 접속된 블록들의 상기 제 1 그룹(204c)과 픽셀들의 접속된 블록들의 상기 제 2 그룹(206c)으로 세그멘팅하는 단계는,4. The method of claim 2 or 3, wherein segmenting the first video image into the first group 204c of connected blocks of pixels and the second group 206c of connected blocks of pixels, - 픽셀들의 접속된 블록들의 상기 제 1 그룹(204c)을 위해 픽셀들의 접속된 블록들의 제 1 초기 그룹(204a)을 생성하는 단계로서, 픽셀들의 접속된 블록들의 상기 제 1 초기 그룹(204a)은 픽셀들의 특정 블록(232)을 포함하는, 상기 단계와,Creating a first initial group 204a of connected blocks of pixels for the first group 204c of connected blocks of pixels, wherein the first initial group 204a of connected blocks of pixels is The step comprising a specific block of pixels 232; - 픽셀들의 접속된 블록들의 상기 제 1 초기 그룹(204a)에 대한 제 1 모션 모델을 결정하는 단계와,Determining a first motion model for the first initial group 204a of connected blocks of pixels, - 상기 제 1 비디오 이미지의 픽셀들의 상기 각각의 블록들에 대한 모션 벡터들(218-230)을 추정하는 동안 추정되는 픽셀들의 상기 특정 블록(232)에 대응하는 모션 벡터와 상기 제 1 모션 모델에 기초하여 픽셀들의 상기 특정 블록(232)에 대응하는 모션 벡터사이의 제 1 정합 에러(match error)를 계산하는 단계와,The first motion model and the motion vector corresponding to the particular block 232 of pixels to be estimated while estimating the motion vectors 218-230 for the respective blocks of pixels of the first video image. Calculating a first match error between the motion vectors corresponding to the specific block 232 of pixels based on the following; - 픽셀들의 상기 특정 블록(232)을 배제하고, 픽셀들의 접속된 블록들의 상기 제 1 초기 그룹(204a)에 기초하여 픽셀들의 접속된 블록들의 테스트 그룹(204b)을 위한 제 2 모션 모델을 계산하는 단계와,Exclude the particular block 232 of pixels and calculate a second motion model for the test group 204b of connected blocks of pixels based on the first initial group 204a of connected blocks of pixels. Steps, - 상기 제 1 비디오 이미지의 픽셀들의 상기 각각의 블록들에 대한 모션 벡터들(218-230)을 추정하는 동안 추정되는 픽셀들의 상기 특정 블록(232)에 대응하는 모션 벡터와 상기 제 2 모션 모델에 기초하여 픽셀의 상기 특정 블록(232)에 대응하는 상기 모션 벡터 사이의 제 2 정합 에러를 계산하는 단계와,A motion vector corresponding to the particular block 232 of pixels to be estimated while estimating motion vectors 218-230 for the respective blocks of pixels of the first video image to the second motion model; Calculating a second matching error between the motion vectors corresponding to the specific block 232 of pixels based on the results; - 픽셀들의 상기 제 1 및 제 2 정합 에러에 기초하여 픽셀들의 상기 특정 블록(232)이 픽셀들의 접속된 블록들의 상기 제 1 그룹(204c)에 대응하는지를 결정하는 단계를 포함하는, 방법.Determining whether the particular block of pixels (232) corresponds to the first group (204c) of connected blocks of pixels based on the first and second matching error of pixels. 제 1 항에 있어서, 상기 픽셀 기반 세그멘테이션은 공간적인 컬러 모델에 기초하는, 방법.The method of claim 1, wherein the pixel-based segmentation is based on a spatial color model. 제 1 항에 있어서, 상기 픽셀 기반 세그멘테이션은 공잔적 휘도 모델에 기초하는, 방법.The method of claim 1, wherein the pixel-based segmentation is based on a coherent luminance model. 제 5 항 또는 제 6 항에 있어서, 픽셀들의 접속된 블록들의 상기 제 1 및 제 2 그룹사이의 상기 경계에 위치되도록 결정되는, 픽셀들의 접속된 블록들의 상기 제 1 그룹(204c)의 픽셀들의 상기 블록의 상기 부분의 제 1 블록(302)에서 상기 이미지 특성의 값들에서의 스텝이 검출되는, 방법7. The method of claim 5 or 6, wherein the pixels of the first group 204c of connected blocks of pixels are determined to be located at the boundary between the first and second groups of connected blocks of pixels. In the first block 302 of the portion of the block, a step in the values of the image characteristic is detected 제 7 항에 있어서, 상기 스텝은,The method of claim 7, wherein the step, - 상기 제 1 블록(302)의 상기 픽셀들에 대해 상기 이미지 특성의 제 1 평균값을 계산하는 단계와,Calculating a first average value of the image characteristic for the pixels of the first block 302; - 상기 제 1 평균값과 상기 제 1 블록(302)의 상기 픽셀들의 상기 각각의 값들에 기초하여 제 1 차이 측정을 계산하는 단계와,Calculating a first difference measure based on the first average value and the respective values of the pixels of the first block 302; - 픽셀들의 제 2 블록(304)의 픽셀들에 대해 상기 이미지 특성의 제 2 평균값을 계산하는 단계로서, 픽셀들의 상기 제 2 블록(304)은 픽셀들의 상기 제 2 그룹에 대응하고 상기 제 1 블록(302)에 접속되는 단계와,Calculating a second average value of the image characteristic for the pixels of the second block of pixels 304, wherein the second block 304 of pixels corresponds to the second group of pixels and the first block Connected to 302, and - 상기 제 2 평균 값과 상기 제 2 블록(304)의 상기 픽셀들의 상기 각각의 값들에 기초하여 제 2 차이 측정을 계산하는 단계와,Calculating a second difference measure based on the second average value and the respective values of the pixels of the second block 304; - 특정 픽셀을 배제하는 픽셀들의 제 1 테스트 그룹을 상기 제 1 블록(302)에 기초하여 생성하고, 상기 특정 픽셀을 포함하는 픽셀들의 제 2 그룹을 상기 제 2 블록(304)에 기초하여 생성하는 단계와,Generate a first test group of pixels excluding a particular pixel based on the first block 302, and generate a second group of pixels comprising the particular pixel based on the second block 304 Steps, - 상기 제 1 테스트 그룹의 픽셀에 대해 상기 이미지 특성의 제 3 평균값을 계산하는 단계와,Calculating a third mean value of the image characteristic for the pixels of the first test group; - 상기 제 3 평균값과 상기 제 1 테스트 그룹의 상기 픽셀들의 상기 각각의 값들에 기초하여 제 3 차이 측정을 계산하는 단계와,Calculating a third difference measure based on the third mean value and the respective values of the pixels of the first test group; - 제 2 테스트 그룹의 상기 픽셀들에 대해 상기 이미지 특성의 제 4 평균 값을 계산하는 단계와,Calculating a fourth average value of the image characteristic for the pixels of a second test group; - 상기 제 4 평균값과 상기 제 2 테스트 그룹의 상기 픽셀들의 상기 각각의 값들에 기초하여 제 4 차이 측정을 계산하는 단계와,Calculating a fourth difference measure based on the fourth average value and the respective values of the pixels of the second test group; - 상기 제 1, 제 2, 제 3 및 제 4 차이 측정에 기초하여, 상기 특정 픽셀이 제 1 이미지 피처(214)에 속하는지 또는 상기 제 2 이미지 피처(216)에 속하는지를 결정하는 단계에 의해 검출되는, 방법. Determining whether the particular pixel belongs to a first image feature 214 or the second image feature 216 based on the first, second, third and fourth difference measurements Detected method. 제 1 비디오 이미지의 제 1 이미지 피처(214)를 상기 제 1 비디오 이미지의 인접한 제 2 이미지 피처(216)로부터 세그멘팅하기 위한 세그멘테이션 시스템으로서, 상기 제 1 이미지 피처(214)는 실질적으로 제 1 범위의 값들이 되는 이미지 특성의 각각의 값들을 갖는 복수의 픽셀들을 갖고 상기 제 1 비디오 이미지와 제 2 비디오 이미지 사이에서 상기 제 2 이미지 피처(216)에 관련되는 모션을 갖고, 상기 제 2 이미지 피처(216)는 실질적으로 상기 제 1 범위의 값들과 상이한 제 2 범위의 값들이 되는 상기 이미지 특성의 각각의 값들을 갖는 복수의 픽셀들을 갖는, 상기 세그멘테이션 시스템으로서,A segmentation system for segmenting a first image feature 214 of a first video image from an adjacent second image feature 216 of the first video image, wherein the first image feature 214 is substantially in a first range. Having a plurality of pixels having respective values of an image characteristic that are values of and having a motion associated with the second image feature 216 between the first video image and the second video image, the second image feature ( 216 is a segmentation system having a plurality of pixels having respective values of the image characteristic that are substantially values of a second range different from the values of the first range, wherein - 상기 제 1 비디오 이미지를 픽셀들의 블록들로 분할하기 위한 수단(103)과,Means (103) for dividing the first video image into blocks of pixels, - 픽셀들의 상기 각각의 블록들에 대한 모션 벡터들(218-230)을 추정하기 위한 블록 기반 모션 추정기(102)와,A block-based motion estimator 102 for estimating motion vectors 218-230 for the respective blocks of pixels, - 픽셀들의 상기 각각의 블록들의 상기 모션 벡터들(218-230)에 기초하여 픽셀들의 상기 블록들을 분류함으로써 상기 제 1 비디오 이미지를 픽셀들의 접속된 블록들의 제 1 그룹(204c)과 픽셀들의 접속된 블록들의 제 2 그룹(206c)으로 세그멘팅하기 위한 모션 세그멘테이션 유닛(104)과,Connect the first video image to the first group of connected blocks of pixels 204c and the pixels by classifying the blocks of pixels based on the motion vectors 218-230 of the respective blocks of pixels. A motion segmentation unit 104 for segmenting into the second group 206c of blocks, - 상기 이미지 특성의 상기 각각의 값들에 기초하여, 픽셀들의 접속된 블록들의 상기 제 1 및 제 2 그룹(204c, 206c) 사이의 경계에 위치되도록 결정되는, 픽셀들의 접속된 블록들의 상기 제 1 및 제 2 그룹(204c, 206c)의 픽셀들의 블록들의 부분의 픽셀-기반 세그멘테이션에 의해 상기 제 2 이미지 피처(216)로부터 상기 제 1 이미지 피처(214)를 세그멘팅하기 위한 픽셀 기반 세그멘테이션 유닛(106)을 포함하는, 세그멘테이션 시스템. The first and second connected blocks of pixels determined to be located at a boundary between the first and second groups 204c, 206c of connected blocks of pixels, based on the respective values of the image characteristic. Pixel-based segmentation unit 106 for segmenting the first image feature 214 from the second image feature 216 by pixel-based segmentation of a portion of blocks of pixels of a second group 204c, 206c Including, the segmentation system. 제 9 항에 청구된 바와 같은 상기 세그멘테이션 시스템(100)을 포함하는, 모션 벡터 필드를 추정하기 위한 픽셀 해상도(pixel resolution)의 모션 추정기(400, 410).10. A motion estimator (400, 410) of pixel resolution for estimating a motion vector field, comprising the segmentation system (100) as claimed in claim 9. 제 10 항에 청구된 바와 같은 모션 추정기(400)로서, 상기 제 2 이미지 피처(216)로부터 상기 제 1 이미지 피처(214)의 세그멘팅에 기초하여 각각의 블록들에 대해 추정된 상기 모션 벡터들(218-230)을 상기 제 1 비디오 이미지의 상기 각각의 픽셀들에 할당하는, 픽셀 해상도의 모션 추정기(400).11. The motion estimator 400 as claimed in claim 10, wherein the motion vectors estimated for each block based on the segmentation of the first image feature 214 from the second image feature 216. Assigning (218-230) to the respective pixels of the first video image. 제 10 항에 청구된 바와 같은 모션 추정기(401)로서, 상기 제 1 이미지 피처(214)의 픽셀들을 상기 제 2 비디오 이미지의 대응하는 픽셀들과의 비교에 의해 상기 제 1 이미지 피처(214)에 대한 새로운 모션 벡터를 추정하도록 배열된, 픽셀 해상도의 모션 추정기(401).A motion estimator 401 as claimed in claim 10, wherein the pixels of the first image feature 214 are compared to the first image feature 214 by comparison with corresponding pixels of the second video image. A motion estimator 401 of pixel resolution, arranged to estimate a new motion vector for. 이미지 처리 장치(500)로서,As the image processing apparatus 500, - 일련의 비디오 이미지들을 나타내는 신호를 수신하기 위한 수신 수단(502)과,Receiving means 502 for receiving a signal representing a series of video images, - 상기 비디오 이미지들로부터 모션 벡터 필드를 추정하기 위한, 제 10 항에 청구된 바와 같은 픽셀 해상도의 모션 추정기(504)와,A motion estimator 504 of pixel resolution as claimed in claim 10 for estimating a motion vector field from the video images, - 상기 비디오 이미지들 및 상기 모션 벡터 필드에 기초하여 처리된 이미지들을 결정하기 위한 모션 보상된 이미지 처리 유닛(506)을 포함하는, 이미지 처리 장치(500).A motion compensated image processing unit (506) for determining processed images based on the video images and the motion vector field. 제 13 항에 있어서, 상기 모션 보상된 이미지 처리 유닛(506)은 비디오 압축을 수행하도록 설계된, 이미지 처리 장치(500).14. The image processing apparatus (500) of claim 13, wherein said motion compensated image processing unit (506) is designed to perform video compression. 제 13 항에 있어서, 상기 모션 보상된 이미지 처리 유닛(506)은 일련의 이미지들에서 잡음을 감소시키도록 설계된, 이미지 처리 장치(500).14. The image processing apparatus (500) of claim 13, wherein said motion compensated image processing unit (506) is designed to reduce noise in a series of images. 제 13 항에 있어서, 상기 모션 보상된 이미지 처리 유닛(506)은 일련의 이미지들을 디-인터레이스(de-interlace)하도록 설계된, 이미지 처리 장치(500).14. The image processing apparatus (500) of claim 13, wherein the motion compensated image processing unit (506) is designed to de-interlace a series of images. 제 13 항에 있어서, 상기 모션 보상된 이미지 처리 유닛(506)은 업-변환(up-conversion)을 수행하도록 설계된 것을 특징으로 하는, 이미지 처리 장치(500).14. The image processing apparatus (500) of claim 13, wherein said motion compensated image processing unit (506) is designed to perform up-conversion.
KR10-2005-7001820A 2002-07-31 2003-07-11 System and method for segmenting KR20050023122A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR10-2005-7001820A KR20050023122A (en) 2002-07-31 2003-07-11 System and method for segmenting

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
EP02078116.7 2002-07-31
KR10-2005-7001820A KR20050023122A (en) 2002-07-31 2003-07-11 System and method for segmenting

Publications (1)

Publication Number Publication Date
KR20050023122A true KR20050023122A (en) 2005-03-09

Family

ID=41784432

Family Applications (1)

Application Number Title Priority Date Filing Date
KR10-2005-7001820A KR20050023122A (en) 2002-07-31 2003-07-11 System and method for segmenting

Country Status (1)

Country Link
KR (1) KR20050023122A (en)

Similar Documents

Publication Publication Date Title
US7382899B2 (en) System and method for segmenting
KR100973429B1 (en) Background motion vector detection
KR101135454B1 (en) Temporal interpolation of a pixel on basis of occlusion detection
US10818018B2 (en) Image processing apparatus, image processing method, and non-transitory computer-readable storage medium
CN102025959B (en) The System and method for of high definition video is produced from low definition video
US20060098737A1 (en) Segment-based motion estimation
US7039110B2 (en) Methods of and units for motion or depth estimation and image processing apparatus provided with such motion estimation unit
US20030035583A1 (en) Segmentation unit for and method of determining a second segment and image processing apparatus
JP2006504175A (en) Image processing apparatus using fallback
US20050180506A1 (en) Unit for and method of estimating a current motion vector
KR20060083978A (en) Motion vector field re-timing
JP4213035B2 (en) Occlusion detector and method for detecting an occlusion region
JP2005505841A (en) Apparatus and method for motion estimation
US20050226462A1 (en) Unit for and method of estimating a motion vector
JP2005506626A (en) Motion estimation unit and method, and image processing apparatus having such a motion estimation unit
JP2001520781A (en) Motion or depth estimation
US8102915B2 (en) Motion vector fields refinement to track small fast moving objects
KR20050023122A (en) System and method for segmenting
JP2006525582A (en) Fine adjustment of area division
TW202112137A (en) Apparatus and method for motion estimation of isolated objects

Legal Events

Date Code Title Description
WITN Withdrawal due to no request for examination