KR20070008687A - Creating an output image - Google Patents

Creating an output image Download PDF

Info

Publication number
KR20070008687A
KR20070008687A KR1020067023312A KR20067023312A KR20070008687A KR 20070008687 A KR20070008687 A KR 20070008687A KR 1020067023312 A KR1020067023312 A KR 1020067023312A KR 20067023312 A KR20067023312 A KR 20067023312A KR 20070008687 A KR20070008687 A KR 20070008687A
Authority
KR
South Korea
Prior art keywords
image
input
pixel
group
pixels
Prior art date
Application number
KR1020067023312A
Other languages
Korean (ko)
Inventor
헨리쿠스 더블류. 피. 반 데르 헤이즈덴
폴 엠. 호프만
클라우스 엔. 코르데스
Original Assignee
코닌클리케 필립스 일렉트로닉스 엔.브이.
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 코닌클리케 필립스 일렉트로닉스 엔.브이. filed Critical 코닌클리케 필립스 일렉트로닉스 엔.브이.
Publication of KR20070008687A publication Critical patent/KR20070008687A/en

Links

Images

Classifications

    • G06T3/14
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformation in the plane of the image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion

Abstract

A method of creating an output image (108) on basis of a sequence of temporally consecutive input images is disclosed. The method comprises: identifying a particular part of a particular object (100) in a first one of the input images (102); fetching a first group of pixels (110) from the first one of the input images (102), the first group of pixels (110) corresponding to the particular part of the particular object (100); localizing the particular part of the particular object (100) in a second one of the input images (104); fetching a second group of pixels (110) from the second one of the input images (104), the second group of pixels (110) corresponding to the particular part of the particular object (100); and appending the second group of pixels (110) to the first group of pixels (110) to form the output image. ® KIPO & WIPO 2007

Description

출력 이미지 생성하기{CREATING AN OUTPUT IMAGE}CREATING AN OUTPUT IMAGE}

본 발명은 시간적으로 연속적인 입력 이미지의 시퀀스에 기초하여 출력 이미지를 생성하기 위한 방법에 관한 것이다.The present invention relates to a method for generating an output image based on a sequence of input images that are temporally continuous.

본 발명은 추가로 시간적으로 연속적인 입력 이미지의 시퀀스에 기초하여 출력 이미지를 생성하기 위한 명령을 포함하는 컴퓨터 장치에 의해서 로드되는 컴퓨터 프로그램 제품에 관한 것이다.The invention further relates to a computer program product loaded by a computer device comprising instructions for generating an output image based on a sequence of temporally successive input images.

본 발명은 추가로 시간적으로 연속적인 입력 이미지의 시퀀스에 기초하여 출력 이미지를 생성하기 위해 배열되는 이미지 프로세싱 장치에 관한 것이다. The invention further relates to an image processing apparatus arranged to generate an output image based on a sequence of input images that are temporally contiguous.

시간적으로 연속적인 입력 이미지의 시퀀스를 보여주는 것의 장점은 동적인 사건이 시각화될 수 있는 것인데, 예컨대 배경에 대한 물체의 움직임이 도시될 수 있다. 예를 들어, 공의 실제 움직임이 관련되는 축구와 같은 스포츠 게임이 보여질 수 있다. 방송 중계 동안 축구 경기에 대응하는 이미지 시퀀스의 부분을 반복하는 것은 공통적인 특징이다. 전형적으로 이들 부분들은 게임의 가장 흥미로운 순간들에 대응한다. 하지만, 예를 들어 신문 또는 몇몇 다른 종류의 인쇄 매체에서 그러한 흥미로운 순간을 예시하는 것이 요구될 때, 상기 이벤트에 대한 매력의 상당부분이 손실될 것이다. 이는 신문에서의 화상이 이벤트의 움직임을 나타내지 못하기 때문이다. The advantage of showing a sequence of input images in time is that dynamic events can be visualized, such as the movement of an object relative to the background. For example, a sports game such as soccer may be shown in which the actual movement of the ball is involved. It is a common feature to repeat a portion of an image sequence corresponding to a soccer game during a broadcast relay. Typically these parts correspond to the most interesting moments of the game. However, when it is desired to exemplify such an interesting moment, for example in newspapers or some other kind of print media, much of the attraction to the event will be lost. This is because the images in the newspaper do not represent the movement of the event.

본 발명의 목적은 출력 이미지에서 동적인 이벤트를 요약하기 위한 서두에 기재된 종류의 방법을 제공하는 것이다. It is an object of the present invention to provide a method of the kind described at the outset for summarizing dynamic events in an output image.

본 발명의 이러한 목적은, 상기 방법이,This object of the invention is that the method,

- 입력 이미지의 제1 이미지에서 특정 목적의 특정부분을 확인하는 단계;Identifying a specific portion of the particular purpose in the first image of the input image;

- 입력 이미지 중 제1 이미지로부터, 특정 물체의 특정 부분에 대응하는 제1 픽셀 그룹을 가져오는 단계;Obtaining from the first image of the input image a first group of pixels corresponding to a particular portion of the particular object;

- 입력 이미지들 중 제2 이미지에서 상기 특정 물체의 상기 특정 부분을 지역화(localizing)하는 단계;Localizing the particular portion of the particular object in a second of the input images;

- 상기 입력 이미지들 중 제2 이미지로부터, 특정 물체의 특정 부분에 대응하는 제2 픽셀 그룹을 가져오는 단계; 그리고Obtaining from the second of the input images a second group of pixels corresponding to a particular portion of a particular object; And

- 상기 출력 이미지를 형성하기 위해서 제1 픽셀 그룹에 제2 픽셀 그룹을 첨부하는 단계를 포함한다는 사실로 달성된다. -Attaching a second group of pixels to a first group of pixels to form the output image.

동적인 이벤트를 예시하기 위한 명백한 기존의 접근법은 예컨대 인공적인 그래픽 표현과 같은 개략적인 그림(drawing)을 생성하는 것이다. 본 발명에 따른 상기 방법은 정적인 이미지, 즉 입력 이미지를 포함하는 시간상 다른 순간에 공간 이미지를 생성하기 위해서 시간적으로 연속적인 이미지, 즉 공간-시간적 데이터의 시퀀스가 사용된다는 점에서 다르다.An obvious existing approach to illustrating dynamic events is to create a schematic drawing, for example an artificial graphical representation. The method according to the invention differs in that a sequence of temporally successive images, ie, spatial-temporal data, is used to produce a spatial image at a different time in time, including a static image, i.e. an input image.

부분들은 동적인(x,y,t) 입력 이미지들로부터 선택되고, 단일 정지(x,y) 출력 이미지를 형성하기 위해서 결합 된다. 이는 정적인 출력 이미지가 예컨대 물체의 움직임과 같은 동적인 이벤트를 예시하도록 행해진다. 특징은 출력 이미지는 시간상 다른 순간에서 샘플된 특정 물체의 특정 부분의 이미지 데이터를 포함한다는 것이다. 다시 말해, 특정 물체의 특정 부분은 출력 이미지에서는 복수 회 출현한다. 이는 제2 픽셀 그룹이 전형적으로 제2 픽셀 그룹에 인접해 있는 제1 픽셀 그룹에 추가되기 때문이다. The portions are selected from the dynamic (x, y, t) input images and combined to form a single still (x, y) output image. This is done so that the static output image illustrates dynamic events, such as the movement of an object, for example. The feature is that the output image contains image data of a particular portion of a particular object sampled at different moments in time. In other words, certain parts of a particular object appear multiple times in the output image. This is because the second pixel group is typically added to the first pixel group adjacent to the second pixel group.

다른 더 작은 이미지들을 연결함으로써 하나의 대형 파노라마 그림을 생성하는 종래-기술과 뚜렷이 구분된다. 그러한 경우에, 공간적인 이미지 데이터 세트들은 더 큰 출력 이미지를 생성하기 위해 사용된다. 종래기술에 따른 이러한 방법에서, 연속적인 이미지들의 부분들은 달리 결합 된다. 전형적으로 공간적으로 겹쳐지는 이미지 영역들의 각각의 픽셀들이 병합된다. 결과는 각각의 물체가 출력 이미지에서 단지 한번 나타난다는 점이다.It is distinct from the prior-art, which creates one large panoramic picture by concatenating other smaller images. In such a case, spatial image data sets are used to generate a larger output image. In this method according to the prior art, parts of successive images are otherwise combined. Typically the pixels of each of the spatially overlapping image areas are merged. The result is that each object appears only once in the output image.

본 발명에 따른 방법에서 시간상 다른 순간들에서 단일 물체들을 나타내는 데이터가 명백하게 사용된다. In the method according to the invention, data representative of single objects at different moments in time is explicitly used.

본 발명에 따른 방법의 하나의 실시예에서, 상기 추가(appending)는 제1 픽셀그룹 및 제2 픽셀 그룹의 각각의 픽셀 들의 값들의 가중치 합(weighted summation)를 포함한다. 가중치 합의 장점은 제1 픽셀 그룹에서 제2 픽셀 그룹으로 휘도 그리고/또는 컬러에서의 전이가 부드럽게 진행된다는 것이다. 대안적으로, 제2 픽셀그룹은 제1 픽셀 그룹에 인접하게 놓인다. 전형적으로, 픽셀 그룹들의 위치를 정하고 전이를 위해 가중치 합계를 사용하는 것의 조합이 사용된다. 따라서 두 이미지의 부분들이 가중치 평균을 통해 또는 단지 상기 부분들을 서로에 인접하게 놓이게 함으로써 몇몇 형태의 보간을 통해서 선택되고 조합된다.In one embodiment of the method according to the invention, the appending comprises a weighted summation of the values of respective pixels of the first pixel group and the second pixel group. The advantage of the weight sum is that the transition in luminance and / or color proceeds smoothly from the first pixel group to the second pixel group. Alternatively, the second pixel group lies adjacent to the first pixel group. Typically, a combination of locating pixel groups and using weighted sums for transitions is used. Thus parts of the two images are selected and combined through some form of interpolation either by weighted average or by simply placing the parts adjacent to each other.

본 발명에 따른 방법에 따른 일 실시예에서, 제1 픽셀 그룹은 입력 이미지들의 제1 이미지의 많은 칼럼 픽셀들의 픽셀에 대응한다. 본 발명에 따른 방법에 대한 이러한 실시예에서, 제1 픽셀 그룹, 그리고 또한 연속적인 픽셀 그룹들은 입력 이미지에 대응하는 픽셀 매트릭스의 완전한 높이에 걸쳐 연장된다. 이는 특정 물제의 특정 부분을 나타내는 픽셀들을 포함하는 칼럼에 위치한 모든 픽셀들이 출력 이미지를 구성하기 위해서 일종의 슬라이스(slice)로서 선택되고 사용된다는 것을 의미한다. 다시 말해 출력이미지는 연속적인 입력 이미지들로부터 취해진 슬라이스 세트를 포함한다. 슬라이스들의 각각은 개별적인 입력 이미지들에 있어서 특정 물체의 특정 부분을 나타낸다. 전형적으로, 슬라이스들은 또한 배경을 나타내고, 이 배경 앞에서 특정 물체가 움직인다. 본 발명에 따른 이러한 실시예는 물체의 수평이동을 예시하는 출력 이미지를 생성하는데 장점이 있다. In one embodiment according to the method according to the invention, the first pixel group corresponds to the pixels of many column pixels of the first image of the input images. In this embodiment of the method according to the invention, the first pixel group, and also consecutive pixel groups, extend over the full height of the pixel matrix corresponding to the input image. This means that all pixels located in a column containing pixels representing a particular portion of a particular object are selected and used as a kind of slice to construct the output image. In other words, the output image contains a set of slices taken from successive input images. Each of the slices represents a particular portion of a particular object in separate input images. Typically, the slices also represent a background, in which certain objects move in front of the background. This embodiment according to the invention has the advantage of generating an output image illustrating the horizontal movement of the object.

본 발명에 따른 방법의 실시예에서, 제1 그룹의 픽셀들은 입력 이미지들의 제1 이미지의 많은 수의 행 픽셀들의 픽셀에 대응한다. 본 발명에 따른 이런 방법의 본 실시예에서 제1 픽셀 그룹 그리고 또한 연속적인 픽셀 그룹들은 입력 이미지에 대응하는 픽셀 매트릭스의 완전한 폭에 걸쳐 연장한다. 그것은 특정 물체의 특정부분을 나타내는 픽셀들을 포함하는 행에 위치하는 모든 픽셀들은 출력 이미지를 구성하기 위해서 일종의 슬라이스로서 선택되고 사용된다는 것을 의미한다. 다시 말해, 출력 이미지는 연속적인 입력 이미지로부터 취해진 슬라이스 세트를 포함한다. 슬라이스들의 각각은 개별적인 입력 이미지에서 특정 물체의 특정 부분을 나타낸다. 전형적으로, 슬라이스들은 또한 배경을 나타내고, 그 배경 전면에서 특정 물체가 움직인다. 본 발명에 따른 이러한 실시예는 물체의 수직 움직임을 예시하는 출력 이미지를 생성하는데 장점을 가진다. In an embodiment of the method according to the invention, the pixels of the first group correspond to the pixels of the large number of row pixels of the first image of the input images. In this embodiment of this method according to the invention the first pixel group and also the continuous pixel groups extend over the full width of the pixel matrix corresponding to the input image. That means that all the pixels located in the row containing the pixels representing a particular part of a particular object are selected and used as a kind of slice to compose the output image. In other words, the output image includes a set of slices taken from consecutive input images. Each of the slices represents a particular portion of a particular object in a separate input image. Typically, the slices also represent a background, with a particular object moving in front of the background. This embodiment according to the invention has the advantage of generating an output image illustrating the vertical movement of the object.

본 발명에 따른 방법의 실시예에서, 제1 그룹의 픽셀들은 입력 이미지들의 제1 이미지의 다수의 칼럼 픽셀들의 픽셀들에 대응한다. 픽셀들의 칼럼의 수는 특정 물체의 트랙킹(tracking)에 기초한다. 특정 물체의 움직임이 추정된다. 추정된 움직임은 제1 그룹들의 픽셀의 치수를 결정한다. 예컨대 만일 추정된 특정 물체의 특정 부분의 추정된 움직임이 20 픽셀과 동일하다면, 픽셀들의 칼럼의 수는 또한 20이다. In an embodiment of the method according to the invention, the pixels of the first group correspond to the pixels of the plurality of column pixels of the first image of the input images. The number of columns of pixels is based on tracking of a particular object. The movement of a particular object is estimated. The estimated motion determines the dimension of the pixels of the first groups. For example, if the estimated motion of a particular portion of the particular object estimated is equal to 20 pixels, the number of columns of pixels is also 20.

본 발명에 따른 방법의 실시예에서, 제1 픽셀 그룹들은 입력 이미지들 중의 제1 이미지의 픽셀들의 많은 수의 행의 픽셀에 대응하며, 픽셀들의 행의 수는 측정 물체의 트랙킹에 기초한다. 특정 물체의 움직임이 추정된다. 추정된 움직임은 제1 픽셀 그룹의 치수를 결정한다. 예컨대 만일 특정 물체의 특정부분의 추정된 움직임이 20 픽셀과 같다면, 픽셀 행의 수도 또한 20이다. In an embodiment of the method according to the invention, the first pixel groups correspond to the pixels of a large number of rows of pixels of the first image of the input images, the number of rows of pixels being based on the tracking of the measurement object. The movement of a particular object is estimated. The estimated motion determines the dimension of the first pixel group. For example, if the estimated motion of a particular portion of a particular object is equal to 20 pixels, then the number of pixel rows is also 20.

본 발명에 따른 일 실시예에서, 트랙킹은 많은 수의 움직임 벡터 후보들의 평가에 기초하며, 상기 평가는 최소 매치 에러(match error)의 수립을 포함하다. 이러한 기술은 일반적으로 움직임 추정으로 알려진다. 바람직하게, 매치 에러는 입력 이미지들 중의 제1 이미지 그리고/또는 입력 이미지들 중의 제2 이미지 내의 특정 물체에 대응하는 각각의 픽셀 값들 사이에서의 차이에 대응한다. In one embodiment according to the present invention, tracking is based on evaluation of a large number of motion vector candidates, which includes establishing a minimum match error. This technique is commonly known as motion estimation. Preferably, the match error corresponds to a difference between respective pixel values corresponding to a particular object in the first image of the input images and / or the second image of the input images.

움직임은 상대적이 양이다. 움직임은 연속적인 입력 이미지들의 픽셀 매트릭스에 대해서 표현될 수 있다. 만일 연속적인 입력 이미지들이 고정 위치 카메라에 이해서 얻어진다면, 그러한 접근법은 적절하다. 그것은 입력 이미지들의 제1 이미지에서의 특정 물체의 특정 부분의 좌표와 입력 이미지들 중의 제2 이미지에서 특정 물체의 측정부분의 좌표는 물체의 움직임을 계산하기 위해서 직접적으로 사용될 수있다. 하지만, 많은 경우에 카메라는 움직이는 물체를 포착하는 동안 패닝(panning) 그리고/또는 주밍(zooming)한다. 만일 시간적으로 연속적인 입력 이미지들의 시퀀스가 그러한 포착에 기초한다면, 이러한 카메라 움직임에 대한 수정이 선호된다. 본 발명에 따른 바람직한 실시예에서 픽셀 칼럼들의 수는 입력 이미지들의 제1 이미지 그리고 /또는 입력 이미지들의 제2 이미지에서 배경의 트랙킹 모션에 기초한다. 대안적으로, 픽셀 행의 숫자는 입력 이미지들 중 제1 이미지 그리고/또는 입력 이미지들 중의 제2 이미지에서 배경의 트랙킹 움직임에 기초한다. 배경에 따른 일반적인 보상에서 움직임 모델이 실현된다. 이는 소위 팬-줌 모델일 수 있다. 이는 배경 모델을 왕복운동(translation)과 축척 조정(scaling)의 조합으로 배경 모델을 모델화하지만, 그것은 더욱더 복잡하고, 투시적 프로젝센 및 회전(perspective projection and rotations)과 같은 다른 양상들을 또한 다룰 수 있다.The movement is relatively positive. The motion can be represented with respect to the pixel matrix of successive input images. If successive input images are obtained following a fixed position camera, such an approach is appropriate. It can be used directly to calculate the motion of the object, the coordinates of the particular part of the particular object in the first image of the input images and the coordinates of the measuring part of the particular object in the second image of the input images. In many cases, however, the camera pans and / or zooms while capturing moving objects. If a sequence of temporally successive input images is based on such capture, a modification to this camera movement is preferred. In a preferred embodiment according to the invention the number of pixel columns is based on the tracking motion of the background in the first image of the input images and / or the second image of the input images. Alternatively, the number of pixel rows is based on the tracking movement of the background in the first image of the input images and / or the second image of the input images. In the general compensation according to the background, the motion model is realized. This may be a so-called pan-zoom model. It models the background model with a combination of translation and scaling, but it is also more complex and can also deal with other aspects such as perspective projection and rotations. .

전술한 바와 같이, 취해진 칼럼/행의 수는 움직임에 기초한다. 이러한 움직임은 물체가 전면에서 움직이고 있는 배경에 상대적이다. 고정 위치의 카메라의 경우에 이러한 움직임들은 다양한 픽셀 메트릭스에 상대적인 움직임에 대응한다. As mentioned above, the number of columns / rows taken is based on the movement. This movement is relative to the background where the object is moving in the foreground. In the case of fixed position cameras these movements correspond to movements relative to various pixel metrics.

움직임 벡터들의 추정에 기초한 움직임 추정에 의해서 특정 물체를 트랙킹하기 위한 대안으로서, 특정 물체는 반-수동으로 또한 추적(tracked)될 수 있다. 그러한 경우에, 픽셀의 열의 수는,As an alternative to tracking a specific object by motion estimation based on the estimation of the motion vectors, the specific object may also be tracked semi-manually. In that case, the number of columns of pixels is

- 입력 이미지들 중 제1 이미지에서 특정 물체의 특정 부분을 확인하는 것에 기초하여 제1 픽셀 좌표를 결정하는 단계;Determining first pixel coordinates based on identifying a particular portion of a particular object in the first of the input images;

- 입력 이미지들 중 제3 이미지에서 특정 물체의 특정 부분을 확인하는 것에 기초하여 제2 픽셀 좌표를 결정하는 단계;Determining a second pixel coordinate based on identifying a particular portion of a particular object in a third of the input images;

- 입력 이미지들의 제1 이미지 및 입력 이미지들 중 제3 이미지 사이에 시간적으로 위치하는 연속적인 입력 이미지들의 수를 결정하는 단계; 그리고Determining the number of consecutive input images located in time between the first image of the input images and the third of the input images; And

제1 픽셀 좌표, 제2 픽셀 좌표 및 연속적인 입력 이미지들의 수에 기초하여 열의 수를 계산하는 단계에 의해서 결정된다. And determining the number of columns based on the first pixel coordinates, the second pixel coordinates, and the number of consecutive input images.

본 발명에 따른 이러한 실시예에서, 사용자는 많은 수의 이미지에서 특정 물체의 특정 부분이 어디에 위치하는 지를 표시해야만 한다. 이는 디스플레이된 입력 이미지들에 대해서 커서를 움직임으로써 행해질 수 있다. In this embodiment according to the invention, the user must indicate where a particular part of a particular object is located in a large number of images. This can be done by moving the cursor with respect to the displayed input images.

출력 이미지에서 동적인 이벤트를 요약하기 위해서 서두에서 설명된 종류의 컴퓨터 프로그램 제품을 제공하는 것은 본 발명의 추가적인 목적이다. It is a further object of the present invention to provide a computer program product of the kind described at the outset for summarizing dynamic events in the output image.

본 발명의 목적은 컴퓨터 프로그램 제품이 프로세싱 수단 및 메모리를 포함하는 컴퓨터 장치에서 로드된 후에, It is an object of the present invention that after a computer program product is loaded in a computer device comprising processing means and a memory,

- 입력 이미지들 중 제1 이미지에서 특정 물체의 특정 부분의 위치를 수신하는 단계;Receiving a position of a particular part of the particular object in the first of the input images;

- 입력 이미지들 중의 하나로부터, 특정 목적의 특정 부분에 대응하는 제1 픽셀 그룹을 취하는 단계;Taking, from one of the input images, a first group of pixels corresponding to a particular portion of a particular purpose;

- 입력 이미지들 중 제2 이미지에서 특정 물체의 측정 부분을 지역화하는 단계;Localizing the measurement portion of the particular object in a second of the input images;

- 입력 이미지들 중의 제2 이미지로부터 제2 픽셀 그룹을 취하며, 제2 픽셀 그룹은 특정 물체의 특정 부분에 대응하는 단계; 그리고Taking a second pixel group from a second one of the input images, the second pixel group corresponding to a particular portion of a particular object; And

- 출력 이미지를 형성하기 위해서 제1 픽셀 그룹에 제2 픽셀 그룹을 첨가하는 단계를 수행할 능력을 상기 프로세싱 수단에 제공한다는 점에서 달성될 수 있다.It can be achieved in that it provides the processing means with the ability to perform the step of adding a second pixel group to the first pixel group to form an output image.

출력 이미지에서 동적인 이벤트를 요약하기 위해 서두에서 설명된 종류의 이미지 프로세싱 장치를 제공하는 것은 본 발명의 추가적인 목적이다. It is a further object of the present invention to provide an image processing apparatus of the kind described at the outset for summarizing dynamic events in the output image.

본 발명의 이러한 목적은 이미지 프로세싱 장치가,The object of the present invention is to provide an image processing apparatus,

- 입력 이미지들 중 제1 이미지에서 특정의 물체의 특정 부분의 위치를 수신하는 단계;Receiving a position of a particular portion of a particular object in the first of the input images;

- 입력 이미지들 중 제1 이미지로부터, 특정 물체의 특정 부분에 대응하는 제1 픽셀 그룹을 취하는 단계;Taking from the first of the input images a first group of pixels corresponding to a particular part of the particular object;

- 입력 이미지들 중 제2 이미지에서 특정 물체의 특정 부분을 지역화하는 단계;Localizing a particular part of a particular object in a second of the input images;

- 입력 이미지들 중 제2 이미지로부터, 특정 물체의 특정 부분에 대응하는 제2 픽셀 그룹을 취하는 단계; 그리고Taking from the second of the input images a second group of pixels corresponding to a particular part of the particular object; And

- 출력 이미지를 형성하기 위해서 제1 픽셀 그룹에 제2 픽셀 그룹 추가하는 단계를 수행할 능력을 갖는 프로세싱 수단을 포함한다는 점에서 달성될 수 있다. It can be achieved in that it comprises processing means having the ability to perform the step of adding a second pixel group to the first pixel group to form an output image.

상기 방법의 변경 및 변이는 설명될 이미지 프로세싱 장치 및 컴퓨터 프로그램 제품의 변경과 변이에 대응할 수 있다. Changes and variations in the method may correspond to variations and variations in the image processing apparatus and computer program product to be described.

본 발명에 따른 상기 이미지 프로세싱 장치, 상기 방법 및 상기 컴퓨터 프로그램 제품의 이미지 프로세싱 장치의 이들 및 다른 양상들은 이후에 설명되는 구현 예 및 실시예로부터 그리고 첨부된 도면을 참조하여 명백하게 될 것이다. These and other aspects of the image processing apparatus, the method and the image processing apparatus of the computer program product according to the present invention will become apparent from the embodiments and embodiments described hereinafter and with reference to the accompanying drawings.

도 1은 카메라는 입력 이미지를 포착하는 동안 정지되어 있는, 본 발명에 따른 방법을 도시하는 개략도.1 is a schematic diagram illustrating a method according to the invention wherein the camera is stationary while capturing an input image.

도 2a는 카메라는 입력 이미지를 포착하는 동안 패닝(panning)하는, 본 발명에 따른 방법을 도시하는 개략도.2A is a schematic diagram illustrating a method according to the invention wherein the camera pans while capturing an input image.

도 2b는 본 발명에 따른 다수의 출력 이미지를 도시하는 개략도.2B is a schematic diagram illustrating multiple output images in accordance with the present invention.

도 3은 축구 경기의 다수의 입력 이미지와 이들 입력 이미지들에 기초하여 본 발명에 따라 생성되는 출력 이미지를 도시하는 개략도.3 is a schematic diagram showing a plurality of input images of a soccer game and an output image generated according to the present invention based on these input images.

도 4는 본 발명에 따른 이미지 프로세싱 장치의 제2 실시예를 도시하는 개략도. 4 is a schematic diagram showing a second embodiment of an image processing apparatus according to the present invention;

도 5는 본 발명에 따른 이미지 프로세싱 장치의 제2 실시예를 도시하는 개략도. 5 is a schematic diagram showing a second embodiment of an image processing apparatus according to the present invention;

동일한 참조번호가 모든 도면에 걸쳐 유사한 부분을 나타내기 위해서 사용된다. Like reference numerals are used to designate like parts throughout all the figures.

도 1은 본 발명에 따른 방법을 개략적으로 도시하며, 카메라는 입력 이미지(102, 104, 106)을 포착하는 동안 정지해 있다. 입력 이미지(102, 104, 106)는 물체, 즉 균일한 배경 앞에서 움직이는 공(100)을 나타낸다. 카메라는 입력 이미지(102,104,106)를 포착하는 동안 움직이지 않는다. 공(100)이 입력 이미지(102,104,106)에 대응하는 픽셀 매트릭스에 대해서 왼쪽에서 오른쪽으로 이동하는 것이 분명하게 보여질 수 있다. 입력 이미지(102,104,106)에 기초하는 출력 이미지(108)는 각각의 입력 이미지(102, 104, 106)의 다수의 슬라이스(110, 112, 114)를 포함한다. 슬라이스(slice)는 입력 이미지의 다수의 열(또는 행)에 대응하는 픽셀 세트를 의미한다. 도 1에서의 화살표는 입력 이미지(102,104,106)로부터 취해지는 슬라이스와 출력 이미지(108)를 형성하기 위해 결합 되는 슬라이스들 사이의 관계를 묘사한다. 이들 슬라이스들의 크기는 픽셀 매트릭스에 대한 공(100)의 움직임에 기초한다. 출력 이미지(108)는 또한 제1 입력 이미지(102)의 시작 부분(116)과 마지막 입력 이미지(106)의 종료 부분(118)을 또한 포함한다. 시작 부분(116) 및 종료 부분(118)의 크기는 공(100)의 움직임에 관련되지 않는다. 1 schematically shows a method according to the invention, wherein the camera is stationary while capturing input images 102, 104, 106. Input images 102, 104, 106 represent an object, ie a ball 100, moving in front of a uniform background. The camera does not move while capturing input images 102, 104, 106. It can be clearly seen that the ball 100 moves from left to right with respect to the pixel matrix corresponding to the input images 102, 104, 106. The output image 108 based on the input images 102, 104, 106 includes a plurality of slices 110, 112, 114 of each input image 102, 104, 106. Slice refers to a set of pixels corresponding to multiple columns (or rows) of the input image. Arrows in FIG. 1 depict the relationship between slices taken from input images 102, 104, 106 and slices that are combined to form output image 108. The size of these slices is based on the movement of the ball 100 with respect to the pixel matrix. The output image 108 also includes a start portion 116 of the first input image 102 and an end portion 118 of the last input image 106. The size of the starting portion 116 and the ending portion 118 is not related to the movement of the ball 100.

도 2a는 본 발명에 따른 방법을 개략적으로 도시하며, 카메라는 입력 이미지를 포착하는 동안 패닝한다. 입력 이미지(102,104,106)는 물체, 즉 집 앞에서 움직이는 공(100)을 나타낸다. 카메라는 입력 이미지(102,104,106)를 포착하는 동안 패닝한다. 카메라 및 공의 움직임의 방향은 상호 동일하다. 카메라 움직임의 속도 는 볼(100)의 속도보다 빠르다. 입력 이미지(102,104,106)에 기초하는 출력 이미지(208)는 각각의 입력 이미지(102,104,106)의 다수의 슬라이스(110,112,114)를 포함한다. 도 2a에서의 화살표는 입력 이미지(102,104,106)로부터 취해진 슬라이스들과 출력 이미지(208)로부터 결합된 슬라이스들 사이의 관계를 묘사한다. 이들 슬라이스들의 크기는 배경에 대하여 볼(100)의 움직임에 기초한다. 출력 이미지(208)는 또한 제1 입력 이미지(102)의 시작 부분(116)과 최종 입력 이미지(106)의 종료 부분(118)을 포함한다. 시작부분(116) 및 종료부분(118)의 크기는 공(100)의 움직임과 관련되지 않는다. 출력 이미지(208)와 입력 이미지(102,104,106)를 비교함으로써, 출력 이미지가 더욱더 크다는 것이 명백해진다. 출력 이미지(208)는 다른 입력 이미지들은 집의 일부를 도시하는 완전한 집을 도시한다. 그것은 본 발명에 따른 방법이 공간적으로 관련된 이미지 데이터 또한 선택적으로 결합 되어 상대적으로 큰 출력 이미지를 야기한다는 것을 의미한다. 2a schematically illustrates the method according to the invention, wherein the camera pans while capturing the input image. Input images 102, 104, 106 represent an object, a ball 100 moving in front of a house. The camera pans while capturing the input images 102, 104, 106. The direction of camera and ball movement is the same. The speed of the camera movement is faster than the speed of the ball 100. The output image 208 based on the input images 102, 104, 106 includes a plurality of slices 110, 112, 114 of each input image 102, 104, 106. The arrows in FIG. 2A depict the relationship between slices taken from input images 102, 104, 106 and combined slices from output image 208. The size of these slices is based on the movement of the ball 100 with respect to the background. The output image 208 also includes a start portion 116 of the first input image 102 and an end portion 118 of the final input image 106. The size of start 116 and end 118 are not related to the movement of ball 100. By comparing the output image 208 with the input images 102, 104, 106, it becomes apparent that the output image is even larger. The output image 208 shows a complete house where the other input images show part of the house. That means that the method according to the invention also selectively combines spatially related image data, resulting in a relatively large output image.

입력 이미지의 새로운 슬라이스가 그때까지 구성된 바와 같이 출력 이미지에 추가될 때마다, 새로운 출력 이미지가 생성된다는 것이 분명해질 것이다. 다시 말해서, 슬라이스로 추가되는 제1 출력 이미지는 제2 출력 이미지가 된다. 건설중인 그러한 일련의 출력 이미지를 도시하는 것은 사용자에게 이벤트의 경과된 부분의 히스토리와 결합한 생생한 동적인 이벤트의 인상을 준다. 사용자는 크기에 있어서 다른 일련의 출력 이미지를 보게 된다, 즉 후속하는 출력 이미지는 자신의 선행 이미지보다 크다. It will be apparent that whenever a new slice of the input image is added to the output image as configured so far, a new output image is created. In other words, the first output image added to the slice becomes the second output image. Showing such a series of output images under construction gives the user the impression of a lively dynamic event combined with the history of the elapsed portion of the event. The user sees a series of output images that differ in size, ie, the subsequent output image is larger than their preceding image.

대안적으로, 우선 상대적으로 큰 전체 이미지는 입력 이미지들의 시퀀스에 기초하여 건설되며, 전체 이미지는 입력 이미지에 의해서 포착되는 전체 장면(scene)을 나타낸다. 하지만, 위에서 기재된 복제(duplicate)는 없다. 이는 움직이는 물체를 나타내는 픽셀을 포함하지 않는 픽셀의 스트립(strip)을 사용하여 바람직하게 행해진다. 전형적으로 이들 스트립(strip)은 입력 이미지들의 경계에 위치된다. 이들 스트립의 크기는 추적될 특정 물체의 움직임과 관련되지 않지만, 카메라에 대한 배경의 움직임에는 관련된다. 그러한 큰 전체 이미지를 생성한 후 본 발명에 따른 방법이 적용된다. 상기 방법의 중간 결과, 즉 후속하는 출력 이미지들은 전체 이미지에 결합한다. 기본적으로, 이는 후속하는 출력 이미지들이 각각의 부분, 즉 전체 이미지의 나머지 부분들에 추가된다는 것을 의미한다. 도 2b는 이러한 접근에 따라 건설되는 다수의 출력 이미지(202,204,208)를 개략적으로 도시한다. 출력 이미지(202)의 제1 이미지는 공(100)이 단지 한번 보여지는 상기 전체 이미지를 도시한다. 출력 이미지(204)의 제2 이미지에서 공(100)은 두 번 보일 수 있고, 출력 이미지(208)의 제3 이미지에서 공(100)은 세 번 보일 수 있다. Alternatively, a relatively large full image is first constructed based on a sequence of input images, which represents the entire scene captured by the input image. However, there is no duplicate described above. This is preferably done using strips of pixels that do not contain pixels representing moving objects. Typically these strips are located at the boundaries of the input images. The size of these strips is not related to the movement of the particular object to be tracked, but to the movement of the background relative to the camera. After generating such a large overall image the method according to the invention is applied. The intermediate result of the method, ie the subsequent output images, is combined into the whole image. Basically this means that subsequent output images are added to each part, ie the remaining parts of the whole image. 2B schematically illustrates a number of output images 202, 204, 208 constructed according to this approach. The first image of the output image 202 shows the entire image where the ball 100 is shown only once. The ball 100 can be seen twice in the second image of the output image 204, and the ball 100 can be seen three times in the third image of the output image 208.

도 3은 축구 경기의 다수의 입력 이미지(102,104,106)와 이들 입력 이미지(102, 104, 106)에 기초하여 본 발명에 따라 생성되는 출력 이미지(308)를 개략적으로 도시한다. 도시된 입력 이미지(102,104,106)는 연속적인 입력 이미지들의 긴 시퀀스의 일부라는 것이 주목되어야 한다. 이러한 입력 이미지들(102,104,106)은 축구 경기를 나타낸다. 입력 이미지(102)의 제1 이미지에서 선수가 공(100)을 차는 것이 도시될 수 있다. 원을 보아라. 입력 이미지(104)의 제2 이미지에서 공(100)이 하늘을 향해서 날아가는 것을 볼 수 있다. 다시 원안을 보아라. 입력 이 미지(106)의 제3 이미지 내에서 공(100)이 골문에 이르는 것을 볼 수 있다. 도 3은 또한 도시된 입력 이미지(102,104,106) 그리고 도시되지 않은 대략 40개의 입력 이미지에 기초하는 출력 이미지(308)를 도시한다. 공의 실제 궤적은 출력 이미지(308)에서 분명하게 보인다. FIG. 3 schematically illustrates a number of input images 102, 104, 106 of a soccer game and an output image 308 generated in accordance with the present invention based on these input images 102, 104, 106. It should be noted that the illustrated input images 102, 104, 106 are part of a long sequence of consecutive input images. These input images 102, 104, 106 represent a soccer game. It can be seen that the player kicks the ball 100 in the first image of the input image 102. See the circle. It can be seen in the second image of the input image 104 that the ball 100 flies towards the sky. See the original again. It can be seen that the ball 100 reaches the goal within the third image of the input image 106. 3 also shows an output image 308 based on the shown input images 102, 104, 106 and approximately 40 input images not shown. The actual trajectory of the ball is clearly seen in the output image 308.

도 4는 본 발명에 따른 이미지 프로세싱 장치(100)의 제1 실시예를 도시한다. 이미지 프로세싱 장치(400)는 자신의 이미지 입력 커넥터(410)에서 입력 이미지들의 시퀀스를 제공받고, 중간 출력 이미지의 시퀀스 및 자신의 이미지 출력 커넥터(414)에서 최종 출력 이미지를 제공하기 위해서 배열된다. 바람직하게, 본 발명에 따른 이미지 프로세싱 장치는 사용자 대화, 예컨대 다수의 입력 이미지에서 관심의 물체를 지시하는 사용자에 의해서, 제공되는 위치 정보에 의해서 제공된다. 이미지 프로세싱 장치(100)는, 4 shows a first embodiment of an image processing apparatus 100 according to the present invention. The image processing apparatus 400 is arranged to receive a sequence of input images at its image input connector 410 and to provide a sequence of intermediate output images and a final output image at its image output connector 414. Preferably, the image processing apparatus according to the present invention is provided by location information provided by a user dialogue, for example by a user instructing an object of interest in a plurality of input images. Image processing apparatus 100,

- 입력 이미지의 제1 이미지에서 특정 물체의 특정 부분의 위치를 위치 정보 입력 인터페이스(412)에 의해서 수신하는 단계;Receiving by the location information input interface 412 the location of a particular part of the particular object in the first image of the input image;

- 입력 메모리 디바이스(402)에 일시적으로 저장된 입력 이미지들 중의 제1 이미지로부터 픽셀 프로세서(404)에 의해서, 특정 물체의 특정 부분에 대응하는 제1 픽셀 그룹을 취하는 단계;Taking, by the pixel processor 404 from the first one of the input images temporarily stored in the input memory device 402, a first group of pixels corresponding to a particular portion of the particular object;

- 입력 이미지의 제2 이미지에서 특정 물체의 특정 부분을 지역화 유닛(408)에 의해서 지역화하는 단계;Localizing by localization unit 408 a particular portion of a particular object in a second image of the input image;

- 입력 이미지들 중 제1 이미지 후에 입력 메모리 디바이스(402)에 일시적으로 저장된 입력 이미지들의 제2 이미지로부터 픽셀 프로세서(404)에 의해서, 특정 물체의 특정 부분에 또한 대응하는 제2 픽셀 그룹을 가져오는 단계; 그리고Obtaining, by the pixel processor 404 from the second image of the input images temporarily stored in the input memory device 402 after the first one of the input images, a second group of pixels also corresponding to a particular portion of the particular object. step; And

- 출력 이미지를 형성하기 위해서 제1 픽셀 그룹에 제2 픽셀 그룹을 추가하는 단계를 수행할 수 있는 능력을 가지는 프로세싱 수단을 포함한다. 픽셀 프로세서(404)는 접근된 제2 그룹 픽셀 값을 복사하고, 출력 메모리 디바이스(406)에서의 적절한 위치에서 픽셀 값에 대한 사본을 쓰도록 배열된다. Processing means having the ability to perform the step of adding a second pixel group to the first pixel group to form an output image. The pixel processor 404 is arranged to copy the accessed second group pixel value and to write a copy of the pixel value at the appropriate location in the output memory device 406.

도 5는 본 발명에 따른 이미지 프로세싱 장치(500)의 제2 실시예를 개략적으로 도시한다. 이러한 실시예(500)는 기본적으로 도 4에 관련하여 설명되는 실시예(400)과 기본적으로 동일하다. 차이점은 이러한 실시예(500)가 카메라 움직임을 보상하기 위해서 배열된다는 점이다. 이미지 프로세싱 장치의 이러한 실시예는 카메라 움직임의 효과를 보상하기 위해서 배경의 움직임 추정을 수행하기 위해서 배열된다. 이러한 실시예(5400)은 제2 입력 이미지의 시간적인 저장을 위한 추가적인 메모리 디바이스를 포함한다. 지역화 유닛(408)은 관심의 목표, 즉 입력 이미지들의 시퀀스 내에서 추적될 특정 물체에 대한 위치 정보가 제공된다. 그외에도, 지역화 유닛(408)은 목표물이 전면에서 움직이는 배경에 대해 글로벌 움직임 벡터를 계산하도록 배열된다. 글로벌 움직임 벡터는 한 쌍의 입력 이미지들에 기초하여 계산될 다수의 움직임 벡터를 결합함으로써 계산된다. 모션 벡터는 지역화 유닛(408)에 바람직하게 통합되는 표준 움직임 추정기에 의해서 계산된다. 움직임 추정기는 예컨대 비디오 기술에 대한 회로 및 시스템에 대한 1993년 10월자 IEEE 회보(페이지 368-379, 3권, 5번)에서 G. de Haan 등에 의한 논문, "True-Motion Estimation with 3-D Recursive Search Block Matching"에서 명시된 바와 같다. 5 schematically shows a second embodiment of an image processing apparatus 500 according to the present invention. This embodiment 500 is basically the same as the embodiment 400 described with reference to FIG. 4. The difference is that this embodiment 500 is arranged to compensate for camera movement. This embodiment of the image processing apparatus is arranged to perform motion estimation of the background to compensate for the effects of camera movement. This embodiment 5400 includes an additional memory device for temporal storage of the second input image. The localization unit 408 is provided with the target of interest, i.e., location information for the particular object to be tracked within the sequence of input images. In addition, the localization unit 408 is arranged to calculate a global motion vector against the background in which the target is moving in front. The global motion vector is calculated by combining a number of motion vectors to be calculated based on a pair of input images. The motion vector is calculated by a standard motion estimator which is preferably integrated into localization unit 408. Motion estimators are described, for example, by G. de Haan et al., In the October 1993 IEEE Bulletin on Circuits and Systems for Video Technology (pages 368-379, Volume 3, No. 5), "True-Motion Estimation with 3-D Recursive Search Block Matching ".

대안적으로, Electronics Letters의 Vol 25, 페이지 29-30에서 J.S.Kim 및 R.H. Park에 의한 논문, "feature-based block matching algorithm integral projections" 에서 개시된 것처럼, 전체 이미지에 대한 움직임 벡터가 평균 이미지-행(x-성분) 그리고 평균 이미지-칼럼(y-성분)에 기초하여 계산된다.Alternatively, J.S.Kim and R.H., Vol. 25, pages 29-30 of Electronics Letters. As disclosed in the paper by Park, "feature-based block matching algorithm integral projections", motion vectors for the entire image are calculated based on the average image-row (x-component) and the average image-column (y-component). .

픽셀 프로세서(404)와 지역화(localization) 유닛(408)은 하나의 프로세서를 사용하여 구현될 수 있다. 정상적으로, 이들 기능들은 소프트웨어 프로그램 제품 하에서 수행된다. 실행 중에, 정상적으로 소프트웨어 프로그램 제품은 RAM과 같은 메모리로 로드되고 거기로부터 실행된다. 프로그램은 ROM, 하드디스크, 또는 자기적 및/또는 광학적 저장 장치와 같은 배경 메모리로부터 로드되거나 또는 인터넷과 같은 네트워크를 통해서 로드될 수 있다. 선택적으로, 응용 주문형 집적 회로(ASIC)는 개시된 기능성을 제공한다.The pixel processor 404 and localization unit 408 may be implemented using one processor. Normally, these functions are performed under a software program product. During execution, normally the software program product is loaded into memory such as RAM and executed from there. The program may be loaded from a ROM, hard disk, or background memory such as magnetic and / or optical storage, or over a network such as the Internet. Optionally, application specific integrated circuits (ASICs) provide the functionality disclosed.

도 5에 묘사된 바와 같은 이미지 프로세싱 장치의 실시예의 작동은 축구에서의 프리킥을 나타내는 입력 이미지 시퀀스를 포함하는 예를 사용하여 설명될 것이다. 약간의 입력 이미지들, 즉 비디오 프레임들이 도 3에 도시된다. 카메라는 일정치 않은 속도로 킥의 위치에서 골로 패닝(panning)할 것이다. 출력 이미지에서 포착될 동적인 이벤트는 골문을 향해서 날아가는 공이며, 따라서 공은 입력 이미지의 시퀀스에서 추적되어야만 한다.Operation of an embodiment of an image processing apparatus as depicted in FIG. 5 will be described using an example comprising an input image sequence representing a free kick in soccer. Some input images, ie video frames, are shown in FIG. 3. The camera will pan to the goal at the position of the kick at a constant speed. The dynamic event to be captured in the output image is the ball flying towards the goal, so the ball must be tracked in the sequence of the input image.

공의 움직임은 x 방향으로 일정한 속도를 사용함으로써 근사화될 수 있다(이는 입력 이미지에서 왼편-오른편 축을 따라 존재한다). 이는 킥과, 골네트와 같은 물체와의 제1 후속 접촉 사이의 공의 움직임의 합리적인 추정이다. 이러한 예에서, y 방향에서의 움직임은 무시된다{입력 이미지에서 탑-바텀(top-bottom) 축}. 축구공의 x 위치에 대해서 다음 식이 유도된다.The motion of the ball can be approximated by using a constant velocity in the x direction (which exists along the left-right axis in the input image). This is a reasonable estimate of the ball's movement between the kick and the first subsequent contact with an object such as a goal net. In this example, the movement in the y direction is ignored (top-bottom axis in the input image). For the x position of the soccer ball, the following equation is derived.

Figure 112006081360569-PCT00001
Figure 112006081360569-PCT00001

n0는 기준 입력 이미지 번호이며, 스크린(xscreen), 즉 픽셀 메트릭스 상에서의 공의 x위치, 그리고 카메라의 상대적인 위치(xcamera)는 알려진 것으로 간주 된다. 공의 실제 위치는 스크린 위치와 카메라 위치의 합계에 의해서 주어진다. n 0 is the reference input image number, where x screen , the x position of the ball on the pixel matrix, and the x camera relative position (x camera ) are considered known. The actual position of the ball is given by the sum of the screen position and the camera position.

예를 들면, 만일 공이 "실제" 세계에서 오른쪽으로 이동한다면, 카메라가 공이 움직이는 것보다 오른쪽으로 빨리 움직여서, 이 경우 공이 스크린상에서 왼쪽으로 움직이는 것처럼 보이는 것이 가능하다. 이들 효과를 보상하기 위해서, 카메라 위치는 수학식(1)에 포함된다. For example, if the ball moves to the right in the "real" world, it is possible that the camera moves to the right faster than the ball moves, in which case the ball appears to move left on the screen. To compensate for these effects, the camera position is included in equation (1).

만일 입력 이미지(n1)에서 제2 스크린 위치가 알려지면, 실제 속도(v)는 다음 식을 사용하여 계산될 수 있다. If the second screen position in the input image n 1 is known, the actual speed v can be calculated using the following equation.

Figure 112006081360569-PCT00002
Figure 112006081360569-PCT00002

이러한 실시예에서, 사용자는 이벤트의 시작 및 종료 지점들을 제공하기 위해서뿐만 아니라, 속도를 결정할 수 있도록 하기 위해, 입력 이미지(ni)에 대한 두 개 이상의 공간-시간적 위치들{Xscreen(ni)}을 제공하도록 요구된다.In such an embodiment, the user may not only provide the start and end points of the event, but also be able to determine the velocity, two or more space-temporal locations with respect to the input image n i {X screen (n i }} Is required.

글로벌 움직임 추정 알고리즘을 사용하여 각각의 입력 이미지(n)에 대한 상대적인 카메라 위치{xcamera(n)}는 비디오 시퀀스로부터 자동으로 계산된다. 그 다음 v는 이벤트에 대해서, 그리고 각각의 입력 이미지(n)에 대해서 수평적인 관심 지역, 즉 스크린 좌표에서 입력 이미지들의 다수의 열을 포함하는 슬라이스들은 수학식 1로부처 계산될 수 있는 xscreen(n) 주위에 중심을 둔다. Using a global motion estimation algorithm, the relative camera position {x camera (n)} for each input image n is automatically calculated from the video sequence. V then slices containing multiple columns of input images in the region of interest, i.e., screen coordinates, that are horizontal for the event and for each input image n, can be computed by using x screen ( n) Center around.

Figure 112006081360569-PCT00003
Figure 112006081360569-PCT00003

이들 관심지역, 즉 슬라이스는 출력 이미지의 적절한 부분으로 복사된다. These regions of interest, or slices, are copied into the appropriate portion of the output image.

여기서 제시되는 실시예는, 더욱더 진보된 프로세싱 기술로 극복될 수 있는 특정한 점에 제한된다. 특히, "흥미있는 물체"의 시작 및 종료 위치들뿐만 아니라 시작 및 종료 입력 이미지들을 제공하기 위한 사용자 대화에 의존한다. 이는 (물체에 기초한) 움직임 추정 및 이벤트에 대한 시작 및 종료 프레임에 대한 지능적인 자동 선택들을 사용하여 더욱 일반화될 수("공을 추적할 수") 있다. The embodiments presented herein are limited to certain aspects that can be overcome with more advanced processing techniques. In particular, it relies on the user dialogue to provide start and end input images as well as start and end positions of the "interesting object". This can be more generalized (“ball tracking”) using intelligent automatic selection of start and end frames for motion estimation (object-based) and events.

본 발명에 따른 상기 방법, 컴퓨터 프로그램 제품 및 이미지 프로세싱 장치는 몇몇 아래와 같은 애플리케이션에 대해서 유익하다:The method, computer program product and image processing apparatus according to the present invention are beneficial for some of the following applications:

- 필름 스튜디오, 방송 스튜디오 또는 신문 및 다른 유형의 인쇄매체에서와 같은 전문적인 이미지 프로세싱;Professional image processing, such as in film studios, broadcast studios or newspapers and other types of print media;

- TV, 세-탑 박스 및 개인용 비디오 레코딩 디바이스와 같은 가전 디바이스들;Household appliances devices such as TVs, three-top boxes and personal video recording devices;

교육용 목적; 그리고Educational purposes; And

예컨대, 홈 비디오를 제작하기 위한 가정용 비디오 프로세싱 소프트웨어.For example, home video processing software for producing home video.

상기 실시예들은 본 발명을 제한하기보다는 예시하며, 당업자들은 추가된 청구항들의 범위를 벗어나지 않고 대안적인 실시예를 설계할 수 있다는 점에 주목해야만 한다. 청구항에서, 괄호 안에 놓인 임의의 참조 부호는 청구항을 제한하는 것으로 해석되지 말아야 한다. "포함하는"이라는 용어는 청구항에 열거되지 않은 요소들 또는 단계들의 존재를 배제하지 않는다. 단수요소는 복수요소를 배제하지 않는다. 본 발명은 몇몇 개별적인 요소를 포함하는 하드웨어에 의해서 그리고 적절한 프로그램된 컴퓨터에 의해서 구현될 수 있다. 몇몇 수단을 열거하는 장치 청구항에서, 이들 수단들의 몇몇은 하나의 동일한 하드웨어 아이템에 이해서 구현될 수 있다. 제1, 제2 및 제3 등의 용어의 사용은 임의의 순서를 지시하지 않는다. 이들 단어들은 명칭으로서 해석될 것이다.It should be noted that the above embodiments illustrate rather than limit the invention, and that those skilled in the art can design alternative embodiments without departing from the scope of the appended claims. In the claims, any reference signs placed between parentheses shall not be construed as limiting the claim. The term "comprising" does not exclude the presence of elements or steps not listed in a claim. Singular elements do not exclude plural elements. The invention can be implemented by means of hardware comprising several individual elements and by means of a suitable programmed computer. In the device claim enumerating several means, several of these means may be implemented following one and the same hardware item. The use of terms such as first, second and third does not indicate any order. These words will be interpreted as names.

본 발명은 시간적으로 연속적인 입력 이미지의 시퀀스에 기초하여 출력 이미지를 생성하기 위한 방법에 관련되며, 시간적으로 연속적인 입력 이미지의 시퀀스에 기초하여 출력 이미지를 생성하기 위한, 명령을 포함하는 컴퓨터 장치에 의해서 로드되는 컴퓨터 프로그램 제품과 이미지 프로세싱 장치에 이용가능하다. The present invention relates to a method for generating an output image based on a sequence of input images temporally continuous, and to a computer device comprising instructions for generating the output image based on a sequence of input images temporally continuous. It is available for computer program products and image processing devices that are loaded by.

Claims (14)

시간적으로 연속적인 입력 이미지들의 시퀀스에 기초하여 출력 이미지(108)를 생성하기 위한 방법으로서, A method for generating an output image 108 based on a sequence of temporally successive input images, - 입력 이미지(102)의 제1 이미지에서 특정 물체(100)의 특정 부분을 확인하는 단계;Identifying a particular portion of the particular object 100 in the first image of the input image 102; - 입력 이미지(102)의 제1 이미지로부터, 특정 물체(100)의 특정 부분에 대응하는 제1 픽셀 그룹(110)을 가져오는 단계;Fetching, from the first image of the input image 102, a first group of pixels 110 corresponding to a particular portion of the particular object 100; - 입력 이미지(104)의 제2 이미지에서 특정 물체(100)의 특정 부분을 지역화하는 단계;Localizing a particular portion of a particular object 100 in a second image of the input image 104; - 입력 이미지(104)의 제2 이미지로부터, 특정 물체(100)의 특정 부분에 대응하는 제2 픽셀그룹(110)을 가져오는 단계; 그리고Obtaining from the second image of the input image 104 a second group of pixels 110 corresponding to a particular portion of the particular object 100; And - 출력 이미지를 형성하기 위해서 제1 픽셀 그룹(110)에 제2 픽셀 그룹(110)을 추가하는 단계Adding a second pixel group 110 to the first pixel group 110 to form an output image. 를 포함하는, 출력 이미지를 생성하기 위한 방법.And a method for generating an output image. 제 1항에 있어서, 상기 추가 단계는 제1 그룹 픽셀(110)과 제2 픽셀 그룹(110)의 각각의 픽셀 값들을 가중 합하는 단계를 포함하는, 출력 이미지를 생성하기 위한 방법.2. The method of claim 1, wherein the further step comprises weighting the respective pixel values of the first group pixel (110) and the second pixel group (110). 제 1항에 있어서, 제1 픽셀 그룹(110)은 입력 이미지(102)의 제1 이미지의 다수의 픽셀 열의 픽셀에 대응하는, 출력 이미지를 생성하기 위한 방법.The method of claim 1, wherein the first group of pixels (110) corresponds to pixels of a plurality of pixel columns of the first image of the input image (102). 제 1항에 있어서, 제1 픽셀 그룹(110)은 입력 이미지(102)의 제1 이미지의 픽셀의 다수의 행의 픽셀들에 대응하는, 출력 이미지를 생성하기 위한 방법.The method of claim 1, wherein the first pixel group (110) corresponds to pixels of a plurality of rows of pixels of the first image of the input image (102). 제 3항에 있어서, 픽셀 열의 수는 상기 특정 물체(100)의 추적(tracking)에 기초하는, 출력 이미지를 생성하기 위한 방법.The method of claim 3, wherein the number of pixel columns is based on tracking of the particular object (100). 제 4항에 있어서, 픽셀 행의 수는 상기 특정 물체(100)의 추적에 기초하는, 출력 이미지를 생성하기 위한 방법.5. A method according to claim 4, wherein the number of pixel rows is based on the tracking of the particular object (100). 제 5항 또는 제 6항에 있어서, 상기 추적은 다수의 움직임 벡터 후보의 평가에 기초하며, 상기 평가는 최소의 매치 에러(match error)의 수립을 포함하는, 출력 이미지를 생성하기 위한 방법.7. The method of claim 5 or 6, wherein the tracking is based on evaluation of a plurality of motion vector candidates, the evaluation comprising establishing a minimum match error. 제 7항에 있어서, 상기 매치 에러는 상기 입력 이미지(102)의 제1 이미지 그리고/또는 입력 이미지(104)의 제2 이미지에서 상기 특정 물체(100)에 대응하는 각각의 픽셀 값들 사이에 차이에 대응하는, 출력 이미지를 생성하기 위한 방법.The method of claim 7, wherein the match error is based on a difference between respective pixel values corresponding to the particular object 100 in the first image of the input image 102 and / or the second image of the input image 104. Correspondingly, a method for generating an output image. 제 5항에 있어서, 상기 픽셀 열의 수는 상기 입력 이미지(102)의 제1 이미지 및/또는 상기 입력 이미지(104)의 제2 이미지에서 배경(background)의 움직임에 대한 추적에 기초하는, 출력 이미지를 생성하기 위한 방법.The output image according to claim 5, wherein the number of pixel columns is based on tracking of the movement of the background in the first image of the input image 102 and / or the second image of the input image 104. Method for generating. 제 6항에 있어서, 상기 픽셀 행의 수는 입력 이미지(102)의 제1 이미지 및/또는 상기 입력 이미지(104)의 제2 이미지에서 배경의 움직임에 대한 추적에 기초하는, 출력 이미지를 생성하기 위한 방법.The output image of claim 6, wherein the number of pixel rows is based on tracking the movement of the background in the first image of input image 102 and / or the second image of input image 104. Way. 제 5항에 있어서, 픽셀 열의 수는:The method of claim 5, wherein the number of pixel columns is: - 상기 입력 이미지(102)의 제1 이미지에서 특정 물체(100)의 특정 부분을 확인하는 것에 기초하여 제1 픽셀의 좌표를 결정하는 단계;Determining coordinates of a first pixel based on identifying a particular portion of a particular object (100) in the first image of the input image (102); - 상기 입력 이미지의 제3 이미지에서 특정 물체(100)의 특정 부분을 확인하는 것에 기초하여 제2 픽셀 좌표를 결정하는 단계; Determining second pixel coordinates based on identifying a particular portion of a particular object (100) in the third image of the input image; - 상기 입력 이미지(102)의 제1 이미지와 입력 이미지의 제3 이미지 사이에 시간적으로 위치하고 있는 연속적인 입력 이미지들의 수를 결정하는 단계; 그리고Determining the number of consecutive input images located in time between the first image of the input image 102 and the third image of the input image; And - 제1 픽셀 좌표, 제2 픽셀 좌표, 연속적인 입력 이미지의 수에 기초하여 열의 수를 계산하는 단계에 의해 계산되는 출력 이미지를 생성하는 방법.A method of producing an output image calculated by calculating the number of columns based on the first pixel coordinate, the second pixel coordinate, the number of consecutive input images. 컴퓨터 장치에 의해서 로드되는 컴퓨터 프로그램 제품으로서, A computer program product loaded by a computer device, 시간적으로 연속적인 입력 이미지들의 시퀀스에 기초하여 출력 이미지(108) 를 생성하기 위한 명령을 포함하며, 상기 컴퓨터 장치는 프로세싱 수단과 메모리를 포함하며, 상기 컴퓨터 프로그램 제품은, 로드된 후에, 상기 프로세싱 수단에:Instructions for generating an output image 108 based on a sequence of temporally successive input images, wherein the computer device comprises processing means and a memory, the computer program product, after being loaded, the processing means on: - 상기 입력 이미지(102)의 제1 이미지에서 특정 물체(100)의 특정 부분의 위치를 수신하고;Receive a position of a particular portion of a particular object (100) in the first image of the input image (102); - 상기 입력 이미지(102)의 제1 이미지로부터, 특정 물체(100)의 특정 부분에 대응하는 제1 픽셀 그룹을 가져오고;-From the first image of the input image 102, a first group of pixels corresponding to a particular part of a particular object 100; - 상기 입력 이미지(104)의 제2 이미지에서 특정 물체(100)의 특정 부분을 지역화하고;Localize a particular portion of a particular object 100 in the second image of the input image 104; - 입력 이미지(104)의 제2 이미지로부터, 특정 물체(100)의 특정 부분에 대응하는 제2 픽셀 그룹(110)을 가져오고; From the second image of the input image 104, a second group of pixels 110 corresponding to a particular portion of the particular object 100; - 상기 출력 이미지를 형성하기 위해 제1 픽셀 그룹(110)에 제2 픽셀 그룹(110)을 추가하는 것을Adding a second pixel group 110 to the first pixel group 110 to form the output image. 수행할 능력을 제공하는, 컴퓨터 프로그램 제품. A computer program product that provides the ability to perform. 시간적으로 연속적인 입력 이미지의 시퀀스에 기초하여 출력 이미지(108)를 생성하기 위해 배열된 이미지 프로세싱 장치로서, An image processing apparatus arranged to produce an output image 108 based on a sequence of temporally continuous input images, - 상기 입력 이미지(102)의 제1 이미지에 특정 물체(100)의 특정 부분의 위치를 수신하고;Receive a position of a particular portion of a particular object (100) in a first image of the input image (102); - 상기 입력 이미지(102)의 제1 이미지로부터 특정 물체(100)의 특정 부분에 대응하는 제1 픽셀 그룹(110)을 가져오고;Obtaining a first group of pixels (110) corresponding to a particular portion of a particular object (100) from a first image of the input image (102); - 상기 입력 이미지(104)의 제2 이미지에서 특정 물체(100)의 특정 부분을 지역화(localizing)하고;Localizing a particular portion of a particular object 100 in the second image of the input image 104; - 상기 입력 이미지(104)의 제2 이미지로부터, 특정 물체(100)의 특정 부분에 대응하는 제2 픽셀 그룹(110)을 가져오고;From the second image of the input image 104, a second group of pixels 110 corresponding to a particular portion of a particular object 100; - 상기 출력 이미지를 형성하기 위해서 제2 픽셀 그룹(110)을 제1 픽셀 그룹(110)에 추가하는 것을Adding a second pixel group 110 to the first pixel group 110 to form the output image. 수행할 수 있는 능력을 가지는 프로세싱 수단을 포함하는, 이미지 프로세싱 장치.And processing means having the ability to perform. 제 13항에 있어서, 상기 출력 이미지를 디스플레이하기 위한 디스플레이 지바이스를 추가로 포함하는, 이미지 프로세싱 장치.15. The image processing apparatus of claim 13, further comprising a display device for displaying the output image.
KR1020067023312A 2004-05-10 2005-05-03 Creating an output image KR20070008687A (en)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
EP04102018.1 2004-05-10
EP04102018 2004-05-10

Publications (1)

Publication Number Publication Date
KR20070008687A true KR20070008687A (en) 2007-01-17

Family

ID=34967091

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020067023312A KR20070008687A (en) 2004-05-10 2005-05-03 Creating an output image

Country Status (5)

Country Link
EP (1) EP1751711A1 (en)
JP (1) JP2007536671A (en)
KR (1) KR20070008687A (en)
CN (1) CN1950847A (en)
WO (1) WO2005109339A1 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20110093382A (en) * 2010-02-12 2011-08-18 삼성전자주식회사 Method for estimating depth information using depth estimation device

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
ATE280978T1 (en) * 1997-01-30 2004-11-15 Yissum Res Dev Co MOSAIC IMAGE PROCESSING SYSTEM
GB2354388B (en) * 1999-07-12 2003-08-13 Independent Television Commiss System and method for capture, broadcast and display of moving images

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20110093382A (en) * 2010-02-12 2011-08-18 삼성전자주식회사 Method for estimating depth information using depth estimation device

Also Published As

Publication number Publication date
EP1751711A1 (en) 2007-02-14
CN1950847A (en) 2007-04-18
WO2005109339A1 (en) 2005-11-17
JP2007536671A (en) 2007-12-13

Similar Documents

Publication Publication Date Title
Brostow et al. Image-based motion blur for stop motion animation
KR100271384B1 (en) Video merging employing pattern-key insertion
US20200134911A1 (en) Methods and Systems for Performing 3D Simulation Based on a 2D Video Image
Taylor et al. Ovvv: Using virtual worlds to design and evaluate surveillance systems
KR100918544B1 (en) Image processing apparatus and method and image pickup apparatus
US6724386B2 (en) System and process for geometry replacement
US9852767B2 (en) Method for generating a cyclic video sequence
EP1922863B1 (en) System and method for managing the visual effects insertion in a video stream
US20030012410A1 (en) Tracking and pose estimation for augmented reality using real features
US20120002112A1 (en) Tail the motion method of generating simulated strobe motion videos and pictures using image cloning
CN111050210A (en) Video patching via confidence weighted motion estimation
JPH11508099A (en) Scene Motion Tracking Method for Raw Video Insertion System
JP2008520052A5 (en)
Sanches et al. Mutual occlusion between real and virtual elements in augmented reality based on fiducial markers
WO2001039130A1 (en) Coordination and combination of video sequences with spatial and temporal normalization
WO2011121117A1 (en) Virtual camera system
Langlotz et al. AR record&replay: situated compositing of video content in mobile augmented reality
Grau et al. A robust free-viewpoint video system for sport scenes
JP2018206285A (en) Object tracking device and object trajectory generation system
KR20070008687A (en) Creating an output image
KR20010024416A (en) Static image generation method and device
KR100466587B1 (en) Method of Extrating Camera Information for Authoring Tools of Synthetic Contents
Kahn et al. Capturing of contemporary dance for preservation and presentation of choreographies in online scores
Taki et al. Dominant region: a basic feature for group motion analysis and its application to teamwork evaluation in soccer games
WO2002104009A1 (en) Method and system for combining video with spatio-temporal alignment

Legal Events

Date Code Title Description
WITN Application deemed withdrawn, e.g. because no request for examination was filed or no examination fee was paid