KR20070008687A - Creating an output image - Google Patents
Creating an output image Download PDFInfo
- Publication number
- KR20070008687A KR20070008687A KR1020067023312A KR20067023312A KR20070008687A KR 20070008687 A KR20070008687 A KR 20070008687A KR 1020067023312 A KR1020067023312 A KR 1020067023312A KR 20067023312 A KR20067023312 A KR 20067023312A KR 20070008687 A KR20070008687 A KR 20070008687A
- Authority
- KR
- South Korea
- Prior art keywords
- image
- input
- pixel
- group
- pixels
- Prior art date
Links
- 238000000034 method Methods 0.000 claims abstract description 41
- 230000033001 locomotion Effects 0.000 claims description 53
- 238000012545 processing Methods 0.000 claims description 28
- 238000004590 computer program Methods 0.000 claims description 10
- 239000013598 vector Substances 0.000 claims description 8
- 238000011156 evaluation Methods 0.000 claims description 3
- 238000010586 diagram Methods 0.000 description 6
- 239000011159 matrix material Substances 0.000 description 6
- 230000004807 localization Effects 0.000 description 5
- 238000013459 approach Methods 0.000 description 3
- 230000000694 effects Effects 0.000 description 2
- 238000005259 measurement Methods 0.000 description 2
- 230000003068 static effect Effects 0.000 description 2
- 230000007704 transition Effects 0.000 description 2
- 230000009286 beneficial effect Effects 0.000 description 1
- 238000010276 construction Methods 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 230000006870 function Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 230000002123 temporal effect Effects 0.000 description 1
- 238000013519 translation Methods 0.000 description 1
Images
Classifications
-
- G06T3/14—
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T3/00—Geometric image transformation in the plane of the image
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
Abstract
Description
본 발명은 시간적으로 연속적인 입력 이미지의 시퀀스에 기초하여 출력 이미지를 생성하기 위한 방법에 관한 것이다.The present invention relates to a method for generating an output image based on a sequence of input images that are temporally continuous.
본 발명은 추가로 시간적으로 연속적인 입력 이미지의 시퀀스에 기초하여 출력 이미지를 생성하기 위한 명령을 포함하는 컴퓨터 장치에 의해서 로드되는 컴퓨터 프로그램 제품에 관한 것이다.The invention further relates to a computer program product loaded by a computer device comprising instructions for generating an output image based on a sequence of temporally successive input images.
본 발명은 추가로 시간적으로 연속적인 입력 이미지의 시퀀스에 기초하여 출력 이미지를 생성하기 위해 배열되는 이미지 프로세싱 장치에 관한 것이다. The invention further relates to an image processing apparatus arranged to generate an output image based on a sequence of input images that are temporally contiguous.
시간적으로 연속적인 입력 이미지의 시퀀스를 보여주는 것의 장점은 동적인 사건이 시각화될 수 있는 것인데, 예컨대 배경에 대한 물체의 움직임이 도시될 수 있다. 예를 들어, 공의 실제 움직임이 관련되는 축구와 같은 스포츠 게임이 보여질 수 있다. 방송 중계 동안 축구 경기에 대응하는 이미지 시퀀스의 부분을 반복하는 것은 공통적인 특징이다. 전형적으로 이들 부분들은 게임의 가장 흥미로운 순간들에 대응한다. 하지만, 예를 들어 신문 또는 몇몇 다른 종류의 인쇄 매체에서 그러한 흥미로운 순간을 예시하는 것이 요구될 때, 상기 이벤트에 대한 매력의 상당부분이 손실될 것이다. 이는 신문에서의 화상이 이벤트의 움직임을 나타내지 못하기 때문이다. The advantage of showing a sequence of input images in time is that dynamic events can be visualized, such as the movement of an object relative to the background. For example, a sports game such as soccer may be shown in which the actual movement of the ball is involved. It is a common feature to repeat a portion of an image sequence corresponding to a soccer game during a broadcast relay. Typically these parts correspond to the most interesting moments of the game. However, when it is desired to exemplify such an interesting moment, for example in newspapers or some other kind of print media, much of the attraction to the event will be lost. This is because the images in the newspaper do not represent the movement of the event.
본 발명의 목적은 출력 이미지에서 동적인 이벤트를 요약하기 위한 서두에 기재된 종류의 방법을 제공하는 것이다. It is an object of the present invention to provide a method of the kind described at the outset for summarizing dynamic events in an output image.
본 발명의 이러한 목적은, 상기 방법이,This object of the invention is that the method,
- 입력 이미지의 제1 이미지에서 특정 목적의 특정부분을 확인하는 단계;Identifying a specific portion of the particular purpose in the first image of the input image;
- 입력 이미지 중 제1 이미지로부터, 특정 물체의 특정 부분에 대응하는 제1 픽셀 그룹을 가져오는 단계;Obtaining from the first image of the input image a first group of pixels corresponding to a particular portion of the particular object;
- 입력 이미지들 중 제2 이미지에서 상기 특정 물체의 상기 특정 부분을 지역화(localizing)하는 단계;Localizing the particular portion of the particular object in a second of the input images;
- 상기 입력 이미지들 중 제2 이미지로부터, 특정 물체의 특정 부분에 대응하는 제2 픽셀 그룹을 가져오는 단계; 그리고Obtaining from the second of the input images a second group of pixels corresponding to a particular portion of a particular object; And
- 상기 출력 이미지를 형성하기 위해서 제1 픽셀 그룹에 제2 픽셀 그룹을 첨부하는 단계를 포함한다는 사실로 달성된다. -Attaching a second group of pixels to a first group of pixels to form the output image.
동적인 이벤트를 예시하기 위한 명백한 기존의 접근법은 예컨대 인공적인 그래픽 표현과 같은 개략적인 그림(drawing)을 생성하는 것이다. 본 발명에 따른 상기 방법은 정적인 이미지, 즉 입력 이미지를 포함하는 시간상 다른 순간에 공간 이미지를 생성하기 위해서 시간적으로 연속적인 이미지, 즉 공간-시간적 데이터의 시퀀스가 사용된다는 점에서 다르다.An obvious existing approach to illustrating dynamic events is to create a schematic drawing, for example an artificial graphical representation. The method according to the invention differs in that a sequence of temporally successive images, ie, spatial-temporal data, is used to produce a spatial image at a different time in time, including a static image, i.e. an input image.
부분들은 동적인(x,y,t) 입력 이미지들로부터 선택되고, 단일 정지(x,y) 출력 이미지를 형성하기 위해서 결합 된다. 이는 정적인 출력 이미지가 예컨대 물체의 움직임과 같은 동적인 이벤트를 예시하도록 행해진다. 특징은 출력 이미지는 시간상 다른 순간에서 샘플된 특정 물체의 특정 부분의 이미지 데이터를 포함한다는 것이다. 다시 말해, 특정 물체의 특정 부분은 출력 이미지에서는 복수 회 출현한다. 이는 제2 픽셀 그룹이 전형적으로 제2 픽셀 그룹에 인접해 있는 제1 픽셀 그룹에 추가되기 때문이다. The portions are selected from the dynamic (x, y, t) input images and combined to form a single still (x, y) output image. This is done so that the static output image illustrates dynamic events, such as the movement of an object, for example. The feature is that the output image contains image data of a particular portion of a particular object sampled at different moments in time. In other words, certain parts of a particular object appear multiple times in the output image. This is because the second pixel group is typically added to the first pixel group adjacent to the second pixel group.
다른 더 작은 이미지들을 연결함으로써 하나의 대형 파노라마 그림을 생성하는 종래-기술과 뚜렷이 구분된다. 그러한 경우에, 공간적인 이미지 데이터 세트들은 더 큰 출력 이미지를 생성하기 위해 사용된다. 종래기술에 따른 이러한 방법에서, 연속적인 이미지들의 부분들은 달리 결합 된다. 전형적으로 공간적으로 겹쳐지는 이미지 영역들의 각각의 픽셀들이 병합된다. 결과는 각각의 물체가 출력 이미지에서 단지 한번 나타난다는 점이다.It is distinct from the prior-art, which creates one large panoramic picture by concatenating other smaller images. In such a case, spatial image data sets are used to generate a larger output image. In this method according to the prior art, parts of successive images are otherwise combined. Typically the pixels of each of the spatially overlapping image areas are merged. The result is that each object appears only once in the output image.
본 발명에 따른 방법에서 시간상 다른 순간들에서 단일 물체들을 나타내는 데이터가 명백하게 사용된다. In the method according to the invention, data representative of single objects at different moments in time is explicitly used.
본 발명에 따른 방법의 하나의 실시예에서, 상기 추가(appending)는 제1 픽셀그룹 및 제2 픽셀 그룹의 각각의 픽셀 들의 값들의 가중치 합(weighted summation)를 포함한다. 가중치 합의 장점은 제1 픽셀 그룹에서 제2 픽셀 그룹으로 휘도 그리고/또는 컬러에서의 전이가 부드럽게 진행된다는 것이다. 대안적으로, 제2 픽셀그룹은 제1 픽셀 그룹에 인접하게 놓인다. 전형적으로, 픽셀 그룹들의 위치를 정하고 전이를 위해 가중치 합계를 사용하는 것의 조합이 사용된다. 따라서 두 이미지의 부분들이 가중치 평균을 통해 또는 단지 상기 부분들을 서로에 인접하게 놓이게 함으로써 몇몇 형태의 보간을 통해서 선택되고 조합된다.In one embodiment of the method according to the invention, the appending comprises a weighted summation of the values of respective pixels of the first pixel group and the second pixel group. The advantage of the weight sum is that the transition in luminance and / or color proceeds smoothly from the first pixel group to the second pixel group. Alternatively, the second pixel group lies adjacent to the first pixel group. Typically, a combination of locating pixel groups and using weighted sums for transitions is used. Thus parts of the two images are selected and combined through some form of interpolation either by weighted average or by simply placing the parts adjacent to each other.
본 발명에 따른 방법에 따른 일 실시예에서, 제1 픽셀 그룹은 입력 이미지들의 제1 이미지의 많은 칼럼 픽셀들의 픽셀에 대응한다. 본 발명에 따른 방법에 대한 이러한 실시예에서, 제1 픽셀 그룹, 그리고 또한 연속적인 픽셀 그룹들은 입력 이미지에 대응하는 픽셀 매트릭스의 완전한 높이에 걸쳐 연장된다. 이는 특정 물제의 특정 부분을 나타내는 픽셀들을 포함하는 칼럼에 위치한 모든 픽셀들이 출력 이미지를 구성하기 위해서 일종의 슬라이스(slice)로서 선택되고 사용된다는 것을 의미한다. 다시 말해 출력이미지는 연속적인 입력 이미지들로부터 취해진 슬라이스 세트를 포함한다. 슬라이스들의 각각은 개별적인 입력 이미지들에 있어서 특정 물체의 특정 부분을 나타낸다. 전형적으로, 슬라이스들은 또한 배경을 나타내고, 이 배경 앞에서 특정 물체가 움직인다. 본 발명에 따른 이러한 실시예는 물체의 수평이동을 예시하는 출력 이미지를 생성하는데 장점이 있다. In one embodiment according to the method according to the invention, the first pixel group corresponds to the pixels of many column pixels of the first image of the input images. In this embodiment of the method according to the invention, the first pixel group, and also consecutive pixel groups, extend over the full height of the pixel matrix corresponding to the input image. This means that all pixels located in a column containing pixels representing a particular portion of a particular object are selected and used as a kind of slice to construct the output image. In other words, the output image contains a set of slices taken from successive input images. Each of the slices represents a particular portion of a particular object in separate input images. Typically, the slices also represent a background, in which certain objects move in front of the background. This embodiment according to the invention has the advantage of generating an output image illustrating the horizontal movement of the object.
본 발명에 따른 방법의 실시예에서, 제1 그룹의 픽셀들은 입력 이미지들의 제1 이미지의 많은 수의 행 픽셀들의 픽셀에 대응한다. 본 발명에 따른 이런 방법의 본 실시예에서 제1 픽셀 그룹 그리고 또한 연속적인 픽셀 그룹들은 입력 이미지에 대응하는 픽셀 매트릭스의 완전한 폭에 걸쳐 연장한다. 그것은 특정 물체의 특정부분을 나타내는 픽셀들을 포함하는 행에 위치하는 모든 픽셀들은 출력 이미지를 구성하기 위해서 일종의 슬라이스로서 선택되고 사용된다는 것을 의미한다. 다시 말해, 출력 이미지는 연속적인 입력 이미지로부터 취해진 슬라이스 세트를 포함한다. 슬라이스들의 각각은 개별적인 입력 이미지에서 특정 물체의 특정 부분을 나타낸다. 전형적으로, 슬라이스들은 또한 배경을 나타내고, 그 배경 전면에서 특정 물체가 움직인다. 본 발명에 따른 이러한 실시예는 물체의 수직 움직임을 예시하는 출력 이미지를 생성하는데 장점을 가진다. In an embodiment of the method according to the invention, the pixels of the first group correspond to the pixels of the large number of row pixels of the first image of the input images. In this embodiment of this method according to the invention the first pixel group and also the continuous pixel groups extend over the full width of the pixel matrix corresponding to the input image. That means that all the pixels located in the row containing the pixels representing a particular part of a particular object are selected and used as a kind of slice to compose the output image. In other words, the output image includes a set of slices taken from consecutive input images. Each of the slices represents a particular portion of a particular object in a separate input image. Typically, the slices also represent a background, with a particular object moving in front of the background. This embodiment according to the invention has the advantage of generating an output image illustrating the vertical movement of the object.
본 발명에 따른 방법의 실시예에서, 제1 그룹의 픽셀들은 입력 이미지들의 제1 이미지의 다수의 칼럼 픽셀들의 픽셀들에 대응한다. 픽셀들의 칼럼의 수는 특정 물체의 트랙킹(tracking)에 기초한다. 특정 물체의 움직임이 추정된다. 추정된 움직임은 제1 그룹들의 픽셀의 치수를 결정한다. 예컨대 만일 추정된 특정 물체의 특정 부분의 추정된 움직임이 20 픽셀과 동일하다면, 픽셀들의 칼럼의 수는 또한 20이다. In an embodiment of the method according to the invention, the pixels of the first group correspond to the pixels of the plurality of column pixels of the first image of the input images. The number of columns of pixels is based on tracking of a particular object. The movement of a particular object is estimated. The estimated motion determines the dimension of the pixels of the first groups. For example, if the estimated motion of a particular portion of the particular object estimated is equal to 20 pixels, the number of columns of pixels is also 20.
본 발명에 따른 방법의 실시예에서, 제1 픽셀 그룹들은 입력 이미지들 중의 제1 이미지의 픽셀들의 많은 수의 행의 픽셀에 대응하며, 픽셀들의 행의 수는 측정 물체의 트랙킹에 기초한다. 특정 물체의 움직임이 추정된다. 추정된 움직임은 제1 픽셀 그룹의 치수를 결정한다. 예컨대 만일 특정 물체의 특정부분의 추정된 움직임이 20 픽셀과 같다면, 픽셀 행의 수도 또한 20이다. In an embodiment of the method according to the invention, the first pixel groups correspond to the pixels of a large number of rows of pixels of the first image of the input images, the number of rows of pixels being based on the tracking of the measurement object. The movement of a particular object is estimated. The estimated motion determines the dimension of the first pixel group. For example, if the estimated motion of a particular portion of a particular object is equal to 20 pixels, then the number of pixel rows is also 20.
본 발명에 따른 일 실시예에서, 트랙킹은 많은 수의 움직임 벡터 후보들의 평가에 기초하며, 상기 평가는 최소 매치 에러(match error)의 수립을 포함하다. 이러한 기술은 일반적으로 움직임 추정으로 알려진다. 바람직하게, 매치 에러는 입력 이미지들 중의 제1 이미지 그리고/또는 입력 이미지들 중의 제2 이미지 내의 특정 물체에 대응하는 각각의 픽셀 값들 사이에서의 차이에 대응한다. In one embodiment according to the present invention, tracking is based on evaluation of a large number of motion vector candidates, which includes establishing a minimum match error. This technique is commonly known as motion estimation. Preferably, the match error corresponds to a difference between respective pixel values corresponding to a particular object in the first image of the input images and / or the second image of the input images.
움직임은 상대적이 양이다. 움직임은 연속적인 입력 이미지들의 픽셀 매트릭스에 대해서 표현될 수 있다. 만일 연속적인 입력 이미지들이 고정 위치 카메라에 이해서 얻어진다면, 그러한 접근법은 적절하다. 그것은 입력 이미지들의 제1 이미지에서의 특정 물체의 특정 부분의 좌표와 입력 이미지들 중의 제2 이미지에서 특정 물체의 측정부분의 좌표는 물체의 움직임을 계산하기 위해서 직접적으로 사용될 수있다. 하지만, 많은 경우에 카메라는 움직이는 물체를 포착하는 동안 패닝(panning) 그리고/또는 주밍(zooming)한다. 만일 시간적으로 연속적인 입력 이미지들의 시퀀스가 그러한 포착에 기초한다면, 이러한 카메라 움직임에 대한 수정이 선호된다. 본 발명에 따른 바람직한 실시예에서 픽셀 칼럼들의 수는 입력 이미지들의 제1 이미지 그리고 /또는 입력 이미지들의 제2 이미지에서 배경의 트랙킹 모션에 기초한다. 대안적으로, 픽셀 행의 숫자는 입력 이미지들 중 제1 이미지 그리고/또는 입력 이미지들 중의 제2 이미지에서 배경의 트랙킹 움직임에 기초한다. 배경에 따른 일반적인 보상에서 움직임 모델이 실현된다. 이는 소위 팬-줌 모델일 수 있다. 이는 배경 모델을 왕복운동(translation)과 축척 조정(scaling)의 조합으로 배경 모델을 모델화하지만, 그것은 더욱더 복잡하고, 투시적 프로젝센 및 회전(perspective projection and rotations)과 같은 다른 양상들을 또한 다룰 수 있다.The movement is relatively positive. The motion can be represented with respect to the pixel matrix of successive input images. If successive input images are obtained following a fixed position camera, such an approach is appropriate. It can be used directly to calculate the motion of the object, the coordinates of the particular part of the particular object in the first image of the input images and the coordinates of the measuring part of the particular object in the second image of the input images. In many cases, however, the camera pans and / or zooms while capturing moving objects. If a sequence of temporally successive input images is based on such capture, a modification to this camera movement is preferred. In a preferred embodiment according to the invention the number of pixel columns is based on the tracking motion of the background in the first image of the input images and / or the second image of the input images. Alternatively, the number of pixel rows is based on the tracking movement of the background in the first image of the input images and / or the second image of the input images. In the general compensation according to the background, the motion model is realized. This may be a so-called pan-zoom model. It models the background model with a combination of translation and scaling, but it is also more complex and can also deal with other aspects such as perspective projection and rotations. .
전술한 바와 같이, 취해진 칼럼/행의 수는 움직임에 기초한다. 이러한 움직임은 물체가 전면에서 움직이고 있는 배경에 상대적이다. 고정 위치의 카메라의 경우에 이러한 움직임들은 다양한 픽셀 메트릭스에 상대적인 움직임에 대응한다. As mentioned above, the number of columns / rows taken is based on the movement. This movement is relative to the background where the object is moving in the foreground. In the case of fixed position cameras these movements correspond to movements relative to various pixel metrics.
움직임 벡터들의 추정에 기초한 움직임 추정에 의해서 특정 물체를 트랙킹하기 위한 대안으로서, 특정 물체는 반-수동으로 또한 추적(tracked)될 수 있다. 그러한 경우에, 픽셀의 열의 수는,As an alternative to tracking a specific object by motion estimation based on the estimation of the motion vectors, the specific object may also be tracked semi-manually. In that case, the number of columns of pixels is
- 입력 이미지들 중 제1 이미지에서 특정 물체의 특정 부분을 확인하는 것에 기초하여 제1 픽셀 좌표를 결정하는 단계;Determining first pixel coordinates based on identifying a particular portion of a particular object in the first of the input images;
- 입력 이미지들 중 제3 이미지에서 특정 물체의 특정 부분을 확인하는 것에 기초하여 제2 픽셀 좌표를 결정하는 단계;Determining a second pixel coordinate based on identifying a particular portion of a particular object in a third of the input images;
- 입력 이미지들의 제1 이미지 및 입력 이미지들 중 제3 이미지 사이에 시간적으로 위치하는 연속적인 입력 이미지들의 수를 결정하는 단계; 그리고Determining the number of consecutive input images located in time between the first image of the input images and the third of the input images; And
제1 픽셀 좌표, 제2 픽셀 좌표 및 연속적인 입력 이미지들의 수에 기초하여 열의 수를 계산하는 단계에 의해서 결정된다. And determining the number of columns based on the first pixel coordinates, the second pixel coordinates, and the number of consecutive input images.
본 발명에 따른 이러한 실시예에서, 사용자는 많은 수의 이미지에서 특정 물체의 특정 부분이 어디에 위치하는 지를 표시해야만 한다. 이는 디스플레이된 입력 이미지들에 대해서 커서를 움직임으로써 행해질 수 있다. In this embodiment according to the invention, the user must indicate where a particular part of a particular object is located in a large number of images. This can be done by moving the cursor with respect to the displayed input images.
출력 이미지에서 동적인 이벤트를 요약하기 위해서 서두에서 설명된 종류의 컴퓨터 프로그램 제품을 제공하는 것은 본 발명의 추가적인 목적이다. It is a further object of the present invention to provide a computer program product of the kind described at the outset for summarizing dynamic events in the output image.
본 발명의 목적은 컴퓨터 프로그램 제품이 프로세싱 수단 및 메모리를 포함하는 컴퓨터 장치에서 로드된 후에, It is an object of the present invention that after a computer program product is loaded in a computer device comprising processing means and a memory,
- 입력 이미지들 중 제1 이미지에서 특정 물체의 특정 부분의 위치를 수신하는 단계;Receiving a position of a particular part of the particular object in the first of the input images;
- 입력 이미지들 중의 하나로부터, 특정 목적의 특정 부분에 대응하는 제1 픽셀 그룹을 취하는 단계;Taking, from one of the input images, a first group of pixels corresponding to a particular portion of a particular purpose;
- 입력 이미지들 중 제2 이미지에서 특정 물체의 측정 부분을 지역화하는 단계;Localizing the measurement portion of the particular object in a second of the input images;
- 입력 이미지들 중의 제2 이미지로부터 제2 픽셀 그룹을 취하며, 제2 픽셀 그룹은 특정 물체의 특정 부분에 대응하는 단계; 그리고Taking a second pixel group from a second one of the input images, the second pixel group corresponding to a particular portion of a particular object; And
- 출력 이미지를 형성하기 위해서 제1 픽셀 그룹에 제2 픽셀 그룹을 첨가하는 단계를 수행할 능력을 상기 프로세싱 수단에 제공한다는 점에서 달성될 수 있다.It can be achieved in that it provides the processing means with the ability to perform the step of adding a second pixel group to the first pixel group to form an output image.
출력 이미지에서 동적인 이벤트를 요약하기 위해 서두에서 설명된 종류의 이미지 프로세싱 장치를 제공하는 것은 본 발명의 추가적인 목적이다. It is a further object of the present invention to provide an image processing apparatus of the kind described at the outset for summarizing dynamic events in the output image.
본 발명의 이러한 목적은 이미지 프로세싱 장치가,The object of the present invention is to provide an image processing apparatus,
- 입력 이미지들 중 제1 이미지에서 특정의 물체의 특정 부분의 위치를 수신하는 단계;Receiving a position of a particular portion of a particular object in the first of the input images;
- 입력 이미지들 중 제1 이미지로부터, 특정 물체의 특정 부분에 대응하는 제1 픽셀 그룹을 취하는 단계;Taking from the first of the input images a first group of pixels corresponding to a particular part of the particular object;
- 입력 이미지들 중 제2 이미지에서 특정 물체의 특정 부분을 지역화하는 단계;Localizing a particular part of a particular object in a second of the input images;
- 입력 이미지들 중 제2 이미지로부터, 특정 물체의 특정 부분에 대응하는 제2 픽셀 그룹을 취하는 단계; 그리고Taking from the second of the input images a second group of pixels corresponding to a particular part of the particular object; And
- 출력 이미지를 형성하기 위해서 제1 픽셀 그룹에 제2 픽셀 그룹 추가하는 단계를 수행할 능력을 갖는 프로세싱 수단을 포함한다는 점에서 달성될 수 있다. It can be achieved in that it comprises processing means having the ability to perform the step of adding a second pixel group to the first pixel group to form an output image.
상기 방법의 변경 및 변이는 설명될 이미지 프로세싱 장치 및 컴퓨터 프로그램 제품의 변경과 변이에 대응할 수 있다. Changes and variations in the method may correspond to variations and variations in the image processing apparatus and computer program product to be described.
본 발명에 따른 상기 이미지 프로세싱 장치, 상기 방법 및 상기 컴퓨터 프로그램 제품의 이미지 프로세싱 장치의 이들 및 다른 양상들은 이후에 설명되는 구현 예 및 실시예로부터 그리고 첨부된 도면을 참조하여 명백하게 될 것이다. These and other aspects of the image processing apparatus, the method and the image processing apparatus of the computer program product according to the present invention will become apparent from the embodiments and embodiments described hereinafter and with reference to the accompanying drawings.
도 1은 카메라는 입력 이미지를 포착하는 동안 정지되어 있는, 본 발명에 따른 방법을 도시하는 개략도.1 is a schematic diagram illustrating a method according to the invention wherein the camera is stationary while capturing an input image.
도 2a는 카메라는 입력 이미지를 포착하는 동안 패닝(panning)하는, 본 발명에 따른 방법을 도시하는 개략도.2A is a schematic diagram illustrating a method according to the invention wherein the camera pans while capturing an input image.
도 2b는 본 발명에 따른 다수의 출력 이미지를 도시하는 개략도.2B is a schematic diagram illustrating multiple output images in accordance with the present invention.
도 3은 축구 경기의 다수의 입력 이미지와 이들 입력 이미지들에 기초하여 본 발명에 따라 생성되는 출력 이미지를 도시하는 개략도.3 is a schematic diagram showing a plurality of input images of a soccer game and an output image generated according to the present invention based on these input images.
도 4는 본 발명에 따른 이미지 프로세싱 장치의 제2 실시예를 도시하는 개략도. 4 is a schematic diagram showing a second embodiment of an image processing apparatus according to the present invention;
도 5는 본 발명에 따른 이미지 프로세싱 장치의 제2 실시예를 도시하는 개략도. 5 is a schematic diagram showing a second embodiment of an image processing apparatus according to the present invention;
동일한 참조번호가 모든 도면에 걸쳐 유사한 부분을 나타내기 위해서 사용된다. Like reference numerals are used to designate like parts throughout all the figures.
도 1은 본 발명에 따른 방법을 개략적으로 도시하며, 카메라는 입력 이미지(102, 104, 106)을 포착하는 동안 정지해 있다. 입력 이미지(102, 104, 106)는 물체, 즉 균일한 배경 앞에서 움직이는 공(100)을 나타낸다. 카메라는 입력 이미지(102,104,106)를 포착하는 동안 움직이지 않는다. 공(100)이 입력 이미지(102,104,106)에 대응하는 픽셀 매트릭스에 대해서 왼쪽에서 오른쪽으로 이동하는 것이 분명하게 보여질 수 있다. 입력 이미지(102,104,106)에 기초하는 출력 이미지(108)는 각각의 입력 이미지(102, 104, 106)의 다수의 슬라이스(110, 112, 114)를 포함한다. 슬라이스(slice)는 입력 이미지의 다수의 열(또는 행)에 대응하는 픽셀 세트를 의미한다. 도 1에서의 화살표는 입력 이미지(102,104,106)로부터 취해지는 슬라이스와 출력 이미지(108)를 형성하기 위해 결합 되는 슬라이스들 사이의 관계를 묘사한다. 이들 슬라이스들의 크기는 픽셀 매트릭스에 대한 공(100)의 움직임에 기초한다. 출력 이미지(108)는 또한 제1 입력 이미지(102)의 시작 부분(116)과 마지막 입력 이미지(106)의 종료 부분(118)을 또한 포함한다. 시작 부분(116) 및 종료 부분(118)의 크기는 공(100)의 움직임에 관련되지 않는다. 1 schematically shows a method according to the invention, wherein the camera is stationary while capturing
도 2a는 본 발명에 따른 방법을 개략적으로 도시하며, 카메라는 입력 이미지를 포착하는 동안 패닝한다. 입력 이미지(102,104,106)는 물체, 즉 집 앞에서 움직이는 공(100)을 나타낸다. 카메라는 입력 이미지(102,104,106)를 포착하는 동안 패닝한다. 카메라 및 공의 움직임의 방향은 상호 동일하다. 카메라 움직임의 속도 는 볼(100)의 속도보다 빠르다. 입력 이미지(102,104,106)에 기초하는 출력 이미지(208)는 각각의 입력 이미지(102,104,106)의 다수의 슬라이스(110,112,114)를 포함한다. 도 2a에서의 화살표는 입력 이미지(102,104,106)로부터 취해진 슬라이스들과 출력 이미지(208)로부터 결합된 슬라이스들 사이의 관계를 묘사한다. 이들 슬라이스들의 크기는 배경에 대하여 볼(100)의 움직임에 기초한다. 출력 이미지(208)는 또한 제1 입력 이미지(102)의 시작 부분(116)과 최종 입력 이미지(106)의 종료 부분(118)을 포함한다. 시작부분(116) 및 종료부분(118)의 크기는 공(100)의 움직임과 관련되지 않는다. 출력 이미지(208)와 입력 이미지(102,104,106)를 비교함으로써, 출력 이미지가 더욱더 크다는 것이 명백해진다. 출력 이미지(208)는 다른 입력 이미지들은 집의 일부를 도시하는 완전한 집을 도시한다. 그것은 본 발명에 따른 방법이 공간적으로 관련된 이미지 데이터 또한 선택적으로 결합 되어 상대적으로 큰 출력 이미지를 야기한다는 것을 의미한다. 2a schematically illustrates the method according to the invention, wherein the camera pans while capturing the input image.
입력 이미지의 새로운 슬라이스가 그때까지 구성된 바와 같이 출력 이미지에 추가될 때마다, 새로운 출력 이미지가 생성된다는 것이 분명해질 것이다. 다시 말해서, 슬라이스로 추가되는 제1 출력 이미지는 제2 출력 이미지가 된다. 건설중인 그러한 일련의 출력 이미지를 도시하는 것은 사용자에게 이벤트의 경과된 부분의 히스토리와 결합한 생생한 동적인 이벤트의 인상을 준다. 사용자는 크기에 있어서 다른 일련의 출력 이미지를 보게 된다, 즉 후속하는 출력 이미지는 자신의 선행 이미지보다 크다. It will be apparent that whenever a new slice of the input image is added to the output image as configured so far, a new output image is created. In other words, the first output image added to the slice becomes the second output image. Showing such a series of output images under construction gives the user the impression of a lively dynamic event combined with the history of the elapsed portion of the event. The user sees a series of output images that differ in size, ie, the subsequent output image is larger than their preceding image.
대안적으로, 우선 상대적으로 큰 전체 이미지는 입력 이미지들의 시퀀스에 기초하여 건설되며, 전체 이미지는 입력 이미지에 의해서 포착되는 전체 장면(scene)을 나타낸다. 하지만, 위에서 기재된 복제(duplicate)는 없다. 이는 움직이는 물체를 나타내는 픽셀을 포함하지 않는 픽셀의 스트립(strip)을 사용하여 바람직하게 행해진다. 전형적으로 이들 스트립(strip)은 입력 이미지들의 경계에 위치된다. 이들 스트립의 크기는 추적될 특정 물체의 움직임과 관련되지 않지만, 카메라에 대한 배경의 움직임에는 관련된다. 그러한 큰 전체 이미지를 생성한 후 본 발명에 따른 방법이 적용된다. 상기 방법의 중간 결과, 즉 후속하는 출력 이미지들은 전체 이미지에 결합한다. 기본적으로, 이는 후속하는 출력 이미지들이 각각의 부분, 즉 전체 이미지의 나머지 부분들에 추가된다는 것을 의미한다. 도 2b는 이러한 접근에 따라 건설되는 다수의 출력 이미지(202,204,208)를 개략적으로 도시한다. 출력 이미지(202)의 제1 이미지는 공(100)이 단지 한번 보여지는 상기 전체 이미지를 도시한다. 출력 이미지(204)의 제2 이미지에서 공(100)은 두 번 보일 수 있고, 출력 이미지(208)의 제3 이미지에서 공(100)은 세 번 보일 수 있다. Alternatively, a relatively large full image is first constructed based on a sequence of input images, which represents the entire scene captured by the input image. However, there is no duplicate described above. This is preferably done using strips of pixels that do not contain pixels representing moving objects. Typically these strips are located at the boundaries of the input images. The size of these strips is not related to the movement of the particular object to be tracked, but to the movement of the background relative to the camera. After generating such a large overall image the method according to the invention is applied. The intermediate result of the method, ie the subsequent output images, is combined into the whole image. Basically this means that subsequent output images are added to each part, ie the remaining parts of the whole image. 2B schematically illustrates a number of
도 3은 축구 경기의 다수의 입력 이미지(102,104,106)와 이들 입력 이미지(102, 104, 106)에 기초하여 본 발명에 따라 생성되는 출력 이미지(308)를 개략적으로 도시한다. 도시된 입력 이미지(102,104,106)는 연속적인 입력 이미지들의 긴 시퀀스의 일부라는 것이 주목되어야 한다. 이러한 입력 이미지들(102,104,106)은 축구 경기를 나타낸다. 입력 이미지(102)의 제1 이미지에서 선수가 공(100)을 차는 것이 도시될 수 있다. 원을 보아라. 입력 이미지(104)의 제2 이미지에서 공(100)이 하늘을 향해서 날아가는 것을 볼 수 있다. 다시 원안을 보아라. 입력 이 미지(106)의 제3 이미지 내에서 공(100)이 골문에 이르는 것을 볼 수 있다. 도 3은 또한 도시된 입력 이미지(102,104,106) 그리고 도시되지 않은 대략 40개의 입력 이미지에 기초하는 출력 이미지(308)를 도시한다. 공의 실제 궤적은 출력 이미지(308)에서 분명하게 보인다. FIG. 3 schematically illustrates a number of
도 4는 본 발명에 따른 이미지 프로세싱 장치(100)의 제1 실시예를 도시한다. 이미지 프로세싱 장치(400)는 자신의 이미지 입력 커넥터(410)에서 입력 이미지들의 시퀀스를 제공받고, 중간 출력 이미지의 시퀀스 및 자신의 이미지 출력 커넥터(414)에서 최종 출력 이미지를 제공하기 위해서 배열된다. 바람직하게, 본 발명에 따른 이미지 프로세싱 장치는 사용자 대화, 예컨대 다수의 입력 이미지에서 관심의 물체를 지시하는 사용자에 의해서, 제공되는 위치 정보에 의해서 제공된다. 이미지 프로세싱 장치(100)는, 4 shows a first embodiment of an
- 입력 이미지의 제1 이미지에서 특정 물체의 특정 부분의 위치를 위치 정보 입력 인터페이스(412)에 의해서 수신하는 단계;Receiving by the location
- 입력 메모리 디바이스(402)에 일시적으로 저장된 입력 이미지들 중의 제1 이미지로부터 픽셀 프로세서(404)에 의해서, 특정 물체의 특정 부분에 대응하는 제1 픽셀 그룹을 취하는 단계;Taking, by the
- 입력 이미지의 제2 이미지에서 특정 물체의 특정 부분을 지역화 유닛(408)에 의해서 지역화하는 단계;Localizing by localization unit 408 a particular portion of a particular object in a second image of the input image;
- 입력 이미지들 중 제1 이미지 후에 입력 메모리 디바이스(402)에 일시적으로 저장된 입력 이미지들의 제2 이미지로부터 픽셀 프로세서(404)에 의해서, 특정 물체의 특정 부분에 또한 대응하는 제2 픽셀 그룹을 가져오는 단계; 그리고Obtaining, by the
- 출력 이미지를 형성하기 위해서 제1 픽셀 그룹에 제2 픽셀 그룹을 추가하는 단계를 수행할 수 있는 능력을 가지는 프로세싱 수단을 포함한다. 픽셀 프로세서(404)는 접근된 제2 그룹 픽셀 값을 복사하고, 출력 메모리 디바이스(406)에서의 적절한 위치에서 픽셀 값에 대한 사본을 쓰도록 배열된다. Processing means having the ability to perform the step of adding a second pixel group to the first pixel group to form an output image. The
도 5는 본 발명에 따른 이미지 프로세싱 장치(500)의 제2 실시예를 개략적으로 도시한다. 이러한 실시예(500)는 기본적으로 도 4에 관련하여 설명되는 실시예(400)과 기본적으로 동일하다. 차이점은 이러한 실시예(500)가 카메라 움직임을 보상하기 위해서 배열된다는 점이다. 이미지 프로세싱 장치의 이러한 실시예는 카메라 움직임의 효과를 보상하기 위해서 배경의 움직임 추정을 수행하기 위해서 배열된다. 이러한 실시예(5400)은 제2 입력 이미지의 시간적인 저장을 위한 추가적인 메모리 디바이스를 포함한다. 지역화 유닛(408)은 관심의 목표, 즉 입력 이미지들의 시퀀스 내에서 추적될 특정 물체에 대한 위치 정보가 제공된다. 그외에도, 지역화 유닛(408)은 목표물이 전면에서 움직이는 배경에 대해 글로벌 움직임 벡터를 계산하도록 배열된다. 글로벌 움직임 벡터는 한 쌍의 입력 이미지들에 기초하여 계산될 다수의 움직임 벡터를 결합함으로써 계산된다. 모션 벡터는 지역화 유닛(408)에 바람직하게 통합되는 표준 움직임 추정기에 의해서 계산된다. 움직임 추정기는 예컨대 비디오 기술에 대한 회로 및 시스템에 대한 1993년 10월자 IEEE 회보(페이지 368-379, 3권, 5번)에서 G. de Haan 등에 의한 논문, "True-Motion Estimation with 3-D Recursive Search Block Matching"에서 명시된 바와 같다. 5 schematically shows a second embodiment of an
대안적으로, Electronics Letters의 Vol 25, 페이지 29-30에서 J.S.Kim 및 R.H. Park에 의한 논문, "feature-based block matching algorithm integral projections" 에서 개시된 것처럼, 전체 이미지에 대한 움직임 벡터가 평균 이미지-행(x-성분) 그리고 평균 이미지-칼럼(y-성분)에 기초하여 계산된다.Alternatively, J.S.Kim and R.H., Vol. 25, pages 29-30 of Electronics Letters. As disclosed in the paper by Park, "feature-based block matching algorithm integral projections", motion vectors for the entire image are calculated based on the average image-row (x-component) and the average image-column (y-component). .
픽셀 프로세서(404)와 지역화(localization) 유닛(408)은 하나의 프로세서를 사용하여 구현될 수 있다. 정상적으로, 이들 기능들은 소프트웨어 프로그램 제품 하에서 수행된다. 실행 중에, 정상적으로 소프트웨어 프로그램 제품은 RAM과 같은 메모리로 로드되고 거기로부터 실행된다. 프로그램은 ROM, 하드디스크, 또는 자기적 및/또는 광학적 저장 장치와 같은 배경 메모리로부터 로드되거나 또는 인터넷과 같은 네트워크를 통해서 로드될 수 있다. 선택적으로, 응용 주문형 집적 회로(ASIC)는 개시된 기능성을 제공한다.The
도 5에 묘사된 바와 같은 이미지 프로세싱 장치의 실시예의 작동은 축구에서의 프리킥을 나타내는 입력 이미지 시퀀스를 포함하는 예를 사용하여 설명될 것이다. 약간의 입력 이미지들, 즉 비디오 프레임들이 도 3에 도시된다. 카메라는 일정치 않은 속도로 킥의 위치에서 골로 패닝(panning)할 것이다. 출력 이미지에서 포착될 동적인 이벤트는 골문을 향해서 날아가는 공이며, 따라서 공은 입력 이미지의 시퀀스에서 추적되어야만 한다.Operation of an embodiment of an image processing apparatus as depicted in FIG. 5 will be described using an example comprising an input image sequence representing a free kick in soccer. Some input images, ie video frames, are shown in FIG. 3. The camera will pan to the goal at the position of the kick at a constant speed. The dynamic event to be captured in the output image is the ball flying towards the goal, so the ball must be tracked in the sequence of the input image.
공의 움직임은 x 방향으로 일정한 속도를 사용함으로써 근사화될 수 있다(이는 입력 이미지에서 왼편-오른편 축을 따라 존재한다). 이는 킥과, 골네트와 같은 물체와의 제1 후속 접촉 사이의 공의 움직임의 합리적인 추정이다. 이러한 예에서, y 방향에서의 움직임은 무시된다{입력 이미지에서 탑-바텀(top-bottom) 축}. 축구공의 x 위치에 대해서 다음 식이 유도된다.The motion of the ball can be approximated by using a constant velocity in the x direction (which exists along the left-right axis in the input image). This is a reasonable estimate of the ball's movement between the kick and the first subsequent contact with an object such as a goal net. In this example, the movement in the y direction is ignored (top-bottom axis in the input image). For the x position of the soccer ball, the following equation is derived.
n0는 기준 입력 이미지 번호이며, 스크린(xscreen), 즉 픽셀 메트릭스 상에서의 공의 x위치, 그리고 카메라의 상대적인 위치(xcamera)는 알려진 것으로 간주 된다. 공의 실제 위치는 스크린 위치와 카메라 위치의 합계에 의해서 주어진다. n 0 is the reference input image number, where x screen , the x position of the ball on the pixel matrix, and the x camera relative position (x camera ) are considered known. The actual position of the ball is given by the sum of the screen position and the camera position.
예를 들면, 만일 공이 "실제" 세계에서 오른쪽으로 이동한다면, 카메라가 공이 움직이는 것보다 오른쪽으로 빨리 움직여서, 이 경우 공이 스크린상에서 왼쪽으로 움직이는 것처럼 보이는 것이 가능하다. 이들 효과를 보상하기 위해서, 카메라 위치는 수학식(1)에 포함된다. For example, if the ball moves to the right in the "real" world, it is possible that the camera moves to the right faster than the ball moves, in which case the ball appears to move left on the screen. To compensate for these effects, the camera position is included in equation (1).
만일 입력 이미지(n1)에서 제2 스크린 위치가 알려지면, 실제 속도(v)는 다음 식을 사용하여 계산될 수 있다. If the second screen position in the input image n 1 is known, the actual speed v can be calculated using the following equation.
이러한 실시예에서, 사용자는 이벤트의 시작 및 종료 지점들을 제공하기 위해서뿐만 아니라, 속도를 결정할 수 있도록 하기 위해, 입력 이미지(ni)에 대한 두 개 이상의 공간-시간적 위치들{Xscreen(ni)}을 제공하도록 요구된다.In such an embodiment, the user may not only provide the start and end points of the event, but also be able to determine the velocity, two or more space-temporal locations with respect to the input image n i {X screen (n i }} Is required.
글로벌 움직임 추정 알고리즘을 사용하여 각각의 입력 이미지(n)에 대한 상대적인 카메라 위치{xcamera(n)}는 비디오 시퀀스로부터 자동으로 계산된다. 그 다음 v는 이벤트에 대해서, 그리고 각각의 입력 이미지(n)에 대해서 수평적인 관심 지역, 즉 스크린 좌표에서 입력 이미지들의 다수의 열을 포함하는 슬라이스들은 수학식 1로부처 계산될 수 있는 xscreen(n) 주위에 중심을 둔다. Using a global motion estimation algorithm, the relative camera position {x camera (n)} for each input image n is automatically calculated from the video sequence. V then slices containing multiple columns of input images in the region of interest, i.e., screen coordinates, that are horizontal for the event and for each input image n, can be computed by using x screen ( n) Center around.
이들 관심지역, 즉 슬라이스는 출력 이미지의 적절한 부분으로 복사된다. These regions of interest, or slices, are copied into the appropriate portion of the output image.
여기서 제시되는 실시예는, 더욱더 진보된 프로세싱 기술로 극복될 수 있는 특정한 점에 제한된다. 특히, "흥미있는 물체"의 시작 및 종료 위치들뿐만 아니라 시작 및 종료 입력 이미지들을 제공하기 위한 사용자 대화에 의존한다. 이는 (물체에 기초한) 움직임 추정 및 이벤트에 대한 시작 및 종료 프레임에 대한 지능적인 자동 선택들을 사용하여 더욱 일반화될 수("공을 추적할 수") 있다. The embodiments presented herein are limited to certain aspects that can be overcome with more advanced processing techniques. In particular, it relies on the user dialogue to provide start and end input images as well as start and end positions of the "interesting object". This can be more generalized (“ball tracking”) using intelligent automatic selection of start and end frames for motion estimation (object-based) and events.
본 발명에 따른 상기 방법, 컴퓨터 프로그램 제품 및 이미지 프로세싱 장치는 몇몇 아래와 같은 애플리케이션에 대해서 유익하다:The method, computer program product and image processing apparatus according to the present invention are beneficial for some of the following applications:
- 필름 스튜디오, 방송 스튜디오 또는 신문 및 다른 유형의 인쇄매체에서와 같은 전문적인 이미지 프로세싱;Professional image processing, such as in film studios, broadcast studios or newspapers and other types of print media;
- TV, 세-탑 박스 및 개인용 비디오 레코딩 디바이스와 같은 가전 디바이스들;Household appliances devices such as TVs, three-top boxes and personal video recording devices;
교육용 목적; 그리고Educational purposes; And
예컨대, 홈 비디오를 제작하기 위한 가정용 비디오 프로세싱 소프트웨어.For example, home video processing software for producing home video.
상기 실시예들은 본 발명을 제한하기보다는 예시하며, 당업자들은 추가된 청구항들의 범위를 벗어나지 않고 대안적인 실시예를 설계할 수 있다는 점에 주목해야만 한다. 청구항에서, 괄호 안에 놓인 임의의 참조 부호는 청구항을 제한하는 것으로 해석되지 말아야 한다. "포함하는"이라는 용어는 청구항에 열거되지 않은 요소들 또는 단계들의 존재를 배제하지 않는다. 단수요소는 복수요소를 배제하지 않는다. 본 발명은 몇몇 개별적인 요소를 포함하는 하드웨어에 의해서 그리고 적절한 프로그램된 컴퓨터에 의해서 구현될 수 있다. 몇몇 수단을 열거하는 장치 청구항에서, 이들 수단들의 몇몇은 하나의 동일한 하드웨어 아이템에 이해서 구현될 수 있다. 제1, 제2 및 제3 등의 용어의 사용은 임의의 순서를 지시하지 않는다. 이들 단어들은 명칭으로서 해석될 것이다.It should be noted that the above embodiments illustrate rather than limit the invention, and that those skilled in the art can design alternative embodiments without departing from the scope of the appended claims. In the claims, any reference signs placed between parentheses shall not be construed as limiting the claim. The term "comprising" does not exclude the presence of elements or steps not listed in a claim. Singular elements do not exclude plural elements. The invention can be implemented by means of hardware comprising several individual elements and by means of a suitable programmed computer. In the device claim enumerating several means, several of these means may be implemented following one and the same hardware item. The use of terms such as first, second and third does not indicate any order. These words will be interpreted as names.
본 발명은 시간적으로 연속적인 입력 이미지의 시퀀스에 기초하여 출력 이미지를 생성하기 위한 방법에 관련되며, 시간적으로 연속적인 입력 이미지의 시퀀스에 기초하여 출력 이미지를 생성하기 위한, 명령을 포함하는 컴퓨터 장치에 의해서 로드되는 컴퓨터 프로그램 제품과 이미지 프로세싱 장치에 이용가능하다. The present invention relates to a method for generating an output image based on a sequence of input images temporally continuous, and to a computer device comprising instructions for generating the output image based on a sequence of input images temporally continuous. It is available for computer program products and image processing devices that are loaded by.
Claims (14)
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
EP04102018.1 | 2004-05-10 | ||
EP04102018 | 2004-05-10 |
Publications (1)
Publication Number | Publication Date |
---|---|
KR20070008687A true KR20070008687A (en) | 2007-01-17 |
Family
ID=34967091
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020067023312A KR20070008687A (en) | 2004-05-10 | 2005-05-03 | Creating an output image |
Country Status (5)
Country | Link |
---|---|
EP (1) | EP1751711A1 (en) |
JP (1) | JP2007536671A (en) |
KR (1) | KR20070008687A (en) |
CN (1) | CN1950847A (en) |
WO (1) | WO2005109339A1 (en) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20110093382A (en) * | 2010-02-12 | 2011-08-18 | 삼성전자주식회사 | Method for estimating depth information using depth estimation device |
Family Cites Families (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
ATE280978T1 (en) * | 1997-01-30 | 2004-11-15 | Yissum Res Dev Co | MOSAIC IMAGE PROCESSING SYSTEM |
GB2354388B (en) * | 1999-07-12 | 2003-08-13 | Independent Television Commiss | System and method for capture, broadcast and display of moving images |
-
2005
- 2005-05-03 CN CNA2005800149621A patent/CN1950847A/en active Pending
- 2005-05-03 KR KR1020067023312A patent/KR20070008687A/en not_active Application Discontinuation
- 2005-05-03 EP EP05738325A patent/EP1751711A1/en not_active Withdrawn
- 2005-05-03 WO PCT/IB2005/051440 patent/WO2005109339A1/en not_active Application Discontinuation
- 2005-05-03 JP JP2007512646A patent/JP2007536671A/en not_active Withdrawn
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20110093382A (en) * | 2010-02-12 | 2011-08-18 | 삼성전자주식회사 | Method for estimating depth information using depth estimation device |
Also Published As
Publication number | Publication date |
---|---|
EP1751711A1 (en) | 2007-02-14 |
CN1950847A (en) | 2007-04-18 |
WO2005109339A1 (en) | 2005-11-17 |
JP2007536671A (en) | 2007-12-13 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Brostow et al. | Image-based motion blur for stop motion animation | |
KR100271384B1 (en) | Video merging employing pattern-key insertion | |
US20200134911A1 (en) | Methods and Systems for Performing 3D Simulation Based on a 2D Video Image | |
Taylor et al. | Ovvv: Using virtual worlds to design and evaluate surveillance systems | |
KR100918544B1 (en) | Image processing apparatus and method and image pickup apparatus | |
US6724386B2 (en) | System and process for geometry replacement | |
US9852767B2 (en) | Method for generating a cyclic video sequence | |
EP1922863B1 (en) | System and method for managing the visual effects insertion in a video stream | |
US20030012410A1 (en) | Tracking and pose estimation for augmented reality using real features | |
US20120002112A1 (en) | Tail the motion method of generating simulated strobe motion videos and pictures using image cloning | |
CN111050210A (en) | Video patching via confidence weighted motion estimation | |
JPH11508099A (en) | Scene Motion Tracking Method for Raw Video Insertion System | |
JP2008520052A5 (en) | ||
Sanches et al. | Mutual occlusion between real and virtual elements in augmented reality based on fiducial markers | |
WO2001039130A1 (en) | Coordination and combination of video sequences with spatial and temporal normalization | |
WO2011121117A1 (en) | Virtual camera system | |
Langlotz et al. | AR record&replay: situated compositing of video content in mobile augmented reality | |
Grau et al. | A robust free-viewpoint video system for sport scenes | |
JP2018206285A (en) | Object tracking device and object trajectory generation system | |
KR20070008687A (en) | Creating an output image | |
KR20010024416A (en) | Static image generation method and device | |
KR100466587B1 (en) | Method of Extrating Camera Information for Authoring Tools of Synthetic Contents | |
Kahn et al. | Capturing of contemporary dance for preservation and presentation of choreographies in online scores | |
Taki et al. | Dominant region: a basic feature for group motion analysis and its application to teamwork evaluation in soccer games | |
WO2002104009A1 (en) | Method and system for combining video with spatio-temporal alignment |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
WITN | Application deemed withdrawn, e.g. because no request for examination was filed or no examination fee was paid |