KR101191319B1 - Apparatus and method for painterly rendering based on objective motion information - Google Patents

Apparatus and method for painterly rendering based on objective motion information Download PDF

Info

Publication number
KR101191319B1
KR101191319B1 KR1020110068314A KR20110068314A KR101191319B1 KR 101191319 B1 KR101191319 B1 KR 101191319B1 KR 1020110068314 A KR1020110068314 A KR 1020110068314A KR 20110068314 A KR20110068314 A KR 20110068314A KR 101191319 B1 KR101191319 B1 KR 101191319B1
Authority
KR
South Korea
Prior art keywords
rendering
motion
target image
motion information
expression layer
Prior art date
Application number
KR1020110068314A
Other languages
Korean (ko)
Inventor
윤경현
이호창
장재니
이태민
Original Assignee
중앙대학교 산학협력단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 중앙대학교 산학협력단 filed Critical 중앙대학교 산학협력단
Priority to KR1020110068314A priority Critical patent/KR101191319B1/en
Application granted granted Critical
Publication of KR101191319B1 publication Critical patent/KR101191319B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • G06T11/001Texturing; Colouring; Generation of texture or colour
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/215Motion-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/277Analysis of motion involving stochastic approaches, e.g. using Kalman filters

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Processing Or Creating Images (AREA)

Abstract

PURPOSE: A pictorial rendering device based on motion information of an object and a method thereof are provided to classify several objects in a rendering target image, apply a brush stroke according to an object attribute, and reflect extracted motion information of the object to rendering. CONSTITUTION: A motion extracting unit(110) extracts motion information of each pixel from input images. An area separating unit(120) separates pixels of a selected target image into object areas. An object classifying unit(130) determines the type of an object included in each object area. A rendering unit(140) applies a brush stroke with a preset attribute according to the type of the object. The rendering unit generates a result image corresponding to the target image. [Reference numerals] (110) Motion extracting unit; (120) Area separating unit; (130) Object classifying unit; (140) Rendering unit

Description

객체의 움직임 정보에 기반한 회화적 렌더링 장치 및 방법{Apparatus and method for painterly rendering based on objective motion information}Apparatus and method for painterly rendering based on objective motion information}

본 발명은 객체의 움직임 정보에 기반한 회화적 렌더링 장치 및 방법에 관한 것으로, 보다 상세하게는, 카메라로 촬영한 영상을 손으로 그린 듯한 회화적 느낌으로 표현하는 장치 및 방법에 관한 것이다.The present invention relates to a pictorial rendering apparatus and method based on motion information of an object, and more particularly, to an apparatus and method for expressing an image photographed with a camera in a pictorial feeling as if drawn by hand.

비사실적 렌더링은 사실적이지 않은 다양한 표현 방법으로 사물을 렌더링하는 기법을 통칭한다. 비사실적 렌더링은 일반적으로 표현기법에 따라 회화적 렌더링(painterly rendering), 모자이크 렌더링, 카툰 렌더링 등으로 분류할 수 있다.Non-realistic rendering refers to the technique of rendering things in various ways that are not realistic. Non-realistic rendering can generally be classified into painterly rendering, mosaic rendering, cartoon rendering, etc., according to expression techniques.

그 중에서 회화적 렌더링은 사진과 같은 2차원 영상 혹은 3차원 모델 데이터를 이용하여 화가가 손으로 그린 듯한 영상을 만들어내는 기술을 말한다. 회화적 렌더링은 픽셀(pixel)로 구성되는 사진과 달리 브러시 스트로크(brush stroke)라는 기본 단위로 구성된다. Among them, pictorial rendering refers to a technique for creating an image painted by a painter using two-dimensional or three-dimensional model data such as a photograph. Painterly rendering is composed of basic units called brush strokes, unlike photographs composed of pixels.

따라서 회화적 렌더링은 결과 영상을 생성함에 있어서 픽셀 단위 정보를 일일이 표현하는 대신 일정한 두께의 브러시 스트로크를 사용하여 장면을 표현한다. 또한 장면에 나타난 객체의 형태 표현을 위해 입력 영상의 컬러(color), 윤곽선(edge), 그라디언트(gradient) 등의 지역 정보를 기반으로 스트로크의 위치, 크기, 방향, 색상 등을 결정한다.Therefore, in pictorial rendering, instead of expressing pixel-by-pixel information one by one, the painter renders a scene using a brush stroke of a certain thickness. In addition, the stroke position, size, direction, color, etc. are determined based on local information such as color, edge, and gradient of the input image to express the shape of the object in the scene.

이러한 기존의 회화적 렌더링 기법은 두 가지 한계를 갖는다. 첫번째, 모든 영역에서 브러시 스트로크의 속성을 동일한 방법으로 결정한다. 비록 A Hertzmann, "Painterly Rendering with Curved Brush Strokes of Multiple Sizes", In Proc. of SIGGRAPH 1998, pp.453-460 에서는 다양한 크기의 스트로크를 사용했으나 모든 스트로크의 생성에 동일한 알고리즘을 사용하였다. 이러한 렌더링 알고리즘으로 생성된 결과는 실제 회화에서 사용되는 사물별 다양한 표현 방법을 반영하지 못해 사실성이 감소된다. This conventional pictorial rendering technique has two limitations. First, the properties of brush strokes in all areas are determined in the same way. Although A Hertzmann, "Painterly Rendering with Curved Brush Strokes of Multiple Sizes", In Proc. Of SIGGRAPH 1998, pp. 453-460 used strokes of various sizes, but the same algorithm was used to generate all strokes. The result generated by such a rendering algorithm does not reflect various expression methods for each object used in actual painting, thereby reducing the realism.

두번째, 움직임의 표현을 반영하기 어렵다. 화가들은 브러시의 방향, 굵기, 길이, 색상 등을 조절하고 다양한 표현 기법을 통해 사물의 움직임을 표현하지만, 기존의 회화적 렌더링 연구는 입력으로 단일 영상을 사용하여 이러한 움직임의 추출이 불가능하였다. Second, it is difficult to reflect the expression of movement. Artists control the direction, thickness, length, and color of the brushes and express the movements of objects through various expression techniques. However, the existing pictorial rendering research was unable to extract these movements using a single image as input.

H. Lee, C.H Lee, and K. Yoon, "Motion Based Painterly Rendering" Computer Graphics Forum, 28, 4, pp.1207-1216,2009. 및 한국공개공보 제 2010-0122381호는 움직임을 고려한 연구로 시점 고정 비디오를 입력으로 움직임이 있는 부분에서 움직임 방향을 따라 스트로크를 렌더링함으로써 움직임 표현방법 중 하나를 회화적 렌더링에 적용했다. 하지만 스트로크의 방향을 제외한 다양한 표현 기법은 고려되지 않았다.H. Lee, C.H Lee, and K. Yoon, "Motion Based Painterly Rendering" Computer Graphics Forum, 28, 4, pp. 1207-1216,2009. And Korean Unexamined Patent Publication No. 2010-0122381, which is a study considering motion, apply one of the motion expression methods to pictorial rendering by rendering a stroke along the direction of movement in the part where the motion is input as a fixed view video. However, various representation techniques except the direction of stroke are not considered.

따라서 다양한 표현 기법에 의해 기존의 회화적 렌더링의 한계를 극복하여 사실적 회화를 구현할 수 있는 객체의 움직임 정보에 기반한 회화적 렌더링 장치 및 방법이 필요하다.Therefore, there is a need for a pictorial rendering apparatus and method based on motion information of an object capable of realizing realistic painting by overcoming the limitations of conventional pictorial rendering by various expression techniques.

본 발명이 이루고자 하는 기술적 과제는 객체의 속성에 따라 브러시 스트로크를 다양하게 적용하며 객체의 움직임을 표현할 수 있는 객체의 움직임 정보에 기반한 회화적 렌더링 장치 및 방법을 제공하는 데 있다.An object of the present invention is to provide a pictorial rendering apparatus and method based on motion information of an object that can apply various brush strokes according to the properties of an object and express the motion of the object.

본 발명이 이루고자 하는 다른 기술적 과제는 객체의 속성에 따라 브러시 스트로크를 다양하게 적용하며 객체의 움직임을 표현할 수 있는 객체의 움직임 정보에 기반한 회화적 렌더링 방법을 컴퓨터에서 실행시키기 위한 프로그램을 기록한 컴퓨터로 읽을 수 있는 기록매체를 제공하는 데 있다.Another technical problem to be solved by the present invention is to apply various brush strokes according to the properties of an object, and to read it with a computer that records a program for executing a pictorial rendering method based on motion information of an object that can express the motion of the object on a computer. To provide a recording medium that can be.

상기의 기술적 과제를 달성하기 위한, 본 발명에 따른 객체의 움직임 정보에 기반한 회화적 렌더링 장치는, 고정 시점으로 입력된 복수의 입력 영상으로부터 각 픽셀의 움직임 정보를 추출하는 움직임 추출부; 상기 복수의 입력 영상 중에서 선택된 대상 영상을 구성하는 복수의 픽셀을 복수의 객체 영역으로 분할하는 영역 분할부; 사전에 설정된 객체의 종류에 대응하여 영상 내에서 상기 객체의 좌표 정보, 색상 정보 및 움직임 정보가 저장된 객체 분류 데이터베이스를 기초로 상기 각각의 객체 영역에 포함된 객체의 종류를 결정하는 객체 분류부; 및 상기 각각의 객체 영역에 대하여 상기 객체 영역에 포함된 상기 객체의 종류에 따라 사전에 설정된 속성을 가지는 브러시 스트로크를 적용하여 상기 대상 영상에 대응하는 결과 영상을 생성하는 렌더링부;를 구비한다.According to an aspect of the present invention, there is provided a pictorial rendering apparatus based on motion information of an object, the motion extractor extracting motion information of each pixel from a plurality of input images input at a fixed time point; An area dividing unit dividing a plurality of pixels constituting the selected target image among the plurality of input images into a plurality of object regions; An object classification unit determining a type of an object included in each object area based on an object classification database storing coordinate information, color information, and motion information of the object in an image corresponding to a preset object type; And a rendering unit generating a resultant image corresponding to the target image by applying a brush stroke having a predetermined property to each object region according to the type of the object included in the object region.

상기의 기술적 과제를 달성하기 위한, 본 발명에 따른 객체의 움직임 정보에 기반한 회화적 렌더링 방법은, 고정 시점으로 입력된 복수의 입력 영상으로부터 각 픽셀의 움직임 정보를 추출하는 움직임 추출 단계; 상기 복수의 입력 영상 중에서 선택된 대상 영상을 구성하는 복수의 픽셀을 복수의 객체 영역으로 분할하는 영역 분할 단계; 사전에 설정된 객체의 종류에 대응하여 영상 내에서 상기 객체의 좌표 정보, 색상 정보 및 움직임 정보가 저장된 객체 분류 데이터베이스를 기초로 상기 각각의 객체 영역에 포함된 객체의 종류를 결정하는 객체 분류 단계; 및 상기 각각의 객체 영역에 대하여 상기 객체 영역에 포함된 상기 객체의 종류에 따라 사전에 설정된 속성을 가지는 브러시 스트로크를 적용하여 상기 대상 영상에 대응하는 결과 영상을 생성하는 렌더링 단계;를 가진다.According to an aspect of the present invention, there is provided a pictorial rendering method based on motion information of an object, including: a motion extraction step of extracting motion information of each pixel from a plurality of input images input at a fixed time point; A region dividing step of dividing a plurality of pixels constituting a selected target image among the plurality of input images into a plurality of object regions; An object classification step of determining a type of an object included in each object area based on an object classification database storing coordinate information, color information, and motion information of the object in an image corresponding to a preset object type; And a rendering step of generating a resultant image corresponding to the target image by applying a brush stroke having a property set in advance according to the type of the object included in the object region to each object region.

본 발명에 따른 객체의 움직임 정보에 기반한 회화적 렌더링 장치 및 방법에 의하면, 렌더링 대상 영상에 포함된 여러 객체를 객체의 종류에 따라 분류하여 객체의 속성에 따라 브러시 스트로크를 다양하게 적용하고, 복수의 입력 영상으로부터 객체의 움직임 정보를 추출하여 렌더링에 반영함으로써 사실적인 회화적 렌더링을 수행할 수 있다.According to the pictorial rendering apparatus and method based on the motion information of the object according to the present invention, various objects included in the rendered target image are classified according to the type of the object, and various brush strokes are applied according to the properties of the object. It is possible to perform realistic pictorial rendering by extracting motion information of an object from an input image and reflecting it in a rendering.

도 1은 본 발명에 따른 객체의 움직임 정보에 기반한 회화적 렌더링 장치에 대한 바람직한 실시 예의 구성을 도시한 블록도,
도 2는 본 발명에 따른 회화적 렌더링 장치에 의한 회화적 렌더링 과정을 설명하기 위한 도면,
도 3은 단일 입력 영상으로부터 구한 움직임 정보의 방향과 복수의 입력 영상으로부터 구한 평균 움직임 벡터의 방향을 나타낸 도면,
도 4는 대상 영상을 민시프트 분할 방법에 의해 분할한 결과를 나타낸 도면,
도 5는 풍경화를 구성하는 객체의 분류에 대한 일 실시예를 나타낸 도면,
도 6은 영역 정보의 분포를 정규화하여 분석한 도면,
도 7은 각 객체 영역에 대하여 레이어를 생성하는 예를 나타낸 도면,
도 8은 렌더링 속성 데이터베이스의 알고리즘의 개요를 나타내는 도면,
도 9는 각 레이어 별로 적용되는 브러시 텍스처를 나타내는 도면,
도 10은 ETF의 기법의 보간된 그라디언트를 따르는 브러시 방향을 나타낸 도면,
도 11은 나뭇잎 배경 영역의 마스크 맵과 윤곽선 맵의 시각화 영상을 나타낸 도면,
도 12는 렌더링부에서 브러시 질감 표현을 위해 사용하는 브러시 텍스쳐의 변환 과정을 나타낸 도면,
도 13은 본 발명에 따른 회화적 렌더링 방법에 대한 바람직한 실시 예의 수행과정을 도시한 흐름도,
도 14는 본 발명에 따른 회화적 렌더링 장치를 이용하여 입력 영상을 렌더링하는 예를 나타낸 도면,
도 15는 본 발명에 따른 회화적 렌더링 장치에서 객체 종류에 따라 렌더링을 차별화하는 알고리즘의 적용 결과를 기존 알고리즘과 비교한 영상, 그리고,
도 16은 움직임 정보를 이용한 색상 조절 유무에 따른 결과 비교 영상이다.
1 is a block diagram showing the configuration of a preferred embodiment of a pictorial rendering apparatus based on motion information of an object according to the present invention;
2 is a view for explaining a pictorial rendering process by the pictorial rendering apparatus according to the present invention;
3 is a diagram illustrating a direction of motion information obtained from a single input image and an average motion vector obtained from a plurality of input images;
4 is a diagram illustrating a result of dividing a target image by a minshift division method;
5 is a diagram illustrating an embodiment of classification of objects constituting a landscape painting;
6 is a view of normalizing and analyzing distribution of region information;
7 is a diagram illustrating an example of creating a layer for each object area;
8 is a diagram showing an outline of an algorithm of a rendering attribute database;
9 is a view showing a brush texture applied to each layer,
10 illustrates brush orientation along an interpolated gradient of the technique of the ETF,
11 is a view showing a visualization image of the mask map and the contour map of the leaf background area,
12 is a view illustrating a process of converting a brush texture used for expressing a brush texture in the rendering unit;
13 is a flowchart illustrating a process of performing a preferred embodiment of the pictorial rendering method according to the present invention;
14 is a diagram illustrating an example of rendering an input image using the pictorial rendering apparatus according to the present invention;
15 is an image comparing an application result of an algorithm for differentiating rendering according to an object type in a pictorial rendering apparatus according to the present invention, and
16 is a result comparison image according to the presence or absence of color control using motion information.

이하에서 첨부된 도면들을 참조하여 본 발명에 따른 객체의 움직임 정보에 기반한 회화적 렌더링 장치 및 방법의 바람직한 실시 예에 대해 상세하게 설명한다.Hereinafter, exemplary embodiments of a pictorial rendering apparatus and method based on motion information of an object according to the present invention will be described in detail with reference to the accompanying drawings.

도 1은 본 발명에 따른 객체의 움직임 정보에 기반한 회화적 렌더링 장치에 대한 바람직한 실시 예의 구성을 도시한 블록도이다.1 is a block diagram showing the configuration of a preferred embodiment of a pictorial rendering apparatus based on motion information of an object according to the present invention.

도 1을 참조하면, 본 발명에 따른 회화적 렌더링 장치는 움직임 추출부(110), 영역 분할부(120), 객체 분류부(130), 렌더링부(140)를 구비한다.Referring to FIG. 1, the pictorial rendering apparatus according to the present invention includes a motion extractor 110, an area divider 120, an object classifier 130, and a renderer 140.

또한 도 2는 본 발명에 따른 회화적 렌더링 장치에 의한 회화적 렌더링 과정을 설명하기 위한 도면이다.2 is a view for explaining a pictorial rendering process by the pictorial rendering apparatus according to the present invention.

도 2를 참조하면, 움직임 추출부(110)는 움직임 정보를 추출하기 위해 고정 시점으로 입력된 복수의 입력 영상에서 각 픽셀의 움직임 정보를 추출한다. 여기서 복수의 입력 영상은 고정 시점으로 촬영된 동영상의 복수의 프레임에 대응하는 것이다.Referring to FIG. 2, the motion extractor 110 extracts motion information of each pixel from a plurality of input images input at a fixed time point to extract motion information. Here, the plurality of input images correspond to a plurality of frames of the moving image photographed at the fixed viewpoint.

본 발명에 따른 회화적 렌더링 장치의 바람직한 실시예에서, 움직임 추출부(110)는 움직임 정보 추출을 위해 옵티컬 플로우 기법을 사용할 수 있다.In a preferred embodiment of the pictorial rendering apparatus according to the present invention, the motion extractor 110 may use an optical flow technique for extracting motion information.

옵티컬 플로우 기법은 움직임 추정과 비디오 압축 분야에서 주로 사용되어 왔으며, 움직임 정보를 필요로 하는 많은 비사실적 렌더링 연구에서도 사용되어 왔다. 여기서 옵티컬 플로우(optical flow)는 카메라와 장면 사이의 상대적인 움직임에 의해 발생하는 눈으로 확인 가능한 객체, 면, 윤곽선 등의 움직임의 형태를 말한다. Optical flow techniques have been used mainly in motion estimation and video compression, and have been used in many non-realistic rendering studies that require motion information. In this case, the optical flow refers to a form of movement of an object, a face, and an outline that can be seen by the eye caused by the relative movement between the camera and the scene.

움직임 추출부(110)는 옵티컬 플로우 기법에 의해 시간적으로 연속된 복수의 입력 영상으로부터 움직임 정보를 다음의 수학식 1에 따라 계산한다. 수학식 1에 따르면 n개의 입력 영상으로부터 총 n-1개의 움직임 정보를 얻을 수 있다.The motion extractor 110 calculates motion information from a plurality of input images consecutive in time by an optical flow technique according to Equation 1 below. According to Equation 1, a total of n-1 motion information can be obtained from n input images.

Figure 112011052849396-pat00001
Figure 112011052849396-pat00001

이때 n개의 입력 영상에서 i번째와 i+1번째 입력 영상 사이의 움직임 정보를

Figure 112011052849396-pat00002
로 정의한다.
Figure 112011052849396-pat00003
는 모두 이차원 배열로서 인접한 두 입력 영상 사이에 나타나는 각 픽셀의 x,y 축에 대한 움직임 크기를 나타낸다.At this time, the motion information between the i th and i + 1 th input images in the n input images
Figure 112011052849396-pat00002
.
Figure 112011052849396-pat00003
Are all two-dimensional arrays and represent the magnitude of the motion of the x, y axis of each pixel appearing between two adjacent input images.

한편, 옵티컬 플로우 기법은 입력 영상 단위의 움직임을 추정하므로 적은 수의 입력 영상을 참조할 경우 잡음이 발생할 수 있다. 따라서 다음의 수학식 2를 통해서 움직임 정보

Figure 112011052849396-pat00004
의 집합으로부터 입력 영상의 평균 움직임 벡터
Figure 112011052849396-pat00005
을 구하여 잡음의 영향을 최소화한다.On the other hand, since the optical flow technique estimates the motion of the input image unit, noise may occur when referring to a small number of input images. Therefore, the motion information through the following equation (2)
Figure 112011052849396-pat00004
Average motion vector of the input image from the set of
Figure 112011052849396-pat00005
To minimize the effects of noise.

Figure 112011052849396-pat00006
Figure 112011052849396-pat00006

여기서, avg()는 평균을 구하는 함수이다. 수학식 2에 의해 산출된 평균 움직임 벡터

Figure 112011052849396-pat00007
의 방향과 크기는 이후 객체 영역 분류 및 렌더링 과정에 사용된다. Here, avg () is a function to find the average. Average motion vector calculated by Equation 2
Figure 112011052849396-pat00007
The direction and size of are then used in the object area classification and rendering process.

도 3은 단일 입력 영상으로부터 구한 움직임 정보의 방향과 복수의 입력 영상으로부터 구한 평균 움직임 벡터의 방향을 나타낸 도면이다.3 is a diagram illustrating a direction of motion information obtained from a single input image and an average motion vector obtained from a plurality of input images.

도 3을 참조하면, HSV 컬러 모델의 h(hue : 색상) 채널을 통해 평균 움직임 벡터의 방향을 표현하고 s(saturation)와 v(value) 채널은 고정 값을 사용하여 영상으로 표현하였다. 단일 입력 영상으로부터 구한 움직임 정보의 방향에 비해 복수의 입력 영상으로부터 구한 평균 움직임 벡터의 방향이 보다 일관되며 잡음이 적게 나타나는 것을 확인할 수 있다.Referring to FIG. 3, the direction of the average motion vector is represented through the h (hue: color) channel of the HSV color model, and the s (saturation) and v (value) channels are represented as images using fixed values. It can be seen that the direction of the average motion vector obtained from the plurality of input images is more consistent and less noise than the direction of the motion information obtained from the single input image.

영역 분할부(120)는 복수의 입력 영상 중에서 선택된 대상 영상을 구성하는 복수의 픽셀을 복수의 객체 영역으로 분할한다.The region dividing unit 120 divides a plurality of pixels constituting the selected target image among the plurality of input images into a plurality of object regions.

사물에 따라 표현 방법을 달리하는 회화의 특성을 회화적 렌더링에 접목시키기 위해서는 픽셀 단위로 이루어진 대상 영상을 객체 단위로 재구성하는 과정, 즉 영역 분할이 필요하다. In order to combine the characteristics of paintings with different expression methods depending on objects, the process of reconstructing the target image composed of pixel units into object units, that is, region division, is required.

본 발명에 따른 회화적 렌더링 장치의 바람직한 실시예에서, 영역 분할부(120)는 영역 분할을 위하여 민시프트(mean-shift) 분할 방법을 사용할 수 있다.In a preferred embodiment of the pictorial rendering apparatus according to the present invention, the region divider 120 may use a mean-shift segmentation method for region segmentation.

민시프트 분할 방법은 대상 영상을 구성하는 각 픽셀에서의 지역 밀도 최대점을 찾아서 최대점이 유사한 그룹을 클러스터링하여 영역으로 추출하는 방법이다. 민시프트 분할 방법은 분할 결과가 유사한 색상들로 이루어진 영역으로 나타나고, 클러스터링을 이용하기 때문에 히스토그램이 불규칙해도 좋은 결과 영상을 얻을 수 있다. 또한 많은 사용자 입력을 필요로 하지 않고, 입력 영상의 픽셀에 대한 표본 데이터를 이용하여 나누어질 영역들을 계산하기 때문에 분수령(watershed) 알고리즘과 같이 영역 확산의 시작점을 낮은 수준의 점으로 정하여 생기는 과도한 분할(over segmentation)의 문제점이 적다.The minshift segmentation method is a method of finding a local density maximum point in each pixel constituting a target image and clustering a group having similar maximum points into an area. In the minshift segmentation method, the segmentation results are shown as areas of similar colors, and since clustering is used, the resultant image may be obtained even if the histogram is irregular. Also, since it does not require much user input and calculates the areas to be divided by using the sample data of the pixels of the input image, excessive division caused by setting the starting point of the area diffusion to a low level like the watershed algorithm over segmentation is less problematic.

도 4는 대상 영상을 민시프트 분할 방법에 의해 분할한 결과를 나타낸 도면이다.4 is a diagram illustrating a result of dividing a target image by a minshift division method.

도 4를 참조하면, 대상 영상이 선인장, 하늘, 구름에 대응하는 객체 영역으로 분할되었음을 알 수 있다.Referring to FIG. 4, it can be seen that the target image is divided into an object area corresponding to a cactus, a sky and a cloud.

객체 분류부(130)는 사전에 설정된 객체의 종류에 대응하여 영상 내에서 객체의 좌표 정보, 색상 정보 및 움직임 정보가 저장된 객체 분류 데이터베이스를 기초로 대상 영상으로부터 분할된 각각의 객체 영역에 포함된 객체의 종류를 결정한다.The object classifying unit 130 includes an object included in each object area partitioned from the target image based on an object classification database storing coordinate information, color information, and motion information of the object in the image corresponding to a preset object type. Determine the type of.

도 5는 풍경화를 구성하는 객체의 분류에 대한 일 실시예를 나타낸 도면이다.5 is a diagram illustrating an embodiment of classification of objects constituting the landscape painting.

도 5를 참조하여, 이하 객체 분류부(130)가 객체 영역에 포함된 객체의 종류를 결정하는 과정에 대하여 상세하게 설명한다.Referring to FIG. 5, a process of determining, by the object classifier 130, the type of an object included in an object area will be described in detail.

화가들은 회화를 그리며 일반적으로 대상의 특성, 관찰자까지의 거리 등 객체의 특성에 따라 표현 방법을 다양하게 사용하여 회화에 생동감을 부여한다. 객체 분류부(130)는 민시프트 분할 방법을 통해 얻은 객체 영역을 객체의 좌표, 색상 및 움직임에 따라 객체별로 분류한다. 이렇게 분류된 객체는 이후 렌더링부(140)에 의해 그 특성에 따라 고유한 표현방법으로 렌더링된다. Painters draw paintings. In general, artists bring a variety of expression methods to life, depending on the characteristics of the object, such as the characteristics of the object and the distance to the observer. The object classification unit 130 classifies the object area obtained through the minshift division method for each object according to the coordinates, colors, and movements of the object. The classified objects are then rendered by the rendering unit 140 in a unique expression method according to their characteristics.

객체 분류부(130)가 객체 영역에 포함된 객체를 분류할 때에는 객체의 종류에 따른 특성이 사전에 저장된 객체 분류 데이터베이스를 사용한다. 객체 분류 데이터베이스에는 객체의 분류를 위해 하나 이상의 견본 영상으로부터 사전에 수집된 객체 종류별 데이터가 저장되어 있다.When the object classification unit 130 classifies the objects included in the object area, an object classification database in which properties according to the types of objects are stored in advance is used. The object classification database stores object type data collected in advance from one or more sample images for object classification.

일반적으로 하늘은 영상의 위쪽에 위치하며, 물과 땅은 아래쪽에 위치한다. 또한 물, 구름, 나뭇잎 등은 바람이나 중력에 의해 움직이지만, 땅이나 인공구조물 등은 특별한 경우를 제외하면 항상 같은 형태를 유지한다. 이때 나뭇잎이나 풀잎과 같이 바람에 쉽게 흔들리는 사물의 경우, 영역의 가장자리가 장면 내의 다른 사물과 겹쳐지는 경우가 자주 발생한다. 이 경우 대상 영상에서 영역 분할이 명확하게 되지 않으므로 이에 대하여 별도로 영역을 정의할 수 있다.Generally, the sky is at the top of the image, and the water and the ground are at the bottom. In addition, water, clouds, leaves, etc. are moved by the wind or gravity, but the ground and artificial structures, etc. always maintain the same shape, except in special cases. In the case of an object that is easily shaken by the wind, such as a leaf or a blade of grass, the edge of the region often overlaps with other objects in the scene. In this case, since the segmentation of the target image is not clear, the region may be defined separately.

하늘, 구름 땅, 물과 같이 일정한 거리에 위치하지 않고 근거리에서부터 원거리까지 넓은 영역에 걸쳐서 분포된 대상의 경우, 객체에 분명한 경계선이 없더라도 거리에 따라 색의 대비 등을 점차적으로 조절하면서 거리감을 표현해야 한다.For objects that are not located at a certain distance, such as sky, cloud land, or water, and are distributed over a wide range from near to far, the distance should be expressed by gradually adjusting the contrast of colors according to the distance even if the object does not have a clear boundary. do.

따라서 견본 영상으로부터 민시프트 분할 알고리즘을 통해 얻어진 각 객체 영역의 색상, 좌표, 움직임 등의 정보를 분석함으로써 각 객체 영역이 지니는 특징을 수치화하고 이를 객체 분류 데이터베이스에 저장하여 대상 영상의 객체 영역에 포함된 객체의 분류에 이용할 수 있다.Therefore, by analyzing the information such as the color, coordinates, and movement of each object area obtained through the minshift segmentation algorithm from the sample image, the characteristics of each object area are quantified and stored in the object classification database to be included in the object area of the target image. Can be used to classify objects.

이를 위해 회화에 자주 등장하는 대표적인 객체를 선정하고, 이를 다시 대상 영상에서의 거리(원근)와 움직임의 유무에 따라 구분한다. 특히 본 발명에 따른 회화적 렌더링 장치의 바람직한 실시예에서는, 풍경화에 자주 등장하는 대표적인 사물로 도 5와 같이 하늘과 구름, 물, 땅, 건물과 길, 나무줄기, 나뭇잎을 예로 들어 설명한다.For this purpose, representative objects frequently appearing in paintings are selected and classified according to distance (perspective) and movement in the target image. In particular, in the preferred embodiment of the pictorial rendering apparatus according to the present invention, as a representative object frequently appearing in landscape painting will be described taking the sky and clouds, water, land, buildings and roads, tree trunks, leaves as shown in FIG.

민시프트 분할 방법을 통해 얻어진 각 객체 영역의 색상, 좌표와 옵티컬 플로우를 이용해 얻은 움직임 정보는 모두 픽셀 단위로 이루어져 있다. 객체 영역의 특징을 파악하려면 픽셀 단위로 구성된 정보를 영역별 정보로 통합해야 한다. 다음의 표 1에는 총 3개 견본 영상의 1163개 객체 영역에서 각 객체 영역을 이루고 있는 픽셀 정보의 평균을 산출하여 객체 영역별 정보로 도출한 일부를 정리하였다.The color, coordinates, and motion information of each object region obtained through the minshift segmentation method are all in pixels. In order to understand the characteristics of the object area, information that is organized in pixels must be integrated into area-specific information. In Table 1 below, the average of pixel information constituting each object area in 1163 object areas of three sample images is calculated and summarized in part by information of each object area.

분류
Classification
정규화좌표 정보
Normalized coordinate information
색상 정보
Color information
움직임 정보
Motion information
X좌표 평균X-coordinate average Y좌표 평균Y coordinate average B 채널 평균B channel average G 채널 평균G channel average R 채널 평균R channel average X 방향 평균X direction average Y 방향 평균Y direction average 나뭇잎/풀잎Leaves / blades 0.5113650.511365 0.4398430.439843 53.427253.4272 58.77858.778 58.360458.3604 0.000430.00043 0.032150.03215 나무줄기/가지Tree trunk 0.311680.31168 0.5807180.580718 37.937.9 33.433333.4333 39.977839.9778 -0.04241-0.04241 0.011860.01186 water 0.5413150.541315 0.8105290.810529 120.787120.787 110.293110.293 110.907110.907 -0.07789-0.07789 0.024850.02485 하늘/구름Sky / cloud 0.5289630.528963 0.1003310.100331 176.196176.196 161.174161.174 159.674159.674 0.078700.07870 0.029850.02985 land 0.7483590.748359 0.7118350.711835 105.842105.842 98.631698.6316 105.421105.421 -0.04705-0.04705 0.014000.01400

표 1에 포함된 정보 중에는 각 분류의 특성을 잘 반영하는 정보들이 있는 반면, 그렇지 못한 정보들도 있다. 객체 영역의 평균들 간격이 크고, 각 영역의 분산이 작은 정보들이 분류들 간의 차이를 대변해 주는 동시에 분류의 기준으로 활용하기 적합한 정보이다. 반대로, 영역의 평균들이 서로 비슷한 값을 갖고, 각 영역의 분산이 큰 정보들은 영역의 객체 분류에 기여도가 낮은 정보이다. Some of the information included in Table 1 reflects the characteristics of each classification, while others do not. Information with a large interval between the averages of the object regions and small variances of each region represents the difference between the classifications and is suitable for use as a criterion for classification. On the contrary, the averages of the regions have similar values to each other, and the information having a large variance in each region is information having a low contribution to the object classification of the region.

도 6은 영역 정보의 분포를 정규화하여 분석한 도면이다.6 is a view of normalizing and analyzing distribution of region information.

도 6을 참조하면, 영역 정보의 분포에 대한 분석으로 각 객체 영역의 정보를 0~1로 정규화하고 객체 분류별로 정보의 평균과 분포 범위를 시각화하였다. 회색 막대의 가운데 점은 각 분류의 평균을, 회색 막대는 μ(모평균)±3σ(표준편차)의 범위를 표시한다. 도 6의 (a)는 영역의 평균들의 차이가 적은데 비해 표준편차가 상대적으로 커서 영역의 분류를 위한 지표로 사용하기 어렵다. 반면에 도 6의 (b)는 하늘과 땅, 물 등의 영역의 평균들 간에 차이가 크고 상대적으로 표준편차가 작기 때문에 영역 분류의 지표에 적합하다.Referring to FIG. 6, the information of each object region is normalized to 0 to 1 by analyzing the distribution of region information, and the average and distribution range of the information for each object classification are visualized. The center dot of the gray bar represents the mean of each classification, and the gray bar represents the range of μ (parent mean) ± 3σ (standard deviation). 6 (a) shows a small difference between the averages of the regions, and is relatively difficult to use as an index for classifying the regions due to a relatively large standard deviation. On the other hand, Figure 6 (b) is suitable for the indicator of the area classification because the difference between the average of the areas of the sky, land, water, etc. and the relatively small standard deviation.

객체 분류부(130)는 이상과 같이 구축된 객체 분류 데이터베이스를 기초로 객체 종류를 결정한다. 이때 객체 영역을 분류함에 있어 각 객체 영역을 좀 더 쉽게 분석하기 위해 주성분 분석을 적용할 수 있다.The object classification unit 130 determines the object type based on the object classification database constructed as described above. In classifying object regions, principal component analysis may be applied to more easily analyze each object region.

주성분 분석은 다차원해석(multivariate analysis)의 기법 중 하나로, 상관관계에 있을 수 있는 변수들을 주성분(principal component)이라 불리는 독립적인 변수로 변환하는 수학적 절차를 말한다. Principal component analysis is a technique of multivariate analysis. It is a mathematical procedure that converts variables that can be correlated into independent variables called principal components.

주성분 분석을 통해 찾는 첫 번째 주성분은 데이터의 분산이 최대가 되는 임의의 축이며, 그 이후에 발견되는 주성분은 앞서 발견된 모든 주성분과 직교하면서 다음으로 분산이 가장 큰 임의의 축이다. 주성분 분석을 통해 찾아지는 새로운 데이터공간은 원칙적으로 입력 데이터와 같은 차원이다. 발견된 주성분이 각각 하나의 축을 나타내게 되며, 원점은 데이터의 평균이다. 주성분 분석을 통해 고유값(eigen calue)과 고유벡터(eigen vector)를 얻게 되는데, 고유값은 기존 데이터 공간에서의 고유벡터의 크기를, 고유벡터는 새로운 좌표계를 말한다. 이는 다음의 수학식 3을 통해 데이터를 고유공간으로 투영할 수 있다.The first principal component found by principal component analysis is an arbitrary axis where the variance of the data is maximum, and the principal component found thereafter is an arbitrary axis that is orthogonal to all the principal components found before and the next largest variance. The new data space found through principal component analysis is in principle the same dimension as the input data. The principal components found represent one axis each, and the origin is the mean of the data. The eigen calue and the eigen vector are obtained through the principal component analysis. The eigenvalue is the size of the eigenvector in the existing data space and the eigenvector is the new coordinate system. This can be projected to the eigenspace through the following equation (3).

Figure 112011052849396-pat00008
Figure 112011052849396-pat00008

이때 XT는 기존 공간에서의 데이터 좌표를, YT는 고유공간에서의 좌표를 말하며, ∑는 고유벡터 행렬이다.Where X T is the data coordinate in the existing space, Y T is the coordinate in the eigenspace, and ∑ is the eigenvector matrix.

또한 객체 분류부(130)는 주성분 분석을 수행한 후 객체 영역에 포함된 객체의 종류를 결정하기 위해 베이지안 분류법을 사용할 수 있다.In addition, the object classification unit 130 may use Bayesian classification to determine the type of the object included in the object region after performing the principal component analysis.

베이지안 분류법은 각 분류에 대한 베이지안 이론(Bayes' theorem)에 근거하여 새로운 패턴에 대한 분류를 통계학적으로 예측하는 방법이다. 새로운 패턴의 분류를 예측할 때에는 다음의 수학식 4에 따라 각 분류의 사후 확률을 계산하여 가장 큰 사후 확률 값을 가지는 것으로 결정한다.Bayesian taxonomy is a method of statistically predicting the classification of a new pattern based on the Bayesian theorem for each classification. When predicting a new pattern classification, the posterior probability of each classification is calculated according to Equation 4 below to determine that the largest posterior probability value is obtained.

Figure 112011052849396-pat00009
Figure 112011052849396-pat00009

이때, gi(x)는 새로운 패턴 x가 분류 wi일 확률을 말하며 wi 중에 x가 발생할 확률 p(x|wi)와 빈도수 P(wi)의 곱으로 계산된다. p(x|wi)는 wi가 N(μii)을 따른다고 가정할 때 수학식 5에 의해 계산된다.Where g i (x) is the probability that the new pattern x is a classification w i and w i Is calculated as the product of the probability p (x | w i ) and the frequency P (w i ). p (x | w i ) is calculated by Equation 5 assuming that w i follows N (μ ii ).

Figure 112011052849396-pat00010
Figure 112011052849396-pat00010

이때, x와 μi는 d차원 벡터로 표현되며 ∑는 d*d 공분산 행렬, |∑|와 ∑- 1는 각각 공분산의 행렬식과 역행렬을 의미한다.Where x and μ i are represented as d-dimensional vectors, where ∑ is the d * d covariance matrix, and | ∑ | and ∑ - 1 are the determinants and inverses of the covariance, respectively.

렌더링부(140)는 각각의 객체 영역에 대하여 객체 영역에 대응하는 객체 종류에 따라 사전에 설정된 속성을 가지는 브러시 스트로크를 적용하여 대상 영상에 대응하는 결과 영상을 생성한다.The rendering unit 140 generates a result image corresponding to the target image by applying a brush stroke having a property set in advance according to the object type corresponding to the object region for each object region.

이때 렌더링부(140)는 객체 영역 분류별로 레이어를 생성하고, 브러시 스트로크를 생성하여 레이어의 목적에 따라 브러시 스트로크의 속성을 결정하고 질감을 표현하여 렌더링한다.In this case, the rendering unit 140 creates a layer for each object region classification, generates a brush stroke, determines a property of the brush stroke according to the purpose of the layer, and renders the texture by expressing the texture.

도 7은 각 객체 영역에 대하여 레이어를 생성하는 예를 나타낸 도면이다.7 is a diagram illustrating an example of generating a layer for each object region.

도 7을 참조하면, 도 7의 (a)는 나뭇잎 전경을 표현하기 위한 렌더링 대상 영상이다. 도 7의 (b)~(h) 영상의 흰색 부분은 객체 영역을 의미한다. 나뭇잎 전경을 포함하는 객체 영역인 도 7의 (b)~(g)를 모두 합하면 나뭇잎 전경의 단일 객체 영역인 도 7의 (h)가 생성된다. 도 7의 (h)는 나뭇잎 전경을 표현하는 세 개의 레이어를 위해 사용된다.Referring to FIG. 7, (a) of FIG. 7 is a rendering target image for representing the foreground of a leaf. White portions of the images (b) to (h) of FIG. 7 mean an object area. 7 (h) to FIG. 7 (h), which are the object regions including the leaf foreground, are combined to generate a single object region of the leaf foreground. 7 (h) is used for three layers representing the foreground of the leaves.

렌더링부(140)는 각 객체 영역별로 객체의 표현 목적에 따라 세 가지 레이어를 생성할 수 있다. 렌더링부(140)는 렌더링 결과 영상을 생성하기 위해 다음의 수학식 6과 같은 레이어 집합을 사용한다.The renderer 140 may generate three layers according to the object of the object for each object region. The rendering unit 140 uses a layer set as shown in Equation 6 below to generate a rendering result image.

Figure 112011052849396-pat00011
Figure 112011052849396-pat00011

이때 n은 대상 영상 내의 객체 영역의 개수이며, 각 객체 영역에는 밑그림 표현을 위한 레이어 Lk ,u , 사물의 형태 묘사를 위한 레이어 Lk ,d , 그리고 사물의 운동감 묘사를 위한 레이어 Lk ,m 이 사용된다. 각각의 레이어 Lk는 다음의 수학식 7의 튜플(tuple)로 정의된다.Where n is the number of object areas in the target image, and each object area has layers L k , u for sketching, layers L k , d for describing the shape of the object, and layers L k , m for describing the motion of the object. This is used. Each layer L k is defined as a tuple of Equation 7 below.

Figure 112011052849396-pat00012
Figure 112011052849396-pat00012

이때 Λk는 Lk가 대상 영상에서 차지하는 영역이고, lk는 객체 영역에 포함된 객체의 종류이다. Πp는 레이어의 표현 목적으로서 밑그림 표현 Πu, 형태 표현 Πd, 그리고 운동감 표현 Πm이 있다. Λ가 렌더링 대상 영상의 전체 영역이라고 할 때, 다음의 수학식 8과 같이 전체 영역 Λ는 각각의 객체 영역의 합집합과 동등하다.In this case, Λ k is an area occupied by L k in the target image, and l k is a kind of object included in the object area. Π p has the sketch representation Π u , the form representation Π d , and the motility representation Π m for the purpose of layer representation. When Λ is the entire area of the image to be rendered, the entire area Λ is equal to the union of the respective object areas, as shown in Equation 8 below.

Figure 112011052849396-pat00013
Figure 112011052849396-pat00013

이때 lk의 영역 Λk 를 구하는 과정은 다음과 같다. 객체 영역을 Ci ,j={li , lj : i∈[1,n] , j∈[1,n]} 라고 할 때, lk의 영역 Λk는 다음의 수학식 9와 같이 객체 영역 Ci ,j의 영역 Λi,j의 합으로 표현할 수 있다.The process of calculating the region of Λ k l k is as follows. When the object area is C i , j = {l i , l j : i∈ [1, n], j∈ [1, n]}, the area Λ k of l k is an object as shown in Equation 9 below. It can be expressed by the sum of the regions Λ i, j of the regions C i , j .

Figure 112011052849396-pat00014
Figure 112011052849396-pat00014

화가들은 일반적으로 밑그림 표현, 형태 표현, 운동감 표현의 순서로 풍경화를 그린다. 또한 멀리 있는 사물부터 가까운 거리의 사물의 차례로 색을 칠한다. 이에 따라 렌더링부(140)는 1차적인 렌더링 기준으로서 레이어의 표현 목적 Πp에 따라 밑그림 표현, 형태 표현, 운동감 표현의 순서로 렌더링한다. 또한 2차적 렌더링 기준으로서 객체의 종류와 거리를 나타내는 lk를 사용하며 그 순서는 하늘, 땅, 물, 건물/길 배경, 나무줄기, 나뭇잎, 건물/길 전경, 나무줄기 전경, 나뭇잎 전경으로 할 수 있다.Painters usually draw landscapes in the order of sketches, forms, and movements. It also paints colors in chronological order from distant objects. Accordingly, the rendering unit 140 renders in the order of the sketch representation, the form representation, and the movement expression according to the expression purpose Π p of the layer as the primary rendering reference. In addition, l k is used to represent the type and distance of the object as the secondary rendering criteria, and the order is sky, land, water, building / route background, tree trunk, leaves, building / route view, tree trunk view, and leaf foreground. Can be.

이하 렌더링부(140)에서 레이어 종류에 따라 브러시 스트로크의 속성을 변경하여 적용하는 실시예에 대해 상세하게 설명한다.Hereinafter, an embodiment in which the rendering unit 140 changes and applies the property of the brush stroke according to the layer type will be described in detail.

그림을 그릴 때 가장 먼저 그리게 되는 밑그림은 그리고자 하는 장면의 대략적인 형태와 색을 표현한다. 따라서 렌더링부(140)는 밑그림 레이어를 렌더링하기 위해 대상 영상에 균일한 크기의 격자를 생성하여 모든 격자에 브러시 스트로크를 생성한다. 밑그림의 특성에 따라 모든 레이어 중 가장 큰 브러시 텍스처를 사용하며, 블러(blur)처리한 대상 영상에서 추출한 색상을 브러시 스트로크의 색상으로 사용한다.When drawing, the first sketch you draw represents the approximate form and color of the scene you are drawing. Therefore, the rendering unit 140 generates a brush stroke in all grids by generating a grid having a uniform size in the target image to render the sketch layer. According to the characteristics of the sketch, the largest brush texture is used among all the layers, and the color extracted from the blurred target image is used as the color of the brush stroke.

밑그림을 그린 후에는 사물의 형태 표현을 하고, 마지막으로 운동감 표현을 한다. 형태 표현은 사물의 특성에 따라, 움직임 표현은 움직임의 형태와 특징에 따라 다양한 표현방법이 사용된다.After drawing the sketch, express the form of things and finally express the sense of movement. Various forms of expression are used according to the characteristics of objects and shapes of movements according to the shapes and characteristics of movements.

표현하고자 하는 사물에서 유사한 특징이 발견되거나 표현 목적이 같을 경우, 표현 방법 또한 유사한 방법이 사용된다. 형태 표현 레이어는 각 사물의 형태를 묘사하는 것을 목적으로 한다. 따라서 모든 형태 표현 레이어는 공통적으로 브러시 스트로크가 사물의 윤곽선 방향을 따르도록 보간된 그라디언트 정보를 사용하며, 윤곽선을 침범하지 않도록 에지 맵을 이용해 스트로크의 길이를 제한한다.When a similar feature is found in the object to be expressed or the purpose of the expression is the same, a similar method is used. The form representation layer aims to describe the form of each object. Therefore, all shape expression layers commonly use interpolated gradient information so that brush strokes follow the contour direction of an object, and limit the length of the stroke by using an edge map so as not to invade the contour.

풍경화에서 구도 결정에 큰 역할을 하는 하늘, 땅, 그리고 물은 공통적으로 거리에 따른 형태 묘사가 이루어진다. 일반적으로 하늘은 영상의 위쪽일수록, 땅과 물은 아래쪽일수록 관찰지점에 가까운 곳이다. 따라서 이들 객체가 포함된 객체 영역의 형태 표현 레이어에는 y좌표에 따라 거리를 판단하여 거리가 증가할수록 큰 커널로 밝기 값을 블러(blur)하여 주변과의 대비가 적게 나타나는 색상을 사용한다.Sky, land, and water, which play a large role in compositional composition in landscape painting, are commonly depicted in form of distance. In general, the sky is near the top of the image, the land and water below is closer to the observation point. Therefore, in the shape expression layer of the object area that includes these objects, the distance is determined according to the y-coordinate, and as the distance increases, a larger kernel blurs the brightness value and uses a color that shows less contrast with the surroundings.

또한 나무 줄기와 나뭇잎, 건물이나 길 등의 인공구조물은 거리에 따라 전경과 배경으로 구분된다. 대상 영상에서 배경은 전경에 비해 사물의 특징이 단순화되어 나타난다. 따라서 같은 브러시 텍스처를 사용하지만 상대적으로 큰 격자를 사용하여 전경에 보다 세밀한 형태 묘사가 이뤄지도록 한다. 또한, 각 사물의 특징을 표현하기 위해서 객체의 종류에 따라 서로 다른 브러시 텍스처를 사용하여 렌더링한다.Also, artificial structures such as tree trunks and leaves, buildings and roads are divided into foreground and background according to the distance. In the target image, the background is simplified in characteristics of the object compared to the foreground. Therefore, use the same brush texture but use a relatively large grid to provide more detailed shape representation in the foreground. In addition, in order to express the characteristics of each object, it is rendered using different brush textures according to the type of object.

운동감 표현 레이어에는 객체의 움직임 정보에 따라서 표현방법이 다르게 적용된다. 화가들은 사물의 형태를 표현한 후, 움직임을 강조하고자 하는 부분만 선택적으로 칠해줌으로써 움직임 표현의 효과를 극대화한다. 또한 움직임의 방향이 잘 나타나도록 브러시 스트로크의 방향이 움직임 방향과 일치하도록 하며, 움직임을 보다 강조하기 위해 다양한 색상을 사용한다. The expression method is applied differently to the movement expression layer according to the motion information of the object. The artists maximize the effect of the movement expression by expressing the form of the object and then selectively painting only the part to emphasize the movement. Also, make sure the direction of the brush stroke matches the direction of movement so that the direction of movement is well represented, and use various colors to emphasize the movement more.

렌더링부(140)는 이러한 표현 방법을 모사하기 위해 운동감 표현 레이어에서 평균 움직임 벡터의 크기가 임계치 이상인 격자 셀에 대하여만 브러시 스트로크를 생성하여 브러시 스트로크 방향이 평균 움직임 벡터의 방향을 따르도록 한다. 또한 색상 결정시 평균 움직임 벡터의 크기가 클수록 H 채널에 노이즈를 가해서 다양한 색상으로 운동감을 강조한다. To simulate this representation, the rendering unit 140 generates brush strokes only for lattice cells whose average motion vectors are larger than or equal to a threshold value in the movement expression layer so that the brush stroke directions follow the directions of the average motion vectors. In addition, the larger the average motion vector in color determination, the more noise is added to the H channel to emphasize the movement in various colors.

도 8은 렌더링 속성 데이터베이스의 알고리즘의 개요를 나타내는 도면이다.8 is a diagram illustrating an outline of an algorithm of a rendering attribute database.

도 8을 참조하면, 렌더링부(140)는 각 레이어마다 다르게 적용되는 브러시 스트로크의 생성 위치, 크기, 색상 등의 결정 방법과 사용 텍스처가 사전에 저장된 렌더링 속성 데이터베이스를 사용하여 렌더링을 수행할 수 있다.Referring to FIG. 8, the rendering unit 140 may perform rendering using a rendering property database in which a method of determining a generation position, a size, a color, and the like of a brush stroke applied differently for each layer and a texture used are stored in advance. .

도 9는 각 레이어별로 적용되는 브러시 텍스처를 나타내는 도면이다.9 is a diagram illustrating a brush texture applied to each layer.

도 9를 참조하면, 본 발명에 따른 회화적 렌더링 장치는 객체의 종류에 따라 밑그림, 형태, 운동감 표현 별로 브러시 스트로크를 선택하여 적용한다.Referring to FIG. 9, the pictorial rendering apparatus according to the present invention selects and applies a brush stroke for each sketch, shape, and movement expression according to an object type.

이하 렌더링부(140)에서 렌더링을 수행할 때 브러시 스트로크를 생성하는 방법에 대하여 상세하게 설명한다.Hereinafter, a method of generating a brush stroke when the rendering unit 140 performs rendering will be described in detail.

렌더링부(140)는 격자(grid)에 기반한 브러시 생성 알고리즘을 사용한다. 각 레이어에서 사용되는 격자의 크기는 렌더링 속성 데이터베이스를 참고하며, 지정된 브러시 텍스처의 효과를 고려하여 결정된다. 본 발명에 따른 회화적 렌더링 장치의 바람직한 실시예에서 레이어 별로 사용된 격자 크기는 다음의 표 2와 같다. The renderer 140 uses a brush generation algorithm based on a grid. The size of the grid used for each layer is consulted by the rendering properties database and is determined by considering the effect of the specified brush texture. In the preferred embodiment of the painterly rendering device according to the present invention, the grid size used for each layer is shown in Table 2 below.

객체분류/표현모델Object Classification / Expression Model 밑그림Sketch 형태shape 운동감Movement 하늘sky 2020 88 1010 land 2020 55 1010 나뭇잎 배경Leaves background 2020 1010 1010 나뭇잎 전경Leaves foreground 2020 1010 88 나무 전경Tree foreground 2020 22 1010 그 외etc 2020 33 1010

표 2에서 격자 크기의 단위는 픽셀이다.In Table 2, the unit of the grid size is pixels.

브러시의 생성 조건은 레이어의 표현 목적에 따라 달라진다. 밑그림이나 형태 표현 레이어는 생성된 격자를 순회하면서 현재 위치가 객체 영역에 포함될 경우 브러시를 생성한다. 반면에 운동감 표현 레이어는 격자 내의 평균 움직임 크기를 사전에 설정된 값과 비교하여 그보다 클 경우에만 브러시를 생성함으로써 움직임이 관찰되는 부분만 선택하여 운동감 표현을 한다.The conditions for creating a brush depend on the purpose of the layer's presentation. The sketch or shape representation layer traverses the generated grid and creates a brush when the current position is included in the object area. On the other hand, the movement expression layer expresses the movement by selecting only the part where the movement is observed by generating a brush only when the average movement size in the grid is larger than a preset value.

이하 렌더링부(140)에서 렌더링을 수행할 때 브러시의 속성을 결정하는 방법에 대하여 상세하게 설명한다.Hereinafter, a method of determining an attribute of a brush when rendering in the rendering unit 140 will be described in detail.

렌더링부(140)에서 렌더링을 수행할 때 결정하는 브러시의 속성은 위치, 방향, 길이, 색상이다. 모든 브러시의 속성은 각 레이어의 표현 의도를 충족시키기 위해 다양한 알고리즘을 적용해 결정된다. The attributes of the brush determined when the rendering unit 140 performs rendering are position, direction, length, and color. The properties of all brushes are determined by applying various algorithms to meet the presentation intent of each layer.

브러시 스트로크의 위치는 생성과 동시에 결정되며, 나머지 속성의 결정 과정은 크게 두 가지로 구분된다. 렌더링 대상 영상의 그라디언트를 참고하는 방법과 평균 움직임 벡터의 방향을 참고하는 방법으로, 전자는 밑그림 표현 레이어와 형태 표현 레이어에서, 후자는 운동감 표현 레이어에서 사용된다.The position of the brush stroke is determined at the same time as the creation, and the process of determining the remaining properties is largely divided into two. The former is used in the sketch expression layer and the shape expression layer, and the latter is used in the motion expression layer by referring to the gradient of the image to be rendered and the direction of the average motion vector.

회화적 렌더링에서 브러시 스트로크의 방향을 주변 윤곽선의 방향과 동일하게 결정하는 것은 중요한 요소 중 하나이다. 많은 연구들이 브러시 스트로크의 방향 결정을 위해 그라디언트를 참고하였으며, 결과 영상에서 브러시 스트로크들이 보다 일관된 방향성을 보이도록 하기 위해 다양한 그라디언트 보간 알고리즘을 사용했다.Determining the direction of a brush stroke in the painterly rendering is the same as the direction of the surrounding contour is one of the important factors. Many studies have used gradients to determine the direction of brush strokes and used various gradient interpolation algorithms to make the brush strokes show more consistent orientation in the resulting image.

렌더링부(140)는 엣지 탄젠트 플로우(Edge Tangent Flow :ETF) 기법으로 대상 영상의 보간된 그라디언트 맵을 사용하여 밑그림 표현 레이어와 형태 표현 레이어의 브러시 스트로크 방향을 결정하고, 평균 움직임 벡터의 방향을 사용하여 운동감 표현 레이어의 브러시 스트로크 방향을 결정한다. 이때 운동감 표현 레이어에 대하여도 브러시 스트로크의 방향의 일관성을 유지하기 위해 평균 움직임 벡터의 방향에 ETF를 적용하여 사용할 수 있다. The rendering unit 140 determines the brush stroke direction of the sketch expression layer and the shape expression layer by using an interpolated gradient map of the target image using an edge tangent flow (ETF) technique, and uses the direction of an average motion vector. Determine the brush stroke direction of the movement expression layer. In this case, the ETF may be applied to the direction of the average motion vector in order to maintain the consistency of the direction of the brush stroke for the motion expression layer.

도 10은 ETF의 기법의 보간된 그라디언트를 따르는 브러시 스트로크 방향을 나타낸 도면이다. 도 10을 참조하면, 원본 그라디언트의 방향과 비교할 때 브러시 스트로크 방향의 일관성이 크게 향상된 것을 확인할 수 있다.10 is a diagram illustrating brush stroke directions along an interpolated gradient of the technique of the ETF. Referring to FIG. 10, it can be seen that the consistency of the brush stroke direction is greatly improved compared to the direction of the original gradient.

렌더링부(140)는 구조적 일관성을 유지하기 위해 브러시 스트로크가 윤곽선을 침범하지 않도록 한다. 이때 형태 묘사의 중요도가 상대적으로 낮은 밑그림 표현 레이어에 대하여는 윤곽선 대신 영역 경계(region boundary)만을 고려하여 브러시 스트로크의 길이를 제한한다. 영역 경계는 레이어의 영역 정보를 마스크 맵 형태로 생성하여 사용한다. 형태 표현 레이어와 운동감 표현 레이어에 대하여는 브러시 스트로크가 사물의 경계선을 침범하지 않도록 윤곽선과 영역 경계를 함께 고려한다. 대상 영상의 윤곽선 맵을 얻기 위해 캐니 윤곽선 추출(Canny edge detection) 기법을 사용할 수 있다. The renderer 140 prevents the brush strokes from invading the contour to maintain structural consistency. In this case, for the sketch expression layer having a relatively low importance of the shape description, the length of the brush stroke is limited by considering only the region boundary instead of the outline. The region boundary generates and uses region information of a layer in a mask map form. For the shape expression layer and the motion expression layer, the contour and the area boundary are considered together so that the brush stroke does not invade the boundary of the object. Canny edge detection may be used to obtain a contour map of the target image.

도 11은 나뭇잎 배경 영역의 마스크 맵과 윤곽선 맵의 시각화 영상을 나타낸 도면이다. 도 11을 참조하면, 흰 부분은 나뭇잎 배경 영역, 회색 선은 추출된 윤곽선을 나타낸다. 11 is a diagram illustrating a visualization image of a mask map and an outline map of a leaf background region. Referring to FIG. 11, the white portion represents the leaf background region and the gray line represents the extracted contour.

밑그림 표현 레이어는 대략적인 형태 묘사를 목표로 하므로 렌더링부(140)는 대상 영상 대신 가우시안 블러를 적용한 영상에서 각 객체 영역의 대표적인 브러시 스트로크의 색상을 결정한다.Since the sketch expression layer aims to roughly describe the shape, the rendering unit 140 determines the color of the representative brush stroke of each object area in the image to which Gaussian blur is applied instead of the target image.

형태 표현 레이어는 객체의 종류에 따라 색상 결정 방법이 구분된다. 자연스런 회화에서 하늘이나 땅, 물 등을 표현할 때 가까운 곳에 비해 먼 곳의 색상 대비를 상대적으로 낮게 표현한다. 따라서 렌더링부(140)는 하늘, 땅, 그리고 물의 형태 표현 레이어에서 거리에 따라 밝기값을 조절한다. 거리의 원근 관계는 y좌표를 통해 추정한다. 하늘은 y값이 클수록 관찰위치로부터 멀리 떨어진 곳이다. 반면에 땅과 물의 경우는 y값이 커질수록 관찰위치에서 가까운 곳이다. In the shape expression layer, color determination methods are classified according to types of objects. When expressing sky, land, water, etc. in natural paintings, the contrast of colors in the far place is relatively lower than in the near place. Therefore, the rendering unit 140 adjusts the brightness value according to the distance in the form representation layer of the sky, the ground, and the water. The perspective relationship of the distance is estimated from the y coordinate. The greater the y value, the farther away the sky is from the observation position. On the other hand, in the case of land and water, the larger the y value, the closer the observation position is.

렌더링부(140)는 레이어 별로 각 객체 영역의 최소/최대 y값을 구한 뒤, y값을 이용해 먼 곳에 위치한 객체 영역에 적용되는 브러시 스트로크들의 밝기값 간의 차이를 가우시안 블러를 통해 줄인다. 하늘과 땅, 물을 제외한 배경과 전경 레이어는 각각 대상 영상의 원본 색상으로부터 브러시 스트로크 색상을 결정한다.The rendering unit 140 obtains the minimum / maximum y value of each object region for each layer and reduces the difference between the brightness values of the brush strokes applied to the object region located far away using the y value through Gaussian blur. The background and foreground layers except for sky, land, and water determine the brush stroke color from the original color of the target image.

운동감 표현 레이어의 색상은 색상(hue)에 랜덤 노이즈를 가함으로서 운동감을 보다 극적으로 표현한다. 즉, 앞에서 설명한 바와 같이 브러시 스트로크 생성 위치의 평균 움직임 벡터 크기가 클수록 노이즈를 강하게 적용하여 효과를 표현한다.The color of the movement expression layer expresses the movement more dramatically by applying random noise to the hue. That is, as described above, the larger the average motion vector of the brush stroke generating position is, the stronger the noise is applied to express the effect.

이하 렌더링부(140)에서 렌더링을 수행할 때 브러시 스트로크의 질감 표현을 결정하는 방법에 대하여 상세하게 설명한다.Hereinafter, a method of determining the texture representation of the brush stroke when rendering in the rendering unit 140 will be described in detail.

회화적 렌더링은 회화적 느낌의 결과 생성을 목적으로 한다. 브러시 스트로크의 질감 표현은 이러한 회화적 렌더링의 목적 달성을 위해 매우 중요한 요소이다. 본 발명에 따른 회화적 렌더링 장치의 바람직한 실시예에서 렌더링부(140)는 텍스처 매핑을 통해 브러시 스트로크의 질감을 표현할 수 있다.Painterly rendering aims to produce a result of painterly feeling. The texture representation of brush strokes is a very important factor in achieving the purpose of this painterly rendering. In a preferred embodiment of the pictorial rendering apparatus according to the present invention, the rendering unit 140 may express the texture of brush strokes through texture mapping.

이때 브러시의 텍스처 매핑을 위해 각 브러시마다 두 개의 흑백 영상을 사용한다. 하나는 알파 블렌딩을 위한 알파 마스크, 다른 하나는 브러시의 질감 표현을 위한 텍스처이다.In this case, two black and white images are used for each brush for texture mapping of the brush. One is the alpha mask for alpha blending, and the other is the texture for brush texture.

브러시 텍스처는 2차원 영상으로 존재한다. 따라서 브러시를 렌더링하려면 브러시 텍스처의 형태를 브러시가 적용되는 영역의 위치와 모양에 맞게 바꾸는 변환 과정이 필요하다. 변환 과정은 크기 조절, 회전, 색상 적용 단계로 구성된다.Brush textures exist as two-dimensional images. Therefore, rendering a brush requires a conversion process that changes the shape of the brush texture to match the position and shape of the area where the brush is applied. The conversion process consists of scaling, rotation, and color application.

도 12는 렌더링부(140)에서 브러시 스트로크의 질감 표현을 위해 사용하는 브러시 텍스처의 변환 과정을 나타낸 도면이다.FIG. 12 is a diagram illustrating a process of converting a brush texture used by the renderer 140 to express a texture of a brush stroke.

도 12를 참조하면, 변환에는 브러시의 속성값이 이용된다. 먼저 원본 텍스처는 브러시 스트로크의 설정된 길이에 따라 크기가 조절된다. 크기 조절된 브러시 텍스처는 브러시 스트로크의 방향에 맞도록 회전되고, 마지막으로 지정된 색상이 적용된다. 이렇게 변환이 완료된 텍스처는 알파 마스크의 알파 값에 의해 기존에 적용된 브러시와 블렌딩 됨으로써 브러시의 렌더링이 완료된다.Referring to FIG. 12, an attribute value of a brush is used for the transformation. First, the original texture is scaled according to the set length of the brush stroke. The scaled brush texture is rotated to match the direction of the brush stroke, and finally the specified color is applied. This converted texture is blended with the previously applied brush by the alpha value of the alpha mask to complete rendering of the brush.

도 13은 본 발명에 따른 회화적 렌더링 방법에 대한 바람직한 실시예의 수행과정을 도시한 흐름도이다.13 is a flowchart illustrating a process of performing a preferred embodiment of the pictorial rendering method according to the present invention.

도 13을 참조하면, 움직임 추출부(110)는 고정 시점으로 입력된 복수의 입력 영상에서 각 픽셀의 움직임 정보를 추출하고(S1100), 영역 분할부(120)는 복수의 입력 영상 중에서 선택된 대상 영상을 구성하는 복수의 픽셀을 복수의 객체 영역으로 분할하며(S1200), 객체 분류부(130)는 사전에 설정된 객체의 종류에 대응하여 영상 내에서 상기 객체의 좌표 정보, 색상 정보 및 움직임 정보가 저장된 객체 분류 데이터베이스를 기초로 각각의 객체 영역에 포함된 객체의 종류를 결정한다(S1300). 렌더링부(140)는 각각의 객체 영역에 대하여 객체 영역에 포함된 객체의 종류에 따라 사전에 설정된 속성을 가지는 브러시 스트로크를 적용하여 대상 영상에 대응하는 결과 영상을 생성한다(S1500).Referring to FIG. 13, the motion extractor 110 extracts motion information of each pixel from a plurality of input images input at a fixed time point (S1100), and the area divider 120 selects a target image selected from a plurality of input images. A plurality of pixels constituting a plurality of pixels are divided into a plurality of object regions (S1200), and the object classification unit 130 stores coordinate information, color information, and motion information of the object in an image corresponding to a preset object type. The type of the object included in each object area is determined based on the object classification database (S1300). The renderer 140 generates a result image corresponding to the target image by applying a brush stroke having a property set in advance to each object region according to the type of the object included in the object region (S1500).

본 발명에 따른 회화적 렌더링 장치의 성능을 평가하기 위한 실험을 수행하였다. 실험에 사용된 프로그램은 윈도우 기반의 PC에서 마이크로소프트사의 Visual Stidio 2005를 사용하여 MFC 기반으로 구현하였다. 또한 2D 영상처리를 위해 OpenCV 1.0 라이브러리를 사용하였다. 실험에 사용된 시스템은 Intel core2Duo E6550 CPU(2.33MHz)와 RAM 4GB의 표준 PC이다. 결과 생성에는 640*480 크기의 38프레임 동영상을 기준으로 장면 분석 단계에서 약 30초, 렌더링 단계에서 약 20초가 소요되었다.An experiment was conducted to evaluate the performance of the pictorial rendering apparatus according to the present invention. The program used for the experiment was implemented based on MFC using Microsoft's Visual Stidio 2005 on a Windows-based PC. Also, OpenCV 1.0 library was used for 2D image processing. The system used for the experiment was a standard PC with an Intel core2Duo E6550 CPU (2.33MHz) and 4GB of RAM. It took about 30 seconds in the scene analysis stage and about 20 seconds in the rendering stage based on 38 frames of 640 * 480 size video.

도 14는 본 발명에 따른 회화적 렌더링 장치를 이용하여 입력 영상을 렌더링하는 예를 나타낸 도면이다.14 is a diagram illustrating an example of rendering an input image using the pictorial rendering apparatus according to the present invention.

도 14를 참조하면, 도 14의 (a)는 렌더링 대상인 입력 영상, 도 14의 (b)는 움직임 정보를 시각화한 영상이다. 도 14의 (c)~(m)은 각 객체의 종류와 표현 목적에 따른 레이어의 렌더링 결과이다. 대상 영상에 나타난 객체를 총 7가지의 종류의 객체로 분류하였고, 움직임 정보를 기반으로 물과 나뭇잎 전경에 대한 운동감 표현 레이어를 생성하여 렌더링했다. Referring to FIG. 14, FIG. 14A illustrates an input image to be rendered, and FIG. 14B illustrates an image of motion information. 14C to 14M show a rendering result of a layer according to the type of each object and the purpose of expression. The objects shown in the target image were classified into seven kinds of objects, and based on the motion information, a motion expression layer for the foreground of water and leaves was created and rendered.

도 14의 (n)은 렌더링을 수행한 최종적인 결과 영상이다. 결과 영상은 각 레이어의 렌더링 순서에 따라 렌더링된 레이어를 적층하여 도출하였다. 나무줄기, 나뭇잎, 하늘, 물, 땅 등이 서로 다른 브러시 텍스처로 렌더링된 것을 확인할 수 있다. 또한 대상 영상에서 움직임이 주로 나타나는 물의 경우, 운동감 표현 레이어의 렌더링 방법에 따라 브러시 스트로크 색상이 형태 묘사의 브러시 스트로크 색상과 다르게 표현되었음을 알 수 있다.14 (n) shows a final result image of the rendering. The resulting image was derived by stacking the rendered layers according to the rendering order of each layer. You can see tree trunks, leaves, sky, water and ground rendered with different brush textures. In addition, in the case of water in which the movement mainly occurs in the target image, it can be seen that the brush stroke color is different from the brush stroke color in the shape description according to the rendering method of the motion expression layer.

도 15는 본 발명에 따른 회화적 렌더링 장치에서 객체 종류에 따라 렌더링을 차별화하는 알고리즘의 적용 결과를 기존 알고리즘과 비교한 영상이다.15 is an image comparing an application result of an algorithm for differentiating rendering according to an object type in a pictorial rendering apparatus according to the present invention.

도 15를 참조하면, 각 영역의 객체 종류에 따라 다양한 텍스처로 사물을 표현함으로서 하늘, 나뭇잎, 건물, 물이 각각 정의된 렌더링 방법과 텍스처를 사용하여 렌더링 되었다. 또한, 움직임이 잘 나타나는 물의 경우, 기존의 방법은 구름다리의 그림자 윤곽선을 보존하여 렌더링하였으나 본 발명에 따른 회화적 렌더링 장치에서는 윤곽선 대신 입력 영상의 움직임을 고려한 렌더링을 통해 움직임을 보다 잘 나타내고 있다.Referring to FIG. 15, by expressing objects in various textures according to the object type of each region, the sky, the leaves, the buildings, and the water were rendered using the defined rendering methods and textures, respectively. In addition, in the case of water where motion is well represented, the conventional method preserves and renders the shadow outline of the bridge, but the pictorial rendering apparatus according to the present invention shows the motion better through rendering considering the motion of the input image instead of the outline.

도 16은 움직임 정보를 이용한 색상 조절 유무에 따른 결과 비교 영상이다.16 is a result comparison image according to the presence or absence of color control using motion information.

도 16을 참조하면, 본 발명에 따른 회화적 렌더링 장치에서 움직임 표현 레이어의 브러시 스트로크 색상을 움직임 정보를 이용하여 조절함으로써 움직임이 강조되어 표현되는 것을 알 수 있다.Referring to FIG. 16, it can be seen that the movement is emphasized by adjusting the brush stroke color of the motion expression layer using the motion information in the pictorial rendering apparatus according to the present invention.

본 발명은 또한 컴퓨터로 읽을 수 있는 기록매체에 컴퓨터가 읽을 수 있는 코드로서 구현하는 것이 가능하다. 컴퓨터가 읽을 수 있는 기록매체는 컴퓨터 시스템에 의하여 읽혀질 수 있는 데이터가 저장되는 모든 종류의 기록장치를 포함한다.The present invention can also be embodied as computer-readable codes on a computer-readable recording medium. A computer-readable recording medium includes all kinds of recording apparatuses in which data that can be read by a computer system is stored.

컴퓨터가 읽을 수 있는 기록매체의 예로는 ROM, RAM, CD-ROM, 자기 테이프, 플로피 디스크, 광데이터 저장장치 등이 있으며, 또한 캐리어 웨이브(예를 들어 인터넷을 통한 전송)의 형태로 구현되는 것도 포함한다. 또한 컴퓨터가 읽을 수 있는 기록매체는 네트워크로 연결된 컴퓨터 시스템에 분산되어 분산방식으로 컴퓨터가 읽을 수 있는 코드가 저장되고 실행될 수 있다.Examples of the computer-readable recording medium include a ROM, a RAM, a CD-ROM, a magnetic tape, a floppy disk, an optical data storage device, and the like, and may be implemented in the form of a carrier wave (for example, transmission via the Internet) . The computer readable recording medium can also be distributed over network coupled computer systems so that the computer readable code is stored and executed in a distributed fashion.

이상에서 본 발명의 바람직한 실시 예에 대해 도시하고 설명하였으나, 본 발명은 상술한 특정의 바람직한 실시 예에 한정되지 아니하며, 청구범위에서 청구하는 본 발명의 요지를 벗어남이 없이 당해 발명이 속하는 기술분야에서 통상의 지식을 가진 자라면 누구든지 다양한 변형 실시가 가능한 것은 물론이고, 그와 같은 변경은 청구범위 기재의 범위 내에 있게 된다.Although the preferred embodiments of the present invention have been shown and described above, the present invention is not limited to the above-described specific preferred embodiments, and the present invention belongs to the present invention without departing from the gist of the present invention as claimed in the claims. Various modifications can be made by those skilled in the art, and such changes are within the scope of the claims.

110 - 움직임 추출부
120 - 영역 분할부
130 - 객체 분류부
140 - 렌더링부
110-motion extractor
120-region divider
130-object classifier
140-renderer

Claims (17)

고정 시점으로 입력된 복수의 입력 영상으로부터 각 픽셀의 움직임 정보를 추출하는 움직임 추출부;
상기 복수의 입력 영상 중에서 선택된 대상 영상을 구성하는 복수의 픽셀을 복수의 객체 영역으로 분할하는 영역 분할부;
사전에 설정된 객체의 종류에 대응하여 영상 내에서 상기 객체의 좌표 정보, 색상 정보 및 움직임 정보가 저장된 객체 분류 데이터베이스를 기초로 상기 각각의 객체 영역에 포함된 객체의 종류를 결정하는 객체 분류부; 및
상기 각각의 객체 영역에 대하여 상기 객체 영역에 포함된 상기 객체의 종류에 따라 사전에 설정된 속성을 가지는 브러시 스트로크를 적용하여 상기 대상 영상에 대응하는 결과 영상을 생성하는 렌더링부;를 포함하는 것을 특징으로 하는 객체의 움직임 정보에 기반한 회화적 렌더링 장치.
A motion extractor configured to extract motion information of each pixel from a plurality of input images input at a fixed viewpoint;
An area dividing unit dividing a plurality of pixels constituting the selected target image among the plurality of input images into a plurality of object regions;
An object classification unit determining a type of an object included in each object area based on an object classification database storing coordinate information, color information, and motion information of the object in an image corresponding to a preset object type; And
And a rendering unit generating a resultant image corresponding to the target image by applying a brush stroke having a predetermined property to each object region according to the type of the object included in the object region. A pictorial rendering device based on motion information of an object.
제 1항에 있어서,
상기 움직임 추출부는 평균 움직임 벡터를 통하여 잡음의 영향을 최소화하고 상기 복수의 입력 영상을 구성하는 픽셀의 움직임의 크기를 측정하는 옵티컬 플로우 기법을 사용하여 상기 대상 영상에 대응하는 움직임 정보를 추출하는 것을 특징으로 하는 객체의 움직임 정보에 기반한 회화적 렌더링 장치.
The method of claim 1,
The motion extractor extracts motion information corresponding to the target image by using an optical flow technique that minimizes the influence of noise through an average motion vector and measures the size of motion of pixels constituting the plurality of input images. A pictorial rendering device based on motion information of an object.
제 1항 또는 제 2항에 있어서,
상기 영역 분할부는 상기 대상 영상을 구성하는 복수의 픽셀의 색상 평균값을 이용하는 민시프트(mean shift) 분할 방법에 의해 상기 대상 영상을 복수의 객체 영역으로 분할하는 것을 특징으로 하는 객체의 움직임 정보에 기반한 회화적 렌더링 장치.
3. The method according to claim 1 or 2,
The region dividing unit divides the target image into a plurality of object regions by a mean shift dividing method using color average values of the plurality of pixels constituting the target image. Rendering device.
제 1항 또는 제 2항에 있어서,
상기 객체 분류부는 상기 움직임 정보 및 상기 각각의 객체 영역으로부터 얻어진 색상 및 좌표 정보를 기초로 주성분분석 및 베이지안 분류법에 의해 상기 객체의 종류를 결정하는 것을 특징으로 하는 객체의 움직임 정보에 기반한 회화적 렌더링 장치.
3. The method according to claim 1 or 2,
The object classifying unit pictorial rendering apparatus based on the motion information of the object, characterized in that for determining the type of the object by the principal component analysis and Bayesian classification method based on the motion information and the color and coordinate information obtained from the respective object area. .
제 1항 또는 제 2항에 있어서,
상기 렌더링부는 상기 각각의 객체 영역에 대응하여 밑그림 표현 레이어, 형태 표현 레이어 및 운동감 표현 레이어를 생성하고, 상기 브러시 스트로크의 속성으로서 브러시의 위치, 방향, 길이 및 색상이 사전에 저장된 렌더링 속성 데이터베이스를 기초로 상기 각각의 레이어에 대하여 렌더링을 수행하는 것을 특징으로 하는 객체의 움직임 정보에 기반한 회화적 렌더링 장치.
3. The method according to claim 1 or 2,
The rendering unit generates a sketch expression layer, a shape expression layer, and a motion expression layer corresponding to each object area, and based on a rendering property database in which positions, directions, lengths, and colors of a brush are stored in advance as attributes of the brush stroke. And pictorial rendering apparatus based on motion information of an object, wherein the rendering is performed on each layer.
제 5항에 있어서,
상기 렌더링부는 엣지 탄젠트 플로우(Edge Tangent Flow :ETF) 기법에 의해 상기 대상 영상으로부터 얻어진 그라디언트 맵을 사용하여 상기 밑그림 표현 레이어와 상기 형태 표현 레이어에 적용되는 브러시 스트로크의 방향을 결정하고, 상기 복수의 입력 영상의 평균 움직임 벡터의 방향을 기초로 상기 운동감 표현 레이어에 적용되는 상기 브러시 스트로크의 방향을 결정하는 것을 특징으로 하는 객체의 움직임 정보에 기반한 회화적 렌더링 장치.
6. The method of claim 5,
The rendering unit determines a direction of a brush stroke applied to the sketch expression layer and the shape expression layer by using a gradient map obtained from the target image by an edge tangent flow (ETF) technique, and inputs the plurality of inputs. A pictorial rendering apparatus based on motion information of an object, characterized in that the direction of the brush stroke applied to the motion expression layer is determined based on the direction of the average motion vector of the image.
제 5항에 있어서,
상기 렌더링부는 상기 각각의 객체 영역의 경계를 마스크 맵 형태로 생성하여 상기 밑그림 표현 레이어에 적용되는 브러시 스트로크의 길이를 결정하고, 캐니 윤곽선 추출 기법을 사용하여 상기 대상 영상으로부터 추출된 윤곽선 및 상기 각각의 객체 영역의 경계를 기초로 상기 형태 표현 레이어 및 상기 운동감 표현 레이어에 적용되는 브러시 스트로크의 길이를 결정하는 것을 특징으로 하는 객체의 움직임 정보에 기반한 회화적 렌더링 장치.
6. The method of claim 5,
The rendering unit generates the boundary of each object area in the form of a mask map to determine the length of the brush stroke applied to the sketch expression layer, and the contour and the respective contours extracted from the target image using the Canny contour extraction technique. And a brush stroke applied to the shape expression layer and the movement expression layer based on a boundary of an object region.
제 5항에 있어서,
상기 렌더링부는 상기 대상 영상에 가우시안 블러를 적용한 영상의 각 픽셀의 색상 정보를 기초로 상기 밑그림 표현 레이어에 적용되는 브러시 스트로크의 색상을 결정하고, 상기 대상 영상의 색상(hue) 채널에 랜덤 노이즈를 적용한 영상의 각 픽셀의 색상 정보를 기초로 상기 운동감 표현 레이어에 적용되는 브러시 스트로크의 색상을 결정하는 것을 특징으로 하는 객체의 움직임 정보에 기반한 회화적 렌더링 장치.
6. The method of claim 5,
The renderer determines a color of a brush stroke applied to the sketch expression layer based on color information of each pixel of the image to which Gaussian blur is applied to the target image, and applies random noise to a hue channel of the target image. A pictorial rendering apparatus based on motion information of an object, characterized by determining a color of a brush stroke applied to the movement expression layer based on color information of each pixel of an image.
고정 시점으로 입력된 복수의 입력 영상으로부터 각 픽셀의 움직임 정보를 추출하는 움직임 추출 단계;
상기 복수의 입력 영상 중에서 선택된 대상 영상을 구성하는 복수의 픽셀을 복수의 객체 영역으로 분할하는 분할 영역 추출 단계;
사전에 설정된 객체의 종류에 대응하여 영상 내에서 상기 객체의 좌표 정보, 색체 정보 및 움직임 정보가 저장된 객체 분류 데이터베이스를 기초로 상기 각각의 객체 영역의 객체 종류를 결정하는 객체 분류 단계; 및
상기 각각의 객체 영역에 대하여 상기 객체 영역에 대응하는 상기 객체 종류에 따라 사전에 설정된 속성을 가지는 브러시 스트로크를 적용하여 상기 대상 영상에 대응하는 결과 영상을 생성하는 렌더링 단계;를 포함하는 것을 특징으로 하는 객체의 움직임 정보에 기반한 회화적 렌더링 방법.
A motion extraction step of extracting motion information of each pixel from a plurality of input images input at a fixed viewpoint;
A division region extraction step of dividing a plurality of pixels constituting a selected target image among the plurality of input images into a plurality of object regions;
An object classification step of determining an object type of each object area on the basis of an object classification database storing coordinate information, color information, and motion information of the object in an image corresponding to a preset object type; And
And a rendering step of generating a resultant image corresponding to the target image by applying a brush stroke having a property set in advance according to the object type corresponding to the object region to each object region. Painterly rendering method based on motion information of an object.
제 9항에 있어서,
상기 움직임 추출 단계는 평균 움직임 벡터를 통하여 잡음의 영향을 최소화하고 상기 복수의 입력 영상을 구성하는 픽셀의 움직임의 크기를 측정하는 옵티컬 플로우 기법을 사용하여 상기 대상 영상에 대응하는 움직임 정보를 추출하는 것을 특징으로 하는 객체의 움직임 정보에 기반한 회화적 렌더링 방법.
The method of claim 9,
The extracting of motions may include extracting motion information corresponding to the target image by using an optical flow technique for minimizing the influence of noise through an average motion vector and measuring the magnitude of motion of pixels constituting the plurality of input images. A pictorial rendering method based on motion information of an object.
제 9항 또는 제 10항에 있어서,
상기 영역 분할 단계는 상기 대상 영상을 구성하는 복수의 픽셀의 색상 평균값을 이용하는 민시프트(mean shift) 분할 방법에 의해 상기 대상 영상을 복수의 객체 영역으로 분할하는 것을 특징으로 하는 객체의 움직임 정보에 기반한 회화적 렌더링 방법.
11. The method according to claim 9 or 10,
The segmentation step may be performed by splitting the target image into a plurality of object regions by a mean shift splitting method using color average values of a plurality of pixels constituting the target image. Painterly rendering method.
제 9항 또는 제 10항에 있어서,
상기 객체 분류 단계는 상기 움직임 정보 및 상기 각각의 객체 영역으로부터 얻어진 색상 및 좌표 정보를 기초로 주성분분석 및 베이지안 분류법에 의해 상기 객체의 종류를 결정하는 것을 특징으로 하는 객체의 움직임 정보에 기반한 회화적 렌더링 방법.
11. The method according to claim 9 or 10,
In the object classification step, the kind of the object is determined by principal component analysis and Bayesian classification based on the motion information and the color and coordinate information obtained from the respective object areas. Way.
제 9항 또는 제 10항에 있어서,
상기 렌더링 단계는 상기 각각의 객체 영역에 대응하여 밑그림 표현 레이어, 형태 표현 레이어 및 운동감 표현 레이어를 생성하고, 상기 브러시 스트로크의 속성으로서 브러시의 위치, 방향, 길이 및 색상이 사전에 저장된 렌더링 속성 데이터베이스를 기초로 상기 각각의 레이어에 대하여 렌더링을 수행하는 것을 특징으로 하는 객체의 움직임 정보에 기반한 회화적 렌더링 방법.
11. The method according to claim 9 or 10,
The rendering step generates a sketch expression layer, a shape expression layer, and a motion expression layer corresponding to each object area, and renders a rendering property database in which the position, direction, length, and color of the brush are stored in advance as properties of the brush stroke. A pictorial rendering method based on motion information of an object, characterized in that the rendering is performed for each of the layers as a basis.
제 13항에 있어서,
상기 렌더링 단계는 엣지 탄젠트 플로우(Edge Tangent Flow :ETF) 기법에 의해 상기 대상 영상으로부터 얻어진 그라디언트 맵을 사용하여 상기 밑그림 표현 레이어와 상기 형태 표현 레이어에 적용되는 브러시 스트로크의 방향을 결정하고, 상기 복수의 입력 영상의 평균 움직임 벡터의 방향을 기초로 상기 운동감 표현 레이어에 적용되는 상기 브러시 스트로크의 방향을 결정하는 것을 특징으로 하는 객체의 움직임 정보에 기반한 회화적 렌더링 방법.
The method of claim 13,
The rendering may include determining a direction of a brush stroke applied to the sketch expression layer and the shape expression layer using a gradient map obtained from the target image by an edge tangent flow (ETF) technique. The method of the pictorial rendering based on the motion information of the object, characterized in that for determining the direction of the brush stroke applied to the motion expression layer based on the direction of the average motion vector of the input image.
제 13항에 있어서,
상기 렌더링 단계는 상기 각각의 객체 영역의 경계를 마스크 맵 형태로 생성하여 상기 밑그림 표현 레이어에 적용되는 브러시 스트로크의 길이를 결정하고, 캐니 윤곽선 추출 기법을 사용하여 상기 대상 영상으로부터 추출된 윤곽선 및 상기 각각의 객체 영역의 경계를 기초로 상기 형태 표현 레이어 및 상기 운동감 표현 레이어에 적용되는 브러시 스트로크의 길이를 결정하는 것을 특징으로 하는 객체의 움직임 정보에 기반한 회화적 렌더링 방법.
The method of claim 13,
In the rendering step, the boundary of each object area is generated in the form of a mask map to determine the length of the brush stroke applied to the sketch expression layer, and the contour and the respective contours extracted from the target image using the Canny contour extraction technique. And a length of a brush stroke applied to the shape expression layer and the motion expression layer based on a boundary of an object area of the pictorial rendering method.
제 13항에 있어서,
상기 렌더링 단계는 상기 대상 영상에 가우시안 블러를 적용한 영상의 각 픽셀의 색상 정보를 기초로 상기 밑그림 표현 레이어에 적용되는 브러시 스트로크의 색상을 결정하고, 상기 대상 영상의 색상(hue) 채널에 랜덤 노이즈를 적용한 영상의 각 픽셀의 색상 정보를 기초로 상기 운동감 표현 레이어에 적용되는 브러시 스트로크의 색상을 결정하는 것을 특징으로 하는 객체의 움직임 정보에 기반한 회화적 렌더링 방법.
The method of claim 13,
The rendering step determines a color of a brush stroke applied to the sketch expression layer based on the color information of each pixel of the image to which Gaussian blur is applied to the target image, and applies random noise to a hue channel of the target image. A pictorial rendering method based on motion information of an object, characterized by determining the color of a brush stroke applied to the motion expression layer based on color information of each pixel of an applied image.
제 9항 또는 제 10항에 기재된 방법을 컴퓨터에서 실행시키기 위한 프로그램을 기록한 컴퓨터로 읽을 수 있는 기록매체.A computer-readable recording medium having recorded thereon a program for executing the method of claim 9 or 10 on a computer.
KR1020110068314A 2011-07-11 2011-07-11 Apparatus and method for painterly rendering based on objective motion information KR101191319B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020110068314A KR101191319B1 (en) 2011-07-11 2011-07-11 Apparatus and method for painterly rendering based on objective motion information

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020110068314A KR101191319B1 (en) 2011-07-11 2011-07-11 Apparatus and method for painterly rendering based on objective motion information

Publications (1)

Publication Number Publication Date
KR101191319B1 true KR101191319B1 (en) 2012-10-16

Family

ID=47288043

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020110068314A KR101191319B1 (en) 2011-07-11 2011-07-11 Apparatus and method for painterly rendering based on objective motion information

Country Status (1)

Country Link
KR (1) KR101191319B1 (en)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101470497B1 (en) * 2013-01-02 2014-12-09 대진대학교 산학협력단 Apparatus for Generating Non-Photorealistic Image using Direction Sensor and Method thereof
US9678991B2 (en) 2014-02-24 2017-06-13 Samsung Electronics Co., Ltd. Apparatus and method for processing image
CN109302523A (en) * 2018-10-22 2019-02-01 竞技世界(北京)网络技术有限公司 A kind of mobile phone games stage division
KR102019301B1 (en) * 2018-04-24 2019-09-06 군산대학교 산학협력단 A video surveillance apparatus for detecting agro-livestock theft and method thereof
KR20220078421A (en) 2020-12-03 2022-06-10 숭실대학교산학협력단 Method for high speed video object tracking based on snake and optical flow, recording medium and device for performing the method

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100896762B1 (en) 2007-12-18 2009-05-11 중앙대학교 산학협력단 Apparatus and method for painterly animation
KR101028699B1 (en) 2009-05-12 2011-04-14 중앙대학교 산학협력단 Apparatus and method for painterly rendering
KR101043768B1 (en) 2009-10-13 2011-06-22 중앙대학교 산학협력단 Apparatus and method for painterly rendering

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100896762B1 (en) 2007-12-18 2009-05-11 중앙대학교 산학협력단 Apparatus and method for painterly animation
KR101028699B1 (en) 2009-05-12 2011-04-14 중앙대학교 산학협력단 Apparatus and method for painterly rendering
KR101043768B1 (en) 2009-10-13 2011-06-22 중앙대학교 산학협력단 Apparatus and method for painterly rendering

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101470497B1 (en) * 2013-01-02 2014-12-09 대진대학교 산학협력단 Apparatus for Generating Non-Photorealistic Image using Direction Sensor and Method thereof
US9678991B2 (en) 2014-02-24 2017-06-13 Samsung Electronics Co., Ltd. Apparatus and method for processing image
KR102019301B1 (en) * 2018-04-24 2019-09-06 군산대학교 산학협력단 A video surveillance apparatus for detecting agro-livestock theft and method thereof
CN109302523A (en) * 2018-10-22 2019-02-01 竞技世界(北京)网络技术有限公司 A kind of mobile phone games stage division
KR20220078421A (en) 2020-12-03 2022-06-10 숭실대학교산학협력단 Method for high speed video object tracking based on snake and optical flow, recording medium and device for performing the method

Similar Documents

Publication Publication Date Title
US10529078B2 (en) Locating and augmenting object features in images
Hu et al. Efficient tree modeling from airborne LiDAR point clouds
US8780131B2 (en) Systems and methods for text-based personalization of images
Liao et al. Automatic caricature generation by analyzing facial features
Kalkofen et al. Adaptive ghosted views for augmented reality
US20120133664A1 (en) System and method for painterly rendering based on image parsing
CA2658727A1 (en) Interactive segmentation of images with single scribbles
KR101191319B1 (en) Apparatus and method for painterly rendering based on objective motion information
Way et al. The synthesis of trees in Chinese landscape painting using silhoutte and texture strokes
Argudo et al. Single-picture reconstruction and rendering of trees for plausible vegetation synthesis
CN116583878A (en) Method and system for personalizing 3D head model deformation
KR101112142B1 (en) Apparatus and method for cartoon rendering using reference image
Zhao et al. A saliency detection based method for 3d surface simplification
KR20230085931A (en) Method and system for extracting color from face images
KR101028699B1 (en) Apparatus and method for painterly rendering
He Application of local color simulation method of landscape painting based on deep learning generative adversarial networks
KR101785203B1 (en) Method and system for multi-view object segmentation using depth image
Kolliopoulos et al. Segmentation-Based 3D Artistic Rendering.
Wong et al. Abstracting images into continuous-line artistic styles
KR101043768B1 (en) Apparatus and method for painterly rendering
CN115393471A (en) Image processing method and device and electronic equipment
Kolliopoulos Image segmentation for stylized non-photorealistic rendering and animation
Chang et al. Feature-Oriented Artistic Styles Transfer Based on Effective Texture Synthesis.
CN112884884A (en) Candidate region generation method and system
Kang et al. Landscape painterly rendering based on observation

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20151028

Year of fee payment: 4

FPAY Annual fee payment

Payment date: 20171011

Year of fee payment: 6

LAPS Lapse due to unpaid annual fee