KR101712667B1 - Method and system for creating an image - Google Patents

Method and system for creating an image Download PDF

Info

Publication number
KR101712667B1
KR101712667B1 KR1020100037097A KR20100037097A KR101712667B1 KR 101712667 B1 KR101712667 B1 KR 101712667B1 KR 1020100037097 A KR1020100037097 A KR 1020100037097A KR 20100037097 A KR20100037097 A KR 20100037097A KR 101712667 B1 KR101712667 B1 KR 101712667B1
Authority
KR
South Korea
Prior art keywords
pixel
intensity
input image
image
reference color
Prior art date
Application number
KR1020100037097A
Other languages
Korean (ko)
Other versions
KR20110010049A (en
Inventor
갸라브 쿠마르 자인
기리쉬 쿨카르니
벨라 아난드
Original Assignee
삼성전자주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 삼성전자주식회사 filed Critical 삼성전자주식회사
Priority to EP10168491.8A priority Critical patent/EP2284800B1/en
Priority to US12/842,148 priority patent/US8830251B2/en
Priority to CN201010238239.4A priority patent/CN101964110B/en
Publication of KR20110010049A publication Critical patent/KR20110010049A/en
Application granted granted Critical
Publication of KR101712667B1 publication Critical patent/KR101712667B1/en

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment
    • H04N5/262Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
    • H04N5/265Mixing
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/14Picture signal circuitry for video frequency region
    • H04N5/142Edging; Contouring
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/64Circuits for processing colour signals

Abstract

본 발명은 이미지 생성 방법 및 시스템에 관한 것으로, 특히 적어도 두 개의 이미지를 결합하여 출력하기 위한 이미지 생성 방법 및 시스템에 관한 것이다.
이를 달성하기 위해 이미지 생성 방법이, 적어도 하나의 정의된 영역을 가지는 제1 입력이미지를 포함하는 탬플릿을 생성하는 단계; 제2 입력 이미지를 수신하는 단계; 상기 적어도 하나의 정의된 영역에 포함된 복수의 픽셀들과 관련된 세기를 상기 제2 입력 이미지에 포함되는 복수의 픽셀들에 적용하여 상기 제2 입력이미지를 변경하고, 상기 적어도 하나의 정의된 영역을 상기 변경된 제2 입력이미지로 교체하여 출력이미지를 생성하는 단계 및 상기 출력이미지를 디스플레이하는 단계를 포함하는 것을 특징으로 한다.
The present invention relates to an image generating method and system, and more particularly to an image generating method and system for combining and outputting at least two images.
To achieve this, an image generation method comprises generating a template including a first input image having at least one defined region; Receiving a second input image; Applying an intensity associated with a plurality of pixels included in the at least one defined region to a plurality of pixels included in the second input image to modify the second input image, Changing the second input image to generate an output image, and displaying the output image.

Description

이미지 생성 방법 및 시스템{METHOD AND SYSTEM FOR CREATING AN IMAGE}METHOD AND SYSTEM FOR CREATING IMAGE < RTI ID = 0.0 >

본 발명은 이미지 생성 방법 및 시스템에 관한 것으로, 특히 적어도 두 개의 이미지를 결합하여 출력하기 위한 이미지 생성 방법 및 시스템에 관한 것이다.
The present invention relates to an image generating method and system, and more particularly to an image generating method and system for combining and outputting at least two images.

흔히 멀티미디어 장치, 예를 들어 이동 전화기에서는 하나 이상의 이미지가 캡쳐되고 뷰잉된다. 사용자가 보다 양호하게 이미지를 뷰잉하게 되는 경험을 갖게 하기 위해, 이미지는 다른 이미지의 일부로서 제시될 수 있는데, 예를 들어 이미지는 다른 이미지의 프레임 내에서 뷰잉된다. 전면 이미지가 후방 이미지와 결합되고 이러한 결합된 이미지가 사용자에게 제시되는 일부 기법이 존재한다. 또한 이미지의 특정 영역이 선택되고 다른 이미지가 이러한 선택된 영역에서 캡쳐되어 병합되고 뷰잉되는 다른 기법이 존재한다. 하지만, 기존의 기법들은 사용자에게 현실감 효과를 제공하지 않는다. 예를 들어, 사용자가 자신의 사진이 역사적인 기념물 상에서 제시되길 원하는 경우에, 현실감 효과는 기존의 기법에 의해 달성되지 않는다. 더욱이, 기존의 기법은 병합 영역에 대응하는 정보와 이미지 편집 효과를 개별적으로 저장하며, 저장 공간의 증가를 가져온다. 기존의 기법은 또한 처리 시간을 증가시키는데, 기존의 기법에서 또한 병합 이후의 이미지에 이미지 편집 효과를 적용할 필요가 있기 때문이다.Often, in a multimedia device, such as a mobile phone, one or more images are captured and viewed. To make the user experience better viewing the image, the image may be presented as part of another image, e.g., the image is viewed within a frame of another image. There are some techniques in which the front image is combined with the back image and this combined image is presented to the user. There are also other techniques in which certain areas of an image are selected and other images are captured and merged and viewed in this selected area. However, existing techniques do not provide users with realistic effects. For example, if a user wants his or her photograph to be presented on a historic monument, the reality effect is not achieved by existing techniques. Furthermore, existing techniques store information and image editing effects corresponding to merge regions separately, resulting in an increase in storage space. Conventional techniques also increase processing time, because existing techniques also require applying image editing effects to images after merging.

앞서 제기된 논의의 견지에서, 하나 이상의 전술한 문제점들을 극복하는 효율적인 기법이 필요하다.
In view of the foregoing discussion, there is a need for an efficient technique that overcomes one or more of the above problems.

따라서, 본 발명의 목적은 적어도 두 개의 이미지를 결합하여 출력하기 위한 이미지 생성 방법 및 시스템을 제공하는 것이다.
Accordingly, it is an object of the present invention to provide an image generating method and system for combining and outputting at least two images.

상기 목적을 달성하기 위한 이미지 생성 방법이, 적어도 하나의 정의된 영역을 가지는 제1 입력이미지를 포함하는 탬플릿을 생성하는 단계; 제2 입력 이미지를 수신하는 단계; 상기 적어도 하나의 정의된 영역에 포함된 복수의 픽셀들과 관련된 세기를 상기 제2 입력 이미지에 포함되는 복수의 픽셀들에 적용하여 상기 제2 입력이미지를 변경하고, 상기 적어도 하나의 정의된 영역을 상기 변경된 제2 입력이미지로 교체하여 출력이미지를 생성하는 단계 및 상기 출력이미지를 디스플레이하는 단계를 포함하는 것을 특징으로 한다.According to another aspect of the present invention, there is provided a method of generating an image, the method comprising: generating a template including a first input image having at least one defined region; Receiving a second input image; Applying an intensity associated with a plurality of pixels included in the at least one defined region to a plurality of pixels included in the second input image to modify the second input image, Changing the second input image to generate an output image, and displaying the output image.

또한 상기 목적을 달성하기 위한 이미지 생성 방법이, 제1 입력이미지에서 적어도 하나의 정의된 영역을 산출하는 단계; 제2 입력 이미지를 수신하는 단계; 상기 적어도 하나의 정의된 영역에 포함된 복수의 픽셀들과 관련된 세기를 상기 제2 입력 이미지에 포함되는 복수의 픽셀들에 적용하여 상기 제2 입력이미지를 변경하고, 상기 적어도 하나의 정의된 영역을 상기 변경된 제2 입력이미지로 교체하여 출력이미지를 생성하는 단계 및 상기 출력이미지를 디스플레이하는 단계를 포함하는 것을 특징으로 한다.Also, an image generating method for achieving the above object includes the steps of: calculating at least one defined area in a first input image; Receiving a second input image; Applying an intensity associated with a plurality of pixels included in the at least one defined region to a plurality of pixels included in the second input image to modify the second input image, Changing the second input image to generate an output image, and displaying the output image.

또한 상기 목적을 달성하기 위한 이미지 생성시스템이, 제1 입력 이미지에서 적어도 하나의 정의된 영역을 산출하는 규정부; 상기 적어도 하나의 정의된 영역에 포함된 복수의 픽셀들 중 제1 픽셀과 관련된 세기를 결정하는 결정부; 상기 제1 픽셀과 관련된 세기를 제2 입력 이미지에서 대응되는 픽셀에 적용하여 변경된 제2 입력 이미지 픽셀을 산출하는 적용부; 상기 적어도 하나의 정의된 영역에서 상기 제1 픽셀을 상기 변경된 제2 입력 이미지 픽셀로 교체하는 교체부; 및 상기 결정부, 상기 적용부 및 상기 교체부를 통해 상기 적어도 하나의 정의된 영역에 포함된 복수의 픽셀들에 대한 식별, 결정, 적용 및 교체를 수행하여 출력 이미지를 생성하도록 제어하는 프로세서부를 포함하는 것을 특징으로 한다.
The image generating system for achieving the above object may further include: a regulator for calculating at least one defined area in the first input image; A determination unit that determines intensity associated with a first one of a plurality of pixels included in the at least one defined area; An application unit for applying the intensity associated with the first pixel to a corresponding pixel in a second input image to calculate a modified second input image pixel; A replacement unit for replacing the first pixel with the changed second input image pixel in the at least one defined area; And a processor unit for performing an identification, determination, application, and replacement of a plurality of pixels included in the at least one defined area through the determination unit, the application unit, and the replacement unit to generate an output image .

본 발명은 이미지 생성 방법 및 시스템을 제공함에 따라, 적어도 두 개의 이미지가 결합되어 출력될 때 현실감 있는 효과를 제공할 수 있다. 또한 상기 적어도 두 개의 이미지를 결합할 때 발생되는 처리시간을 감소시키고, 상기 결합된 적어도 두 개의 이미지를 저장할 때 저장공간이 감소되는 효과가 있다.The present invention provides a method and system for generating images, which can provide a realistic effect when at least two images are combined and output. There is also the effect of reducing the processing time that occurs when combining the at least two images and reducing the storage space when storing the combined at least two images.

도 1은 본 발명의 일 실시 예에 따라 템플릿을 생성하는 방법을 도시한 흐름도.
도 2는 본 발명의 일 실시 예에 따라 출력 이미지를 생성하는 방법을 흐름도.
도 3은 본 발명의 다른 실시 예에 따라 출력 이미지를 생성하는 방법을 도시하는 흐름도.
도 4는 본 발명의 실시 예에 따라 템플릿과 이미지를 생성하는 전자 장치의 블록도.
도 5a - 도 5c는 본 발명의 일 실시 예를 설명하기 위한 도면.
도 6a - 도 6b는 본 발명의 일 실시 예를 설명하기 위한 도면.
도 7a - 도 7b는 본 발명의 다른 실시 예를 설명하기 위한 도면.
1 is a flow diagram illustrating a method for generating a template in accordance with one embodiment of the present invention.
2 is a flow diagram of a method for generating an output image in accordance with an embodiment of the present invention.
3 is a flow diagram illustrating a method for generating an output image in accordance with another embodiment of the present invention.
4 is a block diagram of an electronic device that generates templates and images in accordance with an embodiment of the present invention.
5A to 5C are views for explaining an embodiment of the present invention.
6A to 6B are diagrams for explaining an embodiment of the present invention.
7A to 7B are views for explaining another embodiment of the present invention.

주시할 바로서, 방법 단계들과 시스템 구성요소들은 도면에서 통상적인 심벌에 의해 표시되었으며, 이들은 본 발명의 이해와 관련된 특정 세부내용만을 도시하고 있다. 더욱이, 기술분야의 당업자에게 자명한 세부내용은 개시되지 않을 수도 있다. 본 발명에서, 제1 및 제2 등의 관련 용어는 일 엔티티와 타 엔티티를 구별하는데 사용되며 반드시 이들 엔티티 간의 임의의 실제적인 관계나 순서를 의미하지 않는다.As will be appreciated, the method steps and system components have been represented by conventional symbols in the drawings, which illustrate only certain details relevant to an understanding of the present invention. Moreover, details obvious to those skilled in the art may not be disclosed. In the present invention, the first and second related terms are used to distinguish one entity from another and do not necessarily mean any actual relationship or order between these entities.

여기에서 설명되는 본 발명의 실시 예에 의할 때에 템플릿과 이미지를 생성하는 방법과 시스템이 제공된다.A method and system for generating templates and images in accordance with embodiments of the present invention described herein are provided.

도 1은 본 발명의 일 실시 예에 따라 템플릿을 생성하는 방법을 도시하는 흐름도이다.1 is a flow diagram illustrating a method for generating a template in accordance with one embodiment of the present invention.

단계(110)에서, 규정부(480)는 사용자로부터의 입력에 응답하여 제1 입력 이미지에 적어도 하나의 영역을 정의한다. 멀티미디어 장치, 예를 들어 이동 전화기를 소지한 사용자는 이동 전화기에 저장된 이미지를 오픈하고, 템플릿 생성 응용을 스위치 온 하며, 이때 상기 오픈된 이미지는 제1 입력 이미지가 될 수 있다. In step 110, the defining unit 480 defines at least one region in the first input image in response to input from the user. A user with a multimedia device, such as a mobile phone, opens an image stored on the mobile phone and switches on the template creation application, where the open image can be the first input image.

상기 제1 입력 이미지는 카메라에 의해 캡쳐 된 이미지나 임의의 다른 이미지도 포함할 수 있으며, 상기 제1 입력 이미지는 압축 포맷이나 혹은 비압축 포맷으로 될 수 있다.The first input image may also include an image captured by the camera or any other image, and the first input image may be in a compressed or uncompressed format.

상기 제1 입력이미지에는 여러 개의 영역이 정의될 수 있으며, 상기 영역은 사용자로부터의 입력에 응답하여 정의될 수 있다. 사용자로부터의 입력은 스타일러스를 통해 선택되거나 또는 사용자에게 제공되는 인터페이스를 통해 상세하게 입력할 수가 있다. A plurality of regions may be defined in the first input image, and the regions may be defined in response to input from a user. The input from the user can be selected through the stylus or can be entered in detail through the interface provided to the user.

상기 영역은 임의의 형상과 크기가 될 수 있으며, 또한 상기 영역들을 정의하기 위한 영역 정의 툴이 제공될 수 있다. 상기 정의된 영역들은 적어도 하나의 정의된 영역이 될 수 있다.The area can be any shape and size, and an area definition tool for defining the areas can also be provided. The defined regions may be at least one defined region.

또는 상기 정의된 영역이 임의의 형상인 경우, 상기 영역을 추가적으로 처리하는데 있어서 표준 바운더리, 예를 들어 직사각형이 고려될 수 있다.Or if the defined region is any shape, a standard boundary, e.g., a rectangle, can be considered in further processing the region.

단계(115) 내지 단계(125)는 각 정의된 영역에 대해 수행하는 것으로, 프로세서는(410)는, 결정부(460), 적용부(465) 및 교체부(470)를 제어하여 상기 단계들을 수행한다.Steps 115 to 125 are performed for each defined area and the processor 410 controls the determination unit 460, the application unit 465 and the replacement unit 470 to perform the steps .

본 발명의 일 실시 예에서, 단계(115) 내지 단계(125)는 상기 정의된 영역의 각 픽셀에 대해 수행된다. 상기 정의된 영역은 복수의 픽셀을 포함하며, 상기 정의된 영역에서의 복수의 픽셀 중 먼저 제1 픽셀의 처리를 위해 단계(115) - 단계(125)을 하기에서 설명한다.In one embodiment of the present invention, steps 115 to 125 are performed for each pixel of the defined region. The defined region comprises a plurality of pixels and steps 115 to 125 for processing the first of the plurality of pixels in the defined region are described below.

단계(115)에서, 상기 결정부(460)는 상기 제1 픽셀과 관련된 세기를 결정한다.In step 115, the determination unit 460 determines the intensity associated with the first pixel.

상기 제1 픽셀과 관련된 세기를 결정하기 위한 제1 방안으로 상기 결정부(460)는 상기 영역에서 픽셀들의 평균 세기를 하기와 같은 식으로 계산한다.In a first method for determining the intensity associated with the first pixel, the determination unit 460 calculates an average intensity of pixels in the region as follows.

Figure 112010025651284-pat00001
Figure 112010025651284-pat00001

그런 후, 상기 결정부(460)는 제1 픽셀의 세기와 평균 세기와의 차이를 계산하고, 상기 차이를 제1 픽셀과 관련된 세기로 정한다.Then, the determination unit 460 calculates the difference between the intensity of the first pixel and the average intensity, and sets the difference to the intensity associated with the first pixel.

상기 제1 픽셀관 관련된 세기를 결정하기 위한 제2 방안으로 상기 결정부(460)는 제1 픽셀의 세기와 대응되는 기준 컬러 픽셀의 세기 간의 차이를 계산하고 상기 차이를 제1 픽셀과 관련된 세기로 정한다.The determination unit 460 calculates a difference between the intensity of the first pixel and the intensity of the reference color pixel corresponding to the intensity of the first pixel, and outputs the difference to the intensity associated with the first pixel I decide.

상기 기준 컬러 픽셀은 기준 컬러를 가지는 제1 픽셀로서 정의될 수 있으며상기 기준 컬러는 사용자에 의해 선택되거나 미리 정의될 수 있다.The reference color pixel may be defined as a first pixel having a reference color and the reference color may be selected or predefined by the user.

단계(115)에서 상기 제1 픽셀과 관련된 세기가 결정되면, 단계(120)에서 상기 적용부(465)는 상기 제1 픽셀과 관련된 세기를 기준 컬러 픽셀에 적용하여, 변경된 기준 컬러 픽셀을 산출한다. 단계(120)의 적용 단계는 세기(intensity), 포화도(saturation), 컬러(color) 및 채도(chroma) 성분 중 적어도 하나를 변경하는 것으로, 사용자의 필요와 요구에 따라 수행될 수 있다. If the intensity associated with the first pixel is determined in step 115, the application unit 465, in step 120, applies the intensity associated with the first pixel to the reference color pixel to yield a modified reference color pixel . The application step of step 120 may be performed according to the needs and requirements of the user by changing at least one of intensity, saturation, color and chroma components.

또한 상기 적용단계를 위해 선택될 수 있는 다양한 옵션이 사용자에게 제공될 수 있으며, 적용을 위한 다양한 기법이 사용될 수 있다. 적용한 위한 다양한 기법에 대한 몇 가지 예시적인 기법을 하기와 같이 제공한다.Various options that may be selected for the application step may also be provided to the user, and various techniques for application may be used. Some exemplary techniques for various techniques for applying are provided as follows.

상기 제1 방안에 따라, 색조 채도 명도(HSV) 컬러 모델이 제공될 때, 기준 컬러 픽셀 값들은 HR, SR, VR로서 표시될 수 있으며, 제1 픽셀 값들은 H1, S1, V1로서 표시될 수 있다. 이런 경우, H1과 HR은 일치하고, SR과 S1은 일치하며, 따라서 제1 픽셀과 관련된 세기가 VR에 부가될 수 있다. 예를 들어, 평균 세기가 "Im"인 경우, 제1 픽셀과 관련된 세기는"(Im-P1)"이며, "(Im-P1)"이 VR에 부가되면, VR과 V1이 일치하게 된다.According to the first scheme, when a Hue Saturation Brightness (HSV) color model is provided, the reference color pixel values can be represented as HR, SR, VR, and the first pixel values can be represented as H1, S1, have. In this case, H1 and HR coincide, SR and S1 coincide, and therefore the intensity associated with the first pixel can be added to the VR. For example, when the average intensity is "Im ", the intensity associated with the first pixel is" (Im-P1) ", and when (Im-P1) is added to VR, VR and V1 match.

상기 제2 방안에 따라, 적색 녹색 청색(RGB) 컬러 모델이 사용될 때, P1과 기준 컬러 픽셀의 세기(IR) 간의 차이는 제1 픽셀과 관련된 세기로서 결정될 수 있다. 이후 P1-IR은 여러 분포 비율을 이용하여 기준 컬러의 RGB 컬러 모델에 전반적으로 분포될 수 있다. 상기 분포 비율은 각 컬러에서의 각 값이 MIN과 MAX 사이에 있는 방식으로 선택될 수 있는데, 예를 들어 각 컬러에서의 각각의 값은 8비트 R, G 및 B 컬러 모델에서의 0과 255 사이에 존재할 수 있다. 분포에서의 예시적인 수식은 하기와 같이 제공된다.According to the second scheme, when a red-green-blue (RGB) color model is used, the difference between the intensity (IR) of P1 and the reference color pixel can be determined as the intensity associated with the first pixel. The P1-IR can then be distributed throughout the RGB color model of the reference color using multiple distribution ratios. The distribution ratio can be selected in such a way that each value in each color is between MIN and MAX, e.g., each value in each color is between 0 and 255 in the 8 bit R, G, and B color models Lt; / RTI > An exemplary equation in the distribution is provided as follows.

Rc.RED = Rc.RED+(P1-IR)*C1,Rc.RED = Rc.RED + (P1-IR) * C1,

Rc.RED = Rc.GREEN+(P1-IR)*C2,Rc.RED = Rc.GREEN + (P1-IR) * C2,

Rc.BLUE = Rc.BLUE+(P1-IR)*C3,Rc.BLUE = Rc.BLUE + (P1-IR) * C3,

(여기서, C1, C2 및 C3는 실수이며, Rc는 기준 컬러이다)(Where C1, C2 and C3 are real numbers and Rc is the reference color)

여기에서, 8비트 R, G 및 B의 경우에 MIN=0이며 MAX=255이다.Here, in the case of 8 bits R, G, and B, MIN = 0 and MAX = 255.

마찬가지로, 다른 다양한 컬러 모델, 예를 들어 YUV 컬러 모델이 사용될 수 도 있다.Likewise, other various color models may be used, for example a YUV color model.

단계(120)에서 제1 픽셀과 관련된 세기를 기준 컬러 픽셀에 적용함에 따라 상기 기준 컬러 픽셀이 변경되면, 단계(125)에서 상기 교체부(470)는 상기 제1 픽셀을 상기 변경된 기준 컬러 픽셀로 교체한다.If the reference color pixel is changed by applying the intensity associated with the first pixel to the reference color pixel in step 120, then in step 125, the replacement unit 470 converts the first pixel into the changed reference color pixel Replace.

상기 제1 픽셀을 상기 변경된 기준 컬러 픽셀로 교체한 이후, 상기 프로세서(410)는, 단계(130)에서 상기 정의된 영역에서 포함된 복수의 픽셀들 각각에 대해 단계(115)- 단계(125)를 수행하여, 상기 복수의 픽셀들 각각이 해당 변경된 기준 컬러픽셀로 교체되도록 제어한다.After replacing the first pixel with the modified reference color pixel, the processor 410 performs steps 115 - 125 for each of the plurality of pixels contained in the defined area at step 130 So that each of the plurality of pixels is replaced with the corresponding changed reference color pixel.

단계(130)에서 상기 각 정의된 영역에 포함된 복수의 픽셀들에 대한 교체 완료되면, 상기 프로세서(410)는 템플릿을 생성하여 저장부(415)에 저장하며, 템플릿은 저장 전에 사용자에게 보여지도록 프리뷰 될 수 있다.If the replacement of the plurality of pixels included in each defined area is completed in step 130, the processor 410 generates a template and stores it in the storage unit 415, Can be previewed.

템플릿이 저장될 때 기준 컬러 및 각 정의된 영역과 관련된 정보가 상기 저장부(415)에 저장될 수 있으며, 이때 상기 정보는 일정한 포맷으로 저장될 수 있다. 하기 표 1 및 표 2는 저장된 상기 정보의 포맷을 나타내고 있다. When the template is stored, the reference color and information associated with each defined area may be stored in the storage unit 415, and the information may be stored in a predetermined format. Table 1 and Table 2 below show the format of the stored information.

시작 XStart X 시작 YStart Y 기준 컬러Reference color 미러인지 여부Whether it is a mirror     width 높이Height 기준점으로부터의 X 좌표X coordinate from reference point 기준점으로부터의 Y 좌표Y coordinate from reference point 대체되는 컬러Replaced color 템플릿가 미러 템플릿인지 여부Whether the template is a mirror template 적어도 하나의 정의된 영역의 폭Width of at least one defined region 적어도 하나의 정의된 영역의 높이Height of at least one defined area

영역 번호 Area number 최대 폭Maximum width 최대 높이Maximum height 입력 이미지에서의 영역 번호Area number in input image 복수의 클립들 간의 최대 폭The maximum width between multiple clips 복수의 클립들 간의 최대 높이Maximum height between multiple clips

또한, 상기 정의된 영역에서 엣지 픽셀들이 결정된다. 하나 이상의 엣지 검출 알고리즘은 상기 적어도 하나의 정의된 영역에서의 엣지를 검출하는데 사용될 수 있다. In addition, edge pixels are determined in the above defined region. One or more edge detection algorithms may be used to detect an edge in the at least one defined area.

상기 정의된 영역에서 결정된 엣지 픽셀들은 단계(115) - 단계(130)를 거치지 않고 그대로 보존되거나 또는 기준 컬러와 맵핑 될 수 있다.The edge pixels determined in the above-defined area can be preserved without being subjected to steps 115 to 130, or can be mapped to the reference color.

또한 상기 정의된 영역에서 미러(mirror)의 존재가 결정되며,상기 적어도 하나의 정의된 영역과 관련된 미러 정보 또한 상기 저장부(415)에 저장된다.Also, the presence of a mirror in the defined area is determined, and the mirror information associated with the at least one defined area is also stored in the storage unit 415.

또한 상기 정의된 영역은 회전과 같이 변경될 수 있으며, 상기 회전을 포함하는 상기 정의된 영역은 이후 템플릿으로서 저장될 수 있다. 상기 정의된 영역을 포함하는 템플릿은 템플릿이 사용될 때 처리 시간을 단축시켜 준다.
Also, the defined region may be changed as rotation, and the defined region including the rotation may then be stored as a template. A template containing the defined region shortens the processing time when the template is used.

도 2는 본 발명의 일 실시 예에 따라 출력 이미지를 생성하는 방법을 도시하는 흐름도이다.2 is a flow diagram illustrating a method for generating an output image in accordance with one embodiment of the present invention.

단계(210)에서, 프로세서(410)는 상기 도 1의 과정을 통해 생성된 적어도 하나의 정의된 영역을 가지는 템플릿을 획득한다. 상기 템플릿은 상기 적어도 하나의 정의된 영역을 가지는 제1 입력 이미지를 포함한다. 상기 템플릿은 저장 장치나 온라인으로부터 또는 예를 들어, 블루투스, 적외선 또는 기타 기법 등과 같이 임의의 다른 전송 기법을 이용하여 획득될 수 있다.In step 210, the processor 410 obtains a template having at least one defined region generated through the process of FIG. The template includes a first input image having the at least one defined region. The template may be obtained from a storage device or online or using any other transmission technique such as, for example, Bluetooth, infrared or other techniques.

단계(215)에서, 상기 프로세서(410)는 제2 입력 이미지를 수신하며, 상기 제2 입력 이미지는 실시간 이미지이거나 캡쳐링된 이미지 또는 저장된 이미지가 될 수 있다. 또한 상기 제2 입력 이미지는 압축 이미지 또는 비 압축 이미지가 될 수 있으며, 상기 실시간 이미지는 상기 실시간 이미지가 획득 가능한 실시간 소스로부터 수신될 수 있다. 상기 실시간 소스는 카메라나 이미지 송신이 가능한 원격 장치를 포함할 수 있다.In step 215, the processor 410 receives a second input image, which may be a real-time image, a captured image, or a stored image. The second input image may also be a compressed image or an uncompressed image, and the real-time image may be received from a real-time source in which the real-time image is obtainable. The real-time source may include a camera or a remote device capable of image transmission.

또한, 상기 제2 입력 이미지의 수신은 상기 제2 입력 이미지의 크기 재조정, 제2 입력 이미지의 크롭핑(cropping) 및 제2 입력 이미지의 위치 재조정 중 적어도 하나를 수행하는 것을 포함한다. 상기 제2 입력이미지의 크기 재조정, 크롭핑(cropping) 및 위치 재조정은 다양한 알고리즘을 이용하여 수행될 수 있다. 예를 들어, 상기 정의된 영역은 그 크기에 있어서 제2 입력 이미지보다 작은 크기를 가질 때, 양상비(aspect ratio)를 유지하면서 상기 제2 입력 이미지의 중심 영역 또는 임의의 다른 영역이 선택되어 변경될 수 있다.
The receiving of the second input image may also include performing at least one of resizing the second input image, cropping the second input image, and repositioning the second input image. The resizing, cropping, and repositioning of the second input image may be performed using various algorithms. For example, when the defined area has a size smaller than the second input image in its size, the center area or any other area of the second input image is selected and changed while maintaining the aspect ratio .

단계(220) 내지 단계(245)는 각 정의된 영역에 대해 수행하는 것으로, 프로세서는(410)는, 식별부(475), 결정부(460), 적용부(465) 및 교체부(470)를 제어하여 상기 단계들을 수행한다.Steps 220 to 245 are performed for each defined area and the processor 410 includes an identification unit 475, a determination unit 460, an application unit 465, and a replacement unit 470, To perform the above steps.

본 발명의 실 시 예에서, 단계(220) 내지 단계(240)는 상기 정의된 영역에서 각 픽셀에 대해 수행된다. 상기 정의된 영역은 복수의 픽셀을 포함하며, 상기 정의된 영역에서의 복수의 픽셀들 중 먼저 제1 픽셀을 수행하기 위한 단계(220) - 단계(240)를 하기에서 설명한다.In an exemplary embodiment of the present invention, steps 220 to 240 are performed for each pixel in the defined region. The defined region includes a plurality of pixels, and step 220 (step 240) of performing a first pixel of the plurality of pixels in the defined area is described below.

단계(220)에서, 상기 식별부(475)는 기준 컬러의 색조(hue)과 동일한 색조(hue)가 있는 적어도 하나의 정의된 영역의 제1픽셀을 식별한다. 이는 실제 선택된 영역을 둘러싸고 있는 직사각형 영역의 픽셀들을 제거하는 것으로, 상기 직사각형 영역의 픽셀들은 실제 선택된 영역이 아니다. 예를 들어, 상기 실제 선택된 영역이 원형(circle)일 때, 상기 정의된 영역으로써 상기 직사각형이 상기 실제 선택된 영역인 원형을 둘러싸고 있을 수 있다. 단계(225)에서, 상기 결정부(460)는 상기 제1 픽셀과 관련된 세기를 결정한다.In step 220, the identifying unit 475 identifies a first pixel of at least one defined region having the same hue as the hue of the reference color. This removes the pixels of the rectangular area surrounding the actual selected area, and the pixels of the rectangular area are not actually selected areas. For example, when the actually selected region is a circle, the rectangle as the defined region may surround the circle that is the actually selected region. In step 225, the determination unit 460 determines the intensity associated with the first pixel.

상기 제1 픽셀과 관련된 세기를 결정하기 위한 제1 방안으로 상기 결정부(460)는 상기 영역에서 픽셀들의 평균 세기를 하기와 같은 식으로 계산한다.In a first method for determining the intensity associated with the first pixel, the determination unit 460 calculates an average intensity of pixels in the region as follows.

Figure 112010025651284-pat00002
Figure 112010025651284-pat00002

그런 후, 상기 결정부(460)는 제1 픽셀의 세기와 평균 세기와의 차이를 계산하고, 상기 차이를 제1 픽셀과 관련된 세기로 정한다. Then, the determination unit 460 calculates the difference between the intensity of the first pixel and the average intensity, and sets the difference to the intensity associated with the first pixel.

상기 제1 픽셀관 관련된 세기를 결정하기 위한 제2 방안으로 상기 결정부(460)는 제1 픽셀의 세기와 제2 입력 이미지의 대응 픽셀의 세기간의 차이가 계산하고, 상기 차이를 제1 픽셀과 관련된 세기로 정한다. 상기 대응 픽셀은 제1 픽셀의 위치에 삽입하도록 의도된 상기 제2 입력 이미지의 픽셀로서 정의될 수 있다.In a second method for determining the first pixel-tube-related intensity, the determination unit 460 calculates a difference between the intensity of the first pixel and the intensity of the corresponding pixel of the second input image, It is determined by the relevant strength. The corresponding pixel may be defined as the pixel of the second input image intended to be inserted at the position of the first pixel.

단계(225)에서 상기 제1 픽셀과 관련된 세기가 결정되면, 단계(230)에서 상기 적용부(465)는 상기 제1 픽셀과 관련된 세기를 상기 제2 입력이미지에서 대응 픽셀에 적용하여, 변경된 제2 입력 이미지 픽셀을 산출한다. 단계(230)의 적용 단계는 세기(intensity), 포화도(saturation), 컬러(color) 및 채도(chroma) 성분 중 적어도 하나를 변경하는 것으로, 사용자의 필요와 요구사항에 따라 수행될 수 있다. If the intensity associated with the first pixel is determined in step 225, then in step 230, the application unit 465 applies the intensity associated with the first pixel to the corresponding pixel in the second input image, 2 < / RTI > The application step of step 230 may be performed according to the needs and requirements of the user by changing at least one of intensity, saturation, color and chroma components.

또한 상기 적용단계를 위해 사용자가 선택할 수 있는 다양한 옵션이 사용자에게 제공될 수 있으며, 적용을 위한 다양한 기법이 사용될 수 있다. 적용한 위한 다양한 기법에 대한 몇 가지 예시적인 기법을 하기와 같이 제공한다.In addition, various options that the user can select for the application step may be provided to the user, and various techniques for application may be used. Some exemplary techniques for various techniques for applying are provided as follows.

상기 제1 방안에 따라, 색조 채도 명도(HSV) 컬러 모델이 제공될 때, 상기 제2 입력 이미지에서 대응 픽셀의 값들은 HC, SC, VC로서 표시되며, 제1 픽셀 값들은 H1, S1, V1로서 표시될 수 있다. 이런 경우, H1과 HC는 일치하고, SC과 S1는 일치하며, 따라서 제1 픽셀과 관련된 세기는 VC에 부가될 수 있다. 예를 들어, 평균 세기가 "Im" 인 경우, 제1 픽셀과 관련된 세기는 "(Im-P1)"이며, "(Im-P1)" 이 VC에 부가되면, VC와 V1이 일치하게 된다 According to the first scheme, when a hue chroma saturation (HSV) color model is provided, the values of the corresponding pixels in the second input image are denoted as HC, SC, VC and the first pixel values are H1, S1, V1 Lt; / RTI > In this case, H1 and HC coincide, SC and S1 coincide, and therefore the intensity associated with the first pixel can be added to VC. For example, when the average intensity is "Im ", the intensity associated with the first pixel is" (Im-P1) "

상기 제2 방안에 따라, 적색 녹색 청색(RGB) 컬러 모델이 사용될 때, 제1 픽셀(P1)과 상기 제2 입력이미지에서 대응 픽셀의 세기(IC) 간의 차이는 제1 픽셀과 관련된 세기로서 결정될 수 있다. 이후 P1-IC는 여러 분포 비율을 이용하여 대응 픽셀에서의 컬러의 RGB 컬러 모델에 전반적으로 분포될 수 있다. 분포 비율은 각 컬러에서의 각각의 값이 MIN과 MAX 사이에 있게 하는 방식으로 선택될 수 있다. 예를 들어, 각 컬러에서의 각각의 값은 8비트 R, G 및 B 컬러 모델에서 0과 255 사이에 있게 된다. 분포에 대한 예시적인 수식은 하기에서 제공된다.According to the second scheme, when a red-green-blue (RGB) color model is used, the difference between the first pixel (P1) and the intensity (IC) of the corresponding pixel in the second input image is determined as the intensity associated with the first pixel . The P1-IC can then be distributed throughout the RGB color model of the color at the corresponding pixel using multiple distribution ratios. The distribution ratio can be selected in such a way that each value in each color is between MIN and MAX. For example, each value in each color is between 0 and 255 in the 8 bit R, G, and B color models. An exemplary equation for the distribution is provided below.

Rc.RED = Rc.RED+(P1-IR)*C1,Rc.RED = Rc.RED + (P1-IR) * C1,

Rc.RED = Rc.GREEN+(P1-IR)*C2,Rc.RED = Rc.GREEN + (P1-IR) * C2,

Rc.BLUE = Rc.BLUE+(P1-IR)*C3,Rc.BLUE = Rc.BLUE + (P1-IR) * C3,

(여기서, C1, C2 및 C3는 실수이며, Rc는 기준 컬러이다)(Where C1, C2 and C3 are real numbers and Rc is the reference color)

여기에서, 8비트 R, G 및 B의 경우에 MIN=0이며 MAX=255이다.Here, in the case of 8 bits R, G, and B, MIN = 0 and MAX = 255.

다른 다양한 컬러 모델, 예를 들어 YUV 컬러 모델이 또한 사용될 수 도 있다.Other various color models, for example YUV color models, may also be used.

단계(230)에서 제1 픽셀과 관련된 세기를 상기 제2 입력이미지에서 대응되는픽셀에 적용함에 따라 상기 제2 입력이미지가 변경되면, 단계(235)에서 상기 교체부(470)는 제1 픽셀을 상기 변경된 제2 입력 이미지의 대응 픽셀로 교체한다.If the second input image is changed by applying the intensity associated with the first pixel to the corresponding pixel in the second input image in step 230, the replacement unit 470, in step 235, With the corresponding pixel of the changed second input image.

상기 제1 픽셀을 상기 변경된 제2 입력 이미지의 대응 픽셀로 교체한 후, 상기 프로세서(410)는 단계(210)에서 상기 템플릿에 포함된 상기 정의된 영역에 포함된 복수의 픽셀들에 각각에 대해 단계(220)- 단계(235)를 수행하여, 상기 복수의 픽셀들 각각이 해당 변경된 제2 입력이미지의 대응픽셀로 교체되도록 제어한다.After replacing the first pixel with the corresponding pixel in the modified second input image, the processor 410 determines, for each of the plurality of pixels included in the defined region included in the template in step 210, Steps 220 to 235 are performed to control each of the plurality of pixels to be replaced with corresponding pixels of the changed second input image.

단계(245)에서, 상기 프로세서(410)는 상기 템플릿의 상기 정의된 영역에 삽입된 상기 제2 입력 이미지를 사용자에게 디스플레이 한다. At step 245, the processor 410 displays the second input image embedded in the defined area of the template to the user.

또한 사용자는 실시간으로 특성을 변경시킬 수 있으며, 예를 들어, 사용자는 제2 입력 이미지를 통해 스크롤할 수 있으며, 상기 스크롤은 디스플레이부(430)를 동적으로 업데이트시킨다. 또한 편집을 위한 다양한 옵션, 예를 들어, 회전, 흑백 컬러, 명암대비 및 가변 깊이(vary depth)를 가질 수 있다.Also, the user can change the characteristics in real time, for example, the user can scroll through the second input image, and the scrolling dynamically updates the display unit 430. It also has various options for editing, for example, rotation, black and white color, contrast, and vary depth.

본 발명의 일 실시 예에서, 상기 정의된 영역이 미러(mirror) 특성을 가지고 있는지 확인하기 위한 결정이 이루어진다. 미러의 시작 위치가 결정되고, 제1 입력 이미지에서 미러와 대응하는 픽셀이 상기 변경된 제2 입력 이미지에서 대응되는 미러 픽셀과 혼합된다. 상기 혼합 정도는 사용자 요구에 따라 변경될 수 있으며, 예를 들어, 상기 대응되는 미러 픽셀의 80% 세기와 상기 제1 입력 이미지의 20%가 획득될 수 있다.In one embodiment of the present invention, a determination is made to ascertain whether the defined region has mirror properties. The starting position of the mirror is determined, and the pixel corresponding to the mirror in the first input image is mixed with the corresponding mirror pixel in the changed second input image. The degree of blending may be varied according to user requirements, for example 80% intensity of the corresponding mirror pixel and 20% of the first input image may be obtained.

상기 프로세서(410)는 단계(220) - 단계(240)의 수행을 통해 상기 정의된 모든 영역에 상기 제2 입력이미지를 결합함으로써, 단계(245)에서 상기 결합된 출력이미지를 발생시키고 이를 디스플레이부(430)에 표시한다. The processor 410 generates the combined output image in step 245 by combining the second input image to all the defined areas through the execution of steps 220 to 240, (430).

상기 출력 이미지는 압축 포맷 또는 비 압축 포맷이 될 수 있다.The output image may be in a compressed or uncompressed format.

또한 동일하거나 서로 다른 제2 입력이미지가 서로 다른 영역에 수신될 수 있다.
Also, the same or different second input images may be received in different areas.

도 3은 본 발명의 다른 실시 예에 따라 출력 이미지를 생성하는 방법을 도시한 흐름도이다.3 is a flow diagram illustrating a method for generating an output image in accordance with another embodiment of the present invention.

단계(310)에서, 프로세서(410)는 제1 입력 이미지를 획득한다. 상기 제1 입력 이미지는 캡쳐링된 이미지와 저장된 이미지 중 어느 하나이며, 상기 제1 입력 이미지는 압축 이미지 또는 비 압축 이미지가 될 수 있다.At step 310, the processor 410 obtains the first input image. The first input image may be either a captured image or a stored image, and the first input image may be a compressed image or an uncompressed image.

단계(315)에서, 규정부(480)는 제1 입력 이미지에서 적어도 하나의 영역을 정의한다. 이때 상기 영역은 여러 개의 영역이 정의될 수 있다. 상기 영역들은 사용자로부터의 입력에 응답하여 정의될 수 있다. 사용자로부터의 입력은 스타일러스를 통해 선택되거나 또는 사용자에게 제공되는 인터페이스를 통해 상세하게 입력할 수 있다. In step 315, the defining unit 480 defines at least one area in the first input image. At this time, the area may be defined as a plurality of areas. The areas may be defined in response to input from a user. The input from the user can be selected via the stylus or can be entered in detail through the interface provided to the user.

상기 영역들은 임의의 형상 및 크기로 이루어질 수 있다. 또한 상기 영역들을 정의하기 위한 영역 정의 툴이 제공될 수 있다.The regions may be of any shape and size. An area definition tool for defining the areas may also be provided.

단계(320)에서, 상기 프로세서(410)는 제2 입력 이미지를 수신한다. 상기 제2 입력 이미지는 실시간 이미지, 캡쳐링된 이미지 또는 저장된 이미지가 될 수 있다. 또한 상기 제2 입력 이미지는 또한 압축 이미지 또는 비압축 이미지가 될 수 있으며, 상기 실시간 이미지는 실시간 이미지가 획득 가능한 실시간 소스로부터 수신될 수 있다. 상기 실시간 소스는 카메라나 이미지의 송신이 가능한 원격 장치를 포함할 수 있다.In step 320, the processor 410 receives a second input image. The second input image may be a real-time image, a captured image, or a stored image. The second input image may also be a compressed image or an uncompressed image, and the real-time image may be received from a real-time source in which a real-time image is obtainable. The real-time source may include a remote device capable of transmitting a camera or an image.

또한, 상기 제2 입력 이미지의 수신에는 제2 입력 이미지의 크기 재조정, 제2 입력 이미지의 크롭핑(cropping) 및 제2 입력 이미지의 위치 재조정 중 적어도 하나를 수행하는 것이 포함된다. 상기 제2 입력이미지에 대한 크기 재조정, 절단 및 위치 재조정은 다양한 알고리즘을 이용하여 수행될 수 있다. 예를 들어, 상기 정의된 영역은 제2 입력 이미지보다 작은 크기를 가질 때, 양상비(aspect ratio)를 유지하면서 상기 제2 입력 이미지의 중심 영역 또는 임의의 다른 영역이 선택되어 변경될 수 있다.The receiving of the second input image may also include performing at least one of resizing the second input image, cropping the second input image, and repositioning the second input image. The resizing, cutting, and repositioning of the second input image may be performed using various algorithms. For example, when the defined region has a size smaller than the second input image, the central region or any other region of the second input image may be selected and changed while maintaining the aspect ratio.

단계(325) 내지 단계(340)는 각 정의된 영역에 대해 수행하는 것으로, 프로세서는(410)는, 식별부(475), 결정부(460), 적용부(465) 및 교체부(470)를 제어하여 상기 단계들을 수행한다.Steps 410 to 340 are performed for each of the defined areas and the processor 410 includes an identification unit 475, a determination unit 460, an application unit 465, and a replacement unit 470, To perform the above steps.

본 발명에서, 상기 정의된 영역에서의 각 픽셀에 대해 단계(325) - 단계(340)가 수행된다. 상기 정의된 영역에는 복수의 픽셀을 포함될 수 있다. 상기 정의된 영역의 복수의 픽셀 중 먼저 제1 픽셀을 처리하기 위한 단계(325) - 단계(345)를 하기에서 설명한다.In the present invention, steps 325 to 340 are performed for each pixel in the defined region. The defined region may include a plurality of pixels. The step 325 of processing the first pixel among the plurality of pixels of the defined area - step 345 is described below.

단계(325)에서, 상기 결정부(460)는 상기 적어도 하나의 정의된 영역의 복수의 픽셀들 중 제1 픽셀과 관련된 세기를 결정한다.In step 325, the determination unit 460 determines the intensity associated with the first one of the plurality of pixels of the at least one defined area.

상기 제1 픽셀과 관련된 세기를 결정하기 위한 제1 방안으로 상기 결정부(460)는 상기 영역에서 픽셀들의 평균 세기를 하기와 같은 식으로 계산한다.In a first method for determining the intensity associated with the first pixel, the determination unit 460 calculates an average intensity of pixels in the region as follows.

Figure 112010025651284-pat00003
Figure 112010025651284-pat00003

그런 후, 상기 결정부(460)는 제1 픽셀의 세기와 평균 세기와의 차이를 계산하고, 상기 차이를 제1 픽셀과 관련된 세기로 정한다.Then, the determination unit 460 calculates the difference between the intensity of the first pixel and the average intensity, and sets the difference to the intensity associated with the first pixel.

상기 제1 픽셀관 관련된 세기를 결정하기 위한 제2 방안으로 상기 결정부(460)는 제1 픽셀의 세기와 제2 입력 이미지에서 대응 픽셀의 세기 간의 차이를 계산하고, 상기 차이는 상기 제1 픽셀과 관련된 세기로 정한다. 상기 대응 픽셀은 제1 픽셀의 위치에 삽입되도록 의도된 제2 입력 이미지의 픽셀로서 정의될 수 있다.The determination unit 460 calculates a difference between the intensity of the first pixel and the intensity of the corresponding pixel in the second input image in a second scheme for determining the intensity of the first pixel tube, . The corresponding pixel may be defined as the pixel of the second input image intended to be inserted at the position of the first pixel.

단계(325)에서 상기 제1 픽셀과 관련된 세기가 결정되면, 단계(330)에서 상기 적용부(465)는 상기 제1 픽셀과 관련된 세기를 상기 제2 입력 이미지에서 대응되는 픽셀에 적용하여, 변경된 제2 입력 이미지 픽셀을 산출한다. 단계(330)의 상기 적용 단계는 세기(intensity), 포화도(saturation), 컬러(color) 및 채도(chroma) 성분 중 적어도 하나를 변경하는 것으로, 사용자의 필요와 요구에 따라 수행될 수 있다. If the intensity associated with the first pixel is determined in step 325, then in step 330, the application unit 465 applies the intensity associated with the first pixel to the corresponding pixel in the second input image, And calculates a second input image pixel. The applying step of step 330 may be performed according to the needs and requirements of the user by changing at least one of intensity, saturation, color and chroma components.

또한 상기 적용단계를 위해 사용자가 선택할 수 있는 다양한 옵션이 사용자에게 제공될 수 있으며, 적용을 위한 다양한 기법이 사용될 수 있다. 적용한 위한 다양한 기법에 대한 몇 가지 예시적인 기법을 하기와 같이 제공한다.In addition, various options that the user can select for the application step may be provided to the user, and various techniques for application may be used. Some exemplary techniques for various techniques for applying are provided as follows.

상기 제1 방안에 따라, 색조 채도 명도(HSV) 컬러 모델이 제공될 때, 상기 제2 입력 이미지에서 대응 픽셀의 값들은 HC, SC, VC로서 표시되며, 제1 픽셀 값들은 H1, S1, V1로서 표시될 수 있다. 이런 경우, H1과 HC는 일치하고, SC과 S1는 일치하며, 따라서 제1 픽셀과 관련된 세기는 VC에 부가될 수 있다. 예를 들어, 평균 세기가 "Im" 인 경우, 제1 픽셀과 관련된 세기는 "(Im-P1)"이며, "(Im-P1)" 이 VC에 부가되면, VC와 V1이 일치하게 된다 According to the first scheme, when a hue chroma saturation (HSV) color model is provided, the values of the corresponding pixels in the second input image are denoted as HC, SC, VC and the first pixel values are H1, S1, V1 Lt; / RTI > In this case, H1 and HC coincide, SC and S1 coincide, and therefore the intensity associated with the first pixel can be added to VC. For example, when the average intensity is "Im ", the intensity associated with the first pixel is" (Im-P1) "

상기 제2 방안에 따라, 적색 녹색 청색(RGB) 컬러 모델이 사용될 때 제1 픽셀(P1)과 상기 제2 입력이미지에서 대응 픽셀의 세기(IC) 간의 차이는 제1 픽셀과 관련된 세기로서 결정될 수 있다. 이후 P1-IC는 여러 분포 비율을 이용하여 대응 픽셀에서의 컬러의 RGB 컬러 모델에 전반적으로 분포될 수 있다. 분포 비율은 각 컬러에서의 각각의 값이 MIN과 MAX 사이에 있게 하는 방식으로 선택될 수 있다. 예를 들어, 각 컬러에서의 각각의 값은 8비트 R, G 및 B 컬러 모델에서 0과 255 사이에 있게 된다. 분포에 대한 예시적인 수식은 하기에서 제공된다.According to the second scheme, when a red-green-blue (RGB) color model is used, the difference between the first pixel (P1) and the intensity (IC) of the corresponding pixel in the second input image can be determined as the intensity associated with the first pixel have. The P1-IC can then be distributed throughout the RGB color model of the color at the corresponding pixel using multiple distribution ratios. The distribution ratio can be selected in such a way that each value in each color is between MIN and MAX. For example, each value in each color is between 0 and 255 in the 8 bit R, G, and B color models. An exemplary equation for the distribution is provided below.

Rc.RED = Rc.RED+(P1-IR)*C1,Rc.RED = Rc.RED + (P1-IR) * C1,

Rc.RED = Rc.GREEN+(P1-IR)*C2,Rc.RED = Rc.GREEN + (P1-IR) * C2,

Rc.BLUE = Rc.BLUE+(P1-IR)*C3,Rc.BLUE = Rc.BLUE + (P1-IR) * C3,

(여기서, C1, C2 및 C3는 실수이며, Rc는 기준 컬러이다)(Where C1, C2 and C3 are real numbers and Rc is the reference color)

여기에서, 8비트 R, G 및 B의 경우에 MIN=0이며 MAX=255이다.Here, in the case of 8 bits R, G, and B, MIN = 0 and MAX = 255.

다른 다양한 컬러 모델, 예를 들어 YUV 컬러 모델이 또한 사용될 수 도 있다.Other various color models, for example YUV color models, may also be used.

단계(330)에서 제1 픽셀과 관련된 세기를 상기 제2 입력이미지에서 대응되는픽셀에 적용함에 따라 상기 제2 입력이미지가 변경되면, 단계(335)에서 상기 교체부(470)는 상기 제1 픽셀을 상기 변경된 제2 입력 이미지의 대응 픽셀로 교체한다.If the second input image is changed by applying the intensity associated with the first pixel to the corresponding pixel in the second input image in step 330, the replacing unit 470 in step 335 determines whether the first pixel With a corresponding pixel of the changed second input image.

상기 제1 픽셀을 상기 변경된 제2 입력이미지의 대응 픽셀로 교체한 이후, 상기 프로세서(410)는, 단계(340)에서 상기 정의된 영역에서 포함된 복수의 픽셀들 각각에 대해 단계(325)- 단계(335)를 수행하여, 상기 복수의 픽셀들 각각이 해당 변경된 제2 입력이미지의 대응픽셀로 교체되도록 제어한다.After replacing the first pixel with the corresponding pixel in the modified second input image, the processor 410 proceeds to step 325 for each of the plurality of pixels included in the defined area in step 340, Step 335 is performed to control each of the plurality of pixels to be replaced with corresponding pixels of the changed second input image.

단계(345)에서, 상기 프로세서(410)는 상기 제1 입력 이미지의 상기 정의된 영역에 삽입된 상기 제2 입력 이미지를 사용자에게 디스플레이 한다. At step 345, the processor 410 displays the second input image embedded in the defined region of the first input image to a user.

또한 사용자는 실시간으로 특성을 변경시킬 수 있으며, 예를 들어, 사용자는 제2 입력 이미지를 통해 스크롤할 수 있으며, 상기 스크롤은 디스플레이부(430)를 동적으로 업데이트시킨다. 또한 편집을 위한 다양한 옵션, 예를 들어, 회전, 흑백 컬러, 명암대비 및 가변 깊이(vary depth)를 가질 수 있다.Also, the user can change the characteristics in real time, for example, the user can scroll through the second input image, and the scrolling dynamically updates the display unit 430. It also has various options for editing, for example, rotation, black and white color, contrast, and vary depth.

또한, 상기 정의된 영역이 미러(mirror) 특성을 갖는 지를 확인하기 위한 결정이 이루어진다. 미러의 시작 위치가 결정되고, 제1 입력 이미지에서 미러와 대응하는 픽셀이 상기 변경된 제2 입력 이미지에서 대응되는 미러 픽셀과 혼합된다. 상기 혼합 정도는 사용자 요구에 따라 변경될 수 있으며, 예를 들어, 상기 대응되는 미러 픽셀의 80% 세기와 상기 제1 입력 이미지의 20%가 획득될 수 있다.In addition, a determination is made to confirm that the defined region has mirror properties. The starting position of the mirror is determined, and the pixel corresponding to the mirror in the first input image is mixed with the corresponding mirror pixel in the changed second input image. The degree of blending may be varied according to user requirements, for example 80% intensity of the corresponding mirror pixel and 20% of the first input image may be obtained.

상기 프로세서(410)는 단계(325) - 단계(340)의 수행을 통해, 상기 정의된 모든 영역에 상기 제2 입력이미지를 결합함으로써, 단계(345)에서 상기 결합된 출력이미지를 발생시키고 이를 디스플레이부(430)에 표시한다. The processor 410 generates the combined output image in step 345 by combining the second input image to all of the defined areas through performing steps 325 to 340, (430).

상기 출력 이미지는 압축 포맷 또는 비 압축 포맷이 될 수 있다.The output image may be in a compressed or uncompressed format.

또한 동일 하거나 서로 다른 제2 입력이미지가 서로 다른 영역에 수신될 수 있다.
Also, the same or different second input images may be received in different areas.

도 4는 본 발명의 실시 예에 따라 템플릿과 이미지를 생성하기 위한 전자 장치의 블록도이다. 상기 전자 장치(400)는 카메라, 컴퓨터, 이동 전화기, 비디오 텔레폰 장치, 캠코더, 텔레비젼 및 개인용 디지털 어시스턴트(PDA)를 포함하지만 이에 국한되지는 않는다.4 is a block diagram of an electronic device for generating templates and images in accordance with an embodiment of the present invention. The electronic device 400 includes, but is not limited to, a camera, a computer, a mobile phone, a video telephone device, a camcorder, a television and a personal digital assistant (PDA).

전자 장치(400)는 버스부(405) 또는 정보를 통신하는 기타 통신 메커니즘을 포함한다. 전자 장치(400)는 버스부(405)와 결합된 프로세서(410)를 포함한다. 프로세서(410)는 전자 장치(400)의 프로세싱 및 제어 성능을 위한 집적된 전자회로를 포함할 수 있다. 또한 전자 장치(400)는 RAM 또는 기타 동적 저장 장치 등의 메모리(415)를 포함하는데, 이는 버스부(405)와 결합하여 프로세서(410)에 의해 사용 가능한 정보를 저장한다. The electronic device 400 includes a bus portion 405 or other communication mechanism for communicating information. The electronic device 400 includes a processor 410 coupled with a bus portion 405. The processor 410 may include integrated electronic circuitry for processing and control capabilities of the electronic device 400. The electronic device 400 also includes a memory 415, such as a RAM or other dynamic storage device, which, in combination with the bus portion 405, stores information available by the processor 410.

또한 전자 장치(400)는 프로세서(410)를 위한 정적 정보를 저장하기 위한 버와 연결되는 ROM(420) 또는 기타 정적 저장장치를 포함한다. 마그네틱 디스크 또는 광 디스크 등과 같은 저장부(425)는 정보의 저장을 위해 제공되고, 버스부(405)와 결합된다.The electronic device 400 also includes a ROM 420 or other static storage device coupled to a burr for storing static information for the processor 410. [ A storage unit 425 such as a magnetic disk or an optical disk is provided for storing information and is coupled to the bus unit 405.

전자 장치(400)는 버스부(405)를 통해 정보를 디스플레이하기 위한 CRT(cathode ray tube), LCD(liquid crystal display) 또는 LED(light emitting diode)와 같은 디스플레이부(430)와 결합될 수 있다. The electronic device 400 may be coupled with a display portion 430 such as a cathode ray tube (CRT), a liquid crystal display (LCD), or a light emitting diode (LED) for displaying information through the bus portion 405 .

문자/숫자 키와 그 밖의 다른 키들을 포함하는 입력 장치(435)는 프로세서(410)에게 입력을 통신하기 위한 버스부(405)와 결합된다. 입력 장치(435)는 전자 장치(400)에 포함될 수 있다. An input device 435, including alphanumeric keys and other keys, is coupled to a bus portion 405 for communicating inputs to the processor 410. The input device 435 may be included in the electronic device 400.

사용자 입력 장치의 다른 종류는 마우스, 트랙볼 또는 커서 방향키 와 같은 커서 제어부(440)이며, 이에 의해 프로세서(410)에게 입력을 통신하며 디스플레이부(430) 상에서 커서 이동을 제어한다. 또한 입력 장치(435)는 예를 들어, 터치 스크린인 디스플레이부(430)에 포함될 수 있다.Another type of user input device is a cursor control 440, such as a mouse, trackball, or cursor direction key, thereby communicating input to the processor 410 and controlling cursor movement on the display portion 430. The input device 435 may be included in the display unit 430, which is a touch screen, for example.

다양한 실시 예는 여기에서 설명되는 기법을 구현하기 위한 전자 장치(400)의 사용에 관한 것이다. 본 발명의 실시 예에서, 상기 기법들은 메모리(415)에 포함된 정보를 이용하여 프로세서(410)에 의해 수행된다. 정보는 저장부(425)와 같은 다른 머신-판독 매체로부터 메모리(415)에서 판독될 수 있다.The various embodiments relate to the use of electronic device 400 to implement the techniques described herein. In an embodiment of the present invention, the techniques are performed by the processor 410 using information contained in the memory 415. The information may be read from memory 415 from another machine-readable medium, such as storage 425.

본 발명에서 사용되는"머신-판독가능 매체(machine-readable medium)"As used herein, the term "machine-readable medium"

용어는 머신으로 하여금 특정 방식으로 작동하게 하는 데이터를 제공하는데 참여하는 임의의 매체를 가리킨다. 전자 장치(400)를 이용하여 구현된 실시 예에서, 예를 들어, 프로세서(410)에게 정보를 제공함에 있어서 다양한 머신-판독가능 매체가 포함된다. 상기 머신-판독 가능 매체는 저장 매체가 될 수 있다. 상기 저장 매체는 비휘 발성 매체와 휘발성 매체 모두를 포함한다. 상기 비 휘발성 매체는 예를 들어, 저장부(425)와 같은 광 디스크 혹은 자성 디스크를 포함한다. 상기 휘발성 매체는 메모리(415)와 같은 동적 메모리를 포함한다. 상기 매체 모두는 매체가 운반하는 정보가 물리적 매체에 의해 검출되도록 구현되어야 하며, 여기서 물리적 메커니즘은 정보를 머신으로 판독한다.The term refers to any medium that participates in providing data that allows the machine to operate in a particular manner. In an embodiment implemented using electronic device 400, various machine-readable media are included in providing information to processor 410, for example. The machine-readable medium may be a storage medium. The storage medium includes both non-volatile media and volatile media. The non-volatile medium includes, for example, an optical disk such as the storage section 425 or a magnetic disk. The volatile media includes dynamic memory, such as memory 415. [ All of the media must be implemented such that the information carried by the medium is detected by the physical medium, where the physical mechanism reads the information into the machine.

머신-판독가능 매체의 일반적인 형태는 예를 들어, 플로피 디스크, 플렉시블 디스크, 하드 디스크, 자성 테이프, 또는 임의의 다른 자성 매체, CD-ROM, 임의의 기타 광 매체, 펀치카드, 종이테이프, 홀 패턴을 갖는 임의의 기타 물리적 매체, RAM, PROM, EPROM, FLASH-EPROM, 임의의 기타 메모리 칩 또는 카트리지를 포함한다.Typical forms of machine-readable media include, for example, a floppy disk, a flexible disk, a hard disk, a magnetic tape, or any other magnetic medium, CD-ROM, any other optical medium, a punch card, ROM, PROM, EPROM, FLASH-EPROM, any other memory chip or cartridge.

또한, 머신-판독가능 매체는 동축 케이블, 구리선과 광섬유를 포함하는 전송 매체가 될 수 있으며, 버스부(405)를 포함하는 와이어를 포함한다. 전송 매체는 무선파와 적외선 데이터 통신 동안에 생성된 파형과 같은 음향파 또는 광파의 형태를 취할 수 있다.In addition, the machine-readable medium may be a transmission medium including coaxial cables, copper wires and optical fibers, and includes wires including a bus portion 405. The transmission medium may take the form of acoustic waves or light waves, such as waves generated during radio wave and infrared data communication.

전자 장치(400)는 또한 버스부(405)와 결합된 통신 인터페이스(445)를 포함한다. 통신 인터페이스(445)는 네트워크(450)에게 쌍방향 데이터 통신 결합을 제공한다. 네트워크의 예로서는 인터넷, 블루투쓰 네트워크, 지그비 네트워크, 적외선 네트워크, 근거리 영역 네트워크(LAN)와 같은 무선 통신네트워크를 포함하지만 이에 국한되지는 않는다. The electronic device 400 also includes a communication interface 445 coupled with the bus portion 405. The communication interface 445 provides a bi-directional data communication combination to the network 450. Examples of networks include, but are not limited to, the Internet, a Bluetooth network, a ZigBee network, an infrared network, and a wireless communication network such as a local area network (LAN).

통신 인터페이스(445)는 LAN 카드가 될 수 있는데, LAN 카드는 호환되는 LAN으로의 데이터 통신 연결을 제공한다. 무선 링크, 예를 들어 블루투스가 구현될 수 있다. 상기와 같은 구현에서, 통신 인터페이스(445)는 디지털 데이터 스트림을 운반하는 전기 신호, 전자기 신호 또는 광신호를 송신하고 수신하는데, 디지털 데이터 스트림은 다양한 타입의 정보를 나타낸다. 통신 인터페이스(445)는 범용 시리얼 버스 포트가 될 수 있다.The communication interface 445 may be a LAN card, which provides a data communication connection to a compatible LAN. A wireless link, e.g., Bluetooth, may be implemented. In such an implementation, the communication interface 445 transmits and receives electrical, electromagnetic, or optical signals that carry digital data streams, which represent various types of information. The communication interface 445 may be a general-purpose serial bus port.

본 발명의 실시 예에서, 원격 장치(490)는 네트워크(450)와 연결될 수 있다. 원격 장치(490)는 네트워크(450)를 통해 원격 위치로부터의 적어도 하나의 이미지를 송신할 수 있다. 원격 장치의 예로서는 카메라, 컴퓨터, 이동 전화기 및 비디오 텔레폰 장치를 포함하지만 이에 국한되지 않는다.In an embodiment of the present invention, remote device 490 may be coupled to network 450. The remote device 490 may transmit at least one image from a remote location via the network 450. Examples of remote devices include, but are not limited to, cameras, computers, mobile telephones, and video telephone devices.

본 발명의 실시 예에서, 전자 장치(400)는 정보를 저장하거나 인출하는 저장 장치(455)와 연결될 수 있다. 저장 장치(455)의 예로서는 플래시 드라이브, 펜 드라이브, 하드 디스크 또는 임의의 다른 저장 매체를 포함하지만 이에 국한되지 않는다. 상기 저장 장치는 하나 이상의 기준 이미지, 하나 이상의 출력 이미지, 기준 이미지상의 비쥬얼 영역에 부가된 기준 컬러의 픽셀 세기에 관한 정보를 저장하는데 사용된다.In an embodiment of the present invention, the electronic device 400 may be coupled to a storage device 455 that stores or retrieves information. Examples of storage devices 455 include, but are not limited to, flash drives, pen drives, hard disks, or any other storage medium. The storage device is used to store information about pixel intensity of one or more reference images, one or more output images, and a reference color added to a visual area on the reference image.

본발명의 실시 예에서, 전자 장치(400)는 하나 이상의 프로세싱부, 예를 들어 결정부(460), 적용부(465), 교체부(470), 식별부(475), 규정부(480) 및 카메라(485)를 포함하거나 이들과 연결될 수 있다.
In an embodiment of the invention, the electronic device 400 includes one or more processing units, e.g., a determination unit 460, an application unit 465, a replacement unit 470, an identification unit 475, a specification unit 480, And a camera 485, as shown in FIG.

본 발명의 일 실 시 예에서, 템플릿을 생성하기 위해, 전자 장치(400)는 입력 이미지를 수신한다. 입력 이미지의 수신은 카메라(485)에서 캡쳐링된 실시간 이미지, 저장 이미지, 다운로딩된 이미지와 편집 이미지 중 하나로부터 이루어진다. In one example of the present invention, to create a template, the electronic device 400 receives an input image. The reception of the input image is performed from one of the captured real-time image, the stored image, the downloaded image, and the edited image at the camera 485.

상기 규정부(480)은 사용자로부터의 입력에 응답하여 입력 이미지에서 적어도 하나의 영역을 정의하여 적어도 하나의 정의된 영역을 산출한다. The defining unit 480 defines at least one area in the input image in response to an input from the user to produce at least one defined area.

상기 결정부(460)은 상기 적어도 하나의 영역에서의 복수의 픽셀과 관련된 세기를 결정한다. The determiner 460 determines the intensity associated with the plurality of pixels in the at least one region.

상기 적용부(465)은 상기 복수의 픽셀과 관련된 세기를 복수의 기준 컬러 픽셀에 적용하여 변경된 복수의 기준 컬러 픽셀을 산출한다. The application unit 465 applies the intensity associated with the plurality of pixels to a plurality of reference color pixels to produce a plurality of reference color pixels that have changed.

상기 교체부(470)는 상기 복수의 픽셀들을 상기 복수의 변경된 기준 컬러 픽셀로 교체하며, 여기서 상기 결정부(460), 상기 적용부(465) 및 상기 교체부(470)는 상기 적어도 하나의 영역에서의 복수의 픽셀들에 대한 결정, 적용 및 교체를 수행함으로써 템플릿을 생성한다. Wherein the replacement unit 470 replaces the plurality of pixels with the plurality of modified reference color pixels, wherein the determination unit 460, the application unit 465, Applying and replacing a plurality of pixels in the template.

상기 식별부(475)은 기준 컬러의 색조(hue)와 일치하는 색조(hue)를 갖는 상기 적어도 하나의 정의된 영역의 복수의 픽셀들을 식별한다. The identifying unit 475 identifies a plurality of pixels of the at least one defined region having a hue that coincides with the hue of the reference color.

또한 상기 결정부(460)는 상기 복수의 픽셀과 관련된 세기를 결정한다. The determination unit 460 also determines the intensity associated with the plurality of pixels.

또한 상기 적용부(465)는 상기 복수의 픽셀과 관련된 세기를 제2 입력 이미지에서 대응하는 복수의 픽셀에 적용하여 변경된 제2 입력 이미지 픽셀을 산출한다. The application unit 465 also applies the intensity associated with the plurality of pixels to a corresponding plurality of pixels in the second input image to produce a modified second input image pixel.

또한 상기 교체부(470)은 상기 적어도 하나의 정의된 영역에서 상기 복수의 픽셀들을 상기 변경된 제2 입력 이미지 픽셀로 교체하며, 여기서 상기 식별부(475), 상기 결정부(460), 상기 적용부(465) 및 상기 교체부(470)는 상기 적어도 하나의 영역에서의 복수의 픽셀에 대한 식별, 결정, 적용 및 교체를 수행하여 상기 적어도 하나의 정의된 영역에 상기 제2 입력이미지가 결합된 출력 이미지를 산출한다. 상기 디스플레이부(430)는 상기 출력 이미지를 디스플레이 한다.The replacing unit 470 also replaces the plurality of pixels with the changed second input image pixel in the at least one defined area, wherein the identifying unit 475, the determining unit 460, (465) and the replacement unit (470) perform identification, determination, application, and replacement of a plurality of pixels in the at least one region to output the combined output of the second input image to the at least one defined region And calculates an image. The display unit 430 displays the output image.

본 발명의 다른 실시 예에서, 출력 이미지를 생성하기 위해, 버스부(405)는 제1 입력 이미지와 제2 입력 이미지를 획득한다. 상기 규정부(480)은 제1 입력 이미지에서 적어도 하나의 영역을 정의하여 상기 적어도 하나의 정의된 영역을 산출한다. In another embodiment of the present invention, to generate an output image, the bus unit 405 acquires a first input image and a second input image. The defining unit 480 defines at least one area in the first input image to produce the at least one defined area.

상기 결정부(460)는 상기 적어도 하나의 정의된 영역의 복수의 픽셀들과 관련된 세기를 결정한다. The determination unit 460 determines the intensity associated with the plurality of pixels of the at least one defined region.

상기 적용부(465)은 상기 복수의 픽셀과 관련된 세기를 상기 제2 입력 이미지에서 대응되는 복수의 픽셀에 적용하여 변경된 제2 입력 이미지 픽셀을 산출한다. The application unit 465 applies the intensity associated with the plurality of pixels to the corresponding plurality of pixels in the second input image to produce a modified second input image pixel.

상기 교체부(470)는 상기 적어도 하나의 정의된 영역에서의 상기 복수의 픽셀들을 상기 변경된 제2 입력 이미지 픽셀로 교체하며, 여기서 상기 결정부(460), 상기 적용부(465) 및 상기 교체부(470)는 상기 적어도 하나의 영역에서의 복수의 픽셀들에 대한 결정, 적용 및 교체를 수행하여 상기 적어도 하나의 정의된 영역에 상기 제2 입력이미지가 결합된 출력 이미지를 산출한다. The replacement unit 470 replaces the plurality of pixels in the at least one defined area with the changed second input image pixel, wherein the determination unit 460, the application unit 465, (470) performs determination, application, and replacement of a plurality of pixels in the at least one region to produce an output image in which the second input image is combined into the at least one defined region.

상기 디스플레이부(430)는 출력 이미지를 디스플레이하고, 상기 저장부(415)은 템플릿, 출력 이미지, 기준 컬러, 제1 입력 이미지, 제2 입력 이미지, 상기 적어도 하나의 정의된 영역과 관련된 정보 및 상기 적어도 하나의 정의된 영역과 관련된 미러 정보 중 적어도 어느 하나를 저장한다.The display unit 430 displays an output image, and the storage unit 415 stores a template, an output image, a reference color, a first input image, a second input image, information related to the at least one defined area, And at least one of mirror information associated with at least one defined area.

본 발명에서, 상기 프로세서(410)는 프로세싱부의 기능을 수행한다.
In the present invention, the processor 410 functions as a processing unit.

도 5a - 도 5c는 본 발명의 일 실시 예를 설명하기 위한 도면으로, 본 발명의 일 실시 예에 따라 입력 이미지, 템플릿 이미지 및 생성된 출력 이미지를 도시한 도면이다.FIGS. 5A to 5C illustrate an input image, a template image, and a generated output image according to an exemplary embodiment of the present invention.

상기 도 5a에서와 같이, 상기 규정부(480)에 의해 사용자에 의해 획득된 입력 이미지(505)에서 영역(510)이 정의되면, 상기 결정부(460)에 의해 상기 정의된 영역에서의 복수의 픽셀들 중 먼저 제1 픽셀과 관련된 세기가 결정된다. 그리고, 상기 적용부(465)에 의해 상기 제1 픽셀과 관련된 세기를 기준 컬러 픽셀에 적용하여, 변경된 기준 컬러 픽셀을 산출하고, 상기 교체부(470)에 의해 상기 제1 픽셀을 상기 변경된 기준 컬러 픽셀로 교체한다.  5A, when the region 510 is defined in the input image 505 acquired by the user by the specifying unit 480, the determination unit 460 determines the region The intensity of the first of the pixels is determined. Then, the application unit 465 applies the intensity associated with the first pixel to the reference color pixel to calculate a changed reference color pixel, and the replacement unit 470 changes the first pixel to the changed reference color Replace with pixels.

또한, 상기 프로세서(410)는 상기 정의된 영역에서 엣지를 검출하는데, 예를 들어 상기 정의된 영역(510)에서 도시된 나무의 나뭇가지들이 엣지로써 식별되며, 상기 도 5b의 참조번호 515에서와 같이 엣지는 그 자체로서 보유된다. Also, the processor 410 detects an edge in the defined area, for example, the tree branches shown in the defined area 510 are identified as edges, and at reference numeral 515 in FIG. 5B The edge is held as such.

상기 정의된 영역에서의 복수의 픽셀에 대한 결정, 적용 및 교체 동작이 수행됨으로써, 상기 도 5b에서 도시된 바와 같은 템플릿(520)이 생성된다.The determination, application, and replacement operations for a plurality of pixels in the defined area are performed, thereby generating a template 520 as shown in FIG. 5B.

상기 도 5c와 같이 상기 템플릿이 사용자에 의해 획득되고, 제2 입력 이미지(525)가 수신되면, 상기 식별부(475)는 기준 컬러의 색조(hue)와 일치하는 색조(hue)를 가지는 상기 정의된 영역의 제1 픽셀을 식별한다. 그리고 상기 결정부(460)에 의해 상기 제1 픽셀과 관련된 세기가 결정되고, 상기 적용부(465)에 의해 상기 제1 픽셀과 관련된 세기를 상기 제2 입력 이미지(520)에서 대응 픽셀에 적용하여, 변경된 제2 입력 이미지 픽셀을 산출한다. 그리고 상기 교체부(470)에 의해 상기 정의된 영역에서 제1 픽셀을 상기 변경된 제2 입력 이미지 픽셀로 교체한다. 상기 정의된 영역에서의 복수의 픽셀들에 대한 식별, 결정, 적용 및 교체가 수행됨에 따라 상기 도 5c에서 도시된 바와 같은 출력 이미지(530)를 산출한다.
When the template is obtained by the user and the second input image 525 is received as shown in FIG. 5C, the identifying unit 475 identifies the hue having the hue coinciding with the hue of the reference color, Lt; RTI ID = 0.0 > of the < / RTI > And the intensity related to the first pixel is determined by the determination unit 460 and the intensity associated with the first pixel is applied to the corresponding pixel in the second input image 520 by the application unit 465 , And calculates the changed second input image pixel. And the replacement unit 470 replaces the first pixel in the defined area with the changed second input image pixel. The output image 530 as shown in FIG. 5C is generated as the identification, determination, application, and replacement of a plurality of pixels in the defined area are performed.

도 6a - 도 6b는 본 발명의 일 실시 예를 설명하기 위한 도면으로, 본 발명의 일 실시 예에 따라 입력 이미지 및 생성되어 출력된 이미지를 도시한 도면이다. 6A and 6B illustrate an input image and an image generated and output according to an embodiment of the present invention.

상기 도 6a와 같이 제1 입력 이미지(605)가 획득되면, 상기 규정부(480)에 의해 제1 입력 이미지(605)에서 적어도 하나의 영역(610)이 정의된다. 그리고 제2 입력 이미지(615)가 수신되면, 상기 결정부(460)에 의해 상기 정의된 영역의 복수의 픽셀들 중 제1 픽셀과 관련된 세기는 컬러 모델, 예를 들어 HSV 컬러 모델에 의해 결정된다. 그리고 상기 적용부(465)는 상기 제1 픽셀(V)과 관련된 세기를 상기 제2 입력 이미지(615)에서 대응 픽셀에 적용하여, 변경된 제2 입력 이미지 픽셀을 산출한다. 그리고 상기 교체부(470)에 의해 상기 정의된 영역에서 상기 제1 픽셀은 상기 변경된 제2 입력 이미지의 대응 픽셀로 교체된다. When the first input image 605 is obtained as shown in FIG. 6A, at least one region 610 is defined by the defining unit 480 in the first input image 605. When the second input image 615 is received, the intensity associated with the first one of the plurality of pixels of the defined region by the determining unit 460 is determined by the color model, for example, the HSV color model . The application unit 465 then applies the intensity associated with the first pixel V to the corresponding pixel in the second input image 615 to produce a modified second input image pixel. And in the area defined by the replacement unit 470, the first pixel is replaced with a corresponding pixel of the changed second input image.

상기 정의된 영역에서의 모든 픽셀에 대한 결정, 적용 및 교체가 수행되어 출력 이미지(620)를 산출하며, 상기 이미지의 엣지는 결정되지 않는다. The determination, application and replacement for all pixels in the defined region is performed to produce an output image 620, and the edge of the image is not determined.

상기 출력 이미지(620)는 상기 도 6b에서 도시된 바와 같이 사용자에게 디스플레이된다.
The output image 620 is displayed to the user as shown in FIG. 6B.

도 7a와 도 7b는 본 발명의 다른 실시 예를 설명하기 위한 도면으로, 본 발명의 다른 실시 예에 따라 입력 이미지와 생성된 출력 이미지를 도시한 도면이다. FIGS. 7A and 7B are diagrams for explaining another embodiment of the present invention, which shows an input image and a generated output image according to another embodiment of the present invention.

상기 도 7a와 같이, 제1 입력 이미지(705)가 획득되면, 상기 규정부(480)에 의해 상기 제1 입력 이미지에서 적어도 하나의 영역(710)이 정의된다. 7A, when the first input image 705 is acquired, at least one region 710 is defined by the defining unit 480 in the first input image.

그리고 제2 입력 이미지(715)가 수신되면, 상기 결정부(460)에 의해 상기 정의된 영역의 복수의 픽셀들 중 제1 픽셀과 관련된 세기가 결정된다. 그리고 상기 적용부(465)에 의해 상기 제1 픽셀과 관련된 세기가 상기 제2 입력 이미지(715)에서의 대응되는 픽셀에 적용되어, 변경된 제2 입력 이미지 픽셀을 산출한다. When the second input image 715 is received, the determination unit 460 determines the intensity associated with the first one of the plurality of pixels in the defined region. And the application unit 465 applies the intensity associated with the first pixel to the corresponding pixel in the second input image 715 to produce a modified second input image pixel.

그리고 상기 결정부(460)에 의해 상기 정의된 영역의 복수의 픽셀들 중 제1 픽셀과 관련된 세기는 컬러 모델, 예를 들어 RGB 컬러 모델에 의해 결정된다. 상기 교체부(470)에 의해 상기 정의된 영역(710)에서 상기 제1 픽셀은 상기 변경된 제2 입력 이미지 픽셀로 교체된다. 상기 정의된 영역에서의 모든 픽셀에 대한 결정, 적용 및 교체가 수행되어 출력 이미지(720)를 산출한다. And the intensity associated with the first one of the plurality of pixels of the defined region by the determination unit 460 is determined by a color model, for example, an RGB color model. In the defined region 710, the first pixel is replaced by the changed second input image pixel by the replacement unit 470. The determination, application, and replacement for all pixels in the defined region are performed to yield an output image 720.

상기 적어도 하나의 영역에서의 엣지(도 7a에서 글자)가 결정되며, 상기 도 7b와 같이 엣지의 픽셀 세기가 변경될 수 있다. 출력 이미지(720)는 상기 도 7b에서 도시된 바와 같이, 사용자에게 디스플레이 된다.The edge (the letter in FIG. 7A) in the at least one area is determined, and the pixel intensity of the edge can be changed as shown in FIG. 7B. The output image 720 is displayed to the user, as shown in FIG. 7B above.

앞선 명세서에서, 본 발명 및 그 이점들은 특정 실시 예를 참조하여 설명되었다. 하지만, 하기의 청구범위에서 제시된 바와 같이 본 발명의 범주를 벗어남이 없이 다양한 변화물과 변형물이 이루어질 수 있음은 기술분야의 당업자에게 자명할 것이다. 따라서, 명세서와 도면들은 본 발명을 예시하는 예로서 간주되어야 할 것이며 제한적인 의미로 해석되지 않아야 한다. 이러한 가능한 변형물들은 모두가 본 발명의 범주 내에 포함되는 것으로 의도된다.
In the foregoing specification, the invention and its advantages have been described with reference to specific embodiments. It will be apparent, however, to one skilled in the art that various changes and modifications can be made therein without departing from the scope of the invention as set forth in the following claims. Accordingly, the specification and drawings are to be regarded as illustrative of the invention and should not be construed in a limiting sense. All such possible modifications are intended to be included within the scope of the present invention.

410:프로세서, 460: 결정부, 465:적용부, 470:교체부, 475:식별부, 480:규정부A processor, 460: a determination unit, 465: an application unit, 470: a replacement unit, 475: an identification unit, 480:

Claims (31)

이미지 생성 방법에 있어서,
적어도 하나의 정의된 영역을 가지는 제1 입력 이미지를 포함하는 탬플릿을 생성하는 단계;
제2 입력 이미지를 수신하는 단계;
상기 적어도 하나의 정의된 영역에 포함된 복수의 픽셀들과 관련된 세기를 상기 제2 입력 이미지에 포함되는 복수의 픽셀들에 적용하여 상기 제2 입력 이미지를 변경하고, 상기 적어도 하나의 정의된 영역을 상기 변경된 제2 입력 이미지로 교체하여 출력 이미지를 생성하는 단계; 및
상기 출력 이미지를 디스플레이하는 단계를 포함하고,
상기 탬플릿은 상기 적어도 하나의 정의된 영역에 포함된 복수의 픽셀들 중 제1 픽셀과 관련된 세기를 기준 컬러 픽셀에 적용하여 생성하는 것을 특징으로 하는 이미지 생성방법.
In the image generating method,
Creating a template including a first input image having at least one defined region;
Receiving a second input image;
Applying an intensity associated with a plurality of pixels included in the at least one defined region to a plurality of pixels included in the second input image to modify the second input image, Generating an output image by replacing the second input image with the changed second input image; And
And displaying the output image,
Wherein the template is generated by applying an intensity associated with a first one of a plurality of pixels included in the at least one defined region to a reference color pixel.
제1 항에 있어서, 상기 탬플릿을 생성하는 단계는,
사용자로부터의 입력에 응답하여 상기 제1 입력 이미지에서 상기 적어도 하나의 정의된 영역을 규정하는 규정단계;
상기 제1 픽셀을 상기 제1 픽셀과 관련된 세기를 기준 컬러 픽셀에 적용하여 산출된 변경된 기준 컬러 픽셀로 교체하는 교체단계; 및
상기 적어도 하나의 영역에 포함된 복수의 픽셀들에 대해 상기 교체단계를 반복 수행하여, 상기 탬플릿을 생성하는 단계를 포함하는 것을 특징으로 하는 이미지 생성방법.
The method of claim 1, wherein generating the template further comprises:
A defining step of defining said at least one defined area in said first input image in response to an input from a user;
Replacing the first pixel with an altered reference color pixel calculated by applying the intensity associated with the first pixel to a reference color pixel; And
And repeating the replacing step for a plurality of pixels included in the at least one area to generate the template.
제2항에 있어서,
상기 탬플릿을 저장하는 저장단계를 더 포함하는 것을 특징으로 하는 이미지생성방법.
3. The method of claim 2,
Further comprising a storing step of storing the template.
제3 항에 있어서, 상기 저장단계는,
기준 컬러를 저장하는 단계; 및
상기 적어도 하나의 정의된 영역과 관련된 정보를 저장하는 단계를 더 포함하는 것을 특징으로 하는 이미지 생성방법.
4. The method according to claim 3,
Storing a reference color; And
Further comprising storing information associated with the at least one defined region.
제2 항에 있어서,
상기 적어도 하나의 정의된 영역에서 엣지 픽셀을 결정하는 단계; 및
상기 적어도 하나의 정의된 영역에서 상기 결정된 엣지 픽셀을 보존하는 단계를 더 포함하는 것을 특징으로 하는 이미지 생성방법.
3. The method of claim 2,
Determining an edge pixel in the at least one defined region; And
Further comprising the step of preserving the determined edge pixels in the at least one defined region.
제2 항에 있어서,
상기 적어도 하나의 정의된 영역에서의 미러(mirror)의 존재를 결정하는 단계; 및
상기 적어도 하나의 정의된 영역과 관련된 미러 정보를 저장하는 단계를 더 포함하는 것을 특징으로 하는 이미지 생성방법.
3. The method of claim 2,
Determining the presence of a mirror in the at least one defined region; And
Further comprising: storing mirror information associated with the at least one defined region.
제2 항에 있어서, 상기 탬플릿을 생성하는 단계는,
상기 적어도 하나의 정의된 영역에 포함된 복수의 픽셀들에 대한 평균 세기를 계산하는 단계;
상기 평균 세기와 상기 제1 픽셀의 세기간의 차이를 계산하는 단계 및
상기 차이를 상기 제1 픽셀과 관련된 세기로 정의하는 단계를 포함하는 것을 특징으로 하는 이미지 생성방법.
3. The method of claim 2, wherein generating the template further comprises:
Calculating an average intensity for a plurality of pixels included in the at least one defined area;
Calculating a difference between the average intensity and the intensity of the first pixel; and
And defining the difference as the intensity associated with the first pixel.
제2 항에 있어서, 상기 탬플릿을 생성하는 단계는,
상기 제1 픽셀의 세기와 대응되는 기준 컬러 픽셀의 세기간의 차이를 계산하는 단계; 및
상기 차이를 상기 제1 픽셀과 관련된 세기로 정의하는 단계를 포함하는 것을 특징으로 하는 이미지 생성방법.
3. The method of claim 2, wherein generating the template further comprises:
Calculating a difference between an intensity of the first pixel and an intensity of a reference color pixel corresponding to the intensity of the first pixel; And
And defining the difference as the intensity associated with the first pixel.
제2 항에 있어서,
상기 기준 컬러는 사용자에 의해 선택되거나 또는 미리 정의되는 것을 특징으로 하는 이미지 생성방법.
3. The method of claim 2,
Wherein the reference color is selected or predefined by a user.
제2 항에 있어서, 상기 탬플릿을 생성하는 단계는,
상기 기준 컬러 픽셀에서 적어도 하나의 특성을 변경하는 단계를 포함하며, 상기 적어도 하나의 특성은 세기(intensity), 포화도(saturation), 컬러(color) 및 채도(chroma) 성분 중 적어도 하나를 포함하는 것을 특징으로 하는 이미지 생성방법.
3. The method of claim 2, wherein generating the template further comprises:
And modifying at least one characteristic in the reference color pixel, wherein the at least one characteristic comprises at least one of intensity, saturation, color and chroma components Characterized in that said method comprises the steps of:
제1 항에 있어서, 상기 출력 이미지를 생성하는 단계는,
상기 적어도 하나의 정의된 영역에 포함된 복수의 픽셀들 중 기준 컬러의 색조와 일치하는 색조를 가지는 제1 픽셀을 식별하는 식별단계;
상기 제1 픽셀과 관련된 세기를 결정하는 결정단계;
상기 제1 픽셀과 관련된 세기를 상기 제2 입력 이미지의 대응 픽셀에 적용하여 변경된 상기 제2 입력 이미지 픽셀을 산출하는 적용단계;
상기 적어도 하나의 정의된 영역에서 상기 제1 픽셀을 상기 변경된 제2 입력 이미지 픽셀로 교체하는 교체단계; 및
상기 적어도 하나의 정의된 영역에 포함된 복수의 픽셀들에 대해 상기 식별 단계, 상기 결정 단계, 상기 적용 단계 및 상기 교체 단계를 수행하여 상기 출력 이미지를 생성하는 단계를 포함하는 것을 특징으로 하는 이미지 생성방법.
2. The method of claim 1, wherein generating the output image comprises:
An identification step of identifying a first pixel having a hue corresponding to a hue of a reference color among a plurality of pixels included in the at least one defined area;
Determining a strength associated with the first pixel;
Applying an intensity related to the first pixel to a corresponding pixel of the second input image to calculate the modified second input image pixel;
Replacing the first pixel with the changed second input image pixel in the at least one defined area; And
Comprising the steps of: performing the identifying step, the determining step, the applying step and the replacing step on a plurality of pixels included in the at least one defined area to generate the output image. Way.
삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 이미지 생성시스템에 있어서,
탬플릿에서 적어도 하나의 정의된 영역을 산출하는 규정부;
상기 적어도 하나의 정의된 영역에 포함된 복수의 픽셀들 중 제1 픽셀과 관련된 세기를 결정하는 결정부;
상기 제1 픽셀과 관련된 세기를 제2 입력 이미지에서 대응되는 픽셀에 적용하여 변경된 제2 입력 이미지 픽셀을 산출하는 적용부;
상기 적어도 하나의 정의된 영역에서 상기 제1 픽셀을 상기 변경된 제2 입력 이미지 픽셀로 교체하는 교체부; 및
상기 결정부, 상기 적용부 및 상기 교체부를 통해 상기 적어도 하나의 정의된 영역에 포함된 복수의 픽셀들에 대한 식별, 결정, 적용 및 교체를 수행하여 출력 이미지를 생성하도록 제어하는 프로세서를 포함하며,
상기 적용부는 상기 제1 픽셀과 관련된 세기를 기준 컬러 픽셀에 적용하여 변경된 기준 컬러 픽셀을 산출하고;
상기 교체부는 상기 제1 픽셀을 상기 변경된 기준 컬러 픽셀로 교체하는 것을 특징으로 하는 이미지 생성시스템.
An image generation system comprising:
A regulator for calculating at least one defined region in the template;
A determination unit that determines intensity associated with a first one of a plurality of pixels included in the at least one defined area;
An application unit for applying the intensity associated with the first pixel to a corresponding pixel in a second input image to calculate a modified second input image pixel;
A replacement unit for replacing the first pixel with the changed second input image pixel in the at least one defined area; And
And a processor for performing an identification, determination, application, and replacement of a plurality of pixels included in the at least one defined area through the determination unit, the application unit, and the replacement unit to generate an output image,
The application applying the intensity associated with the first pixel to a reference color pixel to produce a modified reference color pixel;
And the replacing unit replaces the first pixel with the changed reference color pixel.
제20 항에 있어서,
상기 적어도 하나의 정의된 영역에 포함된 복수의 픽셀들 중 기준 컬러의 색조와 일치하는 색조를 가지는 제1 픽셀을 식별하는 식별부를 더 포함하는 것을 특징으로 하는 이미지 생성시스템.
21. The method of claim 20,
Further comprising an identification unit for identifying a first pixel having a hue that matches a hue of a reference color among a plurality of pixels included in the at least one defined area.
제20 항에 있어서, 상기 결정부는,
상기 적어도 하나의 정의된 영역에 포함된 복수의 픽셀들에 대한 평균 세기와 상기 제1 픽셀의 세기간의 차이, 또는 상기 제1 픽셀의 세기와 상기 제2 입력이미지에서 대응되는 픽셀의 세기간의 차이를 상기 제1 픽셀과 관련된 세기로 정의하는 것을 특징으로 하는 이미지 생성시스템.
21. The apparatus according to claim 20,
A difference between an average intensity for a plurality of pixels included in the at least one defined area and the intensity of the first pixel or a difference between an intensity of the first pixel and an intensity of a corresponding pixel in the second input image Wherein the first pixel is defined as an intensity related to the first pixel.
제20 항에 있어서, 상기 적용부는,
상기 제2 입력이미지에서 적어도 하나의 특성을 변경하며, 상기 적어도 하나의 특성에는 세기(intensity), 포화도(saturation), 컬러(color) 및 채도(chroma)성분 중 적어도 하나를 포함하는 것을 특징으로 하는 이미지 생성시스템.
21. The apparatus of claim 20,
Wherein the at least one property includes at least one of an intensity, a saturation, a color, and a chroma component, wherein the at least one property changes at least one property in the second input image, Image creation system.
제20 항에 있어서, 상기 프로세서는,
상기 적어도 하나의 정의된 영역이 미러 특성을 갖는 지 결정하고, 미러 시작 위치를 결정하며, 상기 탬플릿의 미러에 대응하는 픽셀과 상기 변경된 제2 입력이미지에서 대응되는 미러 픽셀을 혼합하며, 상기 혼합 정도를 가변하는 것을 특징으로 하는 이미지 생성시스템.
21. The apparatus of claim 20,
Determine the at least one defined region to have a mirror property, determine a mirror start position, blend the pixel corresponding to the mirror of the template and the corresponding mirror pixel in the modified second input image, Of the image data.
제20 항에 있어서,
상기 기준 컬러는 사용자에 의해 선택되거나 또는 미리 정의되는 것을 특징으로 하는 이미지 생성 시스템.
21. The method of claim 20,
Wherein the reference color is selected or predefined by a user.
제20 항에 있어서,
상기 결정부는 상기 적어도 하나의 정의된 영역에서의 복수의 픽셀들 중 제1 픽셀과 관련된 세기를 결정하고;
상기 프로세서는 상기 결정부, 상기 적용부 및 상기 교체부를 통해 상기 적어도 하나의 영역에 포함된 복수의 픽셀들에 대한 결정, 적용 및 교체를 수행함으로써 상기 탬플릿을 생성하도록 제어하는 것을 특징으로 하는 이미지 생성시스템.
21. The method of claim 20,
Wherein the determining unit determines an intensity associated with a first one of a plurality of pixels in the at least one defined region;
Wherein the processor controls to generate the template by performing determination, application and replacement of a plurality of pixels included in the at least one region through the determination unit, the application unit and the replacement unit. system.
제26 항에 있어서, 상기 결정부는,
상기 적어도 하나의 정의된 영역에 포함된 복수의 픽셀들에 대한 평균 세기와 상기 제1 픽셀의 세기간의 차이, 또는 상기 제1 픽셀의 세기와 대응되는 기준 컬러 픽셀의 세기간의 차이를 상기 제1 픽셀과 관련된 세기로 정의하는 것을 특징으로 하는 이미지 생성시스템.
27. The apparatus according to claim 26,
A difference between an average intensity for a plurality of pixels included in the at least one defined area and the intensity of the first pixel or a difference between the intensity of the first pixel and the intensity of a reference color pixel corresponding to the intensity of the first pixel, And the intensity of the image.
제20 항에 있어서, 상기 적용부는,
상기 기준 컬러 픽셀에서 적어도 하나의 특성을 변경하고, 상기 적어도 하나의 특성에는 세기(intensity), 포화도(saturation), 컬러(color) 및 채도(chroma)성분 중 적어도 하나를 포함하는 것을 특징으로 하는 이미지 생성시스템.
21. The apparatus of claim 20,
Wherein the at least one characteristic includes at least one of an intensity, a saturation, a color, and a chroma component, wherein the at least one characteristic changes at least one characteristic in the reference color pixel. Generating system.
제26 항에 있어서, 상기 프로세서는,
상기 적어도 하나의 정의된 영역에서 엣지 픽셀을 결정하고, 상기 적어도 하나의 정의된 영역에서 상기 결정된 엣지 픽셀을 보존하는 것을 특징으로 하는 이미지 생성시스템.
27. The apparatus of claim 26,
Determine an edge pixel in the at least one defined area, and store the determined edge pixel in the at least one defined area.
제26 항에 있어서, 상기 프로세서는,
상기 적어도 하나의 정의된 영역에서의 미러(mirror)의 존재를 결정하고,
상기 적어도 하나의 정의된 영역과 관련된 미러 정보를 저장하는 것을 특징으로 하는 이미지 생성시스템.
27. The apparatus of claim 26,
Determining the presence of a mirror in the at least one defined region,
And stores mirror information associated with the at least one defined region.
제20 항에 있어서,
탬플릿, 출력 이미지, 기준 컬러, 제1 입력 이미지, 상기 제2 입력 이미지, 상기 적어도 하나의 정의된 영역과 관련된 정보 및 적어도 하나의 정의된 영역과 관련된 미러 정보 중 적어도 어느 하나를 저장하는 저장부를 더 포함하는 것을 특징으로 하는 이미지 생성시스템.
21. The method of claim 20,
A storage unit for storing at least one of a template, an output image, a reference color, a first input image, the second input image, information associated with the at least one defined area, and mirror information associated with at least one defined area The image generation system comprising:
KR1020100037097A 2009-07-23 2010-04-21 Method and system for creating an image KR101712667B1 (en)

Priority Applications (3)

Application Number Priority Date Filing Date Title
EP10168491.8A EP2284800B1 (en) 2009-07-23 2010-07-06 Method and system for creating an image
US12/842,148 US8830251B2 (en) 2009-07-23 2010-07-23 Method and system for creating an image
CN201010238239.4A CN101964110B (en) 2009-07-23 2010-07-23 For creating the method and system of image

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
IN1740/CHE/2009 2009-07-23
IN1740CH2009 2009-07-23

Publications (2)

Publication Number Publication Date
KR20110010049A KR20110010049A (en) 2011-01-31
KR101712667B1 true KR101712667B1 (en) 2017-03-06

Family

ID=43615577

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020100037097A KR101712667B1 (en) 2009-07-23 2010-04-21 Method and system for creating an image

Country Status (1)

Country Link
KR (1) KR101712667B1 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9277230B2 (en) 2011-11-23 2016-03-01 Qualcomm Incorporated Display mode-based video encoding in wireless display devices

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE69602515T2 (en) * 1995-06-16 2000-03-02 Princeton Video Image Inc DEVICE AND METHOD FOR REAL-TIME DISPLAY IN VIDEO IMAGES USING ADAPTIVE OCCLUSION WITH A SYNTHETIC REFERENCE IMAGE
JPH11261805A (en) * 1997-12-18 1999-09-24 Fuji Photo Film Co Ltd Image composition system and method, image composition device and client computer for constituting image composition system and image separation method
US20060064716A1 (en) * 2000-07-24 2006-03-23 Vivcom, Inc. Techniques for navigating multiple video streams
US7020347B2 (en) * 2002-04-18 2006-03-28 Microsoft Corp. System and method for image-based surface detail transfer

Also Published As

Publication number Publication date
KR20110010049A (en) 2011-01-31

Similar Documents

Publication Publication Date Title
EP2284800B1 (en) Method and system for creating an image
US9547427B2 (en) User interface with color themes based on input image data
EP3465673B1 (en) Transitioning between video priority and graphics priority
US8866871B2 (en) Image processing method and image processing device
US7469064B2 (en) Image display apparatus
US10417742B2 (en) System and apparatus for editing preview images
US20150188970A1 (en) Methods and Systems for Presenting Personas According to a Common Cross-Client Configuration
CN103004213A (en) Tone and gamut mapping methods and apparatus
US9671931B2 (en) Methods and systems for visually deemphasizing a displayed persona
CN108141576B (en) Display device and control method thereof
CN111787240B (en) Video generation method, apparatus and computer readable storage medium
KR101712667B1 (en) Method and system for creating an image
CN113112422A (en) Image processing method, image processing device, electronic equipment and computer readable medium
JP6243112B2 (en) Information processing apparatus, information processing method, and recording medium
CN107534763B (en) Adaptive color levels interpolation method and equipment
US9412016B2 (en) Display device and controlling method thereof for outputting a color temperature and brightness set
US10200571B2 (en) Displaying an adjusted image according to ambient light conditions
CN113409713A (en) Blue light eye protection intensity adjusting method, device, medium and equipment
US20170168687A1 (en) Image processing method and apparatus for operating in low-power mode
US9967546B2 (en) Method and apparatus for converting 2D-images and videos to 3D for consumer, commercial and professional applications
KR20070072378A (en) Multi-mode pixelated displays
KR20210014270A (en) Indivisualizing method for augmented reality contents
CN117115299A (en) Display information processing method and device, storage medium and electronic device
CN117292019A (en) Image processing method, device, equipment and medium
CN117730361A (en) Image display method and device

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E90F Notification of reason for final refusal
E701 Decision to grant or registration of patent right
FPAY Annual fee payment

Payment date: 20200130

Year of fee payment: 4