KR101634246B1 - Method for providing standing out degree information of subject and digital photographing apparatus applying the method - Google Patents

Method for providing standing out degree information of subject and digital photographing apparatus applying the method Download PDF

Info

Publication number
KR101634246B1
KR101634246B1 KR1020090112779A KR20090112779A KR101634246B1 KR 101634246 B1 KR101634246 B1 KR 101634246B1 KR 1020090112779 A KR1020090112779 A KR 1020090112779A KR 20090112779 A KR20090112779 A KR 20090112779A KR 101634246 B1 KR101634246 B1 KR 101634246B1
Authority
KR
South Korea
Prior art keywords
information
subject
area
deriving
brightness
Prior art date
Application number
KR1020090112779A
Other languages
Korean (ko)
Other versions
KR20110056092A (en
Inventor
김승훈
강태훈
Original Assignee
삼성전자주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 삼성전자주식회사 filed Critical 삼성전자주식회사
Priority to KR1020090112779A priority Critical patent/KR101634246B1/en
Publication of KR20110056092A publication Critical patent/KR20110056092A/en
Application granted granted Critical
Publication of KR101634246B1 publication Critical patent/KR101634246B1/en

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment
    • H04N5/262Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment
    • H04N5/262Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
    • H04N5/2621Cameras specially adapted for the electronic generation of special effects during image pickup, e.g. digital cameras, camcorders, video cameras having integrated special effects capability

Abstract

본 발명은 피사체 부각 정보를 제공하는 방법 및 이를 위한 디지털 촬영 장치에 관한 것으로 보다 상세하게는 피사체와 배경 간의 색상, 채도 및 명도의 대비 정보 및 배경의 에지 정보를 통하여 피사체의 부각 정도를 제공하는 기술에 관한 것이다. 본 발명은 입력 영상에 대하여 초점이 맞는 대상인 피사체를 확정하는 단계; 상기 피사체가 포함된 피사체 영역을 설정하고, 상기 피사체 영역 주위에 상기 피사체 영역의 부각 정보를 확인하기 위한 적어도 하나의 주변 영역을 설정하는 단계; 상기 피사체 영역과 상기 주변 영역의 색상, 채도 및 명도의 대비 정보를 도출하는 단계; 상기 주변 영역의 에지 정보를 도출하는 단계; 상기 대비 정보 또는 상기 에지 정보를 바탕으로 상기 피사체 영역에 포함된 상기 피사체의 부각 정보를 도출하는 단계; 및 도출된 상기 피사체의 부각 정보를 디스플레이부에 표시하는 단계; 를 포함한다.BACKGROUND OF THE INVENTION 1. Field of the Invention [0002] The present invention relates to a method for providing subject incidence information and a digital photographing apparatus for the same, and more particularly to a technique for providing a degree of incidence of a subject through contrast information of hue, . The present invention relates to a method and an apparatus for determining an object, which is an object focused on an input image, Setting an object area containing the subject and setting at least one peripheral area for confirming the incidence information of the object area around the object area; Deriving contrast information of hue, saturation, and brightness of the subject area and the surrounding area; Deriving edge information of the peripheral region; Deriving incidence information of the subject included in the subject area based on the contrast information or the edge information; And displaying the derived incidence information of the subject on a display unit; .

피사체 부각 Subject Depth

Description

피사체 부각 정보를 제공하는 방법 및 이를 위한 디지털 촬영 장치{Method for providing standing out degree information of subject and digital photographing apparatus applying the method}BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a method for providing subject incidence information and a digital photographing apparatus for the same,

본 발명은 피사체 부각 정보를 제공하는 방법 및 이를 위한 디지털 촬영 장치에 관한 것으로 보다 상세하게는 피사체와 배경 간의 색상, 채도 및 명도의 대비 정보 및 배경의 에지 정보를 통하여 피사체의 부각 정보를 제공하는 기술에 관한 것이다.BACKGROUND OF THE INVENTION 1. Field of the Invention [0002] The present invention relates to a method for providing subject incidence information and a digital photographing apparatus for the same, and more particularly to a technique for providing incidence information of a subject through contrast information of hue, .

디지털 촬영 장치에 의한 촬영시 피사체를 부각하기 위하여 다양한 촬영 기법이 사용된다. 디지털 일안 반사식 카메라(DSLR)의 경우 피사체를 부각하기 위하여 주로 조리개를 개방하여 피사체에 집중하는 아웃 포커싱 기법을 사용하였다. A variety of shooting techniques are used to highlight the subject when shooting with the digital imaging device. In the case of a digital single-lens reflex camera (DSLR), an out-focusing method is mainly used in which an iris is opened to focus on a subject in order to emphasize the subject.

이외에도 디지털 촬영 장치에서 일본공개특허 제2009-069996호와 같이 취득한 영상 데이터로부터 피사체와 배경을 분리한 다음, 배경을 블러(blur)효과 처리하여 피사체를 부각시키는 기술을 사용함으로써, 영상 처리를 통하여 복잡한 배경을 없애고 피사체를 강조하기도 한다.In addition, by using a technique of separating a subject and a background from image data acquired in a digital photographing apparatus as disclosed in Japanese Patent Application Laid-Open No. 2009-069996 and then blurring the background to emphasize the subject, It removes the background and emphasizes the subject.

그러나 디지털 일안 반사식 카메라(DSLR)의 경우 기구적으로 아웃 포커싱 기법을 사용할 수 있으나, 디지털 스틸 카메라(DSC)의 경우 렌즈의 구조상 아웃 포커싱 효과를 기대하기 힘들다. However, in the case of digital single lens reflex camera (DSLR), it is possible to use out-focusing mechanism mechanically, but in case of digital still camera (DSC), it is difficult to expect out-focusing effect of lens structure.

또한 피사체를 부각하기 위하여 배경 흐림 효과를 영상처리를 통하여 주는 경우 피사체와 배경에 가까운 영역이 부자연스럽게 보이는 문제점이 있다. Also, when the background blur is applied through the image processing to emphasize the subject, there is a problem that the subject and the area close to the background appear unnatural.

그러나 모든 디지털 촬영 장치에 통용될 수 있으며, 자연스럽게 피사체를 부각하기 위한 목적을 달성하는 방법은 다음과 같은 것이 있다. 일 예로 피사체와 배경간의 색상, 채도 및 명도의 대비를 크게 하여 촬영을 하거나, 배경이 단순한 곳에서 피사체를 촬영하는 경우 아웃 포커싱 기법이나 영상처리에 의하지 않고도 피사체를 부각하여 촬영할 수 있다.However, it can be applied to all digital photographing apparatuses, and there are the following methods for achieving the purpose of emphasizing the object naturally. For example, when the subject is photographed with a large contrast between color and saturation and brightness between the subject and the background, or when the subject is photographed in a simple background, the subject can be photographed without using the out-focusing technique or image processing.

도 1 내지 도 3은 피사체와 주변 영역의 대비 정도 및 주변 영역의 에지에 따라 피사체가 얼마나 부각될 수 있는지 보여주는 예시도이다.FIGS. 1 to 3 are views showing how much the subject can be displayed according to the degree of contrast between the subject and the surrounding area and the edge of the surrounding area.

도 1 내지 도 3을 참조하면, 도 1의 경우 에지가 적은 단순한 배경에서 촬영한 (b)가 에지가 많은 복잡한 배경에서 촬영한 (a)에 비하여 피사체가 부각되는 것을 확인할 수 있다. 도 2의 경우, 명암의 대비가 큰 (a)가 명암 대비가 작은 (b)에 비하여 피사체가 부각된다. 도 3의 경우, 색상 및 채도의 대비가 큰 (b)가 색상 및 채도의 대비가 작은 (a)에 비하여 피사체가 부각된다.Referring to FIG. 1 to FIG. 3, it can be seen that the object shown in FIG. 1 is more emphasized than in FIG. 1 (a), which is photographed with a simple background with a small edge, and FIG. In the case of FIG. 2, the subject is highlighted compared to (b) in which the contrast of contrast is large (a) and the contrast of contrast is small. In the case of FIG. 3, the object is highlighted compared to (a) where contrast of color and saturation is large (b) and contrast of color and saturation is small.

즉, 배경과 피사체간의 시각적인 대비가 크면 피사체에 대한 주의력이 집중될 수 있다. 또한 배경이 복잡하면 주의력이 피사체에 집중되기 보다는 배경으로 분산되므로 단순한 배경에서 촬영하여 피사체를 부각할 수 있는 것이다.That is, if there is a large visual contrast between the background and the subject, attention can be focused on the subject. In addition, if the background is complex, attention is dispersed to the background rather than focusing on the subject, so that the subject can be highlighted by shooting in a simple background.

본 발명은 피사체 부각 정보를 제공하는 방법 및 이를 위한 디지털 촬영 장치에 관한 것으로 보다 상세하게는 피사체와 배경간의 색상, 채도 및 명도의 대비 정보 및 배경의 복잡도를 고려하여 피사체의 부각 정보를 사용자에게 제공하여 사용자에게 촬영 구도를 가이드 하는 기술에 관한 것이다.The present invention relates to a method of providing subject incidence information and a digital photographing apparatus for the same, and more particularly, to a digital photographing apparatus for providing incidence information of a subject to a user in consideration of contrast information of color, saturation and brightness between a subject and a background, And guiding the user to the shooting composition.

본 발명의 일 측면에 따르면, 입력 영상에 대하여 초점이 맞는 대상인 피사체를 확정하는 단계; 상기 피사체가 포함된 피사체 영역을 설정하고, 상기 피사체 영역 주위에 상기 피사체 영역의 부각 정보를 확인하기 위한 적어도 하나의 주변 영역을 설정하는 단계; 상기 피사체 영역과 상기 주변 영역의 색상, 채도 및 명도의 대비 정보를 도출하는 단계; 상기 주변 영역의 에지 정보를 도출하는 단계; 상기 대비 정보 또는 상기 에지 정보를 바탕으로 상기 피사체 영역에 포함된 상기 피사체의 부각 정보를 도출하는 단계; 및 도출된 상기 피사체의 부각 정보를 디스플레이부에 표시하는 단계; 를 포함하는 디지털 촬영 장치에서 피사체 부각 정보를 제공하는 방법을 제공한다.According to an aspect of the present invention, there is provided an image processing method including the steps of: determining a subject that is a focused object with respect to an input image; Setting an object area containing the subject and setting at least one peripheral area for confirming the incidence information of the object area around the object area; Deriving contrast information of hue, saturation, and brightness of the subject area and the surrounding area; Deriving edge information of the peripheral region; Deriving incidence information of the subject included in the subject area based on the contrast information or the edge information; And displaying the derived incidence information of the subject on a display unit; The method comprising the steps of: (a) acquiring image information of a subject;

여기서 상기 대비 정보를 도출하는 단계는 상기 피사체 영역의 영상 및 상기 주변 영역의 영상을 그레이 레벨의 색상, 명도 및 채도 채널 모드의 영상으로 변환하는 단계; 변환된 상기 영상에 대하여 색상, 명도 및 채도 채널 별 히스토그램 영상을 도출하는 단계; 도출된 상기 색상, 명도 및 채도 채널 별 히스토그램에 대하 여 대표 레벨 값을 도출하는 단계; 및 상기 색상, 명도 및 채도 채널 별로 상기 피사체 영역의 대표 레벨 값에 대하여, 상기 주변 영역의 대표 레벨 값을 대비하여 대비 정보를 얻는 단계; 를 포함할 수 있다.The step of deriving the contrast information may include converting an image of the subject area and an image of the peripheral area into an image of a gray level of color, brightness, and saturation channel mode; Deriving a histogram image for each color, brightness, and saturation channel for the converted image; Deriving a representative level value for the derived histogram of the color, brightness and saturation channel; And obtaining contrast information by comparing a representative level value of the peripheral region with a representative level value of the subject region by the hue, brightness, and saturation channels; . ≪ / RTI >

여기서 상기 에지 정보를 도출하는 단계는 상기 주변 영역의 영상을 그레이 레벨의 색상, 명도 및 채도 모드의 영상으로 변환하는 단계; 변환된 상기 영상의 색상, 명도 또는 채도 중 어느 하나의 채널에 대한 에지 맵을 작성하는 단계; 작성된 상기 에지 맵을 기준값 이상의 밝기를 가진 픽셀과 기준값 미만의 밝기를 가진 픽셀로 이진화하여 에지 맵을 재구성하는 단계; 및 재구성된 상기 에지 맵에 표시된 기준값 이상의 밝기를 가진 픽셀의 개수에 대응하는 에지 정보를 확인하는 단계; 를 포함할 수 있다.The step of deriving the edge information may include converting an image of the peripheral region into an image of a gray-level color, brightness, and saturation mode; Creating an edge map for any one of color, brightness or saturation of the converted image; Reconstructing the edge map by binarizing the generated edge map with a pixel having a brightness equal to or higher than a reference value and a pixel having a brightness lower than the reference value; And determining edge information corresponding to the number of pixels having brightness equal to or greater than a reference value indicated in the reconstructed edge map; . ≪ / RTI >

여기서 상기 주변 영역 및 상기 피사체 영역은 다각형으로 설정될 수 있으며, 상기 피사체 영역을 중심으로 상기 주변 영역이 가로, 세로, 대각선 방향으로 총 8개 설정될 수 있다.The peripheral area and the subject area may be polygonal, and eight peripheral areas may be set in the horizontal, vertical, and diagonal directions with respect to the subject area.

여기서 상기 피사체의 부각 정보를 도출하는 단계는 상기 대비 정보 또는 상기 에지 정보를 기준 정보와 비교하여 피사체 부각 정보를 도출할 수 있다.Here, in deriving the incidence information of the subject, the contrast information or the edge information may be compared with the reference information to derive the subject incidence information.

본 발명의 다른 측면에 의하면, 입력 영상에 대하여 초점이 맞는 피사체를 포함하는 피사체 영역을 설정하고, 상기 피사체 영역 주위에 적어도 하나의 주변 영역을 설정하는 영역 설정부; 상기 피사체 영역과 상기 주변 영역의 색상, 채도 및 명도의 대비 정보를 도출하는 대비 정보 도출부; 상기 주변 영역의 에지 정보를 도출하는 에지 정보 도출부; 및 상기 대비 정보 또는 에지 정보를 바탕으로 상기 피사체 영역에 포함된 상기 피사체의 부각 정보를 도출하는 피사체 부각 정보 도출부; 를 포함하는 피사체 부각 정보를 제공하는 디지털 촬영 장치를 개시한다.According to another aspect of the present invention, there is provided an image processing apparatus including: an area setting unit that sets a subject area including a subject focused on an input image and sets at least one peripheral area around the subject area; A contrast information deriving unit for deriving contrast information of hue, saturation, and brightness of the subject area and the surrounding area; An edge information deriving unit for deriving edge information of the surrounding area; An object incidence information deriving unit for deriving incidence information of the object included in the object area based on the contrast information or the edge information; And the like.

여기서 상기 대비 정보 도출부는 상기 피사체 영역의 영상과 상기 주변 영역의 영상을 그레이 레벨의 색상, 명도, 채도 모드의 영상으로 변환하는 모드 변환부; 변환된 상기 영상에 대하여 각각 색상, 명도 및 채도 채널 별 히스토그램영상을 도출하는 히스토그램 생성부; 도출된 상기 색상, 명도 및 채도 채널 별 히스토그램에 대하여 대표 레벨 값을 도출하는 대표 레벨값 도출부; 및 상기 색상, 명도 및 채도 채널 별로 상기 피사체 영역의 대표 레벨값에 대하여 상기 주변 영역의 대표 레벨값을 대비하여 대비 정보를 얻는 대비부; 를 포함할 수 있다.Here, the contrast information deriving unit may include a mode converter for converting an image of the subject area and an image of the surrounding area into an image of a gray-level color, brightness, and saturation mode; A histogram generation unit for deriving a histogram image for each color, brightness, and saturation channel for the converted image; A representative level value deriving unit for deriving a representative level value for the derived histogram for each color, brightness and saturation channel; And a contrast unit for obtaining contrast information by comparing a representative level value of the peripheral region with a representative level value of the subject region for each of the hue, brightness, and saturation channels. . ≪ / RTI >

여기서 상기 에지 정보 도출부는 상기 주변 영역의 영상을 그레이 레벨의 색상, 명도 및 채도 채널 모드의 영상으로 변환하는 모드 변환부; 변환된 상기 영상의 색상, 명도 또는 채도 중 어느 하나의 채널에 대한 에지 맵을 작성하는 에지 맵 작성부; 작성된 상기 에지 맵을 기준값 이상의 밝기를 가진 픽셀과 기준값 미만의 밝기를 가진 픽셀로 이진화하여 에지 맵을 재구성하는 에지 맵 이진화부; 및 재구성된 상기 에지 맵에 표시된 기준값 이상의 밝기를 가진 픽셀의 개수에 대응하는 에지 정보를 확인하는 에지 확인부; 를 포함할 수 있다. Here, the edge information deriving unit may include a mode converter for converting the image of the peripheral area into an image of a gray level of color, brightness, and saturation channel mode; An edge map creating unit for creating an edge map for any one of color, brightness or saturation of the converted image; An edge map binarizer for reconstructing the edge map by binarizing the generated edge map with a pixel having a brightness equal to or higher than a reference value and a pixel having a brightness lower than the reference value; And an edge check unit for checking edge information corresponding to the number of pixels having brightness equal to or greater than a reference value indicated in the reconstructed edge map; . ≪ / RTI >

여기서 상기 피사체 부각 정보 도출부는 상기 대비 정보 또는 상기 에지 정보를 기준 정보와 비교하여 피사체 부각 정보를 도출할 수 있다. Here, the subject incidence information derivation unit may derive the subject incidence information by comparing the contrast information or the edge information with the reference information.

여기서 도출된 상기 피사체의 부각 정보가 디스플레이부에 표시되도록 제어하는 표시 제어부; 를 더 포함할 수 있다. A display control unit for controlling the display unit to display the incidence information of the object derived therefrom; As shown in FIG.

전술한 것 외의 다른 측면, 특징, 이점이 이하의 도면, 특허청구범위 및 발명의 상세한 설명으로부터 명확해질 것이다.Other aspects, features, and advantages will become apparent from the following drawings, claims, and detailed description of the invention.

본 발명의 실시예에 따르면 피사체의 부각 정보를 제공함으로써 사용자로 하여금 촬영 구도 설정을 가이드 할 수 있는 효과가 있다.According to the embodiment of the present invention, there is an effect that the user can guide the photographing composition setting by providing the incidence information of the subject.

또한 사용자는 제공된 피사체의 부각 정도를 참고하여 원하는 만큼 피사체를 부각하여 촬영할 수 있어 사용자가 얻고자 하는 영상을 적은 횟수의 시도로 얻을 수 있는 특징이 있다. In addition, the user can take an image of the subject by emphasizing the degree of the provided subject by referring to the level of the provided subject, thereby obtaining the image to be obtained by the user with a small number of attempts.

본 발명에 관한 디지털 촬영 장치의 일 실시 예로서 디지털 카메라를 설명한다. 그러나 상기 디지털 촬영 장치가 디지털 카메라에 한정되는 것은 아니며, 디지털 영상 신호 처리부 및 촬상부가 장착된 카메라폰, 비디오 카메라 등의 디지털 액자 등의 디지털 기기에도 적용될 수 있다.A digital camera will be described as an embodiment of the digital photographing apparatus according to the present invention. However, the digital photographing apparatus is not limited to a digital camera, and can be applied to a digital apparatus such as a digital picture signal processing unit, a camera phone equipped with an image pickup unit, and a digital camera such as a video camera.

도 4는 본 발명의 일 실시 예에 따른 디지털 카메라의 구성을 나타낸 블럭도이다. 4 is a block diagram illustrating the configuration of a digital camera according to an exemplary embodiment of the present invention.

본 발명의 일 실시예에 따른 디지털 카메라는 촬상부(10), 조작부(20), 프로그램 저장부(30), 버퍼 저장부(40), 데이터 저장부(50), 디스플레이부(60), 및 디지털 신호 처리부(DSP, 100)를 포함할 수 있다. A digital camera according to an embodiment of the present invention includes an imaging unit 10, an operation unit 20, a program storage unit 30, a buffer storage unit 40, a data storage unit 50, a display unit 60, And a digital signal processing unit (DSP) 100.

촬상부(10)는 피사체로부터의 입력된 광학 신호를 광학부를 통하여 촬상 소자로 제공한다. 상기 광학부는 줌 렌즈 및 포커스 렌즈 등 적어도 하나의 렌즈를 포함할 수 있다. 또한, 상기 광학부는 광량을 조절하는 조리개를 더 포함할 수 있다. 상기 촬상소자는 상기 광학부를 투과한 광학 신호가 도달하여 피사체의 상을 결상하는 것으로 광학 신호를 전기 신호로 변환하는 CCD(Charge Coupled Device) 또는 CIS(Complementary Metal Oxide Semiconductor Image Sensor) 등을 사용할 수 있다. The imaging section 10 provides the input optical signal from the subject to the imaging element via the optical section. The optical unit may include at least one lens such as a zoom lens and a focus lens. In addition, the optical unit may further include a diaphragm for adjusting the amount of light. The imaging device can be a CCD (Charge Coupled Device) or a CIS (Complementary Metal Oxide Semiconductor Image Sensor) that converts an optical signal into an electric signal by forming an image of a subject by reaching an optical signal transmitted through the optical portion .

조작부(20)는 사용자 등의 외부로부터의 제어 신호를 입력할 수 있는 곳이다. 상기 조작부(20)는 정해진 시간 동안 촬상 소자를 빛에 노출하여 사진을 촬영하는 셔터-릴리즈 신호를 입력하는 셔터-릴리즈 버튼, 전원을 공급하기 위해 입력하는 전원 버튼, 입력에 따라 화각을 넓어지게 하거나 화각을 좁아지게 하는 광각-줌 버튼 및 망원-줌 버튼과, 문자 입력 또는 촬영 모드, 재생 모드 등의 모드 선택, 화이트 밸런스 설정 기능 선택, 노출 설정 기능 선택 등의 다양한 기능 버튼들이 있다. 조작부(20)는 상기와 같이 다양한 버튼의 형태를 가질 수도 있지만, 이에 한정되는 것은 아니며, 키보드, 터치 패드, 터치스크린, 원격 제어기 등과 같이 사용자가 입력할 수 있는 어떠한 형태로 구현되어도 무방하다. The operation unit 20 is a place where a control signal from the outside of a user or the like can be input. The operation unit 20 includes a shutter-release button for inputting a shutter-release signal for exposing an image pickup device to light for a predetermined period of time, a power button for inputting power, There are various function buttons such as a wide angle-zoom button and a telephoto-zoom button for narrowing the angle of view, a mode selection of a character input mode, a shooting mode, a playback mode, a white balance setting function, and an exposure setting function selection. The operation unit 20 may have various types of buttons as described above, but the present invention is not limited thereto. The operation unit 20 may be implemented in any form such as a keyboard, a touch pad, a touch screen, and a remote controller.

또한, 상기 디지털 카메라는 상기 디지털 카메라를 구동하는 운영 시스템, 응용 시스템 등의 프로그램을 저장하는 프로그램 저장부(30), 연산 수행 중에 필요한 데이터 또는 결과 데이터들을 임시로 저장하는 버퍼 저장부(40), 영상 신호를 포함하는 이미지 파일을 비롯하여, 본 발명의 피사체 부각 정보를 도출하기 위한 기준 정보를 포함하여 다양한 정보들을 저장하는 데이터 저장부(50)를 포함한다. The digital camera includes a program storage unit 30 for storing programs such as an operating system and an application system for driving the digital camera, a buffer storage unit 40 for temporarily storing data or result data necessary for performing an operation, And a data storage unit 50 for storing various information including an image file including a video signal and reference information for deriving the subject incidence information of the present invention.

디스플레이부(60)는 상기 디지털 카메라의 동작 상태 또는 촬영한 이미지 정보를 표시한다. 상기 디스플레이부(60)는 시각적인 정보 및/또는 청각적인 정보를 사용자에게 제공할 수 있다. 시각적인 정보를 제공하기 위해 상기 디스플레이부(60)는 예를 들면, 액정 디스플레이 패널(LCD), 유기 발광 디스플레이 패널(OLED), 전기 영동 디스플레이 패널(EDD) 등으로 이루어질 수 있다. The display unit 60 displays the operation state of the digital camera or the captured image information. The display unit 60 can provide visual information and / or auditory information to a user. The display unit 60 may include a liquid crystal display panel (LCD), an organic light emitting display panel (OLED), an electrophoretic display panel (EDD), or the like to provide visual information.

그리고 상기 디지털 카메라는 입력되는 영상 신호를 처리하고, 이에 따라 또는 외부 입력 신호에 따라 각 구성부들을 제어하는 DSP(100)를 포함한다. The digital camera includes a DSP 100 that processes input image signals and controls each of the components according to an external input signal.

본 발명의 일 실시예에서, 사용자에게 피사체의 부각 정보를 제공하는 것은 DSP(100)에서 수행될 수 있다. In one embodiment of the present invention, providing the user with the incidence information of the subject can be performed in the DSP 100. [

도 4를 참조하면 본 발명의 일 실시 예에 의한 DSP(100)는 영역 설정부(110), 대비 정보 도출부(120), 에지 정보 도출부(130) 및 피사체 부각 정보 도출부(140)을 포함할 수 있다.4, the DSP 100 according to an exemplary embodiment of the present invention includes an area setting unit 110, a contrast information deriving unit 120, an edge information deriving unit 130, and a subject incidence information deriving unit 140 .

영역 설정부(110)는 촬상 소자로부터 받은 입력 영상에 대하여 피사체 영역과 주변 영역을 설정한다. 피사체 영역은 사용자가 초점을 맞추고자 하는 피사체가 포함된 영역이다. 주변 영역은 피사체 주위의 배경 등을 포함하는 영역이며, 피사체 영역 주위에 소정의 개수로 설정될 수 있다. The area setting unit 110 sets the subject area and the surrounding area with respect to the input image received from the image pickup device. The subject area is an area including a subject to which the user intends to focus. The peripheral area is an area including the background around the subject and may be set to a predetermined number around the subject area.

여기서, 피사체 영역 및 주변 영역은 일정한 크기 및 형태의 블록으로 설정될 수 있으며, 예를 들어 32×32, 64×64 픽셀 크기의 블록으로 설정될 수 있다. 또한 상기 영역 설정부(110)는 마스크(mask), 커넬(kernel), 윈도우(window)를 이용하여 피사체 영역 및 주변 영역을 결정할 수도 있다. 예를 들어 도 9, 도 13, 도 17 및 도 21에서 나타난 바와 같이 상기 피사체 영역에 해당하는 정사각형 블록이 중심에 위치하고 주변 영역은 피사체 영역의 가로, 세로, 대각선 방향에 8개의 정사각형 블록으로 설정될 수 있다. Here, the subject area and the surrounding area may be set as blocks of a predetermined size and shape, and may be set as blocks of 32x32 and 64x64 pixels, for example. Also, the area setting unit 110 may determine a subject area and a surrounding area using a mask, a kernel, and a window. For example, as shown in FIGS. 9, 13, 17, and 21, the square block corresponding to the subject area is located at the center, and the surrounding area is set as eight square blocks in the horizontal, vertical and diagonal directions of the subject area .

대비 정보 도출부(120)는 피사체 영역에 포함된 영상과 주변 영역에 포함된 영상의 색상, 채도 및 명도를 대비한 정보를 도출한다. 이와 같은 대비 정보는 피사체 영역의 영상이 주변 영역에 비하여 어느 정도 대비되는지 색상, 채도 및 명도 별로 확인할 수 있게 한다. 일 실시 예로, 피사체 영역의 색상(H; Hue), 채도(S; Saturation) 및 명도(I; Intensity) 채널 별 히스토그램에서의 대표 레벨값과 주변 영역의 색상, 채도 및 명도 채널 별 히스토그램에서의 대표 레벨값을 각 채널 별로 대비한 값을 대비 정보로 할 수 있다. 대비 정보 도출부(120)의 자세한 구성은 이하 도 5를 참조하여 자세히 설명하기로 한다.The contrast information deriving unit 120 derives information regarding the color, saturation, and brightness of the image included in the subject area and the image included in the surrounding area. Such contrast information makes it possible to check the contrast of the image of the subject area with respect to the surrounding area, by color, saturation, and brightness. In one embodiment, a representative level value in the histogram of the H (Hue), Saturation and Intensity (I) intensity channels of the subject area and a representative value in the histogram of the color, A value obtained by comparing a level value for each channel can be used as contrast information. The detailed configuration of the contrast information deriving unit 120 will be described in detail with reference to FIG.

에지 정보 도출부(130)는 주변 영역에 포함된 영상이 얼마나 복잡한지를 확인하기 위하여 에지 정보를 도출한다. 예를 들어 주변 영역의 에지를 검출하여 에지 맵을 작성한 다음, 일정한 기준값 이상의 밝기를 가진 픽셀과 기준값 미만의 밝기를 가진 픽셀로 이진화하여 에지 맵을 재작성한다. 이렇게 재작성된 에지 맵에 표시된 기준값 이상의 밝기를 가진 픽셀의 개수를 확인한다. 일 실시예로 에지 정보는 상기 이렇게 얻은 주변 영역의 기준값 이상의 밝기를 가진 픽셀 개수일 수 있다. 에지 정보 도출부(130)의 자세한 구성은 이하 도 7을 참조하여 자세히 설명하기로 한다.The edge information deriving unit 130 derives edge information to check how complicated the image included in the surrounding area is. For example, an edge map is generated by detecting an edge of a surrounding area, and then an edge map is rewritten by binarizing a pixel having a brightness equal to or higher than a predetermined reference value and a pixel having a brightness lower than the reference value. The number of pixels having brightness equal to or larger than the reference value indicated in the rewritten edge map is confirmed. In one embodiment, the edge information may be the number of pixels having brightness equal to or greater than the reference value of the peripheral region thus obtained. The detailed configuration of the edge information deriving unit 130 will be described in detail with reference to FIG.

피사체 부각 정보 도출부(140)는 상기 대비 정보 도출부(120)에서 얻은 영역의 대비 정보와 에지 정보 도출부(130)에서 얻은 주변 영역의 에지 정보를 통하 여 피사체의 부각 정보를 도출한다. 여기서 대비 정보 또는 에지 정보 중 어느 하나 만을 이용하여 피사체의 부각 정보를 도출할 수 있다.The object incidence information deriving unit 140 derives the incidence information of the object through the contrast information of the area obtained by the contrast information deriving unit 120 and the edge information of the surrounding area obtained by the edge information deriving unit 130. [ Here, the incidence information of the subject can be derived using only one of the contrast information and the edge information.

피사체의 부각 정보는 기준 정보와 상기 대비 정보 또는 에지 정보를 비교하여 도출할 수 있다. 기준 정보는 특정 대비 정보에 대한 소정 수치의 피사체 부각 정보가 대응하는 내용 및 특정 에지 정보에 대한 소정 수치의 피사체 부각 정보가 대응하는 내용을 포함하는 테이블일 수 있다. 또한 이와 같은 대응관계는 응용 프로그램 또는 알고리즘으로 구성될 수 있다.  The incidence information of the subject can be derived by comparing the reference information with the contrast information or the edge information. The reference information may be a table including contents corresponding to the subject incidence information of a predetermined numerical value with respect to the specific contrast information and content corresponding to the subject incidence information of the predetermined numerical value with respect to the specific edge information. Such a correspondence relationship may also be composed of an application program or an algorithm.

피사체 부각 정보를 도출할 때에는 사용자의 선택에 따라 대비 정보 또는 에지 정보에 가중치를 둘 수 있다. 예를 들어 대비 정보가 피사체 부각 정도에 큰 영향을 미친다고 보는 경우, 피사체 부각 정보 도출부(140)에서는 대비 정보에 1.5배 또는 2배의 가중치를 두어 피사체의 부각 정보를 도출할 수 있다. When deriving the subject incidence information, the contrast information or the edge information may be weighted according to the user's selection. For example, when it is considered that the contrast information greatly affects the incidence of the subject, the subject incidence information derivation unit 140 can derive the incidence information of the subject by weighting the contrast information by 1.5 or 2 times.

상기 피사체 부각 정보 도출부(140)에서 얻은 피사체 부각 정보는 수치 값으로 표현될 수도 있고, 강-중-약 등의 단계적 값으로 표현될 수도 있다. 또한 피사체 부각 유/무로 표시될 수도 있다. The subject incidence information obtained by the subject incidence information deriving unit 140 may be represented by a numerical value or may be represented by a step value such as a strong-moderate-strong. It may also be displayed as subject matter accent / no.

이 밖에도 DSP(100)는 표시 제어부(미도시)를 더 포함할 수도 있다. 상기 피사체 부각 정보는 상기 표시 제어부의 제어 하에 촬영 모드에서 사용자가 시각적, 청각적으로 인식할 수 있게 디스플레이부(60)에 표시될 수 있다.In addition, the DSP 100 may further include a display control unit (not shown). The subject incidence information can be displayed on the display unit 60 so that the user can visually and audibly recognize the subject in the photographing mode under the control of the display control unit.

상술한 대비 정보 도출부(120) 및 에지 정보 도출부(130)는 이하 도 5 및 도 7에서 구체적으로 설명한다. The contrast information deriving unit 120 and the edge information deriving unit 130 will be described in detail with reference to FIG. 5 and FIG.

도 5는 본 발명의 일 실시 예에 관한 대비 정보 도출부(120)를 보다 구체적 으로 나타낸 블록도이다. FIG. 5 is a block diagram showing a concrete information deriving unit 120 according to an embodiment of the present invention.

도 5를 참조하면, 상기 제1정보 도출부(120)는 모드 변환부(121), 히스토그램 생성부(122), 대표 레벨값 도출부(123) 및 대비부(124)를 포함할 수 있다.Referring to FIG. 5, the first information derivation unit 120 may include a mode conversion unit 121, a histogram generation unit 122, a representative level value derivation unit 123, and a contrast unit 124.

모드 변환부(121)는 RGB 모드로 표현된 피사체 영역과 주변 영역을 그레이 레벨의 색상 채널, 채도 채널 및 명도 채널을 가진 HSI(Hue, Saturation, Intensity) 모드로 변환한다. 하기 수학식 1은 RGB 모드로부터 명도(I; Intensity)를 산출하는 식이고, 수학식 2는 RGB 모드로부터 채도(S; Saturation)를 산출하는 식이며, 수학식 3은 RGB 모드로부터 색상 (H; Hue)을 산출하는 식이다.The mode conversion unit 121 converts the subject area and the surrounding area expressed in the RGB mode into a HSI (Hue, Saturation, Intensity) mode having a gray level color channel, a saturation channel, and a brightness channel. Equation (1) is a formula for calculating brightness (I) from RGB mode, Equation (2) is a formula for calculating saturation from RGB mode and Equation (3) ).

Figure 112009071484423-pat00001
Figure 112009071484423-pat00001

Figure 112009071484423-pat00002
Figure 112009071484423-pat00002

Figure 112009071484423-pat00003
Figure 112009071484423-pat00003

이와 같이 변환된 HSI 모드에서의 색 좌표는 도 7에 도시된 바와 같이 수직방향의 I 채널과 원형 평면 위의 S 채널 및 H 채널로 나타낼 수 있다. The color coordinates in the converted HSI mode can be represented by an I-channel in the vertical direction and an S-channel and H-channel on the circular plane, as shown in FIG.

도 7의 색 좌표에서 I 채널의 높이 값에 따라 하얀색 또는 검정색까지의 명암 변화를 알 수 있고, S 채널의 원형 평면에서 반지름의 길이에 따라 색의 순도를 알 수 있다. 또한 H 채널의 원형 평면에서 각도에 따라 빨강, 노랑, 파랑, 초록 등의 색상을 알 수 있다.In FIG. 7, the change in intensity from white to black can be known according to the height value of the I channel, and the purity of the color can be determined according to the length of the radius in the circular plane of the S channel. Also, you can see colors such as red, yellow, blue, and green depending on the angle in the circular plane of the H channel.

도 7의 색 좌표는 I 채널, S 채널의 경우 명암 및 색 순도의 범위를 0.0~1.0의 값으로 나타내고 H 채널의 경우 색상의 범위를 0도~360도 사이의 각도 값으로 나타낸다. 예를 들어 두 픽셀의 색상, 채도 및 명도 대비 정보를 확인할 때, I 채널은 두 픽셀의 채널 값의 차이가 클수록 명암 대비가 큰 것이며, S 채널은 두 픽셀의 채널 값의 합이 클수록 채도 대비가 크다. 또한 H 채널은 두 픽셀의 채널 값의 각도가 180도에 가까운 경우 색상 대비가 큰 것이다. 도 7의 색 좌표를 그레이 레벨로 샘플링하면, 크기나 각도가 0~255의 범위 값을 가진 256단계로 표현할 수 있다. 이 경우에도 I 채널은 두 픽셀의 채널값의 차이가 클수록 명암대비가 큰 것이며, S 채널은 두 픽셀의 채널 값의 합이 클수록 채도 대비가 크다. 또한 H 채널은 두 픽셀의 채널 값의 차이가 128에 가까운 경우 색상 대비가 큰 것이다.The color coordinates of FIG. 7 indicate the range of intensity and color purity in the range of 0.0 to 1.0 for the I-channel and S-channel, and the range of the color for the H-channel in the range of 0 to 360 degrees. For example, when comparing the color, saturation, and brightness information of two pixels, the larger the difference between the channel values of the two pixels, the greater the contrast. In the S channel, the larger the sum of the channel values of the two pixels, Big. Also, in the case of the H channel, the color contrast is large when the angle of the channel value of the two pixels is close to 180 degrees. If the color coordinates of FIG. 7 are sampled at the gray level, the size and the angle can be expressed in 256 steps having a range value of 0 to 255. In this case, the larger the difference between the channel values of the two pixels is, the larger the contrast is, and the larger the sum of the channel values of the two pixels of the S channel, the greater the chroma contrast. Also, in the case of the H channel, when the difference between the channel values of two pixels is close to 128, the color contrast is large.

이와 같은 그레이 레벨의 HSI 모드 색좌표의 성질을 바탕으로 피사체 영역과 주변 영역의 색상, 명도 및 채도 대비 정보를 파악할 수 있다. Based on the properties of the gray level HSI mode color coordinates, the color, brightness, and saturation contrast information of the subject area and the surrounding area can be grasped.

히스토그램 생성부(122)는 그레이 레벨의 HSI 모드로 변환된 피사체 영역과 주변 영역에 대하여 색상, 채도 및 명도 채널 별로 히스토그램 영상을 도출한다.The histogram generation unit 122 derives a histogram image for each color, saturation, and brightness channel for the subject area and the surrounding area which are converted into the gray level HSI mode.

일반적으로 히스토그램은 영상 안에서 픽셀들에 대한 밝기 값의 분포를 나타낸 것으로, 밝은 픽셀과 어두운 픽셀이 분포할 때 그 범위와 값을 표현한 것으 로, 이것을 그래프로 나타낸 것을 히스토그램 그래프 또는 히스토그램 영상이라고 하며, 예를 들면 256 그레이 레벨 영상에서 밝기 값의 범위는 0 내지 255의 값을 갖고, 각 밝기 값, 즉 레벨의 빈도수가 그래프의 높이로 나타낸다. 히스토그램은 영상의 많은 정보를 갖고 있으며, 다양한 영상 처리에 이용된다. 또한, 본 발명의 바람직한 실시 예에서, 히스토그램을 분석하여 주변 영역에 대한 피사체 영역의 대비 정보를 알 수 있다.In general, a histogram shows the distribution of brightness values for pixels in an image. When a bright pixel and a dark pixel are distributed, the range and value are expressed. A histogram is referred to as a histogram graph or a histogram image. For example, in a 256 gray level image, the brightness value ranges from 0 to 255, and each brightness value, that is, the frequency of the level, is represented by the height of the graph. The histogram has a lot of image information and is used for various image processing. Also, in a preferred embodiment of the present invention, the contrast information of the subject area with respect to the surrounding area can be known by analyzing the histogram.

대표 레벨값 추출부(123)는 생성된 히스토그램에 대한 대표 레벨값을 도출한다. 각 채널 별로 주변 영역에 대하여 피사체 영역이 얼마나 대비되는지 파악하기 위한 대표값을 도출하는 과정이다.The representative level value extracting unit 123 derives a representative level value for the generated histogram. And a representative value for deriving the contrast of the subject area with respect to the surrounding area for each channel.

대표 레벨값을 정하는 방법은 다양하다. 예를 들어 대표 레벨값은 히스토그램 영상의 최대 피크에 해당하는 레벨값이 지정될 수도 있고, 피크를 결정하기 어려운 경우에는 평균 픽셀의 빈도수에 해당하는 레벨값을 지정할 수도 있다. There are various methods for determining the representative level value. For example, the representative level value may designate a level value corresponding to the maximum peak of the histogram image, or may specify a level value corresponding to the average pixel frequency when it is difficult to determine the peak.

대비부(124)는 피사체 영역의 채널 별 대표 레벨값과 주변 영역의 채널 별 대표 레벨값을 비교하여, 각 H, S, I 채널 별로 대표 레벨값의 차이를 도출한다.The contrast unit 124 compares the representative level value for each channel of the subject area with the representative level value for each channel of the surrounding area to derive the difference of the representative level value for each of the H, S, and I channels.

대비부(124)에서는 이와 같은 채널 별 대표 레벨값의 차이를 종합하여 피사체 부각 정보 도출부(140)에 제공함으로써, 피사체 영역과 주변 영역의 색상, 채도 및 명도의 대비 정보를 이용하여 피사체 부각 정보를 파악할 수 있게 한다.The contrast unit 124 integrates the differences of the representative level values for each channel and provides the information to the object incidence information derivation unit 140 so that the subject incidence information can be obtained by using the contrast information of the color of the subject area and the surrounding area, .

도 7은 본 발명의 일 실시 예에 관한 에지 정보 도출부(130)를 보다 구체적으로 나타낸 블록도이다. 7 is a block diagram showing the edge information deriving unit 130 according to an embodiment of the present invention in more detail.

도 7을 참조하면, 상기 에지 정보 도출부(130)는 모드 변환부(131), 에지 맵 작성부(132), 에지 맵 이진화부(133) 및 에지 확인부(134)를 포함할 수 있다.7, the edge information derivation unit 130 may include a mode conversion unit 131, an edge map generation unit 132, an edge map binarization unit 133, and an edge verification unit 134.

모드 변환부(131)는 RGB 모드로 표현된 주변 영역의 영상을 HSI 모드로 변환한다. 바람직하게는 주변 영역의 영상을 그레이 레벨의 HSI 모드로 변환할 수 있다. 자세한 내용은 도 5의 모드 변환부(121)에서 기술하였으므로 생략한다.The mode conversion unit 131 converts the image of the peripheral area represented by the RGB mode into the HSI mode. Preferably, the image of the peripheral region can be converted into the gray level HSI mode. Since the details are described in the mode conversion unit 121 of FIG. 5, it is omitted.

에지 맵 작성부(132)는 모드 변환부(131)에서 그레이 레벨의 HSI 모드로 변환된 주변 영역의 I 채널의 영상으로부터 에지 성분을 포함한 픽셀을 표시하여 에지 맵을 작성한다. 여기서 에지 맵을 작성하는 영상은 I 채널의 영상으로 한정되는 것은 아니며, H 채널이나, S 채널의 영상으로 에지 맵을 작성하여도 무방하다. The edge map creating unit 132 creates an edge map by displaying pixels including edge components from the image of the I channel of the peripheral region converted from the gray level HSI mode in the mode conversion unit 131. [ Here, the image for creating the edge map is not limited to the image of the I channel, and an edge map may be created from the image of the H channel or the S channel.

영상에서 에지(edge)란 영상 안의 영역의 경계를 나타내며 픽셀 밝기의 불연속점을 나타낸다. 즉 물체와 배경과의 경계를 사이에 두고 밝기 차가 나타난다. 이것은 물체의 윤곽에 대응되고 물체의 위치, 모양, 크기 등의 많은 정보를 준다. 에지에 해당하는 픽셀을 검출하는 것을 에지 검출(edge detection)이라고 하며, 이렇게 검출된 에지 들로 표현된 영상을 에지 맵(edge map)이라고 한다. 에지를 검출하기 위해서는 수학적으로 편미분 연산자 계산을 통해 수행한다. 1차 미분 값의 크기는 영상에서 에지의 존재 여부를 나타내고, 2차 미분 값의 부호는 픽셀의 밝고 어두운 부분의 위치를 나타낸다. 예를 들어 라플라시안 3×3 마스크를 이용하여 에지 픽셀을 검출할 수 있다. 하지만, 이에 한정되지 않고 에지 검출 필터나 다른 미분 연산자를 이용해서 에지 픽셀을 검출할 수 있음은 물론이다.In an image, an edge represents the boundary of an area within an image and represents a discontinuity in pixel brightness. In other words, the brightness difference appears between the boundary of the object and the background. This corresponds to the outline of the object and gives a lot of information such as position, shape and size of the object. Detecting a pixel corresponding to an edge is referred to as edge detection, and an image represented by the detected edges is referred to as an edge map. In order to detect the edge, it is mathematically performed by partial differential operator calculation. The magnitude of the first derivative value indicates the presence or absence of an edge in the image, and the sign of the second derivative value indicates the position of the bright and dark portion of the pixel. For example, edge pixels can be detected using a Laplacian 3 × 3 mask. However, it goes without saying that edge pixels can be detected by using edge detection filters or other differential operators.

에지 맵 이진화부(133)는 기준값을 통하여 에지 맵의 픽셀들을 두 그룹으로 나누어 이진화된 에지 맵으로 재구성한다. 즉 상기 에지맵 작성부(132)에서 작성된 에지 맵에서 기준값 이상의 밝기를 가진 픽셀과 기준값 미만의 밝기를 가진 픽셀을 나누어 이진화한다. 그 다음, 이를 반영하여 이진화된 에지 맵을 다시 작성한다. 예를 들어 기준값 이상의 밝기를 가진 픽셀은 흰색으로 표시하고, 기준값 미만의 밝기를 가진 픽셀은 검정색으로 표시하여 에지 맵을 이진화할 수 있다. 이 과정을 통하여 에지가 기준값보다 큰 픽셀만을 선별할 수 있다. 이와 같은 과정은 주변 영역의 에지 정보를 도출할 때 밝기가 기준값보다 작아서 무시할 수 있는 에지를 표현하는 픽셀은 필터링하는 과정에 해당한다. The edge map binarization unit 133 divides the pixels of the edge map into two groups and reconstructs the binarized edge map through the reference value. That is, in the edge map generated by the edge map creating unit 132, the pixel having the brightness equal to or higher than the reference value and the pixel having the brightness lower than the reference value are binarized. Then, the binarized edge map is rewritten to reflect this. For example, a pixel having a brightness higher than a reference value may be displayed in white, and a pixel having brightness lower than a reference value may be displayed in black to binarize the edge map. Through this process, only pixels whose edges are larger than the reference value can be selected. This process corresponds to a process of filtering a pixel representing an edge that can be ignored because the brightness is smaller than the reference value when deriving the edge information of the surrounding area.

여기서 기준값은 주변 영역의 복잡한 정도를 사용자가 판단하는 과정에서 주변 영역의 복잡도에 큰 영향을 주지 않는다고 판단되는 에지에 해당하는 픽셀의 밝기 정보이며, 임의로 설정할 수 있는 값이다.Herein, the reference value is the brightness information of the pixel corresponding to the edge determined to have no significant influence on the complexity of the surrounding area in the process of determining the complexity of the surrounding area, and is a value that can be arbitrarily set.

에지 확인부(134)는 상기 에지 맵 이진화부(133)에서 기준값 이상의 밝기를 가진 픽셀의 개수를 확인함으로써, 주변 영역의 에지 정보를 도출한다. 에지 확인부(134)에서는 이와 같이 에지 정보에 대응하는 픽셀의 개수를 피사체 부각 정보 도출부(140)에 제공함으로써, 에지 정보를 이용하여 피사체 부각 정보를 파악할 수 있게 한다.The edge identifying unit 134 obtains the edge information of the surrounding area by checking the number of pixels having the brightness of the reference value or more in the edge map binarizing unit 133. [ The edge identifying unit 134 provides the number of pixels corresponding to the edge information to the subject incidence information deriving unit 140 so that the subject incidence information can be grasped using the edge information.

도 8은 본 발명에 관한 디지털 촬영 장치에서 피사체의 부각 정보를 제공하는 방법의 예를 설명하기 위한 순서도이다. 본 발명을 쉽게 이해하기 위하여 도 9 내지 도 12을 참조하여 도 8을 설명한다. 그러나 본 발명이 도 9 내지 도 12의 예시에 한정되지 않으며 다양하게 변경되어 실시될 수 있음을 기억해야 한다.8 is a flowchart for explaining an example of a method of providing incidence information of a subject in the digital photographing apparatus according to the present invention. To facilitate understanding of the present invention, Fig. 8 will be described with reference to Figs. 9 to 12. Fig. However, it should be noted that the present invention is not limited to the examples of Figs. 9 to 12, and can be variously modified.

촬영 모드에 진입하여(S801), 피사체 부각 정보를 제공하는 모드가 선택된 다.(S802)Enters a shooting mode (S801), and a mode for providing subject incidence information is selected (S802)

다음으로 피사체를 확정한다.(S803) 예를 들어 촬영 모드에서 반셔터를 눌러 초점이 맞는 대상을 피사체로 확정할 수 있다. 그 외에도 얼굴 검출 또는 움직임 검출 모드에서는 얼굴 또는 움직임 대상에 초점이 맞춰지는데 이 대상을 피사체로 확정할 수 있다. 그 외에도 터치 스크린 상에서 원하는 대상을 터치함으로써 터치된 대상에 초점을 맞추어 피사체로 확정할 수도 있다. Next, the subject is confirmed (S803). For example, in the shooting mode, the subject that is in focus can be confirmed by pressing the shutter button halfway. In addition, in the face detection or motion detection mode, the face or the motion object is focused, and the object can be determined as the object. In addition, by touching a desired object on the touch screen, it is possible to focus on a touched object and fix it as an object.

피사체가 확정되면 피사체 영역과 피사체 영역 주위의 적어도 하나의 영역인 주변 영역을 설정한다.(S804) When the subject is determined, a subject area and a peripheral area, which is at least one area around the subject area, are set (S804)

도 9를 참조하면, 사람의 얼굴을 피사체로 확정하였으므로, 얼굴을 포함하는 1블록을 피사체 영역으로 설정한다. 주변 영역은 피사체 영역의 부각 정도를 대비하기 위한 영역으로 피사체 영역과 이웃하게 복수개 설정할 수 있으며 임의로 정할 수 있는 영역이다. 도 9에서는 2블록 내지 9블록이 주변영역에 해당하며, 1블록을 중심으로 가로, 세로, 대각선 방향으로 총 8개 설정되었다. Referring to FIG. 9, since a face of a person is determined as a subject, one block including a face is set as a subject area. The peripheral area is an area for comparing the incidence of the subject area, and a plurality of areas adjacent to the subject area can be set and can be arbitrarily set. In Fig. 9, two blocks to nine blocks correspond to the peripheral area, and a total of eight blocks are set in the horizontal, vertical, and diagonal directions around one block.

다음으로 피사체 영역과 주변 영역 사이의 색상, 채도 및 명도에 대한 대비 정보를 도출한다. (S805) Next, contrast information on hue, saturation and brightness between the subject area and the surrounding area is derived. (S805)

도 10을 참조하면, 먼저 RGB 모드로 표현된 피사체 영역과 주변 영역을 그레이 레벨의 HSI 모드로 변환한다. HSI 모드란 HSI 색좌표를 통하여 색상, 채도, 명도 채널에 해당하는 값을 기준으로 영상을 표현한 것으로, 공지된 수학식을 통하여 변경할 수 있다. 도 10에서는 그레이 레벨의 HSI 모드를 나타낸 것이며, 여기서 그레이 레벨이란 HSI 색좌표에서 각 채널을 0~255 값으로 샘플링하여 표현한 것이 다.Referring to FIG. 10, first, the subject area and the surrounding area expressed in the RGB mode are converted into the gray level HSI mode. The HSI mode is an image based on a value corresponding to a color, saturation, and brightness channel through HSI color coordinates, and can be changed through a known equation. In FIG. 10, the HSI mode of the gray level is shown. Here, the gray level is expressed by sampling each channel from 0 to 255 in the HSI color coordinates.

다음으로 도 11과 같이 모드가 변환된 영상의 색상(H), 채도(S), 명도(I) 채널 별 히스토그램 영상을 생성한다. 그리고 각 채널 별 히스토그램 영상에 대한 대표 레벨값을 도출한다. 예를 들어 도 11의 1번 블록의 S 채널의 경우 최대 피크값에 해당하는 밝기 레벨을 대표 레벨값으로 설정할 수 있다. 또한 1번 블록의 I 채널의 경우 평균 픽셀 빈도수에 대응하는 밝기 레벨을 대표 레벨값으로 설정할 수 있다. 이와 같이 도 11에 개시된 피사체 영역, 주변 영역에 대한 각 채널 별 히스토그램 영상마다 대표 레벨값을 설정한다.Next, as shown in FIG. 11, a histogram image for each color H, chroma S, and brightness I channels of the mode-converted image is generated. Then, a representative level value for the histogram image for each channel is derived. For example, in the case of the S channel of block 1 in FIG. 11, the brightness level corresponding to the maximum peak value can be set as the representative level value. In the case of the I channel of the first block, the brightness level corresponding to the average pixel frequency can be set as the representative level value. As described above, a representative level value is set for each histogram image for each channel for the subject area and the surrounding area, which are shown in FIG.

다음으로 피사체 영역(블록1)에서 도출된 대표 레벨값과 복수개의 주변 영역(블록 2 내지 블록9)에서 도출된 대표 레벨값을 대비한다. 이와 같이 각 채널별 피사체 영역과 주변 영역의 대표 레벨값의 차이값을 대비 정보로 할 수 있다. Next, the representative level value derived from the subject area (block 1) is compared with the representative level value derived from the plurality of peripheral areas (blocks 2 to 9). Thus, the difference value between the representative level values of the subject area and the surrounding area for each channel can be used as the contrast information.

도 11을 참고하여 대비 정보를 얻는 과정을 설명하면 다음과 같다. H 채널의 1블록의 대표 레벨값과 2블록의 대표 레벨값을 비교하여 레벨값의 차이를 얻고, H 채널의 1블록의 대표 레벨값과 3블록의 대표 레벨값을 비교하여 레벨값의 차이를 얻는데 각 채널 별로 피사체 영역과 주변 영역을 대비하는 이와 같은 과정을 반복한다. 피사체 영역에 대하여 복수개의 주변 영역을 대비할 때는 상술한 바와 같이 피사체 영역의 대표 레벨값과 복수개의 주변 영역의 대표 레벨값을 반복적으로 비교하여 얻은 복수개의 대표 레벨값 차이를 평균한 값을 대비 정보로 할 수 있다. 그러나 다른 실시 예로 주변 영역 중 임의의 기준에 의하여 하나의 주변 영역을 도출하고 상기 도출된 하나의 주변 영역의 대표 레벨값과 피사체 영역의 대표 레벨값 을 비교한 차이값을 대비 정보로 할 수 있다. The process of obtaining the contrast information will be described with reference to FIG. The representative level value of one block of the H channel is compared with the representative level value of the two blocks to obtain the difference of the level values and the representative level value of one block of the H channel is compared with the representative level value of the three blocks, This process is repeated in which the subject area and the surrounding area are prepared for each channel. When comparing a plurality of peripheral areas with respect to the subject area, a value obtained by averaging a plurality of representative level value differences obtained by repeatedly comparing the representative level value of the subject area with the representative level values of the plurality of peripheral areas as described above is referred to as contrast information can do. However, in another embodiment, one peripheral region may be derived by using any of the peripheral regions, and the difference value obtained by comparing the representative level value of the derived one peripheral region with the representative level value of the subject region may be used as the contrast information.

주변 영역의 에지 정보를 도출한다.(S806)The edge information of the surrounding area is derived (S806)

먼저 RGB 모드로 표현된 주변 영역의 영상을 HSI 모드로 변환한다. 바람직하게는 주변 영역의 영상을 그레이 레벨의 HSI 모드로 변환할 수 있다. First, the image of the peripheral region expressed in the RGB mode is converted into the HSI mode. Preferably, the image of the peripheral region can be converted into the gray level HSI mode.

다음으로 변환된 영상 중 색상, 채도 또는 명도 채널 중 어느 하나의 채널로 표현된 영상에 대하여 에지 맵을 작성한다. 그리고 작성된 에지 맵을 구성하는 픽셀을 기준값 이상의 밝기를 가진 픽셀과 기준값 미만의 밝기를 가진 픽셀로 이진화한 다음, 이를 반영하여 이진화된 에지 맵을 다시 작성한다. 도 12는 주변 영역(블록 2 내지 블록9) 그레이 레벨의 I 채널에 대하여 이진화된 에지 맵을 작성한 결과를 나타낸 것이다. 그레이 레벨의 I 채널 에지 맵에 대하여 기준값 미만의 밝기를 가진 픽셀은 검정으로 표현하고, 기준값 이상의 밝기를 가진 픽셀은 흰색으로 표현하였다. Next, an edge map is created for the image expressed by any one of the color, saturation, or brightness channel among the converted images. Then, the pixels composing the edge map are binarized into pixels having a brightness equal to or higher than the reference value and pixels having a brightness lower than the reference value, and then the binarized edge map is rewritten. 12 shows the result of creating a binary edge map for the I-channel of the gray level of the peripheral area (blocks 2 to 9). Pixels with brightness less than the reference value for the gray level I channel edge map are expressed as black, and pixels having brightness above the reference value are represented as white.

다음으로 이진화된 에지 맵에서 기준값 이상의 밝기를 가진 픽셀의 개수를 확인한다. 이렇게 얻은 픽셀의 개수는 에지 정보에 해당한다. 도 12와 같이 복수 개의 주변 영역이 있는 경우, 주변 영역에 포함된 일정 밝기 이상의 픽셀의 개수를 평균하여 본 발명의 에지 정보에 해당하는 픽셀의 개수로 할 수 있다. 하지만 이에 한정되지 않고, 복수개의 주변 영역 중 몇 개를 선별하고 선별된 주변 영여게 포함된 일정 밝기 이상의 픽셀의 개수를 평균한 값을 에지 정보로 할 수도 있다.Next, the number of pixels having brightness equal to or greater than the reference value in the binarized edge map is checked. The number of pixels thus obtained corresponds to the edge information. When there are a plurality of peripheral regions as shown in FIG. 12, the number of pixels having a certain brightness or more included in the peripheral region may be averaged to be the number of pixels corresponding to the edge information of the present invention. However, the present invention is not limited to this, and a value obtained by averaging the number of pixels having a certain brightness or more included in the selected peripheral region and selecting a plurality of peripheral regions may be used as the edge information.

S805 및 S806 단계에서 얻은 대비 정보와 에지 정보를 통하여 피사체의 부각 정보를 도출한다.(S807) The incidence information of the subject is derived through the contrast information and the edge information obtained in steps S805 and S806 (S807)

일 실시 예로 대비 정보와 에지 정보를 기준 정보와 비교하여 피사체의 부각 정보를 도출할 수 있다. 상기 기준 정보는 테이블로 구성될 수 있는데, 대비 정보가 임의의 기준 정보 범위 내에 있는 경우 파사체의 부각 정도는 얼마로 할 것인지, 에지 정보가 임의의 기준 정보 범위 내에 있는 경우 피사체의 부각 정도는 얼마로 할 것인지에 대한 대응 관계가 다양하게 개시되어 있을 수 있다. 이와 같이 대비 정보와 에지 정보를 기준 정보와 비교하여 피사체의 부각 정보를 도출하는 과정은 응용 프로그램 또는 알고리즘으로 구현될 수 있다. In one embodiment, the contrast information and the edge information are compared with the reference information to derive the incidence information of the subject. The reference information may be composed of a table. If the contrast information is within a certain reference information range, the degree of incidence of the subject is determined. If the edge information is within a predetermined reference information range, Or the like may be variously disclosed. The process of comparing the contrast information and the edge information with the reference information to derive the incidence information of the subject can be implemented by an application program or an algorithm.

예를 들어 대비 정보에 해당하는 명도 채널 대표 레벨값의 차이는 20이고, 채도 채널의 대표 레벨값의 차이는 10이며, 색상 채널의 대표 레벨값의 차이는 2라고 가정한다. 또한 에지 정보에 해당하는 기준 밝기값 이상의 픽셀의 개수는 200개 라고 가정한다. 이 경우 기준 정보에서 대표 레벨값의 차이가 5이하인 경우 피사체의 부각 정도가 20%, 5-15인 경우 40%, 15-25인 경우 60%라고 가정하고, 픽셀의 개수가 150-250 사이인 경우 피사에의 부각 정도가 30%라고 가정하자. 따라서 이 경우는 대비 정보에 의한 피사체의 부각 정도가 명도 60%, 채도 40%, 색상 20%이고, 에지 정보에 의한 피사체의 부각 정도가 30%이다. 따라서 최종적인 피사체의 부각 정도는 상기 정보들의 평균값을 이용하여 도출할 수 있다. 하지만 이와 같이 피사체의 부각 정도를 계산하는 방법은 기준 정보에 의하는 것만 만족하면 되고, 상술한 예에 한정되지 않는다.For example, it is assumed that the difference of the brightness channel representative level values corresponding to the contrast information is 20, the difference of the representative level values of the saturation channel is 10, and the difference of the representative level values of the color channel is 2. It is also assumed that the number of pixels equal to or larger than the reference brightness value corresponding to the edge information is 200 pixels. In this case, when the difference of the representative level value in the reference information is 5 or less, it is assumed that the incidence of the subject is 20%, 5-15 is 40%, 15-25 is 60%, and the number of pixels is 150-250 Assume that the degree of incidence on Pisa is 30%. Therefore, in this case, the degree of incidence of the subject by the contrast information is 60% in lightness, 40% in saturation, 20% in color, and the incidence of the subject by edge information is 30%. Thus, the degree of appearance of the final subject can be derived using the average value of the information. However, the method of calculating the incidence degree of the subject in this manner is not limited to the above-described example, as long as it satisfies only the reference information.

피사체 부각 정보를 도출할 때에는 영역의 대비 정보 또는 에지 정보에 가중치를 둘 수 있다. 예를 들어 영역의 대비정보가 피사체 부각 정도에 큰 영향을 미친다고 보는 경우 영역의 대비 정보에 1.5배 또는 2배의 가중치를 둘 수 있다. When deriving the subject incidence information, the contrast information or the edge information of the area can be weighted. For example, if the contrast information of a region has a large effect on the degree of the incidence of the subject, the contrast information of the region may be weighted 1.5 or 2 times.

마지막으로 디스플레이부(60)에 피사체의 부각 정보가 표시된다. (S808) 부각 정보는 수치값으로 표시되거나, 강-중-약 등의 단계적 언어로 표현할 수도 있다. Finally, the incidence information of the subject is displayed on the display unit 60. (S808) The incidence information may be represented by a numerical value, or may be expressed in a phased language such as strong-moderate-weak.

사용자는 표시된 피사체의 부각 정보를 참조하여 촬영을 계속 진행할 수 있다. (S809) 만약 피사체가 부각되는 정도가 사용자가 원하는 수준이 아닌 경우, 피사체와 색상, 채도 또는 명도의 대비가 큰 배경으로 위치를 바꾸거나 에지가 적은 단순한 배경으로 바꾸어 촬영을 진행할 수 있다.The user can continue shooting with reference to the incidence information of the displayed subject. (S809) If the level of the subject is not the level desired by the user, the subject can be changed to a background having a large contrast of color, saturation or brightness, or a simple background having a small edge.

도 9 내지 도 24는 본 발명에 의한 피사체 부각 정보를 제공하는 방법의 구체적인 실시 예을 나타낸 것이며, 상기 도 8에서 도 9 내지 도 12(이하, 제1실시예)에 관하여 자세히 설명하였다. 또한 상기 도 13 내지 도 16(이하, 제 2실시예), 도 17 내지 도 20 (이하, 제3실시예) 및 도 21 내지 도 24(제4 실시 예)는 제 1실시 예에서 설명한 바와 같이 피사체의 부각 정보를 알아보는 과정은 동일하다. 따라서 여기서는 과정에 대한 설명은 생략하고 결과만 보기로 한다 9 to 24 illustrate a specific embodiment of a method for providing subject incidence information according to the present invention, and FIG. 8 to FIG. 9 to FIG. 12 (hereinafter, the first embodiment) have been described in detail. 13 to 16 (hereinafter referred to as a second embodiment), Figs. 17 to 20 (hereinafter, third embodiment) and Figs. 21 to 24 (fourth embodiment) The process of finding the incidence information of the subject is the same. Therefore, the description of the process is omitted here and only the results are shown

도 9 내지 도 12는 제1실시 예로 피사체와 주변 영역의 색상, 명도 및 채도 대비가 좋지 않으나, 주변 영역의 복잡도는 낮아 에지가 적은 영상에서 피사체의 부각 정도를 알아보는 과정을 순서대로 나타낸 것이다. FIGS. 9 to 12 illustrate a process of examining the degree of incidence of a subject in an image having a low contrast and a low complexity in a surrounding region, which is poor in color, lightness, and saturation contrast between a subject and a surrounding region.

도 13 내지 도 16는 제2실시 예로 피사체와 주변 영역의 색상, 명도 및 채도 대비가 좋지 않고, 주변 영역의 복잡도가 높아 에지가 많은 영상에서 피사체의 부각 정도를 알아보는 과정을 순서대로 나타낸 것이다. FIGS. 13 to 16 illustrate a procedure of sequentially examining the degree of incidence of a subject in an image having a large edge due to a poor contrast of color, lightness, and saturation between the subject and the surrounding area and a high complexity of the surrounding area.

도 17 내지 도 20은 제3실시 예로 피사체와 주변 영역의 색상, 명도 및 채도 대비가 좋고, 주변 영역의 복잡도가 높지 않아 에지가 적은 영상에서 피사체의 부각 정도를 알아보는 과정을 순서대로 나타낸 것이다. FIGS. 17 to 20 illustrate a process of examining the degree of appearance of a subject in an image with a good contrast in color, lightness, and saturation of a subject and a peripheral region and a low complexity in a peripheral region, according to a third embodiment.

도 21 내지 도 24는 제4실시 예로 피사체와 주변 영역의 색상, 명도 및 채도 대비가 좋으나, 주변 영역의 복잡도가 높아 에지가 많은 영상에서 피사체의 부각 정보를 알아보는 과정을 순서대로 나타낸 것이다. FIGS. 21 to 24 illustrate the process of examining the incidence information of a subject in an image with a high edge and a high complexity of the surrounding area, which is good in color, brightness, and saturation contrast between the subject and the surrounding area.

이와 같은 총 4가지 실시 예의 과정을 통하여 얻은 피사체 영역과 주변 영역의 색상, 채도 및 명도의 대비 정보 및 주변 영역의 에지 정보를 종합하여 피사체의 부각 정보를 파악할 수 있다. 이 때, 대비 정보 또는 에지 정보에 가중치를 두어 피사체의 부각 정보를 파악할 수 있다.It is possible to grasp the information of the incidence of the subject by combining the contrast information of the color of the subject area and the surrounding area and the edge information of the surrounding area obtained through the processes of the four embodiments as described above. At this time, the contrast information or the edge information is weighted so that the incidence information of the subject can be grasped.

예를 들어 주변 영역의 에지 정보가 피사체의 부각 정도에 가장 큰 영향을 미친다고 보는 경우가 있다고 한다. 이 경우 에지 정보에 가중치를 주며 제2실시 예 또는 제4 실시 예의 영상이 피사체의 부각 정도가 현저히 낮은 결과를 얻을 것이다. 또한 피사체 영역과 주변 영역의 색상, 명도, 채도의 대비 정도가 작은 경우 피사체의 부각 정도가 가장 좋지 않다고 보는 경우를 가정하자. 이 경우 대비 정보에 가중치를 두며 제1실시 예의 영상 또는 제2 실시 예의 영상이 피사체의 부각 정도가 현저히 낮다고 계산된 결과를 얻을 것이다.For example, it is said that the edge information of the surrounding area has the greatest influence on the degree of the incidence of the subject. In this case, the edge information is weighted, and the image of the second embodiment or the fourth embodiment will have a remarkably low degree of incidence of the subject. If the degree of contrast between the subject area and the surrounding area is small, the degree of appearance of the subject is considered to be the worst. In this case, the contrast information is weighted, and the image of the first embodiment or the image of the second embodiment is calculated as a result that the incidence of the subject is remarkably low.

한편, 본 발명은 컴퓨터로 읽을 수 있는 기록 매체에 컴퓨터가 읽을 수 있는 코드로 구현하는 것이 가능하다. 컴퓨터가 읽을 수 있는 기록 매체는 컴퓨터 시스템에 의하여 읽혀질 수 있는 데이터가 저장되는 모든 종류의 기록 장치를 포함한 다.Meanwhile, the present invention can be embodied in computer readable code on a computer readable recording medium. A computer-readable recording medium includes all kinds of recording devices in which data that can be read by a computer system is stored.

컴퓨터가 읽을 수 있는 기록 매체의 예로는 ROM, RAM, CD-ROM, 자기 테이프, 플로피디스크, 광 데이터 저장장치 등이 있으며, 또한 캐리어 웨이브(예를 들어 인터넷을 통한 전송)의 형태로 구현하는 것을 포함한다. 또한, 컴퓨터가 읽을 수 있는 기록 매체는 네트워크로 연결된 컴퓨터 시스템에 분산되어, 분산 방식으로 컴퓨터가 읽을 수 있는 코드가 저장되고 실행될 수 있다. 그리고 본 발명을 구현하기 위한 기능적인(functional) 프로그램, 코드 및 코드 세그먼트들은 본 발명이 속하는 기술 분야의 프로그래머들에 의하여 용이하게 추론될 수 있다.Examples of the computer-readable recording medium include a ROM, a RAM, a CD-ROM, a magnetic tape, a floppy disk, an optical data storage device and the like, and also a carrier wave (for example, transmission via the Internet) . In addition, the computer-readable recording medium may be distributed over network-connected computer systems so that computer readable codes can be stored and executed in a distributed manner. In addition, functional programs, codes, and code segments for implementing the present invention can be easily deduced by programmers skilled in the art to which the present invention belongs.

이제까지 본 발명에 대하여 바람직한 실시 예를 중심으로 살펴보았다. 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자는 본 발명의 본질적인 특성에서 벗어나지 않는 범위에서 변형된 형태로 본 발명을 구현할 수 있음을 이해할 것이다. 그러므로 상기 개시된 실시 예들은 한정적인 관점이 아니라 설명적인 관점에서 고려되어야 한다. 본 발명의 범위는 전술한 설명이 아니라 특허청구범위에 나타나 있으며, 그와 동등한 범위 내에 있는 모든 차이점은 본 발명에 포함된 것으로 해석되어야 한다.The present invention has been described above with reference to preferred embodiments. It will be understood by those skilled in the art that the present invention may be embodied in various other forms without departing from the spirit or essential characteristics thereof. Therefore, the above-described embodiments should be considered in an illustrative rather than a restrictive sense. The scope of the present invention is indicated by the appended claims rather than by the foregoing description, and all differences within the scope of equivalents thereof should be construed as being included in the present invention.

도 1 내지 도 3은 피사체와 주변 영역의 대비 정도 및 주변 영역의 복잡도에 따라 피사체가 얼마나 부각될 수 있는지 보여주는 예시도이다.FIGS. 1 to 3 are views showing how much the subject can be emphasized according to the degree of contrast between the subject and the surrounding area and the complexity of the surrounding area.

도 4는 본 발명에 관한 디지털 카메라의 일 실시예를 나타낸 블록도이다.4 is a block diagram showing an embodiment of a digital camera according to the present invention.

도 5는 도 4에 도시된 디지털 카메라의 DSP의 일부를 나타낸 블록도이다.5 is a block diagram showing a part of the DSP of the digital camera shown in Fig.

도 6은 HSI 모드의 색좌표를 나타낸 설명도이다.Fig. 6 is an explanatory diagram showing the color coordinates of the HSI mode.

도 7은 도 4에 도시된 디지털 카메라의 DSP의 다른 일부를 나타낸 블록도이다.7 is a block diagram showing another part of the DSP of the digital camera shown in Fig.

도 8은 본 발명에 관한 피사체의 부각 정보를 제공하는 방법을 나타낸 흐름도이다.8 is a flowchart showing a method of providing incidence information of a subject according to the present invention.

도 9 내지 도 24는 본 발명에 의한 피사체 부각 정보를 제공하는 방법의 구체적인 실시 예를 나타낸 설명도이다.9 to 24 are explanatory diagrams showing specific embodiments of a method for providing subject incidence information according to the present invention.

Claims (10)

입력 영상에 대하여 초점이 맞는 대상인 피사체를 확정하는 단계;Determining an object whose focus is on the input image; 상기 피사체가 포함된 피사체 영역을 설정하고, 상기 피사체 영역 주위에 상기 피사체 영역의 부각 정보를 확인하기 위한 적어도 하나의 주변 영역을 설정하는 단계;Setting an object area containing the subject and setting at least one peripheral area for confirming the incidence information of the object area around the object area; 상기 피사체 영역과 상기 주변 영역의 색상, 채도 및 명도의 대비 정보를 도출하는 단계;Deriving contrast information of hue, saturation, and brightness of the subject area and the surrounding area; 상기 주변 영역의 에지 정보를 도출하는 단계;Deriving edge information of the peripheral region; 상기 대비 정보 또는 상기 에지 정보를 바탕으로 상기 피사체 영역에 포함된 상기 피사체의 부각 정보를 도출하는 단계; 및Deriving incidence information of the subject included in the subject area based on the contrast information or the edge information; And 도출된 상기 피사체의 부각 정보를 디스플레이부에 표시하는 단계;를 포함하고,And displaying the derived incidence information of the subject on a display unit, 상기 에지 정보를 도출하는 단계는The step of deriving the edge information 상기 주변 영역의 영상을 그레이 레벨의 색상, 명도 및 채도 모드의 영상으로 변환하는 단계;Converting an image of the peripheral region into an image of a gray level of color, brightness, and saturation mode; 변환된 상기 영상의 색상, 명도 또는 채도 중 어느 하나의 채널에 대한 에지 맵을 작성하는 단계;Creating an edge map for any one of color, brightness or saturation of the converted image; 작성된 상기 에지 맵에 대하여 기준값 이상의 밝기를 가진 픽셀과 기준값 미만의 밝기를 가진 픽셀로 이진화하여 에지 맵을 재구성하는 단계; 및Reconstructing the edge map by binarizing the generated edge map with a pixel having a brightness equal to or higher than a reference value and a pixel having a brightness lower than the reference value; And 재구성된 상기 에지 맵에 표시된 기준값 이상의 밝기를 가진 픽셀의 개수에 대응하는 에지 정보를 확인하는 단계;Identifying edge information corresponding to the number of pixels having a brightness equal to or greater than a reference value indicated in the reconstructed edge map; 를 포함하는 디지털 촬영 장치에서 피사체 부각 정보를 제공하는 방법.Wherein the digital camera is a digital still camera. 제1항에 있어서 The method of claim 1, wherein 상기 대비 정보를 도출하는 단계는The step of deriving the contrast information 상기 피사체 영역의 영상 및 상기 주변 영역의 영상을 그레이 레벨의 색상, 명도 및 채도 채널 모드의 영상으로 변환하는 단계;Converting an image of the subject area and an image of the peripheral area into an image of a gray level of color, brightness, and saturation channel mode; 변환된 상기 영상에 대하여 색상, 명도 및 채도 채널 별 히스토그램 영상을 도출하는 단계; Deriving a histogram image for each color, brightness, and saturation channel for the converted image; 도출된 상기 색상, 명도 및 채도 채널 별 히스토그램에 대하여 대표 레벨 값을 도출하는 단계; 및Deriving a representative level value for the derived histogram of the hue, brightness and saturation channel; And 상기 색상, 명도 및 채도 채널 별로 상기 피사체 영역의 대표 레벨 값에 대한 상기 주변 영역의 대표 레벨 값의 차이에 대응하는 대비 정보를 얻는 단계;Obtaining contrast information corresponding to a difference of a representative level value of the peripheral region with respect to a representative level value of the subject region for each of the hue, brightness, and saturation channels; 를 포함하는 디지털 촬영 장치에서 피사체 부각 정보를 제공하는 방법.Wherein the digital camera is a digital still camera. 삭제delete 입력 영상에 대하여 초점이 맞는 대상인 피사체를 확정하는 단계;Determining an object whose focus is on the input image; 상기 피사체가 포함된 피사체 영역을 설정하고, 상기 피사체 영역 주위에 상기 피사체 영역의 부각 정보를 확인하기 위한 적어도 하나의 주변 영역을 설정하는 단계;Setting an object area including the object and setting at least one peripheral area for confirming the incidence information of the object area around the object area; 상기 피사체 영역과 상기 주변 영역의 색상, 채도 및 명도의 대비 정보를 도출하는 단계;Deriving contrast information of hue, saturation, and brightness of the subject area and the surrounding area; 상기 주변 영역의 에지 정보를 도출하는 단계;Deriving edge information of the peripheral region; 상기 대비 정보 또는 상기 에지 정보를 바탕으로 상기 피사체 영역에 포함된 상기 피사체의 부각 정보를 도출하는 단계; 및Deriving incidence information of the subject included in the subject area based on the contrast information or the edge information; And 도출된 상기 피사체의 부각 정보를 디스플레이부에 표시하는 단계;를 포함하고,And displaying the derived incidence information of the subject on a display unit, 상기 주변 영역 및 상기 피사체 영역은 다각형으로 설정될 수 있으며, The peripheral region and the subject region may be set as polygons, 상기 피사체 영역을 중심으로 상기 주변 영역이 가로, 세로, 대각선 방향으로 총 8개 설정되는 디지털 촬영 장치에서 피사체 부각 정보를 제공하는 방법.Wherein a total of eight peripheral regions are set in the horizontal, vertical, and diagonal directions with respect to the subject region. 제1항에 있어서The method of claim 1, wherein 상기 피사체의 부각 정보를 도출하는 단계는The step of deriving the incidence information of the subject 상기 대비 정보 또는 상기 에지 정보를 기준 정보와 비교하여 피사체 부각 정보를 도출하는 디지털 촬영 장치에서 피사체 부각 정보를 제공하는 방법.And comparing the contrast information or the edge information with reference information to derive subject incidence information. 입력 영상에 대하여 초점이 맞는 피사체를 포함하는 피사체 영역을 설정하고, 상기 피사체 영역 주위에 적어도 하나의 주변 영역을 설정하는 영역 설정부;An area setting unit that sets a subject area including a subject focused on an input image and sets at least one peripheral area around the subject area; 상기 피사체 영역과 상기 주변 영역의 색상, 채도 및 명도의 대비 정보를 도출하는 대비 정보 도출부;A contrast information deriving unit for deriving contrast information of hue, saturation, and brightness of the subject area and the surrounding area; 상기 주변 영역의 에지 정보를 도출하는 에지 정보 도출부; 및An edge information deriving unit for deriving edge information of the surrounding area; And 상기 대비 정보 또는 에지 정보를 바탕으로 상기 피사체 영역에 포함된 상기 피사체의 부각 정보를 도출하는 피사체 부각 정보 도출부;를 포함하고,And a subject incidence information deriving unit for deriving incidence information of the subject included in the subject area based on the contrast information or the edge information, 상기 에지 정보 도출부는The edge information derivation unit 상기 주변 영역의 영상을 그레이 레벨의 색상, 명도 및 채도 채널 모드의 영상으로 변환하는 모드 변환부;A mode converter for converting the image of the peripheral region into an image of a gray level of color, brightness, and saturation channel mode; 변환된 상기 영상의 색상, 명도 또는 채도 중 어느 하나의 채널에 대한 에지 맵을 작성하는 에지 맵 작성부;An edge map creating unit for creating an edge map for any one of color, brightness or saturation of the converted image; 작성된 상기 에지 맵에 대하여 기준값 이상의 밝기를 가진 픽셀과 기준값 미만의 밝기를 가진 픽셀로 이진화하여 에지 맵을 재구성하는 에지 맵 이진화부; 및An edge map binarizer for reconstructing the edge map by binarizing the generated edge map with a pixel having a brightness equal to or higher than a reference value and a pixel having a brightness lower than the reference value; And 재구성된 상기 에지 맵에 표시된 기준값 이상의 밝기를 가진 픽셀의 개수에 대응하는 에지 정보를 도출하는 에지 확인부;An edge checker for deriving edge information corresponding to the number of pixels having brightness equal to or greater than a reference value indicated in the reconstructed edge map; 를 포함하는 피사체 부각 정보를 제공하는 디지털 촬영 장치.Wherein the digital camera is provided with subject-incidence-information. 제6항에 있어서The method of claim 6, wherein 상기 대비 정보 도출부는The contrast information deriving unit 상기 피사체 영역의 영상과 상기 주변 영역의 영상을 그레이 레벨의 색상, 명도, 채도 모드의 영상으로 변환하는 모드 변환부;A mode converter for converting the image of the subject area and the image of the peripheral area into an image of a gray level of hue, brightness, and saturation mode; 변환된 상기 영상에 대하여 각각 색상, 명도 및 채도 채널 별 히스토그램영상을 도출하는 히스토그램 생성부;A histogram generation unit for deriving a histogram image for each color, brightness, and saturation channel for the converted image; 도출된 상기 색상, 명도 및 채도 채널 별 히스토그램에 대하여 대표 레벨 값을 도출하는 대표 레벨값 도출부; 및A representative level value deriving unit for deriving a representative level value for the derived histogram for each color, brightness and saturation channel; And 상기 색상, 명도 및 채도 채널 별로 상기 피사체 영역의 대표 레벨값에 대한 상기 주변 영역의 대표 레벨값의 차이에 대응하는 대비 정보를 얻는 영역 대비부;An area contrast unit for obtaining contrast information corresponding to a difference in the representative level value of the surrounding area with respect to the representative level value of the subject area by the hue, brightness and saturation channel; 를 포함하는 피사체 부각 정보를 제공하는 디지털 촬영 장치.Wherein the digital camera is provided with subject-incidence-information. 삭제delete 제6항에 있어서The method of claim 6, wherein 상기 피사체 부각 정보 도출부는The subject incidence information deriving unit 상기 대비 정보 또는 상기 에지 정보를 기준 정보와 비교하여 피사체 부각 정보를 도출하는 피사체 부각 정보를 제공하는 디지털 촬영 장치.And compares the contrast information or the edge information with reference information to provide subject incidence information for deriving subject incidence information. 제6항에 있어서The method of claim 6, wherein 도출된 상기 피사체의 부각 정보가 디스플레이부에 표시되도록 제어하는 표시 제어부; 를 더 포함하는 피사체 부각 정보를 제공하는 디지털 촬영 장치.A display control unit for controlling the display unit to display the derived incidence information of the subject; Wherein the digital camera is further provided with subject incidence information.
KR1020090112779A 2009-11-20 2009-11-20 Method for providing standing out degree information of subject and digital photographing apparatus applying the method KR101634246B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020090112779A KR101634246B1 (en) 2009-11-20 2009-11-20 Method for providing standing out degree information of subject and digital photographing apparatus applying the method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020090112779A KR101634246B1 (en) 2009-11-20 2009-11-20 Method for providing standing out degree information of subject and digital photographing apparatus applying the method

Publications (2)

Publication Number Publication Date
KR20110056092A KR20110056092A (en) 2011-05-26
KR101634246B1 true KR101634246B1 (en) 2016-06-28

Family

ID=44364722

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020090112779A KR101634246B1 (en) 2009-11-20 2009-11-20 Method for providing standing out degree information of subject and digital photographing apparatus applying the method

Country Status (1)

Country Link
KR (1) KR101634246B1 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20220117488A (en) 2021-02-17 2022-08-24 주식회사 진성바이오 Garlic powdered saurce having anti-caking and method of preparation thereof

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005049955A (en) 2003-07-30 2005-02-24 Seiko Epson Corp Judgment for backlight image
JP2007251993A (en) 1993-03-31 2007-09-27 Nikon Corp Camera with composition advice function
KR100846513B1 (en) * 2007-01-15 2008-07-17 삼성전자주식회사 Method and apparatus for processing an image

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100926133B1 (en) * 2007-12-15 2009-11-11 한국전자통신연구원 Method and apparatus for producing and taking digital contents

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007251993A (en) 1993-03-31 2007-09-27 Nikon Corp Camera with composition advice function
JP2005049955A (en) 2003-07-30 2005-02-24 Seiko Epson Corp Judgment for backlight image
KR100846513B1 (en) * 2007-01-15 2008-07-17 삼성전자주식회사 Method and apparatus for processing an image

Also Published As

Publication number Publication date
KR20110056092A (en) 2011-05-26

Similar Documents

Publication Publication Date Title
RU2308761C2 (en) System for finding a first object, hidden by second object, method for visual display of first object and method for showing data of first object on display screen
Moeslund Introduction to video and image processing: Building real systems and applications
KR101594292B1 (en) A digital photographing device a method for controlling a digital photographing device and a computer-readable storage medium
KR101590868B1 (en) A image processing method an image processing apparatus a digital photographing apparatus and a computer-readable storage medium for correcting skin color
KR101155406B1 (en) Image processing apparatus, image processing method and computer readable-medium
US9025050B2 (en) Digital photographing apparatus and control method thereof
JP2004222231A (en) Image processing apparatus and image processing program
JP4868046B2 (en) Image processing apparatus, image processing method, and program
CN110023957B (en) Method and apparatus for estimating drop shadow region and/or highlight region in image
US10621703B2 (en) Image processing apparatus, image processing method, and program
CN112001853A (en) Image processing apparatus, image processing method, image capturing apparatus, and storage medium
KR101634246B1 (en) Method for providing standing out degree information of subject and digital photographing apparatus applying the method
EP4199528A1 (en) Image processing apparatus, image capture apparatus, and image processing method
KR101445613B1 (en) Image processing method and apparatus, and digital photographing apparatus using thereof
JP5202190B2 (en) Image processing method and image processing apparatus
KR101720771B1 (en) Digital photographing apparatus, method for controlling the same, and recording medium storing program to execute the method
KR101571331B1 (en) Method and apparatus for displaying luminance and digital photographing apparatus using thereof
JP2004222233A (en) Image processing apparatus and image processing program
JP2007285868A (en) Luminance gradient detection method, flaw detection method, luminance gradient detector and flaw detector
US11120579B2 (en) Image processing apparatus, image processing method, and storage medium
KR20100069501A (en) Image processing method and apparatus, and digital photographing apparatus using thereof
JP2009194786A (en) Object detecting device, and imaging apparatus
JP2004222232A (en) Image processor and image processing program
JP6248662B2 (en) Image processing apparatus, imaging apparatus, and image processing program
JP2013012089A (en) Image processing device, camera and image processing program

Legal Events

Date Code Title Description
N231 Notification of change of applicant
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant