KR20190044761A - Apparatus Processing Image and Method thereof - Google Patents

Apparatus Processing Image and Method thereof Download PDF

Info

Publication number
KR20190044761A
KR20190044761A KR1020170137060A KR20170137060A KR20190044761A KR 20190044761 A KR20190044761 A KR 20190044761A KR 1020170137060 A KR1020170137060 A KR 1020170137060A KR 20170137060 A KR20170137060 A KR 20170137060A KR 20190044761 A KR20190044761 A KR 20190044761A
Authority
KR
South Korea
Prior art keywords
pixel
input image
feature information
image
composition
Prior art date
Application number
KR1020170137060A
Other languages
Korean (ko)
Other versions
KR101981284B1 (en
Inventor
이인권
Original Assignee
연세대학교 산학협력단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 연세대학교 산학협력단 filed Critical 연세대학교 산학협력단
Priority to KR1020170137060A priority Critical patent/KR101981284B1/en
Publication of KR20190044761A publication Critical patent/KR20190044761A/en
Application granted granted Critical
Publication of KR101981284B1 publication Critical patent/KR101981284B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/25Determination of region of interest [ROI] or a volume of interest [VOI]
    • G06K9/3233
    • G06K9/46
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/90Determination of colour characteristics
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Multimedia (AREA)
  • Image Analysis (AREA)

Abstract

The present invention relates to an image processing apparatus, which extracts a feature point of an input image, converts pixel values of the image into color space component values of a colorimetric system different from a colorimetric system representing the pixel values to automatically analyze a composition of the image. The image processing apparatus of the present invention comprises: a feature point extracting unit for extracting feature points in consideration of pixel values for each pixel from an input image; a feature information calculation unit for converting the pixel values of the image into color space component values in accordance with a chromaticity system different from a colorimetric system representing the pixel values, and calculating feature information on a composition of the input image on the basis of the converted color space component values and the extracted feature points; and a composition analysis unit for analyzing the composition of the input image using the calculated feature information.

Description

이미지 처리 장치 및 방법 {Apparatus Processing Image and Method thereof}[0001] Apparatus Processing Image and Method [0002]

본 발명은 이미지를 처리하는 장치 및 방법에 관한 것이다. 보다 상세하게는, 입력된 이미지의 구도를 분석하는 이미지 처리 장치 및 방법에 관한 것이다.The present invention relates to an apparatus and method for processing an image. More particularly, the present invention relates to an image processing apparatus and method for analyzing a composition of an input image.

최근 디지털 카메라의 기술이 발전함에 따라, 누구나 손쉽게 카메라 기능이 포함된 휴대 기기를 이용하여 사진 촬영이 가능하게 되었으며, 사진 촬영을 위하여 별도로 카메라가 필요하였던 과거와 달리, 카메라 기능이 탑재된 휴대기기가 보편화되어 사진을 촬영 인구는 급격하게 증가하고 있다.As the technology of the digital camera has recently developed, anyone can easily take a picture by using a portable device including a camera function. Unlike the past where a separate camera was required for photographing, a portable device with a camera function The population that has become universalized and taking pictures is growing rapidly.

하지만, 사진 촬영 기법을 숙달하기는 어렵기 때문에 비전문가인 일반인들도 전문가의 도움이 없이도, 고품질의 사진을 얻을 수 있도록 다양한 기술이 개발되고 있다. 고품질의 사진을 위한 일 요소로서 사진의 구도는 매우 중요하나, 그 중요성에 비해 일반인들의 사진의 구도에 대한 배경지식은 부족한 경우가 많다. 특히, 사진의 구도 중에서도 황금비에 따른 구도에 대한 연구는 많이 진행되지 않고 있다. However, it is difficult to master photographic techniques, so a variety of techniques are being developed for non-specialists, such as ordinary people, to obtain high-quality photographs without the help of specialists. The composition of the picture as a factor for high quality photography is very important, but the background of the picture composition of the general public is often insufficient compared to its importance. Especially, there is not much research on the composition according to the golden ratio among the composition of the photograph.

황금 비는 자연 속에서도 쉽게 찾아 볼 수 있으며, 일반인들은 황금비의 구조를 가지는 건축물 또는 자연물을 보았을 때 가장 조화로움을 느낀다는 사실은 과학적으로 증명 되어 있다. 또한 사진 촬영에 있어서도, 황금비의 구도를 가지는 사진은 보기에 가장 조화로움을 느끼게 한다.It is scientifically proven that golden rain can be easily found in nature, and that most people feel the harmony when they see structures or natural objects with a golden ratio structure. Also, in photographing, a photograph having a composition of golden ratio makes the most harmonious appearance.

하지만, 황금비의 구도를 잡는 것은 전문가가 아닌 일반 사용자에게는 어려운 일이며, 다양한 피사체들이 포함되는 사진에서 일반 사용자가 황금비에 따른 구도를 일일이 잡아서 촬영하기는 용이하지 않다. However, it is difficult for the general user to frame the golden ratio, and it is not easy for the general user to capture the composition according to the golden ratio in the photographs containing various subjects.

따라서, 일반 사용자들이 전문가들의 도움이 없이도, 좋은 품질의 사진을 손쉽게 찍기 위한 기술 개발이 요구되고 있다.Therefore, it is required that the general user develops a technique for easily taking good quality photographs without the help of experts.

한국 공개 특허 제 10-2015-0090456 (2015. 08. 06공개)Korean Patent Laid-Open No. 10-2015-0090456 (published on Aug. 06, 2015)

본 발명은 상기한 문제점을 해결하기 위하여 안출된 것으로서, 입력된 이미지의 구도를 자동으로 분석하는 이미지 처리 장치를 개시한다. 특히 입력된 이미지의 특징점을 추출하고 상기 이미지의 화소값들을 상기 화소값들을 나타내는 표색계와는 다른 표색계의 색공간 성분값들로 변환하여 이미지의 구도를 자동으로 분석하는 이미지 처리 장치를 개시한다. 또한, 이미지의 구도를 분석하는 이미지 처리 방법을 개시한다.Disclosure of Invention Technical Problem [8] The present invention has been made to solve the above problems, and it is an object of the present invention to provide an image processing apparatus for automatically analyzing a composition of an input image. In particular, the present invention discloses an image processing apparatus that extracts feature points of an input image and converts pixel values of the image into color space component values of a colorimetric system different from a colorimetric system that represents the pixel values, thereby automatically analyzing a composition of an image. Also disclosed is an image processing method for analyzing a composition of an image.

본 발명은 상기한 목적을 달성하기 위해 안출된 것으로서, 본 발명의 이미지 처리 장치는 입력 이미지로부터 픽셀 별 화소값들을 고려하여 특징점들을 추출하는 특징점 추출부; 상기 이미지의 화소값들을 상기 화소값들을 나타내는 표색계와는 다른 표색계에 따른 색공간 성분값들로 변환하고, 상기 변환된 색공간 성분값들 및 상기 추출된 특징점에 기반하여 상기 입력 이미지의 구도에 관한 특징 정보를 산출하는 특징 정보 산출부; 및 상기 산출된 특징 정보를 이용하여 상기 입력된 이미지의 구도를 분석하는 구도 분석부; 를 포함한다.According to an aspect of the present invention, there is provided an image processing apparatus including a feature point extracting unit for extracting feature points by considering pixel values for each pixel from an input image; The pixel values of the image are converted into color space component values according to a colorimetric system different from that of the colorimetric system that represents the pixel values and the color space component values of the color space component values corresponding to the composition of the input image A feature information calculation unit for calculating feature information; And a composition analyzer for analyzing a composition of the input image using the calculated feature information; .

본 발명에서 이미지 처리 장치는 상기 특징점들이 추출된 입력 이미지를 미리 결정된 분할 영역으로 반복 분할하여 분할 이미지들을 생성하는 이미지 분할부; 를 더 포함하고, 상기 특징 정보 산출부는 상기 분할 영역별 특징점들에 기반하여 상기 특징 정보를 산출할 수 있다.The image processing apparatus according to the present invention includes: an image division unit which repeatedly divides an input image from which the minutiae points are extracted into a predetermined divided region to generate divided images; And the feature information calculating unit may calculate the feature information based on the minutiae for each of the divided regions.

본 발명에서 상기 특징점 추출부는 상기 입력된 이미지에서 임의의 픽셀을 지정하고, 상기 지정된 픽셀에 인접하는 픽셀들의 화소값 변화량을 고려하여 상기 지정된 픽셀을 특징점으로 추출할 수 있다.In the present invention, the feature point extracting unit may designate an arbitrary pixel in the input image, and may extract the designated pixel as a feature point in consideration of a pixel value change amount of pixels adjacent to the designated pixel.

상기 특징 정보 산출부는 상기 분할 이미지들 내부에 형성되고, 상기 분할 이미지들 적어도 하나의 대각선 방향의 양측 모서리를 지나며, 적어도 하나의 분할 이미지에서 수렴하는 나선(Spiral)을 생성하는 나선 생성부; 를 더 포함하고, 상기 생성된 나선이 수렴하는 픽셀의 좌표를 이용하여 상기 특징 정보를 산출할 수 있다.The feature information calculating unit may include a spiral generating unit formed within the divided images, the spiral generating unit generating spirals converging on at least one divided image, the divided images passing through at least one diagonal side edge of the divided images; And the feature information can be calculated using the coordinates of the pixel where the generated helix converges.

본 발명에서 상기 특징 정보 산출부는 상기 분할 영역별 특징점들이 상기 입력 이미지에서 추출된 전체 특징점들에서 차지하는 정도를 고려하여 제1 특성값을 계산하는 제1 특성값 계산부; 를 더 포함하고, 상기 계산된 제1 특성값을 이용하여 상기 특징 정보를 산출할 수 있다. In the present invention, the feature information calculation unit may include a first feature value calculation unit for calculating a first feature value in consideration of the degree of feature points of the divided regions in all feature points extracted from the input image; And the feature information may be calculated using the calculated first characteristic value.

본 발명에서 상기 특징 정보 산출부는 상기 분할 영역별 특징점들의 평균 좌표, 상기 나선이 수렴하는 픽셀의 좌표 및 상기 입력 이미지의 모서리 좌표를 고려하여 제2 특성값을 계산하는 제2 특성값 계산부; 를 더 포함하며, 상기 계산된 제2 특성값을 이용하여 상기 특징 정보를 산출할 수 있다.In the present invention, the feature information calculation unit may include a second feature value calculation unit for calculating a second feature value in consideration of the mean coordinates of the feature points for each of the divided regions, the coordinates of the pixels where the helix converges, and the corner coordinates of the input image; And the feature information may be calculated using the calculated second characteristic value.

상기 특징점 산출부는 상기 색공간 성분값들 중 기 설정된 임계치 이상의 성분값들을 가지는 픽셀들의 평균 좌표 및 상기 나선이 수렴하는 픽셀의 좌표를 고려하여 제3 특성값을 계산하는 제3 특성값 계산부; 를 더 포함하고, 상기 계산된 제3 특성값을 이용하여 상기 특징 정보를 산출할 수 있다.Wherein the feature point calculating unit calculates a third feature value by taking into consideration the average coordinates of pixels having component values of a predetermined threshold value or more among the color space component values and the coordinates of the pixel where the helix converges; And the feature information may be calculated using the calculated third characteristic value.

상기 미리 결정된 분할 영역으로 반복 분할하는 것은 상기 입력 이미지의 가로 또는 세로 길이를 계산하고, 상기 계산된 길이가 더 긴 부분을 황금비에 따라 초기 분할하며, 상기 분할된 입력 이미지 중에서 좁은 영역으로 분할된 이미지를 상기 초기 분할과 동일 방식으로 재분할하여 상기 분할 영역을 결정하고, 상기 결정된 분할 영역으로 반복 분할 하도록 마련될 수 있다.Wherein the step of repeatedly dividing the image into the predetermined divided region includes calculating a width or a length of the input image and initially dividing the calculated longer length according to a golden ratio, May be re-divided in the same manner as the initial division to determine the divided region, and may be repeatedly divided into the determined divided region.

상기 생성된 나선은 상기 입력 이미지의 적어도 하나의 모서리에서 시작하고, 상기 모서리의 위치 및 상기 나선이 수렴하는 픽셀의 좌표에 따라 서로 다른 나선 방향을 가지도록 마련될 수 있다. The generated helix may start at at least one corner of the input image and be arranged to have different helix directions depending on the position of the edge and the coordinates of the pixel where the helix converges.

상기 구도 분석부는 상기 산출된 특징 정보를 머신러닝(Machine Learning)기법으로 학습하여 상기 구도의 방향에 대한 방향 예측 모델을 생성하는 방향 예측 모델 생성부; 를 더 포함하고, 상기 생성된 방향 예측 모델을 이용하여 상기 이미지의 구도를 분석할 수 있다. The composition analyzing unit may include a directional prediction model generating unit that learns the calculated feature information using a machine learning technique to generate a directional prediction model for the direction of the composition; And the composition of the image can be analyzed using the generated directional prediction model.

상기 구도 분석부는 상기 산출된 특징 정보를 상기 머신러닝(Machine Learning)기법으로 학습하여 상기 구도의 점수에 대한 점수 예측 모델을 생성하는 점수 예측 모델 생성부; 를 더 포함하고, 상기 생성된 점수 예측 모델을 이용하여 상기 이미지의 구도를 분석할 수 있다.The composition analyzing unit may include a score prediction model generation unit for learning the calculated feature information using the machine learning technique to generate a score prediction model for the score of the composition; And the composition of the image can be analyzed using the generated score prediction model.

또한, 상기한 목적을 달성하기 위하여 본 발명의 이미지 처리 방법은 입력 이미지로부터 픽셀 별 화소값들을 고려하여 특징점들을 추출하는 단계; 상기 이미지의 화소값들을 상기 화소값들을 나타내는 표색계와는 다른 표색계에 따른 색공간 성분값들로 변환하고, 상기 변환된 색공간 성분값들 및 상기 추출된 특징점에 기반하여 상기 입력 이미지의 구도에 관한 특징 정보를 산출하는 단계; 및 상기 산출된 특징 정보를 이용하여 상기 입력된 이미지의 구도를 분석하는 단계; 를 포함한다. According to another aspect of the present invention, there is provided an image processing method comprising the steps of: extracting feature points by taking pixel values of an input image into consideration; The pixel values of the image are converted into color space component values according to a colorimetric system different from that of the colorimetric system that represents the pixel values and the color space component values of the color space component values corresponding to the composition of the input image Calculating feature information; Analyzing a composition of the input image using the calculated feature information; .

본 발명에서 이미지 처리 방법은 상기 추출하는 단계에 이어 상기 특징점들이 추출된 입력 이미지를 미리 결정된 분할 영역으로 반복 분할하는 단계; 를 더 포함하고, 상기 분할 영역별 특징점들에 기반하여 상기 특징 정보를 산출할 수 있다. The image processing method according to the present invention may further include the steps of: repeatedly dividing the input image from the extracted feature points into a predetermined divided region; And the feature information may be calculated based on the minutiae of the divided regions.

본 발명에서 상기 추출하는 단계는 상기 입력된 이미지에서 임의의 픽셀을 지정하고, 상기 지정된 픽셀에 인접하는 픽셀들의 화소값 변화량을 고려하여 상기 지정된 픽셀을 특징점으로 추출할 수 있다.In the present invention, the extracting step may designate an arbitrary pixel in the input image, and may extract the designated pixel as a feature point in consideration of a pixel value change amount of pixels adjacent to the designated pixel.

본 발명에서 상기 산출하는 단계는 상기 분할 이미지들 내부에 형성되고, 상기 분할 이미지들 적어도 하나의 대각선 방향의 양측 모서리를 지나며, 적어도 하나의 분할 이미지에서 수렴하는 나선(Spiral)을 생성하는 단계; 를 더 포함하고, 상기 생성된 나선이 수렴하는 픽셀의 좌표를 이용하여 상기 특징 정보를 산출할 수 있다.In the present invention, the calculating step includes the steps of: generating a spiral formed inside the divided images, converging on at least one divided image, passing through at least one diagonal corner of the divided images; And the feature information can be calculated using the coordinates of the pixel where the generated helix converges.

상기 산출하는 단계는 상기 분할 영역별 특징점들이 상기 입력 이미지에서 추출된 전체 특징점들에서 차지하는 정도를 고려하여 제1 특성값을 계산하는 단계; 를 더 포함하고, 상기 계산된 제1 특성값을 이용하여 상기 특징 정보를 산출할 수 있다. Calculating the first characteristic value in consideration of the degree of the feature points of the divided regions in all the feature points extracted from the input image; And the feature information may be calculated using the calculated first characteristic value.

상기 산출하는 단계는 상기 분할 영역별 특징점들의 평균 좌표, 상기 나선이 수렴하는 픽셀의 좌표 및 상기 입력 이미지의 모서리 좌표를 고려하여 제2 특성값을 계산하는 단계; 를 더 포함하고, 상기 계산된 제2 특성값을 이용하여 상기 특징 정보를 산출할 수 있다.Calculating the second characteristic value in consideration of the average coordinates of the minutiae of the divided regions, the coordinates of the pixel where the spiral converges, and the corner coordinates of the input image; And the feature information may be calculated using the calculated second characteristic value.

상기 산출하는 단계는 상기 색공간 성분값들 중 기 설정된 임계치 이상의 성분값들을 가지는 픽셀들의 평균 좌표 및 상기 나선이 수렴하는 픽셀의 좌표를 고려하여 제3 특성값을 계산하는 단계; 를 더 포함하고, 상기 계산된 제3 특성값을 이용하여 상기 특징 정보를 산출할 수 있다.Calculating the third characteristic value taking into consideration the average coordinates of the pixels having component values of a predetermined threshold value or more among the color space component values and the coordinates of the pixel where the spiral converges; And the feature information may be calculated using the calculated third characteristic value.

상기 미리 결정된 분할 영역으로 반복 분할하는 것은 상기 입력 이미지의 가로 또는 세로 길이를 계산하고, 상기 계산된 길이가 더 긴 부분을 황금비에 따라 초기 분할하며, 상기 분할된 입력 이미지 중에서 좁은 영역으로 분할된 이미지를 상기 초기 분할과 동일 방식으로 재분할하여 상기 분할 영역을 결정하고, 상기 결정된 분할 영역으로 반복 분할 하도록 마련될 수 있다.Wherein the step of repeatedly dividing the image into the predetermined divided region includes calculating a width or a length of the input image and initially dividing the calculated longer length according to a golden ratio, May be re-divided in the same manner as the initial division to determine the divided region, and may be repeatedly divided into the determined divided region.

상기 분석하는 단계는 상기 산출된 특징 정보를 머신러닝(Machine Learning)기법으로 학습하여 상기 구도의 방향에 대한 방향 예측 모델을 생성하는 단계; 를 더 포함하고, 상기 생성된 방향 예측 모델을 이용하여 상기 이미지의 구도를 분석할 수 있다.Wherein the analyzing step comprises: learning the calculated feature information using a machine learning technique to generate a directional prediction model for the direction of the composition; And the composition of the image can be analyzed using the generated directional prediction model.

본 발명에서 상기 분석하는 단계는 상기 산출된 특징 정보를 상기 머신러닝(Machine Learning)기법으로 학습하여 상기 구도의 점수에 대한 점수 예측 모델을 생성하는 단계; 를 더 포함하고, 상기 생성된 점수 예측 모델을 이용하여 상기 이미지의 구도를 분석할 수 있다.According to an embodiment of the present invention, the analyzing step may include: learning the calculated feature information using a machine learning technique to generate a score prediction model for a score of the composition; And the composition of the image can be analyzed using the generated score prediction model.

또한 본 발명은 컴퓨터에서 상기한 이미지 처리 방법을 실행시키기 위한 컴퓨터에서 판독 가능한 기록매체에 저장된 컴퓨터 프로그램을 개시한다.The present invention also discloses a computer program stored in a computer-readable recording medium for executing the above-described image processing method in a computer.

본 발명에 따르면, 입력된 이미지의 구도를 자동을 분석할 수 있는 잇점이 있다. According to the present invention, it is possible to automatically analyze the composition of an input image.

특히, 황금비 구도의 방향과 점수를 자동으로 분석할 수 있는 잇점이 있다.In particular, it has the advantage of automatically analyzing the direction and score of the golden ratio composition.

도 1은 본 발명의 일 실시 예에 따른 이미지 처리 장치의 블록도이다.
도 2는 본 발명의 일 실시 예에 따른 특징점이 추출된 입력 이미지의 예시도 이다.
도 3은 일 실시 예에 따른 분할된 입력 이미지상에 생성된 나선의 예시도이다.
도 4는 나선이 시작하는 입력 이미지의 모서리의 위치 및 상기 나선이 수렴하는 픽셀의 좌표에 따라 서로 다른 4가지 나선 방향의 예시도이다.
도 5는 도 1의 실시 예에서 특징 정보 산출부의 확대 블록도이다.
도 6은 특징 정보를 산출하기 위한 제1 특성값 및 제2 특성값을 계산하는 과정을 나타내는 예시도이다.
도 7은 특징 정보 산출부에서 입력 이미지의 화소값들을 상기 화소값들을 나타내는 표색계와는 다른 표색계에 따른 색공간 성분값들로 변환한 결과를 나타낸다.
도 8은 특징 정보를 산출하기 위한 제3 특성값을 계산하는 과정을 나타내는 예시도이다.
도 9는 도 1의 실시 예에서 구도 분석부의 확대 블록도이다.
도 10은 구도 분석부에서 분석한 이미지의 구도 방향 및 구도 점수를 나타낸다.
도 11은 본 발명의 일 실시 예에 따른 이미지 처리 방법의 흐름도이다.
도 12는 도 11의 실시 예에서 산출하는 단계의 확대 흐름도이다.
도 13은 도 11의 실시 예에서 분석하는 단계의 확대 흐름도이다.
1 is a block diagram of an image processing apparatus according to an embodiment of the present invention.
2 is an exemplary view of an input image from which feature points are extracted according to an embodiment of the present invention.
3 is an illustration of a spiral generated on a segmented input image according to one embodiment.
4 is an illustration of four different helical directions according to the position of the edge of the input image at which the helix starts and the coordinates of the pixel where the helix converges.
5 is an enlarged block diagram of the feature information calculation unit in the embodiment of FIG.
6 is an exemplary diagram illustrating a process of calculating a first characteristic value and a second characteristic value for calculating characteristic information.
7 shows a result of converting the pixel values of the input image into color space component values according to a color system different from the color system representing the pixel values in the feature information calculation unit.
8 is an exemplary diagram illustrating a process of calculating a third characteristic value for calculating characteristic information.
9 is an enlarged block diagram of the composition analyzing unit in the embodiment of FIG.
FIG. 10 shows a composition direction and a composition score of an image analyzed by a composition analysis unit.
11 is a flowchart of an image processing method according to an embodiment of the present invention.
12 is an enlarged flow chart of steps calculated in the embodiment of Fig.
13 is an enlarged flow chart of the step of analyzing in the embodiment of FIG.

이하, 본 발명의 일 실시 예를 첨부된 도면들을 참조하여 상세히 설명한다.Hereinafter, embodiments of the present invention will be described in detail with reference to the accompanying drawings.

첨부 도면을 참조하여 설명함에 있어, 동일하거나 대응하는 구성 요소는 동일한 도면번호를 부여하고 이에 대한 중복되는 설명은 생략하기로 한다.DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS In the following description with reference to the accompanying drawings, the same or corresponding components are denoted by the same reference numerals, and a duplicate description thereof will be omitted.

또한 본 발명을 설명함에 있어, 관련된 공지 구성 또는 기능에 대한 구체적인 설명이 본 발명의 요지를 흐릴 수 있다고 판단되는 경우에는 그 상세한 설명은 생략할 수 있다. In the following description of the present invention, a detailed description of known functions and configurations incorporated herein will be omitted when it may make the subject matter of the present invention rather unclear.

본 출원에서 사용한 용어는 단지 특정한 실시 예를 설명하기 위해 사용된 것으로, 용어를 한정하려는 의도가 아니다. 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. The terminology used herein is for the purpose of describing particular embodiments only and is not intended to limit the scope. The singular expressions include plural expressions unless the context clearly dictates otherwise.

이하에서 설명하는 각 단계는 하나 또는 여러 개의 소프트웨어 모듈로도 구비가 되거나 또는 각 기능을 담당하는 하드웨어로도 구현이 가능하며, 소프트웨어와 하드웨어가 복합된 형태로도 가능하다. 명세서 전체에서, 어떤 부분이 어떤 구성요소를 "포함"한다고 할 때, 이는 특별히 반대되는 기재가 없는 한 다른 구성요소를 제외하는 것이 아니라, 다른 구성요소를 더 포함할 수 있는 것을 의미한다. 또한, 명세서에 기재된 "...부", "...기", "모듈", "블록" 등의 용어는 적어도 하나의 기능이나 동작을 처리하는 단위를 의미하며, 이는 하드웨어나 소프트웨어 또는 하드웨어 및 소프트웨어의 결합으로 구현될 수 있다. 각 용어의 구체적인 의미와 예시는 각 도면의 순서에 따라 이하 설명 한다. 이하에서는 본 발명의 실시예에 따른 이미지 처리 장치의 구성을 관련된 도면을 참조하여 상세히 설명한다.Each of the steps described below may be implemented by one or a plurality of software modules, or hardware that is responsible for each function, or a combination of software and hardware. Throughout the specification, when an element is referred to as " including " an element, it does not exclude other elements unless specifically stated to the contrary. The terms "part", "unit", "module", "block", and the like described in the specification mean units for processing at least one function or operation, And a combination of software. Specific meanings and examples of the terms will be described below in accordance with the order of each drawing. Hereinafter, the configuration of an image processing apparatus according to an embodiment of the present invention will be described in detail with reference to related drawings.

도 1은 본 발명의 일 실시 예에 따른 이미지 처리 장치(10)의 블록도이다. 1 is a block diagram of an image processing apparatus 10 according to an embodiment of the present invention.

이미지 처리 장치(10)는 특징점 추출부(100), 이미지 분할부(200), 특징 정보 산출부(300) 및 구도 분석부(400)를 포함한다.The image processing apparatus 10 includes a feature point extracting unit 100, an image dividing unit 200, a feature information calculating unit 300, and a composition analyzing unit 400.

이미지 처리 장치(10)는 이미지를 입력 받아 자동으로 이미지의 구도를 분석할 수 있다. 본 발명에서 이미지의 구도는 구도의 방향 및 구도 점수에 대한 정보를 포함한다. 또한, 본 발명에서 이미지의 구도는 이미지에 포함된 피사체들의 배치 구성에 대한 정보를 의미하고, 원 구도, 삼각 구도, 대각선 구도, 항금 분할 구도, 방사선 구도, S자 구도, 평행선 구도, 삼등분 구도, 바둑판 구도, 수직 및 수평 구도 및 사용자가 설정한 기타 구도 등을 포함할 수 있다.The image processing apparatus 10 can automatically analyze the composition of an image by receiving an image. In the present invention, the composition of the image includes information on the orientation and composition score of the composition. In addition, in the present invention, the composition of the image means information on the arrangement of objects included in the image, and includes a circle composition, a triangle composition, a diagonal composition, a wedge composition composition, a radiation composition, an S composition, a parallel composition, A tile composition, a vertical and horizontal composition, and other compositions set by the user.

이미지 처리 장치(10)는 이미지를 입력 받고, 특징점을 추출하며, 상기 특징점이 추출된 상기 입력된 이미지를 미리 결정된 분할 영역으로 반복 분할하여 분할 이미지들을 생성하고, 상기 분할 이미지들을 이용하여 특징 정보를 산출하여 이미지를 분석한다. 이미지 처리 장치(10)는 휴대용 기기 등에 구현되어 입력 이미지의 구도를 분석할 수도 있지만, 특징 정보 산출부(300) 또는 구도 분석부(400) 중 적어도 하나의 장치가 별도의 서버 등에서 구현되어, 이미지를 처리하는 시스템의 형태로도 구현될 수 있다.The image processing apparatus 10 receives an image, extracts feature points, repeatedly divides the input image from the extracted feature points into predetermined divided regions to generate divided images, and uses the divided images to extract feature information And analyze the image. The image processing apparatus 10 may be implemented in a portable device or the like to analyze a composition of an input image, but at least one of the feature information calculating unit 300 and the composition analyzing unit 400 may be implemented in a separate server or the like, Or the like.

특징점 추출부(100)는 입력 이미지로부터 픽셀 별 화소값들을 고려하여 특징점들을 추출한다. 도 2를 참조하여 설명한다.The feature point extraction unit 100 extracts feature points by considering pixel values for each pixel from an input image. Will be described with reference to FIG.

예를 들어, 특징점 추출부(100)는 입력된 이미지에서 임의의 픽셀을 지정하고, 상기 지정된 픽셀에 인접하는 픽셀들의 화소값 변화량을 고려하여 상기 지정된 픽셀을 특징점으로 추출할 수 있다. 본 발명에서, 특징점 추출부(100)가 특징점을 추출함에 있어 FAST 특징점(keypoint) 디텍터와 Visual Descriptor BRIEF(Binary Robust Independent Elementary Feature)에 기반한 ORB(Oriented Fast and Rotated BRIEF) Detector를 사용할 수 있다. 특징점 추출부(100)는 입력된 이미지 상에서 픽셀 별 화소값들을 고려하여 특징점을 추출할 수 있고, 도 2 는 입력 이미지상에서 피사체의 경계영역에 집중되어 추출된 특징점을 나타낸다.For example, the feature point extracting unit 100 may designate an arbitrary pixel in the input image, and may extract the designated pixel as a feature point in consideration of a pixel value change amount of pixels adjacent to the designated pixel. In the present invention, the feature point extracting unit 100 may use an FAST feature point detector and an ORB (Oriented Fast and Rotated BRIEF) detector based on a Visual Descriptor BRIEF (Binary Robust Independent Elementary Feature). The feature point extraction unit 100 extracts feature points by considering pixel values for each pixel on the input image, and FIG. 2 shows feature points extracted by focusing on the boundary region of the subject on the input image.

구체적으로, 특징점 추출부(100)는 입력된 이미지 상의 어떤 임의의 픽셀 p가 특징점에 해당하는지를 판단하기 위하여, 임의의 픽셀 p를 중심으로 하는 반지름 3인 원 상의 16개 픽셀들의 화소값을 이용하여 상기 임의의 픽셀이 특징점인지 여부를 판단할 수 있다. 특징점 추출부(100)는 임의의 픽셀 p의 화소값보다 밝은 화소값들이 n개 이상 연속되거나, 임의의 픽셀 p의 화소값보다 어두운 화소값들이 n개 이상 연속 되는 경우 특징점으로 판단한다. 상기 FAST 알고리즘에서 n값은 이미지 처리 장치(10)의 요구 성능 사항에 따라 다르게 설정될 수 있다. Specifically, in order to determine which arbitrary pixel p on the input image corresponds to the feature point, the feature point extraction unit 100 uses a pixel value of 16 pixels on a circle having a radius of 3 centered at an arbitrary pixel p It is possible to determine whether the arbitrary pixel is a minutiae point. The feature point extraction unit 100 determines that the feature point is a case where n or more pixel values that are brighter than the pixel value of any pixel p are continuous or n or more pixel values that are darker than the pixel value of any pixel p are continuous. In the FAST algorithm, the n value may be set differently according to the performance requirements of the image processing apparatus 10.

이미지 분할부(200)는 특징점들이 추출된 입력 이미지를 미리 결정된 분할 영역으로 반복 분할하여 분할 이미지들을 생성한다. 도 3을 참조하여 설명한다.The image divider 200 repeatedly divides the extracted input image into predetermined divided regions to generate divided images. Will be described with reference to FIG.

예를 들어, 이미지 분할부(200)가 미리 결정된 분할 영역으로 반복 분할하는 것은 입력 이미지의 가로 또는 세로 길이를 계산하고, 상기 계산된 길이가 더 긴 부분을 황금비에 따라 초기 분할하며, 상기 초기 분할된 입력 이미지 중에서 좁은 영역으로 분할된 이미지를 상기 초기 분할과 동일한 방식으로 재분할 하는 것을 의미한다.For example, the image dividing unit 200 repeatedly divides the image into a predetermined dividing region, calculates the width or length of the input image, and initially divides the calculated longer portion according to the golden ratio, The image divided into narrow regions among the input images is re-divided in the same manner as the initial division.

예를 들어, 이미지 분할부(200)는 도 3에 도시된 바와 같이, 가로 길이가 더 긴 입력 이미지의 가로축을 1.618:1비로 초기 분할하여 P1 및 Q1로 표기되는(P1 및 Q1의 분할 영역을 가지는) 분할 이미지들을 생성한다. 상기 생성된 분할 이미지들 중에서 분할 이미지(Q1)는 분할 이미지(P1)보다 좁은 영역으로 분할된 분할 이미지를 의미한다. 이미지 분할부(200)는 세로의 길이가 더 긴 분할 이미지(Q1)의 세로축을 1.618:1의 비로 재분할하여 P2 및 Q2로 표기되는(P2 및 Q2의 분할 영역을 가지는) 분할 이미지를 생성할 수 있다. 상기 생성된 분할 이미지들 중에서 분할 이미지(Q2)는 분할 이미지(P2)보다 좁은 영역으로 분할된 분할 이미지를 의미한다.For example, as shown in FIG. 3, the image divider 200 may initially divide the horizontal axis of the input image having a longer horizontal length by a ratio of 1.618: 1, and divide P1 and Q1 Branch images). Among the generated divided images, the divided image Q1 means a divided image divided into an area narrower than the divided image P1. The image divider 200 can re-divide the vertical axis of the segmented image Q1 having a longer vertical length to a ratio of 1.618: 1 to generate a segmented image (having a divided region of P2 and Q2) marked P2 and Q2 have. Among the generated divided images, the divided image Q2 means a divided image divided into an area narrower than the divided image P2.

본 발명에서, 기 설정된 분할 영역들에 포함된 가로 또는 세로의 길이 중 적어도 하나는 서로 다른 분할 영역들 중에서 적어도 하나의 가로 또는 세로의 길이와 황금비를 이룬다. 따라서, 이미지 분할부(200)는 입력된 이미지를 황금 분할하여 분할 이미지들을 생성할 수 있다. 이미지 분할부(200)가 미리 결정된 분할 영역으로 입력된 이미지를 반복 분할하는 경우, 상기 분할 이미지는 무한소로 근접하고, 이는 점으로 표현될 수 있으며, 이는 나선의 중심에 대응될 수 있다.In the present invention, at least one of the horizontal or vertical lengths included in the predetermined divided areas forms a golden ratio with at least one horizontal or vertical length among the different divided areas. Accordingly, the image divider 200 can divide the input image into golden images to generate divided images. When the image dividing unit 200 repeatedly divides an input image into a predetermined dividing region, the dividing image approaches infinity, which can be represented by a point, which can correspond to the center of the spiral.

또 다른 실시 예로, 이미지 분할부(200)가 분할한 분할 이미지들 적어도 하나의 대각선 방향의 양측 모서리를 지나고, 적어도 하나의 분할 이미지상에서 수렴하는 나선이 형성될 수 있는데, 상기 분할 이미지들은 서로 황금 분할 관계에 있는 경우, 상기 나선을 황금 나선으로 정의할 수 있다. 상기 황금 나선이 수렴하는 상기 분할 이미지상의 픽셀을 나선의 중심으로 정의할 수 있고, 이미지 처리 장치(10)는 황금 나선의 중심에 피사체가 위치하는 입력된 이미지의 구도 점수를 높게 측정할 수 있다. 도 4를 참조하여 설명한다.In another embodiment, a spiral may be formed that passes through at least one diagonal edge of at least one of the split images divided by the image divider 200 and converges on at least one of the split images, If there is a relationship, the helix can be defined as a golden helix. The pixel on the segmented image where the golden helix converges can be defined as the center of the helix and the image processing apparatus 10 can measure the composition score of the input image where the subject is located at the center of the golden helix. Will be described with reference to FIG.

예를 들어, 상기 생성된 나선은 상기 입력 이미지의 적어도 하나의 모서리에서 시작하고, 상기 모서리의 위치 및 상기 나선이 수렴하는 픽셀의 좌표에 따라 서로 다른 4가지의 나선 방향을 가질 수 있다. 상기 나선이 입력 이미지의 모서리 중에서 좌측 상단의 모서리에서 시작하고, 상기 나선이 수렴하는 픽셀의 좌표가 상기 입력 이미지의 우측 상단에 위치하는 분할 이미지에 위치하는 경우, 해당 나선의 방향은 나선방향 1로 표기할 수 있다.For example, the generated helix may start at at least one corner of the input image, and may have four different helical directions depending on the position of the edge and the coordinates of the pixel where the helix converges. If the spiral starts at the upper left corner of the corner of the input image and the coordinates of the pixel where the spiral converges are located in the split image located at the upper right of the input image, Can be indicated.

또 다른 실시 예로, 상기 나선이 입력 이미지의 모서리 중에서 좌측 하단의 모서리에서 시작하고, 상기 나선이 수렴하는 픽셀의 좌표가 상기 입력 이미지의 우측 하단에 위치하는 경우 해당 나선의 방향은 나선방향 4로 표기될 수 있다. 후술하는 바와 같이, 구도 분석부(400)는 입력 이미지의 구도를 분석할 수 있고, 이미지의 구도 분석은 나선의 방향을 예측하는 것을 포함한다. 황금 나선에 관한 사항은 특징 정보 산출부(300)에서 후술한다.In another embodiment, if the helix starts at the bottom left corner of the edge of the input image and the coordinates of the pixel where the helix converges are located at the bottom right of the input image, the direction of the helix is represented by the helix direction 4 . As will be described later, the composition analyzing unit 400 can analyze the composition of the input image, and the composition analysis of the image includes predicting the direction of the spiral. The matters related to the golden helix will be described later in the feature information calculation unit 300. [

특징 정보 산출부(300)는 나선 생성부(320), 제1 특성값 계산부(340), 제2 특성값 계산부(360) 및 제3 특성값 계산부(380)를 포함한다. 도 5 내지 8을 참조하여 설명한다.The feature information calculating unit 300 includes a spiral generating unit 320, a first characteristic value calculating unit 340, a second characteristic value calculating unit 360, and a third characteristic value calculating unit 380. Will be described with reference to Figs.

특징 정보 산출부(300)는 입력된 이미지의 화소값들을 상기 화소값들을 나타내는 표색계와는 다른 표색계에 따른 색공간 성분값들로 변환하고, 상기 변환된 색공간 성분값들 및 상기 추출된 특징점에 기반하여 상기 입력 이미지의 구도에 관한 특징 정보를 산출한다.The feature information calculation unit 300 converts the pixel values of the input image into color space component values according to a color system different from the color system that represents the pixel values and outputs the converted color space component values and the extracted feature points The feature information on the composition of the input image is calculated.

예를 들어, 이미지 처리 장치(10)에 입력된 이미지의 픽셀 별 화소값은 RGB 값으로 표현될 수 있다. 또한 상기 RGB 표색계와는 다른 표색계는 광도의 정보만을 전달하는 표색계로서, 상기 화소값을 하나의 단일 샘플로 표현하는 그레이 스케일(Gray Scale)을 의미할 수 있고, 본 발명에서 다른 표색계에 따른 색공간 성분값들로 변환하는 것은 다른 표색계인 그레이 스케일을 1차원 색공간에 나열하고, 상기 1차원 색공간에 나열된 0~255개의 색공간 성분값 들 중에서 하나의 색공간 성분값으로 변환하는 것을 의미한다. 본 발명에서 색공간은 색을 표현하는 체계인 표색계를 공간상에 이미지화 한 것을 의미한다. For example, the pixel value of each pixel of the image input to the image processing apparatus 10 may be represented by an RGB value. In addition, the color system different from the RGB color system may be a color system that transmits only the information of luminosity, and may mean a gray scale that expresses the pixel values as one single sample. In the present invention, The conversion into component values means that the gray scale, which is another color system, is arranged in the one-dimensional color space and converted into one color space component value among the 0 to 255 color space component values listed in the one-dimensional color space . In the present invention, a color space means that a color system, which is a system for expressing colors, is imaged in space.

예를 들어, RGB 표색계를 공간상에 이미지화하는 경우 3차원 RGB 색공간에 이미지화 할 수 있고, 그레이 스케일을 공간상에 이미지화 하는 경우 1차원 색공간에 이미지화 할 수 있다. 또한, 입력된 이미지의 화소값들을 상기 화소값들을 나타내는 표색계와는 다른 표색계에 따른 색공간 성분값들로 변환하는 것은, RGB 화소값으로 표현된 입력된 이미지를 샐리언시 맵(Saliency Map, 중요도 지도)으로 변환하는 과정으로 표현할 수 있다.For example, when the RGB colorimetric system is imaged in space, it can be imaged in a three-dimensional RGB color space, and when the grayscale is imaged in space, it can be imaged in a one-dimensional color space. The conversion of the pixel values of the input image into the color space component values according to the colorimetric system different from the colorimetric system that represents the pixel values is performed by converting the input image represented by the RGB pixel values into the saliency map Map).

본 발명에서, 특징 정보 산출부(300)는 샐리언시 맵을 형성함에 있어 영상의 색상, 휘도, 움직임, 조화 또는 방향 중 적어도 어느 하나의 특성을 이용할 수 있다. In the present invention, the feature information calculating unit 300 may use at least any one of color, brightness, motion, harmony, and orientation of images in forming the salient map.

예를 들어, 특징 정보 산출부(300)는 영상의 색상을 이용하여 RGB화소값으로 표현된 입력 이미지의 픽셀 별 화소값을 0~255 개의 광도를 가지는 회색으로 표현하여 샐리언시 맵을 형성할 수 있다. 특징 정보 산출부(300)는 입력된 이미지로부터 딥 러닝 기반의 SALICON(Saliency in Context)알고리즘을 이용하거나, 빠른 처리를 위한 BMS(A Boolean Map Approach)알고리즘을 이용하여 샐리언시 맵상에서 색상에 관한 임계치를 획득할 수 있고, 이를 이용하여 특징 정보를 산출할 수 있다.For example, the feature information calculator 300 may generate a saliency map by expressing a pixel value of each input pixel in the input image represented by RGB pixel values using a color of the image, . The feature information calculating unit 300 may calculate a saliency in context (SALICON) based on a depth learning based on an input image, or use a BMS (A Boolean Map Approach) algorithm for fast processing, The threshold value can be obtained, and the feature information can be calculated using the threshold value.

또 다른 실시 예로, 특징 정보 산출부(300)는 입력 이미지의 픽셀 별 RGB 화소값을 그레이 스케일에 따른 0~255 사이의 레벨을 가지는 색공간 성분값들로 변환하고, 상기 변환된 색공간 성분값들 및 특징점에 기반하여 상기 입력 이미지의 구도에 관한 특징 정보를 산출할 수 있다.In another embodiment, the feature information calculation unit 300 may convert the RGB pixel values of each pixel of the input image into color space component values having a level between 0 and 255 according to the gray scale, And feature information on the composition of the input image based on the feature points.

나선 생성부(320)는 분할 이미지들 내부에 형성되고, 상기 분할 이미지들 적어도 하나의 대각선 방향의 양측 모서리를 지나며, 적어도 하나의 분할 이미지에서 수렴하는 나선(Spiral)을 생성한다. 바람직하게는, 상기 나선은 황금 나선을 의미하고, 나선의 종류와 나선의 생성 방법은 전술한 바와 같다. The spiral generator 320 is formed within the split images, and generates spirals that converge on at least one split image, passing through at least one diagonal edge on both sides of the split images. Preferably, the helix means a golden helix, and the type of helix and the method of generating the helix are as described above.

제1 특성값 계산부(340)는 분할 영역별 특징점들이 상기 입력 이미지에서 추출된 전체 특징점들에서 차지하는 정도를 고려하여 제1 특성값을 계산한다. 제1 특성값은 하기의 수학식 1에 의하여 구할 수 있다.The first characteristic value calculation unit 340 calculates a first characteristic value in consideration of the degree to which the minutiae points of the respective subregions occupy all of the minutiae extracted from the input image. The first characteristic value can be obtained by the following equation (1).

Figure pat00001
Figure pat00001

여기에서 f1은 제1 특성값, p1 은 입력 이미지를 초기 분할하는 경우 생성되는 분할 이미지 중에서 영역이 넓은 분할 이미지에 존재하는 특징점(122)의 개수, q1은 입력 이미지를 초기 분할하는 경우 생성되는 분할 이미지 중에서 영역이 좁은 분할 이미지상에 존재하는 특징점의 개수, i는 1에서 4까지의 정수 및 qi는 i번째 분할에서 생성되는 분할 이미지 중에서 좁은 영역으로 분할된 분할 이미지상에 존재하는 특징점의 개수를 의미한다. Here, f1 is a first characteristic value, p1 is the number of feature points 122 existing in a wide divided image among the divided images generated when the input image is initially divided, q1 is the number of feature points 122 I is an integer from 1 to 4, and qi is the number of feature points existing on the divided image divided into narrow regions among the divided images generated in the i-th divided region, it means.

예를 들어, 도 6에 f1으로 도시된 차트에서 수학식 1을 적용하면, p1은 3, q1은 5로 설정될 수 있다. 상기 수학식 1에 의하여 제1 특성값 f1은 전체 영역에서 특징점의 개수와 분할 영역에서의 특징점 개수의 비율로 정의될 수 있고, 특징 정보 산출부(300)는 상기 계산된 제1 특성값을 이용하여 상기 특징 정보를 산출한다.For example, if Equation 1 is applied in the chart shown in Fig. 6, p1 can be set to 3 and q1 to 5. According to Equation (1), the first characteristic value f1 may be defined as a ratio of the number of minutiae in the entire region to the number of minutiae in the divided region, and the characteristic information calculator 300 uses the calculated first characteristic value To thereby calculate the feature information.

제2 특성값 계산부(360)는 분할 영역별 특징점들의 평균 좌표, 상기 나선이 수렴하는 픽셀의 좌표 및 상기 입력 이미지의 모서리 좌표를 고려하여 제2 특성값을 계산한다. 제2 특성값은 하기의 수학식 2에 의하여 구할 수 있다.The second characteristic value calculation unit 360 calculates the second characteristic value in consideration of the average coordinates of the minutiae points of the divided regions, the coordinates of the pixel where the spiral converges, and the corner coordinates of the input image. The second characteristic value can be obtained by the following equation (2).

Figure pat00002
Figure pat00002

여기에서 f2는 제2 특성값, i는 1에서 4까지의 정수, distance_pqi는 i번째 분할 영역별 특징점들의 평균 좌표(362)와 나선이 수렴하는 픽셀의 좌표(나선의 중심, 322)간의 거리의 평균, max_distance는 입력된 이미지의 모서리와 나선이 수렴하는 픽셀의 좌표(나선의 중심, 322)간의 최대 거리를 의미한다.Here, f2 is a second characteristic value, i is an integer from 1 to 4, and distance_pqi is a distance between the average coordinate 362 of the minutiae points of the i-th divided region and the coordinates of the pixel where the spiral converges (the center of the helix 322) The mean, max_distance, is the maximum distance between the corner of the input image and the coordinates of the pixel where the spiral converges (the center of the spiral, 322).

예를 들어, 도 6의 f2로 도시된 차트에서 수학식 2를 적용하면, 제2 특성값 계산부(360)는 세모로 마킹된 나선의 중심(322)과 각 분할 영역별 특징점들의 평균 좌표(362)간의 거리의 평균을 이용하여 제2 특성값을 계산할 수 있고, 특징 정보 산출부(300)는 상기 계산된 제2 특성값을 이용하여 상기 특징 정보를 산출할 수 있다.6, the second characteristic value calculation unit 360 calculates the center coordinates 322 of the spirals marked with triangles and the average coordinates of the minutiae for each of the divided regions (for example, 362, and the feature information calculating unit 300 may calculate the feature information using the calculated second feature value.

제3 특성값 계산부(380)는 색공간 성분값들 중에서 기 설정된 임계치 이상의 성분값들을 가지는 픽셀들의 평균 좌표 및 상기 나선이 수렴하는 픽셀의 좌표를 고려하여 제3 특성값을 계산한다. 제3 특성값은 하기의 수학식 3에 의하여 구할 수 있다.The third characteristic value calculation unit 380 calculates a third characteristic value in consideration of the average coordinates of pixels having component values of a predetermined threshold value or more among the color space component values and the coordinates of the pixel where the spirals converge. The third characteristic value can be obtained by the following equation (3).

Figure pat00003
Figure pat00003

여기에서, f3은 제3 특성값, distance_s는 샐리언시 맵상에서 색상값이 임계치(threshold)를 초과하는 픽셀들의 평균 좌표(382)와 나선이 수렴하는 픽셀의 좌표(나선의 중심, 322)간의 거리 및 max_distance는 입력 이미지의 모서리와 나선이 수렴하는 픽셀의 좌표와의 최대 거리를 의미한다. Here, f3 is the third characteristic value, and distance_s is the distance between the average coordinate 382 of the pixels whose color values exceed the threshold on the Salliance Map and the coordinates of the pixel where the spiral converges (the center of the spiral 322) The distance and max_distance mean the maximum distance between the corner of the input image and the coordinates of the pixel where the spiral converges.

예를 들어, 제3 특성값 계산부(380)는 SALICON 알고리즘을 이용하는 경우 임계치(threshold)가 70보다 큰 픽셀들의 평균 좌표를 이용하고, BMS 알고리즘을 이용하는 경우 임계치(threshold)가 210보다 큰 픽셀들의 평균 좌표를 이용하여 제3 특성값을 계산할 수 있다. 도 9 및 도10를 참조하여 설명한다.For example, when the SALICON algorithm is used, the third characteristic value calculation unit 380 uses the average coordinates of pixels having a threshold value larger than 70, and when the BMS algorithm is used, The third characteristic value can be calculated using the average coordinates. Will be described with reference to Figs. 9 and 10. Fig.

구도 분석부(400)는 방향 예측 모델 생성부(420) 및 점수 예측 모델 생성부(400)를 포함한다.The composition analyzing unit 400 includes a directional prediction model generation unit 420 and a scored prediction model generation unit 400.

예를 들어 구도 분석부(400)는 특징 정부 산출부(300)에서 산출된 특징 정보를 이용하여 상기 입력된 이미지의 구도를 분석할 수 있다. 상기 이미지의 구도는 구도의 방향과 구도에 일치하는지 여부에 관한 정보를 포함한다. 구도 분석부(400)는 도 9에 도시된 바와 같이 이미지를 입력 받아서, 상기 입력된 이미지상에서 황금 나선의 방향과 얼마나 황금 분할 구도에 일치하는지 여부를 점수로 환산하여 분석한다.For example, the composition analyzing unit 400 may analyze the composition of the input image using the feature information calculated by the feature calculating unit 300. The composition of the image includes information as to whether or not it matches the direction and composition of the composition. The composition analyzing unit 400 receives an image as shown in FIG. 9, and converts the direction of the golden helix on the input image to a score to convert the degree of golden division into a score.

예를 들어 구도 분석부(400)는 머신러닝(Machine Learning)기법으로 특징 정보 산출부(300)에서 산출된 특징 정보를 학습하여 학습 모델을 생성하고, 생성된 학습 모델을 이용하여 입력된 이미지의 구도를 분석할 수 있다. 본 발명에서 구도 분석부(400)는 로지스틱 판별 분석(Logistic Classification), 서포트 벡터 머신(SVM), 랜덤 포레스트(RF) 등의 알고리즘을 이용하여 학습 모델을 생성할 수 있다. For example, the composition analyzing unit 400 generates a learning model by learning the feature information calculated by the feature information calculating unit 300 using a machine learning technique, The composition can be analyzed. In the present invention, the composition analyzing unit 400 can generate a learning model using algorithms such as Logistic Classification, Support Vector Machine (SVM), and Random Forest (RF).

방향 예측 모델 생성부(420)는 상기 산출된 특징 정보를 머신러닝(Machine Learning)기법으로 학습하여 상기 구도의 방향에 대한 방향 예측 모델을 생성한다.The directional prediction model generation unit 420 learns the calculated feature information using a machine learning technique to generate a directional prediction model for the direction of the composition.

Figure pat00004
Figure pat00004

표1은 방향 예측 모델의 정확성을 나타낸다. 구도 분석부(400)가 방향 예측 모델을 이용하여 예측한 나선의 방향이 기 실시된 설문 조사의 결과와 일치하는 정도를 방향 예측 모델의 정확성으로 표현할 수 있다. 상기 표1에서 f1+f2+f3(by SALICON)은 살리콘 알고리즘에 따른 방향 예측 모델의 정확성, f1+f2+f3(by BMS)는 BMS 알고리즘에 따른 방향 예측 모델의 정확성을 나타낸다. 본 발명에서, 예측 모델은 5-fold 교차 검증을 통해 성능이 평가 될 수 있고, 살리콘 알고리즘에 따른 방향 예측 모델의 정확성이 85.9%로 더 높은 것을 볼 수 있다. Table 1 shows the accuracy of the directional prediction model. The degree by which the composition analyzing unit 400 matches the direction of the spiral predicted using the directional prediction model with the results of the survey conducted can be expressed by the accuracy of the directional prediction model. In Table 1, f1 + f2 + f3 (by SALICON) indicates the accuracy of the directional prediction model according to the salicone algorithm, and f1 + f2 + f3 (by BMS) indicates the accuracy of the directional prediction model according to the BMS algorithm. In the present invention, it can be seen that the performance can be evaluated through the 5-fold crossover verification, and the accuracy of the directional prediction model according to the salicone algorithm is as high as 85.9%.

보다 상세하게는, 방향 예측 모델 생성부(420)는 방향 예측 모델을 생성하기 위하여 임의의 데이터베이스로부터 207장의 사진을 다운받아, 예측 모델을 생성하고, 상기 생성된 예측 모델의 정확성을 평가하기 위하여 207장의 사진에 대하여 사전 설문 조사를 실시하여 나선의 방향에 관한 설문 조사 결과를 미리 획득하며, 이를 예측 모델의 결과와 비교하여 정확성을 평가할 수 있다.More specifically, the directional prediction model generation unit 420 downloads 207 photographs from an arbitrary database in order to generate a directional prediction model, generates a predictive model, and evaluates the accuracy of the generated predictive model 207 A preliminary questionnaire is conducted on the photographs of the chapters, and the results of questionnaires on the direction of the spirals can be obtained in advance and compared with the results of the predictive model, and the accuracy can be evaluated.

점수 예측 모델 생성부(400) 특징 정보 산출부(300)에서 산출된 특징 정보를 머신러닝 기법으로 학습하여 상기 구도의 점수에 대한 점수 예측 모델을 생성한다. 예를 들어, 점수 예측 모델 생성부(400)는 산출된 특징 정보를 선형 회귀 모델(Linear Regression)알고리즘을 이용하여 학습하고 점수 예측 모델을 생성할 수 있다. 점수 예측 모델 생성부(400)는 점수 예측 모델을 이용하여 예측한 구도 점수와 207장의 사진에 대하여 실시된 사전 설문 조사 결과로 얻은 구도 점수의 오차가 최소가 되는 방향으로 학습하여 점수 예측 모델을 생성할 수 있다. Score Prediction Model Generation Unit 400 The feature information calculated by the feature information calculation unit 300 is learned by a machine learning technique to generate a score prediction model for the score of the composition. For example, the score prediction model generation unit 400 may learn the feature information using a linear regression algorithm and generate a score prediction model. The score prediction model generation unit 400 generates the score prediction model by learning the score of the composition predicted using the score prediction model and the score of the score obtained from the results of the preliminary survey conducted on the 207 photographs in a direction that minimizes the error of the score can do.

Figure pat00005
Figure pat00005

표2는 총 4개의 나선 방향에 대해서 점수 예측 모델에 의한 점수와 설문조사에 의한 점수의 평균 오차를 나타낸다. 상기 표2에서, f1+f2+f3(by SALICON)은 살리콘 알고리즘에 따른 점수 예측 모델의 오차, f1+f2+f3(by BMS)는 BMS 알고리즘에 따른 점수 예측 모델의 오차를 나타낸다. 살리콘 알고리즘에 기반한 점수 예측 모델이 더 우수한 예측 결과를 나타냄을 알 수 있다.Table 2 shows the scores obtained by the Score Prediction Model and the mean scores of the questionnaire surveys for four spiral directions in total. In Table 2, f1 + f2 + f3 (by SALICON) represents the error of the score prediction model according to the salicone algorithm, and f1 + f2 + f3 (by BMS) represents the error of the score prediction model according to the BMS algorithm. It can be seen that the score prediction model based on the salicone algorithm shows better prediction results.

도 2는 본 발명의 일 실시 예에 따른 특징점이 추출된 입력 이미지의 예시도 이다.2 is an exemplary view of an input image from which feature points are extracted according to an embodiment of the present invention.

특징점 추출부(100)는 입력된 이미지에서 임의의 픽셀을 지정하고, 상기 지정된 픽셀에 인접하는 픽셀들의 화소값 변화량을 고려하여 상기 지정된 픽셀을 특징점으로 추출할 수 있다. 특징점 추축부(100)가 추출하는 특징점의 개수에는 제한이 없고, 특징점인지 여부를 판단하기 위한 임의의 픽셀에 인접하는 픽셀들의 개수는 이미지 처리 장치(10)의 요구 사항에 따라 달라질 수 있다.The feature point extracting unit 100 may designate an arbitrary pixel in the input image and may extract the designated pixel as a feature point in consideration of a pixel value change amount of pixels adjacent to the designated pixel. The number of feature points extracted by the feature point pivoting unit 100 is not limited and the number of pixels adjacent to any pixel for determining whether the feature point is a feature point may vary according to the requirements of the image processing apparatus 10. [

도 3은 일 실시 예에 따른 분할된 입력 이미지상에 생성된 나선의 예시도이다.3 is an illustration of a spiral generated on a segmented input image according to one embodiment.

이미지 분할부(200)는 특징점들이 추출된 입력 이미지를 미리 결정된 분할 영역으로 반복 분할하여 분할 이미지들을 생성한다. 이미지 분할부(200)는 입력된 이미지를 황금비에 따라 반복하여 분할할 수 있고, 가로 또는 세로축에서 길이가 긴 축을 우선 분할한다.The image divider 200 repeatedly divides the extracted input image into predetermined divided regions to generate divided images. The image divider 200 can repeatedly divide the inputted image according to the golden ratio, and splits the long axis on the horizontal axis or the vertical axis first.

예를 들어, 이미지 분할부(200)는 도3에 도시된 입력 이미지의 가로축이 더 길기 때문에, 이를 1.618:1의 길이비로 분할할 수 있고, 이때 분할할 수 있는 방법은 우측 분할 이미지를 넓게 분할하는 방법 및 좌측 이미지를 넓게 분할 하는 방법을 포함한다. 이미지 분할부(200)는 초기 분할 후에 생성된 분할 이미지 중에서 좁은 영역으로 분할된 분할 이미지를 분할한다. 초기 분할 이후 두번째 분할 과정은 다음과 같다. For example, since the horizontal axis of the input image shown in FIG. 3 is longer, the image dividing unit 200 can divide the input image into a length ratio of 1.618: 1, And a method of widely dividing the left image. The image dividing unit 200 divides the divided image into a narrow region among the divided images generated after the initial division. After the initial partitioning, the second partitioning process is as follows.

이미지 분할부(200)는 좁은 영역으로 분할된 분할 이미지인 우측 분할 이미지의 세로축의 길이가 더 길기 때문에, 세로축을 1.618:1의 길이비로 분할할 수 있고, 이때 분할 방법은 상단 분할 이미지를 넓게 분할 하는 방법(1.618:1)과 하단 분할 이미지를 넓게 분할 하는 방법(1:1.618)을 포함한다. 이미지 분할부(200)가 입력된 이미지를 반복 분할하여 생성하는 분할 이미지들은 무한횟수로 분할시에 특정 점으로 수렴할 수 있다.Since the length of the vertical axis of the right divided image, which is the divided image divided into the narrow area, is long, the image dividing unit 200 can divide the vertical axis into the length ratio of 1.618: 1, (1.618: 1) and a method of broadly dividing the bottom partition image (1: 1.618). The divided images generated by repeatedly dividing the input image by the image division unit 200 may converge to a specific point at the time of division by infinite number of times.

또 다른 실시 예로, 이미지 분할부(200)가 분할한 분할 이미지들 적어도 하나의 대각선 방향의 양측 모서리를 지나고, 입력 이미지의 적어도 하나의 모서리에서 시작하는 나선이 형성될 수 있는데, 상기 분할 이미지들이 서로 황금 분할 관계에 있는 경우 상기 나선은 황금 나선으로 정의할 수 있다. 본 발명에서 황금 나선은 입력 이미지에서 시작하는 모서리의 위치 및 황금 나선이 수렴하는 픽셀의 좌표에 따라 4가지의 황금 나선 방향을 가질 수 있다.In another embodiment, a helix may be formed that passes through at least one diagonal edge of at least one of the divided images divided by the image divider 200, starting at at least one edge of the input image, In the case of a golden split relation, the above helix can be defined as a golden helix. In the present invention, the golden helix can have four golden helix directions according to the position of the corner starting from the input image and the coordinates of the pixel where the golden helix converges.

이미지 처리 장치(10)는 입력된 이미지상의 피사체가 황금 나선의 방향을 따라 배치되는 경우, 입력 이미지의 구도점수를 높게 평가할 수 있다. 황금 나선과 황금 분할에 대한 사항은 전술한 바와 같으므로 생략한다.The image processing apparatus 10 can evaluate the composition score of the input image high if the subject on the input image is arranged along the direction of the golden helix. The golden spirals and the golden partitions are the same as described above, so they are omitted.

도 4는 나선이 시작하는 입력 이미지의 모서리의 위치 및 상기 나선이 수렴하는 픽셀의 좌표에 따라 서로 다른 4가지 나선 방향의 예시도이다.4 is an illustration of four different helical directions according to the position of the edge of the input image at which the helix starts and the coordinates of the pixel where the helix converges.

나선 생성부(320)에서 생성된 나선은 전술한 바와 입력 이미지상에서 시작하는 모서리의 위치 및 나선이 수렴하는 픽셀의 좌표에 따라서 4가지 나선 방향으로 구분될 수 있다. 예를 들어, 나선이 입력 이미지의 좌측 상단의 모서리에서 시작하고, 나선이 수렴하는 픽셀의 좌표가 입력 이미지의 우측 상단에 존재하는 경우 나선 방향 1로 정의 할 수 있다.The spiral generated by the spiral generating unit 320 may be divided into four spiral directions according to the positions of the edges starting from the input image and the coordinates of the pixels where the spiral converges. For example, if the helix starts at the upper left corner of the input image, and the coordinates of the pixel where the helix converges are in the upper right corner of the input image, the helix direction 1 can be defined.

도 5는 도 1의 실시 예에서 특징 정보 산출부의 확대 블록도이다.5 is an enlarged block diagram of the feature information calculation unit in the embodiment of FIG.

특징 정보 산출부(300)는 나선 생성부(320), 제1 특성값 계산부(340), 제2 특성값 계산부(360) 및 제3 특성값 계산부(380)를 포함한다. 특징 정보 산출부(300)와 관련된 전술한 사항은 생략한다.The feature information calculating unit 300 includes a spiral generating unit 320, a first characteristic value calculating unit 340, a second characteristic value calculating unit 360, and a third characteristic value calculating unit 380. The above-described points related to the feature information calculating unit 300 will be omitted.

예를 들어, 특징 정보 산출부(300)는 입력된 이미지의 화소값들을 상기 화소값들을 나타내는 표색계와는 다른 표색계에 따른 색공간 성분값들로 변환하고, 상기 변환된 색공간 성분값들 및 상기 추출된 특징점에 기반하여 상기 입력 이미지의 구도에 관한 특징 정보를 산출한다. 본 발명에서 입력 이미지의 화소값들은 RGB 표색계에서 RGB값으로 표현이 되고, 상기 RGB 표색계와 다른 표색계는 색상의 광도 정보만을 포함하는 그레이 스케일로 마련될 수 있다.For example, the feature information calculation unit 300 may convert the pixel values of the input image into color space component values according to a color system different from the color system that represents the pixel values, And the feature information on the composition of the input image is calculated based on the extracted feature points. In the present invention, the pixel values of the input image are represented by RGB values in the RGB colorimetric system, and the colorimetric system other than the RGB colorimetric system may be provided in a gray scale including only luminous intensity information of the color.

특징 정보 산출부(300)는 입력 이미지를 그레이 스케일에 따른 샐리언시 맵으로 변환하고, 상기 변환된 샐리언시 맵에서 기 설정된 임계치(Threshold) 이상에 해당하는 픽셀의 좌표를 이용하여 제3 특성값을 계산하고, 이를 이용하여 특징 정보를 산출한다.The feature information calculating unit 300 converts the input image into a salient map according to a gray scale, and uses the coordinates of a pixel corresponding to a threshold value or more of a predetermined threshold value in the converted salient map, And calculates feature information by using this value.

도 6은 특징 정보를 산출하기 위한 제1 특성값 및 제2 특성값을 계산하는 과정을 나타내는 예시도이다.6 is an exemplary diagram illustrating a process of calculating a first characteristic value and a second characteristic value for calculating characteristic information.

제1 특성값 계산부(340)는 분할 영역별 특징점들이 상기 입력 이미지에서 추출된 전체 특징점들에서 차지하는 정도를 고려하여 제1 특성값을 계산한다.The first characteristic value calculation unit 340 calculates a first characteristic value in consideration of the degree to which the minutiae points of the respective subregions occupy all of the minutiae extracted from the input image.

제1 특성값을 계산하는 과정은 전술한 바와 같으므로 생략한다. 본 발명에서 분할 영역별 특징점들이 추출된 전체 특징점들에서 차지하는 정도는 전체 특징점의 개수에서 분할 영역별 특징점이 차지하는 개수의 비를 의미할 수 있다.The process of calculating the first characteristic value is the same as described above, and thus will not be described. In the present invention, the degree to which the minutiae of each divided region occupies the extracted minutiae points may mean the ratio of the number of minutiae occupied by the minutiae points of the minutiae in the total number of minutiae points.

제2 특성값 계산부(360)는 분할 영역별 특징점들의 평균 좌표, 상기 나선이 수렴하는 픽셀 좌표 및 상기 입력 이미지의 모서리 좌표를 고려하여 제2 특성값을 계산한다. 제2 특성값을 계산하는 과정은 전술한 바와 같으므로 생략한다.The second characteristic value calculation unit 360 calculates a second characteristic value in consideration of the average coordinates of the minutiae of each of the divided regions, the pixel coordinates of the convergence of the helix, and the corner coordinates of the input image. The process of calculating the second characteristic value is the same as described above, and thus will not be described.

도 7은 특징 정보 산출부에서 입력 이미지의 화소값들을 상기 화소값들을 나타내는 표색계와는 다른 표색계에 따른 색공간 성분값들로 변환한 결과를 나타낸다.7 shows a result of converting the pixel values of the input image into color space component values according to a color system different from the color system representing the pixel values in the feature information calculation unit.

본 발명에서 입력 이미지의 화소값들을 상기 화소값들을 나타내는 표색계와는 다른 표색계에 따른 색공간 성분값들로 변환하는 것은 샐리언시 맵을 형성하는 것으로 표현될 수 있다. 예를 들어, 특징 정보 산출부(300)는 영상의 색, 휘도, 움직임, 조화, 또는 방향 중 어느 하나의 특성을 이용하여 샐리언시 맵(중요도 지도)을 형성할 수 있다.In the present invention, converting the pixel values of the input image into color space component values according to a colorimetric system different from the colorimetric system that represents the pixel values may be expressed as forming a salient map. For example, the feature information calculating unit 300 may form a salience map (importance map) using any one of color, brightness, motion, harmony, or direction of an image.

구체적으로, 샐리언시 맵을 형성하는 과정은 상기 하나의 특성을 이용하여 저준위 특성 지도(Low-Level Feature Map)를 생성하는 단계, 상기 저준위 특성 지도를 이용하여 관심영역 지도를 계산하는 단계 및 다중 스케일 대비, Center-Surround Histogram(CSH), 또는 색채의 공간 분포 중 어느 하나의 정보를 이용하여 조건부 임의 필드(Conditional Random Field, CRF)를 설정하는 과정을 포함할 수 있다. 상기 계산으로부터 핵심적인 영역인 관심 영역을 설정하는 단계를 포함할 수 있다.Specifically, the process of forming a salient map includes: generating a low-level feature map using the one characteristic; calculating a region of interest map using the low-level characteristic map; And setting a conditional random field (CRF) using information on any one of a scale contrast, a center-surround histogram (CSH), and a spatial distribution of colors. And setting a region of interest that is a core region from the calculation.

도 8특징 정보를 산출하기 위한 제3 특성값을 계산하는 과정을 나타내는 예시도이다.FIG. 8 is a diagram illustrating a process of calculating a third characteristic value for calculating characteristic information; FIG.

제3 특성값 계산부(380)는 색공간 성분값들 중 기 설정된 임계치 이상의 성분값들을 갖는 픽셀들의 평균 좌표 및 상기 나선이 수렴하는 픽셀의 좌표를 고려하여 제3 특성값을 계산한다. 수학식 3에 의하여 제3 특성값을 계산하는 방법은 전술한 바와 같다.The third characteristic value calculation unit 380 calculates the third characteristic value in consideration of the average coordinates of the pixels having the component values equal to or greater than the predetermined threshold value among the color space component values and the coordinates of the pixel where the spiral converges. The method for calculating the third characteristic value according to Equation (3) is as described above.

도 9는 도 1의 실시 예에서 구도 분석부의 확대 블록도이다.9 is an enlarged block diagram of the composition analyzing unit in the embodiment of FIG.

구도 분석부(400)는 방향 예측 모델 생성부(420) 및 점수 예측 모델 생성부(400)를 포함한다. 예를 들어 구도 분석부(400)는 특징 정부 산출부(300)에서 산출된 특징 정보를 이용하여 상기 입력된 이미지의 구도를 분석할 수 있다. 구도 분석부(400)에서 이미지의 구도를 분석하는 구체적인 방법은 전술한 바와 같으므로 생략한다.The composition analyzing unit 400 includes a directional prediction model generation unit 420 and a scored prediction model generation unit 400. For example, the composition analyzing unit 400 may analyze the composition of the input image using the feature information calculated by the feature calculating unit 300. A specific method of analyzing the composition of the image in the composition analyzing unit 400 is as described above, and thus will be omitted.

도 10은 구도 분석부에서 분석한 이미지의 구도 방향 및 구도 점수를 나타낸다.FIG. 10 shows a composition direction and a composition score of an image analyzed by a composition analysis unit.

이미지 처리 장치(10)는 이미지를 입력 받고, 입력된 이미지의 구도를 분석한다. 이미지 처리 장치(10)가 이미지의 구도를 분석하는 것은 황금 나선 방향의 예측 및 구도 점수의 예측을 포함한다. 구도 분석부(400)가 이미지를 분석하는 구체적인 방법은 전술한 바와 같으므로 생략한다. The image processing apparatus 10 receives an image and analyzes the composition of the input image. The image processing apparatus 10 analyzes the composition of the image, including the prediction of the golden spiral direction and the estimation of the composition score. The specific method of analyzing the image by the composition analyzing unit 400 is the same as described above, and thus will not be described.

도 11은 본 발명의 일 실시 예에 따른 이미지 처리 방법의 흐름도이다. 11 is a flowchart of an image processing method according to an embodiment of the present invention.

이미지 처리 방법은 이미지 처리 장치(10)에서 시계열적으로 수행되는 하기의 단계들을 포함한다.The image processing method includes the following steps performed in the image processing apparatus 10 in a time-series manner.

S100에서, 특징점 추출부(100)는 입력 이미지로부터 픽셀 별 화소값들을 고려하여 특징점들을 추출한다. 특징점 추출부(100)는 입력된 이미지에서 임의의 픽셀을 지정하고, 상기 지정된 픽셀에 인접하는 픽셀들의 화소값 변화량을 고려하여 지정된 픽셀을 특징점으로 추출할 수 있다. 특징점 추출부(100)가 특징점을 추출하는 구체적인 방법은 전술한 바와 같으므로 생략한다.In step S100, the feature point extraction unit 100 extracts feature points by considering pixel values for each pixel from the input image. The feature point extracting unit 100 may designate an arbitrary pixel in the input image and extract a designated pixel as a feature point in consideration of a pixel value change amount of pixels adjacent to the designated pixel. The detailed method for extracting the minutiae points by the minutiae point extracting unit 100 is the same as described above, and thus will not be described.

S200에서, 이미지 분할부(200)는 특징점들이 추출된 입력 이미지를 미리 결정된 분할 영역으로 반복 분할하여 분할 이미지들을 생성한다. 이미지 분할부(200)가 입력된 이미지를 분할하는 방법은 전술한 바와 같으므로 생략한다.In S200, the image dividing unit 200 repeatedly divides the extracted input image into predetermined divided regions to generate divided images. The method of dividing the input image by the image divider 200 is the same as described above, and thus will not be described.

S300에서, 특징 정보 산출부(300)는 입력된 이미지의 화소값들을 상기 화소값들을 나타내는 표색계와는 다른 표색계에 따른 색공간 성분값들로 변환하고, 상기 변환된 색공간 성분값들 및 상기 추출된 특징점에 기반하여 상기 입력 이미지의 구도에 관한 특징 정보를 산출한다. 특징 정보 산출부(300)가 제1 특성값, 제2 특성값 및 제3 특성값을 계산하고, 계산된 특성값들을 이용하여 특징 정보를 산출하는 구체적인 방법은 전술한 바와 같으므로 생략한다.In S300, the feature information calculation unit 300 converts the pixel values of the input image into color space component values according to a color system different from the color system representing the pixel values, and outputs the converted color space component values and the extraction And the feature information on the composition of the input image is calculated based on the feature points. A specific method of calculating the first characteristic value, the second characteristic value, and the third characteristic value by the characteristic information calculation unit 300 and calculating the characteristic information using the calculated characteristic values is as described above, and thus will not be described.

S400에서, 구도 분석부(400)는 머신러닝(Machine Learning)기법으로 특징 정보 산출부(300)에서 산출된 특징 정보를 학습하여 학습 모델을 생성하고, 생성된 학습 모델을 이용하여 입력된 이미지의 구도를 분석할 수 있다. 구도 분석부가 이용하는 머신러닝 알고리즘에 대한 사항은 전술한 바와 같으므로 생략한다.In operation S400, the composition analyzing unit 400 learns the feature information calculated by the feature information calculating unit 300 using a machine learning technique to generate a learning model, and generates a learning model by using the generated learning model The composition can be analyzed. The details of the machine learning algorithm used by the composition analyzer are as described above, and thus will be omitted.

도 12는 도 11의 실시 예에서 산출하는 단계의 확대 흐름도이다.12 is an enlarged flow chart of steps calculated in the embodiment of Fig.

산출하는 단계는 특징 정보 산출부(300)에서 시계열적으로 수행되는 하기의 단계들을 포함한다.The calculating step includes the following steps performed in the feature information calculating unit 300 in a time series manner.

S320에서, 나선 생성부(320)는 분할 이미지들 내부에 형성되고, 상기 분할 이미지들 적어도 하나의 대각선 방향의 양측 모서리를 지나며, 적어도 하나의 분할 이미지에서 수렴하는 나선(Spiral)을 생성한다. 나선 생성부(320)에서 생성된 나선과 황금 나선에 대한 사항은 전술한 바와 같으므로 생략한다.At S320, the spiral generator 320 is formed inside the split images, and generates spirals that converge on at least one split image, passing through at least one diagonal edge of at least one of the split images. The spirals generated by the spiral generating unit 320 and the golden spirals are the same as described above, and thus will not be described.

S340에서, 제1 특성값 계산부(340)는 분할 영역별 특징점들이 상기 입력 이미지에서 추출된 전체 특징점들에서 차지하는 정도를 고려하여 제1 특성값을 계산한다. 제1 특성값을 계산하는 과정은 수학식 1에서 전술한 바와 같으므로 생략한다.In step S340, the first characteristic value calculation unit 340 calculates a first characteristic value in consideration of the degree to which the minutiae points of the respective subregions occupy all of the minutiae extracted from the input image. The process of calculating the first characteristic value is as described above in Equation (1) and is omitted.

S360에서, 제2 특성값 계산부(360)는 분할 영역별 특징점들의 평균 좌표, 상기 나선이 수렴하는 픽셀의 좌표 및 상기 입력 이미지의 모서리 좌표를 고려하여 제2 특성값을 계산한다. 제2 특성값을 계산하는 과정은 수학식 2에서 전술한 바와 같으므로 생략한다.In step S360, the second characteristic value calculation unit 360 calculates a second characteristic value in consideration of the average coordinates of the minutiae points of the divided areas, the coordinates of the pixels where the spiral converges, and the corner coordinates of the input image. The process of calculating the second characteristic value is as described above in Equation (2) and is omitted.

S380에서, 제3 특성값 계산부(380)는 색공간 성분값들 중에서 기 설정된 임계치 이상의 성분값들을 가지는 픽셀들의 평균 좌표 및 상기 나선이 수렴하는 픽셀의 좌표를 고려하여 제3 특성값을 계산한다. 제3 특성값을 계산하는 과정은 수학식 3에서 전술한 바와 같으므로 생략한다.In S380, the third characteristic value calculation unit 380 calculates a third characteristic value in consideration of the average coordinates of the pixels having component values of a predetermined threshold value or more among the color space component values and the coordinates of the pixel where the spiral converges . The process of calculating the third characteristic value is as described above in Equation (3) and is omitted.

도 13은 도 11의 실시 예에서 분석하는 단계의 확대 흐름도이다.13 is an enlarged flow chart of the step of analyzing in the embodiment of FIG.

분석하는 단계는 구도 분석부(400)에서 시계열적으로 수행되는 하기의 단계들을 포함한다.The analyzing step includes the following steps performed in the composition analyzing unit 400 in a time-series manner.

S420에서, 방향 예측 모델 생성부(420)는 산출된 특징 정보를 머신 학습하여 상기 구도의 방향에 대한 방향 예측 모델을 생성한다. 방향 예측 모델 생성부(420)가 사용하는 머신러닝 알고리즘과 황금 나선의 방향에 대한 사항은 전술한 바와 같으므로 생략한다.In S420, the directional prediction model generation unit 420 generates a directional prediction model for the direction of the composition by machine-learning the calculated feature information. The machine learning algorithm used by the directional prediction model generation unit 420 and the direction of the golden helix are the same as described above and are therefore omitted.

S440에서, 점수 예측 모델 생성부(440)는 산출된 특징 정보를 머신 학습하여 상기 구도의 점수에 대한 예측 모델을 생성한다. 점수 예측 모델 생성부(400)가 사용하는 머신러닝 알고리즘과 구도 점수에 대한 사항은 전술한 바와 같으므로 생략한다.In S440, the score prediction model generation unit 440 performs a machine learning on the calculated feature information to generate a prediction model for the score of the composition. The machine learning algorithm and the composition score used by the score prediction model generation unit 400 are the same as described above, and thus will not be described.

상기 설명된 본 발명의 일 실시예의 방법의 전체 또는 일부는, 컴퓨터에 의해 실행되는 프로그램 모듈과 같은 컴퓨터에 의해 실행 가능한 기록 매체의 형태(또는 컴퓨터 프로그램 제품)로 구현될 수 있다. 여기에서, 컴퓨터 판독 가능 매체는 컴퓨터 저장 매체(예를 들어, 메모리, 하드디스크, 자기/광학 매체 또는 SSD(Solid-State Drive) 등)를 포함할 수 있다. 컴퓨터 판독 가능 매체는 컴퓨터에 의해 액세스될 수 있는 임의의 가용 매체일 수 있고, 휘발성 및 비휘발성 매체, 분리형 및 비분리형 매체를 모두 포함한다.All or part of the method of an embodiment of the present invention described above can be implemented in the form of a computer-executable recording medium (or a computer program product) such as a program module executed by a computer. Here, the computer-readable medium may include computer storage media (e.g., memory, hard disk, magnetic / optical media or solid-state drives). Computer readable media can be any available media that can be accessed by a computer and includes both volatile and nonvolatile media, removable and non-removable media.

또한, 본 발명의 일 실시예에 따르는 방법의 전체 또는 일부는 컴퓨터에 의해 실행 가능한 명령어를 포함하며, 컴퓨터 프로그램은 프로세서에 의해 처리되는 프로그래밍 가능한 기계 명령어를 포함하고, 고레벨 프로그래밍 언어(High-level Programming Language), 객체 지향 프로그래밍 언어(Object-oriented Programming Language), 어셈블리 언어 또는 기계 언어 등으로 구현될 수 있다.Also, all or part of the method according to an embodiment of the present invention may include instructions executable by a computer, the computer program comprising programmable machine instructions to be processed by a processor, Language, an object-oriented programming language, an assembly language, or a machine language.

본 명세서에서의 부(means) 또는 모듈(Module)은 본 명세서에서 설명되는 각 명칭에 따른 기능과 동작을 수행할 수 있는 하드웨어를 의미할 수도 있고, 특정 기능과 동작을 수행할 수 있는 컴퓨터 프로그램 코드를 의미할 수도 있고, 또는 특정 기능과 동작을 수행시킬 수 있는 컴퓨터 프로그램 코드가 탑재된 전자적 기록 매체, 예를 들어 프로세서 또는 마이크로 프로세서를 의미할 수 있다. 다시 말해, 부(means) 또는 모듈(Module)은 본 발명의 기술적 사상을 수행하기 위한 하드웨어 및/또는 상기 하드웨어를 구동하기 위한 소프트웨어의 기능적 및/또는 구조적 결합을 의미할 수 있다. Means or module in the present specification may mean hardware capable of performing the functions and operations according to the respective names described herein and may be implemented by computer program code , Or may refer to an electronic recording medium, e.g., a processor or a microprocessor, having computer program code embodied thereon to perform particular functions and operations. In other words, a means or module may mean a functional and / or structural combination of hardware for carrying out the technical idea of the present invention and / or software for driving the hardware.

따라서 본 발명의 일 실시예에 따르는 방법은 상술한 바와 같은 컴퓨터 프로그램이 컴퓨팅 장치에 의해 실행됨으로써 구현될 수 있다. 컴퓨팅 장치는 프로세서와, 메모리와, 저장 장치와, 메모리 및 고속 확장포트에 접속하고 있는 고속 인터페이스와, 저속 버스와 저장 장치에 접속하고 있는 저속 인터페이스 중 적어도 일부를 포함할 수 있다. 이러한 성분들 각각은 다양한 버스를 이용하여 서로 접속되어 있으며, 공통 머더보드에 탑재되거나 다른 적절한 방식으로 장착될 수 있다.Thus, a method according to an embodiment of the present invention may be implemented by a computer program as described above being executed by a computing device. The computing device may include a processor, a memory, a storage device, a high-speed interface connected to the memory and a high-speed expansion port, and a low-speed interface connected to the low-speed bus and the storage device. Each of these components is connected to each other using a variety of buses and can be mounted on a common motherboard or mounted in any other suitable manner.

이상의 설명은 본 발명의 기술 사상을 예시적으로 설명한 것에 불과한 것으로서, 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자라면 본 발명의 본질적인 특성에서 벗어나지 않는 범위 내에서 다양한 수정, 변경 및 치환이 가능할 것이다. 따라서, 본 발명에 개시된 실시예 및 첨부된 도면들은 본 발명의 기술 사상을 한정하기 위한 것이 아니라 설명하기 위한 것이고, 이러한 실시예 및 첨부된 도면에 의하여 본 발명의 기술 사상의 범위가 한정되는 것은 아니다. 본 발명의 보호 범위는 아래의 청구 범위에 의하여 해석되어야 하며, 그와 동등한 범위 내에 있는 모든 기술 사상은 본 발명의 권리 범위에 포함되는 것으로 해석되어야 할 것이다.It will be apparent to those skilled in the art that various modifications, substitutions and substitutions are possible, without departing from the scope and spirit of the invention as disclosed in the accompanying claims. will be. Therefore, the embodiments disclosed in the present invention and the accompanying drawings are intended to illustrate and not to limit the technical spirit of the present invention, and the scope of the technical idea of the present invention is not limited by these embodiments and the accompanying drawings . The scope of protection of the present invention should be construed according to the following claims, and all technical ideas within the scope of equivalents should be construed as falling within the scope of the present invention.

Claims (20)

입력 이미지로부터 픽셀 별 화소값들을 고려하여 특징점들을 추출하는 단계;
상기 화소값들을 상기 화소값들을 나타내는 표색계와는 다른 표색계에 따른 색공간 성분값들로 변환하고, 상기 변환된 색공간 성분값들 및 상기 추출된 특징점들에 기반하여 상기 입력 이미지의 구도에 관한 특징 정보를 산출하는 단계; 및
상기 산출된 특징 정보를 이용하여 상기 입력 이미지의 구도를 분석하는 단계; 를 포함하는 이미지 처리 방법.
Extracting feature points from the input image in consideration of pixel-by-pixel pixel values;
The pixel values are converted into color space component values according to a colorimetric system different from the colorimetric system that represents the pixel values, and the feature relating to the composition of the input image based on the converted color space component values and the extracted feature points Calculating information; And
Analyzing a composition of the input image using the calculated feature information; / RTI >
제1항에 있어서, 상기 추출하는 단계에 이어
상기 특징점들이 추출된 입력 이미지를 미리 결정된 분할 영역으로 반복 분할하는 단계; 를 더 포함하고,
상기 분할 영역별 특징점들에 기반하여 상기 특징 정보를 산출하는 것을 특징으로 하는 이미지 처리 방법.
The method of claim 1, further comprising:
Repeatedly dividing the extracted input image into predetermined divided regions; Further comprising:
And the feature information is calculated based on the minutiae of each divided region.
제1항에 있어서, 상기 추출하는 단계는
상기 입력 이미지에서 임의의 픽셀을 지정하고, 상기 지정된 픽셀에 인접하는 픽셀들의 화소값 변화량을 고려하여 상기 지정된 픽셀을 특징점으로 추출하는 것을 특징으로 하는 이미지 처리 방법.
2. The method of claim 1, wherein the extracting comprises:
Designating an arbitrary pixel in the input image and extracting the designated pixel as a feature point in consideration of a pixel value change amount of pixels adjacent to the designated pixel.
제2항에 있어서, 상기 산출하는 단계는
상기 분할 이미지들 내부에 형성되고, 상기 분할 이미지들 적어도 하나의 대각선 방향의 양측 모서리를 지나며, 적어도 하나의 분할 이미지에서 수렴하는 나선(Spiral)을 생성하는 단계; 를 더 포함하고,
상기 생성된 나선이 수렴하는 픽셀의 좌표를 이용하여 상기 특징 정보를 산출하는 것을 특징으로 하는 이미지 처리 방법.
3. The method of claim 2, wherein the calculating step
Generating a spiral that is formed within the split images, passes through at least one diagonal edge of the split images, and converges in at least one split image; Further comprising:
And the feature information is calculated using coordinates of a pixel where the generated helix converges.
제4항에 있어서, 상기 산출하는 단계는
상기 분할 영역별 특징점들이 상기 입력 이미지에서 추출된 전체 특징점들에서 차지하는 정도를 고려하여 제1 특성값을 계산하는 단계; 를 더 포함하고,
상기 계산된 제1 특성값을 이용하여 상기 특징 정보를 산출하는 것을 특징으로 하는 이미지 처리 방법.
5. The method of claim 4, wherein the calculating step
Calculating a first characteristic value in consideration of the degree of each of the minutiae of each of the divided regions occupying the entire minutiae extracted from the input image; Further comprising:
And the feature information is calculated using the calculated first characteristic value.
제5항에 있어서, 상기 산출하는 단계는
상기 분할 영역별 특징점들의 평균 좌표, 상기 나선이 수렴하는 픽셀의 좌표 및 상기 입력 이미지의 모서리 좌표를 고려하여 제2 특성값을 계산하는 단계; 를 더 포함하고,
상기 계산된 제2 특성값을 이용하여 상기 특징 정보를 산출하는 것을 특징으로 하는 이미지 처리 방법.
6. The method of claim 5, wherein the calculating step
Calculating a second characteristic value in consideration of the average coordinates of the minutiae of the divided regions, the coordinates of the pixel where the spiral converges, and the corner coordinates of the input image; Further comprising:
And the feature information is calculated using the calculated second characteristic value.
제6항에 있어서, 상기 산출하는 단계는
상기 색공간 성분값들 중 기 설정된 임계치 이상의 성분값들을 가지는 픽셀들의 평균 좌표 및 상기 나선이 수렴하는 픽셀의 좌표를 고려하여 제3 특성값을 계산하는 단계; 를 더 포함하고,
상기 계산된 제3 특성값을 이용하여 상기 특징 정보를 산출하는 것을 특징으로 하는 이미지 처리 방법.
7. The method of claim 6, wherein the calculating step
Calculating a third characteristic value in consideration of the average coordinates of pixels having component values of a predetermined threshold value or more among the color space component values and the coordinates of the pixel where the spiral converges; Further comprising:
And the feature information is calculated using the calculated third characteristic value.
제2항에 있어서, 상기 미리 결정된 분할 영역으로 반복 분할하는 것은
상기 입력 이미지의 가로 또는 세로 길이를 계산하고, 상기 계산된 길이가 더 긴 부분을 황금비에 따라 초기 분할하며, 상기 분할된 입력 이미지 중에서 좁은 영역으로 분할된 이미지를 상기 초기 분할과 동일 방식으로 재분할하여 상기 분할 영역을 결정하고, 상기 결정된 분할 영역으로 반복 분할 하는 것을 특징으로 하는 이미지 처리 방법.
3. The method as claimed in claim 2, wherein the repeated division into the predetermined dividing area
The method includes the steps of: calculating a width or a length of the input image; dividing the calculated length into longer portions according to a golden ratio; and dividing the divided image into narrow regions in the same manner as the initial division Determining the divided region, and repeatedly dividing the divided region into the determined divided region.
제8항에 있어서, 상기 생성된 나선은
상기 입력 이미지의 적어도 하나의 모서리에서 시작하고, 상기 모서리의 위치 및 상기 나선이 수렴하는 픽셀의 좌표에 따라 서로 다른 나선 방향을 가지는 것을 특징으로 하는 이미지 처리 방법.
9. The method of claim 8,
Starting at at least one corner of the input image and having different spiral directions depending on the position of the edge and the coordinates of the pixel where the spiral converges.
제2항에 있어서, 상기 분석하는 단계는
상기 산출된 특징 정보를 머신러닝(Machine Learning)기법으로 학습하여 상기 구도의 방향에 대한 방향 예측 모델을 생성하는 단계; 를 더 포함하고,
상기 생성된 방향 예측 모델을 이용하여 상기 이미지의 구도를 분석하는 것을 특징으로 하는 이미지 처리 방법.
3. The method of claim 2,
Learning the calculated feature information using a machine learning technique to generate a directional prediction model for the direction of the composition; Further comprising:
And analyzing the composition of the image using the generated directional prediction model.
제10항에 있어서, 상기 분석하는 단계는
상기 산출된 특징 정보를 상기 머신러닝(Machine Learning)기법으로 학습하여 상기 구도의 점수에 대한 점수 예측 모델을 생성하는 단계; 를 더 포함하고,
상기 생성된 점수 예측 모델을 이용하여 상기 이미지의 구도를 분석하는 것을 특징으로 하는 이미지 처리 방법.
11. The method of claim 10, wherein analyzing
Learning the calculated feature information using the machine learning technique to generate a score prediction model for the score of the composition; Further comprising:
And analyzing a composition of the image using the generated score prediction model.
프로세서에 의해 실행되는 것을 통하여 제1항 내지 제11항 중 어느 한 항에 기재된 이미지 처리 방법을 실현하는 컴퓨터에서 판독 가능한 기록매체에 저장된 프로그램.A program stored in a computer-readable recording medium for realizing the image processing method according to any one of claims 1 to 11 through being executed by a processor. 입력 이미지로부터 픽셀 별 화소값들을 고려하여 특징점들을 추출하는 특징점 추출부;
상기 화소값들을 상기 화소값들을 나타내는 표색계와는 다른 표색계에 따른 색공간 성분값들로 변환하고, 상기 변환된 색공간 성분값들 및 상기 추출된 특징점들에 기반하여 상기 입력 이미지의 구도에 관한 특징 정보를 산출하는 특징 정보 산출부; 및
상기 산출된 특징 정보를 이용하여 상기 입력 이미지의 구도를 분석하는 구도 분석부; 를 포함하는 이미지 처리 장치.
A feature point extracting unit for extracting feature points by considering pixel values for each pixel from an input image;
The pixel values are converted into color space component values according to a colorimetric system different from the colorimetric system that represents the pixel values, and the feature relating to the composition of the input image based on the converted color space component values and the extracted feature points A feature information calculation unit for calculating information; And
A composition analyzing unit for analyzing a composition of the input image using the calculated feature information; And the image processing apparatus.
제13항에 있어서,
상기 특징점들이 추출된 입력 이미지를 미리 결정된 분할 영역으로 반복 분할하여 분할 이미지들을 생성하는 이미지 분할부; 를 더 포함하고,
상기 특징 정보 산출부는 상기 분할 영역별 특징점들에 기반하여 상기 특징 정보를 산출하는 것을 특징으로 하는 이미지 처리 장치.
14. The method of claim 13,
An image dividing unit for dividing an input image from the minutiae points into a predetermined divided region to generate divided images; Further comprising:
Wherein the feature information calculating unit calculates the feature information based on the feature points for each of the divided regions.
제13항에 있어서, 상기 특징 정보 산출부는
상기 분할 이미지들 내부에 형성되고, 상기 분할 이미지들 적어도 하나의 대각선 방향의 양측 모서리를 지나며, 적어도 하나의 분할 이미지에서 수렴하는 나선(Spiral)을 생성하는 나선 생성부; 를 더 포함하고,
상기 생성된 나선이 수렴하는 픽셀의 좌표를 이용하여 상기 특징 정보를 산출하는 것을 특징으로 하는 이미지 처리 장치.
14. The apparatus of claim 13, wherein the feature information calculation unit
A spiral generating unit formed in the divided images, the spiral generating unit generating spirals that converge in at least one divided image, passing through at least one diagonal side edge of the divided images; Further comprising:
And the feature information is calculated using the coordinates of the pixel where the generated helix converges.
제15항에 있어서, 상기 특징 정보 산출부는
상기 분할 영역별 특징점들이 상기 입력 이미지에서 추출된 전체 특징점들에서 차지하는 정도를 고려하여 제1 특성값을 계산하는 제1 특성값 계산부; 를 더 포함하고,
상기 계산된 제1 특성값을 이용하여 상기 특징 정보를 산출하는 것을 특징으로 하는 이미지 처리 장치.
16. The apparatus of claim 15, wherein the feature information calculation unit
A first characteristic value calculation unit for calculating a first characteristic value in consideration of the degree of each of the minutiae of each of the divided regions occupying all the minutiae extracted from the input image; Further comprising:
And calculates the feature information by using the calculated first characteristic value.
제16항에 있어서, 상기 특징 정보 산출부는
상기 분할 영역별 특징점들의 평균 좌표, 상기 나선이 수렴하는 픽셀의 좌표 및 상기 입력 이미지의 모서리 좌표를 고려하여 제2 특성값을 계산하는 제2 특성값 계산부; 를 더 포함하며,
상기 계산된 제2 특성값을 이용하여 상기 특징 정보를 산출하는 것을 특징으로 하는 이미지 처리 장치.
17. The apparatus of claim 16, wherein the feature information calculation unit
A second characteristic value calculation unit for calculating a second characteristic value in consideration of the average coordinates of the minutiae of each of the divided regions, the coordinates of the pixel where the helix converges, and the corner coordinates of the input image; Further comprising:
And calculates the feature information using the calculated second characteristic value.
제17항에 있어서, 상기 특징점 산출부는
상기 색공간 성분값들 중 기 설정된 임계치 이상의 성분값들을 가지는 픽셀들의 평균 좌표 및 상기 나선이 수렴하는 픽셀의 좌표를 고려하여 제3 특성값을 계산하는 제3 특성값 계산부; 를 더 포함하고,
상기 계산된 제3 특성값을 이용하여 상기 특징 정보를 산출하는 것을 특징으로 하는 이미지 처리 장치.
18. The apparatus of claim 17, wherein the feature point calculating unit
A third characteristic value calculation unit for calculating a third characteristic value in consideration of an average coordinate of pixels having component values of a predetermined threshold value or more among the color space component values and a coordinate of a pixel where the spiral converges; Further comprising:
And calculates the feature information by using the calculated third characteristic value.
제14항에 있어서, 상기 생성된 나선은
상기 입력 이미지의 적어도 하나의 모서리에서 시작하고, 상기 모서리의 위치 및 상기 나선이 수렴하는 픽셀의 좌표에 따라 서로 다른 나선 방향을 가지는 것을 특징으로 하는 이미지 처리 장치.
15. The method of claim 14,
Wherein the image processing apparatus starts at at least one corner of the input image and has different spiral directions depending on the position of the edge and the coordinates of a pixel where the spiral converges.
제14항에 있어서, 상기 구도 분석부는
상기 산출된 특징 정보를 머신러닝(Machine Learning)기법으로 학습하여 상기 구도의 방향에 대한 방향 예측 모델을 생성하는 방향 예측 모델 생성부; 및
상기 산출된 특징 정보를 상기 머신러닝(Machine Learning)기법으로 학습하여 상기 구도의 점수에 대한 점수 예측 모델을 생성하는 점수 예측 모델 생성부; 를 더 포함하고,
상기 생성된 방향 예측 모델 및 점수 예측 모델을 이용하여 상기 이미지의 구도를 분석하는 것을 특징으로 하는 이미지 처리 장치.
15. The apparatus of claim 14, wherein the composition analyzing unit
A direction prediction model generation unit that learns the calculated feature information using a machine learning technique to generate a directional prediction model for the direction of the composition; And
A score prediction model generation unit that learns the calculated feature information using the machine learning technique to generate a score prediction model for the score of the composition; Further comprising:
And analyzes the composition of the image using the generated direction prediction model and the score prediction model.
KR1020170137060A 2017-10-23 2017-10-23 Apparatus Processing Image and Method thereof KR101981284B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020170137060A KR101981284B1 (en) 2017-10-23 2017-10-23 Apparatus Processing Image and Method thereof

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020170137060A KR101981284B1 (en) 2017-10-23 2017-10-23 Apparatus Processing Image and Method thereof

Publications (2)

Publication Number Publication Date
KR20190044761A true KR20190044761A (en) 2019-05-02
KR101981284B1 KR101981284B1 (en) 2019-05-22

Family

ID=66581688

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020170137060A KR101981284B1 (en) 2017-10-23 2017-10-23 Apparatus Processing Image and Method thereof

Country Status (1)

Country Link
KR (1) KR101981284B1 (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2020235852A1 (en) * 2019-05-17 2020-11-26 삼성전자 주식회사 Device for automatically capturing photo or video about specific moment, and operation method thereof
WO2021006667A1 (en) * 2019-07-09 2021-01-14 Samsung Electronics Co., Ltd. Electronic apparatus, method of controlling the same, server, and recording medium
WO2021251615A1 (en) * 2020-06-10 2021-12-16 삼성전자주식회사 Electronic device and control method of electronic device
CN113933294A (en) * 2021-11-08 2022-01-14 中国联合网络通信集团有限公司 Concentration detection method and device

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20090117614A (en) * 2008-05-08 2009-11-12 삼성전자주식회사 A method and an apparatus for capturing a composition adjusted image
KR20110132770A (en) * 2010-06-03 2011-12-09 한국과학기술원 Forgery detection system for security printing resource based on digital forensic technology and method therefor
KR20150090456A (en) 2014-01-29 2015-08-06 강원대학교산학협력단 Method for correcting photograghy composition

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20090117614A (en) * 2008-05-08 2009-11-12 삼성전자주식회사 A method and an apparatus for capturing a composition adjusted image
KR20110132770A (en) * 2010-06-03 2011-12-09 한국과학기술원 Forgery detection system for security printing resource based on digital forensic technology and method therefor
KR20150090456A (en) 2014-01-29 2015-08-06 강원대학교산학협력단 Method for correcting photograghy composition

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2020235852A1 (en) * 2019-05-17 2020-11-26 삼성전자 주식회사 Device for automatically capturing photo or video about specific moment, and operation method thereof
US11977981B2 (en) 2019-05-17 2024-05-07 Samsung Electronics Co., Ltd. Device for automatically capturing photo or video about specific moment, and operation method thereof
WO2021006667A1 (en) * 2019-07-09 2021-01-14 Samsung Electronics Co., Ltd. Electronic apparatus, method of controlling the same, server, and recording medium
WO2021251615A1 (en) * 2020-06-10 2021-12-16 삼성전자주식회사 Electronic device and control method of electronic device
US12003881B2 (en) 2020-06-10 2024-06-04 Samsung Electronics Co., Ltd. Electronic device and control method of electronic device
CN113933294A (en) * 2021-11-08 2022-01-14 中国联合网络通信集团有限公司 Concentration detection method and device
CN113933294B (en) * 2021-11-08 2023-07-18 中国联合网络通信集团有限公司 Concentration detection method and device

Also Published As

Publication number Publication date
KR101981284B1 (en) 2019-05-22

Similar Documents

Publication Publication Date Title
CN108121986B (en) Object detection method and device, computer device and computer readable storage medium
US10762608B2 (en) Sky editing based on image composition
CN111199531B (en) Interactive data expansion method based on Poisson image fusion and image stylization
US10254845B2 (en) Hand gesture recognition for cursor control
CN109918969B (en) Face detection method and device, computer device and computer readable storage medium
KR101981284B1 (en) Apparatus Processing Image and Method thereof
US10019823B2 (en) Combined composition and change-based models for image cropping
CN105184763B (en) Image processing method and device
US8718365B1 (en) Text recognition for textually sparse images
US11853892B2 (en) Learning to segment via cut-and-paste
CN111079507B (en) Behavior recognition method and device, computer device and readable storage medium
WO2023050651A1 (en) Semantic image segmentation method and apparatus, and device and storage medium
CN113469092A (en) Character recognition model generation method and device, computer equipment and storage medium
Obeso et al. Saliency-based selection of visual content for deep convolutional neural networks: application to architectural style classification
KR101833943B1 (en) Method and system for extracting and searching highlight image
US11055526B2 (en) Method, system and apparatus for processing a page of a document
Khoreva et al. Improved image boundaries for better video segmentation
KR20140138046A (en) Method and device for processing a picture
CN115272741A (en) Detection method of slender flexible object, terminal equipment and storage medium
KR20150094108A (en) Method for generating saliency map based background location and medium for recording the same
Alsmirat et al. Building an image set for modeling image re-targeting using deep learning
CN112634143A (en) Image color correction model training method and device and electronic equipment
CN115984583B (en) Data processing method, apparatus, computer device, storage medium, and program product
RU2541132C1 (en) Automatic sketch generation method and system therefor
JP7335204B2 (en) Image processing device, image processing method and image processing program

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant