KR20190044761A - Apparatus Processing Image and Method thereof - Google Patents
Apparatus Processing Image and Method thereof Download PDFInfo
- Publication number
- KR20190044761A KR20190044761A KR1020170137060A KR20170137060A KR20190044761A KR 20190044761 A KR20190044761 A KR 20190044761A KR 1020170137060 A KR1020170137060 A KR 1020170137060A KR 20170137060 A KR20170137060 A KR 20170137060A KR 20190044761 A KR20190044761 A KR 20190044761A
- Authority
- KR
- South Korea
- Prior art keywords
- pixel
- input image
- feature information
- image
- composition
- Prior art date
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/25—Determination of region of interest [ROI] or a volume of interest [VOI]
-
- G06K9/3233—
-
- G06K9/46—
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/90—Determination of colour characteristics
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20084—Artificial neural networks [ANN]
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Multimedia (AREA)
- Image Analysis (AREA)
Abstract
Description
본 발명은 이미지를 처리하는 장치 및 방법에 관한 것이다. 보다 상세하게는, 입력된 이미지의 구도를 분석하는 이미지 처리 장치 및 방법에 관한 것이다.The present invention relates to an apparatus and method for processing an image. More particularly, the present invention relates to an image processing apparatus and method for analyzing a composition of an input image.
최근 디지털 카메라의 기술이 발전함에 따라, 누구나 손쉽게 카메라 기능이 포함된 휴대 기기를 이용하여 사진 촬영이 가능하게 되었으며, 사진 촬영을 위하여 별도로 카메라가 필요하였던 과거와 달리, 카메라 기능이 탑재된 휴대기기가 보편화되어 사진을 촬영 인구는 급격하게 증가하고 있다.As the technology of the digital camera has recently developed, anyone can easily take a picture by using a portable device including a camera function. Unlike the past where a separate camera was required for photographing, a portable device with a camera function The population that has become universalized and taking pictures is growing rapidly.
하지만, 사진 촬영 기법을 숙달하기는 어렵기 때문에 비전문가인 일반인들도 전문가의 도움이 없이도, 고품질의 사진을 얻을 수 있도록 다양한 기술이 개발되고 있다. 고품질의 사진을 위한 일 요소로서 사진의 구도는 매우 중요하나, 그 중요성에 비해 일반인들의 사진의 구도에 대한 배경지식은 부족한 경우가 많다. 특히, 사진의 구도 중에서도 황금비에 따른 구도에 대한 연구는 많이 진행되지 않고 있다. However, it is difficult to master photographic techniques, so a variety of techniques are being developed for non-specialists, such as ordinary people, to obtain high-quality photographs without the help of specialists. The composition of the picture as a factor for high quality photography is very important, but the background of the picture composition of the general public is often insufficient compared to its importance. Especially, there is not much research on the composition according to the golden ratio among the composition of the photograph.
황금 비는 자연 속에서도 쉽게 찾아 볼 수 있으며, 일반인들은 황금비의 구조를 가지는 건축물 또는 자연물을 보았을 때 가장 조화로움을 느낀다는 사실은 과학적으로 증명 되어 있다. 또한 사진 촬영에 있어서도, 황금비의 구도를 가지는 사진은 보기에 가장 조화로움을 느끼게 한다.It is scientifically proven that golden rain can be easily found in nature, and that most people feel the harmony when they see structures or natural objects with a golden ratio structure. Also, in photographing, a photograph having a composition of golden ratio makes the most harmonious appearance.
하지만, 황금비의 구도를 잡는 것은 전문가가 아닌 일반 사용자에게는 어려운 일이며, 다양한 피사체들이 포함되는 사진에서 일반 사용자가 황금비에 따른 구도를 일일이 잡아서 촬영하기는 용이하지 않다. However, it is difficult for the general user to frame the golden ratio, and it is not easy for the general user to capture the composition according to the golden ratio in the photographs containing various subjects.
따라서, 일반 사용자들이 전문가들의 도움이 없이도, 좋은 품질의 사진을 손쉽게 찍기 위한 기술 개발이 요구되고 있다.Therefore, it is required that the general user develops a technique for easily taking good quality photographs without the help of experts.
본 발명은 상기한 문제점을 해결하기 위하여 안출된 것으로서, 입력된 이미지의 구도를 자동으로 분석하는 이미지 처리 장치를 개시한다. 특히 입력된 이미지의 특징점을 추출하고 상기 이미지의 화소값들을 상기 화소값들을 나타내는 표색계와는 다른 표색계의 색공간 성분값들로 변환하여 이미지의 구도를 자동으로 분석하는 이미지 처리 장치를 개시한다. 또한, 이미지의 구도를 분석하는 이미지 처리 방법을 개시한다.Disclosure of Invention Technical Problem [8] The present invention has been made to solve the above problems, and it is an object of the present invention to provide an image processing apparatus for automatically analyzing a composition of an input image. In particular, the present invention discloses an image processing apparatus that extracts feature points of an input image and converts pixel values of the image into color space component values of a colorimetric system different from a colorimetric system that represents the pixel values, thereby automatically analyzing a composition of an image. Also disclosed is an image processing method for analyzing a composition of an image.
본 발명은 상기한 목적을 달성하기 위해 안출된 것으로서, 본 발명의 이미지 처리 장치는 입력 이미지로부터 픽셀 별 화소값들을 고려하여 특징점들을 추출하는 특징점 추출부; 상기 이미지의 화소값들을 상기 화소값들을 나타내는 표색계와는 다른 표색계에 따른 색공간 성분값들로 변환하고, 상기 변환된 색공간 성분값들 및 상기 추출된 특징점에 기반하여 상기 입력 이미지의 구도에 관한 특징 정보를 산출하는 특징 정보 산출부; 및 상기 산출된 특징 정보를 이용하여 상기 입력된 이미지의 구도를 분석하는 구도 분석부; 를 포함한다.According to an aspect of the present invention, there is provided an image processing apparatus including a feature point extracting unit for extracting feature points by considering pixel values for each pixel from an input image; The pixel values of the image are converted into color space component values according to a colorimetric system different from that of the colorimetric system that represents the pixel values and the color space component values of the color space component values corresponding to the composition of the input image A feature information calculation unit for calculating feature information; And a composition analyzer for analyzing a composition of the input image using the calculated feature information; .
본 발명에서 이미지 처리 장치는 상기 특징점들이 추출된 입력 이미지를 미리 결정된 분할 영역으로 반복 분할하여 분할 이미지들을 생성하는 이미지 분할부; 를 더 포함하고, 상기 특징 정보 산출부는 상기 분할 영역별 특징점들에 기반하여 상기 특징 정보를 산출할 수 있다.The image processing apparatus according to the present invention includes: an image division unit which repeatedly divides an input image from which the minutiae points are extracted into a predetermined divided region to generate divided images; And the feature information calculating unit may calculate the feature information based on the minutiae for each of the divided regions.
본 발명에서 상기 특징점 추출부는 상기 입력된 이미지에서 임의의 픽셀을 지정하고, 상기 지정된 픽셀에 인접하는 픽셀들의 화소값 변화량을 고려하여 상기 지정된 픽셀을 특징점으로 추출할 수 있다.In the present invention, the feature point extracting unit may designate an arbitrary pixel in the input image, and may extract the designated pixel as a feature point in consideration of a pixel value change amount of pixels adjacent to the designated pixel.
상기 특징 정보 산출부는 상기 분할 이미지들 내부에 형성되고, 상기 분할 이미지들 적어도 하나의 대각선 방향의 양측 모서리를 지나며, 적어도 하나의 분할 이미지에서 수렴하는 나선(Spiral)을 생성하는 나선 생성부; 를 더 포함하고, 상기 생성된 나선이 수렴하는 픽셀의 좌표를 이용하여 상기 특징 정보를 산출할 수 있다.The feature information calculating unit may include a spiral generating unit formed within the divided images, the spiral generating unit generating spirals converging on at least one divided image, the divided images passing through at least one diagonal side edge of the divided images; And the feature information can be calculated using the coordinates of the pixel where the generated helix converges.
본 발명에서 상기 특징 정보 산출부는 상기 분할 영역별 특징점들이 상기 입력 이미지에서 추출된 전체 특징점들에서 차지하는 정도를 고려하여 제1 특성값을 계산하는 제1 특성값 계산부; 를 더 포함하고, 상기 계산된 제1 특성값을 이용하여 상기 특징 정보를 산출할 수 있다. In the present invention, the feature information calculation unit may include a first feature value calculation unit for calculating a first feature value in consideration of the degree of feature points of the divided regions in all feature points extracted from the input image; And the feature information may be calculated using the calculated first characteristic value.
본 발명에서 상기 특징 정보 산출부는 상기 분할 영역별 특징점들의 평균 좌표, 상기 나선이 수렴하는 픽셀의 좌표 및 상기 입력 이미지의 모서리 좌표를 고려하여 제2 특성값을 계산하는 제2 특성값 계산부; 를 더 포함하며, 상기 계산된 제2 특성값을 이용하여 상기 특징 정보를 산출할 수 있다.In the present invention, the feature information calculation unit may include a second feature value calculation unit for calculating a second feature value in consideration of the mean coordinates of the feature points for each of the divided regions, the coordinates of the pixels where the helix converges, and the corner coordinates of the input image; And the feature information may be calculated using the calculated second characteristic value.
상기 특징점 산출부는 상기 색공간 성분값들 중 기 설정된 임계치 이상의 성분값들을 가지는 픽셀들의 평균 좌표 및 상기 나선이 수렴하는 픽셀의 좌표를 고려하여 제3 특성값을 계산하는 제3 특성값 계산부; 를 더 포함하고, 상기 계산된 제3 특성값을 이용하여 상기 특징 정보를 산출할 수 있다.Wherein the feature point calculating unit calculates a third feature value by taking into consideration the average coordinates of pixels having component values of a predetermined threshold value or more among the color space component values and the coordinates of the pixel where the helix converges; And the feature information may be calculated using the calculated third characteristic value.
상기 미리 결정된 분할 영역으로 반복 분할하는 것은 상기 입력 이미지의 가로 또는 세로 길이를 계산하고, 상기 계산된 길이가 더 긴 부분을 황금비에 따라 초기 분할하며, 상기 분할된 입력 이미지 중에서 좁은 영역으로 분할된 이미지를 상기 초기 분할과 동일 방식으로 재분할하여 상기 분할 영역을 결정하고, 상기 결정된 분할 영역으로 반복 분할 하도록 마련될 수 있다.Wherein the step of repeatedly dividing the image into the predetermined divided region includes calculating a width or a length of the input image and initially dividing the calculated longer length according to a golden ratio, May be re-divided in the same manner as the initial division to determine the divided region, and may be repeatedly divided into the determined divided region.
상기 생성된 나선은 상기 입력 이미지의 적어도 하나의 모서리에서 시작하고, 상기 모서리의 위치 및 상기 나선이 수렴하는 픽셀의 좌표에 따라 서로 다른 나선 방향을 가지도록 마련될 수 있다. The generated helix may start at at least one corner of the input image and be arranged to have different helix directions depending on the position of the edge and the coordinates of the pixel where the helix converges.
상기 구도 분석부는 상기 산출된 특징 정보를 머신러닝(Machine Learning)기법으로 학습하여 상기 구도의 방향에 대한 방향 예측 모델을 생성하는 방향 예측 모델 생성부; 를 더 포함하고, 상기 생성된 방향 예측 모델을 이용하여 상기 이미지의 구도를 분석할 수 있다. The composition analyzing unit may include a directional prediction model generating unit that learns the calculated feature information using a machine learning technique to generate a directional prediction model for the direction of the composition; And the composition of the image can be analyzed using the generated directional prediction model.
상기 구도 분석부는 상기 산출된 특징 정보를 상기 머신러닝(Machine Learning)기법으로 학습하여 상기 구도의 점수에 대한 점수 예측 모델을 생성하는 점수 예측 모델 생성부; 를 더 포함하고, 상기 생성된 점수 예측 모델을 이용하여 상기 이미지의 구도를 분석할 수 있다.The composition analyzing unit may include a score prediction model generation unit for learning the calculated feature information using the machine learning technique to generate a score prediction model for the score of the composition; And the composition of the image can be analyzed using the generated score prediction model.
또한, 상기한 목적을 달성하기 위하여 본 발명의 이미지 처리 방법은 입력 이미지로부터 픽셀 별 화소값들을 고려하여 특징점들을 추출하는 단계; 상기 이미지의 화소값들을 상기 화소값들을 나타내는 표색계와는 다른 표색계에 따른 색공간 성분값들로 변환하고, 상기 변환된 색공간 성분값들 및 상기 추출된 특징점에 기반하여 상기 입력 이미지의 구도에 관한 특징 정보를 산출하는 단계; 및 상기 산출된 특징 정보를 이용하여 상기 입력된 이미지의 구도를 분석하는 단계; 를 포함한다. According to another aspect of the present invention, there is provided an image processing method comprising the steps of: extracting feature points by taking pixel values of an input image into consideration; The pixel values of the image are converted into color space component values according to a colorimetric system different from that of the colorimetric system that represents the pixel values and the color space component values of the color space component values corresponding to the composition of the input image Calculating feature information; Analyzing a composition of the input image using the calculated feature information; .
본 발명에서 이미지 처리 방법은 상기 추출하는 단계에 이어 상기 특징점들이 추출된 입력 이미지를 미리 결정된 분할 영역으로 반복 분할하는 단계; 를 더 포함하고, 상기 분할 영역별 특징점들에 기반하여 상기 특징 정보를 산출할 수 있다. The image processing method according to the present invention may further include the steps of: repeatedly dividing the input image from the extracted feature points into a predetermined divided region; And the feature information may be calculated based on the minutiae of the divided regions.
본 발명에서 상기 추출하는 단계는 상기 입력된 이미지에서 임의의 픽셀을 지정하고, 상기 지정된 픽셀에 인접하는 픽셀들의 화소값 변화량을 고려하여 상기 지정된 픽셀을 특징점으로 추출할 수 있다.In the present invention, the extracting step may designate an arbitrary pixel in the input image, and may extract the designated pixel as a feature point in consideration of a pixel value change amount of pixels adjacent to the designated pixel.
본 발명에서 상기 산출하는 단계는 상기 분할 이미지들 내부에 형성되고, 상기 분할 이미지들 적어도 하나의 대각선 방향의 양측 모서리를 지나며, 적어도 하나의 분할 이미지에서 수렴하는 나선(Spiral)을 생성하는 단계; 를 더 포함하고, 상기 생성된 나선이 수렴하는 픽셀의 좌표를 이용하여 상기 특징 정보를 산출할 수 있다.In the present invention, the calculating step includes the steps of: generating a spiral formed inside the divided images, converging on at least one divided image, passing through at least one diagonal corner of the divided images; And the feature information can be calculated using the coordinates of the pixel where the generated helix converges.
상기 산출하는 단계는 상기 분할 영역별 특징점들이 상기 입력 이미지에서 추출된 전체 특징점들에서 차지하는 정도를 고려하여 제1 특성값을 계산하는 단계; 를 더 포함하고, 상기 계산된 제1 특성값을 이용하여 상기 특징 정보를 산출할 수 있다. Calculating the first characteristic value in consideration of the degree of the feature points of the divided regions in all the feature points extracted from the input image; And the feature information may be calculated using the calculated first characteristic value.
상기 산출하는 단계는 상기 분할 영역별 특징점들의 평균 좌표, 상기 나선이 수렴하는 픽셀의 좌표 및 상기 입력 이미지의 모서리 좌표를 고려하여 제2 특성값을 계산하는 단계; 를 더 포함하고, 상기 계산된 제2 특성값을 이용하여 상기 특징 정보를 산출할 수 있다.Calculating the second characteristic value in consideration of the average coordinates of the minutiae of the divided regions, the coordinates of the pixel where the spiral converges, and the corner coordinates of the input image; And the feature information may be calculated using the calculated second characteristic value.
상기 산출하는 단계는 상기 색공간 성분값들 중 기 설정된 임계치 이상의 성분값들을 가지는 픽셀들의 평균 좌표 및 상기 나선이 수렴하는 픽셀의 좌표를 고려하여 제3 특성값을 계산하는 단계; 를 더 포함하고, 상기 계산된 제3 특성값을 이용하여 상기 특징 정보를 산출할 수 있다.Calculating the third characteristic value taking into consideration the average coordinates of the pixels having component values of a predetermined threshold value or more among the color space component values and the coordinates of the pixel where the spiral converges; And the feature information may be calculated using the calculated third characteristic value.
상기 미리 결정된 분할 영역으로 반복 분할하는 것은 상기 입력 이미지의 가로 또는 세로 길이를 계산하고, 상기 계산된 길이가 더 긴 부분을 황금비에 따라 초기 분할하며, 상기 분할된 입력 이미지 중에서 좁은 영역으로 분할된 이미지를 상기 초기 분할과 동일 방식으로 재분할하여 상기 분할 영역을 결정하고, 상기 결정된 분할 영역으로 반복 분할 하도록 마련될 수 있다.Wherein the step of repeatedly dividing the image into the predetermined divided region includes calculating a width or a length of the input image and initially dividing the calculated longer length according to a golden ratio, May be re-divided in the same manner as the initial division to determine the divided region, and may be repeatedly divided into the determined divided region.
상기 분석하는 단계는 상기 산출된 특징 정보를 머신러닝(Machine Learning)기법으로 학습하여 상기 구도의 방향에 대한 방향 예측 모델을 생성하는 단계; 를 더 포함하고, 상기 생성된 방향 예측 모델을 이용하여 상기 이미지의 구도를 분석할 수 있다.Wherein the analyzing step comprises: learning the calculated feature information using a machine learning technique to generate a directional prediction model for the direction of the composition; And the composition of the image can be analyzed using the generated directional prediction model.
본 발명에서 상기 분석하는 단계는 상기 산출된 특징 정보를 상기 머신러닝(Machine Learning)기법으로 학습하여 상기 구도의 점수에 대한 점수 예측 모델을 생성하는 단계; 를 더 포함하고, 상기 생성된 점수 예측 모델을 이용하여 상기 이미지의 구도를 분석할 수 있다.According to an embodiment of the present invention, the analyzing step may include: learning the calculated feature information using a machine learning technique to generate a score prediction model for a score of the composition; And the composition of the image can be analyzed using the generated score prediction model.
또한 본 발명은 컴퓨터에서 상기한 이미지 처리 방법을 실행시키기 위한 컴퓨터에서 판독 가능한 기록매체에 저장된 컴퓨터 프로그램을 개시한다.The present invention also discloses a computer program stored in a computer-readable recording medium for executing the above-described image processing method in a computer.
본 발명에 따르면, 입력된 이미지의 구도를 자동을 분석할 수 있는 잇점이 있다. According to the present invention, it is possible to automatically analyze the composition of an input image.
특히, 황금비 구도의 방향과 점수를 자동으로 분석할 수 있는 잇점이 있다.In particular, it has the advantage of automatically analyzing the direction and score of the golden ratio composition.
도 1은 본 발명의 일 실시 예에 따른 이미지 처리 장치의 블록도이다.
도 2는 본 발명의 일 실시 예에 따른 특징점이 추출된 입력 이미지의 예시도 이다.
도 3은 일 실시 예에 따른 분할된 입력 이미지상에 생성된 나선의 예시도이다.
도 4는 나선이 시작하는 입력 이미지의 모서리의 위치 및 상기 나선이 수렴하는 픽셀의 좌표에 따라 서로 다른 4가지 나선 방향의 예시도이다.
도 5는 도 1의 실시 예에서 특징 정보 산출부의 확대 블록도이다.
도 6은 특징 정보를 산출하기 위한 제1 특성값 및 제2 특성값을 계산하는 과정을 나타내는 예시도이다.
도 7은 특징 정보 산출부에서 입력 이미지의 화소값들을 상기 화소값들을 나타내는 표색계와는 다른 표색계에 따른 색공간 성분값들로 변환한 결과를 나타낸다.
도 8은 특징 정보를 산출하기 위한 제3 특성값을 계산하는 과정을 나타내는 예시도이다.
도 9는 도 1의 실시 예에서 구도 분석부의 확대 블록도이다.
도 10은 구도 분석부에서 분석한 이미지의 구도 방향 및 구도 점수를 나타낸다.
도 11은 본 발명의 일 실시 예에 따른 이미지 처리 방법의 흐름도이다.
도 12는 도 11의 실시 예에서 산출하는 단계의 확대 흐름도이다.
도 13은 도 11의 실시 예에서 분석하는 단계의 확대 흐름도이다.1 is a block diagram of an image processing apparatus according to an embodiment of the present invention.
2 is an exemplary view of an input image from which feature points are extracted according to an embodiment of the present invention.
3 is an illustration of a spiral generated on a segmented input image according to one embodiment.
4 is an illustration of four different helical directions according to the position of the edge of the input image at which the helix starts and the coordinates of the pixel where the helix converges.
5 is an enlarged block diagram of the feature information calculation unit in the embodiment of FIG.
6 is an exemplary diagram illustrating a process of calculating a first characteristic value and a second characteristic value for calculating characteristic information.
7 shows a result of converting the pixel values of the input image into color space component values according to a color system different from the color system representing the pixel values in the feature information calculation unit.
8 is an exemplary diagram illustrating a process of calculating a third characteristic value for calculating characteristic information.
9 is an enlarged block diagram of the composition analyzing unit in the embodiment of FIG.
FIG. 10 shows a composition direction and a composition score of an image analyzed by a composition analysis unit.
11 is a flowchart of an image processing method according to an embodiment of the present invention.
12 is an enlarged flow chart of steps calculated in the embodiment of Fig.
13 is an enlarged flow chart of the step of analyzing in the embodiment of FIG.
이하, 본 발명의 일 실시 예를 첨부된 도면들을 참조하여 상세히 설명한다.Hereinafter, embodiments of the present invention will be described in detail with reference to the accompanying drawings.
첨부 도면을 참조하여 설명함에 있어, 동일하거나 대응하는 구성 요소는 동일한 도면번호를 부여하고 이에 대한 중복되는 설명은 생략하기로 한다.DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS In the following description with reference to the accompanying drawings, the same or corresponding components are denoted by the same reference numerals, and a duplicate description thereof will be omitted.
또한 본 발명을 설명함에 있어, 관련된 공지 구성 또는 기능에 대한 구체적인 설명이 본 발명의 요지를 흐릴 수 있다고 판단되는 경우에는 그 상세한 설명은 생략할 수 있다. In the following description of the present invention, a detailed description of known functions and configurations incorporated herein will be omitted when it may make the subject matter of the present invention rather unclear.
본 출원에서 사용한 용어는 단지 특정한 실시 예를 설명하기 위해 사용된 것으로, 용어를 한정하려는 의도가 아니다. 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. The terminology used herein is for the purpose of describing particular embodiments only and is not intended to limit the scope. The singular expressions include plural expressions unless the context clearly dictates otherwise.
이하에서 설명하는 각 단계는 하나 또는 여러 개의 소프트웨어 모듈로도 구비가 되거나 또는 각 기능을 담당하는 하드웨어로도 구현이 가능하며, 소프트웨어와 하드웨어가 복합된 형태로도 가능하다. 명세서 전체에서, 어떤 부분이 어떤 구성요소를 "포함"한다고 할 때, 이는 특별히 반대되는 기재가 없는 한 다른 구성요소를 제외하는 것이 아니라, 다른 구성요소를 더 포함할 수 있는 것을 의미한다. 또한, 명세서에 기재된 "...부", "...기", "모듈", "블록" 등의 용어는 적어도 하나의 기능이나 동작을 처리하는 단위를 의미하며, 이는 하드웨어나 소프트웨어 또는 하드웨어 및 소프트웨어의 결합으로 구현될 수 있다. 각 용어의 구체적인 의미와 예시는 각 도면의 순서에 따라 이하 설명 한다. 이하에서는 본 발명의 실시예에 따른 이미지 처리 장치의 구성을 관련된 도면을 참조하여 상세히 설명한다.Each of the steps described below may be implemented by one or a plurality of software modules, or hardware that is responsible for each function, or a combination of software and hardware. Throughout the specification, when an element is referred to as " including " an element, it does not exclude other elements unless specifically stated to the contrary. The terms "part", "unit", "module", "block", and the like described in the specification mean units for processing at least one function or operation, And a combination of software. Specific meanings and examples of the terms will be described below in accordance with the order of each drawing. Hereinafter, the configuration of an image processing apparatus according to an embodiment of the present invention will be described in detail with reference to related drawings.
도 1은 본 발명의 일 실시 예에 따른 이미지 처리 장치(10)의 블록도이다. 1 is a block diagram of an
이미지 처리 장치(10)는 특징점 추출부(100), 이미지 분할부(200), 특징 정보 산출부(300) 및 구도 분석부(400)를 포함한다.The
이미지 처리 장치(10)는 이미지를 입력 받아 자동으로 이미지의 구도를 분석할 수 있다. 본 발명에서 이미지의 구도는 구도의 방향 및 구도 점수에 대한 정보를 포함한다. 또한, 본 발명에서 이미지의 구도는 이미지에 포함된 피사체들의 배치 구성에 대한 정보를 의미하고, 원 구도, 삼각 구도, 대각선 구도, 항금 분할 구도, 방사선 구도, S자 구도, 평행선 구도, 삼등분 구도, 바둑판 구도, 수직 및 수평 구도 및 사용자가 설정한 기타 구도 등을 포함할 수 있다.The
이미지 처리 장치(10)는 이미지를 입력 받고, 특징점을 추출하며, 상기 특징점이 추출된 상기 입력된 이미지를 미리 결정된 분할 영역으로 반복 분할하여 분할 이미지들을 생성하고, 상기 분할 이미지들을 이용하여 특징 정보를 산출하여 이미지를 분석한다. 이미지 처리 장치(10)는 휴대용 기기 등에 구현되어 입력 이미지의 구도를 분석할 수도 있지만, 특징 정보 산출부(300) 또는 구도 분석부(400) 중 적어도 하나의 장치가 별도의 서버 등에서 구현되어, 이미지를 처리하는 시스템의 형태로도 구현될 수 있다.The
특징점 추출부(100)는 입력 이미지로부터 픽셀 별 화소값들을 고려하여 특징점들을 추출한다. 도 2를 참조하여 설명한다.The feature
예를 들어, 특징점 추출부(100)는 입력된 이미지에서 임의의 픽셀을 지정하고, 상기 지정된 픽셀에 인접하는 픽셀들의 화소값 변화량을 고려하여 상기 지정된 픽셀을 특징점으로 추출할 수 있다. 본 발명에서, 특징점 추출부(100)가 특징점을 추출함에 있어 FAST 특징점(keypoint) 디텍터와 Visual Descriptor BRIEF(Binary Robust Independent Elementary Feature)에 기반한 ORB(Oriented Fast and Rotated BRIEF) Detector를 사용할 수 있다. 특징점 추출부(100)는 입력된 이미지 상에서 픽셀 별 화소값들을 고려하여 특징점을 추출할 수 있고, 도 2 는 입력 이미지상에서 피사체의 경계영역에 집중되어 추출된 특징점을 나타낸다.For example, the feature
구체적으로, 특징점 추출부(100)는 입력된 이미지 상의 어떤 임의의 픽셀 p가 특징점에 해당하는지를 판단하기 위하여, 임의의 픽셀 p를 중심으로 하는 반지름 3인 원 상의 16개 픽셀들의 화소값을 이용하여 상기 임의의 픽셀이 특징점인지 여부를 판단할 수 있다. 특징점 추출부(100)는 임의의 픽셀 p의 화소값보다 밝은 화소값들이 n개 이상 연속되거나, 임의의 픽셀 p의 화소값보다 어두운 화소값들이 n개 이상 연속 되는 경우 특징점으로 판단한다. 상기 FAST 알고리즘에서 n값은 이미지 처리 장치(10)의 요구 성능 사항에 따라 다르게 설정될 수 있다. Specifically, in order to determine which arbitrary pixel p on the input image corresponds to the feature point, the feature
이미지 분할부(200)는 특징점들이 추출된 입력 이미지를 미리 결정된 분할 영역으로 반복 분할하여 분할 이미지들을 생성한다. 도 3을 참조하여 설명한다.The
예를 들어, 이미지 분할부(200)가 미리 결정된 분할 영역으로 반복 분할하는 것은 입력 이미지의 가로 또는 세로 길이를 계산하고, 상기 계산된 길이가 더 긴 부분을 황금비에 따라 초기 분할하며, 상기 초기 분할된 입력 이미지 중에서 좁은 영역으로 분할된 이미지를 상기 초기 분할과 동일한 방식으로 재분할 하는 것을 의미한다.For example, the
예를 들어, 이미지 분할부(200)는 도 3에 도시된 바와 같이, 가로 길이가 더 긴 입력 이미지의 가로축을 1.618:1비로 초기 분할하여 P1 및 Q1로 표기되는(P1 및 Q1의 분할 영역을 가지는) 분할 이미지들을 생성한다. 상기 생성된 분할 이미지들 중에서 분할 이미지(Q1)는 분할 이미지(P1)보다 좁은 영역으로 분할된 분할 이미지를 의미한다. 이미지 분할부(200)는 세로의 길이가 더 긴 분할 이미지(Q1)의 세로축을 1.618:1의 비로 재분할하여 P2 및 Q2로 표기되는(P2 및 Q2의 분할 영역을 가지는) 분할 이미지를 생성할 수 있다. 상기 생성된 분할 이미지들 중에서 분할 이미지(Q2)는 분할 이미지(P2)보다 좁은 영역으로 분할된 분할 이미지를 의미한다.For example, as shown in FIG. 3, the
본 발명에서, 기 설정된 분할 영역들에 포함된 가로 또는 세로의 길이 중 적어도 하나는 서로 다른 분할 영역들 중에서 적어도 하나의 가로 또는 세로의 길이와 황금비를 이룬다. 따라서, 이미지 분할부(200)는 입력된 이미지를 황금 분할하여 분할 이미지들을 생성할 수 있다. 이미지 분할부(200)가 미리 결정된 분할 영역으로 입력된 이미지를 반복 분할하는 경우, 상기 분할 이미지는 무한소로 근접하고, 이는 점으로 표현될 수 있으며, 이는 나선의 중심에 대응될 수 있다.In the present invention, at least one of the horizontal or vertical lengths included in the predetermined divided areas forms a golden ratio with at least one horizontal or vertical length among the different divided areas. Accordingly, the
또 다른 실시 예로, 이미지 분할부(200)가 분할한 분할 이미지들 적어도 하나의 대각선 방향의 양측 모서리를 지나고, 적어도 하나의 분할 이미지상에서 수렴하는 나선이 형성될 수 있는데, 상기 분할 이미지들은 서로 황금 분할 관계에 있는 경우, 상기 나선을 황금 나선으로 정의할 수 있다. 상기 황금 나선이 수렴하는 상기 분할 이미지상의 픽셀을 나선의 중심으로 정의할 수 있고, 이미지 처리 장치(10)는 황금 나선의 중심에 피사체가 위치하는 입력된 이미지의 구도 점수를 높게 측정할 수 있다. 도 4를 참조하여 설명한다.In another embodiment, a spiral may be formed that passes through at least one diagonal edge of at least one of the split images divided by the
예를 들어, 상기 생성된 나선은 상기 입력 이미지의 적어도 하나의 모서리에서 시작하고, 상기 모서리의 위치 및 상기 나선이 수렴하는 픽셀의 좌표에 따라 서로 다른 4가지의 나선 방향을 가질 수 있다. 상기 나선이 입력 이미지의 모서리 중에서 좌측 상단의 모서리에서 시작하고, 상기 나선이 수렴하는 픽셀의 좌표가 상기 입력 이미지의 우측 상단에 위치하는 분할 이미지에 위치하는 경우, 해당 나선의 방향은 나선방향 1로 표기할 수 있다.For example, the generated helix may start at at least one corner of the input image, and may have four different helical directions depending on the position of the edge and the coordinates of the pixel where the helix converges. If the spiral starts at the upper left corner of the corner of the input image and the coordinates of the pixel where the spiral converges are located in the split image located at the upper right of the input image, Can be indicated.
또 다른 실시 예로, 상기 나선이 입력 이미지의 모서리 중에서 좌측 하단의 모서리에서 시작하고, 상기 나선이 수렴하는 픽셀의 좌표가 상기 입력 이미지의 우측 하단에 위치하는 경우 해당 나선의 방향은 나선방향 4로 표기될 수 있다. 후술하는 바와 같이, 구도 분석부(400)는 입력 이미지의 구도를 분석할 수 있고, 이미지의 구도 분석은 나선의 방향을 예측하는 것을 포함한다. 황금 나선에 관한 사항은 특징 정보 산출부(300)에서 후술한다.In another embodiment, if the helix starts at the bottom left corner of the edge of the input image and the coordinates of the pixel where the helix converges are located at the bottom right of the input image, the direction of the helix is represented by the helix direction 4 . As will be described later, the
특징 정보 산출부(300)는 나선 생성부(320), 제1 특성값 계산부(340), 제2 특성값 계산부(360) 및 제3 특성값 계산부(380)를 포함한다. 도 5 내지 8을 참조하여 설명한다.The feature
특징 정보 산출부(300)는 입력된 이미지의 화소값들을 상기 화소값들을 나타내는 표색계와는 다른 표색계에 따른 색공간 성분값들로 변환하고, 상기 변환된 색공간 성분값들 및 상기 추출된 특징점에 기반하여 상기 입력 이미지의 구도에 관한 특징 정보를 산출한다.The feature
예를 들어, 이미지 처리 장치(10)에 입력된 이미지의 픽셀 별 화소값은 RGB 값으로 표현될 수 있다. 또한 상기 RGB 표색계와는 다른 표색계는 광도의 정보만을 전달하는 표색계로서, 상기 화소값을 하나의 단일 샘플로 표현하는 그레이 스케일(Gray Scale)을 의미할 수 있고, 본 발명에서 다른 표색계에 따른 색공간 성분값들로 변환하는 것은 다른 표색계인 그레이 스케일을 1차원 색공간에 나열하고, 상기 1차원 색공간에 나열된 0~255개의 색공간 성분값 들 중에서 하나의 색공간 성분값으로 변환하는 것을 의미한다. 본 발명에서 색공간은 색을 표현하는 체계인 표색계를 공간상에 이미지화 한 것을 의미한다. For example, the pixel value of each pixel of the image input to the
예를 들어, RGB 표색계를 공간상에 이미지화하는 경우 3차원 RGB 색공간에 이미지화 할 수 있고, 그레이 스케일을 공간상에 이미지화 하는 경우 1차원 색공간에 이미지화 할 수 있다. 또한, 입력된 이미지의 화소값들을 상기 화소값들을 나타내는 표색계와는 다른 표색계에 따른 색공간 성분값들로 변환하는 것은, RGB 화소값으로 표현된 입력된 이미지를 샐리언시 맵(Saliency Map, 중요도 지도)으로 변환하는 과정으로 표현할 수 있다.For example, when the RGB colorimetric system is imaged in space, it can be imaged in a three-dimensional RGB color space, and when the grayscale is imaged in space, it can be imaged in a one-dimensional color space. The conversion of the pixel values of the input image into the color space component values according to the colorimetric system different from the colorimetric system that represents the pixel values is performed by converting the input image represented by the RGB pixel values into the saliency map Map).
본 발명에서, 특징 정보 산출부(300)는 샐리언시 맵을 형성함에 있어 영상의 색상, 휘도, 움직임, 조화 또는 방향 중 적어도 어느 하나의 특성을 이용할 수 있다. In the present invention, the feature
예를 들어, 특징 정보 산출부(300)는 영상의 색상을 이용하여 RGB화소값으로 표현된 입력 이미지의 픽셀 별 화소값을 0~255 개의 광도를 가지는 회색으로 표현하여 샐리언시 맵을 형성할 수 있다. 특징 정보 산출부(300)는 입력된 이미지로부터 딥 러닝 기반의 SALICON(Saliency in Context)알고리즘을 이용하거나, 빠른 처리를 위한 BMS(A Boolean Map Approach)알고리즘을 이용하여 샐리언시 맵상에서 색상에 관한 임계치를 획득할 수 있고, 이를 이용하여 특징 정보를 산출할 수 있다.For example, the
또 다른 실시 예로, 특징 정보 산출부(300)는 입력 이미지의 픽셀 별 RGB 화소값을 그레이 스케일에 따른 0~255 사이의 레벨을 가지는 색공간 성분값들로 변환하고, 상기 변환된 색공간 성분값들 및 특징점에 기반하여 상기 입력 이미지의 구도에 관한 특징 정보를 산출할 수 있다.In another embodiment, the feature
나선 생성부(320)는 분할 이미지들 내부에 형성되고, 상기 분할 이미지들 적어도 하나의 대각선 방향의 양측 모서리를 지나며, 적어도 하나의 분할 이미지에서 수렴하는 나선(Spiral)을 생성한다. 바람직하게는, 상기 나선은 황금 나선을 의미하고, 나선의 종류와 나선의 생성 방법은 전술한 바와 같다. The
제1 특성값 계산부(340)는 분할 영역별 특징점들이 상기 입력 이미지에서 추출된 전체 특징점들에서 차지하는 정도를 고려하여 제1 특성값을 계산한다. 제1 특성값은 하기의 수학식 1에 의하여 구할 수 있다.The first characteristic
여기에서 f1은 제1 특성값, p1 은 입력 이미지를 초기 분할하는 경우 생성되는 분할 이미지 중에서 영역이 넓은 분할 이미지에 존재하는 특징점(122)의 개수, q1은 입력 이미지를 초기 분할하는 경우 생성되는 분할 이미지 중에서 영역이 좁은 분할 이미지상에 존재하는 특징점의 개수, i는 1에서 4까지의 정수 및 qi는 i번째 분할에서 생성되는 분할 이미지 중에서 좁은 영역으로 분할된 분할 이미지상에 존재하는 특징점의 개수를 의미한다. Here, f1 is a first characteristic value, p1 is the number of feature points 122 existing in a wide divided image among the divided images generated when the input image is initially divided, q1 is the number of feature points 122 I is an integer from 1 to 4, and qi is the number of feature points existing on the divided image divided into narrow regions among the divided images generated in the i-th divided region, it means.
예를 들어, 도 6에 f1으로 도시된 차트에서 수학식 1을 적용하면, p1은 3, q1은 5로 설정될 수 있다. 상기 수학식 1에 의하여 제1 특성값 f1은 전체 영역에서 특징점의 개수와 분할 영역에서의 특징점 개수의 비율로 정의될 수 있고, 특징 정보 산출부(300)는 상기 계산된 제1 특성값을 이용하여 상기 특징 정보를 산출한다.For example, if
제2 특성값 계산부(360)는 분할 영역별 특징점들의 평균 좌표, 상기 나선이 수렴하는 픽셀의 좌표 및 상기 입력 이미지의 모서리 좌표를 고려하여 제2 특성값을 계산한다. 제2 특성값은 하기의 수학식 2에 의하여 구할 수 있다.The second characteristic
여기에서 f2는 제2 특성값, i는 1에서 4까지의 정수, distance_pqi는 i번째 분할 영역별 특징점들의 평균 좌표(362)와 나선이 수렴하는 픽셀의 좌표(나선의 중심, 322)간의 거리의 평균, max_distance는 입력된 이미지의 모서리와 나선이 수렴하는 픽셀의 좌표(나선의 중심, 322)간의 최대 거리를 의미한다.Here, f2 is a second characteristic value, i is an integer from 1 to 4, and distance_pqi is a distance between the average coordinate 362 of the minutiae points of the i-th divided region and the coordinates of the pixel where the spiral converges (the center of the helix 322) The mean, max_distance, is the maximum distance between the corner of the input image and the coordinates of the pixel where the spiral converges (the center of the spiral, 322).
예를 들어, 도 6의 f2로 도시된 차트에서 수학식 2를 적용하면, 제2 특성값 계산부(360)는 세모로 마킹된 나선의 중심(322)과 각 분할 영역별 특징점들의 평균 좌표(362)간의 거리의 평균을 이용하여 제2 특성값을 계산할 수 있고, 특징 정보 산출부(300)는 상기 계산된 제2 특성값을 이용하여 상기 특징 정보를 산출할 수 있다.6, the second characteristic
제3 특성값 계산부(380)는 색공간 성분값들 중에서 기 설정된 임계치 이상의 성분값들을 가지는 픽셀들의 평균 좌표 및 상기 나선이 수렴하는 픽셀의 좌표를 고려하여 제3 특성값을 계산한다. 제3 특성값은 하기의 수학식 3에 의하여 구할 수 있다.The third characteristic
여기에서, f3은 제3 특성값, distance_s는 샐리언시 맵상에서 색상값이 임계치(threshold)를 초과하는 픽셀들의 평균 좌표(382)와 나선이 수렴하는 픽셀의 좌표(나선의 중심, 322)간의 거리 및 max_distance는 입력 이미지의 모서리와 나선이 수렴하는 픽셀의 좌표와의 최대 거리를 의미한다. Here, f3 is the third characteristic value, and distance_s is the distance between the average coordinate 382 of the pixels whose color values exceed the threshold on the Salliance Map and the coordinates of the pixel where the spiral converges (the center of the spiral 322) The distance and max_distance mean the maximum distance between the corner of the input image and the coordinates of the pixel where the spiral converges.
예를 들어, 제3 특성값 계산부(380)는 SALICON 알고리즘을 이용하는 경우 임계치(threshold)가 70보다 큰 픽셀들의 평균 좌표를 이용하고, BMS 알고리즘을 이용하는 경우 임계치(threshold)가 210보다 큰 픽셀들의 평균 좌표를 이용하여 제3 특성값을 계산할 수 있다. 도 9 및 도10를 참조하여 설명한다.For example, when the SALICON algorithm is used, the third characteristic
구도 분석부(400)는 방향 예측 모델 생성부(420) 및 점수 예측 모델 생성부(400)를 포함한다.The
예를 들어 구도 분석부(400)는 특징 정부 산출부(300)에서 산출된 특징 정보를 이용하여 상기 입력된 이미지의 구도를 분석할 수 있다. 상기 이미지의 구도는 구도의 방향과 구도에 일치하는지 여부에 관한 정보를 포함한다. 구도 분석부(400)는 도 9에 도시된 바와 같이 이미지를 입력 받아서, 상기 입력된 이미지상에서 황금 나선의 방향과 얼마나 황금 분할 구도에 일치하는지 여부를 점수로 환산하여 분석한다.For example, the
예를 들어 구도 분석부(400)는 머신러닝(Machine Learning)기법으로 특징 정보 산출부(300)에서 산출된 특징 정보를 학습하여 학습 모델을 생성하고, 생성된 학습 모델을 이용하여 입력된 이미지의 구도를 분석할 수 있다. 본 발명에서 구도 분석부(400)는 로지스틱 판별 분석(Logistic Classification), 서포트 벡터 머신(SVM), 랜덤 포레스트(RF) 등의 알고리즘을 이용하여 학습 모델을 생성할 수 있다. For example, the
방향 예측 모델 생성부(420)는 상기 산출된 특징 정보를 머신러닝(Machine Learning)기법으로 학습하여 상기 구도의 방향에 대한 방향 예측 모델을 생성한다.The directional prediction model generation unit 420 learns the calculated feature information using a machine learning technique to generate a directional prediction model for the direction of the composition.
표1은 방향 예측 모델의 정확성을 나타낸다. 구도 분석부(400)가 방향 예측 모델을 이용하여 예측한 나선의 방향이 기 실시된 설문 조사의 결과와 일치하는 정도를 방향 예측 모델의 정확성으로 표현할 수 있다. 상기 표1에서 f1+f2+f3(by SALICON)은 살리콘 알고리즘에 따른 방향 예측 모델의 정확성, f1+f2+f3(by BMS)는 BMS 알고리즘에 따른 방향 예측 모델의 정확성을 나타낸다. 본 발명에서, 예측 모델은 5-fold 교차 검증을 통해 성능이 평가 될 수 있고, 살리콘 알고리즘에 따른 방향 예측 모델의 정확성이 85.9%로 더 높은 것을 볼 수 있다. Table 1 shows the accuracy of the directional prediction model. The degree by which the
보다 상세하게는, 방향 예측 모델 생성부(420)는 방향 예측 모델을 생성하기 위하여 임의의 데이터베이스로부터 207장의 사진을 다운받아, 예측 모델을 생성하고, 상기 생성된 예측 모델의 정확성을 평가하기 위하여 207장의 사진에 대하여 사전 설문 조사를 실시하여 나선의 방향에 관한 설문 조사 결과를 미리 획득하며, 이를 예측 모델의 결과와 비교하여 정확성을 평가할 수 있다.More specifically, the directional prediction model generation unit 420 downloads 207 photographs from an arbitrary database in order to generate a directional prediction model, generates a predictive model, and evaluates the accuracy of the generated predictive model 207 A preliminary questionnaire is conducted on the photographs of the chapters, and the results of questionnaires on the direction of the spirals can be obtained in advance and compared with the results of the predictive model, and the accuracy can be evaluated.
점수 예측 모델 생성부(400) 특징 정보 산출부(300)에서 산출된 특징 정보를 머신러닝 기법으로 학습하여 상기 구도의 점수에 대한 점수 예측 모델을 생성한다. 예를 들어, 점수 예측 모델 생성부(400)는 산출된 특징 정보를 선형 회귀 모델(Linear Regression)알고리즘을 이용하여 학습하고 점수 예측 모델을 생성할 수 있다. 점수 예측 모델 생성부(400)는 점수 예측 모델을 이용하여 예측한 구도 점수와 207장의 사진에 대하여 실시된 사전 설문 조사 결과로 얻은 구도 점수의 오차가 최소가 되는 방향으로 학습하여 점수 예측 모델을 생성할 수 있다. Score Prediction
표2는 총 4개의 나선 방향에 대해서 점수 예측 모델에 의한 점수와 설문조사에 의한 점수의 평균 오차를 나타낸다. 상기 표2에서, f1+f2+f3(by SALICON)은 살리콘 알고리즘에 따른 점수 예측 모델의 오차, f1+f2+f3(by BMS)는 BMS 알고리즘에 따른 점수 예측 모델의 오차를 나타낸다. 살리콘 알고리즘에 기반한 점수 예측 모델이 더 우수한 예측 결과를 나타냄을 알 수 있다.Table 2 shows the scores obtained by the Score Prediction Model and the mean scores of the questionnaire surveys for four spiral directions in total. In Table 2, f1 + f2 + f3 (by SALICON) represents the error of the score prediction model according to the salicone algorithm, and f1 + f2 + f3 (by BMS) represents the error of the score prediction model according to the BMS algorithm. It can be seen that the score prediction model based on the salicone algorithm shows better prediction results.
도 2는 본 발명의 일 실시 예에 따른 특징점이 추출된 입력 이미지의 예시도 이다.2 is an exemplary view of an input image from which feature points are extracted according to an embodiment of the present invention.
특징점 추출부(100)는 입력된 이미지에서 임의의 픽셀을 지정하고, 상기 지정된 픽셀에 인접하는 픽셀들의 화소값 변화량을 고려하여 상기 지정된 픽셀을 특징점으로 추출할 수 있다. 특징점 추축부(100)가 추출하는 특징점의 개수에는 제한이 없고, 특징점인지 여부를 판단하기 위한 임의의 픽셀에 인접하는 픽셀들의 개수는 이미지 처리 장치(10)의 요구 사항에 따라 달라질 수 있다.The feature
도 3은 일 실시 예에 따른 분할된 입력 이미지상에 생성된 나선의 예시도이다.3 is an illustration of a spiral generated on a segmented input image according to one embodiment.
이미지 분할부(200)는 특징점들이 추출된 입력 이미지를 미리 결정된 분할 영역으로 반복 분할하여 분할 이미지들을 생성한다. 이미지 분할부(200)는 입력된 이미지를 황금비에 따라 반복하여 분할할 수 있고, 가로 또는 세로축에서 길이가 긴 축을 우선 분할한다.The
예를 들어, 이미지 분할부(200)는 도3에 도시된 입력 이미지의 가로축이 더 길기 때문에, 이를 1.618:1의 길이비로 분할할 수 있고, 이때 분할할 수 있는 방법은 우측 분할 이미지를 넓게 분할하는 방법 및 좌측 이미지를 넓게 분할 하는 방법을 포함한다. 이미지 분할부(200)는 초기 분할 후에 생성된 분할 이미지 중에서 좁은 영역으로 분할된 분할 이미지를 분할한다. 초기 분할 이후 두번째 분할 과정은 다음과 같다. For example, since the horizontal axis of the input image shown in FIG. 3 is longer, the
이미지 분할부(200)는 좁은 영역으로 분할된 분할 이미지인 우측 분할 이미지의 세로축의 길이가 더 길기 때문에, 세로축을 1.618:1의 길이비로 분할할 수 있고, 이때 분할 방법은 상단 분할 이미지를 넓게 분할 하는 방법(1.618:1)과 하단 분할 이미지를 넓게 분할 하는 방법(1:1.618)을 포함한다. 이미지 분할부(200)가 입력된 이미지를 반복 분할하여 생성하는 분할 이미지들은 무한횟수로 분할시에 특정 점으로 수렴할 수 있다.Since the length of the vertical axis of the right divided image, which is the divided image divided into the narrow area, is long, the
또 다른 실시 예로, 이미지 분할부(200)가 분할한 분할 이미지들 적어도 하나의 대각선 방향의 양측 모서리를 지나고, 입력 이미지의 적어도 하나의 모서리에서 시작하는 나선이 형성될 수 있는데, 상기 분할 이미지들이 서로 황금 분할 관계에 있는 경우 상기 나선은 황금 나선으로 정의할 수 있다. 본 발명에서 황금 나선은 입력 이미지에서 시작하는 모서리의 위치 및 황금 나선이 수렴하는 픽셀의 좌표에 따라 4가지의 황금 나선 방향을 가질 수 있다.In another embodiment, a helix may be formed that passes through at least one diagonal edge of at least one of the divided images divided by the
이미지 처리 장치(10)는 입력된 이미지상의 피사체가 황금 나선의 방향을 따라 배치되는 경우, 입력 이미지의 구도점수를 높게 평가할 수 있다. 황금 나선과 황금 분할에 대한 사항은 전술한 바와 같으므로 생략한다.The
도 4는 나선이 시작하는 입력 이미지의 모서리의 위치 및 상기 나선이 수렴하는 픽셀의 좌표에 따라 서로 다른 4가지 나선 방향의 예시도이다.4 is an illustration of four different helical directions according to the position of the edge of the input image at which the helix starts and the coordinates of the pixel where the helix converges.
나선 생성부(320)에서 생성된 나선은 전술한 바와 입력 이미지상에서 시작하는 모서리의 위치 및 나선이 수렴하는 픽셀의 좌표에 따라서 4가지 나선 방향으로 구분될 수 있다. 예를 들어, 나선이 입력 이미지의 좌측 상단의 모서리에서 시작하고, 나선이 수렴하는 픽셀의 좌표가 입력 이미지의 우측 상단에 존재하는 경우 나선 방향 1로 정의 할 수 있다.The spiral generated by the
도 5는 도 1의 실시 예에서 특징 정보 산출부의 확대 블록도이다.5 is an enlarged block diagram of the feature information calculation unit in the embodiment of FIG.
특징 정보 산출부(300)는 나선 생성부(320), 제1 특성값 계산부(340), 제2 특성값 계산부(360) 및 제3 특성값 계산부(380)를 포함한다. 특징 정보 산출부(300)와 관련된 전술한 사항은 생략한다.The feature
예를 들어, 특징 정보 산출부(300)는 입력된 이미지의 화소값들을 상기 화소값들을 나타내는 표색계와는 다른 표색계에 따른 색공간 성분값들로 변환하고, 상기 변환된 색공간 성분값들 및 상기 추출된 특징점에 기반하여 상기 입력 이미지의 구도에 관한 특징 정보를 산출한다. 본 발명에서 입력 이미지의 화소값들은 RGB 표색계에서 RGB값으로 표현이 되고, 상기 RGB 표색계와 다른 표색계는 색상의 광도 정보만을 포함하는 그레이 스케일로 마련될 수 있다.For example, the feature
특징 정보 산출부(300)는 입력 이미지를 그레이 스케일에 따른 샐리언시 맵으로 변환하고, 상기 변환된 샐리언시 맵에서 기 설정된 임계치(Threshold) 이상에 해당하는 픽셀의 좌표를 이용하여 제3 특성값을 계산하고, 이를 이용하여 특징 정보를 산출한다.The feature
도 6은 특징 정보를 산출하기 위한 제1 특성값 및 제2 특성값을 계산하는 과정을 나타내는 예시도이다.6 is an exemplary diagram illustrating a process of calculating a first characteristic value and a second characteristic value for calculating characteristic information.
제1 특성값 계산부(340)는 분할 영역별 특징점들이 상기 입력 이미지에서 추출된 전체 특징점들에서 차지하는 정도를 고려하여 제1 특성값을 계산한다.The first characteristic
제1 특성값을 계산하는 과정은 전술한 바와 같으므로 생략한다. 본 발명에서 분할 영역별 특징점들이 추출된 전체 특징점들에서 차지하는 정도는 전체 특징점의 개수에서 분할 영역별 특징점이 차지하는 개수의 비를 의미할 수 있다.The process of calculating the first characteristic value is the same as described above, and thus will not be described. In the present invention, the degree to which the minutiae of each divided region occupies the extracted minutiae points may mean the ratio of the number of minutiae occupied by the minutiae points of the minutiae in the total number of minutiae points.
제2 특성값 계산부(360)는 분할 영역별 특징점들의 평균 좌표, 상기 나선이 수렴하는 픽셀 좌표 및 상기 입력 이미지의 모서리 좌표를 고려하여 제2 특성값을 계산한다. 제2 특성값을 계산하는 과정은 전술한 바와 같으므로 생략한다.The second characteristic
도 7은 특징 정보 산출부에서 입력 이미지의 화소값들을 상기 화소값들을 나타내는 표색계와는 다른 표색계에 따른 색공간 성분값들로 변환한 결과를 나타낸다.7 shows a result of converting the pixel values of the input image into color space component values according to a color system different from the color system representing the pixel values in the feature information calculation unit.
본 발명에서 입력 이미지의 화소값들을 상기 화소값들을 나타내는 표색계와는 다른 표색계에 따른 색공간 성분값들로 변환하는 것은 샐리언시 맵을 형성하는 것으로 표현될 수 있다. 예를 들어, 특징 정보 산출부(300)는 영상의 색, 휘도, 움직임, 조화, 또는 방향 중 어느 하나의 특성을 이용하여 샐리언시 맵(중요도 지도)을 형성할 수 있다.In the present invention, converting the pixel values of the input image into color space component values according to a colorimetric system different from the colorimetric system that represents the pixel values may be expressed as forming a salient map. For example, the feature
구체적으로, 샐리언시 맵을 형성하는 과정은 상기 하나의 특성을 이용하여 저준위 특성 지도(Low-Level Feature Map)를 생성하는 단계, 상기 저준위 특성 지도를 이용하여 관심영역 지도를 계산하는 단계 및 다중 스케일 대비, Center-Surround Histogram(CSH), 또는 색채의 공간 분포 중 어느 하나의 정보를 이용하여 조건부 임의 필드(Conditional Random Field, CRF)를 설정하는 과정을 포함할 수 있다. 상기 계산으로부터 핵심적인 영역인 관심 영역을 설정하는 단계를 포함할 수 있다.Specifically, the process of forming a salient map includes: generating a low-level feature map using the one characteristic; calculating a region of interest map using the low-level characteristic map; And setting a conditional random field (CRF) using information on any one of a scale contrast, a center-surround histogram (CSH), and a spatial distribution of colors. And setting a region of interest that is a core region from the calculation.
도 8특징 정보를 산출하기 위한 제3 특성값을 계산하는 과정을 나타내는 예시도이다.FIG. 8 is a diagram illustrating a process of calculating a third characteristic value for calculating characteristic information; FIG.
제3 특성값 계산부(380)는 색공간 성분값들 중 기 설정된 임계치 이상의 성분값들을 갖는 픽셀들의 평균 좌표 및 상기 나선이 수렴하는 픽셀의 좌표를 고려하여 제3 특성값을 계산한다. 수학식 3에 의하여 제3 특성값을 계산하는 방법은 전술한 바와 같다.The third characteristic
도 9는 도 1의 실시 예에서 구도 분석부의 확대 블록도이다.9 is an enlarged block diagram of the composition analyzing unit in the embodiment of FIG.
구도 분석부(400)는 방향 예측 모델 생성부(420) 및 점수 예측 모델 생성부(400)를 포함한다. 예를 들어 구도 분석부(400)는 특징 정부 산출부(300)에서 산출된 특징 정보를 이용하여 상기 입력된 이미지의 구도를 분석할 수 있다. 구도 분석부(400)에서 이미지의 구도를 분석하는 구체적인 방법은 전술한 바와 같으므로 생략한다.The
도 10은 구도 분석부에서 분석한 이미지의 구도 방향 및 구도 점수를 나타낸다.FIG. 10 shows a composition direction and a composition score of an image analyzed by a composition analysis unit.
이미지 처리 장치(10)는 이미지를 입력 받고, 입력된 이미지의 구도를 분석한다. 이미지 처리 장치(10)가 이미지의 구도를 분석하는 것은 황금 나선 방향의 예측 및 구도 점수의 예측을 포함한다. 구도 분석부(400)가 이미지를 분석하는 구체적인 방법은 전술한 바와 같으므로 생략한다. The
도 11은 본 발명의 일 실시 예에 따른 이미지 처리 방법의 흐름도이다. 11 is a flowchart of an image processing method according to an embodiment of the present invention.
이미지 처리 방법은 이미지 처리 장치(10)에서 시계열적으로 수행되는 하기의 단계들을 포함한다.The image processing method includes the following steps performed in the
S100에서, 특징점 추출부(100)는 입력 이미지로부터 픽셀 별 화소값들을 고려하여 특징점들을 추출한다. 특징점 추출부(100)는 입력된 이미지에서 임의의 픽셀을 지정하고, 상기 지정된 픽셀에 인접하는 픽셀들의 화소값 변화량을 고려하여 지정된 픽셀을 특징점으로 추출할 수 있다. 특징점 추출부(100)가 특징점을 추출하는 구체적인 방법은 전술한 바와 같으므로 생략한다.In step S100, the feature
S200에서, 이미지 분할부(200)는 특징점들이 추출된 입력 이미지를 미리 결정된 분할 영역으로 반복 분할하여 분할 이미지들을 생성한다. 이미지 분할부(200)가 입력된 이미지를 분할하는 방법은 전술한 바와 같으므로 생략한다.In S200, the
S300에서, 특징 정보 산출부(300)는 입력된 이미지의 화소값들을 상기 화소값들을 나타내는 표색계와는 다른 표색계에 따른 색공간 성분값들로 변환하고, 상기 변환된 색공간 성분값들 및 상기 추출된 특징점에 기반하여 상기 입력 이미지의 구도에 관한 특징 정보를 산출한다. 특징 정보 산출부(300)가 제1 특성값, 제2 특성값 및 제3 특성값을 계산하고, 계산된 특성값들을 이용하여 특징 정보를 산출하는 구체적인 방법은 전술한 바와 같으므로 생략한다.In S300, the feature
S400에서, 구도 분석부(400)는 머신러닝(Machine Learning)기법으로 특징 정보 산출부(300)에서 산출된 특징 정보를 학습하여 학습 모델을 생성하고, 생성된 학습 모델을 이용하여 입력된 이미지의 구도를 분석할 수 있다. 구도 분석부가 이용하는 머신러닝 알고리즘에 대한 사항은 전술한 바와 같으므로 생략한다.In operation S400, the
도 12는 도 11의 실시 예에서 산출하는 단계의 확대 흐름도이다.12 is an enlarged flow chart of steps calculated in the embodiment of Fig.
산출하는 단계는 특징 정보 산출부(300)에서 시계열적으로 수행되는 하기의 단계들을 포함한다.The calculating step includes the following steps performed in the feature
S320에서, 나선 생성부(320)는 분할 이미지들 내부에 형성되고, 상기 분할 이미지들 적어도 하나의 대각선 방향의 양측 모서리를 지나며, 적어도 하나의 분할 이미지에서 수렴하는 나선(Spiral)을 생성한다. 나선 생성부(320)에서 생성된 나선과 황금 나선에 대한 사항은 전술한 바와 같으므로 생략한다.At S320, the
S340에서, 제1 특성값 계산부(340)는 분할 영역별 특징점들이 상기 입력 이미지에서 추출된 전체 특징점들에서 차지하는 정도를 고려하여 제1 특성값을 계산한다. 제1 특성값을 계산하는 과정은 수학식 1에서 전술한 바와 같으므로 생략한다.In step S340, the first characteristic
S360에서, 제2 특성값 계산부(360)는 분할 영역별 특징점들의 평균 좌표, 상기 나선이 수렴하는 픽셀의 좌표 및 상기 입력 이미지의 모서리 좌표를 고려하여 제2 특성값을 계산한다. 제2 특성값을 계산하는 과정은 수학식 2에서 전술한 바와 같으므로 생략한다.In step S360, the second characteristic
S380에서, 제3 특성값 계산부(380)는 색공간 성분값들 중에서 기 설정된 임계치 이상의 성분값들을 가지는 픽셀들의 평균 좌표 및 상기 나선이 수렴하는 픽셀의 좌표를 고려하여 제3 특성값을 계산한다. 제3 특성값을 계산하는 과정은 수학식 3에서 전술한 바와 같으므로 생략한다.In S380, the third characteristic
도 13은 도 11의 실시 예에서 분석하는 단계의 확대 흐름도이다.13 is an enlarged flow chart of the step of analyzing in the embodiment of FIG.
분석하는 단계는 구도 분석부(400)에서 시계열적으로 수행되는 하기의 단계들을 포함한다.The analyzing step includes the following steps performed in the
S420에서, 방향 예측 모델 생성부(420)는 산출된 특징 정보를 머신 학습하여 상기 구도의 방향에 대한 방향 예측 모델을 생성한다. 방향 예측 모델 생성부(420)가 사용하는 머신러닝 알고리즘과 황금 나선의 방향에 대한 사항은 전술한 바와 같으므로 생략한다.In S420, the directional prediction model generation unit 420 generates a directional prediction model for the direction of the composition by machine-learning the calculated feature information. The machine learning algorithm used by the directional prediction model generation unit 420 and the direction of the golden helix are the same as described above and are therefore omitted.
S440에서, 점수 예측 모델 생성부(440)는 산출된 특징 정보를 머신 학습하여 상기 구도의 점수에 대한 예측 모델을 생성한다. 점수 예측 모델 생성부(400)가 사용하는 머신러닝 알고리즘과 구도 점수에 대한 사항은 전술한 바와 같으므로 생략한다.In S440, the score prediction model generation unit 440 performs a machine learning on the calculated feature information to generate a prediction model for the score of the composition. The machine learning algorithm and the composition score used by the score prediction
상기 설명된 본 발명의 일 실시예의 방법의 전체 또는 일부는, 컴퓨터에 의해 실행되는 프로그램 모듈과 같은 컴퓨터에 의해 실행 가능한 기록 매체의 형태(또는 컴퓨터 프로그램 제품)로 구현될 수 있다. 여기에서, 컴퓨터 판독 가능 매체는 컴퓨터 저장 매체(예를 들어, 메모리, 하드디스크, 자기/광학 매체 또는 SSD(Solid-State Drive) 등)를 포함할 수 있다. 컴퓨터 판독 가능 매체는 컴퓨터에 의해 액세스될 수 있는 임의의 가용 매체일 수 있고, 휘발성 및 비휘발성 매체, 분리형 및 비분리형 매체를 모두 포함한다.All or part of the method of an embodiment of the present invention described above can be implemented in the form of a computer-executable recording medium (or a computer program product) such as a program module executed by a computer. Here, the computer-readable medium may include computer storage media (e.g., memory, hard disk, magnetic / optical media or solid-state drives). Computer readable media can be any available media that can be accessed by a computer and includes both volatile and nonvolatile media, removable and non-removable media.
또한, 본 발명의 일 실시예에 따르는 방법의 전체 또는 일부는 컴퓨터에 의해 실행 가능한 명령어를 포함하며, 컴퓨터 프로그램은 프로세서에 의해 처리되는 프로그래밍 가능한 기계 명령어를 포함하고, 고레벨 프로그래밍 언어(High-level Programming Language), 객체 지향 프로그래밍 언어(Object-oriented Programming Language), 어셈블리 언어 또는 기계 언어 등으로 구현될 수 있다.Also, all or part of the method according to an embodiment of the present invention may include instructions executable by a computer, the computer program comprising programmable machine instructions to be processed by a processor, Language, an object-oriented programming language, an assembly language, or a machine language.
본 명세서에서의 부(means) 또는 모듈(Module)은 본 명세서에서 설명되는 각 명칭에 따른 기능과 동작을 수행할 수 있는 하드웨어를 의미할 수도 있고, 특정 기능과 동작을 수행할 수 있는 컴퓨터 프로그램 코드를 의미할 수도 있고, 또는 특정 기능과 동작을 수행시킬 수 있는 컴퓨터 프로그램 코드가 탑재된 전자적 기록 매체, 예를 들어 프로세서 또는 마이크로 프로세서를 의미할 수 있다. 다시 말해, 부(means) 또는 모듈(Module)은 본 발명의 기술적 사상을 수행하기 위한 하드웨어 및/또는 상기 하드웨어를 구동하기 위한 소프트웨어의 기능적 및/또는 구조적 결합을 의미할 수 있다. Means or module in the present specification may mean hardware capable of performing the functions and operations according to the respective names described herein and may be implemented by computer program code , Or may refer to an electronic recording medium, e.g., a processor or a microprocessor, having computer program code embodied thereon to perform particular functions and operations. In other words, a means or module may mean a functional and / or structural combination of hardware for carrying out the technical idea of the present invention and / or software for driving the hardware.
따라서 본 발명의 일 실시예에 따르는 방법은 상술한 바와 같은 컴퓨터 프로그램이 컴퓨팅 장치에 의해 실행됨으로써 구현될 수 있다. 컴퓨팅 장치는 프로세서와, 메모리와, 저장 장치와, 메모리 및 고속 확장포트에 접속하고 있는 고속 인터페이스와, 저속 버스와 저장 장치에 접속하고 있는 저속 인터페이스 중 적어도 일부를 포함할 수 있다. 이러한 성분들 각각은 다양한 버스를 이용하여 서로 접속되어 있으며, 공통 머더보드에 탑재되거나 다른 적절한 방식으로 장착될 수 있다.Thus, a method according to an embodiment of the present invention may be implemented by a computer program as described above being executed by a computing device. The computing device may include a processor, a memory, a storage device, a high-speed interface connected to the memory and a high-speed expansion port, and a low-speed interface connected to the low-speed bus and the storage device. Each of these components is connected to each other using a variety of buses and can be mounted on a common motherboard or mounted in any other suitable manner.
이상의 설명은 본 발명의 기술 사상을 예시적으로 설명한 것에 불과한 것으로서, 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자라면 본 발명의 본질적인 특성에서 벗어나지 않는 범위 내에서 다양한 수정, 변경 및 치환이 가능할 것이다. 따라서, 본 발명에 개시된 실시예 및 첨부된 도면들은 본 발명의 기술 사상을 한정하기 위한 것이 아니라 설명하기 위한 것이고, 이러한 실시예 및 첨부된 도면에 의하여 본 발명의 기술 사상의 범위가 한정되는 것은 아니다. 본 발명의 보호 범위는 아래의 청구 범위에 의하여 해석되어야 하며, 그와 동등한 범위 내에 있는 모든 기술 사상은 본 발명의 권리 범위에 포함되는 것으로 해석되어야 할 것이다.It will be apparent to those skilled in the art that various modifications, substitutions and substitutions are possible, without departing from the scope and spirit of the invention as disclosed in the accompanying claims. will be. Therefore, the embodiments disclosed in the present invention and the accompanying drawings are intended to illustrate and not to limit the technical spirit of the present invention, and the scope of the technical idea of the present invention is not limited by these embodiments and the accompanying drawings . The scope of protection of the present invention should be construed according to the following claims, and all technical ideas within the scope of equivalents should be construed as falling within the scope of the present invention.
Claims (20)
상기 화소값들을 상기 화소값들을 나타내는 표색계와는 다른 표색계에 따른 색공간 성분값들로 변환하고, 상기 변환된 색공간 성분값들 및 상기 추출된 특징점들에 기반하여 상기 입력 이미지의 구도에 관한 특징 정보를 산출하는 단계; 및
상기 산출된 특징 정보를 이용하여 상기 입력 이미지의 구도를 분석하는 단계; 를 포함하는 이미지 처리 방법.Extracting feature points from the input image in consideration of pixel-by-pixel pixel values;
The pixel values are converted into color space component values according to a colorimetric system different from the colorimetric system that represents the pixel values, and the feature relating to the composition of the input image based on the converted color space component values and the extracted feature points Calculating information; And
Analyzing a composition of the input image using the calculated feature information; / RTI >
상기 특징점들이 추출된 입력 이미지를 미리 결정된 분할 영역으로 반복 분할하는 단계; 를 더 포함하고,
상기 분할 영역별 특징점들에 기반하여 상기 특징 정보를 산출하는 것을 특징으로 하는 이미지 처리 방법.The method of claim 1, further comprising:
Repeatedly dividing the extracted input image into predetermined divided regions; Further comprising:
And the feature information is calculated based on the minutiae of each divided region.
상기 입력 이미지에서 임의의 픽셀을 지정하고, 상기 지정된 픽셀에 인접하는 픽셀들의 화소값 변화량을 고려하여 상기 지정된 픽셀을 특징점으로 추출하는 것을 특징으로 하는 이미지 처리 방법.2. The method of claim 1, wherein the extracting comprises:
Designating an arbitrary pixel in the input image and extracting the designated pixel as a feature point in consideration of a pixel value change amount of pixels adjacent to the designated pixel.
상기 분할 이미지들 내부에 형성되고, 상기 분할 이미지들 적어도 하나의 대각선 방향의 양측 모서리를 지나며, 적어도 하나의 분할 이미지에서 수렴하는 나선(Spiral)을 생성하는 단계; 를 더 포함하고,
상기 생성된 나선이 수렴하는 픽셀의 좌표를 이용하여 상기 특징 정보를 산출하는 것을 특징으로 하는 이미지 처리 방법. 3. The method of claim 2, wherein the calculating step
Generating a spiral that is formed within the split images, passes through at least one diagonal edge of the split images, and converges in at least one split image; Further comprising:
And the feature information is calculated using coordinates of a pixel where the generated helix converges.
상기 분할 영역별 특징점들이 상기 입력 이미지에서 추출된 전체 특징점들에서 차지하는 정도를 고려하여 제1 특성값을 계산하는 단계; 를 더 포함하고,
상기 계산된 제1 특성값을 이용하여 상기 특징 정보를 산출하는 것을 특징으로 하는 이미지 처리 방법.5. The method of claim 4, wherein the calculating step
Calculating a first characteristic value in consideration of the degree of each of the minutiae of each of the divided regions occupying the entire minutiae extracted from the input image; Further comprising:
And the feature information is calculated using the calculated first characteristic value.
상기 분할 영역별 특징점들의 평균 좌표, 상기 나선이 수렴하는 픽셀의 좌표 및 상기 입력 이미지의 모서리 좌표를 고려하여 제2 특성값을 계산하는 단계; 를 더 포함하고,
상기 계산된 제2 특성값을 이용하여 상기 특징 정보를 산출하는 것을 특징으로 하는 이미지 처리 방법.6. The method of claim 5, wherein the calculating step
Calculating a second characteristic value in consideration of the average coordinates of the minutiae of the divided regions, the coordinates of the pixel where the spiral converges, and the corner coordinates of the input image; Further comprising:
And the feature information is calculated using the calculated second characteristic value.
상기 색공간 성분값들 중 기 설정된 임계치 이상의 성분값들을 가지는 픽셀들의 평균 좌표 및 상기 나선이 수렴하는 픽셀의 좌표를 고려하여 제3 특성값을 계산하는 단계; 를 더 포함하고,
상기 계산된 제3 특성값을 이용하여 상기 특징 정보를 산출하는 것을 특징으로 하는 이미지 처리 방법.7. The method of claim 6, wherein the calculating step
Calculating a third characteristic value in consideration of the average coordinates of pixels having component values of a predetermined threshold value or more among the color space component values and the coordinates of the pixel where the spiral converges; Further comprising:
And the feature information is calculated using the calculated third characteristic value.
상기 입력 이미지의 가로 또는 세로 길이를 계산하고, 상기 계산된 길이가 더 긴 부분을 황금비에 따라 초기 분할하며, 상기 분할된 입력 이미지 중에서 좁은 영역으로 분할된 이미지를 상기 초기 분할과 동일 방식으로 재분할하여 상기 분할 영역을 결정하고, 상기 결정된 분할 영역으로 반복 분할 하는 것을 특징으로 하는 이미지 처리 방법.3. The method as claimed in claim 2, wherein the repeated division into the predetermined dividing area
The method includes the steps of: calculating a width or a length of the input image; dividing the calculated length into longer portions according to a golden ratio; and dividing the divided image into narrow regions in the same manner as the initial division Determining the divided region, and repeatedly dividing the divided region into the determined divided region.
상기 입력 이미지의 적어도 하나의 모서리에서 시작하고, 상기 모서리의 위치 및 상기 나선이 수렴하는 픽셀의 좌표에 따라 서로 다른 나선 방향을 가지는 것을 특징으로 하는 이미지 처리 방법. 9. The method of claim 8,
Starting at at least one corner of the input image and having different spiral directions depending on the position of the edge and the coordinates of the pixel where the spiral converges.
상기 산출된 특징 정보를 머신러닝(Machine Learning)기법으로 학습하여 상기 구도의 방향에 대한 방향 예측 모델을 생성하는 단계; 를 더 포함하고,
상기 생성된 방향 예측 모델을 이용하여 상기 이미지의 구도를 분석하는 것을 특징으로 하는 이미지 처리 방법. 3. The method of claim 2,
Learning the calculated feature information using a machine learning technique to generate a directional prediction model for the direction of the composition; Further comprising:
And analyzing the composition of the image using the generated directional prediction model.
상기 산출된 특징 정보를 상기 머신러닝(Machine Learning)기법으로 학습하여 상기 구도의 점수에 대한 점수 예측 모델을 생성하는 단계; 를 더 포함하고,
상기 생성된 점수 예측 모델을 이용하여 상기 이미지의 구도를 분석하는 것을 특징으로 하는 이미지 처리 방법.11. The method of claim 10, wherein analyzing
Learning the calculated feature information using the machine learning technique to generate a score prediction model for the score of the composition; Further comprising:
And analyzing a composition of the image using the generated score prediction model.
상기 화소값들을 상기 화소값들을 나타내는 표색계와는 다른 표색계에 따른 색공간 성분값들로 변환하고, 상기 변환된 색공간 성분값들 및 상기 추출된 특징점들에 기반하여 상기 입력 이미지의 구도에 관한 특징 정보를 산출하는 특징 정보 산출부; 및
상기 산출된 특징 정보를 이용하여 상기 입력 이미지의 구도를 분석하는 구도 분석부; 를 포함하는 이미지 처리 장치.A feature point extracting unit for extracting feature points by considering pixel values for each pixel from an input image;
The pixel values are converted into color space component values according to a colorimetric system different from the colorimetric system that represents the pixel values, and the feature relating to the composition of the input image based on the converted color space component values and the extracted feature points A feature information calculation unit for calculating information; And
A composition analyzing unit for analyzing a composition of the input image using the calculated feature information; And the image processing apparatus.
상기 특징점들이 추출된 입력 이미지를 미리 결정된 분할 영역으로 반복 분할하여 분할 이미지들을 생성하는 이미지 분할부; 를 더 포함하고,
상기 특징 정보 산출부는 상기 분할 영역별 특징점들에 기반하여 상기 특징 정보를 산출하는 것을 특징으로 하는 이미지 처리 장치.14. The method of claim 13,
An image dividing unit for dividing an input image from the minutiae points into a predetermined divided region to generate divided images; Further comprising:
Wherein the feature information calculating unit calculates the feature information based on the feature points for each of the divided regions.
상기 분할 이미지들 내부에 형성되고, 상기 분할 이미지들 적어도 하나의 대각선 방향의 양측 모서리를 지나며, 적어도 하나의 분할 이미지에서 수렴하는 나선(Spiral)을 생성하는 나선 생성부; 를 더 포함하고,
상기 생성된 나선이 수렴하는 픽셀의 좌표를 이용하여 상기 특징 정보를 산출하는 것을 특징으로 하는 이미지 처리 장치. 14. The apparatus of claim 13, wherein the feature information calculation unit
A spiral generating unit formed in the divided images, the spiral generating unit generating spirals that converge in at least one divided image, passing through at least one diagonal side edge of the divided images; Further comprising:
And the feature information is calculated using the coordinates of the pixel where the generated helix converges.
상기 분할 영역별 특징점들이 상기 입력 이미지에서 추출된 전체 특징점들에서 차지하는 정도를 고려하여 제1 특성값을 계산하는 제1 특성값 계산부; 를 더 포함하고,
상기 계산된 제1 특성값을 이용하여 상기 특징 정보를 산출하는 것을 특징으로 하는 이미지 처리 장치.16. The apparatus of claim 15, wherein the feature information calculation unit
A first characteristic value calculation unit for calculating a first characteristic value in consideration of the degree of each of the minutiae of each of the divided regions occupying all the minutiae extracted from the input image; Further comprising:
And calculates the feature information by using the calculated first characteristic value.
상기 분할 영역별 특징점들의 평균 좌표, 상기 나선이 수렴하는 픽셀의 좌표 및 상기 입력 이미지의 모서리 좌표를 고려하여 제2 특성값을 계산하는 제2 특성값 계산부; 를 더 포함하며,
상기 계산된 제2 특성값을 이용하여 상기 특징 정보를 산출하는 것을 특징으로 하는 이미지 처리 장치.17. The apparatus of claim 16, wherein the feature information calculation unit
A second characteristic value calculation unit for calculating a second characteristic value in consideration of the average coordinates of the minutiae of each of the divided regions, the coordinates of the pixel where the helix converges, and the corner coordinates of the input image; Further comprising:
And calculates the feature information using the calculated second characteristic value.
상기 색공간 성분값들 중 기 설정된 임계치 이상의 성분값들을 가지는 픽셀들의 평균 좌표 및 상기 나선이 수렴하는 픽셀의 좌표를 고려하여 제3 특성값을 계산하는 제3 특성값 계산부; 를 더 포함하고,
상기 계산된 제3 특성값을 이용하여 상기 특징 정보를 산출하는 것을 특징으로 하는 이미지 처리 장치.18. The apparatus of claim 17, wherein the feature point calculating unit
A third characteristic value calculation unit for calculating a third characteristic value in consideration of an average coordinate of pixels having component values of a predetermined threshold value or more among the color space component values and a coordinate of a pixel where the spiral converges; Further comprising:
And calculates the feature information by using the calculated third characteristic value.
상기 입력 이미지의 적어도 하나의 모서리에서 시작하고, 상기 모서리의 위치 및 상기 나선이 수렴하는 픽셀의 좌표에 따라 서로 다른 나선 방향을 가지는 것을 특징으로 하는 이미지 처리 장치. 15. The method of claim 14,
Wherein the image processing apparatus starts at at least one corner of the input image and has different spiral directions depending on the position of the edge and the coordinates of a pixel where the spiral converges.
상기 산출된 특징 정보를 머신러닝(Machine Learning)기법으로 학습하여 상기 구도의 방향에 대한 방향 예측 모델을 생성하는 방향 예측 모델 생성부; 및
상기 산출된 특징 정보를 상기 머신러닝(Machine Learning)기법으로 학습하여 상기 구도의 점수에 대한 점수 예측 모델을 생성하는 점수 예측 모델 생성부; 를 더 포함하고,
상기 생성된 방향 예측 모델 및 점수 예측 모델을 이용하여 상기 이미지의 구도를 분석하는 것을 특징으로 하는 이미지 처리 장치. 15. The apparatus of claim 14, wherein the composition analyzing unit
A direction prediction model generation unit that learns the calculated feature information using a machine learning technique to generate a directional prediction model for the direction of the composition; And
A score prediction model generation unit that learns the calculated feature information using the machine learning technique to generate a score prediction model for the score of the composition; Further comprising:
And analyzes the composition of the image using the generated direction prediction model and the score prediction model.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020170137060A KR101981284B1 (en) | 2017-10-23 | 2017-10-23 | Apparatus Processing Image and Method thereof |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020170137060A KR101981284B1 (en) | 2017-10-23 | 2017-10-23 | Apparatus Processing Image and Method thereof |
Publications (2)
Publication Number | Publication Date |
---|---|
KR20190044761A true KR20190044761A (en) | 2019-05-02 |
KR101981284B1 KR101981284B1 (en) | 2019-05-22 |
Family
ID=66581688
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020170137060A KR101981284B1 (en) | 2017-10-23 | 2017-10-23 | Apparatus Processing Image and Method thereof |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR101981284B1 (en) |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2020235852A1 (en) * | 2019-05-17 | 2020-11-26 | 삼성전자 주식회사 | Device for automatically capturing photo or video about specific moment, and operation method thereof |
WO2021006667A1 (en) * | 2019-07-09 | 2021-01-14 | Samsung Electronics Co., Ltd. | Electronic apparatus, method of controlling the same, server, and recording medium |
WO2021251615A1 (en) * | 2020-06-10 | 2021-12-16 | 삼성전자주식회사 | Electronic device and control method of electronic device |
CN113933294A (en) * | 2021-11-08 | 2022-01-14 | 中国联合网络通信集团有限公司 | Concentration detection method and device |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20090117614A (en) * | 2008-05-08 | 2009-11-12 | 삼성전자주식회사 | A method and an apparatus for capturing a composition adjusted image |
KR20110132770A (en) * | 2010-06-03 | 2011-12-09 | 한국과학기술원 | Forgery detection system for security printing resource based on digital forensic technology and method therefor |
KR20150090456A (en) | 2014-01-29 | 2015-08-06 | 강원대학교산학협력단 | Method for correcting photograghy composition |
-
2017
- 2017-10-23 KR KR1020170137060A patent/KR101981284B1/en active IP Right Grant
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20090117614A (en) * | 2008-05-08 | 2009-11-12 | 삼성전자주식회사 | A method and an apparatus for capturing a composition adjusted image |
KR20110132770A (en) * | 2010-06-03 | 2011-12-09 | 한국과학기술원 | Forgery detection system for security printing resource based on digital forensic technology and method therefor |
KR20150090456A (en) | 2014-01-29 | 2015-08-06 | 강원대학교산학협력단 | Method for correcting photograghy composition |
Cited By (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2020235852A1 (en) * | 2019-05-17 | 2020-11-26 | 삼성전자 주식회사 | Device for automatically capturing photo or video about specific moment, and operation method thereof |
US11977981B2 (en) | 2019-05-17 | 2024-05-07 | Samsung Electronics Co., Ltd. | Device for automatically capturing photo or video about specific moment, and operation method thereof |
WO2021006667A1 (en) * | 2019-07-09 | 2021-01-14 | Samsung Electronics Co., Ltd. | Electronic apparatus, method of controlling the same, server, and recording medium |
WO2021251615A1 (en) * | 2020-06-10 | 2021-12-16 | 삼성전자주식회사 | Electronic device and control method of electronic device |
US12003881B2 (en) | 2020-06-10 | 2024-06-04 | Samsung Electronics Co., Ltd. | Electronic device and control method of electronic device |
CN113933294A (en) * | 2021-11-08 | 2022-01-14 | 中国联合网络通信集团有限公司 | Concentration detection method and device |
CN113933294B (en) * | 2021-11-08 | 2023-07-18 | 中国联合网络通信集团有限公司 | Concentration detection method and device |
Also Published As
Publication number | Publication date |
---|---|
KR101981284B1 (en) | 2019-05-22 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN108121986B (en) | Object detection method and device, computer device and computer readable storage medium | |
US10762608B2 (en) | Sky editing based on image composition | |
CN111199531B (en) | Interactive data expansion method based on Poisson image fusion and image stylization | |
US10254845B2 (en) | Hand gesture recognition for cursor control | |
CN109918969B (en) | Face detection method and device, computer device and computer readable storage medium | |
KR101981284B1 (en) | Apparatus Processing Image and Method thereof | |
US10019823B2 (en) | Combined composition and change-based models for image cropping | |
CN105184763B (en) | Image processing method and device | |
US8718365B1 (en) | Text recognition for textually sparse images | |
US11853892B2 (en) | Learning to segment via cut-and-paste | |
CN111079507B (en) | Behavior recognition method and device, computer device and readable storage medium | |
WO2023050651A1 (en) | Semantic image segmentation method and apparatus, and device and storage medium | |
CN113469092A (en) | Character recognition model generation method and device, computer equipment and storage medium | |
Obeso et al. | Saliency-based selection of visual content for deep convolutional neural networks: application to architectural style classification | |
KR101833943B1 (en) | Method and system for extracting and searching highlight image | |
US11055526B2 (en) | Method, system and apparatus for processing a page of a document | |
Khoreva et al. | Improved image boundaries for better video segmentation | |
KR20140138046A (en) | Method and device for processing a picture | |
CN115272741A (en) | Detection method of slender flexible object, terminal equipment and storage medium | |
KR20150094108A (en) | Method for generating saliency map based background location and medium for recording the same | |
Alsmirat et al. | Building an image set for modeling image re-targeting using deep learning | |
CN112634143A (en) | Image color correction model training method and device and electronic equipment | |
CN115984583B (en) | Data processing method, apparatus, computer device, storage medium, and program product | |
RU2541132C1 (en) | Automatic sketch generation method and system therefor | |
JP7335204B2 (en) | Image processing device, image processing method and image processing program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A201 | Request for examination | ||
E902 | Notification of reason for refusal | ||
E701 | Decision to grant or registration of patent right | ||
GRNT | Written decision to grant |