KR102532250B1 - Image correcting method correct image by using deep learning algorithm and image correcting system performing the same - Google Patents

Image correcting method correct image by using deep learning algorithm and image correcting system performing the same Download PDF

Info

Publication number
KR102532250B1
KR102532250B1 KR1020210011766A KR20210011766A KR102532250B1 KR 102532250 B1 KR102532250 B1 KR 102532250B1 KR 1020210011766 A KR1020210011766 A KR 1020210011766A KR 20210011766 A KR20210011766 A KR 20210011766A KR 102532250 B1 KR102532250 B1 KR 102532250B1
Authority
KR
South Korea
Prior art keywords
reference point
image
points
bounding box
image correction
Prior art date
Application number
KR1020210011766A
Other languages
Korean (ko)
Other versions
KR20220108597A (en
Inventor
정승원
강예슬
Original Assignee
주식회사 써머캣
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 써머캣 filed Critical 주식회사 써머캣
Priority to KR1020210011766A priority Critical patent/KR102532250B1/en
Publication of KR20220108597A publication Critical patent/KR20220108597A/en
Application granted granted Critical
Publication of KR102532250B1 publication Critical patent/KR102532250B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/001
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • G06T3/40Scaling of whole images or parts thereof, e.g. expanding or contracting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • G06T3/60Rotation of whole images or parts thereof
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2210/00Indexing scheme for image generation or computer graphics
    • G06T2210/12Bounding box

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Image Processing (AREA)

Abstract

딥러닝 알고리즘을 활용하여 이미지를 보정하는 이미지 보정 방법 및 이를 수행하는 이미지 보정 시스템이 개시된다. 본 개시의 기술적 사상의 일측면에 따른 이미지 보정 방법은, 객체가 포함된 이미지를 수신하는 단계, 딥 러닝 알고리즘을 활용하여 상기 객체에 대응되는 적어도 하나의 기준점을 추출하는 단계, 상기 적어도 하나의 기준점 중 제1 기준점 및 제2 기준점을 이은 가상 선의 각도를 계산하는 단계 및 계산한 상기 각도를 활용하여 상기 이미지를 회전하는 단계를 포함할 수 있다.An image correction method for correcting an image using a deep learning algorithm and an image correction system for performing the same are disclosed. An image correction method according to one aspect of the technical idea of the present disclosure includes receiving an image including an object, extracting at least one reference point corresponding to the object by using a deep learning algorithm, the at least one reference point The method may include calculating an angle of a virtual line connecting the first reference point and the second reference point, and rotating the image using the calculated angle.

Description

딥러닝 알고리즘을 활용하여 이미지를 보정하는 이미지 보정 방법 및 이를 수행하는 이미지 보정 시스템{IMAGE CORRECTING METHOD CORRECT IMAGE BY USING DEEP LEARNING ALGORITHM AND IMAGE CORRECTING SYSTEM PERFORMING THE SAME}An image correction method for correcting an image using a deep learning algorithm and an image correction system performing the same

본 개시의 기술적 사상은 이미지 보정 방법 및 이를 수행하는 이미지 보정 시스템에 관한 것으로, 더욱 상세하게는 딥러닝 알고리즘을 활용하여 이미지에 대한 보정을 수행하는 이미지 보정 방법 및 이를 수행하는 이미지 보정 시스템에 관한 것이다.The technical idea of the present disclosure relates to an image correction method and an image correction system for performing the same, and more particularly, to an image correction method for performing image correction using a deep learning algorithm and an image correction system for performing the same. .

카메라는 단일 이미지 또는 비디오 신호의 프레임들로서 이용될 일련의 이미지들을 캡처하는데 이용될 수 있다. 사람들은 카메라를 이용하여 사람들을 피사체로 하는 이미지를 생성하고, 생성된 이미지를 추억을 보관하는 용도로 사용하거나 이력서, 여권 등에 붙이는 등의 공적인 용도 등 다양한 용도로 사용한다. 하지만, 이러한 이미지들은 카메라의 위치, 촬영사의 실력 등에 따라서 피사체인 사람이 원하는 위치에 오지 않도록 촬영될 수 있고, 피사체가 기울어지거나 원하는 사이즈의 이미지가 촬영되지 않는 등의 문제점이 발생할 수 있다.A camera can be used to capture a single image or a series of images to be used as frames of a video signal. People use cameras to create images with people as subjects, and use the created images for various purposes, such as for storing memories or for public purposes such as attaching resumes and passports. However, these images may be captured so that the subject does not come to a desired location depending on the location of the camera, the skill of the photographer, etc., and problems such as the subject tilting or not capturing an image of a desired size may occur.

이러한 문제점을 해결하기 위해 이미지 보정 기술이 등장하였다. 이미지의 사이즈, 각도, 위치 등을 조절하고, 피사체가 원하는 얼굴로 보정하기 위해 이러한 이미지 보정 기술이 사용되는데, 아직까지는 전문가의 전문 소프트웨어 툴이 있어야 이미지 보정이 가능하였고, 일반인들은 전문가 없이는 간단한 보정도 어려운 상황이 발생하였다. To solve this problem, image correction technology has appeared. This image correction technology is used to adjust the size, angle, position, etc. of the image, and to correct the subject to the desired face. Until now, image correction was possible only with professional software tools from experts, and ordinary people can do simple corrections without experts. A difficult situation has arisen.

본 개시의 기술적 사상이 해결하려는 과제는 딥러닝 알고리즘을 활용하여 이미지를 보정함으로써 자동으로 이미지에 대한 보정을 수행할 수 있는 이미지 보정 방법 및 이를 수행하는 이미지 보정 시스템을 제공하는데 있다. An object to be solved by the technical idea of the present disclosure is to provide an image correction method capable of automatically correcting an image by correcting an image using a deep learning algorithm and an image correction system performing the same.

본 개시의 기술적 사상이 해결하려는 과제는 딥러닝 알고리즘을 활용하여 이미지를 회전함으로써 자동으로 객체에 따라서 이미지에 대한 회전을 수행할 수 있는 이미지 보정 방법 및 이를 수행하는 이미지 보정 시스템을 제공하는데 있다. An object to be solved by the technical idea of the present disclosure is to provide an image correction method capable of automatically rotating an image according to an object by rotating an image using a deep learning algorithm and an image correction system that performs the same.

상기와 같은 목적을 달성하기 위하여, 본 개시의 기술적 사상의 일측면에 따른 이미지 보정 방법은, 객체가 포함된 이미지를 수신하는 단계, 딥 러닝 알고리즘을 활용하여 상기 객체에 대응되는 적어도 하나의 기준점을 추출하는 단계, 상기 적어도 하나의 기준점 중 제1 기준점 및 제2 기준점을 이은 가상 선의 각도를 계산하는 단계 및 계산한 상기 각도를 활용하여 상기 이미지를 회전하는 단계를 포함할 수 있다.In order to achieve the above object, an image correction method according to one aspect of the technical idea of the present disclosure includes receiving an image including an object, using a deep learning algorithm to determine at least one reference point corresponding to the object The method may include extracting, calculating an angle of a virtual line connecting a first reference point and a second reference point among the at least one reference point, and rotating the image using the calculated angle.

일 실시예에 따르면, 상기 제1 기준점과 상기 제2 기준점은 상기 객체의 중심축을 기준으로 서로 대칭되는 위치에 대응될 수 있다. According to an embodiment, the first reference point and the second reference point may correspond to positions symmetrical to each other with respect to the central axis of the object.

일 실시예에 따르면, 상기 객체는 사람의 얼굴이고, 상기 적어도 하나의 기준점은 사람의 얼굴을 구성하는 선들에 대응되고, 상기 제1 기준점은 상기 객체의 좌안에 포함되고, 상기 제2 기준점은 상기 객체의 우안에 포함될 수 있다.According to an embodiment, the object is a human face, the at least one reference point corresponds to lines constituting the human face, the first reference point is included in the left eye of the object, and the second reference point is the It may be included in the right eye of the object.

일 실시예에 따르면, 상기 제1 기준점은 상기 객체의 좌안에 포함된 점들 중 가장 왼쪽에 위치하고, 상기 제2 기준점은 상기 객체의 우안에 포함된 점들 중 가장 오른쪽에 위치하는 것을 특징으로 할 수 있다. According to one embodiment, the first reference point may be located at the leftmost among points included in the left eye of the object, and the second reference point may be located at the rightmost among points included in the right eye of the object. .

일 실시예에 따르면, 상기 제1 기준점은 상기 객체의 왼쪽 눈썹에 대응되는 점들 중 가장 왼쪽에 위치하고, 상기 제2 기준점은 상기 객체의 오른쪽 눈썹에 대응되는 점들 중 가장 오른쪽에 위치하는 것을 특징으로 할 수 있다.According to one embodiment, the first reference point is located at the leftmost of points corresponding to the left eyebrow of the object, and the second reference point is located at the rightmost among points corresponding to the right eyebrow of the object. can

일 실시예에 따르면, 상기 제1 기준점은 상기 객체의 입술에 대응되는 점들 중 가장 왼쪽에 위치하고, 상기 제2 기준점은 상기 객체의 입술에 대응되는 점들 중 가장 오른쪽에 위치하는 것을 특징으로 할 수 있다.According to an embodiment, the first reference point may be located at the leftmost side among points corresponding to the lips of the object, and the second reference point may be located at the rightmost side among points corresponding to the lips of the object. .

일 실시예에 따르면, 상기 이미지 보정 방법은, 상기 객체의 좌안에 포함되는 점들 중 적어도 일부에 대한 제1 평균 좌표를 상기 제1 기준점으로 결정하는 단계 및 상기 객체의 우안에 포함되는 점들 중 적어도 일부에 대한 제2 평균 좌표를 상기 제2 기준점으로 결정하는 단계를 더 포함할 수 있다. According to an embodiment, the image correction method includes determining first average coordinates of at least some of the points included in the left eye of the object as the first reference point and at least some of the points included in the right eye of the object. The method may further include determining a second average coordinate for the second reference point.

일 실시예에 따르면, 상기 제1 기준점은 상기 객체의 코에 대응되는 점들 중 가장 위에 위치하고, 상기 제2 기준점은 상기 객체의 코에 대응되는 점들 중 가장 아래에 위치하는 것을 특징으로 할 수 있다.According to an embodiment, the first reference point may be positioned at the top among points corresponding to the nose of the object, and the second reference point may be positioned at the bottom among points corresponding to the nose of the object.

일 실시예에 따르면, 상기 가상 선의 각도는 수평 선과 상기 가상 선이 이루는 각도이고, 상기 이미지를 회전하는 단계는, 상기 이미지를 상기 가상 선이 상기 수평 선과 일치되도록 회전하는 단계를 포함할 수 있다.According to an embodiment, the angle of the virtual line is an angle between a horizontal line and the virtual line, and rotating the image may include rotating the image so that the virtual line matches the horizontal line.

일 실시예에 따르면, 상기 이미지 보정 방법은, 바운딩 박스에 대한 정보를 수신하는 단계, 상기 적어도 하나의 기준점 중 제3 기준점 및 제4 기준점을 이용하여 상기 바운딩 박스에 대응되도록 상기 이미지의 크기를 조절하는 단계 및 상기 적어도 하나의 기준점 중 제5 기준점을 이용하여 상기 바운딩 박스에 대응되도록 상기 이미지의 위치를 변경하는 단계를 더 포함하고, 상기 이미지의 크기를 조절하는 단계는, 상기 제3 기준점 및 상기 제4 기준점의 좌표 거리를 계산하는 단계, 상기 바운딩 박스의 가로 길이를 획득하는 단계, 상기 좌표 거리와 상기 가로 길이의 비율을 계산하는 단계 및 계산한 상기 비율에 기초하여 상기 이미지의 크기를 조절하는 단계를 포함하고, 상기 이미지의 위치를 변경하는 단계는, 상기 바운딩 박스의 중점의 X좌표를 계산하는 단계, 상기 제3 기준점 및 상기 제4 기준점의 중점을 계산하는 단계, 상기 제3 기준점 및 상기 제4 기준점의 중점과 상기 바운딩 박스의 중점의 X좌표가 일치하도록 상기 이미지의 X축으로 이동하는 단계, 상기 바운딩 박스의 아랫변의 Y좌표를 획득하는 단계 및 상기 제5 기준점과 상기 바운딩 박스의 아랫변의 Y좌표가 일치하도록 상기 이미지의 Y축으로 이동하는 단계를 포함할 수 있다.According to an embodiment, the image correction method may include receiving information about a bounding box, and adjusting a size of the image to correspond to the bounding box using a third reference point and a fourth reference point among the at least one reference point. and changing the position of the image so as to correspond to the bounding box using a fifth reference point among the at least one reference point, wherein the adjusting the size of the image comprises: Calculating a coordinate distance of a fourth reference point, obtaining a horizontal length of the bounding box, calculating a ratio between the coordinate distance and the horizontal length, and adjusting the size of the image based on the calculated ratio The step of changing the location of the image includes: calculating an X coordinate of a midpoint of the bounding box; calculating midpoints of the third reference point and the fourth reference point; Moving along the X-axis of the image so that the midpoint of the fourth reference point and the X-coordinate of the midpoint of the bounding box coincide, acquiring the Y-coordinate of the lower side of the bounding box, and the fifth reference point and the lower edge of the bounding box. and moving the Y-axis of the image so that the Y-coordinates of the sides coincide.

본 개시의 예시적 실시예에 따른 이미지 보정 방법 및 이를 수행하는 이미지 보정 시스템에 따르면, 딥러닝 알고리즘을 활용하여 추출된 기준점을 이용하여 사용자가 자동으로 이미지를 회전할 수 있고, 이에 따라서 사용자가 전문적인 편집 작업 없이도 객체에 따라서 회전된 이미지를 획득할 수 있다. According to an image correction method and an image correction system performing the same according to an exemplary embodiment of the present disclosure, a user can automatically rotate an image using a reference point extracted using a deep learning algorithm, and accordingly, the user can Rotated images can be obtained according to the object without any special editing work.

도 1은 본 개시의 예시적 실시예에 따른 이미지 보정 방법을 나타내는 도면이다.
도 2는 본 개시의 예시적 실시예에 따른 이미지 보정 시스템을 나타내는 블록도이다.
도 3은 본 개시의 예시적 실시예에 따른 이미지 보정 방법을 나타내는 도면이다.
도 4는 본 개시의 예시적 실시예에 따른 이미지 보정 방법을 나타내는 순서도이다.
도 5는 본 개시의 예시적 실시예에 따른 이미지 보정 방법을 나타내는 도면이다.
도 6은 본 개시의 예시적 실시예에 따른 이미지 보정 방법을 나타내는 도면이다.
도 7은 본 개시의 예시적 실시예에 따른 이미지 보정 방법을 나타내는 순서도이다.
도 8은 본 개시의 예시적 실시예에 따른 이미지 보정 방법을 나타내는 도면이다.
도 9는 본 개시의 예시적 실시예에 따른 이미지 보정 방법을 나타내는 순서도이다.
도 10은 본 개시의 예시적 실시예에 따른 이미지 보정 방법을 나타내는 순서도이다.
도 11은 본 개시의 예시적 실시예에 따른 이미지 보정 방법을 나타내는 순서도이다.
도 12는 본 개시의 예시적 실시예에 따른 이미지 보정 방법을 나타내는 도면이다.
1 is a diagram illustrating an image correction method according to an exemplary embodiment of the present disclosure.
Fig. 2 is a block diagram illustrating an image correction system according to an exemplary embodiment of the present disclosure.
3 is a diagram illustrating an image correction method according to an exemplary embodiment of the present disclosure.
Fig. 4 is a flowchart illustrating an image correction method according to an exemplary embodiment of the present disclosure.
5 is a diagram illustrating an image correction method according to an exemplary embodiment of the present disclosure.
6 is a diagram illustrating an image correction method according to an exemplary embodiment of the present disclosure.
Fig. 7 is a flowchart illustrating an image correction method according to an exemplary embodiment of the present disclosure.
8 is a diagram illustrating an image correction method according to an exemplary embodiment of the present disclosure.
Fig. 9 is a flowchart illustrating an image correction method according to an exemplary embodiment of the present disclosure.
Fig. 10 is a flowchart illustrating an image correction method according to an exemplary embodiment of the present disclosure.
Fig. 11 is a flowchart illustrating an image correction method according to an exemplary embodiment of the present disclosure.
12 is a diagram illustrating an image correction method according to an exemplary embodiment of the present disclosure.

이하, 첨부한 도면을 참조하여 본 개시의 실시예에 대해 상세히 설명한다. 본 발명의 실시예는 당 업계에서 평균적인 지식을 가진 자에게 본 발명을 보다 완전하게 설명하기 위하여 제공되는 것이다. 본 발명은 다양한 변경을 가할 수 있고 여러 가지 형태를 가질 수 있는 바, 특정 실시예들을 도면에 예시하고 상세하게 설명하고자 한다. 그러나, 이는 본 발명을 특정한 개시 형태에 대해 한정하려는 것이 아니며, 본 발명의 사상 및 기술 범위에 포함되는 모든 변경, 균등물 내지 대체물을 포함하는 것으로 이해되어야 한다. 각 도면을 설명하면서 유사한 참조부호를 유사한 구성요소에 대해 사용한다. 첨부된 도면에 있어서, 구조물들의 치수는 본 발명의 명확성을 기하기 위하여 실제보다 확대하거나 축소하여 도시한 것이다.Hereinafter, embodiments of the present disclosure will be described in detail with reference to the accompanying drawings. The embodiments of the present invention are provided to more completely explain the present invention to those skilled in the art. Since the present invention can have various changes and various forms, specific embodiments are illustrated in the drawings and described in detail. However, it should be understood that this is not intended to limit the present invention to the specific disclosed form, and includes all modifications, equivalents, and substitutes included in the spirit and scope of the present invention. In describing each figure, like reference numbers are used for like elements. In the accompanying drawings, the dimensions of the structures are shown enlarged or reduced than actual for clarity of the present invention.

본 개시에서 사용한 용어는 단지 특정한 실시예를 설명하기 위해 사용된 것으로, 본 발명을 한정하려는 의도가 아니다. 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. 본 개시에서, "포함하다" 또는 "가지다" 등의 용어는 명세서 상에 기재된 특징, 숫자, 단계, 동작, 구성요소, 부분품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성 요소, 부분품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다. 본 개시에서 사용한 "제1~", "제2~" 와 같은 서수적인 표현은 "제1~"이 "제2~"보다 앞선 것임을 한정하지 않으며, 유사한 구성을 달리 구분하여 표현하기 위한 것으로 이해되어야 한다. 또한, 청구항에서 "제1~" 로 표현되었다고 하여 명세서 상의 "제1~"에 한정되어 해석되지 않고, "제1~" 내지 "제n~" 중 어느 하나를 지칭하도록 표현된 것임은 이해되어야 한다.Terms used in this disclosure are only used to describe specific embodiments, and are not intended to limit the present invention. Singular expressions include plural expressions unless the context clearly dictates otherwise. In the present disclosure, terms such as "comprise" or "having" are intended to indicate that there is a feature, number, step, operation, component, part, or combination thereof described in the specification, but one or more other features It should be understood that it does not preclude the possibility of the presence or addition of numbers, steps, operations, components, parts, or combinations thereof. It is understood that ordinal expressions such as "first ~" and "second ~" used in the present disclosure do not limit that "first ~" precedes "second ~", and are intended to distinguish and express similar configurations differently. It should be. In addition, it should be understood that even though it is expressed as "first ~" in the claims, it is not construed as limited to "first ~" in the specification, and is expressed to refer to any one of "first ~" to "nth ~". do.

다르게 정의되지 않는 한, 기술적이거나 과학적인 용어를 포함해서 여기서 사용되는 모든 용어들은 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 것과 동일한 의미를 갖는다. 일반적으로 사용되는 사전에 정의되어 있는 것과 같은 용어들은 관련 기술의 문맥상 가지는 의미와 일치하는 의미를 가지는 것으로 해석되어야 하며, 본 출원에서 명백하게 정의하지 않는 한, 이상적이거나 과도하게 형식적인 의미로 해석되지 않는다.Unless defined otherwise, all terms used herein, including technical or scientific terms, have the same meaning as commonly understood by one of ordinary skill in the art to which this invention belongs. Terms such as those defined in commonly used dictionaries should be interpreted as having a meaning consistent with the meaning in the context of the related art, and unless explicitly defined in this application, it should not be interpreted in an ideal or excessively formal meaning. don't

도 1은 본 개시의 예시적 실시예에 따른 이미지 보정 방법을 나타내는 도면이다.1 is a diagram illustrating an image correction method according to an exemplary embodiment of the present disclosure.

도 1을 참조하면, 이미지 보정 방법(S1)은 이미지 수신 단계(S10), 기준점 추출 단계(S20), 이미지 회전 단계(S30), 이미지 크기 조절 단계(S40), 이미지 이동 단계(S50)를 포함할 수 있다. Referring to FIG. 1, the image correction method (S1) includes an image reception step (S10), a reference point extraction step (S20), an image rotation step (S30), an image size adjustment step (S40), and an image movement step (S50). can do.

이미지 수신 단계(S10)에서, 이미지 보정 시스템은 사용자로부터 객체가 포함된 이미지를 수신할 수 있다. 일 실시예에서, 이미지 보정 시스템은 이미지를 업로드 가능한 웹사이트 또는 어플리케이션을 운용할 수 있고, 사용자는 이미지 보정 시스템에 의해 운용되는 웹사이트 또는 어플리케이션에 이미지를 업로드함으로써 이미지 보정 시스템에 이미지를 전송할 수 있다.In the image receiving step ( S10 ), the image correction system may receive an image including an object from a user. In one embodiment, the image correction system may operate a website or application capable of uploading images, and a user may transmit an image to the image correction system by uploading an image to a website or application operated by the image correction system. .

기준점 추출 단계(S20)에서, 이미지 보정 시스템은 딥러닝 알고리즘을 이용하여 이미지에 포함된 객체에 대응하는 적어도 하나의 기준점을 추출할 수 있다. 적어도 하나의 기준점은 이미지에 포함된 객체의 외곽선이나 형태를 따라서 위치할 수 있고, 객체가 사람의 얼굴인 실시예에서, 적어도 하나의 기준점은 얼굴에 포함된 눈, 눈썹, 코, 입술, 턱의 외곽선을 따라서 위치할 수 있다. In the reference point extraction step ( S20 ), the image correction system may extract at least one reference point corresponding to an object included in the image using a deep learning algorithm. At least one reference point may be located along the outline or shape of an object included in the image, and in an embodiment in which the object is a human face, at least one reference point may be located on the eyes, eyebrows, nose, lips, and chin included in the face. It can be located along the outline.

일 실시예에서, 이미지 보정 시스템은 딥러닝 알고리즘으로서 CNN(Convolutional Neural Network), HR Nets(High Resolution Networks)와 같은 이미지 분석 딥 러닝 알고리즘을 사용할 수 있으나, 본 개시의 기술적 사상은 이제 제한되지 않는다.In one embodiment, the image correction system may use an image analysis deep learning algorithm such as a convolutional neural network (CNN) or high resolution networks (HR Nets) as a deep learning algorithm, but the technical spirit of the present disclosure is not limited thereto.

이미지 회전 단계(S30)에서, 이미지 보정 시스템은 추출된 적어도 하나의 기준점을 이용하여 이미지를 회전할 수 있다. 일 실시예에서, 이미지 보정 시스템은 기준점을 활용하여 이미지의 회전 각도를 계산하고, 계산된 각도에 따라서 이미지를 회전할 수 있다. In the image rotation step ( S30 ), the image correction system may rotate the image using at least one extracted reference point. In one embodiment, the image correction system may calculate a rotation angle of the image using the reference point and rotate the image according to the calculated angle.

이미지 크기 조절 단계(S40)에서, 이미지 보정 시스템은 추출된 적어도 하나의 기준점을 이용하여 이미지의 크기를 조절할 수 있다. 일 실시예에서, 이미지 보정 시스템은 지정된 바운딩 박스의 크기 및 기준점을 활용하여 이미지가 바운딩 박스의 크기에 정합할 수 있도록 이미지의 크기를 확대하거나 축소할 수 있다. In the image size adjustment step (S40), the image correction system may adjust the size of the image using at least one extracted reference point. In one embodiment, the image calibration system may utilize the specified bounding box size and reference point to enlarge or reduce the size of the image so that the image matches the size of the bounding box.

이미지 이동 단계(S50)에서, 이미지 보정 시스템은 추출된 적어도 하나의 기준점을 이용하여 이미지를 이동할 수 있다. 일 실시예에서, 이미지 보정 시스템은 지정된 박스의 위치와 기준점을 활용하여 이미지가 바운딩 박스의 위치에 정합할 수 있도록 이미지를 이동시킬 수 있다. In the image movement step (S50), the image correction system may move the image using at least one extracted reference point. In one embodiment, the image correction system may utilize the location of the designated box and the reference point to move the image so that it matches the location of the bounding box.

본 개시의 기술적 사상에 따른 이미지 보정 방법에 따르면, 딥 러닝 알고리즘을 활용하여 추출한 기준점을 기초로 이미지를 자동으로 회전, 크기 조절, 이동함으로써, 사용자가 삐뚤어지거나, 객체가 너무 크거나, 객체가 너무 작거나, 객체가 지정된 위치에 벗어난 이미지를 업로드하더라도 자동으로 원하는 양식의 이미지를 획득할 수 있고, 이에 따라서 별다른 노력 없이 효율적으로 이미지에 대한 보정이 가능하다.According to the image correction method according to the technical idea of the present disclosure, by automatically rotating, resizing, or moving an image based on a reference point extracted using a deep learning algorithm, the user is distorted, the object is too large, or the object is too large. Even if an image that is small or the object is out of the designated location is uploaded, an image of a desired format can be automatically obtained, and accordingly, the image can be corrected efficiently without much effort.

도 1에서는 이미지 회전 단계(S30), 이미지 크기 조절 단계(S40), 이미지 이동 단계(S50)의 순서대로 진행되는 실시예가 도시되어 있으나, 이는 일 예시이고, 또 다른 실시예에서, 이미지 회전 단계(S30), 이미지 크기 조절 단계(S40), 이미지 이동 단계(S50)는 도시된 예시와 다른 순서로도 진행될 수 있다. 1 shows an embodiment in which the image rotation step (S30), the image size adjustment step (S40), and the image movement step (S50) are performed in order, but this is an example, and in another embodiment, the image rotation step ( S30), image size adjustment step (S40), and image movement step (S50) may also proceed in a different order from the illustrated example.

도 1에서는 도시되지 않았지만, 모든 단계를 마친 이미지는 미리 결정된 크기로 컷팅될 수 있다. Although not shown in FIG. 1 , the image after all steps may be cut to a predetermined size.

도 2는 본 개시의 예시적 실시예에 따른 이미지 보정 시스템을 나타내는 블록도이다.Fig. 2 is a block diagram illustrating an image correction system according to an exemplary embodiment of the present disclosure.

도 2를 참조하면, 이미지 보정 시스템(10)은 이미지(IMG)를 수신하고, 인공지능을 이용하여 자동으로 보정된 보정 이미지(IMG_C)를 출력하기 위해 활용되는 각종 소프트웨어, 하드웨어를 포함할 수 있고, 일 실시예에서, 이미지 보정 시스템(10)은 이미지 보정 시스템(10)을 관리하는 관리 서버(Server) 및 상기 서버를 운용하는 운용 컴퓨터 등을 포함할 수 있다. 관리 서버는 웹사이트, 어플리케이션(Application) 등의 응용 프로그램을 이용하여 이미지 보정 시스템을 운용할 수 있다. 본 명세서에서 이미지 보정 시스템의 각 구성이 수행하는 동작은 실제로 관리 서버의 저장 장치에 저장된 응용 프로그램이나 적어도 하나의 명령어를 이용하여 관리 서버의 프로세서가 수행하는 동작일 수 있다.Referring to FIG. 2 , the image correction system 10 may include various software and hardware utilized to receive an image IMG and output an automatically corrected image IMG_C using artificial intelligence, In one embodiment, the image correction system 10 may include a management server that manages the image correction system 10 and an operating computer that operates the server. The management server may operate the image correction system using an application program such as a website or an application. An operation performed by each component of the image calibration system in the present specification may actually be an operation performed by a processor of the management server using an application program stored in a storage device of the management server or at least one command.

이미지 보정 시스템(10)은 인공지능 모듈(110), 회전 모듈(120), 크기 조절 모듈(130) 및 이동 모듈(140)을 포함할 수 있다. 인공지능 모듈(110), 회전 모듈(120), 크기 조절 모듈(130) 및 이동 모듈(140) 각각의 동작은 구성별 소프트웨어 또는 적어도 하나의 명령어에 의해 구동되는 프로세서의 동작을 의미할 수 있다.The image correction system 10 may include an artificial intelligence module 110 , a rotation module 120 , a scaling module 130 and a movement module 140 . Each operation of the artificial intelligence module 110, the rotation module 120, the size adjustment module 130, and the movement module 140 may mean an operation of a processor driven by configuration-specific software or at least one command.

인공지능 모듈(110)은 이미지(IMG)를 수신하고, 이미지(IMG)로부터 적어도 하나의 기준점(CP)을 추출할 수 있다. 도 1에서 상술한 바와 같이 인공지능 모듈(110)은 CNN(Convolutional Neural Network), HR Nets(High Resolution Networks)와 같은 이미지 분석 딥 러닝 알고리즘을 사용하여 이미지(IMG)로부터 객체의 외곽선이나 형태를 따라서 위치하는 기준점(CP)을 추출할 수 있다. 인공지능 모듈(110)은 추출한 기준점(CP)을 회전 모듈(120), 크기 조절 모듈(130) 및 이동 모듈(140)에 출력할 수 있다.The artificial intelligence module 110 may receive the image IMG and extract at least one reference point CP from the image IMG. As described above in FIG. 1, the artificial intelligence module 110 uses image analysis deep learning algorithms such as CNN (Convolutional Neural Network) and HR Nets (High Resolution Networks) to follow the outline or shape of an object from an image (IMG). It is possible to extract the reference point (CP) located. The artificial intelligence module 110 may output the extracted reference point CP to the rotation module 120, the size adjustment module 130, and the movement module 140.

회전 모듈(120)은 이미지(IMG)를 수신하고, 적어도 하나의 기준점(CP)을 기초로 이미지(IMG)에 대한 회전 각도를 계산할 수 있다. 일 실시예에서, 회전 모듈(120)은 적어도 하나의 기준점(CP) 중 제1 기준점 및 제2 기준점을 결정하고, 제1 기준점 및 제2 기준점에 대한 가상 선과 기준 선(예를 들면, 수평선, 수직선)이 이루는 각도를 계산함으로써 회전 각도를 계산할 수 있다. 일 실시예에서, 제1 기준점 및 제2 기준점은 이미지(IMG)에 포함되는 객체(예를 들면, 사람의 얼굴)의 중심선을 기준으로 대칭된 위치에 존재하는 점일 수 있다. 회전 모듈(120)은 계산된 회전 각도를 이용하여 이미지(IMG)를 회전시킴으로써 회전된 이미지(IMG_R)를 생성할 수 있다. 회전 모듈(120)은 회전된 이미지(IMG_R)를 크기 조절 모듈(130)에 출력할 수 있다.The rotation module 120 may receive the image IMG and calculate a rotation angle for the image IMG based on at least one reference point CP. In one embodiment, the rotation module 120 determines a first reference point and a second reference point among at least one reference point CP, and a virtual line and a reference line (for example, a horizontal line, The rotation angle can be calculated by calculating the angle formed by the vertical line). In one embodiment, the first reference point and the second reference point may be points that exist at symmetric positions based on the center line of an object (eg, a human face) included in the image IMG. The rotation module 120 may generate the rotated image IMG_R by rotating the image IMG using the calculated rotation angle. The rotation module 120 may output the rotated image IMG_R to the scaling module 130 .

크기 조절 모듈(130)은 회전된 이미지(IMG_R)를 수신하고, 별도로 수신한 바운딩 박스(BB)에 대한 크기 정보 및 적어도 하나의 기준점(CP)을 이용하여, 바운딩 박스(BB)의 크기에 정합하도록 회전된 이미지(IMG_R)의 크기를 변경할 수 있다. 본 명세서에서, 바운딩 박스(BB)는 크기 및 위치가 지정된 직사각형의 가상 박스로서, 일 실시예에서, 사용자가 원하는 사진의 종류에 따라서 바운딩 박스(BB)를 지정할 수 있고, 지정된 바운딩 박스에 맞도록 이미지가 보정될 수 있다. The size adjustment module 130 receives the rotated image IMG_R, and matches the size of the bounding box BB using the separately received size information of the bounding box BB and at least one reference point CP. The size of the rotated image (IMG_R) can be changed to In the present specification, the bounding box (BB) is a rectangular virtual box whose size and position are designated. In one embodiment, the bounding box (BB) can be designated according to the type of photo desired by the user, so as to fit the designated bounding box. Images can be corrected.

크기 조절 모듈(130)은 적어도 하나의 기준점(CP) 중 제3 기준점 및 제4 기준점을 이용하여 회전된 이미지(IMG_R)의 크기를 조절할 수 있다. 일 실시예에서, 크기 조절 모듈(130)은 제3 기준점 및 제4 기준점 사이의 좌표 거리를 계산하고, 계산된 좌표 거리와 바운딩 박스(BB)의 길이(예를 들면, 가로 길이 또는 세로 길이)가 일치하도록 회전된 이미지(IMG_R)의 크기를 조절할 수 있다. 크기 조절 모듈(130)은 회전된 이미지(IMG_R)의 크기를 조절함으로써 크기가 변경된 이미지(IMG_S)를 생성하고, 크기가 변경된 이미지(IMG_S)를 이동 모듈(140)에 출력할 수 있다.The size adjustment module 130 may adjust the size of the rotated image IMG_R using the third and fourth reference points among the at least one reference point CP. In one embodiment, the scaling module 130 calculates a coordinate distance between the third reference point and the fourth reference point, and calculates the coordinate distance and the length (eg, horizontal length or vertical length) of the bounding box BB. The size of the rotated image (IMG_R) can be adjusted so that it matches. The size adjustment module 130 may generate a size-changed image IMG_S by adjusting the size of the rotated image IMG_R and output the size-changed image IMG_S to the movement module 140 .

이동 모듈(140)은 크기가 변경된 이미지(IMG_S)를 수신하고, 바운딩 박스(BB)에 대한 위치 정보 및 적어도 하나의 기준점(CP)을 이용하여 바운딩 박스(BB)의 위치에 정합하도록 크기가 변경된 이미지(IMG_S)의 위치를 변경할 수 있다. 일 실시예에서, 이동 모듈(140)은 적어도 하나의 기준점(CP) 중 제5 기준점 및 제6 기준점의 중점이 바운딩 박스(BB)의 중점과 일치하도록 크기가 변경된 이미지(IMG_S)를 X축 방향으로 이동하고, 적어도 하나의 기준점(CP) 중 제7 기준점이 바운딩 박스(BB)의 아래변과 일치하도록 크기가 변경된 이미지(IMG_S)를 Y축 방향으로 이동할 수 있다. 이동 모듈(140)은 크기가 변경된 이미지(IMG_S)를 이동한 결과 보정된 이미지(IMG_C)를 생성할 수 있고, 보정된 이미지(IMG_C)를 외부(예를 들면, 사용자가 운용하는 단말)에 출력할 수 있다.The movement module 140 receives the size-changed image IMG_S, and uses the location information of the bounding box BB and at least one reference point CP to change the size to match the position of the bounding box BB. The position of the image (IMG_S) can be changed. In one embodiment, the movement module 140 transfers the image IMG_S whose size has been changed so that midpoints of the fifth and sixth reference points of the at least one reference point CP coincide with the midpoint of the bounding box BB in the X-axis direction. , and the size-changed image IMG_S may be moved in the Y-axis direction so that the seventh reference point among the at least one reference point CP coincides with the lower side of the bounding box BB. The movement module 140 may generate a corrected image IMG_C as a result of moving the size-changed image IMG_S, and output the corrected image IMG_C to an external device (eg, a terminal operated by a user). can do.

본 개시의 기술적 사상에 따른 이미지 보정 시스템(10)은 이미지로부터 기준점을 추출하고, 추출된 기준점을 이용하여 회전, 크기 조절, 이동을 수행함으로써 사용자가 원하는 방향으로 효율적으로 이미지를 보정할 수 있다.The image correction system 10 according to the technical idea of the present disclosure extracts a reference point from an image, and rotates, scales, and moves using the extracted reference point, thereby efficiently correcting an image in a direction desired by a user.

도 3은 본 개시의 예시적 실시예에 따른 이미지 보정 방법을 나타내는 도면이다. 상세하게는, 도 3은 도 1의 기준점 추출 단계(S20)에 따라서 딥러닝 알고리즘을 활용하여 적어도 하나의 기준점을 추출하는 동작을 나타낸다. 3 is a diagram illustrating an image correction method according to an exemplary embodiment of the present disclosure. In detail, FIG. 3 shows an operation of extracting at least one reference point using a deep learning algorithm according to the reference point extraction step (S20) of FIG. 1 .

도 2 및 도 3을 참조하면, 인공지능 모듈(110)은 사람 얼굴이 포함된 이미지(IMG)를 수신하고, 딥 러닝 알고리즘을 활용하여 이미지(IMG)로부터 적어도 하나의 기준점(CP)을 추출할 수 있다. Referring to FIGS. 2 and 3 , the artificial intelligence module 110 receives an image IMG including a human face and extracts at least one reference point CP from the image IMG using a deep learning algorithm. can

도 3에서는 턱선에 대응하는 1번 내지 17번 기준점, 왼쪽 눈썹에 대응하는 18번 내지 22번 기준점, 오른쪽 눈썹에 대응하는 23번 내지 27번 기준점, 코에 대응하는 28번 내지 31번 기준점, 콧구멍에 대응하는 32번 내지 36번 기준점, 좌안(왼쪽 눈)에 대응하는 37번 내지 42번 기준점, 우안(오른쪽 눈)에 대응하는 43번 내지 48번 기준점, 입술에 대응하는 49번 내지 68번 기준점의 총 68개의 기준점이 추출될 수 있다. 본 개시의 기술적 사상에 따른 기준점의 개수 및 위치는 도 3의 예시에 한정되지 않고, 다양하게 조절 가능함은 당연하다.3, reference points 1 to 17 corresponding to the jaw line, reference points 18 to 22 corresponding to the left eyebrow, reference points 23 to 27 corresponding to the right eyebrow, reference points 28 to 31 corresponding to the nose, nose Reference points 32 to 36 corresponding to the hole, reference points 37 to 42 corresponding to the left eye (left eye), reference points 43 to 48 corresponding to the right eye (right eye), and reference points 49 to 68 corresponding to the lips A total of 68 reference points of reference points can be extracted. The number and location of the reference points according to the technical idea of the present disclosure are not limited to the example of FIG. 3 and can be variously adjusted.

도 4는 본 개시의 예시적 실시예에 따른 이미지 보정 방법을 나타내는 순서도이다. 상세하게는, 도 4는 도 1의 이동 단계(S30)를 나타낸다. Fig. 4 is a flowchart illustrating an image correction method according to an exemplary embodiment of the present disclosure. In detail, FIG. 4 shows the moving step (S30) of FIG.

도 2 및 도 4를 참조하면, 이미지 보정 시스템(10)은 추출된 적어도 하나의 기준점 중 제1 기준점 및 제2 기준점을 이은 가상 선의 각도를 계산할 수 있다(S110). 일 실시예에서, 제1 기준점 및 제2 기준점은 이미지 보정 시스템(10)에 의해 미리 결정될 수 있고, 객체를 중심으로 서로 대칭되도록 결정될 수 있다. Referring to FIGS. 2 and 4 , the image correction system 10 may calculate an angle of a virtual line connecting a first reference point and a second reference point among at least one extracted reference point ( S110 ). In one embodiment, the first reference point and the second reference point may be determined in advance by the image correction system 10 and may be determined to be symmetrical to each other with respect to the object.

일 예시에서, 제1 기준점은 객체의 좌안에 포함된 점들 중 가장 왼쪽에 위치하는 기준점이고, 제2 기준점은 객체의 우안에 포함된 점들 중 가장 오른쪽에 위치하는 기준점일 수 있다. 일 예시에서, 제1 기준점은 객체의 왼쪽 눈썹에 대응되는 점들 중 가장 왼쪽에 위치하는 기준점이고, 제2 기준점은 객체의 오른쪽 눈썹에 대응되는 점들 중 가장 오른쪽에 위치하는 기준점일 수 있다. In one example, the first reference point may be a leftmost reference point among points included in the left eye of the object, and the second reference point may be a rightmost reference point among points included in the object's right eye. In one example, the first reference point may be the leftmost reference point among points corresponding to the object's left eyebrow, and the second reference point may be the rightmost reference point among points corresponding to the object's right eyebrow.

일 예시에서, 제1 기준점은 상기 객체의 입술에 대응되는 점들 중 가장 왼쪽에 위치하는 기준점이고, 제2 기준점은 상기 객체의 입술에 대응되는 점들 중 가장 오른쪽에 위치하는 기준점일 수 있다. 일 예시에서, 제1 기준점은 객체의 좌안에 포함되는 점들 중 적어도 일부에 대한 평균 좌표일 수 있고, 제2 기준점은 객체의 우안에 포함되는 점들 중 적어도 일부에 대한 평균 좌표일 수 있다. 일 예시에서, 제1 기준점은 객체의 코에 대응되는 점들 중 가장 위에 위치하는 기준점이고, 제2 기준점은 객체의 코에 대응되는 점들 중 가장 아래에 위치하는 기준점일 수 있다. In one example, the first reference point may be a leftmost reference point among points corresponding to the lips of the object, and the second reference point may be a rightmost reference point among points corresponding to the lips of the object. In one example, the first reference point may be the average coordinate of at least some of the points included in the left eye of the object, and the second reference point may be the average coordinate of at least some of the points included in the right eye of the object. In one example, the first reference point may be a reference point located at the top among points corresponding to the nose of the object, and the second reference point may be a reference point located at the bottom among points corresponding to the nose of the object.

본 개시의 일 실시예에 따르면, 사람의 대칭적인 포인트가 될 수 있는 기준점이 결정될 수 있고, 이에 따라서 이미지를 회전함으로써 이미지가 효율적이고 똑바르게 회전될 수 있다. According to an embodiment of the present disclosure, a reference point that can be a symmetrical point of a person can be determined, and the image can be efficiently and straightly rotated by rotating the image accordingly.

이미지 보정 시스템(10)은 기준점을 이용하여 계산한 각도를 이용하여 이미지(IMG)를 회전함으로써 회전된 이미지(IMG_R)를 생성할 수 있다(S120).The image correction system 10 may generate the rotated image IMG_R by rotating the image IMG using the angle calculated using the reference point (S120).

본 개시의 일 실시예에 따른 이미지 보정 시스템(10)은 추출된 기준점을 활용하여 객체가 똑바르게 보일 수 있도록 자동으로 회전할 수 있고, 이에 따라서 사용자가 별다른 전문적인 보정 기술 없이 자동으로 편하게 회전 보정을 수행할 수 있다. 또한, 본 개시의 일 실시예에 따르면, 사람의 대칭적인 포인트가 될 수 있는 기준점이 결정될 수 있고, 이에 따라서 이미지를 회전함으로써 이미지가 효율적이고 똑바르게 회전될 수 있다. The image correction system 10 according to an embodiment of the present disclosure can automatically rotate an object to look straight using the extracted reference point, and accordingly, the user can automatically and comfortably correct the rotation without any special correction technology. can be performed. In addition, according to an embodiment of the present disclosure, a reference point that can be a symmetrical point of a person can be determined, and the image can be efficiently and straightly rotated by rotating the image accordingly.

도 4에서 나열된 기준점을 결정하는 예시는 일 예시일 뿐이고, 이미지(IMG)를 똑바르게 회전하기 위해 적어도 두 개의 기준점을 결정하고 이를 이용하여 이미지(IMG)를 회전하는 실시예는 본 개시의 기술적 사상에 포함됨은 이해되어야 할 것이다.The example of determining the reference points listed in FIG. 4 is just one example, and the embodiment of determining at least two reference points to straightly rotate the image IMG and rotating the image IMG using them is the technical spirit of the present disclosure. Inclusion in should be understood.

도 5는 본 개시의 예시적 실시예에 따른 이미지 보정 방법을 나타내는 도면이다. 상세하게는, 도 5는 눈 양쪽 끝점을 이용하여 이미지를 회전하는 실시예를 나타낸다. 5 is a diagram illustrating an image correction method according to an exemplary embodiment of the present disclosure. In detail, FIG. 5 shows an embodiment of rotating an image using both end points of an eye.

도 2 및 도 5(a)를 참조하면, 이미지 보정 시스템(10)은 제1 기준점(CP1)으로 객체의 좌안에 포함되는 기준점 중 가장 왼쪽에 위치하는 37번 기준점을 결정할 수 있고, 제2 기준점(CP2)으로 객체의 우안에 포함되는 기준점 중 가장 오른쪽에 위치하는 46번 기준점을 결정할 수 있다. 이미지 보정 시스템(10)은 제1 기준점(CP1) 및 제2 기준점(CP2)을 이은 가상 선(CPL)이 이루는 각도(Deg)를 계산할 수 있다. Referring to FIGS. 2 and 5(a) , the image correction system 10 may determine the 37th reference point located at the leftmost position among the reference points included in the left eye of the object as the first reference point CP1, and the second reference point With (CP2), it is possible to determine the 46th reference point located at the rightmost among the reference points included in the right eye of the object. The image correction system 10 may calculate an angle Deg formed by a virtual line CPL connecting the first reference point CP1 and the second reference point CP2.

도 5(b)를 참조하면, 이미지 보정 시스템(10)은 계산한 각도(Deg)를 이용하여 이미지(IMG)를 회전함으로써 회전된 이미지(IMG_R)를 생성할 수 있다.Referring to FIG. 5(b) , the image correction system 10 may generate a rotated image IMG_R by rotating the image IMG using the calculated angle Deg.

도 6은 본 개시의 예시적 실시예에 따른 이미지 보정 방법을 나타내는 도면이다. 상세하게는, 도 6는 기준점을 결정하는 다양한 실시예를 도시한다. 도 5와 중복되는 내용은 생략한다. 6 is a diagram illustrating an image correction method according to an exemplary embodiment of the present disclosure. In detail, FIG. 6 shows various embodiments of determining a reference point. Contents overlapping with those of FIG. 5 are omitted.

도 2 및 도 6(a)를 참조하면, 이미지 보정 시스템(10)은 제1 기준점(CP1_1)으로 객체의 왼쪽 눈썹에 포함되는 기준점 중 가장 왼쪽에 위치하는 18번 기준점을 결정할 수 있고, 제2 기준점(CP2_1)으로 객체의 오른쪽 눈썹에 포함되는 기준점 중 가장 오른쪽에 위치하는 27번 기준점을 결정할 수 있다. 이미지 보정 시스템(10)은 제1 기준점(CP1_1) 및 제2 기준점(CP2_1)을 이은 가상 선(CPL1)이 이루는 각도(Deg1)를 계산할 수 있다. 이미지 보정 시스템(10)은 계산한 각도(Deg1)를 이용하여 이미지(IMG)를 회전함으로써 회전된 이미지(IMG_R)를 생성할 수 있다.Referring to FIGS. 2 and 6(a) , the image correction system 10 may determine the 18th reference point located at the leftmost position among the reference points included in the left eyebrow of the object as the first reference point CP1_1. As the reference point CP2_1, the 27th reference point located at the rightmost among the reference points included in the right eyebrow of the object may be determined. The image correction system 10 may calculate an angle Deg1 formed by a virtual line CPL1 connecting the first reference point CP1_1 and the second reference point CP2_1. The image correction system 10 may generate the rotated image IMG_R by rotating the image IMG using the calculated angle Deg1.

도 2 및 도 6(b)를 참조하면, 이미지 보정 시스템(10)은 객체의 좌안에 포함되는 37번 기준점 내지 42번 기준점 중 적어도 일부의 좌표를 이용하여 제1 평균 좌표를 구하고, 제1 평균 좌표를 제1 기준점(CP1_2)으로 결정할 수 있다. 또한, 이미지 보정 시스템(10)은 객체의 우안에 포함되는 43번 기준점 내지 48번 기준점 중 적어도 일부의 좌표를 이용하여 제2 평균 좌표를 구하고, 제2 평균 좌표를 제2 기준점(CP2_2)으로 결정할 수 있다. 이미지 보정 시스템(10)은 제1 기준점(CP1_2) 및 제2 기준점(CP2_2)을 이은 가상 선(CPL2)이 이루는 각도(Deg2)를 계산하고, 계산한 각도(Deg2)를 이용하여 이미지(IMG)를 회전함으로써 회전된 이미지(IMG_R)를 생성할 수 있다.Referring to FIGS. 2 and 6(b) , the image correction system 10 obtains a first average coordinate using at least some coordinates of reference points 37 to 42 included in the left eye of the object, and obtains a first average coordinate. Coordinates may be determined as the first reference point CP1_2. In addition, the image correction system 10 obtains the second average coordinates using at least some coordinates of reference points 43 to 48 included in the right eye of the object, and determines the second average coordinates as the second reference point CP2_2. can The image correction system 10 calculates the angle Deg2 formed by the imaginary line CPL2 connecting the first reference point CP1_2 and the second reference point CP2_2, and calculates the image IMG using the calculated angle Deg2. A rotated image (IMG_R) can be created by rotating .

도 2 및 도 6(c)를 참조하면, 이미지 보정 시스템(10)은 제1 기준점(CP1_3)으로 객체의 코에 포함되는 기준점 중 가장 위쪽에 위치하는 28번 기준점을 결정할 수 있고, 제2 기준점(CP2_3)으로 객체의 코에 포함되는 기준점 중 가장 아래쪽에 위치하는 31번 기준점을 결정할 수 있다. 이미지 보정 시스템(10)은 제1 기준점(CP1_3) 및 제2 기준점(CP2_3)을 이은 가상 선(CPL3)이 이루는 각도(Deg3)를 계산할 수 있다. 이미지 보정 시스템(10)은 계산한 각도(Deg3)를 이용하여 이미지(IMG)를 회전함으로써 회전된 이미지(IMG_R)를 생성할 수 있다.Referring to FIGS. 2 and 6(c) , the image correction system 10 may determine the 28th reference point located at the top among the reference points included in the nose of the object as the first reference point CP1_3, and the second reference point With (CP2_3), the 31st reference point located at the bottom among the reference points included in the object's nose can be determined. The image correction system 10 may calculate an angle Deg3 formed by a virtual line CPL3 connecting the first reference point CP1_3 and the second reference point CP2_3 . The image correction system 10 may generate the rotated image IMG_R by rotating the image IMG using the calculated angle Deg3.

본 개시의 실시예들에 따른 기준점을 결정하는 예시는 도 6에 나타난 예시에 한정되지 않고, 일 예시에서, 입술의 양 쪽 끝점(49번 기준점, 55번 기준점)이 제1 기준점 및 제2 기준점으로 결정될 수 있고, 좌안에 포함되는 점들(37번 내지 42번 기준점과 우안에 포함되는 점들(43번 내지 48번 기준점)이 대응되는 쌍으로써 각각 제1 기준점 및 제2 기준점으로 결정될 수 있다.An example of determining a reference point according to embodiments of the present disclosure is not limited to the example shown in FIG. 6, and in one example, both end points of the lips (reference point 49 and reference point 55) are the first reference point and the second reference point. , and points included in the left eye (reference points 37 to 42) and points included in the right eye (reference points 43 to 48) are corresponding pairs, and can be determined as the first reference point and the second reference point, respectively.

도 7은 본 개시의 예시적 실시예에 따른 이미지 보정 방법을 나타내는 순서도이다. 상세하게는, 도 7은 도 1의 크기 조절 단계(S40)를 나타낸다. Fig. 7 is a flowchart illustrating an image correction method according to an exemplary embodiment of the present disclosure. In detail, FIG. 7 shows the size adjustment step (S40) of FIG.

도 2 및 도 7를 참조하면, 이미지 보정 시스템(10)은 바운딩 박스(BB)의 크기 정보를 수신할 수 있다(S210). 일 실시예에서, 이미지 보정 시스템(10)은 바운딩 박스(BB)의 가로와 세로 크기 정보를 수신할 수 있고, 또 다른 실시예에서, 이미지 보정 시스템(10)은 바운딩 박스를 구성하는 네 개의 꼭지점에 대한 좌표 정보를 수신하고, 좌표들에 대한 거리를 계산함으로써 바운딩 박스(BB)의 크기 정보를 획득할 수 있다. Referring to FIGS. 2 and 7 , the image correction system 10 may receive size information of the bounding box BB (S210). In one embodiment, the image correction system 10 may receive horizontal and vertical size information of the bounding box BB, and in another embodiment, the image correction system 10 may include four vertices constituting the bounding box. Size information of the bounding box BB may be obtained by receiving coordinate information for BB and calculating a distance to the coordinates.

이미지 보정 시스템(10)은 적어도 하나의 기준점 중 제3 기준점 및 제4 기준점의 좌표 거리를 계산할 수 있다(S220). 일 실시예에서, 제3 기준점 및 제3 기준점은 이미지 보정 시스템(10)에 의해 미리 결정될 수 있고, 객체를 중심으로 서로 대칭되도록 결정될 수 있다. 일 예시에서, 제3 기준점은 이미지(IMG)의 턱선에 대응되는 기준점 중 왼쪽에서 N(N은 자연수) 번째 위치하는 기준점이고, 제4 기준점은 턱선에 대응되는 기준점 중 오른쪽에서 N번째 위치하는 기준점일 수 있다. The image correction system 10 may calculate coordinate distances of the third reference point and the fourth reference point among at least one reference point (S220). In one embodiment, the third reference point and the third reference point may be determined in advance by the image correction system 10 and may be determined to be symmetrical to each other around the object. In one example, the third reference point is a reference point located N (where N is a natural number) th from the left among the reference points corresponding to the jaw line of the image IMG, and the fourth reference point is a reference point located N th from the right among the reference points corresponding to the jaw line of the image IMG. can be

이미지 보정 시스템(10)은 바운딩 박스(BB)의 가로 길이와 제3 기준점 및 제4 기준점 사이의 좌표 거리의 비율을 계산할 수 있다(S230). 이미지 보정 시스템(10)은 계산된 비율에 기초하여 이미지 크기를 확대하거나 축소함으로써 이미지 크기를 조절할 수 있다(S240).The image calibration system 10 may calculate a ratio of the coordinate distance between the horizontal length of the bounding box BB and the third reference point and the fourth reference point (S230). The image correction system 10 may adjust the image size by enlarging or reducing the image size based on the calculated ratio (S240).

본 개시의 일 실시예에 따른 이미지 보정 시스템(10)은 추출된 기준점을 활용하여 객체가 바운딩 박스(BB)의 크기에 맞을 수 있도록 자동으로 이미지의 크기를 조절할 수 있고, 이에 따라서 사용자가 별다른 전문적인 보정 기술 없이 자동으로 편하게 크기 조절 보정을 수행할 수 있다. The image correction system 10 according to an embodiment of the present disclosure can automatically adjust the size of an image so that an object can fit the size of a bounding box (BB) by utilizing the extracted reference point, and accordingly, a user may not have a special expertise. Resizing correction can be performed automatically and conveniently without any special correction technology.

도 7에서 나열된 기준점을 결정하는 예시는 일 예시이고, 이미지(IMG_R)의 크기를 바운딩 박스(BB)에 맞추기 위해 적어도 두 개의 기준점을 결정하고 이를 이용하여 이미지(IMG_R)의 크기를 조절하는 실시예는 본 개시의 기술적 사상에 포함됨은 이해되어야 할 것이다.The example of determining the reference points listed in FIG. 7 is an example, and an embodiment of determining at least two reference points to adjust the size of the image IMG_R to the bounding box BB and adjusting the size of the image IMG_R using the determined reference points. It should be understood that is included in the technical spirit of the present disclosure.

도 8은 본 개시의 예시적 실시예에 따른 이미지 보정 방법을 나타내는 도면이다. 상세하게는, 도 8은 기준점들을 이용하여 이미지의 크기를 조절하는 실시예를 나타낸다. 8 is a diagram illustrating an image correction method according to an exemplary embodiment of the present disclosure. In detail, FIG. 8 shows an embodiment of adjusting the size of an image using reference points.

도 2 및 도 8을 참조하면, 이미지 보정 시스템(10)은 제3 기준점(CP3)으로 턱선을 따라 추출된 1번 내지 17번 기준점 중 왼쪽에서 세번째 위치하는 3번 기준점을 결정할 수 있고, 제4 기준점(CP4)으로 턱선을 따라 추출된 1번 내지 17번 기준점 중 오른쪽에서 세번째 위치하는 15번 기준점을 결정할 수 있다.Referring to FIGS. 2 and 8 , the image correction system 10 may determine a third reference point located third from the left among reference points 1 to 17 extracted along the jaw line as the third reference point CP3, and As the reference point CP4, a reference point 15 located third from the right among reference points 1 to 17 extracted along the jaw line may be determined.

이미지 보정 시스템(10)은 제3 기준점(CP3)과 제4 기준점(CP4)의 좌표 길이를 계산할 수 있다. 일 실시예에서, 이미지 보정 시스템(10)은 제3 기준점(CP3)과 제4 기준점(CP4)의 x축 좌표 차이를 좌표 길이로서 계산할 수 있다. The image correction system 10 may calculate the coordinate lengths of the third reference point CP3 and the fourth reference point CP4. In one embodiment, the image correction system 10 may calculate the x-axis coordinate difference between the third reference point CP3 and the fourth reference point CP4 as the coordinate length.

또한, 이미지 보정 시스템(10)은 바운딩 박스(BB)의 정보를 기초로 바운딩 박스(BB)의 가로 길이를 획득할 수 있다. 이미지 보정 시스템(10)은 바운딩 박스의 가로 길이를 계산한 좌표 길이로 나눔으로써 크기 조절 비율을 계산할 수 있고, 이미지(IMG_R)의 크기를 크기 조절 비율에 기초하여 확대하거나 축소함으로써 크기가 조절된 이미지(IMG_S)를 획득할 수 있다. 이에 따라서, 이미지(IMG_S)는 객체의 원하는 부위에 바운딩 박스(BB)가 위치되도록 크기가 조절될 수 있다. Also, the image calibration system 10 may obtain the horizontal length of the bounding box BB based on the information of the bounding box BB. The image correction system 10 may calculate the scaling ratio by dividing the horizontal length of the bounding box by the calculated coordinate length, and the scaled image by enlarging or reducing the size of the image IMG_R based on the scaling ratio. (IMG_S) can be obtained. Accordingly, the size of the image IMG_S may be adjusted so that the bounding box BB is positioned at a desired part of the object.

본 개시의 일 실시예에 따르면, 바운딩 박스(BB)에 기초하여 사용자가 이미지를 컷팅하기 좋은 기준점이 결정될 수 있고, 이에 따라서 사용자가 추후에 이미지를 활용하기 좋도록 이미지의 크기가 조절될 수 있다. According to an embodiment of the present disclosure, a reference point for a user to cut an image may be determined based on the bounding box BB, and accordingly, the size of the image may be adjusted so that the user may use the image later. .

도 9는 본 개시의 예시적 실시예에 따른 이미지 보정 방법을 나타내는 순서도이다. 상세하게는, 도 9는 도 1의 이동 단계(S50)를 나타낸다. Fig. 9 is a flowchart illustrating an image correction method according to an exemplary embodiment of the present disclosure. In detail, FIG. 9 shows the movement step (S50) of FIG.

도 2 및 도 9를 참조하면, 이미지 보정 시스템(10)은 적어도 하나의 기준점 중 제5 기준점 및 제6 기준점을 이용하여 이미지를 X축으로 이동할 수 있다(S310). 이미지 보정 시스템(10)은 적어도 하나의 기준점 중 제7 기준점을 이용하여 이미지를 Y축으로 이동할 수 있다(S320). Referring to FIGS. 2 and 9 , the image correction system 10 may move the image along the X axis using a fifth and a sixth reference point among at least one reference point (S310). The image correction system 10 may move the image along the Y-axis using a seventh reference point among at least one reference point (S320).

본 개시의 일 실시예에 따른 이미지 보정 시스템(10)은 추출된 기준점을 활용하여 객체가 바운딩 박스(BB)의 위치에 맞을 수 있도록 자동으로 이미지의 위치를 이동시킬 수 있고, 이에 따라서 사용자가 별다른 전문적인 보정 기술 없이 자동으로 편하게 위치 조절 보정을 수행할 수 있다. The image correction system 10 according to an embodiment of the present disclosure may automatically move the position of an image so that the object fits the position of the bounding box BB by utilizing the extracted reference point, and accordingly, the user may Positioning correction can be performed automatically and comfortably without professional calibration skills.

도 9에서는 2개의 기준점을 이용하여 X축으로 이미지를 이동하고, 1개의 기준점을 이용하여 Y축으로 이미지를 이동하는 예시를 도시하고 있으나, 이는 일 예시이고, 2개보다 많거나 적은 기준점을 이용하여 X축으로 이미지를 이동하고, 1개보다 많은 기준점을 이용하여 Y축으로 이미지를 이동하는 예시도 본 개시의 기술적 사상에 포함될 수 있다. 일 예시로, 이미지 보정 시스템(10)은 하나의 기준점을 이용하여 바운딩 박스(BB)의 위치에 맞도록 이미지를 X축 및 Y축으로 이동할 수 있다. 9 shows an example of moving an image in the X axis using two reference points and moving an image in the Y axis using one reference point, but this is an example and using more or less than two reference points. An example of moving the image in the X axis and moving the image in the Y axis using more than one reference point may also be included in the technical spirit of the present disclosure. As an example, the image correction system 10 may move the image along the X and Y axes to match the location of the bounding box BB using one reference point.

도 10은 본 개시의 예시적 실시예에 따른 이미지 보정 방법을 나타내는 순서도이다. 상세하게는, 도 10는 도 9의 X축 이동 단계(S310)를 나타낸다. Fig. 10 is a flowchart illustrating an image correction method according to an exemplary embodiment of the present disclosure. In detail, FIG. 10 shows the X-axis movement step (S310) of FIG.

도 2 및 도 10을 참조하면, 이미지 보정 시스템(10)은 바운딩 박스의 중점의 X좌표를 계산할 수 있다(S311). 일 예시에서, 이미지 보정 시스템(10)은 바운딩 박스의 꼭지점 중 X좌표가 다른 두 개의 꼭지점의 X좌표에 대한 평균을 이용하여 바운딩 박스의 중점의 X좌표를 계산할 수 있다. Referring to FIGS. 2 and 10 , the image correction system 10 may calculate the X coordinate of the midpoint of the bounding box (S311). In one example, the image correction system 10 may calculate the X coordinate of the midpoint of the bounding box by using the average of the X coordinates of two vertices having different X coordinates among the vertices of the bounding box.

이미지 보정 시스템(10)은 적어도 하나의 기준점 중 제5 기준점 및 제6 기준점의 중점을 계산할 수 있다. 일 실시예에서, 제5 기준점과 제6 기준점은 서로 대칭되도록 결정될 수 있고, 제5 기준점은 크기 조절에 활용된 제3 기준점과 동일할 수 있고, 제6 기준점은 크기 조절에 활용된 제4 기준점과 동일할 수 있다. 일 예시에서, 제5 기준점은 턱선에 대응되는 기준점 중 왼쪽에서 N(N은 자연수) 번째 위치하고, 제6 기준점은 턱선에 대응되는 기준점 중 오른쪽에서 N번째 위치할 수 있다.The image correction system 10 may calculate midpoints of the fifth and sixth reference points among at least one reference point. In one embodiment, the fifth reference point and the sixth reference point may be determined to be symmetrical to each other, the fifth reference point may be the same as the third reference point used for resizing, and the sixth reference point may be the fourth reference point used for resizing. can be the same as In one example, the fifth reference point may be located at the Nth reference point from the left (N is a natural number) among the reference points corresponding to the jawline, and the sixth reference point may be located at the Nth reference point from the right among the reference points corresponding to the jawline.

이미지 보정 시스템(10)은 제5 기준점과 제6 기준점의 중점에 대한 X좌표와, 바운딩 박스의 중점의 X좌표를 이용하여 이미지를 X축으로 이동할 수 있다(S313). 일 예시에서, 이미지 보정 시스템(10)은 제5 기준점과 제6 기준점의 중점에 대한 X좌표와, 바운딩 박스의 중점의 X좌표의 차이만큼 이미지를 X축으로 이동시킬 수 있다. The image correction system 10 may move the image along the X axis using the X coordinates of the midpoints of the fifth and sixth reference points and the X coordinates of the midpoint of the bounding box (S313). In one example, the image correction system 10 may move the image in the X axis by a difference between the X coordinate of the midpoints of the fifth and sixth reference points and the X coordinate of the midpoint of the bounding box.

도 11은 본 개시의 예시적 실시예에 따른 이미지 보정 방법을 나타내는 순서도이다. 상세하게는, 도 11는 도 9의 Y축 이동 단계(S320)를 나타낸다. Fig. 11 is a flowchart illustrating an image correction method according to an exemplary embodiment of the present disclosure. In detail, FIG. 11 shows the Y-axis movement step (S320) of FIG.

도 2 및 도 11을 참조하면, 이미지 보정 시스템(10)은 바운딩 박스의 아랫변 Y좌표를 획득할 수 있다(S321). 일 예시에서, 이미지 보정 시스템(10)은 바운딩 박스의 꼭지점 중 아래쪽 꼭지점의 Y좌표를 아랫변 Y좌표로서 획득할 수 있다. Referring to FIGS. 2 and 11 , the image correction system 10 may acquire the Y-coordinate of the lower side of the bounding box (S321). In one example, the image correction system 10 may acquire the Y-coordinate of a lower vertex among the vertices of the bounding box as the lower Y-coordinate.

이미지 보정 시스템(10)은 적어도 하나의 기준점 중 제7 기준점과 아랫변 Y좌표 사이의 거리에 기초하여 이미지를 Y축으로 이동할 수 있다(S322). 일 실시예에서, 제7 기준점은 적어도 하나의 기준점 중 가장 아래에 위치하는 기준점으로 결정될 수 있다. 일 실시예에서, 제7 기준점은 턱선을 따라 형성된 기준점 중 가운데 기준점으로 결정될 수 있다. The image correction system 10 may move the image along the Y-axis based on the distance between the seventh reference point among the at least one reference point and the Y-coordinate of the lower side (S322). In an embodiment, the seventh reference point may be determined as a reference point positioned at the bottom among at least one reference point. In one embodiment, the seventh reference point may be determined as a central reference point among reference points formed along the jaw line.

도 12는 본 개시의 예시적 실시예에 따른 이미지 보정 방법을 나타내는 도면이다. 상세하게는, 도 12는 이미지 이동 방법을 나타낸다. 12 is a diagram illustrating an image correction method according to an exemplary embodiment of the present disclosure. In detail, Fig. 12 shows an image movement method.

도 2 및 도 12를 참조하면, 이미지 보정 시스템(10)은 제5 기준점(CP5)으로서 턱선을 따라 형성된 기준점 중 왼쪽에서 3번째 위치하는 3번 기준점을 결정하고, 제6 기준점(CP6)으로서 턱선을 따라 형성된 기준점 중 오른쪽에서 3번째 위치하는 15번 기준점을 결정하고, 제7 기준점(CP7)으로서 턱선을 따라 형성된 기준점 중 중간에 위치하는 9번 기준점을 결정할 수 있다. 9번 기준점은 적어도 하나의 기준점 중 가장 하단에 위치할 수 있다.Referring to FIGS. 2 and 12 , the image correction system 10 determines the third reference point located third from the left among the reference points formed along the jaw line as the fifth reference point CP5, and determines the jaw line as the sixth reference point CP6. Among the reference points formed along the chin line, the 15th reference point located third from the right may be determined, and the 9th reference point located in the middle among the reference points formed along the jawline may be determined as the seventh reference point CP7. The ninth reference point may be located at the bottom of at least one reference point.

이미지 보정 시스템(10)은 제5 기준점(CP5)의 X좌표(x1)와 제6 기준점(CP6)의 X좌표(x2)을 이용해 제1 중점(CP_C)의 X좌표((x1+x2)/2)를 획득할 수 있다. 또한, 이미지 보정 시스템(10)은 바운딩 박스(BB)의 꼭지점들(CP_B1, CP_B2, CP_B3, CP_B4)의 좌표를 이용하여 제2 중점(CP_B)의 X좌표((x4+x5)/2)를 획득할 수 있다.The image correction system 10 uses the X coordinate (x1) of the fifth reference point CP5 and the X coordinate (x2) of the sixth reference point CP6 to determine the X coordinate ((x1+x2)/ 2) can be obtained. In addition, the image correction system 10 determines the X coordinate ((x4+x5)/2) of the second midpoint CP_B using the coordinates of the vertices CP_B1, CP_B2, CP_B3, and CP_B4 of the bounding box BB. can be obtained

이미지 보정 시스템(10)은 제2 중점(CP_B)의 X좌표((x4+x5)/2)에서 제1 중점(CP_C)의 X좌표((x1+x2)/2)의 차이를 계산하고, 계산한 차이((x4+x5-x1-x2)/2)를 이용하여 이미지를 X축 방향으로 이동할 수 있다. The image correction system 10 calculates the difference between the X coordinate ((x1+x2)/2) of the first midpoint CP_C from the X coordinate ((x4+x5)/2) of the second midpoint CP_B, The image can be moved in the X-axis direction using the calculated difference ((x4+x5-x1-x2)/2).

이미지 보정 시스템(10)은 제7 기준점(CP7)의 Y좌표(y3)와 바운딩 박스(BB)의 아랫변의 Y좌표(y5)를 획득하고, 그 차이를 계산할 수 있다. 이미지 보정 시스템(10)은 계산한 차이(y5-y3)를 이용하여 이미지를 Y축 방향으로 이동할 수 있다.The image correction system 10 may acquire the Y coordinate y3 of the seventh reference point CP7 and the Y coordinate y5 of the lower side of the bounding box BB, and calculate a difference therebetween. The image correction system 10 may move the image in the Y-axis direction using the calculated difference (y5-y3).

본 개시의 일 실시예에 따르면, 기준점들의 좌표를 이용하여 자동으로 이미지를 이동함으로써 사용자가 지정한 바운딩 박스(BB)에 정합하도록 이미지에 대한 이동 보정이 자동으로 수행될 수 있다. 본 개시의 일 실시예에 따르면, 바운딩 박스(BB)에 기초하여 사용자가 이미지를 컷팅하기 좋은 기준점이 결정될 수 있고, 이에 따라서 사용자가 추후에 이미지를 활용하기 좋도록 이미지의 위치가 이동될 수 있다. According to an embodiment of the present disclosure, movement correction for an image may be automatically performed to match the bounding box BB designated by the user by automatically moving the image using coordinates of reference points. According to an embodiment of the present disclosure, a reference point for a user to cut an image may be determined based on the bounding box BB, and accordingly, the location of the image may be moved so that the user may use the image later. .

이상과 같이 도면과 명세서에서 예시적인 실시예들이 개시되었다. 본 명세서에서 특정한 용어를 사용하여 실시예들을 설명되었으나, 이는 단지 본 개시의 기술적 사상을 설명하기 위한 목적에서 사용된 것이지 의미 한정이나 청구범위에 기재된 본 개시의 범위를 제한하기 위하여 사용된 것은 아니다. 그러므로 본 기술분야의 통상의 지식을 가진 자라면 이로부터 다양한 변형 및 균등한 타 실시예가 가능하다는 점을 이해할 것이다. 따라서, 본 개시의 진정한 기술적 보호범위는 첨부된 청구범위의 기술적 사상에 의해 정해져야 할 것이다.Exemplary embodiments have been disclosed in the drawings and specifications as described above. Embodiments have been described using specific terms in this specification, but they are only used for the purpose of explaining the technical spirit of the present disclosure, and are not used to limit the scope of the present disclosure described in the meaning or claims. Therefore, those of ordinary skill in the art will understand that various modifications and equivalent other embodiments are possible therefrom. Therefore, the true technical scope of protection of the present disclosure should be determined by the technical spirit of the appended claims.

Claims (10)

객체가 포함된 이미지를 수신하는 단계;
딥 러닝 알고리즘을 활용하여 상기 객체에 대응되는 복수의 기준점들을 추출하는 단계;
상기 복수의 기준점들 중 제1 기준점 및 제2 기준점을 이은 가상 선의 각도를 계산하는 단계;
계산한 상기 각도를 활용하여 상기 이미지를 회전하는 단계;
바운딩 박스에 대한 정보를 수신하는 단계;
상기 복수의 기준점들 중 제3 기준점 및 제4 기준점의 좌표 거리를 계산하는 단계;
상기 바운딩 박스의 가로 길이를 획득하는 단계;
상기 좌표 거리와 상기 가로 길이의 비율을 계산하는 단계;및
계산한 상기 비율에 기초하여 상기 이미지의 크기를 조절하는 단계;를 포함하고,
상기 제1 기준점은 상기 복수의 기준점들 중 상기 객체의 좌안에 포함되는 적어도 두 점에 대한 제1 평균 좌표이고,
상기 제2 기준점은 상기 복수의 기준점들 중 상기 객체의 우안에 포함되는 적어도 두 점에 대한 제2 평균 좌표이고,
상기 제3 기준점은 상기 객체의 턱에 대응되는 기준점 중 왼쪽에서 N(N은 3이상의 자연수)번째 점이고,
상기 제4 기준점은 상기 객체의 턱에 대응되는 기준점 중 오른쪽에서 N(N은 3이상의 자연수)번째 점인 것을 특징으로 하는 이미지 보정 방법.
Receiving an image including an object;
extracting a plurality of reference points corresponding to the object using a deep learning algorithm;
calculating an angle of a virtual line connecting a first reference point and a second reference point among the plurality of reference points;
rotating the image using the calculated angle;
Receiving information about a bounding box;
calculating coordinate distances of a third reference point and a fourth reference point among the plurality of reference points;
obtaining a horizontal length of the bounding box;
Calculating a ratio of the coordinate distance and the horizontal length; And
Adjusting the size of the image based on the calculated ratio; includes,
The first reference point is a first average coordinate of at least two points included in the left eye of the object among the plurality of reference points,
The second reference point is a second average coordinate of at least two points included in the right eye of the object among the plurality of reference points,
The third reference point is the Nth point from the left (N is a natural number of 3 or more) among the reference points corresponding to the jaw of the object,
The image correction method according to claim 1 , wherein the fourth reference point is an Nth point (N is a natural number equal to or greater than 3) from the right among reference points corresponding to the chin of the object.
제1항에 있어서,
상기 제1 기준점과 상기 제2 기준점은 상기 객체의 중심축을 기준으로 서로 대칭되는 위치에 대응되는 것을 특징으로 하는 이미지 보정 방법.
According to claim 1,
The first reference point and the second reference point correspond to positions symmetrical to each other with respect to a central axis of the object.
제2항에 있어서,
상기 객체는 사람의 얼굴이고, 상기 복수의 기준점들은 사람의 얼굴을 구성하는 선들에 대응되고,
상기 제1 기준점은 상기 객체의 좌안에 포함되고, 상기 제2 기준점은 상기 객체의 우안에 포함되는 것을 특징으로 하는 이미지 보정 방법.
According to claim 2,
The object is a human face, the plurality of reference points correspond to lines constituting the human face,
The image correction method of claim 1 , wherein the first reference point is included in the left eye of the object, and the second reference point is included in the right eye of the object.
제3항에 있어서,
상기 제1 기준점은 상기 객체의 좌안에 포함된 점들 중 가장 왼쪽에 위치하고, 상기 제2 기준점은 상기 객체의 우안에 포함된 점들 중 가장 오른쪽에 위치하는 것을 특징으로 하는 이미지 보정 방법.
According to claim 3,
The first reference point is located at the leftmost among points included in the left eye of the object, and the second reference point is located at the most right among points included in the right eye of the object.
제2항에 있어서,
상기 제1 기준점은 상기 객체의 왼쪽 눈썹에 대응되는 점들 중 가장 왼쪽에 위치하고, 상기 제2 기준점은 상기 객체의 오른쪽 눈썹에 대응되는 점들 중 가장 오른쪽에 위치하는 것을 특징으로 하는 이미지 보정 방법.
According to claim 2,
Wherein the first reference point is located at the most left of points corresponding to the left eyebrow of the object, and the second reference point is located at the most right of points corresponding to the right eyebrow of the object.
제2항에 있어서,
상기 제1 기준점은 상기 객체의 입술에 대응되는 점들 중 가장 왼쪽에 위치하고, 상기 제2 기준점은 상기 객체의 입술에 대응되는 점들 중 가장 오른쪽에 위치하는 것을 특징으로 하는 이미지 보정 방법.
According to claim 2,
The first reference point is located at the leftmost point among points corresponding to the lips of the object, and the second reference point is located at the rightmost side among points corresponding to the lips of the object.
삭제delete 제1항에 있어서,
상기 제1 기준점은 상기 객체의 코에 대응되는 점들 중 가장 위에 위치하고, 상기 제2 기준점은 상기 객체의 코에 대응되는 점들 중 가장 아래에 위치하는 것을 특징으로 하는 이미지 보정 방법.
According to claim 1,
The first reference point is located at the top of points corresponding to the nose of the object, and the second reference point is located at the bottom of points corresponding to the nose of the object.
제1항에 있어서,
상기 가상 선의 각도는 수평 선과 상기 가상 선이 이루는 각도이고,
상기 이미지를 회전하는 단계는, 상기 이미지를 상기 가상 선이 상기 수평 선과 일치되도록 회전하는 단계를 포함하는 이미지 보정 방법.
According to claim 1,
The angle of the virtual line is an angle between a horizontal line and the virtual line,
The rotating of the image comprises rotating the image such that the virtual line matches the horizontal line.
제1항에 있어서,
상기 복수의 기준점들 중 제5 기준점을 이용하여 상기 바운딩 박스에 대응되도록 상기 이미지의 위치를 변경하는 단계;를 더 포함하고,
상기 이미지의 위치를 변경하는 단계는,
상기 바운딩 박스의 중점의 X좌표를 계산하는 단계;
상기 제3 기준점 및 상기 제4 기준점의 중점을 계산하는 단계;
상기 제3 기준점 및 상기 제4 기준점의 중점과 상기 바운딩 박스의 중점의 X좌표가 일치하도록 상기 이미지의 X축으로 이동하는 단계;
상기 바운딩 박스의 아랫변의 Y좌표를 획득하는 단계;및
상기 제5 기준점과 상기 바운딩 박스의 아랫변의 Y좌표가 일치하도록 상기 이미지의 Y축으로 이동하는 단계;를 포함하는 이미지 보정 방법.



According to claim 1,
Changing the location of the image to correspond to the bounding box using a fifth reference point among the plurality of reference points;
The step of changing the location of the image,
calculating the X coordinate of the midpoint of the bounding box;
calculating midpoints of the third reference point and the fourth reference point;
moving along the X axis of the image so that midpoints of the third and fourth reference points coincide with X coordinates of the middle point of the bounding box;
obtaining the Y-coordinate of the lower edge of the bounding box; and
and moving the fifth reference point along the Y-axis of the image so that the Y-coordinate of the lower side of the bounding box coincides with the fifth reference point.



KR1020210011766A 2021-01-27 2021-01-27 Image correcting method correct image by using deep learning algorithm and image correcting system performing the same KR102532250B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020210011766A KR102532250B1 (en) 2021-01-27 2021-01-27 Image correcting method correct image by using deep learning algorithm and image correcting system performing the same

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020210011766A KR102532250B1 (en) 2021-01-27 2021-01-27 Image correcting method correct image by using deep learning algorithm and image correcting system performing the same

Publications (2)

Publication Number Publication Date
KR20220108597A KR20220108597A (en) 2022-08-03
KR102532250B1 true KR102532250B1 (en) 2023-05-15

Family

ID=82847214

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020210011766A KR102532250B1 (en) 2021-01-27 2021-01-27 Image correcting method correct image by using deep learning algorithm and image correcting system performing the same

Country Status (1)

Country Link
KR (1) KR102532250B1 (en)

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003248815A (en) * 2002-02-26 2003-09-05 Casio Comput Co Ltd Method and device for normalizing facial image, method and device for detecting position of eye in the facial image, and program
JP2009302910A (en) * 2008-06-13 2009-12-24 Canon Inc Imaging device and image reproducer

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4590401B2 (en) * 2004-04-15 2010-12-01 パナソニック株式会社 Face image creating apparatus, face image creating method, program, and recording medium recording the program
KR102244013B1 (en) * 2018-09-06 2021-04-22 포항공과대학교 산학협력단 Method and apparatus for face recognition

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003248815A (en) * 2002-02-26 2003-09-05 Casio Comput Co Ltd Method and device for normalizing facial image, method and device for detecting position of eye in the facial image, and program
JP2009302910A (en) * 2008-06-13 2009-12-24 Canon Inc Imaging device and image reproducer

Also Published As

Publication number Publication date
KR20220108597A (en) 2022-08-03

Similar Documents

Publication Publication Date Title
KR102279813B1 (en) Method and device for image transformation
JP6330036B2 (en) Image processing apparatus and image display apparatus
CN106803884B (en) Image processing apparatus
CN109359618B (en) Image processing method and device, equipment and storage medium thereof
US11790495B2 (en) Method for optimal body or face protection with adaptive dewarping based on context segmentation layers
CN107452049B (en) Three-dimensional head modeling method and device
CN110996084B (en) Projection image processing method and device, projection equipment and storage medium
CN104898832B (en) Intelligent terminal-based 3D real-time glasses try-on method
JP6500355B2 (en) Display device, display program, and display method
CN109376671B (en) Image processing method, electronic device, and computer-readable medium
JP2004038973A (en) Real-time wide-angle image correction system and method for computer image viewing
CN108717704B (en) Target tracking method based on fisheye image, computer device and computer readable storage medium
US20230025058A1 (en) Image rectification method and device, and electronic system
CN111507894B (en) Image stitching processing method and device
CN113902851A (en) Face three-dimensional reconstruction method and device, electronic equipment and storage medium
US11138743B2 (en) Method and apparatus for a synchronous motion of a human body model
CN113902853A (en) Face three-dimensional reconstruction method and device, electronic equipment and storage medium
KR102532250B1 (en) Image correcting method correct image by using deep learning algorithm and image correcting system performing the same
KR102532251B1 (en) Image correcting method correct image using facial characterisitic point extracted by using deep learning algorithm and image correcting system performing the same
CN111353945B (en) Fisheye image correction method, device and storage medium
JP7031047B1 (en) Image processing methods, computer programs and image processing equipment
CN115086625A (en) Correction method, device and system of projection picture, correction equipment and projection equipment
US11790483B2 (en) Method, apparatus, and device for identifying human body and computer readable storage medium
JP2003070021A (en) Portable three-dimensional data input apparatus and stereoscopic model generating apparatus
CN113920196A (en) Visual positioning method and device and computer equipment

Legal Events

Date Code Title Description
E90F Notification of reason for final refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant