KR20220057391A - Image Processing Method and Apparatus Using Thereof - Google Patents

Image Processing Method and Apparatus Using Thereof Download PDF

Info

Publication number
KR20220057391A
KR20220057391A KR1020200178664A KR20200178664A KR20220057391A KR 20220057391 A KR20220057391 A KR 20220057391A KR 1020200178664 A KR1020200178664 A KR 1020200178664A KR 20200178664 A KR20200178664 A KR 20200178664A KR 20220057391 A KR20220057391 A KR 20220057391A
Authority
KR
South Korea
Prior art keywords
feature
image data
point
characteristic
line
Prior art date
Application number
KR1020200178664A
Other languages
Korean (ko)
Other versions
KR102536646B1 (en
Inventor
이동훈
Original Assignee
주식회사 메디트
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 메디트 filed Critical 주식회사 메디트
Priority to PCT/KR2021/014767 priority Critical patent/WO2022092695A1/en
Priority to US18/033,901 priority patent/US20230394873A1/en
Publication of KR20220057391A publication Critical patent/KR20220057391A/en
Application granted granted Critical
Publication of KR102536646B1 publication Critical patent/KR102536646B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • G06T11/60Editing figures and text; Combining figures or text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • G06T11/20Drawing from basic elements, e.g. lines or circles
    • G06T11/203Drawing of straight lines or curves
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • G06T3/40Scaling of whole images or parts thereof, e.g. expanding or contracting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/168Feature extraction; Face representation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person
    • G06T2207/30201Face

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • General Health & Medical Sciences (AREA)
  • Human Computer Interaction (AREA)
  • Multimedia (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)

Abstract

An image processing method according to the present invention includes the steps of: receiving at least one image data; assigning a plurality of feature points to the image data according to a predetermined criterion; and changing a part of the image data based on a feature line created by connecting at least two of the feature points or a feature area created by connecting at least three of the feature points.

Description

이미지 처리 방법 및 이를 사용한 장치{Image Processing Method and Apparatus Using Thereof}Image Processing Method and Apparatus Using Thereof

본 발명은 이미지 처리 방법 및 이를 사용한 장치에 관한 것이다.The present invention relates to an image processing method and an apparatus using the same.

스마일 라인(smile line)이란, 치아라인, 치아모양, 웃을 때 노출되는 치은의 정도와 치은라인, 입술의 길이 및 두께, 인중의 길이, 입술 주위의 근육 및 이와 연관된 근육들의 활성 정도 및 방향에 따라 만들어진다. 교정 치료를 통해, 환자는 원하는 스마일 라인을 가질 수 있다. 특히, 비니어, 라미네이트 등의 치료를 고민하는 환자는 자신의 얼굴(보다 상세하게는, 스마일 라인)이 치료 후 어떻게 변화하는지를 궁금해한다. 스마일 라인에 따라 사람의 인상이 달라지게 되며, 교정 치료 또는 수술을 통해 이와 같은 스마일 라인을 갖도록 하는 것을 스마일 디자인(smile design)이라고 부르기도 한다.The smile line refers to the tooth line, the shape of the teeth, the degree of exposure to the gingiva when smiling, the gingival line, the length and thickness of the lips, the length of the pharynx, the muscles around the lips and the activity level and direction of the muscles related thereto. is made With orthodontic treatment, the patient can have a desired smile line. In particular, patients who are considering treatment with veneer or laminate are curious about how their face (more specifically, a smile line) changes after treatment. A person's impression changes depending on the smile line, and making such a smile line through orthodontic treatment or surgery is sometimes called a smile design.

한편, 스마일 디자인은 환자의 얼굴이 나타난 이미지 데이터 상에 교정된 치아에 대한 정보를 갖는 템플릿(template)들을 적용하면서 환자에게 최적의 교정 템플릿을 선택하게 된다. 이 과정에서, 치료자들 또는 환자들 간에 템플릿이 적용된 이미지 데이터를 공유할 가능성이 있으며, 이미지 데이터의 공유는 환자의 얼굴을 노출시키고 개인 프라이버시 침해의 우려가 있다.On the other hand, the smile design selects an optimal orthodontic template for the patient while applying templates having information on the corrected teeth on the image data showing the patient's face. In this process, there is a possibility of sharing templated image data between therapists or patients, and sharing of image data exposes the patient's face and may infringe personal privacy.

따라서, 템플릿이 적용된 이미지 데이터에 의하더라도 환자의 익명성을 보장할 수 있는 방법이 요구되고 있다.Therefore, there is a need for a method that can guarantee the anonymity of the patient even by the image data to which the template is applied.

대한민국 공개특허KR10-2007-0093841 A (2007.09.14. 공개)Republic of Korea Patent Publication KR10-2007-0093841 A (published on Sep. 14, 2007)

이상의 문제점을 해결하기 위하여 본 발명에 따른 이미지 처리 방법은, 사람의 얼굴 데이터를 갖는 이미지 데이터를 입력받아 이미지 데이터 상에 복수의 특징점들을 부여하고, 특징점들로부터 생성된 특징선 또는 특징 영역에 기초하여 이미지 데이터의 일부분을 변경하는 이미지 처리 방법을 제공한다.In order to solve the above problems, an image processing method according to the present invention receives image data having human face data, assigns a plurality of feature points to the image data, and based on a feature line or a feature area generated from the feature points An image processing method for changing a part of image data is provided.

또한, 상기 이미지 처리 방법을 수행하여 이미지 데이터의 일부분을 변경하는 이미지 처리 장치를 제공한다.In addition, there is provided an image processing apparatus for changing a part of image data by performing the image processing method.

본 발명의 기술적 과제들은 이상에서 언급한 기술적 과제들로 제한되지 않으며, 언급되지 않은 또 다른 기술적 과제들은 아래의 기재들로부터 당업자에게 명확하게 이해될 수 있을 것이다.The technical problems of the present invention are not limited to the technical problems mentioned above, and other technical problems not mentioned will be clearly understood by those skilled in the art from the following description.

본 발명에 따른 이미지 처리 방법은, 이미지 데이터를 입력받는 단계, 이미지 데이터에 복수의 특징점들을 부여하는 단계, 그리고 특징점들 중 적어도 2개를 연결하여 생성되는 특징선, 또는 특징점들 중 적어도 3개를 연결하여 생성되는 특징 영역을 기초로 이미지 데이터의 일부분을 변경하는 단계를 포함한다.The image processing method according to the present invention includes the steps of receiving image data, assigning a plurality of feature points to the image data, and a feature line generated by connecting at least two of the feature points, or at least three of the feature points and changing a portion of the image data based on the feature region generated by concatenation.

또한, 본 발명에 따른 이미지 처리 장치는, 입력되는 이미지 데이터가 저장되는 데이터베이스부, 입력받은 이미지 데이터에 복수의 특징점들을 부여하고, 특징점으로부터 생성되는 특징선 또는 특징 영역에 기초하여 이미지 데이터의 일부분을 변경하는 제어부를 포함한다.In addition, the image processing apparatus according to the present invention provides a database unit in which input image data is stored, a plurality of feature points are assigned to the input image data, and a portion of image data is generated based on a feature line or a feature area generated from the feature points. It includes a control unit to change.

본 발명에 따르면, 사용자 또는 환자는 환자의 이미지 데이터를 타인에게 공유할 때 이미지 데이터의 일부분을 변경하여 환자의 익명성을 보장해줄 수 있으며, 사용자 또는 환자는 이미지 데이터에 적용된 템플릿에 관한 논의를 통해 최적의 교정 계획을 수립할 수 있는 이점이 있다.According to the present invention, the user or patient can change a part of the image data when sharing the patient's image data with others to ensure the patient's anonymity, and the user or patient can discuss the template applied to the image data through discussion. This has the advantage of being able to establish an optimal remediation plan.

도 1 및 도 2는 본 발명에 따른 이미지 처리 방법의 순서도이다.
도 3은 이미지 데이터를 설명하기 위한 도이다.
도 4는 특징점들이 부여되는 것을 설명하기 위한 도이다.
도 5는 이미지 데이터에 부여된 특징점들 중 일부를 기초로 특징선 및 특징 영역이 생성된 것을 설명하기 위한 도이다.
도 6 및 도 7은 이미지 데이터를 피팅하는 과정을 설명하기 위한 도이다.
도 8은 이미지 데이터에 템플릿을 적용하는 것을 설명하기 위한 도이다.
도 9는 본 발명에 따른 이미지 처리 방법에서, 제2 특징 영역을 설명하기 위한 도이다.
도 10은 도 9의 다른 실시예이다.
도 11 및 도 12는 이미지 데이터 중 제2 특징 영역이 변경된 것을 설명하기 위한 도이다.
도 13은 블러 처리 과정을 설명하기 위한 도이다.
도 14는 가우시안 블러 처리 과정을 설명하기 위한 도이다.
도 15는 본 발명에 따른 이미지 처리 장치의 구성도이다.
1 and 2 are flowcharts of an image processing method according to the present invention.
3 is a diagram for explaining image data.
4 is a diagram for explaining that feature points are provided.
5 is a diagram for explaining generation of a feature line and a feature region based on some of feature points assigned to image data.
6 and 7 are diagrams for explaining a process of fitting image data.
8 is a diagram for explaining application of a template to image data.
9 is a diagram for explaining a second feature region in the image processing method according to the present invention.
FIG. 10 is another embodiment of FIG. 9 .
11 and 12 are diagrams for explaining a change in the second characteristic area of image data.
13 is a diagram for explaining a blur processing process.
14 is a diagram for explaining a Gaussian blur processing process.
15 is a block diagram of an image processing apparatus according to the present invention.

이하, 본 발명의 일부 실시예들을 예시적인 도면을 통해 상세하게 설명한다. 각 도면의 구성요소들에 참조부호를 부가함에 있어서, 동일한 구성요소들에 대해서는 비록 다른 도면상에 표시되더라도 가능한 한 동일한 부호를 가지도록 하고 있음에 유의해야 한다. 또한, 본 발명의 실시예를 설명함에 있어, 관련된 공지 구성 또는 기능에 대한 구체적인 설명이 본 발명의 실시예에 대한 이해를 방해한다고 판단되는 경우에는 그 상세한 설명은 생략한다.Hereinafter, some embodiments of the present invention will be described in detail with reference to exemplary drawings. In adding reference numerals to the components of each drawing, it should be noted that the same components are given the same reference numerals as much as possible even though they are indicated on different drawings. In addition, in describing the embodiment of the present invention, if it is determined that a detailed description of a related known configuration or function interferes with the understanding of the embodiment of the present invention, the detailed description thereof will be omitted.

본 발명의 실시예의 구성 요소를 설명하는 데 있어서, 제 1, 제 2, A, B, (a), (b) 등의 용어를 사용할 수 있다. 이러한 용어는 그 구성 요소를 다른 구성 요소와 구별하기 위한 것일 뿐, 그 용어에 의해 해당 구성 요소의 본질이나 차례 또는 순서 등이 한정되지 않는다. 또한, 다르게 정의되지 않는 한, 기술적이거나 과학적인 용어를 포함해서 여기서 사용되는 모든 용어들은 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 것과 동일한 의미를 가진다. 일반적으로 사용되는 사전에 정의되어 있는 것과 같은 용어들은 관련 기술의 문맥상 가지는 의미와 일치하는 의미를 가진 것으로 해석되어야 하며, 본 출원에서 명백하게 정의하지 않는 한, 이상적이거나 과도하게 형식적인 의미로 해석되지 않는다.In describing the components of the embodiment of the present invention, terms such as first, second, A, B, (a), (b), etc. may be used. These terms are only for distinguishing the elements from other elements, and the essence, order, or order of the elements are not limited by the terms. In addition, unless otherwise defined, all terms used herein, including technical or scientific terms, have the same meaning as commonly understood by one of ordinary skill in the art to which the present invention belongs. Terms such as those defined in a commonly used dictionary should be interpreted as having a meaning consistent with the meaning in the context of the related art, and should not be interpreted in an ideal or excessively formal meaning unless explicitly defined in the present application. does not

도 1 및 도 2는 본 발명에 따른 이미지 처리 방법의 순서도이고, 도 3은 이미지 데이터를 설명하기 위한 도이다.1 and 2 are flowcharts of an image processing method according to the present invention, and FIG. 3 is a diagram for explaining image data.

도 1 내지 도 3을 참조하면, 본 발명에 따른 이미지 처리 방법은, 이미지 데이터를 입력받는 단계(S110), 이미지 데이터에 소정 기준에 따라 복수의 특징점들을 부여하는 단계(S120), 그리고 특징점들 중 적어도 2개를 연결하여 생성되는 특징선, 또는 특징점들 중 적어도 3개를 연결하여 생성되는 특징 영역을 기초로 이미지 데이터의 일부를 변경하는 단계(S140)를 포함할 수 있다.1 to 3 , the image processing method according to the present invention includes a step of receiving image data (S110), a step of assigning a plurality of feature points to the image data according to a predetermined criterion (S120), and among the feature points The method may include changing a part of the image data based on a feature line generated by connecting at least two or a feature region generated by connecting at least three of the feature points ( S140 ).

이하에서는, 본 발명에 따른 이미지 처리 방법의 각 단계에 대해 상세히 설명하기로 한다.Hereinafter, each step of the image processing method according to the present invention will be described in detail.

이미지 데이터를 입력받는 단계(S110)에서는 기 촬영된 환자의 적어도 하나의 이미지 데이터를 입력받을 수 있다. 여기서, 상기 이미지 데이터는 데이터베이스부(DB부)로 명명되는 데이터 저장 요소에 저장되어 있으며, 사용자의 조작에 의하여 입력될 수 있다. 이미지 데이터가 저장되는 데이터베이스부(DB부)는 하드 디스크 드라이브(Hard Disk Drive), 플로피 디스크 드라이브(Floppy Disk Drive), 솔리드 스테이트 드라이브(Solid State Drive), 플래시 메모리 드라이브(Flash Memory Drive) 등과 같은 물리적 저장장치일 수 있으며, 클라우드 형태의 가상 데이터베이스일 수도 있다.In step S110 of receiving image data, at least one image data of a pre-imaged patient may be input. Here, the image data is stored in a data storage element called a database unit (DB unit), and may be input by a user's manipulation. The database unit (DB unit) where image data is stored is a physical hard disk drive (Hard Disk Drive), a floppy disk drive (Floppy Disk Drive), a solid state drive (Solid State Drive), a flash memory drive (Flash Memory Drive), etc. It may be a storage device, or it may be a cloud-type virtual database.

바람직하게는, 상기 이미지 데이터는 사람의 얼굴 데이터일 수 있다. 보다 상세하게는, 이미지 데이터는 사람의 눈, 코, 입 등이 가시적으로 나타난 얼굴 데이터(400)이며, 특히 사람의 구강이 개구되어 치아가 노출된 얼굴 데이터일 수 있다. 얼굴 데이터(400)는 자연스러운 미소를 갖는 일반 이미지 데이터일 수 있으며, 양측 입꼬리가 상부 방향으로 올라가면서 치아 및 치은의 일부가 노출될 수 있다. 노출된 치아 및 치은의 일부는 후술하는 특징 영역 내에 포함되며, 해당 영역 내에서 치아 교정을 위한 템플릿이 가상으로 적용될 수 있다. 이 때, 템플릿(template)이란 교정 치아의 샘플 모델을 의미하며, 템플릿은 적어도 하나의 치아에 대한 위치, 크기, 형상의 표준 정보를 가질 수 있다. 사용자 및 환자는 템플릿을 이미지 데이터 중 환자의 치아 상에 오버레이 함으로써 교정 이후의 치아의 모양을 미리 예상할 수 있다. 또한, 템플릿은 환자에게 최적의 교정물을 제공하기 위해 복수개 구비될 수 있으며, 사용자 및 환자는 복수개의 템플릿을 이미지 데이터 중 환자의 치아 상에 선택적으로 적용함으로써 환자의 치아에 가장 부합하는 템플릿을 결정할 수 있다.Preferably, the image data may be human face data. More specifically, the image data may be face data 400 in which a person's eyes, nose, mouth, etc. are visually displayed, and in particular, may be face data in which a person's mouth is opened and teeth are exposed. The face data 400 may be general image data having a natural smile, and portions of teeth and gingiva may be exposed as both corners of the mouth rise upward. A portion of the exposed teeth and gingiva may be included in a feature region to be described later, and a template for orthodontic treatment may be virtually applied within the region. In this case, the template refers to a sample model of orthodontic teeth, and the template may have standard information on the position, size, and shape of at least one tooth. The user and the patient can predict the shape of the teeth after orthodontic treatment by overlaying the template on the patient's teeth among the image data. In addition, a plurality of templates may be provided in order to provide an optimal orthodontic treatment to the patient, and the user and the patient may determine a template that best matches the patient's teeth by selectively applying the plurality of templates on the patient's teeth among the image data. can

한편, 얼굴 데이터는 스마일 라인을 가지는 일반 얼굴 데이터일 수도 있고, 개구기 등으로 구강을 강제 개구하여 일반 얼굴 데이터보다 개구 정도가 더 큰 개구 얼굴 데이터일 수도 있다. 일반 얼굴 데이터는 사용자 및 환자가 템플릿을 적용하여 교정 계획을 수립하기 위해 사용되고, 개구 얼굴 데이터는 기공소가 교정물을 제작하기 위해 사용될 수 있다. 이 때, 교정물이란 환자가 착용하는 물체를 의미할 수 있다. 예시적으로, 교정물은 비니어, 라미네이트를 포함하는 보철물, 및 교정 장치 등을 의미할 수 있다.Meanwhile, the face data may be general face data having a smile line, or face data with a larger opening than general face data by forcibly opening the mouth with a mouthpiece or the like. The general face data is used by the user and the patient to establish a correction plan by applying the template, and the opening face data can be used by the laboratory to produce the correction. In this case, the orthodontic product may mean an object worn by the patient. Illustratively, the orthodontic appliance may refer to a veneer, a prosthesis including a laminate, and an orthodontic appliance.

입력받은 이미지 데이터는 유저 인터페이스(UI) 상에 나타날 수 있고, 이미지 데이터는 출력 장치를 통해 사용자 및 환자에게 표시될 수 있다. 출력 장치로 다양한 유형의 장치들이 사용될 수 있으며, 그 중 이미지 데이터를 시각적으로 표시할 수 있는 디스플레이 장치가 사용될 수 있다.The input image data may be displayed on a user interface (UI), and the image data may be displayed to a user and a patient through an output device. Various types of devices may be used as the output device, and among them, a display device capable of visually displaying image data may be used.

이하에서는, 이미지 데이터 상에 특징점들이 부여되는 과정에 대해 설명한다.Hereinafter, a process in which feature points are assigned to image data will be described.

도 4는 특징점들이 부여되는 것을 설명하기 위한 도이다.4 is a diagram for explaining that feature points are provided.

도 4를 참조하면, 특징점들을 부여하는 단계(S120)는 얼굴 데이터를 기초로 소정 기준에 따라 이미지 데이터 상의 특징적인 부분들에 복수의 특징점(P)을 부여할 수 있다. 보다 상세하게는, 상기 특징적인 부분들은 눈썹, 상안검과 하안검 사이의 눈 윤곽, 코, 입술 외측과 입술 내측, 얼굴의 윤곽일 수 있다. 특징점들을 부여하는 단계(S120)에서 부여되는 특징점(P)의 수는 전술한 이미지 데이터의 특징적인 부분들을 효과적으로 나타낼 수 있을 정도의 수일 수 있다.Referring to FIG. 4 , in the step of assigning the feature points ( S120 ), a plurality of feature points P may be assigned to the feature parts on the image data according to a predetermined criterion based on the face data. More specifically, the characteristic parts may be an eyebrow, an eye contour between the upper and lower eyelids, a nose, an outer lip and an inner lip, and a face contour. The number of the feature points P provided in the step of assigning the feature points ( S120 ) may be a number that can effectively represent the characteristic parts of the above-described image data.

예시적으로, 특징점들을 부여하는 단계(S120)는 이미지 데이터의 특징적인 부분들을 표현하기 위해 AI Facial Landmarks Detection 방식을 사용할 수 있다. 이하에서는 본 발명에서 AI Facial Landmarks Detection 방식 중 상기 이미지 데이터에 68개의 특징점(P)들을 부여하는 Face Landmark 68 알고리즘을 기준으로 설명하였으나, 이에 한정되는 것은 아니며, 이미지 데이터의 특징을 용이하게 나타낼 수 있는 어떠한 알고리즘이라도 사용될 수 있다.Exemplarily, the step of giving the feature points ( S120 ) may use an AI Facial Landmarks Detection method to express characteristic parts of image data. Hereinafter, the present invention has been described based on the Face Landmark 68 algorithm that assigns 68 feature points (P) to the image data among the AI Facial Landmarks Detection methods, but the present invention is not limited thereto. Any algorithm can be used.

한편, 이미지 데이터가 입력되었을 때, 입력된 이미지 데이터가 일방향으로 과도하게 회전되어 있는 경우, 상기 이미지 데이터에 특징점(P)들이 원활하게 부여되지 않을 수 있다. 따라서, 특징점들을 부여하는 단계(S120)는 이미지 데이터를 소정 각도 간격으로 회전하면서 얼굴 데이터(400)를 기초로 소정 기준에 따라 복수의 특징점(P)들을 부여할 수 있다.Meanwhile, when the image data is input, if the input image data is excessively rotated in one direction, the feature points P may not be smoothly provided to the image data. Accordingly, in the step of assigning the feature points ( S120 ), a plurality of feature points P may be assigned according to a predetermined criterion based on the face data 400 while rotating the image data at a predetermined angular interval.

예시적으로, 특징점들을 부여하는 단계(S120)는 이미지 데이터를 90° 간격으로 시계방향 또는 반시계방향으로 회전시키면서 특징점(P)들을 부여할 수 있다. 다른 예시에 따라, 특징점들을 부여하는 단계(S120)는 이미지 데이터를 15° 간격으로 시계방향 또는 반시계방향으로 회전시키면서 특징점(P)을 부여할 수 있다. 이와 같이 이미지 데이터를 회전시켜 특징점(P)들을 부여함으로써, 이미지 데이터에 대한 정확한 인식 및 특징점(P)들의 부여가 가능하며, 정상적인 위치에서의 이미지 데이터의 일부분 변경 및 템플릿 적용이 가능한 이점이 있다.Illustratively, in the step of assigning the feature points ( S120 ), the feature points P may be assigned while rotating the image data in a clockwise or counterclockwise direction at 90° intervals. According to another example, in the step of assigning the feature points ( S120 ), the feature point P may be assigned while rotating the image data clockwise or counterclockwise at 15° intervals. In this way, by rotating the image data and giving the feature points P, accurate recognition of the image data and the assignment of the feature points P are possible, and there is an advantage in that it is possible to change a part of the image data in a normal position and apply a template.

다른 실시예에 따르면, 특징점들을 부여하는 단계(S120)는 인공지능을 이용하여, 복수의 2차원 이미지 데이터 및 연속적인 비디오 데이터 중에서 얼굴 데이터(400)에 가장 부합하는 이미지 데이터를 선택하고, 선택된 이미지 데이터에 특징점(P)들을 부여할 수 있다. 인공지능을 사용하여 특징점들을 부여하는 단계(S120)가 수행되면, 사용자는 얼굴 데이터(400)에 가장 부합하는 이미지 데이터를 직접 입력하지 않더라도 자동으로 적합한 이미지 데이터가 선택되어 특징점(P)들이 부여되는 이점이 있다.According to another embodiment, the step of assigning the feature points ( S120 ) uses artificial intelligence to select image data that best matches the face data 400 from among a plurality of two-dimensional image data and continuous video data, and select the selected image. Feature points P may be assigned to data. When the step of assigning feature points using artificial intelligence ( S120 ) is performed, even if the user does not directly input image data that best matches the face data 400 , appropriate image data is automatically selected and the feature points P are given. There is an advantage.

이하에서는, 본 발명에 따른 이미지 처리 방법 중 추가적인 단계로, 이미지 데이터에 부여된 특징점들을 기초로 이미지 데이터를 피팅하는 단계(S130)에 대해 설명한다.Hereinafter, as an additional step in the image processing method according to the present invention, the step of fitting image data based on feature points assigned to the image data ( S130 ) will be described.

도 5는 이미지 데이터에 부여된 특징점들 중 일부를 기초로 특징선 및 특징 영역이 생성된 것을 설명하기 위한 도이고, 도 6 및 도 7은 이미지 데이터를 피팅하는 과정을 설명하기 위한 도이다.5 is a diagram for explaining generation of a feature line and a feature region based on some of the feature points assigned to image data, and FIGS. 6 and 7 are diagrams for explaining a process of fitting image data.

도 5 내지 도 7을 참조하면, 이미지 데이터 상에 특징점들이 부여되면, 부여된 특징점들을 기초로 이미지 데이터가 소정 크기 또는 소정 각도 중 적어도 하나를 갖도록 피팅(fitting)하는 단계(S130)가 추가로 수행될 수 있다. 즉, 특징점(P)의 위치, 특징점(P)들 간의 거리, 특징점(P)들이 이루는 각도가 구해질 수 있고, 이러한 정보들은 본 발명에 따른 이미지 처리 방법이 수행되기 위한 요소로 사용될 수 있다.5 to 7 , when feature points are provided on the image data, a step of fitting ( S130 ) of fitting the image data to have at least one of a predetermined size or a predetermined angle based on the assigned feature points is additionally performed can be That is, the position of the feature points P, the distance between the feature points P, and the angle formed by the feature points P can be obtained, and such information can be used as an element for performing the image processing method according to the present invention.

피팅하는 단계(S130)는 전술한 특징점들을 부여하는 단계(S120)에서 부여된 특징점(P)들로부터 소정의 특징선을 생성할 수 있다. 예시적으로, 특징선은 부여된 특징점들 중 적어도 2개의 특징점을 연결하여 생성될 수 있으며, 생성되는 특징선은 얼굴 데이터에서 각각의 눈의 외안각에 해당하는 특징점들(P1', P2')을 연결한 선일 수 있다. 이 특징선을 제1 특징선(L1') 또는 아이라인으로 명명한다. 한편, 상기 특징점들(P1', P2')은 각각 37번 특징점 및 46번 특징점일 수 있으나 이는 예시적인 것에 불과하며, 이에 제한되지 않는다.In the fitting step ( S130 ), a predetermined feature line may be generated from the feature points (P) provided in the step ( S120 ) of assigning the aforementioned feature points. Exemplarily, the feature line may be generated by connecting at least two feature points among the assigned feature points, and the generated feature line is feature points P1' and P2' corresponding to the lateral canthus of each eye in the face data. It may be a line connecting This characteristic line is called a first characteristic line L1' or an eye line. Meanwhile, the key points P1' and P2' may be the No. 37 key point and No. 46 key point, respectively, but these are merely exemplary and are not limited thereto.

피팅하는 단계(S130)는 생성된 특징선을 기초로 이미지 데이터의 크기를 확대 또는 축소할 수 있다. 보다 상세하게는, 피팅하는 단계(S130)는 제1 특징선(L1')의 길이가 소정 길이에 부합하도록 이미지 데이터의 크기를 확대 또는 축소할 수 있다. 예시적으로, 제1 특징선(L1')의 길이가 300 픽셀이고 기설정된 목표 길이가 400 픽셀인 경우, 피팅된 제1 특징선(L1)의 길이가 400 픽셀이 되도록 일정한 값을 곱하여 이미지 데이터의 크기를 확대할 수 있다. 한편, 제1 특징선(L1')의 길이가 기설정된 목표 길이보다 큰 경우, 피팅된 제1 특징선(L1)의 길이가 기설정된 목표 길이가 되도록 일정한 값을 곱하여 이미지 데이터의 크기를 축소할 수 있다.In the fitting ( S130 ), the size of the image data may be enlarged or reduced based on the generated feature line. More specifically, in the fitting ( S130 ), the size of the image data may be enlarged or reduced so that the length of the first feature line L1 ′ matches a predetermined length. Exemplarily, when the length of the first feature line L1' is 300 pixels and the preset target length is 400 pixels, the image data is multiplied by a constant value so that the fitted first feature line L1 has a length of 400 pixels. size can be enlarged. On the other hand, when the length of the first feature line L1' is greater than the preset target length, the size of the image data is reduced by multiplying the length of the fitted first feature line L1 by a predetermined value so that the length becomes the preset target length. can

또한, 피팅하는 단계(S130)는 생성된 특징선을 기초로 이미지 데이터를 회전할 수 있다. 이미지 데이터를 회전하기 위해, 피팅하는 단계(S130)는 제1 특징선(L1')과 상이한 제2 특징선(L2')을 기초로 하여 상기 이미지 데이터를 회전할 수 있다. 보다 상세하게는, 피팅하는 단계(S130)는 제1 특징선(L1')의 일 지점과, 상기 제1 특징선(L1')으로부터 이격된 특징점을 연결하여 생성되는 제2 특징선(또는 미드라인, L2')을 이용하여 이미지 데이터를 회전할 수 있다. 제2 특징선(L2')은, 제1 특징선(L1')의 중심 지점과(P3') 특징점(P4')을 연결하여 생성된 것일 수 있다. 예시적으로, 상기 특징점(P4')은 34번 특징점에 해당할 수 있다.In addition, the fitting ( S130 ) may rotate the image data based on the generated feature line. In order to rotate the image data, the fitting ( S130 ) may rotate the image data based on a second characteristic line L2 ′ that is different from the first characteristic line L1 ′. More specifically, in the fitting step ( S130 ), a second feature line (or midpoint) generated by connecting a point of the first feature line L1 ′ and a feature point spaced apart from the first feature line L1 ′. Line, L2') can be used to rotate the image data. The second characteristic line L2' may be generated by connecting the central point P3' and the characteristic point P4' of the first characteristic line L1'. Exemplarily, the feature point P4 ′ may correspond to the feature point number 34.

생성된 제2 특징선(L2')에 기초하여, 피팅하는 단계(S130)는 이미지 데이터가 정상적인 각도에서 스마일 라인이 디자인될 수 있도록 피팅한다. 예시적으로, 피팅된 제2 특징선(L2)의 각도는 이미지 데이터가 입력되어 표시되는 유저 인터페이스(UI) 평면 중 가로방향에 수직일 수 있다.Based on the generated second characteristic line L2', in the fitting step S130, the image data is fitted so that a smile line can be designed at a normal angle. For example, an angle of the fitted second feature line L2 may be perpendicular to a horizontal direction among a user interface (UI) plane on which image data is input and displayed.

상기와 같이 이미지 데이터를 소정 크기 및 소정 각도 중 적어도 하나에 부합하도록 얼굴 데이터(400')를 피팅함으로써, 사용자는 피팅된 얼굴 데이터(400)에 정확하게 템플릿을 적용할 수 있고 신뢰도 높은 교정 계획을 수립할 수 있다.As described above, by fitting the face data 400 ′ to match the image data to at least one of a predetermined size and a predetermined angle, the user can accurately apply a template to the fitted face data 400 and establish a highly reliable correction plan. can do.

선택적으로, 이미지 데이터의 각도가 사용자의 의도와 다르게 피팅된 경우, 사용자는 이미지 데이터를 소정 각도 수동으로 회전시킬 수 있다. 예시적으로, 이미지 데이터는 피팅된 제1 특징선(L1)의 중심 지점(P3)을 회전 중심으로 시계방향 또는 시계 반대방향으로 회전될 수 있으며, 이미지 데이터가 회전될 수 있는 소정 각도는 시계방향 또는 시계 반대방향으로 약 5°이내일 수 있다. 이와 같이, 사용자의 판단에 따라 이미지 데이터를 소정 각도 수동으로 미세 회전시킴으로써, 사용자는 이미지 데이터 분석 및 스마일 라인 디자인에 더욱 적합하도록 피팅된 이미지 데이터를 획득할 수 있다.Optionally, when the angle of the image data is different from the user's intention, the user may manually rotate the image data by a predetermined angle. Illustratively, the image data may be rotated clockwise or counterclockwise around the center point P3 of the fitted first feature line L1, and the predetermined angle at which the image data may be rotated is clockwise. Alternatively, it may be within about 5° in a counterclockwise direction. In this way, by manually finely rotating the image data by a predetermined angle according to the user's judgment, the user can acquire image data that is more suitable for image data analysis and smile line design.

이하에서는, 이미지 데이터에 템플릿을 적용하는 과정에 대해 설명한다.Hereinafter, a process of applying a template to image data will be described.

도 8은 이미지 데이터에 템플릿을 적용하는 것을 설명하기 위한 도이다.8 is a diagram for explaining application of a template to image data.

도 5 및 도 8을 참조하면, 이미지 데이터의 피팅이 완료된 후, 특징점을 기초로 이미지 데이터의 소정 영역에 적어도 하나의 템플릿을 적용하여 스마일 라인을 디자인하는 단계(미도시)가 수행될 수 있다. 템플릿은 데이터베이스 상에 기 저장된 교정 치아 데이터일 수 있으며, 템플릿은 복수 구비되어 환자의 이미지 데이터에 최적의 템플릿이 적용될 수 있다. 템플릿은 환자의 구강 상태에 따라 사용자가 커스터마이징할 수 있다. 예를 들면, 사용자는 템플릿의 치아(Ta, Tb, Tc, Td, Te 및 Tf)의 형상을 변경할 수 있다. 이 때, 치아의 형상은 템플릿의 치아(Ta, Tb, Tc, Td, Te 및 Tf)를 이루는 치아 윤곽을 조정함으로써 변경될 수 있다. 또한, 사용자는 템플릿의 치아(Ta, Tb, Tc, Td, Te 및 Tf)의 위치, 크기, 색상, 또는 음영을 변경할 수 있다. 템플릿의 치아(Ta, Tb, Tc, Td, Te 및 Tf)의 위치 또는 크기를 변경함으로써, 인접하는 치아의 위치 또는 크기가 함께 연동되어 변경될 수 있다. 또한, 템플릿의 치아(Ta, Tb, Tc, Td, Te 및 Tf)의 색상 또는 음영을 변경함으로써 보철 이외의 미백 시술 등을 고려한 종합적인 치아 치료 계획이 고려될 수 있다. 이와 같이 템플릿의 치아(Ta, Tb, Tc, Td, Te 및 Tf)를 커스터마이징 함으로써, 사용자는 환자에게 최적의 치료 계획을 제공할 수 있다.5 and 8 , after the fitting of the image data is completed, a step (not shown) of designing a smile line by applying at least one template to a predetermined area of the image data based on the feature point may be performed. The template may be orthodontic data pre-stored in the database, and a plurality of templates may be provided so that an optimal template may be applied to the patient's image data. The template can be customized by the user according to the oral condition of the patient. For example, the user may change the shape of the teeth (Ta, Tb, Tc, Td, Te, and Tf) of the template. At this time, the shape of the teeth may be changed by adjusting the tooth contours forming the teeth (Ta, Tb, Tc, Td, Te, and Tf) of the template. In addition, the user may change the position, size, color, or shade of the teeth (Ta, Tb, Tc, Td, Te, and Tf) of the template. By changing the positions or sizes of the teeth (Ta, Tb, Tc, Td, Te, and Tf) of the template, the positions or sizes of adjacent teeth may be changed in conjunction with each other. In addition, by changing the color or shade of the teeth (Ta, Tb, Tc, Td, Te, and Tf) of the template, a comprehensive dental treatment plan in consideration of whitening procedures other than prosthetics may be considered. By customizing the teeth (Ta, Tb, Tc, Td, Te, and Tf) of the template in this way, the user can provide an optimal treatment plan to the patient.

한편, 디자인하는 단계는 특징점들을 부여하는 단계(S120)에서 부여된 복수의 특징점들 중 적어도 3개의 특징점을 연결하여 생성되는 특징 영역에 템플릿을 적용할 수 있다. 보다 상세하게는, 이미지 데이터 상에 부여된 특징점들 중 입술 내측을 이루는 특징점들을 연결하여 생성된 립라인(lipline)이 특징 영역 중 제1 특징 영역(C1)으로 형성될 수 있고, 제1 특징 영역(C1) 내부에 존재하는 치아 이미지(Ta', Tb', Tc', Td', Te', 및 Tf') 상에 템플릿이 적용될 수 있다. 보다 상세하게는, 디자인하는 단계(S160)는 적어도 3개의 특징점을 연결하여 생성되는 특징 영역(C1)을 립라인으로 인식하고(립라인 인식 단계), 상기 특징 영역(C1) 내부에 치아 이미지가 나타난 치아 영역을 인식하며(치아 영역 인식 단계), 상기 치아 영역에 template matching algorithm을 이용하여 립라인을 구성하는 특징 영역(C1) 내부의 치아 이미지와 템플릿을 매칭할 수 있다(템플릿 매칭 단계). 이 때, template matching algorithm은 템플릿을 특징 영역(C1) 내부에 표현된 치아 이미지 위치에 매칭하는 방식으로, 형상, 크기, 또는 색상 등의 요소를 고려하여 상기 템플릿과 유사한 요소를 가지는 치아 영역에 자동으로 템플릿을 매칭할 수 있다. 이와 같이 특징 영역에 템플릿이 적용됨으로써, 이미지 데이터 중 제1 특징 영역(C1)이 아닌 다른 영역에 템플릿이 오적용되는 점을 방지할 수 있다.Meanwhile, in the designing step, a template may be applied to a feature area generated by connecting at least three feature points among the plurality of feature points given in the step of assigning the feature points ( S120 ). More specifically, a lipline generated by connecting the feature points forming the inside of the lips among the feature points given on the image data may be formed as the first feature region C1 among the feature regions, and the first feature region ( C1) A template may be applied on the tooth images Ta', Tb', Tc', Td', Te', and Tf' existing therein. More specifically, in the designing step (S160), the feature area C1 generated by connecting at least three feature points is recognized as a lip line (lip line recognition step), and a tooth image is displayed inside the feature area C1. The region is recognized (tooth region recognition step), and a template matching algorithm can be used for the tooth region to match the tooth image with the template inside the feature region C1 constituting the lip line (template matching step). At this time, the template matching algorithm is a method of matching the template to the position of the tooth image expressed inside the feature area (C1), taking into consideration factors such as shape, size, or color, automatically to the tooth area having elements similar to the template. to match the template. By applying the template to the feature region as described above, it is possible to prevent the template from being erroneously applied to a region other than the first feature region C1 of the image data.

한편, 특징 영역(C1)이 생성될 때 특징점(P)들의 위치가 불명확하여 잘못된 특징 영역이 생성될 수 있다. 이러한 경우, 유저 인터페이스 상에 형성된 특징점 수정 기능을 사용하여 특징점(P)들 및 제1 특징 영역(C1)의 윤곽을 수정할 수 있으며, 더욱 정확한 특징 영역 획득 및 템플릿 적용 과정이 수행될 수 있다.On the other hand, when the feature region C1 is generated, the positions of the feature points P are unclear, and thus an erroneous feature region may be generated. In this case, the contours of the feature points P and the first feature region C1 may be corrected using the feature point correction function formed on the user interface, and a more accurate feature region acquisition and template application process may be performed.

이하에서는, 특징선 또는 특징 영역을 기초로 이미지 데이터의 일부분을 변경하는 단계(S140)에 대해 상세히 설명한다.Hereinafter, the step ( S140 ) of changing a part of image data based on the feature line or the feature region will be described in detail.

도 9는 본 발명에 따른 이미지 처리 방법에서, 제2 특징 영역을 설명하기 위한 도, 도 10은 도 9의 다른 실시예, 도 11 및 도 12는 이미지 데이터 중 제2 특징 영역이 변경된 것을 설명하기 위한 도이다. 또한, 도 13은 블러 처리 과정을 설명하기 위한 도, 그리고 도 14는 가우시안 블러 처리 과정을 설명하기 위한 도이다.9 is a diagram for explaining a second characteristic region in the image processing method according to the present invention, FIG. 10 is another embodiment of FIG. 9, and FIGS. 11 and 12 are diagrams for explaining a change in the second characteristic region of image data It is a road for Also, FIG. 13 is a diagram for explaining a blur processing process, and FIG. 14 is a diagram for explaining a Gaussian blur processing process.

도 5 및 도 9를 참조하면, 변경하는 단계(S140)는 이미지 데이터에 복수의 특징점(P)들이 부여되면, 특징점(P)들 중 적어도 2개를 연결하여 생성되는 특징선, 또는 특징 영역을 기초로 이미지 데이터의 일부분을 변경할 수 있다. 이 때, '이미지 데이터의 일부분을 변경'하는 것은 일부분에 소정 처리를 수행하여 이미지 데이터가 누구의 얼굴 데이터를 가지는 것인지 식별하기 어렵도록 하는 것을 의미할 수 있다.5 and 9 , in the changing (S140), when a plurality of feature points (P) are given to image data, a feature line or feature area generated by connecting at least two of the feature points (P) is selected. It is possible to change a part of the image data based on it. In this case, 'changing a part of the image data' may mean performing a predetermined process on the part to make it difficult to identify whose face data the image data has.

이하의 내용에서, 소정 처리는 소정 색상 또는 소정 패턴을 이용하여 이미지 데이터의 일부분을 변경하는 것을 예시로 설명하였다. 그러나, 소정 처리는 이에 한정되는 것은 아니며, 이외에도 상기 이미지 데이터의 일부분을 컷팅(cutting)하거나 상기 이미지 데이터의 일부분에 도형을 삽입하는 등의 다양한 처리를 의미하는 것으로 해석될 수 있다.In the following, the predetermined processing has been described as an example of changing a part of image data using a predetermined color or a predetermined pattern. However, the predetermined processing is not limited thereto, and may be interpreted as meaning various processing such as cutting a part of the image data or inserting a figure into a part of the image data.

특징 영역은, 전술한 바와 같이 템플릿이 적용되는 제1 특징 영역(C1)을 포함할 수 있다. 또한, 특징 영역은 얼굴 데이터(400)에서 적어도 2개의 특징점을 기초로 생성되는 제2 특징 영역(C2)을 더 포함할 수 있다. 이 때, 제2 특징 영역(C2)은 템플릿이 적용되는 제1 특징 영역(C1)과 상호 이격되도록 형성될 수 있다. 따라서, 후술할 제2 특징 영역(C2)의 내부가 변경되더라도 제1 특징 영역(C1)에 영향을 주지 않을 수 있으며, 제1 특징 영역(C1)에 적용된 템플릿이 손상되지 않을 수 있다. 제2 특징 영역(C2)의 내부가 변경되는 구성은 후술한다.The feature region may include the first feature region C1 to which the template is applied as described above. Also, the feature region may further include a second feature region C2 generated based on at least two feature points in the face data 400 . In this case, the second characteristic region C2 may be formed to be spaced apart from the first characteristic region C1 to which the template is applied. Accordingly, even if the inside of the second feature region C2, which will be described later, is changed, the first feature region C1 may not be affected, and the template applied to the first feature region C1 may not be damaged. A configuration in which the inside of the second characteristic region C2 is changed will be described later.

한편, 제2 특징 영역(C2)은 얼굴 데이터(400) 중 눈의 윤곽을 이루는 제1 특징점(P1) 및 제2 특징점(P2)을 포함할 수 있다. 보다 상세하게는, 제1 특징점(P1) 및 제2 특징점(P2)은 전술한 피팅하는 단계(S130)에서 얼굴 데이터 중 각각의 눈의 외안각에 해당하는 특징점들일 수 있다. 예시적으로, 상기 특징점들(P1, P2)은 각각 37번 특징점 및 46번 특징점일 수 있다.Meanwhile, the second feature area C2 may include a first feature point P1 and a second feature point P2 forming an eye outline among the face data 400 . More specifically, the first feature point P1 and the second feature point P2 may be feature points corresponding to the lateral canthal angle of each eye among the face data in the above-described fitting step S130 . Exemplarily, the feature points P1 and P2 may be feature points 37 and 46, respectively.

제2 특징 영역(C2)이 제1 특징점(P1) 및 제2 특징점(P2)을 포함함으로써, 얼굴 데이터(400) 중 환자의 눈 부분을 포함하여 제2 특징 영역(C2)이 변경될 수 있다.Since the second feature region C2 includes the first feature point P1 and the second feature point P2 , the second feature region C2 including the patient's eye part in the face data 400 may be changed. .

제2 특징 영역(C2)이 커버하는 범위에 대해 보다 상세히 설명한다. 제1 특징점(P1) 및 제2 특징점(P2)을 연결하여 생성되는 제1 특징선(L1)을 포함할 수 있다. 이 때, 제2 특징 영역(C2)은 제1 특징선(L1)의 길이방향으로 제1 특징점(P1)으로부터 제1 거리(da)만큼 이격된 제1 지점(Pa), 그리고 제1 특징선(L1)의 길이방향으로 제2 특징점(P2)으로부터 제2 거리(dx)만큼 이격된 제2 지점(Px)을 포함할 수 있다. 제1 지점(Pa)과 제2 지점(Px)은 제1 특징선(L1)의 길이방향에 나란히 형성되되, 제1 특징선(L1)으로부터 대향되는 방향에 형성될 수 있다. 또한, 제1 지점(Pa)과 제2 지점(Px)은 제2 특징 영역(C2)의 가로길이를 형성할 수 있다.A range covered by the second characteristic region C2 will be described in more detail. A first feature line L1 generated by connecting the first feature point P1 and the second feature point P2 may be included. At this time, the second characteristic region C2 is a first point Pa spaced apart from the first characteristic point P1 by a first distance da in the longitudinal direction of the first characteristic line L1, and the first characteristic line A second point Px spaced apart by a second distance dx from the second feature point P2 in the longitudinal direction of L1 may be included. The first point Pa and the second point Px may be formed side by side in the longitudinal direction of the first characteristic line L1 , and may be formed in a direction opposite from the first characteristic line L1 . In addition, the first point Pa and the second point Px may form a horizontal length of the second characteristic region C2 .

또한, 제2 특징 영역(C2)은 제1 특징선(L1)의 길이방향과 수직인 방향으로 제1 특징점(P1)으로부터 제3 거리(db)만큼 이격된 제3 지점(Pb), 제3 지점(Pb)이 형성된 방향에 대향되는 방향으로 제1 특징점(P1)으로부터 제4 거리(dc)만큼 이격된 제4 지점(Pc)을 포함할 수 있다. 이 때, 제3 지점(Pb)과 제4 지점(Pc)은 각각 제2 특징 영역(C2)의 가로선(Lby, Lcz)들을 구성할 수 있다.In addition, the second characteristic region C2 includes a third point Pb spaced apart from the first characteristic point P1 by a third distance db in a direction perpendicular to the longitudinal direction of the first characteristic line L1, a third The fourth point Pc may include a fourth point Pc spaced apart from the first feature point P1 by a fourth distance dc in a direction opposite to the direction in which the point Pb is formed. In this case, the third point Pb and the fourth point Pc may constitute horizontal lines Lby and Lcz of the second characteristic region C2, respectively.

제2 특징 영역(C2)은 제1 특징선(L1)의 길이방향과 수직인 방향으로 제2 특징점(P2)으로부터 제5 거리(dy)만큼 이격된 제5 지점(Py), 그리고 제5 지점(Py)이 형성된 방향에 대향되는 방향으로 제2 특징점(P2)으로부터 제6 거리(dz)만큼 이격된 제6 지점(Pz)을 포함할 수 있다. 이 때, 제5 지점(Py)과 제6 지점(Pz)은 각각 제2 특징 영역(C2)의 가로선(Lby, Lcz)들을 구성할 수 있다.The second characteristic region C2 is a fifth point Py spaced apart from the second characteristic point P2 by a fifth distance dy in a direction perpendicular to the longitudinal direction of the first characteristic line L1, and a fifth point A sixth point Pz spaced apart from the second feature point P2 by a sixth distance dz in a direction opposite to the direction in which Py is formed may be included. In this case, the fifth point Py and the sixth point Pz may constitute horizontal lines Lby and Lcz of the second characteristic region C2, respectively.

도 9를 참조하면, 제1 특징선(L1)과 제1 특징선을 구성하는 제1 특징점(P1) 및 제2 특징점(P2)으로부터 생성된 제1 지점 내지 제6 지점(Pa, Px, Pb, Pc, Py, Pz)은 제2 특징 영역(C2)의 경계를 형성할 수 있다. 예시적으로, 제3 지점(Pb)과 제5 지점(Py)을 통과하도록 제1 가로선(Lby)이 형성될 수 있고, 제4 지점(Pc)과 제6 지점(Pz)을 통과하도록 제2 가로선(Lcz)이 형성될 수 있다. 또한, 제1 지점(Pa)에 의해 제1 특징선(L1)의 길이방향과 수직한 방향으로 연장되는 제1 세로선(La)이 형성될 수 있고, 제1 세로선(La)은 제1 가로선(Lby) 및 제2 가로선(Lcz)과 각각 연결될 수 있다. 또한, 제2 지점(Px)에 의해 제1 특징선(L1)의 길이방향과 수직한 방향으로 연장되는 제2 세로선(Lx)이 형성될 수 있고, 제2 세로선(Lx)은 제1 가로선(Lby) 및 제2 가로선(Lcz)과 각각 연결될 수 있다. 따라서, 제1 가로선(Lby), 제2 가로선(Lcz), 제1 세로선(La), 및 제2 세로선(Lx)이 연결되어 직사각형 형태의 제2 특징 영역(C2)을 형성할 수 있으며, 제2 특징 영역 내부에 소정의 처리를 가능하게 한다.Referring to FIG. 9 , first to sixth points Pa, Px, Pb generated from the first feature line L1 and the first feature point P1 and the second feature point P2 constituting the first feature line , Pc, Py, and Pz) may form a boundary of the second characteristic region C2. For example, the first horizontal line Lby may be formed to pass through the third point Pb and the fifth point Py, and the second line Lby may be formed to pass through the fourth point Pc and the sixth point Pz. A horizontal line Lcz may be formed. In addition, a first vertical line La extending in a direction perpendicular to the longitudinal direction of the first feature line L1 may be formed by the first point Pa, and the first vertical line La is a first horizontal line ( Lby) and the second horizontal line Lcz, respectively. In addition, a second vertical line Lx extending in a direction perpendicular to the longitudinal direction of the first feature line L1 may be formed by the second point Px, and the second vertical line Lx is a first horizontal line ( Lby) and the second horizontal line Lcz, respectively. Accordingly, the first horizontal line Lby, the second horizontal line Lcz, the first vertical line La, and the second vertical line Lx may be connected to form a second characteristic region C2 having a rectangular shape, 2 Enables predetermined processing inside the feature area.

한편, 제1 거리 내지 제6 거리(da, dx, db, dc, dy, dz)는 모두 동일할 수 있으며, 어떠한 얼굴 데이터를 사용하더라도 제2 특징 영역(C2)에 눈이 포함되도록 할 수 있다.Meanwhile, the first to sixth distances (da, dx, db, dc, dy, dz) may all be the same, and no matter what face data is used, the eyes may be included in the second feature region C2. .

도 10을 참조하면, 제2 특징 영역(C2)은 양측이 둥그런(round) 막대 형상을 가질 수도 있다. 예시적으로, 제1 특징점(P1)으로부터 제1 거리(d1)만큼 이격되도록 제1 지점(Pa), 제3 지점(Pb), 및 제4 지점(Pc)이 형성될 수 있고, 제2 특징점(P2)으로부터 제2 거리(d2)만큼 이격되도록 제2 지점(Px), 제5 지점(Py), 및 제6 지점(Pz)이 형성될 수 있다. 이 때, 제1 지점(Pa), 제3 지점(Pb), 및 제4 지점(Pc)은 제1 호(lbac)를 형성할 수 있고, 제2 지점(Px), 제5 지점(Py), 및 제6 지점(Pz)은 제2 호(lyxz)를 형성할 수 있다. 따라서, 제1 호(lbac), 제2 호(lyxz), 제1 가로선(Lby), 및 제2 가로선(Lcz)이 서로 연결되어 제2 특징 영역(C2)을 형성할 수 있다. 이와 같이 제1 호(lbac) 및 제2 호(lyxz)를 사용하여 제2 특징 영역(C2)을 형성하는 경우, 사용자는 처리되는 제2 특징 영역(C2) 부분을 최소화하면서도 환자의 얼굴 노출을 효과적으로 방지하고, 환자의 익명성을 보장할 수 있다.Referring to FIG. 10 , the second characteristic region C2 may have a bar shape in which both sides are rounded. Exemplarily, a first point Pa, a third point Pb, and a fourth point Pc may be formed to be spaced apart from the first feature point P1 by a first distance d1, and the second feature point A second point Px, a fifth point Py, and a sixth point Pz may be formed to be spaced apart from (P2) by a second distance d2. In this case, the first point Pa, the third point Pb, and the fourth point Pc may form a first arc lbac, and the second point Px and the fifth point Py. , and the sixth point Pz may form a second arc lyxz. Accordingly, the first arc lbac, the second arc lyxz, the first horizontal line Lby, and the second horizontal line Lcz may be connected to each other to form the second characteristic region C2 . In this way, when the second feature region C2 is formed using the first arc lbac and the second arc lyxz, the user minimizes the processed second feature region C2 portion while exposing the patient’s face. It can be effectively prevented and the anonymity of the patient can be guaranteed.

이하에서는, 제2 특징 영역(C2)이 변경되는 과정에 대해 설명한다.Hereinafter, a process in which the second characteristic region C2 is changed will be described.

도 11을 참조하면, 변경하는 단계(S140)는 제2 특징 영역(C2)에 소정 색상 및 패턴 중 적어도 하나를 적용할 수 있다. 예시적으로, 제2 특징 영역(C2) 내부의 픽셀들은 이미지 데이터의 정보를 가질 수 있으며, 상기 정보는 색상, 굴곡 등일 수 있다. 이 때, 제2 특징 영역(C2) 내부의 픽셀들에 특정 색상이 할당될 수 있다. 예를 들면, 제2 특징 영역(C2) 내부의 픽셀들에는 검정색이 할당될 수 있다. 따라서, 제2 특징 영역(C2) 내부의 픽셀들은 이미지 데이터가 표시될 때 할당된 검정색이 표시되도록 하며, 이미지 데이터의 얼굴 데이터 중 눈을 포함하는 제2 특징 영역(C2)이 실루엣(silhouette) 처리될 수 있다. 이와 같이 제2 특징 영역(C2)의 실루엣 처리를 통해, 사용자는 환자의 신상정보 노출을 최소화하면서 최적의 교정 계획을 제공할 수 있다.Referring to FIG. 11 , in the changing ( S140 ), at least one of a predetermined color and a pattern may be applied to the second characteristic area C2 . For example, the pixels in the second characteristic region C2 may have image data information, and the information may include a color, a curvature, and the like. In this case, a specific color may be assigned to pixels inside the second characteristic area C2 . For example, black may be assigned to pixels in the second characteristic region C2 . Accordingly, the pixels inside the second feature region C2 display the assigned black color when the image data is displayed, and the second feature region C2 including the eyes among the face data of the image data is processed into a silhouette. can be As described above, through the silhouette processing of the second characteristic region C2, the user can provide an optimal correction plan while minimizing exposure of the patient's personal information.

또한, 제2 특징 영역(C2) 내부는 소정 패턴이 오버레이(overlay) 되도록 제2 특징 영역(C2)을 변경하는 것 또한 가능하며, 환자의 신상정보 노출을 최소화하기 위한 어떠한 처리라도 가능하다.In addition, it is also possible to change the second characteristic area C2 so that a predetermined pattern is overlaid on the inside of the second characteristic area C2, and any processing for minimizing exposure of the patient's personal information is possible.

도 12를 참조하면, 제2 특징 영역(C2)의 내부 부분은 희미하게 처리되도록 변경될 수 있다. 이러한 처리를 블러링(blurring)이라고 하며, 블러링은 제2 특징 영역(C2)을 이루는 픽셀들이 가지는 색상을 평균화한 픽셀값 평균일 수 있다. 도 13을 참조하면, 예시적으로 제2 특징 영역(C2)중 일부 대한 3×3의 평균화 필터 커널(averaging filter kernel)이 도시된다. 제2 특징 영역(C2)을 이루는 하나의 픽셀을 중심 픽셀로 하면, 중심 픽셀을 기준으로 중심 픽셀을 포함한 9개의 인접한 픽셀들의 픽셀값을 모두 더한다. 그 후, 더해진 값을 9로 나누고 해당 값을 중심 픽셀값으로 할당할 수 있다. 이러한 과정은 제2 특징 영역(C2)을 이루는 모든 픽셀들에 적용될 수 있으며, 이에 따라 제2 특징 영역(C2)을 이루는 픽셀들은 블러링 처리될 수 있다. 이미지 데이터 중 제2 특징 영역(C2)을 블러링하기 위해 전술한 평균화(averaging) 방식 외에도 도 14 도시된 바와 같이 각각의 픽셀에 차등적으로 변경된 픽셀값이 할당되는 가우시안 필터링(gaussian filtering), 중앙 필터링(median filtering), 및 쌍방 필터링(bilateral filtering)을 포함하는 다양한 방식들이 사용될 수 있다. 상기와 같은 블러링을 사용하여 제2 특징 영역을 변경함으로써, 사용자는 환자의 신상정보 노출을 최소화하면서 최적의 교정 계획을 제공할 수 있다.Referring to FIG. 12 , the inner portion of the second characteristic region C2 may be changed to be dimly processed. This processing is called blurring, and the blurring may be an average of pixel values obtained by averaging colors of pixels constituting the second feature region C2. Referring to FIG. 13 , for example, a 3×3 averaging filter kernel for a part of the second feature region C2 is illustrated. When one pixel constituting the second characteristic region C2 is a central pixel, pixel values of nine adjacent pixels including the central pixel are added to the central pixel. After that, the added value can be divided by 9 and the corresponding value can be assigned as the central pixel value. This process may be applied to all pixels constituting the second characteristic region C2, and accordingly, the pixels constituting the second characteristic region C2 may be blurred. In addition to the above-described averaging method to blur the second feature region C2 in the image data, as shown in FIG. 14 , Gaussian filtering in which differentially changed pixel values are assigned to each pixel, the center Various schemes may be used, including median filtering, and bilateral filtering. By changing the second feature area using the above blurring, the user can provide an optimal correction plan while minimizing exposure of the patient's personal information.

한편, 제2 특징 영역(C2)의 변경이 적용된 이미지 데이터는 익명화된 이미지 데이터(500)로 추출될 수 있다. 일 실시예로, 익명화된 이미지 데이터(500)는 제2 특징 영역(C2)에 소정 처리가 수행되어 이미지 데이터의 일부분이 변경된 얼굴 데이터이며, 익명화된 이미지 데이터(500)를 공유함으로써 환자의 얼굴 노출이 최소화되고 치료자들 간의 논의를 통해 환자에게 최적의 교정 계획을 제공할 수 있다.Meanwhile, image data to which the change of the second characteristic region C2 is applied may be extracted as the anonymized image data 500 . In one embodiment, the anonymized image data 500 is facial data in which a part of the image data is changed by performing predetermined processing on the second feature region C2 , and the patient's face is exposed by sharing the anonymized image data 500 . This can be minimized and an optimal correction plan can be provided to the patient through discussion among therapists.

전술한 과정 중 적어도 일부는 디스플레이 장치와 같은 출력 장치를 통해 표시될 수 있으며, 사용자 및 환자는 본 발명에 따른 이미지 처리 방법이 수행되는 과정을 용이하게 확인할 수 있다. 사용자는 입력 장치를 통해 유저 인터페이스 상의 특징점, 특징선, 특징 영역, 및 템플릿을 커스터마이징 할 수 있으며, 사용자는 환자가 원하는 교정물을 제공할 수 있는 이점이 있다.At least a part of the above-described process may be displayed through an output device such as a display device, and a user and a patient can easily check a process in which the image processing method according to the present invention is performed. The user can customize the feature points, feature lines, feature regions, and templates on the user interface through the input device, and there is an advantage in that the user can provide a correction product desired by the patient.

또한, 상기 이미지 데이터에 변경 적용되는 제2 특징 영역(C2)의 변경 내용을 적용하거나 해제할 수 있다. 제2 특징 영역(C2)의 변경 내용을 적용하거나 해제함으로써, 사용자와 환자가 교정 계획을 논의할 때는 환자에게 템플릿이 얼굴 전체적으로 어떻게 적용될지 용이하게 확인할 수 있도록 하고, 다른 치료자 등에게 이미지 데이터를 공유할 때는 환자의 얼굴 노출을 최소화하고 익명성을 보장하는 이점이 있다.In addition, changes in the second feature area C2 that are changed and applied to the image data may be applied or released. By applying or disabling changes in the second feature area C2, when the user and the patient discuss the correction plan, the patient can easily see how the template will be applied to the entire face, and the image data is shared with other therapists, etc. This has the advantage of minimizing exposure of the patient's face and guaranteeing anonymity.

이하에서는, 본 발명에 따른 이미지 처리 장치에 대해 상세히 설명하기로 한다. 이미지 처리 장치를 설명함에 있어서, 이미지 처리 방법과 중첩되는 내용은 간략히 언급하거나 생략한다.Hereinafter, an image processing apparatus according to the present invention will be described in detail. In describing the image processing apparatus, content overlapping with the image processing method will be briefly mentioned or omitted.

도 15는 본 발명에 따른 이미지 처리 장치의 구성도이다.15 is a block diagram of an image processing apparatus according to the present invention.

도 15를 참조하면, 본 발명에 따른 이미지 처리 장치(10)는, 이미지 데이터가 저장된 데이터베이스부(100), 데이터베이스부(100)에서 적어도 하나의 이미지 데이터를 입력받아 이미지 데이터에 복수의 특징점들을 부여하고, 특징점 중 적어도 2개의 특징점을 연결하여 생성되는 적어도 하나의 특징선 또는 특징 영역을 기초로 이미지 데이터의 일부를 변경하는 제어부(200), 그리고 제어부(200)의 수행 결과를 시각적으로 표시하는 디스플레이부(300)를 포함할 수 있다.Referring to FIG. 15 , the image processing apparatus 10 according to the present invention receives at least one image data from the database unit 100 and the database unit 100 in which image data is stored, and applies a plurality of feature points to the image data. and a control unit 200 that changes a part of image data based on at least one characteristic line or a characteristic region generated by connecting at least two characteristic points among the characteristic points, and a display that visually displays the result of the operation of the control unit 200 It may include a part 300 .

이하에서는, 각부 구성에 대하여 설명하기로 한다.Hereinafter, the configuration of each part will be described.

데이터베이스부(100)는 이미지 데이터를 저장할 수 있다. 이 때, 이미지 데이터는 구강이 개구되어 치아가 노출된 얼굴 데이터일 수 있다. 구강이 개구된 것은 입술이 개방되어 치아 또는 치은의 일부가 노출된 것을 의미할 수 있으며, 얼굴 데이터는 자연스러운 스마일 라인을 갖는 일반 얼굴 데이터 또는 강제 개구된 개구 얼굴 데이터일 수 있다. 즉, 치아가 노출되어 템플릿을 적용할 수 있으면 어떠한 형식의 얼굴 데이터라도 사용이 가능하다. 데이터베이스부(100)는 이미지 데이터뿐만 아니라 특징점들을 생성하기 위한 알고리즘, 이미지 데이터에 적용하기 위한 적어도 하나의 치아 템플릿 데이터 등을 포함할 수 있다.The database unit 100 may store image data. In this case, the image data may be face data in which the oral cavity is opened and teeth are exposed. When the oral cavity is opened, it may mean that the lips are opened and a part of the teeth or gingiva is exposed, and the face data may be general face data having a natural smile line or face data with a forced open mouth. That is, any type of face data can be used as long as the teeth are exposed and the template can be applied. The database unit 100 may include not only image data but also an algorithm for generating feature points, and at least one tooth template data to be applied to the image data.

본 발명에 따른 이미지 처리 방법에서 전술한 바와 같이, 데이터베이스부(100)는 물리적 저장 장치일 수도 있고, 클라우드일 수도 있다.As described above in the image processing method according to the present invention, the database unit 100 may be a physical storage device or a cloud.

한편, 제어부(200)는 데이터베이스부(100)로부터 적어도 하나의 이미지 데이터를 입력받아 이미지 데이터에 특징점들을 부여하고, 이미지를 소정 규격에 부합하도록 피팅하며, 스마일 라인 디자인 등을 수행할 수 있다. 또한, 제어부(200)는 이미지 데이터의 일부분을 변경할 수 있다. 이하에서는 제어부(200)의 세부 구성에 대하여 설명한다.Meanwhile, the controller 200 may receive at least one image data from the database unit 100 , assign feature points to the image data, fit the image to meet a predetermined standard, and design a smile line. Also, the controller 200 may change a part of the image data. Hereinafter, a detailed configuration of the control unit 200 will be described.

제어부(200)는 소정 기준에 따라 이미지 데이터에 복수의 특징점들을 부여하는 특징점 생성부(210)를 포함할 수 있다.The controller 200 may include a feature point generating unit 210 that assigns a plurality of feature points to the image data according to a predetermined criterion.

특징점 생성부(210)는 입력받은 이미지 데이터의 특징적인 부분에 대하여 특징점들을 부여한다. 이 때, 특징적인 부분은 전술한 바와 같이 눈썹, 하안검, 상안검, 코, 입술의 외측, 입술의 내측, 안면의 윤곽 등을 포함할 수 있다. 상기 특징적인 부분들을 나타내기 위해, 특징적인 부분들에 특징점들을 부여하며, 상기 특징점은 이미지 데이터에 복수로 부여될 수 있다. 특징점은 후술할 특징선 및 특징 영역의 생성 등의 참조점으로 사용될 수 있다. 또한, 특징점 생성부(210)는 이미지 데이터에 정확한 특징점들을 부여하기 위해 상기 이미지 데이터를 소정 각도 간격으로 회전하면서 최적의 각도에서 이미지 데이터에 특징점들을 부여할 수 있다. 한편, 특징점 생성부(210)는 상기 이미지 데이터에 특징점들을 부여하기 위해 얼굴 데이터를 기초로 소정 기준을 사용할 수 있으며, 상기 기준은 전술한 바와 같다.The feature point generator 210 assigns feature points to a characteristic part of the input image data. In this case, the characteristic part may include the eyebrows, the lower eyelid, the upper eyelid, the nose, the outer side of the lips, the inner side of the lips, the contour of the face, and the like, as described above. In order to represent the characteristic parts, characteristic points may be given to the characteristic parts, and a plurality of the characteristic points may be provided to the image data. The feature point may be used as a reference point for generating a feature line and a feature region to be described later. In addition, the feature point generator 210 may assign feature points to the image data at an optimal angle while rotating the image data at predetermined angular intervals in order to provide accurate feature points to the image data. Meanwhile, the feature point generating unit 210 may use a predetermined criterion based on the face data to assign the feature points to the image data, and the criterion is the same as described above.

또한, 제어부(200)는 이미지 데이터 피팅부(220)를 더 포함할 수 있다. 이미지 데이터 피팅부(220)는 특징점 생성부(210)로부터 부여된 특징점을 연결하여 생성된 적어도 하나의 특징선을 기초로 이미지 데이터가 소정 크기 및 소정 각도 중 적어도 하나를 갖도록 피팅할 수 있다. 예시적으로, 이미지 데이터 피팅부(220)는 양안의 외안각에 생성된 특징점들을 연결하여 생성되는 제1 특징선의 길이가 소정 길이에 부합하도록 이미지 데이터의 크기를 확대 또는 축소할 수 있다. 또한, 이미지 데이터 피팅부(220)는 상기 제1 특징선의 일 지점과 상기 제1 특징선으로부터 이격된 특징점을 연결하여 생성되는 제2 특징선이 소정 각도를 갖도록 이미지 데이터를 회전시킬 수 있다. 이 때, 이미지 데이터 피팅부(220)는 제2 특징선의 각도가 유저 인터페이스 평면 중 가로방향에 수직을 이루도록 이미지 데이터를 회전시킬 수 있다.Also, the control unit 200 may further include an image data fitting unit 220 . The image data fitting unit 220 may fit the image data to have at least one of a predetermined size and a predetermined angle based on at least one characteristic line generated by connecting the characteristic points provided by the characteristic point generator 210 . For example, the image data fitting unit 220 may enlarge or reduce the size of the image data so that the length of the first feature line generated by connecting the feature points generated on the lateral canthus of both eyes corresponds to a predetermined length. Also, the image data fitting unit 220 may rotate the image data so that a second feature line generated by connecting a point of the first feature line and a feature point spaced apart from the first feature line has a predetermined angle. In this case, the image data fitting unit 220 may rotate the image data so that the angle of the second feature line is perpendicular to the horizontal direction of the user interface plane.

이하, 이미지 데이터 피팅부(220)에서 입력받은 이미지 데이터를 피팅하는 방법은 상기 이미지 처리 방법에서 전술한 바 있다.Hereinafter, a method of fitting the image data received by the image data fitting unit 220 has been described above in the image processing method.

이미지 데이터 피팅부(220)에서 피팅이 완료되면, 스마일 라인 디자인부(250)는 피팅된 이미지 데이터의 스마일 라인을 디자인할 수 있다. 이 때, 스마일 라인을 디자인하는 것은 특징점을 기초로 생성되는 이미지 데이터 중 특징점들에 의해 생성되는 특징 영역에 적어도 하나의 템플릿을 적용하는 것을 의미할 수 있다. 이미지 데이터의 특징 영역은 제어부 중 영역 생성부(230)에서 생성될 수 있다. 영역 생성부(230)에서 생성되는 특징 영역은, 특징점 생성부(210)에서 부여된 복수의 특징점들 중 적어도 3개의 특징점을 연결하여 생성되는 제1 특징 영역일 수 있다. 예시적으로, 제1 특징 영역은 얼굴 데이터 중 입술 내측에 대한 특징점들을 연결하여 생성되는 립라인의 내부 영역일 수 있다. 제1 특징 영역은 치아를 나타내는 데이터를 포함하며, 스마일 라인 디자인부(260)는 제1 특징 영역에 교정 치아에 관한 템플릿을 적용하여 환자의 교정 후 치아 상태를 나타낼 수 있다.When fitting is completed by the image data fitting unit 220 , the smile line design unit 250 may design a smile line of the fitted image data. In this case, designing the smile line may mean applying at least one template to a feature area generated by the feature points among image data generated based on the feature point. The feature region of the image data may be generated by the region generating unit 230 of the controller. The feature region generated by the region generator 230 may be a first feature region generated by connecting at least three feature points among the plurality of feature points provided by the feature point generator 210 . For example, the first feature region may be an internal region of a lip line generated by connecting feature points on the inner side of the lips among face data. The first characteristic area includes data representing teeth, and the smile line design unit 260 may indicate the state of the patient's teeth after orthodontic treatment by applying a template related to orthodontic teeth to the first characteristic area.

한편, 영역 생성부(230)에서 생성되는 특징 영역은 얼굴 데이터에서 적어도 2개의 특징점을 기초로 생성되는 제2 특징 영역을 더 포함할 수 있다. 예시적으로, 제2 특징 영역은 얼굴 데이터 중 눈을 포함할 수 있으며, 제2 특징 영역은 얼굴 데이터 중 눈의 윤곽을 이루는 제1 특징점 및 제2 특징점을 포함할 수 있다. 또한, 제2 특징 영역은 제1 특징 영역과 상호 이격되어 형성될 수 있다. 제1 특징 영역과 제2 특징 영역이 이격 형성됨으로써, 제2 특징 영역에 대한 변경이 수행될 때 제1 특징 영역에 적용된 템플릿이 손상되는 것을 방지할 수 있다.Meanwhile, the feature region generated by the region generator 230 may further include a second feature region generated based on at least two feature points in the face data. Exemplarily, the second feature region may include eyes in the face data, and the second feature region may include first feature points and second feature points forming an outline of the eyes in the face data. Also, the second characteristic region may be formed to be spaced apart from the first characteristic region. Since the first feature region and the second feature region are formed to be spaced apart, it is possible to prevent the template applied to the first feature region from being damaged when a change to the second feature region is performed.

또한, 제2 특징 영역은 상기 제1 특징점 및 상기 제2 특징점을 연결하여 생성되는 제1 특징선을 포함할 수 있으며, 제2 특징영역은 제1 특징선의 길이방향으로 제1 특징점으로부터 제1 거리만큼 이격 형성된 제1 지점과, 제1 특징선의 길이방향으로 제2 특징점으로부터 제2 거리만큼 이격 형성된 제2 지점을 포함할 수 있다. 또한, 제2 특징 영역은, 제1 특징선의 길이방향과 수직인 방향으로 제1 특징점으로부터 제3 거리만큼 이격 형성된 제3 지점, 제3 지점이 형성된 방향에 대향되는 방향으로 제1 특징점으로부터 제4 거리만큼 이격 형성된 제4 지점, 제1 특징선의 길이방향과 수직인 방향으로 제2 특징점으로부터 제5 거리만큼 이격 형성된 제5 지점, 그리고 제5 지점이 형성된 방향에 대향되는 방향으로 제2 특징점으로부터 제6 거리만큼 이격 형성된 제6 지점을 포함할 수 있다. 이 때, 제1 거리 내지 제6 거리는 동일한 길이를 가질 수 있다.In addition, the second feature region may include a first feature line generated by connecting the first feature point and the second feature point, and the second feature region is a first distance from the first feature point in a longitudinal direction of the first feature line. It may include a first point spaced apart by a distance and a second point spaced apart by a second distance from the second feature point in the longitudinal direction of the first feature line. In addition, the second feature region may include a third point spaced apart from the first feature point by a third distance in a direction perpendicular to the longitudinal direction of the first feature line, and a fourth point from the first feature point in a direction opposite to the direction in which the third point is formed. A fourth point spaced apart by a distance, a fifth point spaced apart by a fifth distance from the second feature point in a direction perpendicular to the longitudinal direction of the first feature line, and a second feature point in a direction opposite to the direction in which the fifth point is formed It may include a sixth point spaced apart by 6 distances. In this case, the first to sixth distances may have the same length.

제1 특징점 및 제2 특징점으로부터 제1 지점 내지 제6 지점이 형성되고, 형성된 제1 지점 내지 제6 지점으로부터 제2 특징 영역을 형성하는 과정에 대해서는 본 발명에 따른 이미지 처리 방법에서 전술한 바와 같다.The first to sixth points are formed from the first and second feature points, and the process of forming the second feature region from the first to sixth points is the same as described above in the image processing method according to the present invention. .

제어부(200)는 제2 특징 영역을 변경하는 영역 변경부(240)를 더 포함할 수 있다. 영역 변경부(240)는 영역 생성부(230)에서 생성된 제2 특징 영역에 소정 색상 및 소정 패턴 중 적어도 하나를 적용할 수 있다. 이 때, 소정 색상은 단일 색상일 수도 있고, 제2 특징 영역을 이루는 일부 픽셀들에서, 해당 픽셀들의 픽셀값의 평균일 수도 있다. 픽셀값의 평균은 상기 일부 픽셀들 중 중심 픽셀에 할당될 수 있으며, 이에 따라 제2 특징 영역의 블러링 과정이 수행될 수 있다. 블러링 과정을 수행하기 위해 전술한 바와 같은 다양한 필터링 방식이 사용될 수 있다.The control unit 200 may further include a region change unit 240 for changing the second characteristic region. The region changer 240 may apply at least one of a predetermined color and a predetermined pattern to the second characteristic region generated by the region generator 230 . In this case, the predetermined color may be a single color, or in some pixels constituting the second characteristic region, an average of pixel values of the corresponding pixels. The average of the pixel values may be allocated to a central pixel among the partial pixels, and accordingly, a blurring process of the second feature region may be performed. In order to perform the blurring process, various filtering methods as described above may be used.

제어부(200)는 이미지 데이터 추출부(260)를 더 포함할 수 있다. 이미지 데이터 추출부(260)는 제2 특징 영역의 변경 내용이 적용된 이미지 데이터를 익명화된 이미지 데이터로 추출할 수 있다. 추출된 익명화된 이미지 데이터는 데이터베이스부(100)에 저장될 수 있으며, 익명화된 이미지 데이터를 통해 사용자는 다른 치료자와 교정 계획을 논의할 수 있으며, 이 과정에서 환자의 신상 정보의 노출이 최소화될 수 있고, 이로써 환자의 익명성을 보장하는 이점이 있다.The control unit 200 may further include an image data extraction unit 260 . The image data extraction unit 260 may extract image data to which the change of the second characteristic region is applied as anonymized image data. The extracted anonymized image data may be stored in the database unit 100, and through the anonymized image data, the user can discuss a correction plan with other therapists, and in this process, exposure of the patient's personal information can be minimized. and, thereby, has the advantage of guaranteeing anonymity of the patient.

한편, 상기와 같은 제어부(200)의 동작 수행 과정 중 적어도 일부는 디스플레이부(300)를 통해 시각적으로 표시될 수 있으며, 사용자 및 환자는 디스플레이부(300)를 통해 환자에 대한 최적의 교정 계획을 수립할 수 있다. 또한, 제2 특징 영역이 변경되도록 소정 처리가 수행됨으로써, 환자의 얼굴 노출을 최소화하고 익명성을 보장할 수 있다.On the other hand, at least a part of the operation performing process of the control unit 200 as described above may be visually displayed through the display unit 300 , and the user and the patient can select an optimal correction plan for the patient through the display unit 300 . can be established In addition, predetermined processing is performed so that the second feature region is changed, thereby minimizing exposure of the patient's face and guaranteeing anonymity.

이상의 설명은 본 발명의 기술 사상을 예시적으로 설명한 것에 불과한 것으로서, 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자라면 본 발명의 본질적인 특성에서 벗어나지 않는 범위에서 다양한 수정 및 변형이 가능할 것이다.The above description is merely illustrative of the technical spirit of the present invention, and various modifications and variations will be possible without departing from the essential characteristics of the present invention by those skilled in the art to which the present invention pertains.

따라서, 본 발명에 개시된 실시예들은 본 발명의 기술 사상을 한정하기 위한 것이 아니라 설명하기 위한 것이고, 이러한 실시예에 의하여 본 발명의 기술 사상의 범위가 한정되는 것은 아니다. 본 발명의 보호 범위는 아래의 청구범위에 의하여 해석되어야 하며, 그와 동등한 범위 내에 있는 모든 기술 사상은 본 발명의 권리범위에 포함되는 것으로 해석되어야 할 것이다.Accordingly, the embodiments disclosed in the present invention are not intended to limit the technical spirit of the present invention, but to explain, and the scope of the technical spirit of the present invention is not limited by these embodiments. The protection scope of the present invention should be construed by the following claims, and all technical ideas within the scope equivalent thereto should be construed as being included in the scope of the present invention.

S110: 이미지 데이터를 입력받는 단계
S120: 특징점들을 부여하는 단계
S130: 피팅하는 단계
S140: 변경하는 단계
400: 얼굴 데이터
500: 익명화된 이미지 데이터
10: 이미지 처리 장치
100: 데이터베이스부
200: 제어부
300: 디스플레이부
S110: step of receiving image data
S120: Step of assigning feature points
S130: Fitting step
S140: step to change
400: face data
500: Anonymized image data
10: image processing unit
100: database unit
200: control unit
300: display unit

Claims (36)

적어도 하나 이상의 이미지 데이터를 입력받는 단계;
상기 이미지 데이터에 복수의 특징점들을 부여하는 단계; 및
상기 특징점들 중 적어도 2개를 연결하여 생성되는 특징선, 또는 상기 특징점들 중 적어도 3개를 연결하여 생성되는 특징 영역을 기초로 상기 이미지 데이터의 일부분을 변경하는 단계;를 포함하는 것을 특징으로 하는 이미지 처리 방법.
receiving at least one or more image data;
assigning a plurality of feature points to the image data; and
changing a portion of the image data based on a feature line generated by connecting at least two of the feature points or a feature region generated by connecting at least three of the feature points Image processing method.
청구항 1에 있어서,
상기 이미지 데이터는 구강이 개구되어 치아가 노출된 얼굴 데이터인 것을 특징으로 하는 이미지 처리 방법.
The method according to claim 1,
The image data is an image processing method, characterized in that the mouth is opened and teeth are exposed face data.
청구항 1에 있어서,
상기 특징점들을 부여하는 단계는,
소정 기준에 따라 상기 이미지 데이터에 복수의 특징점들을 부여하는 것을 특징으로 하는 이미지 처리 방법.
The method according to claim 1,
The step of giving the characteristic points is,
An image processing method characterized in that a plurality of feature points are assigned to the image data according to a predetermined criterion.
청구항 1에 있어서,
상기 특징점들을 부여하는 단계는,
상기 이미지 데이터를 소정 각도 간격으로 회전하면서 상기 이미지 데이터를 기초로 소정 기준에 따라 복수의 특징점들을 부여하는 것을 특징으로 하는 이미지 처리 방법.
The method according to claim 1,
The step of giving the characteristic points is,
An image processing method, characterized in that while rotating the image data at a predetermined angular interval, a plurality of feature points are assigned according to a predetermined criterion based on the image data.
청구항 1에 있어서,
상기 특징점들 중 적어도 2개의 특징점을 연결하여 생성되는 적어도 하나의 특징선을 기초로 상기 이미지 데이터가 소정 크기 및 소정 각도 중 적어도 하나를 갖도록 피팅(fitting)하는 단계;를 더 포함하는 것을 특징으로 하는 이미지 처리 방법.
The method according to claim 1,
The method further comprising: fitting the image data to have at least one of a predetermined size and a predetermined angle based on at least one characteristic line generated by connecting at least two of the characteristic points; Image processing method.
청구항 5에 있어서,
상기 피팅하는 단계는,
적어도 2개의 특징점을 연결하여 생성되는 제1 특징선의 길이가 소정 길이에 부합하도록 상기 이미지 데이터의 크기를 확대 또는 축소하는 것을 특징으로 하는 이미지 처리 방법.
6. The method of claim 5,
The fitting step is
An image processing method, characterized in that the size of the image data is enlarged or reduced so that a length of a first feature line generated by connecting at least two feature points corresponds to a predetermined length.
청구항 6에 있어서,
상기 피팅하는 단계는,
상기 제1 특징선의 일 지점과 상기 제1 특징선으로부터 이격된 특징점을 연결하여 생성되는 제2 특징선의 각도가 소정 각도에 부합하도록 상기 이미지 데이터를 회전하는 것을 특징으로 하는 이미지 처리 방법.
7. The method of claim 6,
The fitting step is
and rotating the image data so that an angle of a second characteristic line generated by connecting a point of the first characteristic line and a characteristic point spaced apart from the first characteristic line corresponds to a predetermined angle.
청구항 7에 있어서,
상기 제2 특징선의 각도는 유저 인터페이스(UI) 평면 중 가로방향에 수직인 것을 특징으로 하는 이미지 처리 방법.
8. The method of claim 7,
The angle of the second characteristic line is an image processing method, characterized in that perpendicular to the horizontal direction of the user interface (UI) plane.
청구항 2에 있어서,
상기 특징 영역은,
상기 얼굴 데이터 중 입술 내측을 이루는 특징점들에 의해 생성되는 제1 특징 영역을 포함하는 것을 특징으로 하는 이미지 처리 방법.
3. The method according to claim 2,
The feature area is
and a first feature region generated by feature points forming the inner side of the lips among the face data.
청구항 9에 있어서,
상기 특징 영역은,
상기 얼굴 데이터에서 적어도 2개의 특징점을 기초로 생성되는 제2 특징 영역을 더 포함하며,
상기 제1 특징 영역과 상기 제2 특징 영역은 상호 이격 형성되는 것을 특징으로 하는 이미지 처리 방법.
10. The method of claim 9,
The feature area is
It further comprises a second feature region generated based on at least two feature points in the face data,
The image processing method, characterized in that the first characteristic region and the second characteristic region are formed to be spaced apart from each other.
청구항 10에 있어서,
상기 제2 특징 영역은, 상기 얼굴 데이터 중 눈의 윤곽을 이루는 제1 특징점 및 제2 특징점을 포함하는 것을 특징으로 하는 이미지 처리 방법.
11. The method of claim 10,
The image processing method according to claim 1, wherein the second feature area includes a first feature point and a second feature point forming an eye outline among the face data.
청구항 11에 있어서,
상기 제2 특징 영역은 상기 제1 특징점 및 상기 제2 특징점을 연결하여 생성되는 제1 특징선을 포함하며,
상기 제2 특징 영역은 상기 제1 특징선의 길이방향으로 상기 제1 특징점으로부터 제1 거리만큼 이격된 제1 지점, 및 상기 제1 특징선의 길이방향으로 상기 제2 특징점으로부터 제2 거리만큼 이격된 제2 지점을 포함하는 것을 특징으로 하는 이미지 처리 방법.
12. The method of claim 11,
The second feature region includes a first feature line generated by connecting the first feature point and the second feature point,
The second feature region may include a first point spaced apart from the first feature point by a first distance in the longitudinal direction of the first feature line, and a second feature spaced apart from the second feature point by a second distance in the longitudinal direction of the first feature line. An image processing method comprising two points.
청구항 12에 있어서,
상기 제2 특징 영역은,
상기 제1 특징선의 길이방향과 수직인 방향으로 상기 제1 특징점으로부터 제3 거리만큼 이격된 제3 지점, 상기 제3 지점이 형성된 방향에 대향되는 방향으로 상기 제1 특징점으로부터 제4 거리만큼 이격된 제4 지점, 상기 제1 특징선의 길이방향과 수직인 방향으로 상기 제2 특징점으로부터 제5 거리만큼 이격된 제5 지점, 및 상기 제5 지점이 형성된 방향에 대향되는 방향으로 상기 제2 특징점으로부터 제6 거리만큼 이격된 제6 지점을 포함하는 것을 특징으로 하는 이미지 처리 방법.
13. The method of claim 12,
The second characteristic region is
A third point spaced apart by a third distance from the first feature point in a direction perpendicular to the longitudinal direction of the first feature line, and a fourth distance apart from the first feature point in a direction opposite to the direction in which the third point is formed A fourth point, a fifth point spaced apart from the second feature point by a fifth distance in a direction perpendicular to the longitudinal direction of the first feature line, and a fifth point from the second feature point in a direction opposite to the direction in which the fifth point is formed An image processing method comprising a sixth point spaced apart by 6 distances.
청구항 13에 있어서,
상기 제1 거리 내지 상기 제6 거리는 동일한 것을 특징으로 하는 이미지 처리 방법.
14. The method of claim 13,
The image processing method, characterized in that the first distance to the sixth distance are the same.
청구항 10에 있어서,
상기 일부분을 변경하는 단계는, 상기 제2 특징 영역에 소정 색상 및 소정 패턴 중 적어도 하나를 적용하는 것을 특징으로 하는 이미지 처리 방법.
11. The method of claim 10,
The changing of the part includes applying at least one of a predetermined color and a predetermined pattern to the second feature area.
청구항 15에 있어서,
상기 색상은 상기 제2 특징 영역을 이루는 픽셀들의 픽셀값 평균인 것을 특징으로 하는 이미지 처리 방법.
16. The method of claim 15,
The color is an image processing method, characterized in that the average of the pixel values of the pixels constituting the second characteristic area.
청구항 1에 있어서,
상기 이미지 데이터는 상기 변경이 적용된 익명화된 이미지 데이터로 추출되는 것을 특징으로 하는 이미지 처리 방법.
The method according to claim 1,
The image data is an image processing method, characterized in that extracted as anonymized image data to which the change is applied.
청구항 9에 있어서,
상기 제1 특징 영역에 적어도 하나의 템플릿을 적용하여 스마일 라인을 디자인하는 단계;를 더 포함하는 것을 특징으로 하는 이미지 처리 방법.
10. The method of claim 9,
and designing a smile line by applying at least one template to the first feature area.
적어도 하나 이상의 이미지 데이터가 저장된 데이터베이스부;
제어부; 및
상기 제어부의 수행 결과를 시각적으로 표시하는 디스플레이부; 를 포함하고,
상기 제어부는,
상기 데이터베이스부에서 상기 이미지 데이터를 입력받아 상기 이미지 데이터에 복수의 특징점들을 부여하는 특징점 생성부; 및
상기 특징점 중 적어도 2개의 특징점을 연결하여 생성되는 적어도 하나의 특징선 또는 특징 영역을 기초로 상기 이미지 데이터의 일부를 변경하는 영역 변경부; 를 포함하는 것을 특징으로 하는 이미지 처리 장치.
a database unit storing at least one or more image data;
control unit; and
a display unit for visually displaying the result of the control unit; including,
The control unit is
a feature point generating unit that receives the image data from the database unit and assigns a plurality of feature points to the image data; and
a region changing unit for changing a part of the image data based on at least one feature line or feature region generated by connecting at least two of the feature points; Image processing apparatus comprising a.
청구항 19에 있어서,
상기 이미지 데이터는 구강이 개구되어 치아가 노출된 얼굴 데이터인 것을 특징으로 하는 이미지 처리 장치.
20. The method of claim 19,
The image data is an image processing apparatus, characterized in that the mouth is opened and teeth are exposed face data.
청구항 19에 있어서,
상기 특징점 생성부는 상기 이미지 데이터를 기초로 소정 기준에 따라 복수의 특징점들을 부여하는 것을 특징으로 하는 이미지 처리 장치.
20. The method of claim 19,
The image processing apparatus according to claim 1, wherein the feature point generator assigns a plurality of feature points according to a predetermined criterion based on the image data.
청구항 21에 있어서,
상기 특징점 생성부는,
상기 이미지 데이터를 소정 각도 간격으로 회전하면서 상기 소정 기준에 따라 상기 복수의 특징점들을 부여하는 것을 특징으로 하는 이미지 처리 장치.
22. The method of claim 21,
The feature point generating unit,
The image processing apparatus according to claim 1, wherein the plurality of feature points are provided according to the predetermined criterion while rotating the image data at predetermined angular intervals.
청구항 19에 있어서,
상기 제어부는,
상기 특징점들 중 적어도 2개의 특징점을 연결하여 생성되는 적어도 하나의 특징선을 기초로 상기 이미지 데이터가 소정 크기 및 소정 각도 중 적어도 하나를 갖도록 피팅하는 이미지 데이터 피팅부;를 더 포함하는 것을 특징으로 하는 이미지 처리 장치.
20. The method of claim 19,
The control unit is
An image data fitting unit for fitting the image data to have at least one of a predetermined size and a predetermined angle based on at least one characteristic line generated by connecting at least two of the characteristic points; image processing unit.
청구항 23에 있어서,
상기 이미지 데이터 피팅부는,
적어도 2개의 특징점을 연결하여 생성되는 제1 특징선의 길이가 소정 길이에 부합하도록 상기 이미지 데이터의 크기를 확대 또는 축소하는 것을 특징으로 하는 이미지 처리 장치.
24. The method of claim 23,
The image data fitting unit,
The image processing apparatus according to claim 1, wherein the size of the image data is enlarged or reduced so that a length of a first feature line generated by connecting at least two feature points corresponds to a predetermined length.
청구항 24에 있어서,
상기 이미지 데이터 피팅부는,
상기 제1 특징선의 일 지점과 상기 제1 특징선으로부터 이격된 특징점을 연결하여 생성되는 제2 특징선의 각도가 소정 각도에 부합하도록 상기 이미지 데이터를 회전하는 것을 특징으로 하는 이미지 처리 장치.
25. The method of claim 24,
The image data fitting unit,
and rotating the image data so that an angle of a second characteristic line generated by connecting a point of the first characteristic line and a characteristic point spaced apart from the first characteristic line corresponds to a predetermined angle.
청구항 25에 있어서,
상기 제2 특징선의 각도는 유저 인터페이스(UI) 평면 중 가로방향에 수직인 것을 특징으로 하는 이미지 처리 장치.
26. The method of claim 25,
The angle of the second characteristic line is an image processing apparatus, characterized in that perpendicular to the horizontal direction of the user interface (UI) plane.
청구항 19에 있어서,
상기 제어부는 상기 특징점 생성부로부터 상기 이미지 데이터에 부여된 특징점들을 기초로 상기 특징 영역을 생성하는 영역 생성부;를 더 포함하고,
상기 특징 영역은,
상기 이미지 데이터 중 입술 내측을 이루는 특징점들에 의해 생성되는 제1 특징 영역을 포함하는 것을 특징으로 하는 이미지 처리 장치.
20. The method of claim 19,
The control unit further includes a region generator for generating the feature region based on the feature points provided to the image data from the feature point generator;
The feature area is
and a first feature region generated by feature points forming the inner side of the lips among the image data.
청구항 27에 있어서,
상기 특징 영역은,
상기 이미지 데이터에서 적어도 2개의 특징점을 기초로 생성되는 제2 특징 영역을 더 포함하며,
상기 제1 특징 영역과 상기 제2 특징 영역은 상호 이격 형성되는 것을 특징으로 하는 이미지 처리 장치.
28. The method of claim 27,
The feature area is
Further comprising a second feature region generated based on at least two feature points in the image data,
The image processing apparatus according to claim 1, wherein the first characteristic area and the second characteristic area are spaced apart from each other.
청구항 28에 있어서,
상기 제2 특징 영역은, 상기 이미지 데이터 중 눈의 윤곽을 이루는 제1 특징점 및 제2 특징점을 포함하는 것을 특징으로 하는 이미지 처리 장치.
29. The method of claim 28,
The image processing apparatus according to claim 1, wherein the second characteristic area includes first and second characteristic points forming an outline of an eye among the image data.
청구항 29에 있어서,
상기 제2 특징 영역은 상기 제1 특징점 및 상기 제2 특징점을 연결하여 생성되는 제1 특징선을 포함하며,
상기 제2 특징 영역은 상기 제1 특징선의 길이방향으로 상기 제1 특징점으로부터 제1 거리만큼 이격된 제1 지점, 및 상기 제1 특징선의 길이방향으로 상기 제2 특징점으로부터 제2 거리만큼 이격된 제2 지점을 포함하는 것을 특징으로 하는 이미지 처리 장치.
30. The method of claim 29,
The second feature region includes a first feature line generated by connecting the first feature point and the second feature point,
The second feature region may include a first point spaced apart from the first feature point by a first distance in the longitudinal direction of the first feature line, and a second feature spaced apart from the second feature point by a second distance in the longitudinal direction of the first feature line. An image processing apparatus comprising two points.
청구항 30에 있어서,
상기 제2 특징 영역은,
상기 제1 특징선의 길이방향과 수직인 방향으로 상기 제1 특징점으로부터 제3 거리만큼 이격된 제3 지점, 상기 제3 지점이 형성된 방향에 대향되는 방향으로 상기 제1 특징점으로부터 제4 거리만큼 이격된 제4 지점, 상기 제1 특징선의 길이방향과 수직인 방향으로 상기 제2 특징점으로부터 제5 거리만큼 이격된 제5 지점, 및 상기 제5 지점이 형성된 방향에 대향되는 방향으로 상기 제2 특징점으로부터 제6 거리만큼 이격된 제6 지점을 포함하는 것을 특징으로 하는 이미지 처리 장치.
31. The method of claim 30,
The second characteristic region is
A third point spaced apart by a third distance from the first feature point in a direction perpendicular to the longitudinal direction of the first feature line, and a fourth distance apart from the first feature point in a direction opposite to the direction in which the third point is formed A fourth point, a fifth point spaced apart from the second feature point by a fifth distance in a direction perpendicular to the longitudinal direction of the first feature line, and a fifth point from the second feature point in a direction opposite to the direction in which the fifth point is formed An image processing apparatus comprising a sixth point spaced apart by 6 distances.
청구항 31에 있어서,
상기 제1 거리 내지 상기 제6 거리는 동일한 것을 특징으로 하는 이미지 처리 장치.
32. The method of claim 31,
The image processing apparatus, characterized in that the first distance to the sixth distance are the same.
청구항 28에 있어서,
상기 영역 변경부는, 상기 제2 특징 영역에 소정 색상 및 소정 패턴 중 적어도 하나를 적용하는 것을 특징으로 하는 이미지 처리 장치.
29. The method of claim 28,
and the region change unit applies at least one of a predetermined color and a predetermined pattern to the second characteristic region.
청구항 33에 있어서,
상기 색상은 상기 제2 특징 영역을 이루는 픽셀들의 픽셀값 평균인 것을 특징으로 하는 이미지 처리 장치.
34. The method of claim 33,
and the color is an average of pixel values of pixels constituting the second feature area.
청구항 25에 있어서,
상기 제어부는,
피팅된 상기 이미지 데이터 중 상기 특징 영역에 적어도 하나의 템플릿을 적용하여 스마일 라인을 디자인하는 스마일 라인 디자인부; 를 더 포함하는 것을 특징으로 하는 이미지 처리 장치.
26. The method of claim 25,
The control unit is
a smile line design unit for designing a smile line by applying at least one template to the feature area among the fitted image data; Image processing apparatus further comprising a.
청구항 19에 있어서,
상기 제어부는,
상기 변경이 적용된 상기 이미지 데이터를 익명화된 이미지 데이터로 추출하는 이미지 추출부; 를 더 포함하는 것을 특징으로 하는 이미지 처리 장치.
20. The method of claim 19,
The control unit is
an image extraction unit for extracting the image data to which the change is applied as anonymized image data; Image processing apparatus further comprising a.
KR1020200178664A 2020-10-29 2020-12-18 Image Processing Method and Apparatus Using Thereof KR102536646B1 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
PCT/KR2021/014767 WO2022092695A1 (en) 2020-10-29 2021-10-21 Image processing method and device using same
US18/033,901 US20230394873A1 (en) 2020-10-29 2021-10-21 Image processing method and device using same

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR20200142090 2020-10-29
KR1020200142090 2020-10-29

Publications (2)

Publication Number Publication Date
KR20220057391A true KR20220057391A (en) 2022-05-09
KR102536646B1 KR102536646B1 (en) 2023-05-26

Family

ID=81582600

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020200178664A KR102536646B1 (en) 2020-10-29 2020-12-18 Image Processing Method and Apparatus Using Thereof

Country Status (1)

Country Link
KR (1) KR102536646B1 (en)

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20070093841A (en) 2006-03-15 2007-09-19 세이코 엡슨 가부시키가이샤 Circuit board, electro-optical device, and electronic apparatus
JP2009278325A (en) * 2008-05-14 2009-11-26 Seiko Epson Corp Image processing apparatus and method, and program
JP2014091047A (en) * 2012-10-31 2014-05-19 Ormco Corp Method, system, and computer program product to execute digital orthodontics at one or more sites
JP2014171702A (en) * 2013-03-11 2014-09-22 Miura:Kk Method and system for estimation of postoperative facial appearance in jaw deformity
CN106137414A (en) * 2015-04-14 2016-11-23 上海时代天使医疗器械有限公司 Determine the method and system of target dentition layout
US20190290400A1 (en) * 2008-05-23 2019-09-26 Align Technology, Inc. Smile designer
US20190350680A1 (en) * 2018-05-21 2019-11-21 Align Technology, Inc. Photo realistic rendering of smile image after treatment
KR20200014396A (en) * 2020-01-23 2020-02-10 재단법인 아산사회복지재단 Medical Image De-Identification System, Method and Computer Readable Recording Medium

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20070093841A (en) 2006-03-15 2007-09-19 세이코 엡슨 가부시키가이샤 Circuit board, electro-optical device, and electronic apparatus
JP2009278325A (en) * 2008-05-14 2009-11-26 Seiko Epson Corp Image processing apparatus and method, and program
US20190290400A1 (en) * 2008-05-23 2019-09-26 Align Technology, Inc. Smile designer
JP2014091047A (en) * 2012-10-31 2014-05-19 Ormco Corp Method, system, and computer program product to execute digital orthodontics at one or more sites
JP2014171702A (en) * 2013-03-11 2014-09-22 Miura:Kk Method and system for estimation of postoperative facial appearance in jaw deformity
CN106137414A (en) * 2015-04-14 2016-11-23 上海时代天使医疗器械有限公司 Determine the method and system of target dentition layout
US20190350680A1 (en) * 2018-05-21 2019-11-21 Align Technology, Inc. Photo realistic rendering of smile image after treatment
KR20200014396A (en) * 2020-01-23 2020-02-10 재단법인 아산사회복지재단 Medical Image De-Identification System, Method and Computer Readable Recording Medium

Also Published As

Publication number Publication date
KR102536646B1 (en) 2023-05-26

Similar Documents

Publication Publication Date Title
US11727607B2 (en) Generation of images with tooth color determined using depth information
US11730569B2 (en) Generation of synthetic post treatment images of teeth
US11344392B2 (en) Computer implemented method for modifying a digital three-dimensional model of a dentition
US9563975B2 (en) Makeup support apparatus and method for supporting makeup
CA2692667C (en) Method and apparatus for realistic simulation of wrinkle aging and de-aging
CN105354426B (en) Smile designer
JP4753025B2 (en) Makeup simulation method
JP2021524768A (en) Orthodontic treatment simulated by enhanced visualization in real time
JP2004303193A (en) Image processor
EP3530232B1 (en) Method for aligning a three-dimensional model of a dentition of a patient to an image of the face of the patient recorded by a camera
US20210338392A1 (en) Rendering a dental model in an image
US20230222750A1 (en) Method and device for three-dimensional reconstruction of a face with toothed portion from a single image
CN114586069A (en) Method for generating dental images
KR20220057391A (en) Image Processing Method and Apparatus Using Thereof
KR20220057390A (en) Image Processing Method and Apparatus Using Thereof
US20230394873A1 (en) Image processing method and device using same
US20220175491A1 (en) Method for estimating and viewing a result of a dental treatment plan
KR20220118276A (en) Method for processing image and apparatus using thereof
EP3629301B1 (en) Rendering a dental model in an image
EP4238528A1 (en) Image processing method and apparatus using same
JP2010073222A (en) Makeup simulation method
WO2022173055A1 (en) Skeleton estimating method, device, program, system, trained model generating method, and trained model
CN114332319A (en) Facial expression restoration method and device and storage medium

Legal Events

Date Code Title Description
E902 Notification of reason for refusal
AMND Amendment
E601 Decision to refuse application
X091 Application refused [patent]
AMND Amendment
X701 Decision to grant (after re-examination)
GRNT Written decision to grant