KR102250314B1 - Aligner apparatus manufacturing system using artificial intelligence and method using the same - Google Patents

Aligner apparatus manufacturing system using artificial intelligence and method using the same Download PDF

Info

Publication number
KR102250314B1
KR102250314B1 KR1020210016406A KR20210016406A KR102250314B1 KR 102250314 B1 KR102250314 B1 KR 102250314B1 KR 1020210016406 A KR1020210016406 A KR 1020210016406A KR 20210016406 A KR20210016406 A KR 20210016406A KR 102250314 B1 KR102250314 B1 KR 102250314B1
Authority
KR
South Korea
Prior art keywords
unit
image data
data
sub
similarity
Prior art date
Application number
KR1020210016406A
Other languages
Korean (ko)
Inventor
박재형
Original Assignee
주식회사 리얼라이너
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 리얼라이너 filed Critical 주식회사 리얼라이너
Priority to KR1020210016406A priority Critical patent/KR102250314B1/en
Application granted granted Critical
Publication of KR102250314B1 publication Critical patent/KR102250314B1/en

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61CDENTISTRY; APPARATUS OR METHODS FOR ORAL OR DENTAL HYGIENE
    • A61C7/00Orthodontics, i.e. obtaining or maintaining the desired position of teeth, e.g. by straightening, evening, regulating, separating, or by correcting malocclusions
    • A61C7/002Orthodontic computer assisted systems
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/0059Measuring for diagnostic purposes; Identification of persons using light, e.g. diagnosis by transillumination, diascopy, fluorescence
    • A61B5/0062Arrangements for scanning
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/0059Measuring for diagnostic purposes; Identification of persons using light, e.g. diagnosis by transillumination, diascopy, fluorescence
    • A61B5/0082Measuring for diagnostic purposes; Identification of persons using light, e.g. diagnosis by transillumination, diascopy, fluorescence adapted for particular medical purposes
    • A61B5/0088Measuring for diagnostic purposes; Identification of persons using light, e.g. diagnosis by transillumination, diascopy, fluorescence adapted for particular medical purposes for oral or dental tissue
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61CDENTISTRY; APPARATUS OR METHODS FOR ORAL OR DENTAL HYGIENE
    • A61C9/00Impression cups, i.e. impression trays; Impression methods
    • A61C9/004Means or methods for taking digitized impressions
    • A61C9/0046Data acquisition means or methods
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61CDENTISTRY; APPARATUS OR METHODS FOR ORAL OR DENTAL HYGIENE
    • A61C9/00Impression cups, i.e. impression trays; Impression methods
    • A61C9/004Means or methods for taking digitized impressions
    • A61C9/0046Data acquisition means or methods
    • A61C9/0053Optical means or methods, e.g. scanning the teeth by a laser or light beam
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H30/00ICT specially adapted for the handling or processing of medical images
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B18/00Surgical instruments, devices or methods for transferring non-mechanical forms of energy to or from the body
    • A61B18/18Surgical instruments, devices or methods for transferring non-mechanical forms of energy to or from the body by applying electromagnetic radiation, e.g. microwaves
    • A61B18/20Surgical instruments, devices or methods for transferring non-mechanical forms of energy to or from the body by applying electromagnetic radiation, e.g. microwaves using laser
    • A61B2018/2035Beam shaping or redirecting; Optical components therefor
    • A61B2018/20351Scanning mechanisms
    • A61B2018/20353Scanning in three dimensions [3D]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30036Dental; Teeth

Abstract

Provided are an orthodontic device manufacturing system and a method thereof using artificial intelligence. The orthodontic device manufacturing system using artificial intelligence according to an embodiment of the present invention comprises: a scanning unit which acquires a patient's dental structure as 3D image data; a data processing unit inputting the 3D image data and outputting image data in which gums and teeth are separately displayed; a database unit storing a plurality of pieces of clinical data; an image analysis unit outputting clinical data having the highest similarity by performing similarity determination between a result value of the data processing unit and the pieces of clinical data of the database unit; and an output unit manufacturing an orthodontic device on the basis of an output value of the image analysis unit. An optimized orthodontic device can be provided.

Description

인공지능을 이용한 교정 장치 제조 시스템 및 교정 장치 제조 방법 {ALIGNER APPARATUS MANUFACTURING SYSTEM USING ARTIFICIAL INTELLIGENCE AND METHOD USING THE SAME}Calibration device manufacturing system and calibration device manufacturing method using artificial intelligence {ALIGNER APPARATUS MANUFACTURING SYSTEM USING ARTIFICIAL INTELLIGENCE AND METHOD USING THE SAME}

본 발명은 인공지능을 이용한 교정 장치 제조 시스템 및 교정 장치 제조 방법에 대한 것이다. The present invention relates to a calibration device manufacturing system and a calibration device manufacturing method using artificial intelligence.

교정 장치는 환자의 불규칙한 치열을 고르게 만들어주는 장치를 말한다. 교정 기간이 길고 기존의 교정 장치가 심미적인 면에서 좋지 않으므로 최근에는 투명 교정 장치가 각광을 받고 있다.The orthodontic device refers to a device that makes the patient's irregular teeth evenly. Since the calibration period is long and the existing calibration devices are not good in terms of aesthetics, transparent calibration devices have recently been in the spotlight.

투명 교정 장치는 일반적인 교정 장치와 달리 눈에 띄는 구조물, 예컨대, 금속제 와이어나 보철 등이 없어 색상이 투명하여 일반 교정 장치에 비해 심미적인 측면에서 우수하다. 이와 같은 장점으로 인해, 교정치료를 받기 원하지만 사회생활 또는 대인관계에 대한 자신감에 악영향을 줄 것을 염려하여 교청 치료를 기피하는 사람에게 좋은 대안이 될 수 있다. Unlike general orthodontic devices, the transparent orthodontic device has no conspicuous structure, such as a metal wire or prosthesis, and thus has a transparent color and is superior in aesthetics compared to a general orthodontic device. Due to these advantages, it can be a good alternative for those who want to receive orthodontic treatment but avoid school treatment because they are concerned about adversely affecting their confidence in social life or interpersonal relationships.

또한, 끼었다 뺄 수 있는 특성 때문에 일상 생활에서의 불편함을 최소화시킬 수 있다. 이러한 장점 때문에 투명 치아 교정 장치 관련 시장 규모는 지속적으로 확장되고 있는 추세이다. In addition, it is possible to minimize discomfort in daily life due to the characteristic that can be pinched and removed. Because of these advantages, the market size related to transparent orthodontic devices is continuously expanding.

다만, 환자의 치아 상태가 제각각이고, 각각의 치아 상태에 맞는 최적화된 교정 장치를 제작할 필요가 있으며, 이를 위한 다양한 기술적 시도가 행해지고 있다. However, the patient's tooth condition is different, and there is a need to manufacture an optimized orthodontic device suitable for each tooth condition, and various technical attempts have been made for this.

투명 교정 장치의 제조 방법과 관련된 선행기술 등은 한국공개특허 2020-0109273 등에 개시되어 있다. Prior art, etc. related to a method of manufacturing a transparent orthodontic device are disclosed in Korean Patent Publication No. 2020-0109273.

따라서, 착용 중에 불편을 감소시켜 사용자가 충분한 시간 동안 교정 장치를 착용할 수 있도록 하는 것이 치료 목적 달성을 위해 중요하다. Therefore, it is important to achieve the treatment purpose to reduce discomfort during wearing so that the user can wear the orthodontic device for a sufficient time.

본 발명이 해결하고자 하는 과제는 환자의 치아 상태 맞춰 최적화된 교정 장치를 제조하는 시스템을 제공하는 것이다. The problem to be solved by the present invention is to provide a system for manufacturing an orthodontic device optimized for a patient's tooth condition.

본 발명이 해결하고자 하는 다른 과제는 환자의 치료 경과에 맞는 맞춤형 교정 장치를 제조하는 시스템을 제공하는 것이다. Another problem to be solved by the present invention is to provide a system for manufacturing a customized orthodontic device suitable for a patient's treatment course.

본 발명이 해결하고자 하는 과제는 환자의 치아 상태 맞춰 최적화된 교정 장치를 제조하는 방법을 제공하는 것이다. The problem to be solved by the present invention is to provide a method of manufacturing an orthodontic device optimized for a patient's tooth condition.

본 발명이 해결하고자 하는 다른 과제는 환자의 치료 경과에 맞는 맞춤형 교정 장치를 제조하는 방법을 제공하는 것이다. Another problem to be solved by the present invention is to provide a method of manufacturing a customized orthodontic device suitable for a patient's treatment course.

발명의 과제들은 이상에서 언급한 기술적 과제로 제한되지 않으며, 언급되지 않은 또 다른 기술적 과제들은 아래의 기재로부터 당업자에게 명확하게 이해될 수 있을 것이다.The problems of the invention are not limited to the technical problems mentioned above, and other technical problems that are not mentioned will be clearly understood by those skilled in the art from the following description.

상기 과제를 해결하기 위한 본 발명의 일 실시예에 따른 인공지능을 이용한 교정 장치 제조 시스템은 환자의 치열 구조를 3차원 이미지 데이터로 획득하는 스캔부, 상기 3차원 이미지 데이터를 입력하여 잇몸과 치아가 분리되어 표시되는 이미지 데이터를 출력하는 데이터 처리부, 복수의 임상 데이터를 저장하는 데이터베이스부, 상기 데이터 처리부의 결과값과 상기 데이터베이스부의 상기 복수의 임상 데이터에 대한 유사도 판단을 수행하여 가장 유사도가 높은 임상 데이터를 출력하는 이미지 분석부 및 상기 이미지 분석부의 출력값을 기초로 교정 장치를 제조하는 출력부를 포함한다.The orthodontic device manufacturing system using artificial intelligence according to an embodiment of the present invention for solving the above problems includes a scanning unit that acquires a patient's dental structure as 3D image data, and the gums and teeth are separated by inputting the 3D image data. Clinical data with the highest similarity by performing a similarity determination between a data processing unit that outputs image data that is displayed separately, a database unit that stores a plurality of clinical data, and a result value of the data processing unit and the plurality of clinical data of the database unit It includes an image analysis unit for outputting and an output unit for manufacturing a calibration device based on the output value of the image analysis unit.

또한, 상기 데이터 처리부는 상기 3차원 이미지 데이터를 복수의 포인트 객체를 포함하는 포인트 클라우드 객체로 변환하는 객체 변환부, 상기 복수의 포인트 객체에 가중치를 설정하는 가중치 설정부 및 상기 복수의 포인트 객체를 상기 설정된 가중치를 반영하여 샘플링하고, 이를 기초로 상기 잇몸과 상기 치아를 분리하여 출력하는 판단부를 포함할 수 있다. In addition, the data processing unit converts the 3D image data into a point cloud object including a plurality of point objects, a weight setting unit that sets weights to the plurality of point objects, and the plurality of point objects. It may include a determination unit that samples by reflecting the set weight, and outputs the separate and outputs the gum and the tooth based on this.

또한, 상기 가중치 설정부는 상기 잇몸과 상기 치아의 경계, 상기 치아와 치아의 경계, 상기 치아의 표면에 형성된 굴곡 인근에 배치되는 상기 포인트 객체의 가중치를 상대적으로 높게 설정할 수 있다.In addition, the weight setting unit may set a relatively high weight of the point object disposed near the boundary between the gum and the tooth, the boundary between the tooth and the tooth, and a curve formed on the surface of the tooth.

또한, 상기 이미지 분석부는 상기 데이터 처리부의 결과값과 상기 데이터베이스부에 저장된 복수의 임상 데이터를 입력받는 입력부; 및 상기 데이터 처리부의 결과값과 상기 데이터베이스부의 상기 복수의 임상 데이터에 대한 유사도 판단을 수행하여 가장 유사도가 높은 임상 데이터를 출력하는 유사 판단부를 포함할 수 있다.Further, the image analysis unit may include an input unit for receiving a result value of the data processing unit and a plurality of clinical data stored in the database unit; And a similarity determination unit configured to output clinical data having the highest similarity by performing a similarity determination between the result value of the data processing unit and the plurality of clinical data of the database unit.

또한, 상기 유사 판단부는 제1 서브 판단부 및 제2 서브 판단부를 포함하고, 상기 입력부는 상기 복수의 포인트 객체를 정량적으로 분배하여 상기 제1 서브 판단부 및 상기 제2 서브 판단부에 제공하며, 상기 제1 서브 판단부와 상기 제2 서브 판단부의 결과값을 일치시키는 싱크로 모듈을 더 포함할 수 있다. In addition, the similarity determination unit includes a first sub determination unit and a second sub determination unit, and the input unit quantitatively distributes the plurality of point objects and provides them to the first sub determination unit and the second sub determination unit, The first sub-determining unit and the second sub-determining unit may further include a synchro module that matches a result value of the second sub-determining unit.

상기 과제를 해결하기 위한 본 발명의 일 실시예에 따른 인공지능을 이용한 교정 장치 제조 방법은 환자의 치열 구조를 3차원 이미지 데이터로 획득하는 단계, 상기 3차원 이미지 데이터를 입력하여 잇몸과 치아가 분리되어 표시되는 이미지 데이터를 출력하는 단계, 상기 데이터 처리부의 결과값과 데이터베이스부에 저장되는 복수의 임상 데이터에 대한 유사도 판단을 수행하여 가장 유사도가 높은 임상 데이터를 출력하는 단계 및 상기 이미지 분석부의 출력값을 기초로 교정 장치를 출력하는 단계를 포함하되, 상기 3차원 이미지 데이터를 입력하여 잇몸과 치아가 분리되어 표시되는 이미지 데이터를 출력하는 단계는 상기 3차원 이미지 데이터를 복수의 포인트 객체를 포함하는 포인트 클라우드 객체로 변환하는 단계, 상기 복수의 포인트 객체에 가중치를 설정하는 단계; 및 상기 복수의 포인트 객체를 상기 설정된 가중치를 반영하여 샘플링하고, 이를 기초로 상기 잇몸과 상기 치아를 분리하여 출력하는 단계를 포함하고, 상기 데이터 처리부의 결과값과 데이터베이스부에 저장되는 복수의 임상 데이터에 대한 유사도 판단을 수행하여 가장 유사도가 높은 임상 데이터를 출력하는 단계는 상기 복수의 포인트 객체를 정량적으로 분배하는 단계, 상기 분배된 복수의 포인트 객체를 제1 서브 판단부와 제2 서브 판단부로 나누어 유사도 판단하는 단계 및 상기 제1 서브 판단부와 상기 제2 서브 판단부의 결과값을 일치시키는 단계를 포함할 수 있다. The method of manufacturing an orthodontic device using artificial intelligence according to an embodiment of the present invention for solving the above problem includes the steps of obtaining a patient's dental structure as 3D image data, and separating the gums and teeth by inputting the 3D image data. Outputting the displayed image data, determining the similarity between the result value of the data processing unit and a plurality of clinical data stored in the database unit, and outputting the clinical data having the highest similarity, and the output value of the image analysis unit Including the step of outputting an orthodontic device as a basis, wherein the step of inputting the 3D image data and outputting the image data displayed by separating the gums and the teeth comprises converting the 3D image data to a point cloud including a plurality of point objects. Converting into an object, setting weights to the plurality of point objects; And sampling the plurality of point objects by reflecting the set weight, and separately outputting the gum and the tooth based on the sample, and a result value of the data processing unit and a plurality of clinical data stored in the database unit. The step of performing the similarity determination for and outputting the clinical data with the highest similarity may include quantitatively distributing the plurality of point objects, and dividing the distributed plurality of point objects into a first sub-determining unit and a second sub-determining unit. It may include determining the degree of similarity and matching a result value of the first sub-determining unit and the second sub-determining unit.

과제의 해결 수단은 이에 제한되지 않으며, 더욱 구체적인 수단들은 명세서에서 더 자세하게 다루고 있다. The means for solving the problem is not limited thereto, and more specific means are dealt with in more detail in the specification.

본 발명의 실시예들에 의하면 환자의 치아 상태에 최적화된 교정 장치를 제공할 수 있다. According to embodiments of the present invention, it is possible to provide an orthodontic device optimized for a patient's tooth condition.

인공지능을 이용하여 신속하고 정확하게 교정 장치를 제조할 수 있다. Using artificial intelligence, it is possible to quickly and accurately manufacture calibration devices.

본 발명에 따른 효과는 이상에서 예시된 내용에 의해 제한되지 않으며, 더욱 다양한 효과들이 본 명세서 내에 포함되어 있다.The effects according to the present invention are not limited by the contents exemplified above, and more various effects are included in the present specification.

도 1은 본 발명의 일 실시예에 따른 인공지능을 이용한 교정 장치의 제조 시스템의 블록도이다.
도 2는 본 발명의 일 실시예에 따른 인공지능을 이용한 교정 장치의 제조 시스템을 설명하기 위한 개략도이다.
도 3은 본 발명의 일 실시예에 따른 인공지능을 이용한 교정 장치의 제조 시스템의 부분 블록도이다.
도 4는 본 발명의 일 실시예에 따른 인공지능을 이용한 교정 장치의 제조 시스템을 설명하기 위한 개략도이다.
도 5는 본 발명의 일 실시예에 따른 인공지능을 이용한 교정 장치의 제조 시스템을 설명하기 위한 개략도이다.
도 6은 본 발명의 일 실시예에 따른 인공지능을 이용한 교정 장치의 제조 시스템의 부분 블록도이다.
도 7은 본 발명의 일 실시예에 따른 인공지능을 이용한 교정 장치의 제조 시스템의 부분 블록도이다.
도 8은 본 발명의 일 실시예에 따른 인공지능을 이용한 교정 장치의 제조 방법의 블록도이다.
1 is a block diagram of a system for manufacturing a calibration apparatus using artificial intelligence according to an embodiment of the present invention.
2 is a schematic diagram illustrating a system for manufacturing a calibration device using artificial intelligence according to an embodiment of the present invention.
3 is a partial block diagram of a system for manufacturing a calibration apparatus using artificial intelligence according to an embodiment of the present invention.
4 is a schematic diagram illustrating a system for manufacturing a calibration device using artificial intelligence according to an embodiment of the present invention.
5 is a schematic diagram illustrating a system for manufacturing a calibration device using artificial intelligence according to an embodiment of the present invention.
6 is a partial block diagram of a system for manufacturing a calibration apparatus using artificial intelligence according to an embodiment of the present invention.
7 is a partial block diagram of a system for manufacturing a calibration apparatus using artificial intelligence according to an embodiment of the present invention.
8 is a block diagram of a method of manufacturing a calibration device using artificial intelligence according to an embodiment of the present invention.

본 발명의 이점 및 특징, 그리고 그것들을 달성하는 방법은 첨부되는 도면과 함께 상세하게 후술되어 있는 실시예들을 참조하면 명확해질 것이다. 그러나 본 발명은 이하에서 개시되는 실시예들에 한정되는 것이 아니라 서로 다른 다양한 형태로 구현될 것이며, 단지 본 실시예들은 본 발명의 개시가 완전하도록 하며, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 발명의 범주를 완전하게 알려주기 위해 제공되는 것이며, 본 발명은 청구항의 범주에 의해 정의될 뿐이다. Advantages and features of the present invention, and a method of achieving them will become apparent with reference to the embodiments described below in detail together with the accompanying drawings. However, the present invention is not limited to the embodiments disclosed below, but will be implemented in various forms different from each other, and only these embodiments make the disclosure of the present invention complete, and common knowledge in the technical field to which the present invention pertains. It is provided to completely inform the scope of the invention to the possessor, and the invention is only defined by the scope of the claims.

구성(elements) 또는 층이 다른 소자 또는 층의 "위(on)" 또는 "상(on)"으로 지칭되는 것은 다른 구성 또는 층의 바로 위뿐만 아니라 중간에 다른 층 또는 다른 구성을 개재한 경우를 모두 포함한다. 반면, 구성이 "직접 위(directly on)" 또는 "바로 위"로 지칭되는 것은 중간에 다른 구성 또는 층을 개재하지 않은 것을 나타낸다.When elements or layers are referred to as “on” or “on” of another element or layer, it is possible to interpose other layers or other elements in the middle as well as directly above other elements or layers. All inclusive. On the other hand, when a component is referred to as "directly on" or "directly on", it means that no other components or layers are interposed therebetween.

공간적으로 상대적인 용어인 "아래(below)", "아래(beneath)", "하부(lower)", "위(above)", "위(on)", "상(on)", "상부(upper)" 등은 도면에 도시되어 있는 바와 같이 하나의 구성 또는 구성 요소들과 다른 구성 또는 구성 요소들과의 상관관계를 용이하게 기술하기 위해 사용될 수 있다. 공간적으로 상대적인 용어는 도면에 도시되어 있는 방향에 더하여 사용 시 또는 동작 시 구성의 서로 다른 방향을 포함하는 용어로 이해되어야 한다. 예를 들면, 도면에 도시되어 있는 구성을 뒤집을 경우, 다른 구성의 "아래"로 기술된 구성은 다른 구성의 "위"에 놓여질 수 있다. 또한 도면을 기준으로 다른 구성의 "좌측"에 위치하는 것으로 기술된 구성은 시점에 따라 다른 구성의 "우측"에 위치할 수도 있다. 따라서, 예시적인 용어인 "아래"는 아래와 위의 방향을 모두 포함할 수 있다. 구성은 다른 방향으로도 배향될 수 있으며, 이 경우 공간적으로 상대적인 용어들은 배향에 따라 해석될 수 있다.The spatially relative terms "below", "beneath", "lower", "above", "on", "on", "top ( upper)" or the like may be used to easily describe a correlation between one component or components and another component or components, as shown in the drawings. Spatially relative terms should be understood as terms including different directions of a configuration during use or operation in addition to the directions shown in the drawings. For example, when the configuration shown in the drawing is reversed, the configuration described as "below" of the other configuration may be placed on the "top" of the other configuration. In addition, a configuration described as being located on the "left" side of another configuration based on the drawing may be located on the "right side" of another configuration depending on the viewpoint. Accordingly, the exemplary term “below” may include both directions below and above. The composition may be oriented in other directions, and in this case, terms that are spatially relative may be interpreted according to the orientation.

비록 제1, 제2 등이 다양한 구성요소들을 서술하기 위해서 사용되나, 이들 구성요소들은 이들 용어에 의해 제한되지 않음은 물론이다. 이들 용어들은 단지 하나의 구성요소를 다른 구성요소와 구별하기 위하여 사용하는 것이다. 따라서, 이하에서 언급되는 제1 구성요소는 본 발명의 기술적 사상 내에서 제2 구성요소일 수도 있음은 물론이다. 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. 또한 "포함하다" 또는 "가지다" 등의 용어는 명세서 상에 기재된 특징, 숫자, 단계, 동작, 구성요소, 부분품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부분품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는다.Although the first, second, and the like are used to describe various components, it goes without saying that these components are not limited by these terms. These terms are only used to distinguish one component from another component. Therefore, it goes without saying that the first component mentioned below may be the second component within the technical idea of the present invention. Singular expressions include plural expressions unless the context clearly indicates otherwise. In addition, terms such as "comprise" or "have" are intended to designate the presence of features, numbers, steps, actions, components, parts, or combinations thereof described in the specification, one or more other features or numbers, The possibility of the presence or addition of steps, actions, components, parts, or combinations thereof is not precluded.

명세서 전체를 통하여 동일하거나 유사한 부분에 대해서는 동일한 도면 부호를 사용한다.The same reference numerals are used for the same or similar parts throughout the specification.

이하, 도면을 참조하여 본 발명의 실시예들에 대하여 설명한다.Hereinafter, embodiments of the present invention will be described with reference to the drawings.

도 1은 본 발명의 일 실시예에 따른 인공지능을 이용한 교정 장치 제조 시스템의 블록도이다. 1 is a block diagram of a system for manufacturing a calibration device using artificial intelligence according to an embodiment of the present invention.

도 1을 참조하면, 본 발명의 일 실시예에 다른 인공지능을 이용한 교정 장치 제조 시스템(300)은 제어부(310), 통신부(320), 데이터베이스부(330), 스캔부(340), 데이터 처리부(350), 이미지 분석부(360) 및 출력부(370)을 포함할 수 있다. Referring to FIG. 1, a calibration device manufacturing system 300 using artificial intelligence according to an embodiment of the present invention includes a control unit 310, a communication unit 320, a database unit 330, a scan unit 340, and a data processing unit. 350, an image analysis unit 360 and an output unit 370 may be included.

제어부(310)는 인공지능을 이용한 교정 장치 제조 시스템(300) 및/또는 시스템의 하위 구성을 총괄적으로 제어할 수 있다. The controller 310 may collectively control the calibration device manufacturing system 300 and/or a sub-configuration of the system using artificial intelligence.

즉, 인공 지능을 이용한 교정 장치 제조 시스템(300) 또는 인공지능을 이용한 교정 장치 제조 시스템(300)의 하위 구성은 제어부(310)의 제어 신호에 따라 구동될 수 있다. That is, a lower configuration of the calibration device manufacturing system 300 using artificial intelligence or the calibration device manufacturing system 300 using artificial intelligence may be driven according to a control signal from the controller 310.

이를 위해 제어부(310)는 인공지능을 이용한 교정 장치 제조 시스템(300)이 포함하는 모든 구성과 물리적 및/또는 개념적으로 연결될 수 있다. To this end, the control unit 310 may be physically and/or conceptually connected to all components included in the calibration device manufacturing system 300 using artificial intelligence.

본 명세서에서 '연결'이라 함은 양자 간에 데이터 또는 신호를 주고받을 수 있는 상태에 있는 것을 의미할 수 있다. 즉, 연결은 무선 및/또는 유선 연결을 포함할 수 있다. In the present specification, "connection" may mean that data or signals are exchanged between them. That is, the connection may include a wireless and/or wired connection.

일 실시예에서 제어부(310)는 전적으로 하드웨어이거나, 부분적으로 하드웨어이고, 부분적으로 소프트웨어일 수 있다. 즉, 제어부는 특정 형식 및 내용의 데이터를 전자통신 방식으로 주고받기 위한 장치 및 이에 관련된 소프트웨어를 통칭하는 개념으로 이해될 수 있다.In one embodiment, the control unit 310 may be entirely hardware, partially hardware, or partially software. That is, the control unit may be understood as a concept collectively referring to a device for sending and receiving data of a specific format and content through an electronic communication method and software related thereto.

일 실시예에서 제어부(310)가 하드웨어를 포함하는 경우, 제어부(310)는 적어도 하나의 프로세서를 포함할 수 있다. 일 실시예에서 프로세서는 중앙처리장치(CPU), 그래픽 처리 장치(GPU) 및 텐서 처리 장치(TPU) 중에서 선택된 하나 이상을 포함할 수 있다. 다만, 이는 예시적인 것으로, 프로세서의 종류가 이에 제한되는 것은 아니다. In an embodiment, when the controller 310 includes hardware, the controller 310 may include at least one processor. In an embodiment, the processor may include at least one selected from a central processing unit (CPU), a graphic processing unit (GPU), and a tensor processing unit (TPU). However, this is exemplary, and the type of processor is not limited thereto.

또한, 제어부(310)은 딥러닝을 위한 프로세서를 포함할 수 있다. 구체적으로 제어부(310)는 신경망의 학습을 위한 계산을 수행할 수 있다. 즉, 제어부(310)는 딥 러닝에서 학습을 위한 데이터의 처리, 입력 데이터에서의 피쳐(feature) 추출, 오차 계산, 역전파를 이용한 신경망의 가중치 업데이트 등 신경망 학습을 위한 계산을 수행할 수 있다. In addition, the control unit 310 may include a processor for deep learning. Specifically, the controller 310 may perform calculations for learning a neural network. That is, the controller 310 may perform calculations for learning a neural network, such as processing data for learning in deep learning, extracting features from input data, calculating errors, and updating weights of the neural network using backpropagation.

통신부(320)는 각 구성과 각 구성 사이에 유선 및/또는 무선의 연결을 제공할 수 있다. The communication unit 320 may provide a wired and/or wireless connection between each component and each component.

이를 달성하기 위한 수단으로 통신부(320)는 유선 통신을 지원하기 위한 유선 통신 모듈 및/또는 무선 통신을 지원하기 위한 무선 통신 모듈을 포함할 수 있다. As a means for achieving this, the communication unit 320 may include a wired communication module for supporting wired communication and/or a wireless communication module for supporting wireless communication.

유선 통신 모듈은 예컨대, 유선 통신을 위한 기술표준들 또는 통신 방식(이더넷(Ehternet), PLC(Power Line Communication), 홈 PNA, IEEE 1394 등)에 따라 구축된 유선 통신망에서 타 서버, 기지국, AP(access point) 중 적어도 하나와 유선 신호를 송수신하기 위한 통신 인터페이스를 포함할 수 있다. The wired communication module is, for example, in a wired communication network built according to technical standards or communication methods (Ehternet, PLC (Power Line Communication), home PNA, IEEE 1394, etc.) for wired communication. access point) and a communication interface for transmitting and receiving wired signals.

무선 통신 모듈은, 무선 통신을 위한 기술표준들 또는 통신방식(예를 들어, WLAN(Wireless LAN), Wi-Fi(Wireless-Fidelity), DLNA(Digital Living Network Alliance), GSM(Global System for Mobile communication), CDMA(Code Division MultiAccess), WCDMA(Wideband CDMA), LTE(Long Term Evolution), LTE-A(Long Term Evolution-Advanced) 등)에 따라 구축된 무선 통신망에서 기지국, AP(Access Point) 및 중계기 중 적어도 하나와 무선 신호를 송수신하기 위한 통신 인터페이스를 포함할 수 있다. 다만, 이는 예시적인 것으로, 통신부(320)의 구성이 이에 제한되는 것은 아니다. 즉, 데이터 송수신을 가능하게 하는 수단이라면, 통신부(320)로 채택될 수 있다. The wireless communication module includes technical standards or communication methods for wireless communication (e.g., WLAN (Wireless LAN), Wi-Fi (Wireless-Fidelity), DLNA (Digital Living Network Alliance)), GSM (Global System for Mobile communication). ), Code Division MultiAccess (CDMA), Wideband CDMA (WCDMA), Long Term Evolution (LTE), Long Term Evolution-Advanced (LTE-A), etc.) It may include a communication interface for transmitting and receiving a radio signal with at least one of the. However, this is exemplary, and the configuration of the communication unit 320 is not limited thereto. That is, if it is a means for enabling data transmission and reception, it may be adopted as the communication unit 320.

데이터베이스부(330)는 시스템에서 필요로 하는 정보를 저장할 수 있다. The database unit 330 may store information required by the system.

일 실시예에서 데이터베이스부(330)는 내장 메모리를 포함할 수 있다. 보다 구체적으로, 데이터베이스부(330)는 휘발성 메모리(예를 들면, DRAM(dynamic RAM), SRAM(static RAM), SDRAM(synchronous dynamic RAM) 등) 또는 비휘발성 메모리(non-volatile Memory, 예를 들면, OTPROM(one time programmable ROM), PROM(programmable ROM), EPROM(erasable and programmable ROM), EEPROM(electrically erasable and programmable ROM), mask ROM, flash ROM, NAND flash memory, NOR flash memory 등), SSD(Solid State Drive) 중 적어도 하나를 포함할 수 있다. In an embodiment, the database unit 330 may include an internal memory. More specifically, the database unit 330 is a volatile memory (for example, dynamic RAM (DRAM), static RAM (SRAM), synchronous dynamic RAM (SDRAM), etc.)) or non-volatile memory (for example, , OTPROM (one time programmable ROM), PROM (programmable ROM), EPROM (erasable and programmable ROM), EEPROM (electrically erasable and programmable ROM), mask ROM, flash ROM, NAND flash memory, NOR flash memory, etc.), SSD ( Solid State Drive).

한편, 데이터베이스부(330)는 일 실시예로 외장 메모리를 포함할 수 있다. 보다 구체적으로, 데이터베이스부(330)는 flash drive, 예를 들면, CF(compact flash), SD(secure digital), Micro-SD(micro secure digital), Mini-SD(mini secure digital), xD(extreme digital) 또는 Memory Stick 등을 더 포함할 수 있다.Meanwhile, the database unit 330 may include an external memory according to an embodiment. More specifically, the database unit 330 is a flash drive, for example, CF (compact flash), SD (secure digital), Micro-SD (micro secure digital), Mini-SD (mini secure digital), xD (extreme digital) or Memory Stick may be further included.

데이터베이스부(330)는 제어부(310)의 판단에 기초가 되는 정보를 저장할 수 있다. 데이터베이스부(330)에 의해 저장되는 정보는 기 입력된 정보이거나, 통신부(320)을 이용하여 서버(300)나 외부 서버(400) 또는 다른 컴퓨팅 장치로부터 제공되는 정보일 수 있다. The database unit 330 may store information that is based on the determination of the control unit 310. The information stored by the database unit 330 may be previously input information, or may be information provided from the server 300 or the external server 400 or other computing device using the communication unit 320.

일 실시예에서 데이터베이스부(330)는 기존 교정 환자의 임상 데이터를 저장할 수 있다. 이에 대해서는 뒤에서 자세히 설명하기로 한다. In an embodiment, the database unit 330 may store clinical data of an existing orthodontic patient. This will be described in detail later.

스캔부(340)는 사용자 치열의 3차원 이미지 데이터를 획득할 수 있다. 이를 위해 스캔부(340)는 카메라 등을 포함한 이미지 획득 수단을 포함할 수 있다. The scanning unit 340 may acquire 3D image data of the user's teeth. To this end, the scan unit 340 may include an image acquisition means including a camera or the like.

도 2는 스캔부(340)에 의해 스캔된 사용자 치열의 이미지 데이터 예시이다.2 is an example of image data of a user's dentition scanned by the scanning unit 340.

도 2에 도시된 바와 같이 스캔부(340)는 사용자의 치열 구조를 3차원 형태의 이미지로 획득할 수 있다. As illustrated in FIG. 2, the scanning unit 340 may acquire the user's dental structure as a three-dimensional image.

일 실시예에서 스캔부(340)는 사용자의 상악 구강 구조(101), 하악 구강 구조(102) 및 상하악 결합 구강 구조(103) 중 선택된 하나 이상을 스캔하여 이미지 데이터를 얻을 수 있다. In one embodiment, the scanning unit 340 may obtain image data by scanning at least one selected from the user's maxillary oral structure 101, the mandibular oral structure 102, and the maxillary combined oral structure 103.

다시 도 1을 참조하면, 인공지능을 이용한 교정 장치 제조 시스템(300)은 데이터 처리부(350)를 포함할 수 있다. 데이터 처리부(350)는 스캔부(340)에서 제공한 사용자 치열의 이미지 데이터를 가공할 수 있다. Referring back to FIG. 1, the calibration device manufacturing system 300 using artificial intelligence may include a data processing unit 350. The data processing unit 350 may process the image data of the user's teeth provided by the scanning unit 340.

이에 대한 구체적인 설명을 위해 도 3이 참조된다. For a detailed description of this, reference is made to FIG. 3.

도 3은 본 발명의 일 실시예에 따른 인공지능을 이용한 교정 장치 제조 시스템의 부분 블록도이다. 3 is a partial block diagram of a system for manufacturing a calibration device using artificial intelligence according to an embodiment of the present invention.

도 3을 참조하면, 일 실시예에서 데이터 처리부(350)는 객체 변환부(351), 가중치 설정부(352) 및 판단부(353)를 포함할 수 있다. Referring to FIG. 3, in an embodiment, the data processing unit 350 may include an object conversion unit 351, a weight setting unit 352, and a determination unit 353.

일 실시예에 데이터 처리부(350)는 전적으로 하드웨어이거나, 부분적으로 하드웨어이고, 부분적으로 소프트웨어일 수 있다. 즉, 데이터 처리부(350)는 특정 형식 및 내용의 데이터를 전자통신 방식으로 주고받기 위한 장치 및 이에 관련된 소프트웨어를 통칭하는 개념으로 이해될 수 있다.In one embodiment, the data processing unit 350 may be entirely hardware, partially hardware, or partially software. That is, the data processing unit 350 may be understood as a concept collectively referring to a device for sending and receiving data of a specific format and content in an electronic communication method and software related thereto.

일 실시예에서 데이터 처리부(350)가 하드웨어를 포함하는 경우, 데이터 처리부(350)는 적어도 하나의 프로세서를 포함할 수 있다. 일 실시예에서 프로세서는 중앙처리장치(CPU), 그래픽 처리 장치(GPU) 및 텐서 처리 장치(TPU) 중에서 선택된 하나 이상을 포함할 수 있다. 다만, 이는 예시적인 것으로, 프로세서의 종류가 이에 제한되는 것은 아니다. In an embodiment, when the data processing unit 350 includes hardware, the data processing unit 350 may include at least one processor. In an embodiment, the processor may include at least one selected from a central processing unit (CPU), a graphic processing unit (GPU), and a tensor processing unit (TPU). However, this is exemplary, and the type of processor is not limited thereto.

또한, 데이터 처리부(350)는 딥러닝을 위한 프로세서를 포함할 수 있다. 구체적으로 데이터 처리부(350)는 신경망의 학습을 위한 계산을 수행할 수 있다. 즉, 데이터 처리부(350)는 딥 러닝에서 학습을 위한 데이터의 처리, 입력 데이터에서의 피쳐(feature) 추출, 오차 계산, 역전파를 이용한 신경망의 가중치 업데이트 등 신경망 학습을 위한 계산을 수행할 수 있다. In addition, the data processing unit 350 may include a processor for deep learning. In more detail, the data processing unit 350 may perform calculations for learning a neural network. That is, the data processing unit 350 may perform calculations for learning a neural network, such as processing data for learning in deep learning, extracting features from input data, calculating errors, and updating weights of the neural network using backpropagation. .

데이터 처리부(350)의 하위 구성 또한 위에서 설명한 바와 같이 하드웨어 및/또는 소프트웨어일 수 있다. 다만, 본 명세서에서는 각 구성이 수행하는 기능을 중심으로 구분하여 서술하기로 한다. The lower configuration of the data processing unit 350 may also be hardware and/or software as described above. However, in this specification, the functions performed by each component will be classified and described.

객체 변환부(351)는 스캔부(340)에서 제공한 이미지 데이터를 변환할 수 있다. 구체적으로, 이미지 데이터를 가공하여 뒤에서 딥러닝을 위해 활용되기 유리하도록 형태를 가공할 수 있다. The object conversion unit 351 may convert image data provided by the scan unit 340. Specifically, it is possible to process image data so that it is advantageous to be used for deep learning in the background.

일 실시예에서 객체 변환부(351)는 스캔부(340)에서 제공한 이미지 데이터를 포인트 클라우드(Point Cloud) 객체 데이터로 변환할 수 있다. 포인트 클라우드 객체 데이터는 복수의 포인트 객체로 이루어진 군을 의미할 수 있다. In an embodiment, the object conversion unit 351 may convert image data provided by the scan unit 340 into point cloud object data. The point cloud object data may mean a group consisting of a plurality of point objects.

일반적으로 치아 모델은 3차원 객체이므로, 2차원 객체에 최적화된 세그멘테이션 딥 러닝을 적용하기 쉽지 않다. In general, since a tooth model is a three-dimensional object, it is not easy to apply segmentation deep learning optimized for a two-dimensional object.

객체 변환부(351)가 스캔부(340)에서 제공한 이미지 데이터를 포인트 클라우드 객체 데이터로 변환시키는 경우, 포인트 넷 모델(Point Net Model)을 이용하여 딥 러닝을 적용할 수 있다. When the object conversion unit 351 converts the image data provided by the scan unit 340 into point cloud object data, deep learning may be applied using a point net model.

이에 대한 자세한 내용은 논문 Dynamic Graph CNN for Learning on Point Clouds(ACM Transactions on GraphicsOctober 2019 Article No.: 146) 등에서 개시되어 있으며, 본 발명의 몇몇 실시예는 해당 논문의 내용 중 적어도 일부를 활용할 수 있다. Details about this are disclosed in the paper Dynamic Graph CNN for Learning on Point Clouds (ACM Transactions on GraphicsOctober 2019 Article No.: 146), etc., and some embodiments of the present invention may utilize at least some of the contents of the paper.

객체 변환부(351)는 사용자 치열의 3차원 이미지 데이터를 복수개의 포인트 객체로 변환시킬 수 있다. The object conversion unit 351 may convert 3D image data of the user's teeth into a plurality of point objects.

도 4는 본 발명의 일 실시예에 따른 인공지능을 이용한 교정 장치 제조 시스템을 설명하기 위한 개략도이다. 4 is a schematic diagram illustrating a system for manufacturing a calibration device using artificial intelligence according to an embodiment of the present invention.

도 4를 참조하면, 판단의 정확성을 향상시키기 위해 포인트 객체 변환부(351)는 20만개 이상의 포인트 객체를 생성할 수 있다. Referring to FIG. 4, in order to improve the accuracy of determination, the point object conversion unit 351 may generate 200,000 or more point objects.

가중치 설정부(352)는 복수의 포인트 객체에서 가중치를 달리 설정할 수 있다. 객체 변환부(351)가 생성하는 포인트 객체는 그 수가 너무 많아 모든 포인트 객체를 처리하기 위해서는 컴퓨팅 자원의 소모가 막대해 생산 효율이 저하될 수 있다. The weight setting unit 352 may set different weights for a plurality of point objects. The number of point objects generated by the object conversion unit 351 is too large, and thus, computing resources are consumed enormously in order to process all point objects, resulting in a decrease in production efficiency.

따라서, 복수의 포인트 객체에서 일부를 샘플링하는 단계를 거칠 수 있다. Accordingly, a step of sampling a part from a plurality of point objects may be performed.

가중치 설정부(352)는 복수의 포인트 객체의 가중치를 달리 설정할 수 있다. 포인트 객체의 가중치를 달리 설정하는 경우, 샘플링 과정에서 높은 가중치를 갖는 포인트가 우선적으로 선정될 가능성이 높아질 수 있다. The weight setting unit 352 may set different weights of the plurality of point objects. If the weight of the point object is set differently, the possibility of preferentially selecting a point having a high weight during the sampling process may increase.

일 실시예에서 가중치 설정부(352)는 사용자 치열에서 치아와 잇몸의 경계, 하나의 치아와 인접하는 다른 치아 사이의 경계 부분, 한 치아의 표면 상에 배치되는 굴곡에 배치되는 포인트 객체에 상대적으로 높은 가중치를 부여할 수 있다. In one embodiment, the weight setting unit 352 is relative to the boundary between a tooth and a gum in the user's dentition, a boundary portion between one tooth and another adjacent tooth, and a point object disposed in a curve disposed on the surface of one tooth. It can be given a high weight.

샘플링된 포인트 객체는 뒤에서 기존 임상 데이터와 유사도 분석을 수행하는 기초로 사용되는 데 상술한 바와 같이 높은 가중치를 갖는 부분은 치열의 유사도를 판단함에 있어 정확도를 현저히 향상시킬 수 있는 요인이 될 수 있다. The sampled point object is later used as a basis for performing similarity analysis with existing clinical data. As described above, a portion having a high weight may be a factor that can significantly improve accuracy in determining the similarity of the dentition.

다시 도 3을 참조하면, 판단부(353)는 복수의 포인트 객체를 샘플링할 수 있다. 일 실시예에서 판단부(353)는 18,000 내지 22,000개의 포인트 객체를 샘플링 할 수 있다. 앞서 설명한 바와 같이 18,000 내지 22,000개의 포인트 객체 중에는 가중치가 높은 포인트 객체가 포함될 수 있다. Referring back to FIG. 3, the determination unit 353 may sample a plurality of point objects. In an embodiment, the determination unit 353 may sample 18,000 to 22,000 point objects. As described above, among 18,000 to 22,000 point objects, a point object having a high weight may be included.

판단부(353)는 샘플링된 포인트 객체를 포함하는 이미지 데이터를 기초로 잇몸과 치아 및/또는 치아와 치아를 분리하여 출력할 수 있다. The determination unit 353 may separate and output a gum and a tooth and/or a tooth and a tooth based on image data including the sampled point object.

이를 위해 판단부(353)는 복수의 포인트 객체로 변환된 치열의 이미지 데이터를 학습 데이터 세트로 하여 학습된 신경망 모델을 포함할 수 있다. To this end, the determination unit 353 may include a neural network model that is trained by using image data of a tooth row converted into a plurality of point objects as a training data set.

일 실시예에서 판단부(353)가 포함하는 신경망 모델은 CNN(Convolutional Neural Network)을 포함할 수 있다. In an embodiment, the neural network model included in the determination unit 353 may include a convolutional neural network (CNN).

판단부(353)는 상술한 학습 데이터로 학습되어, 샘플링된 포인트 객체를 포함하는 이미지 데이터를 입력하면, 잇몸과 치아를 분리하여 출력할 수 있다. 구체적으로, 잇몸과 치아가 분리되어 표시된 이미지 데이터를 출력할 수 있다. When the determination unit 353 learns from the above-described learning data and inputs image data including the sampled point object, the gum and the tooth may be separated and output. Specifically, the gum and the tooth may be separated and displayed image data may be output.

도 5는 판단부(353)가 출력한 결과 이미지를 예시한다. 5 illustrates a result image output by the determination unit 353.

다시 도 1을 참조하면, 앞서 설명한 바와 같이 데이터베이스부(330)는 기존의 환자들의 임상 데이터를 저장할 수 있다. Referring back to FIG. 1, as described above, the database unit 330 may store clinical data of existing patients.

본 명세서에서 임상 데이터는 기존에 교정을 받은 환자들의 치열을 보여주는 3차원 이미지 데이터 및 교정 경과에 따라 변화는 치열에 대한 3차원 이미지 데이터를 포함할 수 있다. 다시 말하면, 임상 데이터는 하나의 환자에 대한 복수 시점의 이미지 데이터 또는 변환된 이미지 데이터를 포함할 수 있다. In the present specification, the clinical data may include 3D image data showing the dentition of patients who have previously undergone correction and 3D image data of the dentition that changes according to the progress of the correction. In other words, the clinical data may include image data of multiple viewpoints or converted image data for one patient.

또한, 임상 데이터는 교정 경과 시점에 대응하여 사용한 교정 장치, 다시 말하면 교정 경과 중 일정 시점에서 사용한 교정 장치 형상의 3차원 데이터를 포함할 수 있다. In addition, the clinical data may include three-dimensional data of the shape of the calibration device used in correspondence with the time when the calibration has elapsed, that is, the shape of the calibration device used at a certain time point in the course of the calibration.

일 실시예에서 기존 환자들의 임상 데이터는 앞서 설명한 가공 과정을 거쳐 저장될 수 있다. 구체적으로, 3차원 이미지 데이터의 임상 데이터가 앞서 설명한 바와 같이 포인트 클라우드 객체 데이터로 변환된 상태에서 데이터베이스부(330)에 저장될 수 있다. In one embodiment, clinical data of existing patients may be stored through the processing process described above. Specifically, the clinical data of the 3D image data may be stored in the database unit 330 in a state that is converted into point cloud object data as described above.

또한, 데이터베이스부(330)에 저장된 임상 데이터가 데이터 처리부(350)에 의해 가공되어 포인트 클라우드 객체 데이터로 변환될 수 있다. In addition, clinical data stored in the database unit 330 may be processed by the data processing unit 350 and converted into point cloud object data.

데이터 처리부(350)는 포인트 클라우드 객체 데이터로 변환된 임상 데이터(3차원 이미지 데이터)를 이용해 잇몸과 치아가 분리되어 표시되는 데이터를 출력할 수 있다. The data processing unit 350 may output data in which the gums and teeth are separated and displayed using clinical data (three-dimensional image data) converted into point cloud object data.

이미지 분석부(360)는 데이터베이스부(330)에 저장된 임상 데이터와 데이터 처리부(350)에서 출력한 이미지 데이터(잇몸과 치아가 분리되어 표시된 이미지 데이터) 유사도 판단을 수행할 수 있다. The image analysis unit 360 may determine similarity between clinical data stored in the database unit 330 and image data (image data displayed by separating the gums and teeth) output from the data processing unit 350.

도 6은 본 발명의 일 실시예에 따른 인공지능을 이용한 교정 장치 제조 시스템의 부분 블록도이다. 6 is a partial block diagram of a system for manufacturing a calibration device using artificial intelligence according to an embodiment of the present invention.

도 6을 참조하면, 이미지 분석부(360)는 입력부(361)와 유사 판단부(362)를 포함할 수 있다. Referring to FIG. 6, the image analysis unit 360 may include an input unit 361 and a similarity determination unit 362.

일 실시예에 이미지 분석부(360)는 전적으로 하드웨어이거나, 부분적으로 하드웨어이고, 부분적으로 소프트웨어일 수 있다. 즉, 이미지 분석부(360)는 특정 형식 및 내용의 데이터를 전자통신 방식으로 주고받기 위한 장치 및 이에 관련된 소프트웨어를 통칭하는 개념으로 이해될 수 있다.In one embodiment, the image analysis unit 360 may be entirely hardware, partially hardware, or partially software. That is, the image analysis unit 360 may be understood as a concept collectively referring to a device for sending and receiving data of a specific format and content in an electronic communication method and software related thereto.

일 실시예에서 이미지 분석부(360)가 하드웨어를 포함하는 경우, 이미지 분석부(360)는 적어도 하나의 프로세서를 포함할 수 있다. 일 실시예에서 프로세서는 중앙처리장치(CPU), 그래픽 처리 장치(GPU) 및 텐서 처리 장치(TPU) 중에서 선택된 하나 이상을 포함할 수 있다. 다만, 이는 예시적인 것으로, 프로세서의 종류가 이에 제한되는 것은 아니다. In an embodiment, when the image analysis unit 360 includes hardware, the image analysis unit 360 may include at least one processor. In an embodiment, the processor may include at least one selected from a central processing unit (CPU), a graphic processing unit (GPU), and a tensor processing unit (TPU). However, this is exemplary, and the type of processor is not limited thereto.

또한, 이미지 분석부(360)는 딥러닝을 위한 프로세서를 포함할 수 있다. 구체적으로 이미지 분석부(360)는 신경망의 학습을 위한 계산을 수행할 수 있다. 즉, 이미지 분석부(360)는 딥 러닝에서 학습을 위한 데이터의 처리, 입력 데이터에서의 피쳐(feature) 추출, 오차 계산, 역전파를 이용한 신경망의 가중치 업데이트 등 신경망 학습을 위한 계산을 수행할 수 있다. In addition, the image analysis unit 360 may include a processor for deep learning. Specifically, the image analysis unit 360 may perform calculations for learning a neural network. That is, the image analysis unit 360 can perform calculations for learning a neural network, such as processing data for learning in deep learning, extracting features from input data, calculating errors, and updating weights of the neural network using backpropagation. have.

데이터 처리부(350)의 하위 구성 또한 위에서 설명한 바와 같이 하드웨어 및/또는 소프트웨어일 수 있다. 다만, 본 명세서에서는 설명의 편의를 위해 각 구성이 수행하는 기능을 중심으로 구분하여 서술하기로 한다. The lower configuration of the data processing unit 350 may also be hardware and/or software as described above. However, in this specification, for convenience of description, functions performed by each component will be classified and described.

입력부(361)는 데이터 처리부(350)의 결과값과 데이터 베이스부(330)에 저장된 복수의 임상 데이터를 입력받을 수 있다. The input unit 361 may receive a result value of the data processing unit 350 and a plurality of clinical data stored in the database unit 330.

앞서 설명한 바와 같이 데이터 처리부(350)의 결과값은 포인트 클라우드 객체화된 잇몸과 치아가 분리되어 표시된 이미지 데이터일 수 있다. As described above, the result value of the data processing unit 350 may be image data that is displayed by separating the gums and teeth into a point cloud object.

일 실시예에서 입력부(361)에 입력되는 임상 데이터는 데이터 처리부(350)의 결과값과 형태가 같은 데이터, 즉, 포인트 클라우드 객체화된 이미지 데이터일 수 있다. In an embodiment, the clinical data input to the input unit 361 may be data having the same form as the result value of the data processing unit 350, that is, image data that has been converted into a point cloud object.

입력부(361)에 데이터 처리부(350)의 결과값과 임상 데이터가 입력되면, 유사 판단부(362)는 샘플링된 포인트 객체를 비교하여 유사도를 판단할 수 있다. 이를 위해 유사 판단부(362)는 적어도 하나의 신경망 모델을 포함할 수 있다. 유사 판단부(362)가 포함하는 신경망 모델은 DGCNN(Dynamic Graph CNN) 모델을 포함할 수 있다. DGCNN 모델을 이용하는 경우, 변환된 3차원 이미지 데이터의 유사도 판단을 매우 정확하게 수행할 수 있다. When the result value of the data processing unit 350 and clinical data are input to the input unit 361, the similarity determination unit 362 may determine the similarity by comparing the sampled point objects. To this end, the similarity determination unit 362 may include at least one neural network model. The neural network model included in the similarity determination unit 362 may include a Dynamic Graph CNN (DGCNN) model. In the case of using the DGCNN model, it is possible to very accurately determine the similarity of the transformed 3D image data.

유사 판단부(362)는 복수의 임상 데이터 중에서 데이터 처리부(350)의 결과값과 가장 유사한 임상 데이터를 찾아 출력할 수 있다. The similarity determination unit 362 may find and output clinical data that is most similar to a result value of the data processing unit 350 from among a plurality of clinical data.

앞서 설명한 바와 같이 임상 데이터는 하나의 환자의 복수 시점(교정 경과에 따른)의 치열 이미지 데이터를 포함할 수 있다. 이미지 분석부(360)는 데이터 처리부(350)의 결과값과 가장 유사한 환자의 임상 데이터를 찾는 것뿐만 아니라, 그 환자의 치열 변화 시점 중 가장 유사한 시점의 임상 데이터를 출력할 수 있다. As described above, the clinical data may include dental image data at multiple times (according to the course of correction) of one patient. The image analysis unit 360 may not only find the clinical data of the patient most similar to the result value of the data processing unit 350, but also output the clinical data of the most similar time point among the patient's dentition change time points.

도 7은 본 발명의 다른 실시예에 다른 인공지능을 이용한 교정 장치 제조 시스템의 부분 블록도이다. 7 is a partial block diagram of a system for manufacturing a calibration device using artificial intelligence according to another embodiment of the present invention.

도 7을 참조하면, 일 실시예에서 이미지 분석부(360)의 유사 판단부(362)는 제1 서브 판단부(363), 제2 서브 판단부(364) 및 싱크로 모듈(365)을 포함할 수 있다. Referring to FIG. 7, in an embodiment, the similarity determination unit 362 of the image analysis unit 360 includes a first sub determination unit 363, a second sub determination unit 364, and a synchro module 365. I can.

일 실시예에서 입력부(361)는 데이터 처리부(350)의 결과값을 분배하여 각각 제1 서브 판단부(363) 및 제2 서브 판단부(364)에 제공할 수 있다. In an exemplary embodiment, the input unit 361 may distribute the result value of the data processing unit 350 and provide it to the first and second sub-determiners 363 and 364, respectively.

제1 서브 판단부(363) 및 제2 서브 판단부(364)는 하나 이상의 프로세서를 포함할 수 있다. 일 실시예에서 제1 서브 판단부(363) 및 제2 서브 판단부(364)는 GPU를 포함할 수 있다. The first sub-determining unit 363 and the second sub-determining unit 364 may include one or more processors. In an embodiment, the first sub-determining unit 363 and the second sub-determining unit 364 may include a GPU.

구체적으로 샘플링된 포인트 객체를 정량적으로 나누어 분배할 수 있다. 샘플링된 포인트 객체의 수가 2만개인 예시적인 실시예에서 입력부(361)는 포인트 객체의 절반인 만 개를 제1 서브 판단부(363)에 제공하고, 나머지 만 개를 제2 서브 판단부(364)에 제공할 수 있다. 다만, 이는 예시적인 것으로 이에 제한되지 않는다. 다른 실시예에서 프로세서의 처리 능력 등에 따라 양자에 배분되는 포인트 객체의 수를 달리 적용할 수도 있다. 즉, 제1 서브 판단부(363) 및 제2 서브 판단부(364)의 컴퓨팅 능력에 따라 배분되는 포인트 객체의 수를 달리 적용할 수 있다. 즉, 제1 서브 판단부(363)가 제2 서브 판단부(364)에 비해 상대적으로 높은 컴퓨팅 능력을 갖는다면, 제1 서브 판단부(363)에 제2 서브 판단부(364)보다 많은 포인트 객체를 할당할 수 있다. Specifically, the sampled point object can be quantitatively divided and distributed. In an exemplary embodiment in which the number of sampled point objects is 20,000, the input unit 361 provides 10,000, which is half of the point objects, to the first sub-determining unit 363, and the remaining 10,000 are provided to the second sub-determining unit 364 ) Can be provided. However, this is illustrative and is not limited thereto. In another embodiment, the number of point objects allocated to both may be differently applied according to the processing capability of the processor. That is, the number of point objects allocated according to the computing power of the first sub-determining unit 363 and the second sub-determining unit 364 may be differently applied. That is, if the first sub-determining unit 363 has a relatively higher computing power than the second sub-determining unit 364, the first sub-determining unit 363 has more points than the second sub-determining unit 364 You can allocate objects.

제1 서브 판단부(363) 및 제2 서브 판단부(364)는 각자에게 할당된 포인트 객체를 포함하는 이미지 데이터를 기초로 임상 데이터와 유사 판단을 수행할 수 있다. The first sub-determining unit 363 and the second sub-determining unit 364 may determine similarity to clinical data based on image data including point objects allocated to each of them.

일 실시예에서 유사 판단부(365)는 싱크로 모듈(365)을 더 포함할 수 있다. 싱크로 모듈은 유사 판단부(365)의 출력값을 하나로 결정하는 역할을 할 수 있다. 예컨대, 제1 서브 판단부(363) 및 제2 서브 판단부(364)의 결과값이 다른 경우, 싱크로 모듈(365) 포인트 객체를 재분배하여 결과값이 같아질 때까지 다시 판단하게 하거나, 양자의 결과값의 유사도를 독자적으로 비교하여 유사도 가 높은 하나의 임상 데이터만을 선택하여 출력할 수 있다. In an embodiment, the similarity determination unit 365 may further include a synchro module 365. The synchro module may serve to determine an output value of the similarity determination unit 365 as one. For example, if the result values of the first sub-determining unit 363 and the second sub-determining unit 364 are different, the synchro module 365 redistributes the point object to determine again until the result values are the same, or It is possible to independently compare the similarity of the result values and select and output only one clinical data with high similarity.

출력부(370)는 이미지 분석부(360)에서 출력한 결과값을 기초로 해당 임상 데이터에 대응하는 교정 장치를 출력할 수 있다. 이를 위해 출력부(370)는 3D 프린터를 포함할 수 있다.The output unit 370 may output a calibration device corresponding to the corresponding clinical data based on a result value output from the image analysis unit 360. To this end, the output unit 370 may include a 3D printer.

일 실시예에서 출력부(370)가 출력하는 교정 장치는 투명 교정 장치일 수 있다. 일 실시예에서 투명 교정 장치는 광투과성 또는 반투과성을 가지며, 투명 수지로 이루어져 외부에서 쉽게 시인되지 않는 교정 장치를 의미할 수 있다. 일 실시예에서 출력부(370)는 이미지 분석부(360)의 결과값을 기초로 해당 결과값에 대응되는 교정 장치를 출력할 수 있다. In one embodiment, the calibration device output by the output unit 370 may be a transparent calibration device. In one embodiment, the transparent calibration device may refer to a calibration device that has light transmission or semi-transmission, and is made of a transparent resin and is not easily recognized from the outside. In an embodiment, the output unit 370 may output a calibration device corresponding to a corresponding result value based on the result value of the image analysis unit 360.

다만, 이는 예시적인 것으로, 출력부(370)가 교정 장치를 제조하는 방식이 이에 제한되는 것은 아니다. 즉, 출력부(370)는 모델링된 이미지 데이터를 기초로 물리적인 실체를 구현하는 모든 방식을 포함하는 것으로 이해되어야 할 것이다. However, this is exemplary, and the method of manufacturing the calibration device by the output unit 370 is not limited thereto. That is, it should be understood that the output unit 370 includes all methods of implementing a physical entity based on the modeled image data.

상술한 방식을 통해 교정 장치를 제조하는 경우, 복수의 임상 데이터를 활용하여 환자에게 가장 최적화된 교정 장치를 제공할 수 있다. 즉, 복수의 임상 데이터 중 환자의 치열 구조와 가장 유사한 케이스를 찾아 해당 케이스와 동일하게 교정 장치를 적용함으로써, 교정 치료의 효율성을 높일 수 있다. 또한, 상술한 데이터 처리 방식과 출력 방식을 통해 신속하게 환자에게 가장 적합한 교정 장치를 제공함으로써, 교정 치료에 소요되는 시간을 줄일 수 있다. When manufacturing the orthodontic device through the above-described method, it is possible to provide the most optimized orthodontic device to the patient by utilizing a plurality of clinical data. That is, the efficiency of orthodontic treatment can be improved by finding a case most similar to the patient's dental structure among a plurality of clinical data and applying the orthodontic device in the same manner as the case. In addition, it is possible to reduce the time required for orthodontic treatment by quickly providing the most suitable orthodontic device to the patient through the above-described data processing method and output method.

이하에서는 본 발명의 일 실시예에 따른 인공지능을 이용한 교정 장치 제조 방법에 대해 설명하기로 한다. 인공지능을 이용한 교정 장치 제조 방법은 앞서 설명한 인공지능을 이용한 교정 장치 제조 시스템의 동작 방식과 실질적으로 동일할 수 있다. 따라서, 중복 설명이 되는 것은 생락하도록 한다. Hereinafter, a method of manufacturing a calibration device using artificial intelligence according to an embodiment of the present invention will be described. The method of manufacturing a calibration device using artificial intelligence may be substantially the same as the operation method of the calibration device manufacturing system using artificial intelligence described above. Therefore, duplicate explanations are omitted.

도 8은 본 발명의 일 실시예에 다른 인공지능을 이용한 교정 장치 제조 방법을 설명하기 위한 블록도이다. 8 is a block diagram illustrating a method of manufacturing a calibration device using artificial intelligence according to an embodiment of the present invention.

도 8을 참조하면, 본 발명의 일 실시예에 따른 인공지능을 이용한 교정 장치 제조 방법은 환자의 치열 구조를 스캔하여 3차원 이미지 데이터를 획득하는 단계(S01), 3차원 이미지 데이터를 전처리 하여 잇몸과 치아가 분리되어 표시되는 이미지 데이터를 출력하는 단계(S02), 잇몸과 치아가 분리되어 표시되는 이미지 데이터와 데이터베이스부에 저장된 복수의 임상 데이터에 대해 유사도 판단을 수행하는 단계(S03) 및 가장 유사한 임상 데이터를 기초로 교정 장치를 출력하는 단계(S04)를 포함한다. Referring to FIG. 8, a method of manufacturing an orthodontic device using artificial intelligence according to an embodiment of the present invention includes the step of obtaining 3D image data by scanning a patient's dental structure (S01), preprocessing the 3D image data to The step of outputting image data in which the teeth and the teeth are separated (S02), the step of performing a similarity determination on the image data displayed by separating the gums and teeth and a plurality of clinical data stored in the database (S03), and the most similar And outputting the calibration device based on the clinical data (S04).

환자의 치열 구조를 스캔하여 3차원 이미지 데이터를 획득하는 단계(S01)는 앞서 설명한 바와 같이 스캔부(340)에 의해 수행될 수 있다. 획득된 환자의 치열 구조는 다음 단계에서 전처리 될 수 있다. The step S01 of obtaining 3D image data by scanning the patient's dental structure may be performed by the scanning unit 340 as described above. The acquired patient's dentition structure can be preprocessed in the next step.

이어서 3차원 이미지 데이터를 전처리 하여 잇몸과 치아가 분리되어 표시되는 이미지 데이터를 출력하는 단계(S02)가 진행될 수 있다. Subsequently, a step (S02) of preprocessing the 3D image data and outputting image data in which the gums and the teeth are separated and displayed may be performed.

3차원 이미지 데이터를 전처리 하여 잇몸과 치아가 분리되어 표시되는 이미지 데이터를 출력하는 단계(S02)는 3차원 이미지 데이터를 복수의 포인트 객체를 포함하는 포인트 클라우드 객체로 변환하는 단계, 상기 복수의 포인트 객체에 가중치를 설정하는 단계, 상기 포인트 클라우드 객체를 샘플링하여 잇몸과 치아가 분리되어 표시되는 이미지 데이터를 출력하는 단계를 포함할 수 있다. 3차원 이미지 데이터를 복수의 포인트 객체를 포함하는 포인트 클라우드 객체로 변환하는 단계, 상기 복수의 포인트 객체에 가중치를 설정하는 단계, 상기 포인트 클라우드 객체를 샘플링하여 잇몸과 치아가 분리되어 표시되는 이미지 데이터를 출력하는 단계는 앞서 데이터 처리부(350)의 동작 방식과 실질적으로 동일할 수 있다. Pre-processing the 3D image data to output image data in which the gums and teeth are separated and displayed (S02) is the step of converting the 3D image data into a point cloud object including a plurality of point objects, the plurality of point objects The step of setting a weight to the point cloud object may include sampling the point cloud object and outputting image data that is displayed by separating the gum and the tooth. Converting 3D image data to a point cloud object including a plurality of point objects, setting weights to the plurality of point objects, sampling the point cloud object to separate and display image data of gums and teeth The outputting step may be substantially the same as the operation method of the data processing unit 350 above.

이어서, 잇몸과 치아가 분리되어 표시되는 이미지 데이터와 데이터베이스부에 저장된 복수의 임상 데이터에 대해 유사도 판단을 수행하는 단계(S03)가 진행될 수 있다. 잇몸과 치아가 분리되어 표시되는 이미지 데이터와 데이터베이스부에 저장된 복수의 임상 데이터에 대해 유사도 판단을 수행하는 단계(S03)는 앞서 설명한 이미지 분석부(360)의 동작 방식과 실질적으로 동일할 수 있다. Subsequently, a step (S03) of determining the degree of similarity with respect to the image data displayed by separating the gum and the tooth and a plurality of clinical data stored in the database may proceed. The step (S03) of determining the similarity between the image data displayed by separating the gums and the teeth and the plurality of clinical data stored in the database may be substantially the same as the operation method of the image analysis unit 360 described above.

이어서 잇몸과 치아가 분리되어 표시되는 이미지 데이터와 데이터베이스부에 저장된 복수의 임상 데이터에 대해 유사도 판단을 수행하는 단계(S03)의 출력값을 기초로 교정 장치를 출력하는 단계가 진행될 수 있다. 출력 단계는 앞서 설명한 출력부(370)에서 수행될 수 있다. 즉, 출력부(370)의 동작 방식과 실질적으로 동일할 수 있다. Subsequently, the step of outputting the orthodontic device may proceed based on the output value of the step (S03) of performing similarity determination on image data displayed by separating the gums and teeth and a plurality of clinical data stored in the database. The output step may be performed in the output unit 370 described above. That is, the operation method of the output unit 370 may be substantially the same.

이상에서 설명한 실시예들에 의한 동작은, 적어도 부분적으로 컴퓨터 프로그램으로 구현되고 컴퓨터로 읽을 수 있는 기록매체에 기록될 수 있다. 실시예들의 동작을 구현하기 위한 프로그램이 기록되고 컴퓨터가 읽을 수 있는 기록매체는 컴퓨터에 의하여 읽혀질 수 있는 데이터가 저장되는 모든 종류의 기록장치를 포함한다. 컴퓨터가 읽을 수 있는 기록매체의 예로는 ROM, RAM, CD-ROM, 자기 테이프, 플로피디스크, 광 데이터 저장장치 등이 있다. 또한 컴퓨터가 읽을 수 있는 기록매체는 네트워크로 연결된 컴퓨터 시스템에 분산되어, 분산 방식으로 컴퓨터가 읽을 수 있는 코드가 저장되고 실행될 수도 있다. 또한, 본 실시예를 구현하기 위한 기능적인 프로그램, 코드 및 코드 세그먼트(segment)들은 본 실시예가 속하는 기술 분야의 통상의 기술자에 의해 용이하게 이해될 수 있을 것이다.The operations according to the embodiments described above may be implemented at least partially as a computer program and recorded on a computer-readable recording medium. The recording medium in which a program for implementing the operation of the embodiments is recorded and the computer-readable recording medium includes all kinds of recording devices in which data that can be read by a computer is stored. Examples of computer-readable recording media include ROM, RAM, CD-ROM, magnetic tapes, floppy disks, and optical data storage devices. In addition, the computer-readable recording medium may be distributed over a computer system connected through a network, and computer-readable codes may be stored and executed in a distributed manner. In addition, functional programs, codes, and code segments for implementing this embodiment may be easily understood by those of ordinary skill in the art to which this embodiment belongs.

본 명세서에서 '~부(部)'란 하드웨어에 의해 실현되는 유닛, 소프트웨어에 실현되는 유닛 또는 부분적으로 하드웨어에 의해 실현되고, 부분적으로 소프트웨어에 의해 실현되는 유닛을 모두 포함하는 개념으로 이해될 수 있다. In this specification, the term'~' may be understood as a concept including all units realized by hardware, units realized by software, or units partially realized by hardware and partially realized by software. .

또한, 1개의 유닛이 2개 이상의 하드웨어 및/또는 소프트웨어에 의해 실현될 수도 있고, 2개 이상의 유닛이 1개의 하드웨어 및/또는 소프트웨어에 의해 실현될 수도 있다. Further, one unit may be realized by two or more hardware and/or software, and two or more units may be realized by one hardware and/or software.

또한, '~부'는 하드웨어나 소프트웨어에 한정되는 의미는 아니며, '~부'는 어드레싱 할 수 있는 저장 매체에 있도록 구성될 수도 있고, 하나 또는 그 이상의 프로세서들을 재생시키도록 구성될수도 있다. 따라서, 일 예로 '~부'는 소프트웨어 구성요소, 객체 지향 소프트웨어 구성요소, 클래스 구성요소 및 태스크 구성요소들과 같은 구성요소와 프로세스, 함수, 속성, 프로시저, 서브루틴, 프로그램 코드의 세그먼트, 드라이버, 펌웨어, 마이크로코드, 회로, 데이터, 데이터베이스, 데이터 구조, 테이블, 어레이 및 변수들을 포함하는 것으로 이해될 수 있다. In addition, the'~ unit' is not meant to be limited to hardware or software, and the'~ unit' may be configured to be in an addressable storage medium, or may be configured to reproduce one or more processors. Thus, for example,'~ unit' refers to components and processes such as software components, object-oriented software components, class components, and task components, functions, properties, procedures, subroutines, segments of program code, and drivers. , Firmware, microcode, circuits, data, databases, data structures, tables, arrays, and variables.

또한, 구성요소들과 '~부'들 안에서 제공되는 기능은 더 작은 수의 구성요소들 및 '~부'로 결합되거나, 분리될 수 있다. 이에 더하여, 구성요소 및 '~부'는 디바이스의 하나 이상의 프로세서(CPU, GPU 등을 포함한다.)를 재생시키도록 구현될 수도 있다. In addition, the components and functions provided in the'~ units' may be combined or separated into a smaller number of elements and the'~ units'. In addition, the components and the'~ unit' may be implemented to reproduce one or more processors (including CPU, GPU, etc.) of the device.

이상에서 본 발명의 실시예를 중심으로 설명하였으나 이는 단지 예시일 뿐 본 발명을 한정하는 것이 아니며, 본 발명이 속하는 분야의 통상의 지식을 가진 자라면 본 발명의 실시예의 본질적인 특성을 벗어나지 않는 범위에서 이상에 예시되지 않은 여러 가지의 변형과 응용이 가능함을 알 수 있을 것이다. 예를 들어, 본 발명의 실시예에 구체적으로 나타난 각 구성 요소는 변형하여 실시할 수 있다. 그리고 이러한 변형과 응용에 관계된 차이점들은 첨부된 청구 범위에서 규정하는 본 발명의 범위에 포함되는 것으로 해석되어야 할 것이다.The embodiments of the present invention have been described above, but these are only examples and are not intended to limit the present invention, and those of ordinary skill in the field to which the present invention pertains should not depart from the essential characteristics of the embodiments of the present invention. It will be appreciated that various modifications and applications not illustrated above are possible. For example, each component specifically shown in the embodiment of the present invention can be modified and implemented. And differences related to these modifications and applications should be construed as being included in the scope of the present invention defined in the appended claims.

310: 제어부
320: 통신부
330: 데이터베이스부
340: 스캔부
350: 데이터 처리부
360: 이미지 분석부
370: 출력부
310: control unit
320: communication department
330: database unit
340: scan unit
350: data processing unit
360: image analysis unit
370: output

Claims (7)

환자의 상악 구강 구조, 하악 구강 구조 및 상하악 결합 구강 구조 중 선택된 하나 이상을 스캔하여 3차원 이미지 데이터로 획득하는 스캔부;
상기 3차원 이미지 데이터를 입력하여 잇몸과 치아가 분리되어 표시되는 이미지 데이터를 출력하는 데이터 처리부;
복수의 임상 데이터를 저장하는 데이터베이스부;
상기 데이터 처리부의 결과값과 상기 데이터베이스부의 상기 복수의 임상 데이터에 대한 유사도 판단을 수행하여 가장 유사도가 높은 임상 데이터를 출력하는 이미지 분석부; 및
상기 이미지 분석부의 출력값을 기초로 교정 장치를 제조하는 출력부를 포함하되,
상기 데이터 처리부는 상기 3차원 이미지 데이터를 복수의 포인트 객체를 포함하는 포인트 클라우드 객체로 변환하는 객체 변환부;
상기 복수의 포인트 객체에 가중치를 설정하는 가중치 설정부; 및
상기 복수의 포인트 객체를 상기 설정된 가중치를 반영하여 샘플링하고, 이를 기초로 상기 잇몸과 상기 치아를 분리하여 출력하는 판단부를 포함하며,
상기 가중치 설정부는 상기 복수의 포인트 객체 중 일부 포인트 객체의 가중치를 상대적으로 높게 설정하는 인공지능을 이용한 교정 장치 제조 시스템.
A scanning unit for acquiring 3D image data by scanning at least one selected from the patient's maxillary oral structure, mandibular oral structure, and maxillary combined oral structure;
A data processing unit that inputs the 3D image data and outputs image data in which the gums and teeth are separated and displayed;
A database unit for storing a plurality of clinical data;
An image analysis unit for outputting clinical data having the highest similarity by determining a similarity between the result value of the data processing unit and the plurality of clinical data of the database unit; And
Including an output unit for manufacturing a calibration device based on the output value of the image analysis unit,
The data processing unit includes an object conversion unit for converting the 3D image data into a point cloud object including a plurality of point objects;
A weight setting unit for setting weights to the plurality of point objects; And
And a determination unit configured to sample the plurality of point objects by reflecting the set weight, and to separate and output the gum and the tooth based on this,
The weight setting unit is a calibration device manufacturing system using artificial intelligence that sets a relatively high weight of some point objects among the plurality of point objects.
제1항에 있어서,
상기 이미지 분석부는 상기 샘플링된 포인트 객체를 비교하여 유사도를 판단하는 유사 판단부를 포함하고, 상기 유사 판단부는 DGCNN 모델을 포함하는 인공지능을 이용한 교정 장치 제조 시스템.
The method of claim 1,
The image analysis unit includes a similarity determination unit that compares the sampled point objects to determine a similarity, and the similarity determination unit includes a DGCNN model.
제1항에 있어서, 상기 판단부는 18,000 내지 22,000개의 포인트 객체를 샘플링하고, 상기 샘플링된 포인트 객체는 상기 가중치가 상대적으로 높게 설정된 포인트 객체를 포함하는 인공지능을 이용한 교정 장치 제조 시스템.The system of claim 1, wherein the determination unit samples 18,000 to 22,000 point objects, and the sampled point object includes a point object whose weight is set to be relatively high. 제1항에 있어서,
상기 잇몸과 상기 치아의 경계, 상기 치아와 치아의 경계 및 상기 치아의 표면에 형성된 굴곡 인근에 배치되는 상기 포인트 객체의 가중치를 상대적으로 높게 설정하는 인공지능을 이용한 교정 장치 제조 시스템.
The method of claim 1,
Orthodontic device manufacturing system using artificial intelligence to set a relatively high weight of the point object disposed near the boundary between the gum and the tooth, the boundary between the tooth and the tooth, and the curve formed on the surface of the tooth.
제2항에 있어서,
상기 이미지 분석부는 상기 데이터 처리부의 결과값과 상기 데이터베이스부에 저장된 복수의 임상 데이터를 입력 받는 입력부를 더 포함하고, 상기 유사 판단부는 제1 서브 판단부 및 제2 서브 판단부를 포함하되, 상기 입력부는 상기 복수의 포인트 객체를 정량적으로 분배하여 상기 제1 서브 판단부 및 상기 제2 서브 판단부에 제공하며, 상기 제1 서브 판단부와 상기 제2 서브 판단부의 결과값을 일치시키는 싱크로 모듈을 더 포함하는 인공지능을 이용한 교정 장치 제조 시스템.
The method of claim 2,
The image analysis unit further includes an input unit for receiving a result value of the data processing unit and a plurality of clinical data stored in the database unit, and the similarity determination unit includes a first sub determination unit and a second sub determination unit, wherein the input unit The plurality of point objects are quantitatively distributed and provided to the first sub-determining unit and the second sub-determining unit, and further comprising a synchro module configured to match result values of the first sub-determining unit and the second sub-determining unit Calibration device manufacturing system using artificial intelligence.
환자의 치열 구조를 3차원 이미지 데이터로 획득하는 단계;
상기 3차원 이미지 데이터를 입력하여 잇몸과 치아가 분리되어 표시되는 이미지 데이터를 출력하는 단계;
상기 이미지 데이터와 데이터베이스부에 저장되는 복수의 임상 데이터에 대한 유사도 판단을 수행하여 가장 유사도가 높은 임상 데이터를 출력하는 단계; 및
상기 가장 유사도가 높은 임상 데이터를 기초로 교정 장치를 출력하는 단계를 포함하되,
상기 3차원 이미지 데이터를 입력하여 잇몸과 치아가 분리되어 표시되는 이미지 데이터를 출력하는 단계는 상기 3차원 이미지 데이터를 복수의 포인트 객체를 포함하는 포인트 클라우드 객체로 변환하는 단계;
상기 복수의 포인트 객체에 가중치를 설정하는 단계; 및 상기 복수의 포인트 객체를 상기 설정된 가중치를 반영하여 샘플링하고, 이를 기초로 상기 잇몸과 상기 치아를 분리하여 출력하는 단계를 포함하고, 상기 이미지 데이터와 데이터베이스부에 저장되는 복수의 임상 데이터에 대한 유사도 판단을 수행하여 가장 유사도가 높은 임상 데이터를 출력하는 단계는 상기 복수의 포인트 객체를 정량적으로 분배하는 단계; 상기 분배된 복수의 포인트 객체를 제1 서브 판단부와 제2 서브 판단부로 나누어 유사도 판단하는 단계 및 상기 제1 서브 판단부와 상기 제2 서브 판단부의 결과값을 일치시키는 단계를 포함하는 인공지능을 이용한 교정 장치 제조 방법.
Acquiring the patient's dental structure as 3D image data;
Inputting the 3D image data to output image data in which the gums and teeth are separated and displayed;
Outputting clinical data having the highest similarity by determining similarity between the image data and a plurality of clinical data stored in the database; And
Including the step of outputting a calibration device based on the clinical data having the highest similarity,
The step of inputting the 3D image data and outputting image data in which the gums and teeth are separated and displayed may include converting the 3D image data into a point cloud object including a plurality of point objects;
Setting weights to the plurality of point objects; And sampling the plurality of point objects by reflecting the set weight, and separately outputting the gum and the tooth based on the sample, and the similarity between the image data and a plurality of clinical data stored in the database. The step of performing the determination and outputting clinical data having the highest similarity may include quantitatively distributing the plurality of point objects; An artificial intelligence comprising the step of dividing the plurality of distributed point objects into a first sub-determining unit and a second sub-determining unit, determining a similarity, and matching result values of the first sub-determining unit and the second sub-determining unit Method of manufacturing a calibration device used.
하드웨어와 결합되어 제6항의 인공지능을 이용한 교정 장치 제조 방법을 실행하도록 매체에 저장된 컴퓨터 프로그램.

A computer program stored in a medium to execute the method of manufacturing a calibration device using the artificial intelligence of claim 6 in combination with hardware.

KR1020210016406A 2021-02-04 2021-02-04 Aligner apparatus manufacturing system using artificial intelligence and method using the same KR102250314B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020210016406A KR102250314B1 (en) 2021-02-04 2021-02-04 Aligner apparatus manufacturing system using artificial intelligence and method using the same

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020210016406A KR102250314B1 (en) 2021-02-04 2021-02-04 Aligner apparatus manufacturing system using artificial intelligence and method using the same

Publications (1)

Publication Number Publication Date
KR102250314B1 true KR102250314B1 (en) 2021-05-10

Family

ID=75918083

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020210016406A KR102250314B1 (en) 2021-02-04 2021-02-04 Aligner apparatus manufacturing system using artificial intelligence and method using the same

Country Status (1)

Country Link
KR (1) KR102250314B1 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102665272B1 (en) * 2022-11-30 2024-05-09 주식회사 리얼라이너 Orthodontics care system and method for orthodontics care

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20170068323A (en) * 2015-12-09 2017-06-19 노형태 Method, system and non-transitory computer-readable recording medium for manufacturing orthodontic appliance
KR101893983B1 (en) * 2017-03-06 2018-08-31 주식회사 디오 Device and method for processing image for generating design image based on reference marker
KR20180102725A (en) * 2017-03-07 2018-09-18 주식회사 메가젠임플란트 Orthognathic system using three-dimensional hybrid image constructing program
KR101930062B1 (en) * 2017-12-27 2019-03-14 클리어라인 주식회사 Automatic stepwise tooth movement system using artificial intelligence technology
KR102070255B1 (en) * 2019-06-07 2020-01-28 주식회사 티비헬스케어 Methods and systems for determining malocclusion based on classification code similarity of a plurality of teeth
KR102121963B1 (en) * 2018-10-25 2020-06-11 울산대학교 산학협력단 Appratus, method and program for setting a tranparent orthodontic model using orthodontics clinical bigdata
KR20200119381A (en) * 2019-03-25 2020-10-20 주식회사 리더스덴탈 Manufacturing method of dental appliance and Computer program for the same

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20170068323A (en) * 2015-12-09 2017-06-19 노형태 Method, system and non-transitory computer-readable recording medium for manufacturing orthodontic appliance
KR101893983B1 (en) * 2017-03-06 2018-08-31 주식회사 디오 Device and method for processing image for generating design image based on reference marker
KR20180102725A (en) * 2017-03-07 2018-09-18 주식회사 메가젠임플란트 Orthognathic system using three-dimensional hybrid image constructing program
KR101930062B1 (en) * 2017-12-27 2019-03-14 클리어라인 주식회사 Automatic stepwise tooth movement system using artificial intelligence technology
KR102121963B1 (en) * 2018-10-25 2020-06-11 울산대학교 산학협력단 Appratus, method and program for setting a tranparent orthodontic model using orthodontics clinical bigdata
KR20200119381A (en) * 2019-03-25 2020-10-20 주식회사 리더스덴탈 Manufacturing method of dental appliance and Computer program for the same
KR102070255B1 (en) * 2019-06-07 2020-01-28 주식회사 티비헬스케어 Methods and systems for determining malocclusion based on classification code similarity of a plurality of teeth

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102665272B1 (en) * 2022-11-30 2024-05-09 주식회사 리얼라이너 Orthodontics care system and method for orthodontics care

Similar Documents

Publication Publication Date Title
US20210267730A1 (en) Dental cad automation using deep learning
US11735306B2 (en) Method, system and computer readable storage media for creating three-dimensional dental restorations from two dimensional sketches
US11232573B2 (en) Artificially intelligent systems to manage virtual dental models using dental images
JP6650996B1 (en) Identification apparatus, scanner system, identification method, and identification program
CN110428021B (en) Orthodontic accessory planning method based on oral voxel model feature extraction
KR20210092864A (en) Method and apparatus for orthodonic aligned teeth shape
US20230066220A1 (en) System and method for augmented intelligence in dental pattern recognition
US11887209B2 (en) Method for generating objects using an hourglass predictor
CN112790879A (en) Tooth axis coordinate system construction method and system of tooth model
KR102250314B1 (en) Aligner apparatus manufacturing system using artificial intelligence and method using the same
US20230237650A1 (en) Computer-implemented detection and processing of oral features
Tian et al. Efficient tooth gingival margin line reconstruction via adversarial learning
Rashid et al. Mouth and oral disease classification using InceptionResNetV2 method
TWI773534B (en) Tooth age prediction method and tooth age prediction system
KR20190065586A (en) Method, system and non-transitory computer-readable recording medium for manufacturing orthodontic appliance
EP4285864A1 (en) Three-dimensional scanning system and method for operating same
US20240032856A1 (en) Method and device for providing alopecia information
EP4242966A1 (en) Data processing device and data processing method
US20230281944A1 (en) Method, system and computer-readable storage medium for categorizing and adjusting orientation of clinical image
JP7405809B2 (en) Estimation device, estimation method, and estimation program
Šimková et al. Morphological Variation of the Baka Pygmies’ Deciduous Second Molars
WO2023039658A1 (en) System and method for augmented intelligence in dental file segmentation
WO2024020541A1 (en) Integrated dental restoration design process and system
CN115719404A (en) Automatic tooth arrangement method, device, equipment and storage medium based on point cloud understanding
EP3731189A1 (en) Method of generating 3d facial model for an avatar and related device

Legal Events

Date Code Title Description
E701 Decision to grant or registration of patent right
GRNT Written decision to grant