KR20240009897A - A method for processing image, an electronic apparatus and a computer readable storage medium - Google Patents

A method for processing image, an electronic apparatus and a computer readable storage medium Download PDF

Info

Publication number
KR20240009897A
KR20240009897A KR1020230090638A KR20230090638A KR20240009897A KR 20240009897 A KR20240009897 A KR 20240009897A KR 1020230090638 A KR1020230090638 A KR 1020230090638A KR 20230090638 A KR20230090638 A KR 20230090638A KR 20240009897 A KR20240009897 A KR 20240009897A
Authority
KR
South Korea
Prior art keywords
scan data
electronic device
data
image processing
processing method
Prior art date
Application number
KR1020230090638A
Other languages
Korean (ko)
Inventor
김두수
Original Assignee
주식회사 메디트
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 메디트 filed Critical 주식회사 메디트
Priority to PCT/KR2023/010057 priority Critical patent/WO2024014909A1/en
Publication of KR20240009897A publication Critical patent/KR20240009897A/en

Links

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61CDENTISTRY; APPARATUS OR METHODS FOR ORAL OR DENTAL HYGIENE
    • A61C9/00Impression cups, i.e. impression trays; Impression methods
    • A61C9/004Means or methods for taking digitized impressions
    • A61C9/0046Data acquisition means or methods
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/0059Measuring for diagnostic purposes; Identification of persons using light, e.g. diagnosis by transillumination, diascopy, fluorescence
    • A61B5/0062Arrangements for scanning
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/0059Measuring for diagnostic purposes; Identification of persons using light, e.g. diagnosis by transillumination, diascopy, fluorescence
    • A61B5/0082Measuring for diagnostic purposes; Identification of persons using light, e.g. diagnosis by transillumination, diascopy, fluorescence adapted for particular medical purposes
    • A61B5/0088Measuring for diagnostic purposes; Identification of persons using light, e.g. diagnosis by transillumination, diascopy, fluorescence adapted for particular medical purposes for oral or dental tissue
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61CDENTISTRY; APPARATUS OR METHODS FOR ORAL OR DENTAL HYGIENE
    • A61C5/00Filling or capping teeth
    • A61C5/007Dental splints; teeth or jaw immobilisation devices; stabilizing retainers bonded to teeth after orthodontic treatments
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T1/00General purpose image data processing
    • G06T1/0007Image acquisition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/20Editing of 3D images, e.g. changing shapes or colours, aligning objects or positioning parts
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H30/00ICT specially adapted for the handling or processing of medical images
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H50/00ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
    • G16H50/50ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for simulation or modelling of medical disorders
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30036Dental; Teeth
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2210/00Indexing scheme for image generation or computer graphics
    • G06T2210/12Bounding box

Abstract

이미지 처리 방법, 이를 수행하는 전자 장치 및 이를 저장하는 컴퓨터 판독 가능 저장 매체가 제공된다. 상기 이미지 처리 방법은 적어도 하나의 구강 이미지에 대응되는 스캔 데이터를 로드하는 단계, 상기 스캔 데이터를 기초로 연산하는 단계, 상기 연산 단계에 기초하여, 상기 스캔 데이터 내 복수의 기준점을 설정하는 단계 및 상기 복수의 기준점을 기초로 생성된 교합 평면을 기초로 상기 스캔 데이터를 정렬하는 단계를 포함한다.An image processing method, an electronic device for performing the same, and a computer-readable storage medium for storing the same are provided. The image processing method includes loading scan data corresponding to at least one oral image, calculating based on the scan data, setting a plurality of reference points in the scan data based on the calculation, and and aligning the scan data based on an occlusal plane created based on a plurality of reference points.

Description

이미지 처리 방법, 전자 장치 및 컴퓨터 판독 가능 저장 매체{A METHOD FOR PROCESSING IMAGE, AN ELECTRONIC APPARATUS AND A COMPUTER READABLE STORAGE MEDIUM}IMAGE PROCESSING METHOD, ELECTRONIC DEVICE, AND COMPUTER READABLE STORAGE MEDIUM

본 개시는 이미지 처리 방법, 전자 장치 및 컴퓨터 판독 가능 저장 매체에 관한 것이다.The present disclosure relates to image processing methods, electronic devices, and computer-readable storage media.

턱관절 장애, 치아외상, 충치, 잇몸질환 등을 치료하기 위해, 구강에 삽입되어 배치되는 구강 구조물(스플린트, 임시치아 등)들이 활용될 수 있다. 삽입되는 구강의 특성을 반영하여 구강 구조물을 제작하기 위해, 구강을 스캔한 구강 이미지를 구강 구조물의 제작에서 활용하고 있다.To treat temporomandibular joint disorders, dental trauma, cavities, gum disease, etc., oral structures (splints, temporary teeth, etc.) that are inserted and placed in the oral cavity can be used. In order to manufacture oral structures that reflect the characteristics of the oral cavity into which they are inserted, oral images obtained by scanning the oral cavity are used in the production of oral structures.

이러한 구강 구조물을 제작하는 데 있어, 구강의 전면 방향이 특정되어야 하거나 경우에 따라 치아에 대한 상세한 해부학적 좌표계가 요구될 수 있다. 예컨대, 대합치가 배치되는 평면 지정을 통해 마진 라인 추출, 보철물 삽입 방향 등을 결정할 수 있고, 악궁의 정중선을 인지하여 치아의 좌/우 판단을 하거나 구강의 전면 방향 인지하여 전치부와 구치부를 인식/분리할 수 있어 이후의 후속 작업을 진행하는 데 크게 도움을 줄 수 있다.In manufacturing such oral structures, the front direction of the oral cavity must be specified, or in some cases, a detailed anatomical coordinate system for the teeth may be required. For example, by specifying the plane where opposing teeth are placed, margin line extraction, prosthesis insertion direction, etc. can be determined, and the midline of the arch can be recognized to determine left/right teeth, or the anterior and posterior teeth recognized by recognizing the front direction of the mouth. Since it can be separated, it can be of great help in carrying out subsequent work.

다만, 현재 구강 구조물의 제작 과정에서는 사용자의 수작업 방식을 통해 구강의 전면 방향과 교합 평면이 특정되어, 제작에 있어 많은 시간이 소요되고 정확도 또한 떨어지는 문제가 있다.However, in the current manufacturing process of oral structures, the front direction of the oral cavity and the occlusal plane are specified through the user's manual method, which takes a lot of time and has low accuracy.

개시된 실시예들은 스캔 데이터에 대한 연산 처리를 통해, 효율적이고 정확하게 구강의 전면 방향과 교합 평면을 특정할 수 있다.The disclosed embodiments can efficiently and accurately specify the front direction and occlusal plane of the oral cavity through computational processing on scan data.

개시된 일 실시예에 따르면, 적어도 하나의 스캔 데이터를 수신하는 단계, 상기 적어도 하나의 스캔 데이터에 포함되는 메시 데이터를 기초로 상기 스캔 데이터의 초기 교합면 방향을 추출하는 단계, 상기 초기 교합면 방향을 기초로 상기 스캔 데이터의 교두 정보를 생성하는 단계, 상기 교두 정보를 기초로 상기 스캔 데이터의 전면 방향 및 정중선을 설정하는 단계, 상기 스캔 데이터에 인접하는 실린더를 생성하여 상기 정중선을 조정하는 단계, 상기 조정 동작을 기초로 상기 스캔 데이터의 교합 평면을 설정하는 단계를 포함하는 이미지 처리 방법이 제공된다. According to one disclosed embodiment, receiving at least one scan data, extracting an initial occlusal direction of the scan data based on mesh data included in the at least one scan data, and determining the initial occlusal direction generating cusp information of the scan data based on the cusp information, setting a front direction and midline of the scan data based on the cusp information, adjusting the midline by creating a cylinder adjacent to the scan data, An image processing method is provided including setting an occlusal plane of the scan data based on an adjustment operation.

개시된 또 다른 일 실시예에 따르면, 사용자 인터페이스 장치, 프로세서 및 상기 프로세서에 의해 실행 가능한 명령어들을 저장하는 메모리를 포함하되, 상기 프로세서는, 상기 명령어들을 실행하여, 적어도 하나의 스캔 데이터를 수신하고, 상기 적어도 하나의 스캔 데이터에 포함되는 메시 데이터를 기초로 상기 스캔 데이터의 초기 교합면 방향을 추출하고, 상기 초기 교합면 방향을 기초로 상기 스캔 데이터의 교두 정보를 생성하고, 상기 교두 정보를 기초로 상기 스캔 데이터의 전면 방향 및 정중선을 설정하고, 상기 스캔 데이터에 인접하는 실린더를 생성하여 상기 정중선을 조정하고, 상기 조정 동작을 기초로 상기 스캔 데이터의 교합 평면을 설정하는 전자 장치가 제공된다.According to another disclosed embodiment, a user interface device, a processor, and a memory storing instructions executable by the processor, wherein the processor executes the instructions to receive at least one scan data, extracting the initial occlusal direction of the scan data based on mesh data included in at least one scan data, generating cusp information of the scan data based on the initial occlusal direction, and generating cusp information based on the cusp information An electronic device is provided that sets the front direction and midline of scan data, creates a cylinder adjacent to the scan data to adjust the midline, and sets an occlusal plane of the scan data based on the adjustment operation.

개시된 실시예들에 따르면, 구강의 전면 방향과 교합 평면을 자동으로 특정하고 구강 이미지를 정렬하여 구강 구조물을 제작하는 데 소요되는 시간을 절감시킬 수 있다.According to the disclosed embodiments, the time required to manufacture an oral structure can be reduced by automatically specifying the front direction and occlusal plane of the oral cavity and aligning the oral image.

개시된 실시예들에 따르면, 중절치 사이로 악궁의 정중선을 배치시켜 정교하게 구강 이미지를 정렬시킬 수 있다.According to the disclosed embodiments, the oral image can be precisely aligned by placing the midline of the dental arch between the central incisors.

도 1은 일 실시예에 따른 전자 장치를 포함하는 이미지 처리 시스템을 설명하기 위한 도면이다.
도 2는 일 실시예에 따라, 전자 장치의 구성을 도시한 블록도이다.
도 3은 일 실시예에 따라, 전자 장치의 이미지 처리 방법을 나타낸 순서도이다.
도 4 및 도 5는 일 실시예에 따라, 스캔 데이터, 상악 스캔 데이터 및 하악 스캔 데이터를 설명하기 위한 도면들이다.
도 6는 일 실시예에 따라, 전자 장치의 이미지 처리 방법을 나타낸 순서도이다.
도 7 내지 도 9는 일 실시예에 따라, 초기 교합면 방향을 추출하는 것을 설명하기 위한 도면들이다.
도 10 내지 도 12는 일 실시예에 따라, 교두 정보를 생성하는 것을 설명하기 위한 도면들이다.
도 13 및 도 14는 일 실시예에 따라, 전면 방향 및 정중선을 설정하는 것을 설명하기 위한 도면들이다.
도 15 내지 도 17은 일 실시예에 따라, 정중선 미세 조정하는 것을 설명하기 위한 도면들이다.
도 18은 일 실시예에 따라, 교합 평면 설정하는 것을 설명하기 위한 도면이다.
FIG. 1 is a diagram for explaining an image processing system including an electronic device according to an embodiment.
FIG. 2 is a block diagram illustrating the configuration of an electronic device, according to one embodiment.
Figure 3 is a flowchart showing an image processing method of an electronic device, according to one embodiment.
4 and 5 are diagrams for explaining scan data, upper jaw scan data, and lower jaw scan data, according to one embodiment.
Figure 6 is a flowchart showing an image processing method of an electronic device, according to one embodiment.
Figures 7 to 9 are diagrams for explaining extracting the initial occlusal surface direction, according to one embodiment.
10 to 12 are diagrams for explaining generating cusp information, according to an embodiment.
Figures 13 and 14 are diagrams for explaining setting the front direction and midline, according to one embodiment.
Figures 15 to 17 are diagrams for explaining fine adjustment of the midline, according to one embodiment.
Figure 18 is a diagram for explaining setting an occlusal plane, according to one embodiment.

이하, 첨부한 도면을 참고로 하여 본 발명의 여러 실시예들에 대하여 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자가 용이하게 실시할 수 있도록 상세히 설명한다. 본 발명은 여러 가지 상이한 형태로 구현될 수 있으며 여기에서 설명하는 실시예들에 한정되지 않는다.Hereinafter, with reference to the attached drawings, various embodiments of the present invention will be described in detail so that those skilled in the art can easily implement the present invention. The invention may be implemented in many different forms and is not limited to the embodiments described herein.

본 발명을 명확하게 설명하기 위해서 설명과 관계없는 부분은 생략하였으며, 명세서 전체를 통하여 동일 또는 유사한 구성요소에 대해서는 동일한 참조 부호를 붙이도록 한다. 명세서에서 사용되는 '부'(part, portion)라는 용어는 소프트웨어 또는 하드웨어로 구현될 수 있으며, 실시예들에 따라 복수의 '부'가 하나의 요소(unit, element)로 구현되거나, 하나의 '부'가 복수의 요소들을 포함하는 것도 가능하다. 이하 첨부된 도면들을 참고하여 본 발명의 작용 원리 및 실시예들에 대해 설명한다.In order to clearly explain the present invention, parts that are not relevant to the description are omitted, and identical or similar components are assigned the same reference numerals throughout the specification. The term 'part' (portion) used in the specification may be implemented as software or hardware, and depending on the embodiment, a plurality of 'portions' may be implemented as a single element (unit, element) or as a single 'portion'. It is also possible for 'boo' to contain multiple elements. Hereinafter, the operating principle and embodiments of the present invention will be described with reference to the attached drawings.

또한, 도면에서 나타난 각 구성의 크기 및 두께는 설명의 편의를 위해 임의로 나타내었으므로, 본 발명이 반드시 도시된 바에 한정되지 않는다. 도면에서 여러 층 및 영역을 명확하게 표현하기 위하여 두께를 확대하여 나타내었다. 그리고 도면에서, 설명의 편의를 위해, 일부 층 및 영역의 두께를 과장되게 나타내었다.In addition, the size and thickness of each component shown in the drawings are arbitrarily shown for convenience of explanation, so the present invention is not necessarily limited to what is shown. In the drawing, the thickness is enlarged to clearly express various layers and areas. And in the drawings, for convenience of explanation, the thicknesses of some layers and regions are exaggerated.

또한, 층, 막, 영역, 판 등의 부분이 다른 부분 "위에" 또는 "상에" 있다고 할 때, 이는 다른 부분 "바로 위에" 있는 경우뿐 아니라 그 중간에 또 다른 부분이 있는 경우도 포함한다. 반대로 어떤 부분이 다른 부분 "바로 위에" 있다고 할 때에는 중간에 다른 부분이 없는 것을 뜻한다. 또한, 기준이 되는 부분 "위에" 또는 "상에" 있다고 하는 것은 기준이 되는 부분의 위 또는 아래에 위치하는 것이고, 반드시 중력 반대 방향 쪽으로 "위에" 또는 "상에" 위치하는 것을 의미하는 것은 아니다.Additionally, when a part of a layer, membrane, region, plate, etc. is said to be “on” or “on” another part, this includes not only cases where it is “directly above” another part, but also cases where there is another part in between. . Conversely, when a part is said to be “right on top” of another part, it means that there is no other part in between. In addition, being “on” or “on” a reference part means being located above or below the reference part, and does not necessarily mean being located “above” or “on” the direction opposite to gravity. .

또한, 명세서 전체에서, 어떤 부분이 어떤 구성요소를 "포함" 한다고 할 때, 이는 특별히 반대되는 기재가 없는 한 다른 구성요소를 제외하는 것이 아니라 다른 구성요소를 더 포함할 수 있는 것을 의미한다.In addition, throughout the specification, when a part is said to "include" a certain component, this means that it may further include other components rather than excluding other components, unless specifically stated to the contrary.

또한, 명세서 전체에서, "평면상"이라 할 때, 이는 대상 부분을 위에서 보았을 때를 의미하며, "단면상"이라 할 때, 이는 대상 부분을 수직으로 자른 단면을 옆에서 보았을 때를 의미한다.In addition, throughout the specification, when referring to “on a plane,” this means when the target portion is viewed from above, and when referring to “in cross section,” this means when a cross section of the target portion is cut vertically and viewed from the side.

또한, 본 명세서에서 사용되는 '제1' 또는 '제2' 등과 같이 서수를 포함하는 용어는 다양한 구성 요소들을 설명하는데 사용할 수 있지만, 상기 구성 요소들은 상기 용어들에 의해 한정되어서는 안 된다. 상기 용어들은 하나의 구성 요소를 다른 구성 요소로부터 구별하는 목적으로만 사용된다.Additionally, terms including ordinal numbers, such as 'first' or 'second', used in this specification may be used to describe various components, but the components should not be limited by the terms. The above terms are used only for the purpose of distinguishing one component from another.

도 1은 일 실시예에 따른 전자 장치를 포함하는 이미지 처리 시스템을 설명하기 위한 도면이고, 도 2는 일 실시예에 따라, 전자 장치의 구성을 도시한 블록도이다. FIG. 1 is a diagram for explaining an image processing system including an electronic device according to an embodiment, and FIG. 2 is a block diagram showing the configuration of an electronic device according to an embodiment.

도 1 및 도 2를 참조하면, 이미지 처리 시스템(1)은 스캐너(10)와 전자 장치(20)를 포함할 수 있다.Referring to FIGS. 1 and 2 , the image processing system 1 may include a scanner 10 and an electronic device 20 .

본 명세서에서, '대상체(object)'는 촬영의 대상이 되는 것으로서, 사람, 동물, 또는 그 일부를 포함할 수 있다. 예를 들어, 대상체는 신체의 일부(장기 또는 기관 등), 또는 팬텀(phantom) 등을 포함할 수 있다. 또한, 예를 들면, 대상체는, 구강을 본 뜬 석고 모델, 틀니나 의치 등의 덴쳐(denture), 이(teeth) 형상의 덴티폼(dentiform) 등을 포함할 수 있다. 예를 들어, 대상체는 치아, 치은, 구강의 적어도 일부 영역, 및/또는 구강 내에 삽입 가능한 인공 구조물(예를 들어, 브라켓 및 와이어를 포함하는 교정 장치, 임플란트, 어버트먼트, 인공 치아, 인레이 및 온레이 등을 포함하는 치아 수복물, 구강 내 삽입되는 교정 보조 도구 등), 인공 구조물이 부착된 치아 또는 치은 등을 포함할 수 있다.In this specification, an 'object' is something that is subject to photography and may include a person, an animal, or a part thereof. For example, the object may include a part of the body (organ or organ, etc.) or a phantom. Additionally, for example, the object may include a plaster model that imitates the oral cavity, a denture such as a denture or denture, a dentiform in the shape of teeth, etc. For example, the subject may have teeth, gingiva, at least some areas of the oral cavity, and/or artificial structures implantable within the oral cavity (e.g., orthodontic devices including brackets and wires, implants, abutments, artificial teeth, inlays, and It may include dental restorations including onlays, orthodontic aids inserted into the oral cavity, etc.), teeth or gingiva to which artificial structures are attached, etc.

스캐너(10)는, 대상체와 관련된 이미지를 획득하는 장치를 의미할 수 있다. 스캐너(10)는 구강의 치료에 이용되는 구강과 관련된 구강 이미지를 획득하는 스캐너(10)를 의미할 수 있다. 스캐너(10)는, 2차원 이미지 및 3차원 이미지 중 적어도 하나를 획득할 수 있다. 또한, 스캐너(10)는, 구강에 대한 적어도 하나의 2차원 이미지를 획득하고, 획득된 적어도 하나의 2차원 이미지에 기초하여 구강에 대한 3차원 이미지(또는 3차원 모델)를 생성할 수 있다. 또한, 스캐너는, 구강에 대한 적어도 하나의 2차원 이미지를 획득하고, 적어도 하나의 2차원 이미지를 전자 장치(20)로 전송할 수 있다. The scanner 10 may refer to a device that acquires images related to an object. The scanner 10 may refer to a scanner 10 that acquires oral images related to the oral cavity used for oral treatment. The scanner 10 can acquire at least one of a two-dimensional image and a three-dimensional image. Additionally, the scanner 10 may acquire at least one two-dimensional image of the oral cavity and generate a three-dimensional image (or three-dimensional model) of the oral cavity based on the at least one acquired two-dimensional image. Additionally, the scanner may acquire at least one two-dimensional image of the oral cavity and transmit the at least one two-dimensional image to the electronic device 20.

전자 장치(20)는, 또한, 스캐너(10) 치아 모형 또는 구강 내부의 치아, 치은 및 구강 내에 삽입 가능한 인공 구조물(예를 들어, 브라켓 및 와이어 등을 포함하는 교정 장치, 임플란트, 인공 치아, 스플린트를 포함하는 구강 내 삽입되는 교정 보조 도구 등) 중 적어도 하나의 표면을 이미징할 수 있으며, 이를 위해 대상체에 대한 표면 정보를 로우 데이터(raw data)로 획득할 수 있다.The electronic device 20 also includes a scanner 10 tooth model or teeth inside the oral cavity, gingiva, and artificial structures that can be inserted into the oral cavity (e.g., orthodontic devices including brackets and wires, implants, artificial teeth, splints, etc.) The surface of at least one of the surfaces (including orthodontic aids inserted into the oral cavity, etc.) can be imaged, and for this purpose, surface information about the object can be acquired as raw data.

전자 장치(20)는, 수신된 적어도 하나의 2차원 이미지에 기초하여 구강에 대한 3차원 이미지를 생성할 수 있다. 여기서 ‘3차원 이미지’는 수신된 로우 데이터에 근거하여 대상체를 3차원적으로 모델링(modeling)하여 생성될 수 있으므로, ‘3차원 모델’로 호칭될 수 있다. 또한 본 발명에서 대상체를 2차원 또는 3차원적으로 나타내는 모델 또는 이미지를 통칭하여 ‘이미지’라 칭할 수 있다.The electronic device 20 may generate a 3D image of the oral cavity based on at least one received 2D image. Here, the ‘3D image’ can be created by modeling the object in three dimensions based on the received raw data, so it can be called a ‘3D model’. Additionally, in the present invention, a model or image representing an object in two or three dimensions may be collectively referred to as an ‘image.’

예를 들면, 스캐너(10)는 구강 내에 인입될 수 있는 형태를 가지는 구강 스캐너(intraoral scanner)가 될 수 있고, 실시예에 따라 구강 스캐너는 유선 장치 또는 무선 장치 일 수 있으며, 본 발명의 기술적 사상은 구강 스캐너의 형태에 한되지 않는다. For example, the scanner 10 may be an intraoral scanner that can be inserted into the oral cavity. Depending on the embodiment, the intraoral scanner may be a wired device or a wireless device, and the technical spirit of the present invention is not limited to the type of intraoral scanner.

일 실시예에 따라, 구강 스캐너는 손으로 잡아서 휴대 가능한 형태를 가지는 핸드 헬드(hand-held) 형 스캐너일 수 있다. 상기 구강 스캐너는 구강 내에 삽입되어 비 접촉식으로 치아를 스캐닝함으로써, 적어도 하나의 치아를 포함하는 구강에 대한 이미지를 가질 수 있으며, 적어도 하나의 이미지 센서(예를 들어, 광학 카메라 등)를 이용하여 환자의 구강 내부를 스캔할 수 있다. According to one embodiment, the intraoral scanner may be a hand-held scanner that can be held and carried by hand. The oral scanner is inserted into the oral cavity and scans the teeth in a non-contact manner, so that it can have an image of the oral cavity including at least one tooth, and uses at least one image sensor (for example, an optical camera, etc.) The inside of a patient's mouth can be scanned.

일 실시예에 따라, 스캐너(10)는 치과치료에 이용 가능한 테이블 형 스캐너가 될 수 있다. 테이블 형 스캐너는 테이블의 회전을 이용하여 대상체를 스캔함으로써 대상체에 대한 표면 정보를 로우 데이터(raw data)로 획득하는 스캐너일 수 있다. 테이블 스캐너는 구강을 본 뜬 석고 모형이나 임프레션 모형 등의 대상체의 표면을 스캔할 수 있다. According to one embodiment, the scanner 10 may be a table-type scanner that can be used for dental treatment. A table-type scanner may be a scanner that obtains surface information about an object as raw data by scanning the object using the rotation of a table. A table scanner can scan the surface of an object such as a plaster model or impression model of the oral cavity.

전자 장치(20)는 스캐너(10)로부터 로우 데이터를 수신할 수 있고, 수신된 로우 데이터를 처리하여 로우 데이터에 대한 3차원 이미지를 출력할 수 있다. 실시예에 따라, 출력되는 3차원 이미지는 수신된 로우 데이터에 대한 스플린트(Splint) 등의 구강 구조물이 포함된 3차원 이미지 데이터일 수 있다. 설명의 용이성을 위해 스캔 데이터에 대한 구체적인 설명은 도 4 및 도 5에서 후술한다.The electronic device 20 can receive raw data from the scanner 10, process the received raw data, and output a three-dimensional image for the raw data. Depending on the embodiment, the output 3D image may be 3D image data including oral structures such as splints for the received raw data. For ease of explanation, a detailed description of the scan data will be described later in FIGS. 4 and 5.

전자 장치(20)은 스캐너와 유선 또는 무선 통신 망을 통하여 연결되며, 스캐너로부터 대상체를 스캔하여 획득된 2차원 이미지를 수신하고, 수신된 2차원 이미지에 근거하여 이미지를 생성, 처리, 디스플레이 및/또는 전송할 수 있는 모든 전자 장치가 될 수 있다.The electronic device 20 is connected to the scanner through a wired or wireless communication network, receives a two-dimensional image obtained by scanning an object from the scanner, and generates, processes, displays, and/or creates an image based on the received two-dimensional image. Or it can be any electronic device capable of transmitting.

전자 장치(20)는 전용 소프트웨어를 저장 및 실행하여 대상체의 3차원 이미지 또는 2차원 이미지를 수신, 처리, 저장, 및/또는 전송하기 위한 적어도 하나의 동작들을 수행할 수 있다. 예를 들어, 전용 소프트웨어는 수신된 스캔 데이터에 대하여 영역 추출 및 영역 설정 등의 처리 동작을 수행하고, 처리 동작을 기반으로 데이터 선택, 기준점 조정 및 정렬 등을 수행하여 스플린트 등의 인공 구조물을 포함하는 3차원 이미지를 생성, 저장 및 전송 등 적어도 하나의 동작들을 수행할 수 있다. 전자 장치(20)는 스마트 폰(smart phone), 랩탑 컴퓨터, 데스크탑 컴퓨터, PDA, 태블릿 PC 등의 컴퓨팅 장치가 될 수 있으며, 이에 한정되지 않는다. 또한, 전자 장치(20)는 구강 이미지를 처리하기 위한 서버(또는 서버 장치) 등의 형태로 존재할 수 있다.The electronic device 20 may store and execute dedicated software to perform at least one operation for receiving, processing, storing, and/or transmitting a 3D image or 2D image of an object. For example, the dedicated software performs processing operations such as region extraction and region setting on the received scan data, and performs data selection, reference point adjustment, and alignment based on the processing operations to create artificial structures including artificial structures such as splints. At least one operation such as generating, storing, and transmitting a 3D image can be performed. The electronic device 20 may be a computing device such as a smart phone, laptop computer, desktop computer, PDA, or tablet PC, but is not limited thereto. Additionally, the electronic device 20 may exist in the form of a server (or server device) for processing oral images.

전자 장치(20)는 통신부(21), 프로세서(22), 사용자 인터페이스 장치(23), 디스플레이(24), 메모리(25) 및 데이터베이스(21)를 포함할 수 있다. 그러나, 도시된 구성 요소 모두가 필수 구성 요소인 것은 아니다. 도시된 구성 요소보다 많은 구성 요소에 의해 전자 장치(20)가 구현될 수 있고, 그보다 적은 구성 요소에 의해서도 전자 장치(20)가 구현될 수 있다. 이하, 상기 구성 요소들에 대해 살펴본다.The electronic device 20 may include a communication unit 21, a processor 22, a user interface device 23, a display 24, a memory 25, and a database 21. However, not all of the illustrated components are essential components. The electronic device 20 may be implemented with more components than the components shown, and the electronic device 20 may be implemented with fewer components than the illustrated components. Below, we will look at the above components.

통신부(21)는 외부 장치와 통신을 수행할 수 있다. 구체적으로, 통신부(21)는 유선 또는 무선으로 네트워크와 연결되어 외부 장치와 통신을 수행할 수 있다. 여기서, 외부 장치는 스캐너(10), 서버, 스마트폰, 태블릿, PC 등일 수 있다.The communication unit 21 can communicate with an external device. Specifically, the communication unit 21 can be connected to a network by wire or wirelessly to communicate with an external device. Here, the external device may be a scanner 10, a server, a smartphone, a tablet, a PC, etc.

통신부(21)는 다양한 유무선 통신 방법 중 하나를 지원하는 통신 모듈을 포함할 수 있다. 예를 들면, 통신 모듈은 칩셋(chipset)의 형태일 수도 있고, 또는 통신에 필요한 정보를 포함하는 스티커/바코드(e.g. NFC tag를 포함하는 스티커)등일 수도 있다. 또한, 통신 모듈은 근거리 통신 모듈, 유선 통신 모듈일 수 있다.The communication unit 21 may include a communication module that supports one of various wired and wireless communication methods. For example, the communication module may be in the form of a chipset, or may be a sticker/barcode (e.g. a sticker including an NFC tag) containing information necessary for communication. Additionally, the communication module may be a short-distance communication module or a wired communication module.

예를 들면, 통신부(21)는 무선 랜(Wireless LAN), Wi-Fi(Wireless Fidelity), WFD(Wi-Fi Direct), 블루투스(Bluetooth), BLE(Bluetooth Low Energy), Wired Lan, NFC(Near Field Communication), 지그비(Zigbee), 적외선(IrDA, infrared Data Association), 3G, 4G, 및 5G 중 적어도 하나를 지원할 수 있다.For example, the communication unit 21 supports wireless LAN, Wi-Fi (Wireless Fidelity), WFD (Wi-Fi Direct), Bluetooth, BLE (Bluetooth Low Energy), Wired Lan, and NFC (Near). It can support at least one of (Field Communication), Zigbee, infrared Data Association (IrDA), 3G, 4G, and 5G.

일 실시예에서, 스캐너(10)는 획득한 로우 데이터를 통신 모듈을 통하여 전자 장치(20)로 전송할 수 있다. 스캐너에서 획득된 이미지 데이터는 유선 또는 무선 통신망을 통하여 연결되는 전자 장치(20)로 전송될 수 있다.In one embodiment, the scanner 10 may transmit the acquired raw data to the electronic device 20 through a communication module. Image data acquired from the scanner may be transmitted to the electronic device 20 connected through a wired or wireless communication network.

프로세서(22)는 전자 장치(20)의 전체적인 동작을 제어하며, CPU 등과 같은 적어도 하나의 프로세서를 포함할 수 있다. 프로세서(22)는 각 기능에 대응되는 특화된 프로세서를 적어도 하나 포함하거나, 하나로 통합된 형태의 프로세서일 수 있다.The processor 22 controls the overall operation of the electronic device 20 and may include at least one processor such as a CPU. The processor 22 may include at least one specialized processor corresponding to each function, or may be an integrated processor.

프로세서(22)는, 통신부(21)를 통해, 로우 데이터를 수신할 수 있다. 예를 들면, 프로세서(22)는, 통신부(21)를 통해, 스캐너(10)로부터 로우 데이터를 수신할 수 있다. 이 경우, 프로세서(22)는 수신된 로우 데이터에 기초하여, 대상체의 표면의 형상을 3차원적으로 나타내는 3차원 이미지 데이터(예를 들어, 표면 데이터, 메시 데이터(Mesh data) 등)를 생성할 수 있고, 이하 전자 장치(20)의 연산 대상이 되는 스캔 데이터는 3차원 이미지 데이터를 포함할 수 있다.The processor 22 may receive raw data through the communication unit 21. For example, the processor 22 may receive raw data from the scanner 10 through the communication unit 21. In this case, the processor 22 generates three-dimensional image data (e.g., surface data, mesh data, etc.) that three-dimensionally represents the shape of the surface of the object, based on the received raw data. Hereinafter, the scan data that is the subject of calculation by the electronic device 20 may include 3D image data.

프로세서(22)는, 통신부(21)를 통해, 외부 장치로부터 라이브러리 데이터를 수신할 수 있다. 라이브러리 데이터는 전자 장치(20)에 기저장된 데이터 또는 외부 장치를 통해 획득한 로우 데이터 또는 3차원 이미지 데이터일 수 있으며, 이에 한정되지 않는다. 여기서, 외부 장치는, 사진 또는 동영상 촬영이 가능한 카메라, 카메라 기능을 갖는 전자 장치일 수 있다. 또한, 외부 장치는, 환자의 구강 내부를 스캔할 수 있는 구강 스캐너일 수 있다.The processor 22 may receive library data from an external device through the communication unit 21. Library data may be data pre-stored in the electronic device 20 or raw data or 3D image data acquired through an external device, but is not limited thereto. Here, the external device may be a camera capable of taking photos or videos, or an electronic device with a camera function. Additionally, the external device may be an oral scanner capable of scanning the inside of the patient's mouth.

프로세서(22)는 사용자로부터 소정 명령 또는 데이터를 입력 받기 위해 사용자 인터페이스 장치(23) 또는 디스플레이(24)를 제어할 수 있다.The processor 22 may control the user interface device 23 or the display 24 to receive input of certain commands or data from the user.

프로세서(22)는 메모리(25)에 저장된 프로그램을 실행시키거나, 메모리(25)에 저장된 이미지, 데이터 또는 파일을 읽어오거나, 새로운 파일을 메모리(25)에 저장할 수 있다. 프로세서(22)는 메모리(25)에 저장된 명령어들을 실행할 수 있다. 상기 저장된 프로그램은 전용 소프트웨어 등을 포함할 수 있으나, 이에 제한되지 않는다.The processor 22 can execute a program stored in the memory 25, read an image, data, or file stored in the memory 25, or store a new file in the memory 25. The processor 22 may execute instructions stored in the memory 25. The stored program may include, but is not limited to, dedicated software.

프로세서(22)는 스캔 데이터에 포함되는 메시 데이터 및 데이터 등에 대한 연산 동작을 수행할 수 있다. 예를 들면, 프로세서(22)는 스캔 데이터를 구성하는 메시 데이터들의 법선 벡터의 평균을 구하거나, 복수의 메시 데이터 또는 복수의 기준점들을 포함하는 3차원 바운딩 박스(3D-Oriented Bounding Box)를 생성하거나, 2차원 바운딩 박스(2D-Oriented Bounding Box)를 생성하는 동작 및/또는 복수의 메시 데이터 또는 복수의 기준점에 대한 컨벡스 헐(Convex Hull) 알고리즘 동작을 수행할 수 있다. The processor 22 may perform calculation operations on mesh data and data included in scan data. For example, the processor 22 calculates the average of the normal vectors of the mesh data constituting the scan data, generates a 3D-Oriented Bounding Box including a plurality of mesh data or a plurality of reference points, or , an operation for creating a 2D-Oriented Bounding Box and/or a Convex Hull algorithm operation for a plurality of mesh data or a plurality of reference points may be performed.

바운딩 박스는 복수의 위치 데이터 또는 특정 대상체를 둘러쌓는 최소 크기의 박스를 의미하는 것으로, 3차원 바운딩 박스는 직육면체 형태이고, 2차원 바운딩 박스는 직사각형 형태를 가질 수 있다.A bounding box refers to a box of the minimum size surrounding a plurality of location data or a specific object. A 3D bounding box may have a rectangular parallelepiped shape, and a 2D bounding box may have a rectangular shape.

컨벡스 헐 알고리즘은, 유한한 점들의 집합에 대해 집합 내 점들을 포함하는 볼록 다면체(convex polyhedron)를 생성하는 알고리즘으로, 실시예에 따라 정적 계산 알고리즘이 사용되거나 삼각측량을 활용하는 동적 계산 알고리즘이 사용될 수 있다. 볼록 다면체는 복수의 정점과 면을 포함할 수 있다.The convex Hull algorithm is an algorithm that generates a convex polyhedron containing the points in the set for a finite set of points. Depending on the embodiment, a static calculation algorithm or a dynamic calculation algorithm utilizing triangulation may be used. You can. A convex polyhedron may include multiple vertices and faces.

프로세서(22)는 바운딩 박스로부터 벡터를 추출할 수 있다. 프로세서(22)는 3차원 바운딩 박스의 모서리 길이의 크기와 연장 방향의 방향을 갖는 벡터를 추출하거나, 2차원 바운딩 박스의 일변 길이의 크기와 연장 방향의 방향을 갖는 벡터를 추출할 수 있다. 예를 들면, 프로세서(22)는 3차원 바운딩 박스의 최소 길이를 갖는 최소 모서리에 대한 방향 벡터를 추출하거나, 2차원 바운딩 박스의 장변에 대한 벡터를 추출하는 동작을 수행할 수 있다. 또한, 프로세서(22)는 추출된 벡터의 평균 벡터를 연산할 수 있다.Processor 22 may extract a vector from the bounding box. The processor 22 may extract a vector having the size of the edge length of the 3D bounding box and the direction of the extension direction, or extract a vector having the size of the length of one side of the 2D bounding box and the direction of the extension direction. For example, the processor 22 may perform an operation of extracting a direction vector for the minimum edge having the minimum length of a 3D bounding box, or extracting a vector for the long side of a 2D bounding box. Additionally, the processor 22 may calculate the average vector of the extracted vectors.

프로세서(22)는 특정 방향에 대하여 스캔 데이터에 대한 표면 굴곡을 나타내는 복잡도를 계산할 수 있다. 예시적으로, 프로세서(22)는 스캔 데이터 내 경사도의 차이를 알 수 있는 라플라시안과, 노이즈 제거에 유리한 가우시안(Gaussian)을 병합한 LoG(Laplacian of Gaussian)를 이용하여 표면 굴곡에 대한 복잡도를 연산할 수 있다.Processor 22 may calculate a complexity representing surface curvature for scan data with respect to a specific direction. As an example, the processor 22 calculates the complexity of the surface curvature using LoG (Laplacian of Gaussian), which combines the Laplacian, which can determine the difference in slope within the scan data, and the Gaussian, which is advantageous for noise removal. You can.

프로세서(22)는 스캔 데이터 내 대상체를 인식하거나, 일부 영역을 추출하거나, 인식된 대상체 또는 추출된 영역의 면적이나 부피를 연산할 수 있다. 예를 들면, 프로세서(22)는 스캔 데이터의 곡률 정보, 교두 정보 및 해부학적 특징 형상 등을 활용하여 치아의 종류를 구분하여 인식하거나, 치아와 치아 사이의 공간을 구분할 수 있다. 개시된 실시예에서 따라, 프로세서(22)의 인식 동작들은 상기 정보들의 활용 예시에 제한되지 않으며 객체 인식 인공지능 알고리즘의 추론을 통해서 인식 동작들이 수행될 수 있다. 교두 정보는 스캔 데이터 내 대합치가 접촉하는 교두점의 수, 배치 등을 포함할 수 있다. The processor 22 may recognize an object in scan data, extract a partial area, or calculate the area or volume of the recognized object or the extracted area. For example, the processor 22 may use curvature information, cusp information, and anatomical feature shapes of the scan data to recognize the types of teeth or distinguish the spaces between teeth. According to the disclosed embodiment, the recognition operations of the processor 22 are not limited to examples of utilizing the above information, and the recognition operations may be performed through inference of an object recognition artificial intelligence algorithm. Cusp information may include the number and arrangement of cusps that opposing teeth in scan data contact.

프로세서(22)는 특정 방향, 미리 정해진 값 등을 기준으로 데이터를 선택할 수 있다. 예를 들면, 프로세서(22)는 스캔 데이터 내 데이터에서 초기 교합면 방향을 기준으로 극대점(local maximum point)을 생성하거나, 복수의 극대점 중에서 미리 정해진 값 또는 연산된 면적 등을 기준으로 교두점을 선택하는 동작을 수행할 수 있다.The processor 22 may select data based on a specific direction, predetermined value, etc. For example, the processor 22 generates a local maximum point based on the initial occlusal direction from the data in the scan data, or selects a cusp point based on a predetermined value or calculated area among a plurality of local maximum points. You can perform the following actions.

프로세서(22)는 기준점들을 기초로 스캔 데이터의 방향을 특정하고, 스캔 데이터의 정중선을 설정할 수 있다. 예를 들면, 프로세서(22)는 교두점 중 좌측 제1 대구치의 외측 교두, 우측 제1 대구치의 외측 교두 및 중절치 내 중앙 교두점들을 기준점으로 스캔 데이터의 전면 방향을 특정하고, 스캔 데이터의 좌우를 가르는 정중선을 설정하는 동작을 수행할 수 있다. 정중선은 스캔 데이터의 악궁의 정중앙을 지나는 선으로, 정중선을 통해 구강의 좌우가 구분될 수 있다.The processor 22 may specify the direction of the scan data based on the reference points and set the midline of the scan data. For example, the processor 22 specifies the front direction of the scan data using the outer cusp of the left first molar, the outer cusp of the right first molar, and the central cusp in the central incisor as reference points, and uses the left and right sides of the scan data as reference points. You can perform movements that set the midline of the split. The midline is a line that passes through the center of the dental arch in the scan data, and the left and right sides of the oral cavity can be distinguished through the midline.

프로세서(22)는 곡률 정보 등을 통해 대상체 사이의 공간에 피팅(fitting)되는 실린더를 생성할 수 있다. 예를 들면, 프로세서(22)는 중절치 사이의 공간에서 중절치와 접하게 배치되는 실린더를 생성할 수 있다.The processor 22 may generate a cylinder fitting into the space between objects through curvature information, etc. For example, the processor 22 may generate a cylinder that is placed in contact with the central incisors in the space between the central incisors.

프로세서(22)는 정중선에 대한 조정 동작을 수행할 수 있다. 구체적으로, 정중선이 지나는 기준점에 대해 상기 피팅된 실린더를 이용하여 조정 동작을 수행하고, 정중선이 지나는 지점을 조정할 수 있다.Processor 22 may perform adjustments to the midline. Specifically, an adjustment operation may be performed using the fitted cylinder with respect to the reference point through which the midline passes, and the point through which the midline passes may be adjusted.

프로세서(22)는 복수의 기준점을 기초로 평면을 설정할 수 있다. 예를 들면, 프로세서(22)는 세 개의 기준점들을 기초로 스캔 데이터에 대한 교합 평면을 설정할 수 있다. The processor 22 may set a plane based on a plurality of reference points. For example, processor 22 may set an occlusal plane for scan data based on three reference points.

사용자 인터페이스 장치(23)는 사용자로부터 전자 장치(20)를 제어하기 위해 데이터를 입력 받는 장치를 의미할 수 있다. 디스플레이(24)는 전자 장치(20)의 동작에 따른 결과 이미지 또는 전자 장치(20)에서의 출력되는 3차원 이미지를 표시하기 위한 출력 장치를 포함할 수 있다. The user interface device 23 may refer to a device that receives data from a user to control the electronic device 20. The display 24 may include an output device for displaying a result image according to the operation of the electronic device 20 or a 3D image output from the electronic device 20.

사용자 인터페이스 장치(23)는, 예를 들면, 입력 장치는 사용자 입력을 수신하는 마우스, 조이스틱, 조작 패널, 터치 센서티브 패널을 포함할 수 있고, 디스플레이(24)는 화면을 표시하는 디스플레이 패널 등을 포함할 수 있다.The user interface device 23 may include, for example, an input device such as a mouse, joystick, operation panel, or touch-sensitive panel that receives user input, and the display 24 may include a display panel that displays a screen. can do.

데이터베이스(26)는, 전용 소프트웨어의 인공지능 알고리즘을 학습하기 시키기 위한 데이터 및 데이터셋을 저장하고, 전용 소프트웨어의 요청에 따라 학습을 위한 데이터를 제공할 수 있다. 인공지능 알고리즘은 데이터베이스(26)에 저장된 치아의 학습 데이터들을 딥 러닝 방식으로 학습하며 치아를 나타내는 데이터의 특성을 구별할 수 있다. 한편, 전용 소프트웨어는 스캔 데이터로부터 상악 치아 영역 데이터, 하악 치아 영역 데이터를 추출하거나 치아 특성에 따라 객체 인식함으로써, 후술할 교합 평면 정렬 단계, 내면 설정 단계, 윤곽 지정 단계 등을 수행할 때 추출 또는 인식된 치아 영역 데이터를 사용할 수 있다.The database 26 stores data and datasets for learning the artificial intelligence algorithm of the dedicated software, and can provide data for learning upon request from the dedicated software. The artificial intelligence algorithm learns the teeth learning data stored in the database 26 using a deep learning method and can distinguish the characteristics of the data representing the teeth. Meanwhile, the dedicated software extracts maxillary tooth area data and mandibular tooth area data from scan data or recognizes objects according to tooth characteristics, thereby extracting or recognizing them when performing the occlusal plane alignment step, inner surface setting step, and contour designation step, which will be described later. tooth area data can be used.

본 발명에서, 인공지능(artificial intelligence, AI)은 인간의 학습능력, 추론능력, 지각능력을 모방하고, 이를 컴퓨터로 구현하는 기술을 의미하고, 기계 학습, 심볼릭 로직의 개념을 포함할 수 있다. 기계 학습(machine learning, ML)은 입력 데이터들의 특징을 스스로 분류 또는 학습하는 알고리즘 기술일 수 있다. 인공지능의 기술은 기계 학습의 알고리즘으로써 입력 데이터들 분석하고, 그 분석의 결과를 학습하며, 그 학습의 결과에 기초하여 기반으로 판단이나 예측을 할 수 있다. 또한, 기계 학습의 알고리즘을 활용하여 인간 두뇌의 인지, 판단의 기능을 모사하는 기술들 역시 인공지능의 범주로 이해될 수 있다. 예를 들어, 언어적 이해, 시각적 이해, 추론/예측, 지식 표현, 동작 제어의 기술 분야가 포함될 수 있다.In the present invention, artificial intelligence (AI) refers to technology that imitates human learning ability, reasoning ability, and perception ability and implements this with a computer, and may include the concepts of machine learning and symbolic logic. Machine learning (ML) can be an algorithmic technology that classifies or learns the characteristics of input data on its own. Artificial intelligence technology is a machine learning algorithm that analyzes input data, learns the results of the analysis, and makes judgments or predictions based on the results of the learning. Additionally, technologies that mimic the cognitive and judgment functions of the human brain using machine learning algorithms can also be understood as the category of artificial intelligence. For example, it may include technical fields such as verbal understanding, visual understanding, reasoning/prediction, knowledge representation, and motion control.

본 발명에서, 기계 학습은 데이터를 처리한 경험을 이용해 신경망 모델을 훈련시키는 처리를 의미할 수 있다. 기계 학습을 통해 컴퓨터 소프트웨어는 스스로 데이터 처리 능력을 향상시키는 것을 의미할 수 있다. 신경망 모델은 데이터 사이의 상관 관계를 모델링하여 구축된 것으로서, 그 상관 관계는 복수의 파라미터에 의해 표현될 수 있다. 신경망 모델은 주어진 데이터로부터 특징들을 추출하고 분석하여 데이터 간의 상관 관계를 도출하는데, 이러한 과정을 반복하여 신경망 모델의 파라미터를 최적화 해나가는 것이 기계 학습이라고 할 수 있다.In the present invention, machine learning may refer to the process of training a neural network model using experience processing data. Machine learning can mean that computer software improves its own data processing capabilities. A neural network model is built by modeling the correlation between data, and the correlation can be expressed by a plurality of parameters. A neural network model extracts and analyzes features from given data to derive correlations between data. Repeating this process to optimize the parameters of the neural network model can be called machine learning.

예를 들어, 신경망 모델은 입출력 쌍으로 주어지는 데이터에 대하여, 입력과 출력 사이의 매핑(상관 관계)을 학습할 수 있다. 또는 신경망 모델은 입력 데이터만 주어지는 경우에도 주어진 데이터 사이의 규칙성을 도출하여 그 관계를 학습할 수도 있다.For example, a neural network model can learn the mapping (correlation) between input and output for data given as input-output pairs. Alternatively, a neural network model can learn relationships by deriving regularities between given data even when only input data is given.

본 발명에서, 인공지능 학습 모델, 기계 학습 모델 또는 신경망 모델은 인간의 뇌 구조를 컴퓨터 상에서 구현하도록 설계될 수 있으며, 인간의 신경망의 뉴런(neuron)을 모의하며 가중치를 가지는 복수의 네트워크 노드들을 포함할 수 있다. 복수의 네트워크 노드들은 뉴런이 시냅스(synapse)를 통하여 신호를 주고받는 뉴런의 시냅틱(synaptic) 활동을 모의하여, 서로 간의 연결 관계를 가질 수 있다. 인공지능 학습 모델에서 복수의 네트워크 노드들은 서로 다른 깊이의 레이어에 위치하면서 컨볼루션(convolution) 연결 관계에 따라 데이터를 주고받을 수 있다.In the present invention, an artificial intelligence learning model, machine learning model, or neural network model may be designed to implement the human brain structure on a computer, and includes a plurality of network nodes that simulate neurons of a human neural network and have weights. can do. A plurality of network nodes may have a connection relationship with each other by simulating the synaptic activity of neurons in which neurons exchange signals through synapses. In an artificial intelligence learning model, multiple network nodes are located in layers of different depths and can exchange data according to convolutional connection relationships.

데이터베이스(26)는, 도면 상에서 전자 장치(20)에 포함된 것처럼 도시되었으나, 이에 제한되지 않고 전자 장치(20)의 외부에서 서버(또는 서버 장치) 등의 형태로 배치되어 학습을 위한 데이터를 제공하고, 학습 결과를 저장할 수 있다.The database 26 is shown as included in the electronic device 20 in the drawing, but is not limited thereto and is arranged outside the electronic device 20 in the form of a server (or server device) to provide data for learning. and save the learning results.

도 3은 일 실시예에 따라, 전자 장치의 이미지 처리 방법을 나타낸 순서도이고, 도 4 및 도 5는 일 실시예에 따라, 스캔 데이터, 상악 스캔 데이터 및 하악 스캔 데이터를 설명하기 위한 도면들이다.FIG. 3 is a flowchart showing an image processing method of an electronic device, according to an embodiment, and FIGS. 4 and 5 are diagrams for explaining scan data, upper jaw scan data, and lower jaw scan data, according to an embodiment.

도 1 내지 도 5를 참조하면, 전자 장치(20)는 스캔 데이터(100)를 로드한다(S100). 전자 장치(20)는 통신부(21)를 통해서 스캐너(10) 등을 포함하는 외부 장치로부터 수신된 이미지를 기초로 생성된 스캔 데이터(100)를 로드한다.Referring to FIGS. 1 to 5 , the electronic device 20 loads scan data 100 (S100). The electronic device 20 loads scan data 100 generated based on an image received from an external device, including a scanner 10, through the communication unit 21.

전자 장치(20)는 수신된 이미지를 기초로 처리되거나 프로세서(22) 또는 사용자 인터페이스 장치(23)에 기저장된 스캔 데이터(101)를 로드하고, 이를 디스플레이(24)를 통해 표시할 수 있다.The electronic device 20 may process the received image or load scan data 101 previously stored in the processor 22 or the user interface device 23 and display it through the display 24 .

스캔 데이터(100)는 대상체에 대한 2차원 이미지 또는 대상체를 입체적으로 나타내는 3차원 모델 또는 3차원 이미지 데이터가 될 수 있고, 구체적으로 3차원 구강 모델일 수 있다. 도 4 및 도 5에서의 구강 이미지는 스캔 데이터(100)에 대응되고 스캔 데이터(100)의 대상체를 2차원 또는 3차원적으로 표현한 것으로, 후술할 스캔 데이터(100)에 대한 내용과 같이 상악 프렙전 이미지, 상악 프렙 이미지, 하악 프렙전 이미지, 하악 프렙 이미지, 상기 상악 관련 이미지와 하악 관련 이미지를 포함하는 교합 이미지를 포함할 수 있다.The scan data 100 may be a two-dimensional image of an object, a three-dimensional model representing the object three-dimensionally, or three-dimensional image data, and may specifically be a three-dimensional oral model. The oral images in FIGS. 4 and 5 correspond to the scan data 100 and are a two-dimensional or three-dimensional representation of the object of the scan data 100. As with the scan data 100, which will be described later, the upper jaw profile It may include a pre-preparation image, a maxillary preparation image, a mandibular pre-preparation image, a mandibular preparation image, and an occlusal image including the upper jaw-related image and the mandibular-related image.

본 발명에서, 프렙(Prep, Preparation)은 크라운 및 브릿지 등의 보철 시에는 자연 치아 및 보철물 간의 간섭이 방지되도록, 치아의 법랑질과 상아질 일부를 삭제하는 일련의 준비 과정을 의미할 수 있다. In the present invention, preparation (Preparation) may refer to a series of preparation processes that remove part of the enamel and dentin of the tooth to prevent interference between natural teeth and the prosthesis when prosthetics such as crowns and bridges.

"3차원 구강 모델"은, 스캐너의 스캔 동작으로 획득된 로우 데이터에 기초하여 구강을 3차원적으로 모델링한 모델을 의미할 수 있다. 또한, "3차원 구강 모델"은, 스캐너가 치아, 인상체, 인공물 등과 같은 대상체를 스캔하여 획득된 데이터에 기초하여 3차원적으로 모델링된 구조체를 의미할 수 있다. 3차원 구강 모델은, 구강의 내부구조를 3차원적으로 모델링하여 생성된 것으로, 3차원 스캔 모델, 3차원 모델, 또는 치아 모델 등으로 호칭될 수 있다. 예를 들면, 3차원 구강 모델의 포맷은, STL(Standard Triangle Language), OBJ, 폴리곤 파일 형식 중 하나일 수 있고, 상기 예시에 제한되지 않는다. 또한, 3차원 구강 모델은, 3차원적인 형상에 대한 기하학 정보, 컬러, 텍스처, 재료 등의 정보를 포함할 수 있다.“3D oral model” may refer to a model that three-dimensionally models the oral cavity based on raw data acquired through a scanning operation of a scanner. Additionally, “3D oral model” may refer to a three-dimensionally modeled structure based on data obtained by a scanner scanning an object such as a tooth, impression, or artifact. A 3D oral model is created by modeling the internal structure of the oral cavity in 3D, and may be referred to as a 3D scan model, 3D model, or tooth model. For example, the format of the 3D oral model may be one of STL (Standard Triangle Language), OBJ, and polygon file formats, but is not limited to the above example. Additionally, the 3D oral model may include information such as geometric information, color, texture, and material about the 3D shape.

또한, "폴리곤(polygon)"은, 3차원 구강 모델의 입체 형상을 표현할 때 사용되는 가장 작은 단위인 다각형을 의미할 수 있다. 예를 들면, 3차원 구강 모델의 표면은 삼각형 폴리곤들로 표현될 수 있다. 예를 들면, 폴리곤은 최소 3개의 정점(vertex)과 1개의 면(face)으로 구성될 수 있다. 정점은 위치, 컬러, 법선 등의 정보를 포함할 수 있다. 메시는 복수의 폴리곤들이 모여서 만들어진 3차원 공간 상의 대상체일 수 있다. 3차원 구강 모델을 표현하는 폴리곤의 수가 증가할수록, 대상체가 세밀하게 표현될 수 있다.Additionally, “polygon” may refer to a polygon, which is the smallest unit used when expressing the three-dimensional shape of a three-dimensional oral model. For example, the surface of a 3D oral model can be expressed as triangular polygons. For example, a polygon may consist of at least three vertices and one face. Vertices may include information such as position, color, and normal. A mesh may be an object in three-dimensional space created by gathering a plurality of polygons. As the number of polygons representing the 3D oral model increases, the object can be expressed in detail.

스캔 데이터(100)는 상악 스캔 데이터(101)와 하악 스캔 데이터(102) 중 적어도 하나를 포함할 수 있다. 구체적으로, 스캔 데이터(100)는 상악 프렙전 데이터, 상악 프렙 데이터, 하악 프렙전 데이터, 하악 프렙데이터, 상기 상악 관련 데이터와 하악 관련 데이터를 포함하는 교합 데이터 중 어느 하나를 로드할 수 있다. The scan data 100 may include at least one of upper jaw scan data 101 and lower jaw scan data 102. Specifically, the scan data 100 may load any one of maxillary pre-preparation data, maxillary preparation data, mandibular pre-preparation data, mandibular preparation data, and occlusion data including the upper and lower jaw-related data.

본 발명에서, 프렙(Prep, Preparation)은 크라운 및 브릿지 등의 보철 시에는 자연 치아 및 보철물 간의 간섭이 방지되도록, 치아의 법랑질과 상아질 일부를 삭제하는 일련의 준비 과정을 의미하고. 프렙 데이터는 준비 과정을 통해 치아의 법랑질과 상아질 일부를 삭제된 데이터이고, 프렙전 데이터는 준비 과정을 통해 치아의 법랑질과 상아질 일부를 삭제되기 전 데이터일 수 있다.In the present invention, preparation (Preparation) refers to a series of preparation processes that remove part of the enamel and dentin of the tooth to prevent interference between the natural teeth and the prosthesis when prosthetics such as crowns and bridges. Prep data may be data in which part of the enamel and dentin of the tooth has been removed through the preparation process, and pre-preparation data may be data before part of the enamel and dentin in the tooth have been removed through the preparation process.

스캔 데이터(100)는 상악 스캔 데이터(101) 및 하악 스캔 데이터(102) 내에 배치되는 치은 영역(200), 상악 치아 영역 데이터(301) 및 하악 치아 영역 데이터(302)를 포함할 수 있다.The scan data 100 may include a gingival area 200, upper tooth area data 301, and lower tooth area data 302 disposed within the upper jaw scan data 101 and lower jaw scan data 102.

전자 장치(20)는 상악 스캔 데이터(101), 하악 스캔 데이터(102) 및 상악 스캔 데이터(101)와 하악 스캔 데이터(102)를 포함하는 교합 데이터 중 적어도 하나를 로드할 수 있다.. The electronic device 20 may load at least one of upper jaw scan data 101, lower jaw scan data 102, and occlusion data including upper jaw scan data 101 and lower jaw scan data 102.

전자 장치(20)는 수신된 스캔 데이터(100)의 형상을 분석하여 정렬한다(S200). 해당 단계에서 스캔 데이터(100)에 대한 교합 평면 및 정중선이 설정되고, 전자 장치(20)는 스캔 데이터(100)를 상악 스캔 데이터(101) 또는 하악 스캔 데이터(102)를 교합 평면에 따라 자동 정렬하고, 정중선에 의해 좌우 정렬되는 것을 이를 디스플레이(24)를 통해 표시할 수 있다. 해당 단계의 구체적인 설명은 도 6 내지 도 18의 설명에서 후술한다.The electronic device 20 analyzes and sorts the shape of the received scan data 100 (S200). In this step, the occlusal plane and midline for the scan data 100 are set, and the electronic device 20 automatically aligns the scan data 100 with the maxillary scan data 101 or the mandibular scan data 102 according to the occlusal plane. And, the left and right alignment according to the midline can be displayed through the display 24. A detailed description of the corresponding step will be described later in the description of FIGS. 6 to 18.

또한, 해당 단계에서 사용자는, 스캔 데이터(100)에 수동으로 기준점을 지정하여 스캔 데이터(100)의 전면 방향과 교합 평면을 설정하고, 설정된 교합 평면을 따라 스캔 데이터(100)를 정렬할 수 있다. 예시적으로, 사용자는 해당 단계에서 사용자 인터페이스 장치(23)를 통해 스캔 데이터(100)의 일부 데이터를 선택할 수 있고, 선택된 데이터를 기준점으로 스캔 데이터(100)를 정렬할 수 있다.Additionally, in this step, the user can manually specify a reference point on the scan data 100 to set the front direction and occlusal plane of the scan data 100, and align the scan data 100 along the set occlusal plane. . Illustratively, the user may select some data of the scanned data 100 through the user interface device 23 in the corresponding step, and may align the scanned data 100 using the selected data as a reference point.

전자 장치(20)는, 정렬된 스캔 데이터(100)에 대한 구강 구조물의 내면을 설정한다(S300). The electronic device 20 sets the inner surface of the oral structure for the aligned scan data 100 (S300).

해당 단계에서, 전자 장치(20)는 정렬된 스캔 데이터(100)의 언더컷(Undercut)을 고려하여, 구강 구조물이 삽입될 방향을 지정할 수 있다. 예를 들면, 구강 구조물인 스플린트(Splint) 제작시 전자 장치(20)는 스캔 데이터(100) 내 치아 영역의 면적을 연산하고, 구강 구조물이 삽입될 방향에 따른 언더컷 및 블록 아웃을 고려하여 구강 구조물이 삽입될 방향을 지정할 수 있다. 상기와 같은 구강 구조물의 삽입 방향 지정을 통해 구강 구조물의 삽입 효율 및 유지력을 향상시킬 수 있다.In this step, the electronic device 20 may designate a direction in which the oral structure will be inserted by considering the undercut of the aligned scan data 100. For example, when manufacturing a splint, which is an oral structure, the electronic device 20 calculates the area of the tooth area in the scan data 100 and considers undercut and block-out according to the direction in which the oral structure will be inserted. You can specify the direction in which this will be inserted. By specifying the insertion direction of the oral structure as described above, the insertion efficiency and retention power of the oral structure can be improved.

사용자 인터페이스 장치(23)로부터 입력된 내면 오프셋 거리, 표면 매끄럽기 등을 기초로, 전자 장치(20)는 출력될 구강 구조물의 내면을 설정할 수 있다. 상기 내면 오프셋 거리는, 스캔 데이터(100)와 구강 구조물의 내면 사이에 법선 방향으로의 이격 거리를 의미할 수 있다. 상기 표면 매끄럽기는 구강 구조물 내면의 거칠기를 의미할 수 있다.Based on the inner surface offset distance, surface smoothness, etc. input from the user interface device 23, the electronic device 20 can set the inner surface of the oral structure to be output. The inner surface offset distance may mean the separation distance in the normal direction between the scan data 100 and the inner surface of the oral structure. The surface smoothness may refer to the roughness of the inner surface of the oral structure.

전자 장치(20)는, 자동 정렬된 스캔 데이터(100)에 대한 구강 구조물의 윤곽을 지정한다(S400). The electronic device 20 specifies the outline of the oral structure for the automatically aligned scan data 100 (S400).

사용자 인터페이스 장치(23)로부터 입력된 협측 높이, 설측 높이 등을 기초로, 전자 장치(20)는 출력될 구강 구조물의 윤곽을 지정할 수 있다. 예를 들면, 구강 구조물인 스플린트(Splint) 제작시, 상기 협측 높이는 치아 영역의 하부면을 기준으로 볼을 향하는 치아 외벽의 높이이고, 예를 들면, 상기 협측 높이는 상악 스캔 데이터(101)의 치아 영역의 바닥면을 기준으로 치아 외벽을 타고 형성되는 높이를 의미할 수 있다. 상기 협측 높이가 높을수록, 형성되는 볼쪽 윤곽은 치은과 가까워진다. 상기 설측 높이는, 치아 영역의 하부면을 기준으로 혀를 향하는 치아 내벽의 높이이고, 예를 들면, 상기 설측 높이는 상악 스캔 데이터(101)의 치아 영역의 바닥면을 기준으로 치아 내벽을 타고 형성되는 높이를 의미할 수 있다. 상기 설측 높이가 높을수록, 형성되는 혀쪽 윤곽은 치은과 가까워진다.Based on the buccal height, lingual height, etc. input from the user interface device 23, the electronic device 20 may specify the outline of the oral structure to be output. For example, when manufacturing a splint, which is an oral structure, the buccal height is the height of the outer wall of the tooth facing the cheek based on the lower surface of the tooth area. For example, the buccal height is the tooth area of the maxillary scan data 101. It may refer to the height formed along the outer wall of the tooth based on the bottom surface of the tooth. The higher the buccal height, the closer the buccal contour is to the gingiva. The lingual height is the height of the inner wall of the tooth facing the tongue based on the lower surface of the tooth area. For example, the lingual height is the height formed along the inner wall of the tooth based on the bottom surface of the tooth area of the maxillary scan data 101. It can mean. The higher the lingual height, the closer the lingual contour formed is to the gingiva.

전자 장치(20)는, 정렬된 스캔 데이터(100)에 대한 구강 구조물의 외면을 설정한다(S500). The electronic device 20 sets the outer surface of the oral structure for the aligned scan data 100 (S500).

사용자 인터페이스 장치(23)로부터 입력된 두께, 표면 매끄럽기 등을 기초로, 전자 장치(20)는 출력될 구강 구조물의 외면을 지정할 수 있다. 전자 장치(20)는 미리 정해진 교합 두께를 기초로, 구강 구조물이 교합 방향으로 갖는 두께를 설정하여 구강 구조물에 대한 3차원 이미지를 형성할 수 있다. 예를 들면, 구강 구조물인 스플린트(Splint) 제작시 상기 두께는 구강 구조물의 내면에서부터 협측/설측 방향으로 두께를 의미할 수 있다. 상기 표면 매끄럽기는 구강 구조물 외면의 거칠기를 의미할 수 있다. 상기 미리 정해진 교합 두께는 구강 구조물이 교합 방향으로 연장되는 최대 두께값을 의미할 수 있다. Based on the thickness, surface smoothness, etc. input from the user interface device 23, the electronic device 20 may designate the outer surface of the oral structure to be output. The electronic device 20 may form a three-dimensional image of the oral structure by setting the thickness of the oral structure in the occlusal direction based on the predetermined occlusal thickness. For example, when manufacturing a splint, which is an oral structure, the thickness may refer to the thickness in the buccal/lingual direction from the inner surface of the oral structure. The surface smoothness may refer to the roughness of the outer surface of the oral structure. The predetermined occlusal thickness may mean the maximum thickness value at which the oral structure extends in the occlusal direction.

전자 장치(20)는, 단계 S300 내지 S500에서 설정 및 지정된 정보를 통해 구강 구조물을 포함하는 3차원 이미지 데이터를 생성한다(S600). 생성된 구강 구조물에 대한 3차원 이미지는 통신부(21)를 통해 외부 장치로 송신되어 구강 구조물로 출력될 수 있다. 상기 외부 장치는 3D 프린트일 수 있으나, 실시예에 따라 상기 예시에 제한되지 않는다.The electronic device 20 generates three-dimensional image data including the oral structure through the information set and specified in steps S300 to S500 (S600). The generated three-dimensional image of the oral structure may be transmitted to an external device through the communication unit 21 and output as an oral structure. The external device may be a 3D print, but is not limited to the above example depending on the embodiment.

실시예에 따라, 전자 장치(20)는 사용자의 중간 입력없이 단계 S200 내지 단계 S500를 한 번에 수행할 수 있다. 전자 장치(20)는 스캔 데이터(100)를 로드하고(S100), 사용자로부터 내면 오프셋 거리, 표면 매끄럽기, 협측 높이, 설측 높이, 두께 등을 입력 받고, 사용자의 중간 개입없이 단계 S200 내지 단계 S500를 자동으로 수행하여 3차원 이미지 데이터를 생성할 수 있다(S600).Depending on the embodiment, the electronic device 20 may perform steps S200 to S500 at once without intermediate input from the user. The electronic device 20 loads the scan data 100 (S100), receives input of the inner offset distance, surface smoothness, buccal height, lingual height, thickness, etc. from the user, and performs steps S200 to S500 without intermediate user intervention. can be performed automatically to generate 3D image data (S600).

실시예에 따라, 전자 장치(20)는 메모리(25)에 저장된 내면 오프셋 거리, 표면 매끄럽기, 협측 높이, 설측 높이, 두께 등을 활용하여 사용자의 중간 개입없이 단계 S200 내지 단계 S500를 자동으로 수행할 수 있다. Depending on the embodiment, the electronic device 20 automatically performs steps S200 to S500 without intermediate user intervention by utilizing the inner offset distance, surface smoothness, buccal height, lingual height, thickness, etc. stored in the memory 25. can do.

전자 장치(20)는, 실시예에 따라 사용자의 중간 개입없이 단계 S200 내지 단계 S500를 자동으로 수행하여, 구강 구조물 제작에 소요되는 시간을 줄일 수 있다.Depending on the embodiment, the electronic device 20 may automatically perform steps S200 to S500 without intermediate user intervention, thereby reducing the time required to manufacture the oral structure.

실시예에 따라, 전자 장치(20)는, 로드된 스캔 데이터(100) 외에 별도의 입력없이 인공지능 알고리즘의 추론 동작을 통해 구강 구조물에 대한 3차원 이미지 데이터를 생성할 수 있다(S600). 인공지능 알고리즘은 추론 동작 이전에 복수의 스캔 데이터와 대응되는 구강 구조물에 대한 학습을 수행하여, 로드된 스캔 데이터(100)에 적합한 구강 구조물의 3차원 이미지 데이터와 관련하여 추론 동작을 수행할 수 있다.Depending on the embodiment, the electronic device 20 may generate three-dimensional image data for the oral structure through the inference operation of an artificial intelligence algorithm without any additional input other than the loaded scan data 100 (S600). The artificial intelligence algorithm performs learning about the oral structure corresponding to a plurality of scan data before the inference operation, and performs the inference operation in relation to the three-dimensional image data of the oral structure suitable for the loaded scan data 100. .

실시예에 따라, 전자 장치(20)는, 스캔 데이터(100) 내 상악 스캔 데이터(101)와 하악 스캔 데이터(102) 간의 교합상태나 악궁 간 최소거리(Distance to Antagonist)에 대한 사용자 입력을 통해, 단계 S300 내지 S500의 각 단계에서 교합상태나 악궁 간 최소거리를 조절할 수 있다. 상기 조절 동작 중에 전자 장치(20)는 스캔 데이터(100)에 대해 계산 동작을 수행하여, 교합상태나 악궁 간 최소거리를 함께 표시할 수 있다.Depending on the embodiment, the electronic device 20 uses user input regarding the occlusion state or the minimum distance between arches (Distance to Antagonist) between the upper and lower scan data 101 and the lower jaw scan data 102 in the scan data 100. , the occlusal state or the minimum distance between arches can be adjusted in each step of steps S300 to S500. During the adjustment operation, the electronic device 20 may perform a calculation operation on the scan data 100 and display the occlusal state or the minimum distance between arches.

상기 조절 및 계산 동작을 통해 사용자는 환자의 구강 내 거리 및 공간을 고려하여 구강 구조물을 제작할 수 있다.Through the above adjustment and calculation operations, the user can manufacture an oral structure considering the distance and space within the patient's oral cavity.

이하에서는 도 6 내지 도 18을 참조하여 단계(S200)에 대해 설명한다. Hereinafter, step S200 will be described with reference to FIGS. 6 to 18.

도 6는 일 실시예에 따라, 전자 장치의 이미지 처리 방법을 나타낸 순서도이다.Figure 6 is a flowchart showing an image processing method of an electronic device, according to one embodiment.

도 1 내지 도 6를 참조하면, 전자 장치(20)는 스캔 데이터(100)에 대한 초기 교합면 방향을 추출한다(S210). Referring to FIGS. 1 to 6 , the electronic device 20 extracts the initial occlusal surface direction for the scan data 100 (S210).

도 7 및 도 8를 추가적으로 참조하면, 스캔 데이터(100)는 다각형 형태의 복수의 메시를 포함할 수 있다. 도 8에서 도시된 것처럼 스캔 데이터(100)에 포함되는 메시는 삼각형 형태일 수 있으나, 상기 형태는 설명을 용이하게 하기 위한 예시이고 사각형, 오각형 등 일 수 있다.With additional reference to FIGS. 7 and 8 , scan data 100 may include a plurality of meshes in a polygonal shape. As shown in FIG. 8, the mesh included in the scan data 100 may have a triangular shape, but the shape is an example for ease of explanation and may be a square, pentagon, etc.

일 실시예에 따라 전자 장치(20)는 M개의 메시를 포함하는 상악 스캔 데이터(101)에 대하여 각각의 메시에 대한 법선 벡터(n_1-n_M)를 추출할 수 있다. According to one embodiment, the electronic device 20 may extract a normal vector (n_1-n_M) for each mesh from the maxillary scan data 101 including M meshes.

전자 장치(20)는, 하기 수학식 1과 같이, 추출된 법선 벡터(n_1-n_M)를 기초로 평균 법선 벡터(N_avg)를 추출하고, 추출된 평균 법선 벡터(N_avg)의 방향을 초기 교합면 방향(N_occ0)으로 설정할 수 있다.The electronic device 20 extracts the average normal vector (N_avg) based on the extracted normal vector (n_1-n_M), and sets the direction of the extracted average normal vector (N_avg) to the initial occlusal surface, as shown in Equation 1 below. It can be set to direction (N_occ0).

상기 수학식 1에서, 상기 은 상기 M개의 메시에 대한 평균 법선 벡터(N_avg)의 단위 벡터이고, 상기 내지 은 상기 M개의 메시의 법선 벡터(n_1-n_M)의 단위 벡터이고, 상기 내지 은 상기 M개의 메시의 면적이다.In Equation 1, the is the unit vector of the average normal vector (N_avg) for the M meshes, and inside is the unit vector of the normal vectors (n_1-n_M) of the M meshes, and inside is the area of the M meshes.

도 7 및 도 8에서 상악 스캔 데이터(101)를 예시로 초기 교합면 방향(N_occ0)의 추출을 설명하였으나, 실시예에 따라 달라질 수 있으며 상기 예시에 제한되지 않는다. 이후 도 9 내지 도 18에서 상악 스캔 데이터(101)에 대한 설명은 하악 스캔 데이터(102)를 포함한 다른 스캔 데이터(100)에서도 적용될 수 있으며, 설명의 용이성을 위해 다른 스캔 데이터(100)에 대한 설명은 상악 스캔 데이터(101)에서의 설명과 상이한 점을 중심으로 설명한다.In FIGS. 7 and 8 , extraction of the initial occlusal direction (N_occ0) is explained using the maxillary scan data 101 as an example, but it may vary depending on the embodiment and is not limited to the above example. Hereinafter, the description of the upper jaw scan data 101 in FIGS. 9 to 18 may also be applied to other scan data 100 including the lower jaw scan data 102, and for ease of explanation, the description of the other scan data 100 will be provided. The explanation will focus on differences from the explanation in the upper jaw scan data 101.

도 9를 추가적으로 참조하면, 일 실시예에 따라 전자 장치(20)는, 메시 데이터를 포함하는 상악 스캔 데이터(101)에 대하여, 3차원 바운딩 박스(Oriented Bounding Box, OBB)를 생성하고, 3차원 바운딩 박스(OBB)의 최소 길이를 갖는 최소 모서리(L1)의 연장 방향과 상기 최소 길이의 크기를 갖는 최소 모서리 벡터(N_OBB)를 추출하고, 최소 모서리 벡터(N_OBB)를 초기 교합면 방향(N_occ0)으로 설정할 수 있다.Referring additionally to FIG. 9, according to one embodiment, the electronic device 20 creates a three-dimensional bounding box (Oriented) with respect to the maxillary scan data 101 including mesh data. Bounding Box, OBB), extract the extension direction of the minimum edge (L1) with the minimum length of the 3D bounding box (OBB) and the minimum edge vector (N_OBB) with the size of the minimum length, and extract the minimum edge vector (N_OBB) can be set as the initial occlusal direction (N_occ0).

실시예에 따라, 전자 장치(20)는 스캔 데이터에 대해 컨벡스 헐 알고리즘을 수행하여 스캔 데이터 내 정점들을 포함하는 볼록 다면체를 생성하고, 생성된 볼록 다면체에 대해 3차원 바운딩 박스를 생성하여, 도 9와 같이 3차원 바운딩 박스의 최소 길이를 갖는 최소 모서리의 연장 방향과 상기 최소 길이의 크기를 갖는 최소 모서리 벡터를 추출하고, 최소 모서리 벡터(N_OBB)를 초기 교합면 방향으로 설정할 수 있다. 볼록 다면체에 대한 3차원 바운딩 박스를 생성하여 3차원 바운딩 박스를 생성하는 데 연산 처리량을 줄여 초기 교합면 방향의 설정 효율을 높일 수 있다. According to an embodiment, the electronic device 20 performs a convex Hull algorithm on the scan data to generate a convex polyhedron including vertices in the scan data, and generates a three-dimensional bounding box for the generated convex polyhedron, as shown in FIG. 9 As shown, the extension direction of the minimum edge having the minimum length of the 3D bounding box and the minimum edge vector having the size of the minimum length can be extracted, and the minimum edge vector (N_OBB) can be set as the initial occlusal direction. By creating a 3D bounding box for a convex polyhedron, the efficiency of setting the initial occlusal direction can be increased by reducing the amount of computational processing required to create the 3D bounding box.

실시예에 따라 전자 장치(20)는 메시 데이터를 포함하는 스캔 데이터에 대하여, 3차원 바운딩 박스를 생성하고, 3차원 바운딩 박스의 각 면의 법선 방향으로 스캔 데이터의 표면 굴곡에 대한 복잡도를 계산할 수 있다. 전자 장치(20)는 3차원 바운딩 박스의 최소 길이를 갖는 최소 모서리의 연장 방향과 나란하고, 표면 굴곡에 대한 복잡도가 낮은 면에서 높은 면으로 진행되는 방향을 초기 교합면 방향으로 설정할 수 있다. 폐곡면의 치아 모델을 포함하는 스캔 데이터의 경우, 평균 법선 벡터를 대신 3차원 바운딩 박스 생성 및 표면 굴곡에 대한 복잡도를 연산하여 초기 교합면 방향을 설정하는 것이 효율적일 수 있다.According to the embodiment, the electronic device 20 may generate a 3D bounding box for scanned data including mesh data, and calculate the complexity of the surface curvature of the scanned data in the normal direction of each side of the 3D bounding box. there is. The electronic device 20 may set the initial occlusal direction to be parallel to the direction of extension of the minimum edge having the minimum length of the three-dimensional bounding box, and to proceed from a surface with low complexity of surface curvature to a surface with high complexity. In the case of scan data containing a closed-curved tooth model, it may be efficient to set the initial occlusal direction by generating a 3D bounding box and calculating the complexity of surface curvature instead of using the average normal vector.

다음으로, 전자 장치(20)는 교두 정보를 생성한다(S220).Next, the electronic device 20 generates cusp information (S220).

도 10 내지 도 12를 추가적으로 참조하면, 전자 장치(20)는 상악 스캔 데이터(101) 내 곡률 정보, 교두 정보 및 해부학적 특징 형상 등을 활용하여, 도 10에서 도시된 것과 같이 상악 스캔 데이터(101) 굴곡진 형상에 따라 복수의 이미지 그룹(G1-GN)으로 분리할 수 있다.With additional reference to FIGS. 10 to 12 , the electronic device 20 utilizes curvature information, cusp information, and anatomical feature shapes in the maxillary scan data 101 to generate maxillary scan data 101 as shown in FIG. 10 . ) Depending on the curved shape, it can be separated into multiple image groups (G1-GN).

전자 장치(20)는 초기 교합면 방향(N_occ0)을 기초로 상악 스캔 데이터(102)에 대한 복수의 극대점(LM_1-LM_N)을 생성할 수 있다. 복수의 극대점(LM_1-LM_N)은 상악 스캔 데이터(102)를 구성하는 각각의 복수의 이미지 그룹(G1-GN)에서 초기 교합면 방향(N_occ0)을 기초로 가장 높이 배치되는 정점들에 대응될 수 있다.The electronic device 20 may generate a plurality of local maximum points (LM_1-LM_N) for the maxillary scan data 102 based on the initial occlusal direction (N_occ0). The plurality of maximal points (LM_1-LM_N) may correspond to the highest placed vertices based on the initial occlusal direction (N_occ0) in each of the plurality of image groups (G1-GN) constituting the maxillary scan data 102. there is.

전자 장치(20)는, 초기 교합면 방향(N_occ0)에 대한 복수의 극대점(LM_1-LM_N)의 높이 및 복수의 이미지 그룹(G1-GN)에 대한 복수의 면적(S1-SN)을 기초로, 복수의 극대점(LM_1-LM_N) 중에서 교두점(cusp_1-cusp_x)들을 선택할 수 있다. 전자 장치(20)는 미리 정해진 높이와 미리 정해진 면적을 기초로, 소거법의 형식으로 복수의 극대점(LM_1-LM_N)의 일부를 소거하여 교두점(cusp_1-cusp_x)들을 선택할 수 있다.The electronic device 20 is based on the heights of the plurality of local maximum points (LM_1-LM_N) with respect to the initial occlusal direction (N_occ0) and the plurality of areas (S1-SN) with respect to the plurality of image groups (G1-GN), Cusp_1-cusp_x can be selected from a plurality of local maxima (LM_1-LM_N). The electronic device 20 may select cusp points (cusp_1-cusp_x) by erasing part of the plurality of local maximum points (LM_1-LM_N) in the form of an erasure method, based on a predetermined height and a predetermined area.

상기 교두 정보는 상악 스캔 데이터(101) 내 대합치가 접촉하는 교두점(cusp_1-cusp_x)의 수 및 배치 등을 포함할 수 있다. 전자 장치(20)는 교두 정보를 통해 교두점(cusp_1-cusp_x)의 배치와 수를 고려하여 상악 스캔 데이터(101) 내에서 구치부(Post)를 추출할 수 있다. 구치부(Post)는 악궁을 따라 2열로 배치된 교두점들을 포함할 수 있다. The cusp information may include the number and arrangement of cusp points (cusp_1-cusp_x) where opposing teeth in the maxillary scan data 101 contact. The electronic device 20 may extract the posterior teeth (Post) from the maxillary scan data 101 by considering the arrangement and number of cusp points (cusp_1-cusp_x) through cusp information. The posterior teeth (Post) may include cusps arranged in two rows along the arch.

실시예에 따라, 전자 장치(20)는 해당 단계에서 객체 인식 인공지능 알고리즘을 통해 상악 스캔 데이터(101) 내 각각의 치아들을 인식하고 인식된 치아들의 치아 번호를 인식하고, 치아 번호에 따른 치아의 해부학적 특징 등을 고려하여 교두 정보를 생성할 수 있다.Depending on the embodiment, the electronic device 20 recognizes each tooth in the upper jaw scan data 101 through an object recognition artificial intelligence algorithm at the corresponding stage, recognizes the tooth numbers of the recognized teeth, and selects the teeth according to the tooth number. Cusp information can be generated by considering anatomical features, etc.

전자 장치(20)는 스캔 데이터(100)의 교두 정보를 사용하여 전면 방향 및 정중선을 설정한다(S230).The electronic device 20 sets the front direction and midline using the cusp information of the scan data 100 (S230).

도 13 내지 도 15를 추가적으로 참조하면, 전자 장치(20)는 추출된 구치부(Post)를 이용하여 서로 이격된 좌측 2차원 바운딩 박스(2D-Oriented Bounding Box, Box2_L) 및 우측 2차원 바운딩 박스(Box2_R)를 생성할 수 있다. 좌측 2차원 바운딩 박스(Box2_L)는 상악 스캔 데이터(101) 내 좌측 구치부(Post)에 배치되는 교두점을 포함할 수 있다. 우측 2차원 바운딩 박스(Box2_R)는 상악 스캔 데이터(101) 내 우측 구치부(Post)에 배치되는 교두점을 포함할 수 있다. Referring additionally to FIGS. 13 to 15, the electronic device 20 uses the extracted posterior teeth (Post) to create a left 2D-Oriented Bounding Box (Box2_L) and a right 2D bounding box (Box2_R) spaced apart from each other. ) can be created. The left two-dimensional bounding box (Box2_L) may include a cusp placed on the left posterior tooth (Post) in the maxillary scan data 101. The right two-dimensional bounding box (Box2_R) may include a cusp placed on the right posterior tooth (Post) in the maxillary scan data 101.

좌측 2차원 바운딩 박스(Box2_L) 및 우측 2차원 바운딩 박스(Box2_R)는 구치부(Post)에 포함될 수 있고, 좌측 2차원 바운딩 박스(Box2_L) 및 우측 2차원 바운딩 박스(Box2_R)는 전치부를 중심으로 좌우로 이격되어 배치될 수 있다.The left two-dimensional bounding box (Box2_L) and the right two-dimensional bounding box (Box2_R) can be included in the posterior region (Post), and the left two-dimensional bounding box (Box2_L) and right two-dimensional bounding box (Box2_R) can be located on the left and right centered on the anterior teeth. It can be placed spaced apart.

전자 장치(20)는, 좌측 2차원 바운딩 박스(Box2_L)에서 설측 방향에 배치되는 좌측 내측 장변에 대한 좌측 내측 벡터(V2_L)를 추출하고, 우측 2차원 바운딩 박스(Box2_R)에서 설측 방향에 배치되는 우측 내측 장변에 대한 우측 내측 벡터(V2_R)를 추출할 수 있다. 좌측 내측 벡터(V2_L)는 좌측 내측 장변의 길이를 크기로 갖고, 좌측 내측 장변의 연장 방향으로 방향을 가질 수 있다. 우측 내측 벡터(V2_R)는 우측 내측 장변의 길이를 크기로 갖고, 우측 내측 장변의 연장 방향으로 방향을 가질 수 있다.The electronic device 20 extracts the left medial vector (V2_L) for the left medial long side arranged in the lingual direction from the left two-dimensional bounding box (Box2_L), and the left medial vector (V2_L) arranged in the lingual direction from the right two-dimensional bounding box (Box2_R). The right medial vector (V2_R) for the right medial long side can be extracted. The left inner vector (V2_L) has the length of the left inner long side as its size and may have a direction in the extension direction of the left inner long side. The right inner vector (V2_R) has the length of the right inner long side as its size and may have a direction in the extension direction of the right inner long side.

전자 장치(20)는 추출된 좌측 내측 벡터(V2_L)와 우측 내측 벡터(V2_R)의 평균 벡터(Vav)를 생성하고, 스캔 데이터(100)의 전면 방향을 평균 벡터(Vav)의 방향으로 설정할 수 있다.The electronic device 20 may generate an average vector (Vav) of the extracted left inner vector (V2_L) and right inner vector (V2_R), and set the front direction of the scan data 100 to the direction of the average vector (Vav). there is.

전자 장치(20)는, 일 실시예에 따라 좌측 2차원 바운딩 박스(Box2_L)의 배치와 우측 2차원 바운딩 박스(Box2_R)의 배치를 기초로 제1 기준점(P1)과 제2 기준점(P2)을 설정할 수 있다. 제1 기준점(P1)은 좌측 2차원 바운딩 박스(Box2_L)의 단변을 기준으로 미리 정해진 거리(L)만큼 떨어진 제1 기준선(BL1)과 가장 가까운 교두점일 수 있다. 제2 기준점(P2)은 우측 2차원 바운딩 박스(Box2_R)의 단변을 기준으로 미리 정해진 거리(L)만큼 떨어진 제1 기준선(BL2)과 가장 가까운 교두점일 수 있다. 미리 정해진 거리(L)는 10mm 내지 20mm이나, 이에 제한되지 않는다. According to one embodiment, the electronic device 20 determines a first reference point (P1) and a second reference point (P2) based on the arrangement of the left two-dimensional bounding box (Box2_L) and the right two-dimensional bounding box (Box2_R). You can set it. The first reference point (P1) may be the cusp closest to the first reference line (BL1), which is a predetermined distance (L) away from the short side of the left two-dimensional bounding box (Box2_L). The second reference point (P2) may be the vertex closest to the first reference line (BL2), which is a predetermined distance (L) away from the short side of the right two-dimensional bounding box (Box2_R). The predetermined distance (L) is 10 mm to 20 mm, but is not limited thereto.

실시예에 따라, 전자 장치(20)는 좌측 2차원 바운딩 박스(Box2_L), 우측 2차원 바운딩 박스(Box2_R) 내 교두 정보 및 상악 스캔 데이터(101)에 대한 객체 인식을 통해, 제1 기준점(P1)과 제2 기준점(P2)을 설정할 수 있다.According to the embodiment, the electronic device 20 recognizes the first reference point (P1) through object recognition for cusp information and maxillary scan data 101 in the left two-dimensional bounding box (Box2_L) and the right two-dimensional bounding box (Box2_R). ) and the second reference point (P2) can be set.

실시예에 따라, 전자 장치(20)는, 상악 스캔 데이터(101)에 대한 객체 인식 인공지능 알고리즘을 통해, 상악 좌측 제1 대구치(Mo1_L) 및 상악 우측 제1 대구치(Mo1_R)를 인식하고 설정할 수 있다. According to the embodiment, the electronic device 20 may recognize and set the maxillary left first molar (Mo1_L) and the maxillary right first molar (Mo1_R) through an object recognition artificial intelligence algorithm for the maxillary scan data 101. there is.

전자 장치(20)는, 제1 대구치(Mo1_L, Mo1_R) 내 교두점 중 협측 방향에 배치되는 교두점을 외측 교두로 선택하고, 상기 선택된 외측 교두 중 전치부에 가장 가까운 외측 교두를 제1 기준점(P1)과 제2 기준점(P2)으로 설정할 수 있다. The electronic device 20 selects a cusp disposed in the buccal direction among cusp points within the first molars (Mo1_L, Mo1_R) as the outer cusp, and selects the outer cusp closest to the anterior teeth among the selected outer cusps as the first reference point (P1). ) and the second reference point (P2).

전자 장치(20)는, 제1 기준점(P1)및 제2 기준점(P2)의 중점을 중간점(CMo)으로 설정하고, 중간점(CMo)에서 평균 벡터(Vav)만큼 이동시킨 점을 인접 기준점(PP)으로 지정할 수 있다. 전자 장치(20)는 인접 기준점(PP)에서 가장 인접한 하악 스캔 데이터(102)의 교두점을 제3 기준점(P3)으로 설정할 수 있다. The electronic device 20 sets the midpoint of the first reference point (P1) and the second reference point (P2) as the midpoint (CMo), and moves the point moved from the midpoint (CMo) by the average vector (Vav) to the adjacent reference point. It can be designated as (PP). The electronic device 20 may set the cusp of the mandible scan data 102 closest to the adjacent reference point PP as the third reference point P3.

전자 장치(20)는, 제3 기준점(P3)을 지나고 평균 벡터(Vav)의 방향으로 연장되는 연장선을 정중선(Cc)으로 설정할 수 있다.The electronic device 20 may set an extension line that passes through the third reference point P3 and extends in the direction of the average vector Vav as the midline Cc.

전자 장치(20)는 정중선(Cc)을 조정 정중선(Cc')으로 조정한다(S240). The electronic device 20 adjusts the midline Cc to the adjusted midline Cc' (S240).

도 16 및 도 17를 추가적으로 참조하면, 전자 장치(20)는 상악 스캔 데이터(101)의 전면 형상을 분석하여 정중선(Cc)을 조정 정중선(Cc')으로 조정할 수 있다. 상악 스캔 데이터(101)의 전면 형상은, 평균 벡터(Vav)의 반대 방향으로 나타낼 수 있다. With additional reference to FIGS. 16 and 17 , the electronic device 20 may analyze the front shape of the upper jaw scan data 101 and adjust the midline Cc to the adjustment midline Cc'. The front shape of the maxillary scan data 101 can be expressed in the opposite direction of the average vector (Vav).

전자 장치(20)는 제3 기준점(P3)을 포함한 인접 영역(PR)을 설정할 수 있다. 실시예에 따라, 인접 영역(PR)은 중간점(CMo)을 기준으로 정중선(Cc)을 일정 범위 내로 회전시켜 상악 스캔 데이터(101)와 만나는 영역일 수 있다. 상기 일정 범위는 -10도 내지 10도이나, 상기 수치 범위에 제한되지 않으며 실시예에 따라 수치 범위는 달라질 수 있다. The electronic device 20 may set the adjacent area PR including the third reference point P3. Depending on the embodiment, the adjacent area PR may be an area that meets the maxillary scan data 101 by rotating the midline Cc within a certain range based on the midpoint CMo. The certain range is -10 degrees to 10 degrees, but it is not limited to the above numerical range and the numerical range may vary depending on the embodiment.

전자 장치(20)는 인접 영역(PR) 내의 상악 스캔 데이터(101) 내 곡률 정보를 획득하고, 일정 범위의 곡률 정보를 갖는 상악 스캔 데이터(101) 내 정점들을 그룹핑하여 중절치 사이의 치간 영역을 인식할 수 있다. 전자 장치(20)는 중절치 사이에 인식된 치간 영역을 따라 상악 스캔 데이터(101)에 인접하게 연장되는 중앙 실린더(Cy)를 생성하는 실린더 피팅 동작을 수행할 수 있다. 중앙 실린더(Cy)는 상악 스캔 데이터(101)에 접할 수 있다.The electronic device 20 acquires curvature information in the maxillary scan data 101 in the adjacent region (PR) and recognizes the interproximal area between central incisors by grouping vertices in the maxillary scan data 101 with curvature information in a certain range. can do. The electronic device 20 may perform a cylinder fitting operation to create a central cylinder Cy extending adjacent to the maxillary scan data 101 along the recognized interproximal area between the central incisors. The central cylinder Cy may be in contact with the maxillary scan data 101 .

전자 장치(20)는, 중앙 실린더(Cy)가 연장되는 방향과 수직한 방향으로 제3 기준점(P3)을 중앙 실린더(Cy)에 투영시켜, 중앙 기준점(Pc)을 설정할 수 있다. 전자 장치(20)는, 중앙 기준점(Pc)을 지나고 평균 벡터(Vav)의 방향으로 연장되는 연장선을 조정 정중선(Cc')으로 설정하고, 조정 정중선(Cc')의 설정으로 정중선(Cc)을 조정할 수 있다. 해당 조정 동작을 통해, 전자 장치(20)는 중절치 사이로 조정 정중선(Cc')을 배치시켜 상악 스캔 데이터(101)를 정교하게 정렬시킬 수 있다.The electronic device 20 may set the central reference point Pc by projecting the third reference point P3 onto the central cylinder Cy in a direction perpendicular to the direction in which the central cylinder Cy extends. The electronic device 20 sets the extension line that passes through the central reference point (Pc) and extends in the direction of the average vector (Vav) as the adjustment midline (Cc'), and sets the center line (Cc) by setting the adjustment midline (Cc'). It can be adjusted. Through the corresponding adjustment operation, the electronic device 20 can precisely align the maxillary scan data 101 by placing the adjustment midline (Cc') between the central incisors.

실시예에 따라, 전자 장치(20)는 객체 인식 인공지능 알고리즘을 통해 상악 스캔 데이터(101) 내 중절치 사이의 치간 영역을 인식하고, 제3 기준점(P3)의 위치로 중절치 사이의 치간 영역 내 중앙 기준점(Pc)으로 조정하여 정중선(Cc)을 조정 정중선(Cc')으로 조정할 수 있다.According to the embodiment, the electronic device 20 recognizes the interdental area between the central incisors in the maxillary scan data 101 through an object recognition artificial intelligence algorithm, and determines the center of the interdental area between the central incisors as the location of the third reference point (P3). By adjusting to the reference point (Pc), the midline (Cc) can be adjusted to the adjusted midline (Cc').

전자 장치(20)는 교합 평면(OccP)을 설정한다(S250). The electronic device 20 sets the occlusal plane (OccP) (S250).

도 18을 추가적으로 참조하면, 전자 장치(20)는 제1 기준점(P1), 제2 기준점(P2) 및 중앙 기준점(Pc)을 기초로 교합 평면(OccP)을 설정할 수 있다. 복수의 기준점(P1, P2, Pc) 설정을 통해 교합 평면(OccP)을 설정하는 것 외에, 실시예에 따라 전자 장치(20)는 교두점(cusp_1-cusp_x)들에 대한 교두 정보를 최소자승 오차법으로 회귀하는 방식으로 평면 방정식을 계산하는 것을 포함하여 다양한 방식으로 교합 평면(OccP)을 설정할 수 있다.With additional reference to FIG. 18 , the electronic device 20 may set the occlusal plane (OccP) based on the first reference point (P1), the second reference point (P2), and the central reference point (Pc). In addition to setting the occlusal plane (OccP) by setting a plurality of reference points (P1, P2, Pc), depending on the embodiment, the electronic device 20 may use the least squares error for cusp information about the cusp points (cusp_1-cusp_x). The occlusal plane (OccP) can be established in a variety of ways, including calculating the plane equation by regression to the law.

일 실시예에 따라, 전자 장치(20)는 복수의 기준점(P1, P2, Pc) 설정 후 사용자 인터페이스 장치(23)의 입력을 통한 사용자 입력에 기초하여 복수의 기준점(P1, P2, Pc)들의 위치는 조정될 수 있고, 조정된 복수의 기준점(P1, P2, Pc)들 기초로 교합 평면(OccP)이 설정될 수 있다.According to one embodiment, the electronic device 20 sets a plurality of reference points (P1, P2, Pc) and then selects the plurality of reference points (P1, P2, Pc) based on user input through the input of the user interface device 23. The position can be adjusted, and the occlusal plane (OccP) can be set based on the adjusted plurality of reference points (P1, P2, Pc).

일 실시예에 따라, 전자 장치(20)는 단계 S200 동작 중에 스캔 데이터(100) 로드 외에 별도의 사용자 입력을 요구하지 않아, 스캔 데이터(100)를 용이하게 정렬하여 스플린트 제작하는 데 소요되는 시간을 절감시킬 수 있다.According to one embodiment, the electronic device 20 does not require any separate user input other than loading the scan data 100 during operation S200, thereby reducing the time required to easily align the scan data 100 and produce the splint. It can be reduced.

또한, 일 실시예에 따라, 전자 장치(20)는 정중선을 자동으로 중절치 사이로 배치시켜 스캔 데이터(100)을 정교하게 정렬시킬 수 있다.Additionally, according to one embodiment, the electronic device 20 may precisely align the scan data 100 by automatically placing the midline between the central incisors.

본 개시의 일 실시예에 따른 이미지 처리 방법은 다양한 컴퓨터 수단을 통하여 수행될 수 있는 프로그램 명령 형태로 구현되어 컴퓨터 판독 가능 매체에 기록될 수 있다. 또한, 본 개시의 실시예는, 이미지 처리 방법을 실행하는 명령어들을 포함하는 하나 이상의 프로그램이 기록된 컴퓨터로 읽을 수 있는 기록 매체가 될 수 있다.The image processing method according to an embodiment of the present disclosure may be implemented in the form of program instructions that can be executed through various computer means and recorded on a computer-readable medium. Additionally, an embodiment of the present disclosure may be a computer-readable recording medium on which one or more programs including instructions for executing an image processing method are recorded.

상기 컴퓨터 판독 가능 매체는 프로그램 명령, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다. 상기 매체에 기록되는 프로그램 명령은 본 발명을 위하여 특별히 설계되고 구성된 것들이거나 컴퓨터 소프트웨어에 대한 통상의 지식을 가진 자에게 공지되어 사용 가능한 것일 수도 있다. 컴퓨터 판독 가능 기록 매체의 예에는 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체(magnetic media), CD-ROM, DVD와 같은 광기록 매체(optical media), 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical media), 및 롬(ROM), 램(RAM), 플래시 메모리 등과 같은 프로그램 명령을 저장하고 수행하도록 특별히 구성된 하드웨어 장치가 포함된다. 프로그램 명령의 예에는 컴파일러에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드를 포함한다.The computer-readable medium may include program instructions, data files, data structures, etc., singly or in combination. Program instructions recorded on the medium may be specially designed and configured for the present invention or may be known and usable by those skilled in the art of computer software. Examples of computer-readable recording media include magnetic media such as hard disks, floppy disks, and magnetic tapes, optical media such as CD-ROMs and DVDs, and magnetic media such as floptical disks. -Includes optical media (magneto-optical media) and hardware devices specifically configured to store and execute program instructions, such as ROM, RAM, flash memory, etc. Examples of program instructions include machine language code, such as that produced by a compiler, as well as high-level language code that can be executed by a computer using an interpreter, etc.

여기서, 기기로 읽을 수 있는 저장매체는, 비일시적(non-transitory) 저장매체의 형태로 제공될 수 있다. 여기서, '비일시적'은 저장매체'는 실재(tangible)하는 장치이고, 신호(signal)(예: 전자기파)를 포함하지 않는다는 것을 의미할 뿐이며, 이 용어는 데이터가 저장매체에 반영구적으로 저장되는 경우와 임시적으로 저장되는 경우를 구분하지 않는다. 예로, '비일시적 저장매체'는 데이터가 임시적으로 저장되는 버퍼를 포함할 수 있다.Here, the device-readable storage medium may be provided in the form of a non-transitory storage medium. Here, 'non-transitory' only means that the storage medium is a tangible device and does not contain signals (e.g. electromagnetic waves), and this term is used when data is semi-permanently stored in the storage medium. There is no distinction between temporary storage and temporary storage. For example, a 'non-transitory storage medium' may include a buffer where data is temporarily stored.

일 실시예에 따르면, 본 문서에 개시된 다양한 실시예들에 따른 방법은 컴퓨터 프로그램 제품(computer program product)에 포함되어 제공될 수 있다. 컴퓨터 프로그램 제품은 상품으로서 판매자 및 구매자 간에 거래될 수 있다. 컴퓨터 프로그램 제품은 기기로 읽을 수 있는 저장 매체(예: compact disc read only memory (CD-ROM))의 형태로 배포되거나, 또는 어플리케이션 스토어(예: 플레이 스토어TM)를 통해 또는 두개의 사용자 장치들(예: 스마트폰들) 간에 직접, 온라인으로 배포(예: 다운로드 또는 업로드)될 수 있다. 온라인 배포의 경우에, 컴퓨터 프로그램 제품(예: 다운로더블 앱(downloadable app))의 적어도 일부는 제조사의 서버, 어플리케이션 스토어의 서버, 또는 중계 서버의 메모리와 같은 기기로 읽을 수 있는 저장 매체에 적어도 일시 저장되거나, 임시적으로 생성될 수 있다.According to one embodiment, methods according to various embodiments disclosed in this document may be provided and included in a computer program product. Computer program products are commodities and can be traded between sellers and buyers. The computer program product may be distributed in the form of a machine-readable storage medium (e.g. compact disc read only memory (CD-ROM)) or through an application store (e.g. Play StoreTM) or on two user devices (e.g. It can be distributed (e.g. downloaded or uploaded) directly between smartphones) or online. In the case of online distribution, at least a portion of the computer program product (e.g., a downloadable app) is stored on a machine-readable storage medium, such as the memory of a manufacturer's server, an application store's server, or a relay server. It can be temporarily stored or created temporarily.

이상에서 본 발명의 실시예에 대하여 상세하게 설명하였지만 본 발명의 권리범위는 이에 한정되는 것은 아니고 다음의 청구범위에서 정의하고 있는 본 발명의 기본 개념을 이용한 당업자의 여러 변형 및 개량 형태 또한 본 발명의 권리범위에 속하는 것이다.Although the embodiments of the present invention have been described in detail above, the scope of the present invention is not limited thereto, and various modifications and improvements made by those skilled in the art using the basic concept of the present invention defined in the following claims are also possible. It falls within the scope of rights.

Claims (20)

적어도 하나의 구강 이미지를 수신하는 단계;
상기 적어도 하나의 구강 이미지에 대응하는 스캔 데이터를 기초로 연산하는 단계;
상기 연산 단계에 기초하여, 상기 스캔 데이터 내 복수의 기준점을 설정하는 단계; 및
상기 복수의 기준점을 기초로 생성된 교합 평면을 기초로 상기 스캔 데이터를 정렬하는 단계;
를 포함하는 이미지 처리 방법
Receiving at least one oral image;
Computing based on scan data corresponding to the at least one oral image;
Based on the calculation step, setting a plurality of reference points in the scan data; and
Aligning the scan data based on an occlusal plane created based on the plurality of reference points;
Image processing method including
제1항에 있어서,
상기 복수의 기준점의 위치를 외부 입력을 통해 조정하는 단계를 더 포함하고,
상기 교합 평면은 조정된 상기 복수의 기준점의 위치를 기초로 생성되는 이미지 처리 방법.
According to paragraph 1,
Further comprising adjusting the positions of the plurality of reference points through external input,
An image processing method wherein the occlusal plane is generated based on the adjusted positions of the plurality of reference points.
제1항에 있어서,
상기 스캔 데이터를 기초로 연산하는 단계는,
상기 적어도 하나의 스캔 데이터에 포함되는 메시 데이터를 기초로 상기 스캔 데이터의 초기 교합면 방향을 추출하고,
상기 스캔 데이터의 교두 정보를 생성하고,
상기 교두 정보를 기초로 상기 스캔 데이터의 전면 방향 및 정중선을 설정하고,
상기 전면 방향에서의 상기 스캔 데이터의 전면 형상을 기초로 상기 정중선을 조정하는 것을 포함하는 이미지 처리 방법.
According to paragraph 1,
The step of calculating based on the scan data is,
Extracting the initial occlusal direction of the scan data based on mesh data included in the at least one scan data,
Generate cusp information of the scan data,
Setting the front direction and midline of the scan data based on the cusp information,
An image processing method comprising adjusting the midline based on a front surface shape of the scan data in the front direction.
제3항에 있어서,
상기 초기 교합면 방향을 추출하는 것은,
상기 메시 데이터의 법선 벡터를 처리하여 평균 법선 벡터를 구하는 것을 포함하는 이미지 처리 방법.
According to paragraph 3,
Extracting the initial occlusal direction is,
An image processing method comprising processing normal vectors of the mesh data to obtain an average normal vector.
제3항에 있어서,
상기 초기 교합면 방향을 추출하는 것은,
상기 메시 데이터를 포함하는 3차원 바운딩 박스(3D-Oriented Bounding Box)를 생성하고,
상기 3차원 바운딩 박스에서 최소 길이를 갖는 최소 모서리에 대한 벡터를 추출하는 것을 포함하는 이미지 처리 방법.
According to paragraph 3,
Extracting the initial occlusal direction is,
Create a 3D-Oriented Bounding Box containing the mesh data,
An image processing method comprising extracting a vector for the minimum edge with the minimum length from the three-dimensional bounding box.
제3항에 있어서,
상기 교두 정보를 생성하는 것은,
상기 초기 교합면 방향을 기초로 상기 스캔 데이터 내 복수의 극대점(local maximum point)을 생성하고,
상기 복수의 극대점 중 교두점을 선택하는 것을 포함하는 이미지 처리 방법.
According to paragraph 3,
Generating the cusp information includes:
Generating a plurality of local maximum points in the scan data based on the initial occlusal direction,
An image processing method comprising selecting a vertex point among the plurality of maxima points.
제3항에 있어서,
상기 교두 정보를 생성하는 것은,
인공지능 알고리즘을 통하여, 상기 스캔 데이터 내 복수의 치아의 치아 번호를 인식하고,
상기 치아 번호의 특징을 기초하여 상기 스캔 데이터에 대한 상기 교두 정보를 생성하는 것을 포함하는 이미지 처리 방법.
According to paragraph 3,
Generating the cusp information includes:
Through an artificial intelligence algorithm, the tooth numbers of a plurality of teeth in the scan data are recognized,
An image processing method comprising generating the cusp information for the scan data based on characteristics of the tooth number.
제3항에 있어서,
상기 스캔 데이터의 상기 전면 방향 및 상기 정중선을 설정하는 것은,
상기 교두 정보를 기초로, 상기 스캔 데이터로부터 구치부를 추출하고,
상기 구치부에 포함되고, 서로 이격된 제1 및 제2 2차원 바운딩 박스(2D-Oriented Bounding Box)를 생성하는 것을 포함하는 이미지 처리 방법.
According to paragraph 3,
Setting the front direction and the midline of the scan data includes,
Based on the cusp information, extracting the posterior teeth from the scan data,
An image processing method comprising generating first and second 2D-Oriented Bounding Boxes included in the posterior teeth and spaced apart from each other.
제8항에 있어서,
상기 전면 방향을 설정하는 단계는,
각각의 상기 제1 및 제2 2차원 바운딩 박스에서 서로 인접하게 배치되는 제1 및 제2 내측 장변에 대한 제1 및 제2 내측 벡터를 추출하고,
상기 제1 내측 벡터와 상기 제2 내측 벡터의 평균 벡터를 생성하는 것을 포함하는 이미지 처리 방법.
According to clause 8,
The step of setting the front direction is,
Extracting first and second inner vectors for first and second inner long sides disposed adjacent to each other in each of the first and second two-dimensional bounding boxes,
An image processing method comprising generating an average vector of the first inner vector and the second inner vector.
제9항에 있어서,
상기 정중선을 설정하는 단계는,
상기 제1 2차원 바운딩 박스 내에 제1 기준점과 상기 제2 2차원 바운딩 박스 내에 제2 기준점을 설정하고,
상기 제1 기준점과 상기 제2 기준점의 중점에서 연장되는 상기 평균 벡터를 기초로 제3 기준점을 설정하는 것을 포함하는 이미지 처리 방법.
According to clause 9,
The step of setting the midline is,
Setting a first reference point in the first two-dimensional bounding box and a second reference point in the second two-dimensional bounding box,
An image processing method comprising setting a third reference point based on the average vector extending from the midpoint of the first reference point and the second reference point.
제10항에 있어서,
상기 정중선을 조정하는 것은,
상기 제3 기준점을 포함하는 인접 영역을 설정하고,
상기 인접 영역 내 상기 스캔 데이터의 곡률 정보를 기초로 실린더 피팅을 수행하여 중앙 실린더를 생성하고,
상기 중앙 실린더가 연장되는 방향과 수직한 방향으로 상기 제3 기준점을 상기 중앙 실린더에 투영하여 중앙 기준점을 설정하는 것을 포함하는 이미지 처리 방법.
According to clause 10,
Adjusting the midline is:
Establishing an adjacent area including the third reference point,
Creating a central cylinder by performing cylinder fitting based on curvature information of the scan data in the adjacent area,
An image processing method comprising setting a central reference point by projecting the third reference point onto the central cylinder in a direction perpendicular to the direction in which the central cylinder extends.
사용자 인터페이스 장치;
프로세서 및
상기 프로세서에 의해 실행 가능한 명령어들을 저장하는 메모리를 포함하되,
상기 프로세서는, 상기 명령어들을 실행하여,
적어도 하나의 구강 이미지를 수신하고,
상기 적어도 하나의 구강 이미지에 대응하는 스캔 데이터를 기초로 연산하고,
상기 스캔 데이터의 상기 연산에 기초하여, 상기 스캔 데이터 내 복수의 기준점을 설정하고,
상기 복수의 기준점을 기초로 생성된 교합 평면을 기초로 상기 스캔 데이터를 정렬하는 전자 장치.
user interface device;
processor and
Includes a memory that stores instructions executable by the processor,
The processor executes the instructions,
Receive at least one oral image,
Calculate based on scan data corresponding to the at least one oral image,
Based on the operation of the scan data, set a plurality of reference points in the scan data,
An electronic device that aligns the scan data based on an occlusal plane created based on the plurality of reference points.
제12항에 있어서,
상기 프로세서는 복수의 기준점의 위치를 외부 입력을 통해 조정하고,
상기 교합 평면은 조정된 상기 복수의 기준점의 위치를 기초로 생성되는 전자 장치.
According to clause 12,
The processor adjusts the positions of a plurality of reference points through external input,
The electronic device wherein the occlusal plane is generated based on the adjusted positions of the plurality of reference points.
제12항에 있어서,
상기 스캔 데이터를 기초로 연산하는 것은,
상기 적어도 하나의 스캔 데이터에 포함되는 메시 데이터를 기초로 상기 스캔 데이터의 초기 교합면 방향을 추출하고,
상기 스캔 데이터의 교두 정보를 생성하고,
상기 교두 정보를 기초로 상기 스캔 데이터의 전면 방향 및 정중선을 설정하고,
상기 전면 방향에서의 상기 스캔 데이터의 전면 형상을 기초로 상기 정중선을 조정하는 것을 포함하는 전자 장치.
According to clause 12,
Calculating based on the scan data is,
Extracting the initial occlusal direction of the scan data based on mesh data included in the at least one scan data,
Generate cusp information of the scan data,
Setting the front direction and midline of the scan data based on the cusp information,
and adjusting the midline based on the front surface shape of the scan data in the front direction.
제14항에 있어서,
상기 초기 교합면 방향을 추출하는 것은,
상기 메시 데이터의 법선 벡터를 처리하여 평균 법선 벡터를 구하는 것을 포함하는 전자 장치.
According to clause 14,
Extracting the initial occlusal direction is,
An electronic device comprising: processing normal vectors of the mesh data to obtain an average normal vector.
제14항에 있어서,
상기 초기 교합면 방향을 추출하는 것은,
상기 메시 데이터를 포함하는 3차원 바운딩 박스(3D-Oriented Bounding Box)를 생성하고,
상기 3차원 바운딩 박스에서 최소 길이를 갖는 최소 모서리에 대한 벡터를 추출하는 것을 포함하는 전자 장치.
According to clause 14,
Extracting the initial occlusal direction is,
Create a 3D-Oriented Bounding Box containing the mesh data,
An electronic device comprising extracting a vector for the minimum edge with the minimum length from the three-dimensional bounding box.
제14항에 있어서,
상기 교두 정보를 생성하는 것은,
상기 초기 교합면 방향을 기초로 상기 스캔 데이터 내 복수의 극대점(local maximum point)을 생성하고,
상기 복수의 극대점 중 교두점을 선택하는 것을 포함하는 전자 장치.
According to clause 14,
Generating the cusp information includes:
Generating a plurality of local maximum points in the scan data based on the initial occlusal direction,
An electronic device comprising selecting a vertex point among the plurality of maxima points.
제14항에 있어서,
상기 교두 정보를 생성하는 것은,
인공지능 알고리즘을 통하여, 상기 스캔 데이터 내 복수의 치아의 치아 번호를 인식하고,
상기 치아 번호의 특징을 기초하여 상기 스캔 데이터에 대한 상기 교두 정보를 생성하는 것을 포함하는 전자 장치.
According to clause 14,
Generating the cusp information includes:
Through an artificial intelligence algorithm, the tooth numbers of a plurality of teeth in the scan data are recognized,
An electronic device comprising generating the cusp information for the scan data based on characteristics of the tooth number.
제14항에 있어서,
상기 스캔 데이터의 상기 전면 방향 및 상기 정중선을 설정하는 것은,
상기 교두 정보를 기초로, 상기 스캔 데이터로부터 구치부를 추출하고,
상기 구치부에 포함되고, 서로 이격된 제1 및 제2 2차원 바운딩 박스(2D-Oriented Bounding Box)를 생성하는 것을 포함하는 전자 장치.
According to clause 14,
Setting the front direction and the midline of the scan data includes,
Based on the cusp information, extracting the posterior teeth from the scan data,
An electronic device including generating first and second 2D-Oriented Bounding Boxes included in the posterior teeth and spaced apart from each other.
컴퓨터에 의해 판독 가능한 명령어들을 포함하는 컴퓨터 판독 가능 저장 매체로서,
상기 명령어들은, 컴퓨터로 하여금,
적어도 하나의 구강 이미지를 수신하는 단계;
상기 적어도 하나의 구강 이미지에 대응하는 스캔 데이터를 기초로 연산하는 단계;
상기 연산 단계에 기초하여, 상기 스캔 데이터 내 복수의 기준점을 설정하는 단계; 및
상기 복수의 기준점을 기초로 생성된 교합 평면을 기초로 상기 스캔 데이터를 정렬하는 단계를 수행하게 하는
컴퓨터 판독 가능 저장 매체.
A computer-readable storage medium containing instructions readable by a computer,
The above commands cause the computer to:
Receiving at least one oral image;
Computing based on scan data corresponding to the at least one oral image;
Based on the calculation step, setting a plurality of reference points in the scan data; and
performing a step of aligning the scan data based on an occlusal plane created based on the plurality of reference points.
A computer-readable storage medium.
KR1020230090638A 2022-07-13 2023-07-12 A method for processing image, an electronic apparatus and a computer readable storage medium KR20240009897A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
PCT/KR2023/010057 WO2024014909A1 (en) 2022-07-13 2023-07-13 Method for processing image, electronic apparatus, and computer-readable storage medium

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR20220086432 2022-07-13
KR1020220086432 2022-07-13

Publications (1)

Publication Number Publication Date
KR20240009897A true KR20240009897A (en) 2024-01-23

Family

ID=89713674

Family Applications (5)

Application Number Title Priority Date Filing Date
KR1020230090641A KR20240009900A (en) 2022-07-13 2023-07-12 A method for processing image, an electronic apparatus and a computer readable storage medium
KR1020230090642A KR20240009901A (en) 2022-07-13 2023-07-12 A method for processing image, an electronic apparatus and a computer readable storage medium
KR1020230090638A KR20240009897A (en) 2022-07-13 2023-07-12 A method for processing image, an electronic apparatus and a computer readable storage medium
KR1020230090639A KR20240009898A (en) 2022-07-13 2023-07-12 A method for processing image, an electronic apparatus and a computer readable storage medium
KR1020230090640A KR20240009899A (en) 2022-07-13 2023-07-12 A method for processing image, an electronic apparatus and a computer readable storage medium

Family Applications Before (2)

Application Number Title Priority Date Filing Date
KR1020230090641A KR20240009900A (en) 2022-07-13 2023-07-12 A method for processing image, an electronic apparatus and a computer readable storage medium
KR1020230090642A KR20240009901A (en) 2022-07-13 2023-07-12 A method for processing image, an electronic apparatus and a computer readable storage medium

Family Applications After (2)

Application Number Title Priority Date Filing Date
KR1020230090639A KR20240009898A (en) 2022-07-13 2023-07-12 A method for processing image, an electronic apparatus and a computer readable storage medium
KR1020230090640A KR20240009899A (en) 2022-07-13 2023-07-12 A method for processing image, an electronic apparatus and a computer readable storage medium

Country Status (1)

Country Link
KR (5) KR20240009900A (en)

Also Published As

Publication number Publication date
KR20240009898A (en) 2024-01-23
KR20240009899A (en) 2024-01-23
KR20240009901A (en) 2024-01-23
KR20240009900A (en) 2024-01-23

Similar Documents

Publication Publication Date Title
US10945813B2 (en) Providing a simulated outcome of dental treatment on a patient
EP3952782B1 (en) Visual presentation of gingival line generated based on 3d tooth model
US11735306B2 (en) Method, system and computer readable storage media for creating three-dimensional dental restorations from two dimensional sketches
US11534275B2 (en) Method for constructing a restoration
JP2023526134A (en) Generation and Placement of Neural Network-Based Dental Appliances for Tooth Restoration
JP2010524529A (en) Computer-aided creation of custom tooth setup using facial analysis
US20240058099A1 (en) Automatic creation of a virtual model and an orthodontic treatment plan
JP7398512B2 (en) Data generation device, scanner system, data generation method, and data generation program
KR20240009897A (en) A method for processing image, an electronic apparatus and a computer readable storage medium
CN116710024A (en) Method for optimizing arcuate line and device using the same
WO2024014909A1 (en) Method for processing image, electronic apparatus, and computer-readable storage medium
WO2024014913A1 (en) Image processing method, electronic device and computer-readable storage medium
WO2024014915A1 (en) Image processing method, electronic device and computer-readable storage medium
JP7405809B2 (en) Estimation device, estimation method, and estimation program
WO2024014912A1 (en) Image processing method, electronic device, and computer-readable storage medium
WO2024014914A1 (en) Method for processing image, electronic apparatus, and computer-readable storage medium
JP7265359B2 (en) DATA GENERATION DEVICE, SCANNER SYSTEM, DATA GENERATION METHOD, AND DATA GENERATION PROGRAM
JP7195466B2 (en) DATA GENERATION DEVICE, SCANNER SYSTEM, DATA GENERATION METHOD, AND DATA GENERATION PROGRAM
JP7267974B2 (en) IDENTIFICATION DEVICE, SCANNER SYSTEM, IDENTIFICATION METHOD, AND IDENTIFICATION PROGRAM
KR102615021B1 (en) Method, apparatus and recording medium storing commands for aligning scanned images of 3d scanner
US20230404708A1 (en) Method for optimizing archline and apparatus using same
KR20230115606A (en) Method and apparatus for orthodonic aligned teeth shape
KR20230002049A (en) An intraoral image processing apparatus and an intraoral image processing method
WO2023240333A1 (en) System, method and apparatus for personalized dental prostheses planning
KR20230000211A (en) Method for providing margin line information for oral cavity and electronic apparatus performing the same method