KR20220081176A - A device and method for providing a virtual articulator - Google Patents

A device and method for providing a virtual articulator Download PDF

Info

Publication number
KR20220081176A
KR20220081176A KR1020200170772A KR20200170772A KR20220081176A KR 20220081176 A KR20220081176 A KR 20220081176A KR 1020200170772 A KR1020200170772 A KR 1020200170772A KR 20200170772 A KR20200170772 A KR 20200170772A KR 20220081176 A KR20220081176 A KR 20220081176A
Authority
KR
South Korea
Prior art keywords
movement
data
virtual
posterior
condylar
Prior art date
Application number
KR1020200170772A
Other languages
Korean (ko)
Other versions
KR102472029B1 (en
Inventor
김종문
주은지
Original Assignee
오스템임플란트 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 오스템임플란트 주식회사 filed Critical 오스템임플란트 주식회사
Priority to KR1020200170772A priority Critical patent/KR102472029B1/en
Publication of KR20220081176A publication Critical patent/KR20220081176A/en
Application granted granted Critical
Publication of KR102472029B1 publication Critical patent/KR102472029B1/en

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61CDENTISTRY; APPARATUS OR METHODS FOR ORAL OR DENTAL HYGIENE
    • A61C19/00Dental auxiliary appliances
    • A61C19/04Measuring instruments specially adapted for dentistry
    • A61C19/05Measuring instruments specially adapted for dentistry for determining occlusion
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/0059Measuring for diagnostic purposes; Identification of persons using light, e.g. diagnosis by transillumination, diascopy, fluorescence
    • A61B5/0082Measuring for diagnostic purposes; Identification of persons using light, e.g. diagnosis by transillumination, diascopy, fluorescence adapted for particular medical purposes
    • A61B5/0088Measuring for diagnostic purposes; Identification of persons using light, e.g. diagnosis by transillumination, diascopy, fluorescence adapted for particular medical purposes for oral or dental tissue
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61CDENTISTRY; APPARATUS OR METHODS FOR ORAL OR DENTAL HYGIENE
    • A61C5/00Filling or capping teeth
    • A61C5/70Tooth crowns; Making thereof
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61CDENTISTRY; APPARATUS OR METHODS FOR ORAL OR DENTAL HYGIENE
    • A61C9/00Impression cups, i.e. impression trays; Impression methods
    • A61C9/004Means or methods for taking digitized impressions
    • A61C9/0046Data acquisition means or methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H30/00ICT specially adapted for the handling or processing of medical images
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B18/00Surgical instruments, devices or methods for transferring non-mechanical forms of energy to or from the body
    • A61B18/18Surgical instruments, devices or methods for transferring non-mechanical forms of energy to or from the body by applying electromagnetic radiation, e.g. microwaves
    • A61B18/20Surgical instruments, devices or methods for transferring non-mechanical forms of energy to or from the body by applying electromagnetic radiation, e.g. microwaves using laser
    • A61B2018/2035Beam shaping or redirecting; Optical components therefor
    • A61B2018/20351Scanning mechanisms
    • A61B2018/20353Scanning in three dimensions [3D]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30036Dental; Teeth

Landscapes

  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • Public Health (AREA)
  • General Health & Medical Sciences (AREA)
  • Animal Behavior & Ethology (AREA)
  • Veterinary Medicine (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Dentistry (AREA)
  • Epidemiology (AREA)
  • Physics & Mathematics (AREA)
  • Medical Informatics (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Computer Graphics (AREA)
  • Primary Health Care (AREA)
  • Theoretical Computer Science (AREA)
  • Software Systems (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Radiology & Medical Imaging (AREA)
  • General Physics & Mathematics (AREA)
  • Geometry (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Pathology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Molecular Biology (AREA)
  • Surgery (AREA)
  • Dental Tools And Instruments Or Auxiliary Dental Instruments (AREA)
  • Apparatus For Radiation Diagnosis (AREA)

Abstract

일 실시 예에 따라, 3D 모델링 이미지에 대한 동적 데이터를 이용하여 대상체에 포함된 과두의 움직임을 나타내는 과두 이동 데이터를 획득하고, 과두 이동 데이터에 기초하여 대상체의 움직임을 시뮬레이션함으로써, 과두의 이동 경로를 그대로 재현해낼 수 있는 가상 교합기를 제공할 수 있는 방법 및 디바이스가 개시된다.According to an embodiment, the movement path of the condyle is obtained by acquiring condylar movement data representing the movement of the condyle included in the object using dynamic data on the 3D modeling image, and simulating the movement of the object based on the condylar movement data. Disclosed are a method and a device capable of providing a virtual articulator that can be reproduced as it is.

Description

가상 교합기를 제공하는 디바이스 및 방법{A DEVICE AND METHOD FOR PROVIDING A VIRTUAL ARTICULATOR}DEVICE AND METHOD FOR PROVIDING A VIRTUAL ARTICULATOR

본 개시는 가상 교합기를 제공하는 디바이스 및 방법에 관한 것이다. 구체적으로, 본 개시는 과두의 움직임에 기초하여 대상체의 움직임을 시뮬레이션하는 가상 교합기를 제공할 수 있는 디바이스 및 방법에 관한 것이다.The present disclosure relates to devices and methods for providing a virtual articulator. Specifically, the present disclosure relates to a device and method capable of providing a virtual articulator that simulates the movement of an object based on the movement of the condyle.

종래의 치과용 크라운을 디자인하는 기술은 그 과정에서 가상 교합기의 세팅이 요구되며, 가상 교합기를 통해 미리 수복하고자 하는 보철물의 교합을 조정하고 환자 구강 내 세팅 과정에서 진료 시간을 감소시킬 수 있다.The conventional technique for designing a dental crown requires setting of a virtual articulator in the process, and it is possible to adjust the occlusion of the prosthesis to be restored in advance through the virtual articulator and reduce the treatment time in the setting process in the patient's mouth.

그러나, 종래의 가상 교합기 기술은 기공사가 사용하는 반 조절성 교합기를 가상의 교합기로 라이브러리화하여 등록해둔 후 임의의 데이터를 입력하여 조정하는 방식으로 진행된다. 따라서, 종래의 기술은 환자의 정보를 이용하는 것이 아니기 때문에 가상 교합기에서 오차가 발생하는 문제점이 있으며, 또한 교합이 닿은 지점만을 확인할 수 있어 교합의 강도(세기) 등 구체적인 정보를 확인하기 어려운 한계가 있다. 이에 따라, 종래의 기술은 보철물을 디자인하고 교합 조정하는 과정에서 일률적인 보철의 교합 강도(세기)를 맞추기 어려워(특히 Bridge Case), 이로 인해 진료 시간이 길게 소요되어 사용자의 불편함이 증가하는 문제점이 있다.However, in the conventional virtual articulator technology, the semi-adjustable articulator used by the technician is made into a library as a virtual articulator, registered, and then adjusted by inputting arbitrary data. Therefore, since the prior art does not use patient information, there is a problem in that an error occurs in the virtual articulator, and it is difficult to check specific information such as the strength (strength) of the occlusion because only the point where the occlusion touches can be confirmed. . Accordingly, in the prior art, it is difficult to match the uniform occlusal strength (strength) of the prosthesis in the process of designing and adjusting the occlusion of the prosthesis (especially the bridge case). There is this.

이에, 상술한 문제점을 해결하고 환자에 적합한 가상 교합기를 제공하기 위한 기술이 요구되고 있다.Accordingly, there is a need for a technology for solving the above-described problems and providing a virtual articulator suitable for a patient.

본 개시는 가상 교합기를 제공하는 디바이스 및 방법을 제공할 수 있다. 구체적으로, 과두의 움직임에 기초하여 대상체의 움직임을 시뮬레이션하는 가상 교합기를 제공할 수 있는 디바이스 및 방법이 개시된다. 해결하려는 기술적 과제는 상기 기술된 바와 같은 기술적 과제들로 한정되지 않으며, 통상의 기술자에게 자명한 범위 내에서 다양한 기술적 과제들이 더 포함될 수 있다.The present disclosure may provide devices and methods for providing a virtual articulator. Specifically, a device and method capable of providing a virtual articulator that simulates a movement of an object based on movement of a condyle are disclosed. The technical problem to be solved is not limited to the technical problems as described above, and various technical problems may be further included within the scope obvious to those skilled in the art.

본 개시의 제 1 측면에 따른 가상 교합기를 제공하는 방법은 대상체에 대한 CT 데이터 및 스캔 데이터를 정합하여 3D 모델링 이미지를 획득하는 단계; 상기 3D 모델링 이미지에 대한 동적 데이터를 획득하는 단계; 상기 동적 데이터를 이용하여 상기 대상체에 포함된 과두의 움직임을 나타내는 과두 이동 데이터를 획득하는 단계; 및 상기 3D 모델링 이미지 및 상기 과두 이동 데이터에 기초하여 상기 대상체의 움직임을 시뮬레이션하는 가상 교합기를 제공하는 단계;를 포함할 수 있다.A method of providing a virtual articulator according to a first aspect of the present disclosure includes: acquiring a 3D modeling image by matching CT data and scan data of an object; acquiring dynamic data for the 3D modeling image; obtaining condylar movement data representing movement of a condyle included in the object by using the dynamic data; and providing a virtual articulator that simulates the movement of the object based on the 3D modeling image and the condylar movement data.

또한, 상기 과두 이동 데이터는 상기 대상체가 전방 운동 및 측방 운동을 한계 운동의 범위 내에서 수행할 때 상기 과두의 이동 경로를 나타내는 데이터를 포함할 수 있다.In addition, the condylar movement data may include data indicating a movement path of the condyle when the object performs the forward motion and the lateral motion within a limit motion range.

또한, 상기 과두 이동 데이터는 상기 대상체의 전방 운동이 한계 운동의 범위 내에서 수행될 때 획득되는 컨다일러 각도(Condylar Angle)를 포함할 수 있다.Also, the condylar movement data may include a Condylar angle obtained when the forward motion of the object is performed within a limit motion range.

또한, 상기 과두 이동 데이터는 상기 대상체의 측방 운동이 한계 운동의 범위 내에서 수행될 때 획득되는 베넷 각도(Bennet Angle)를 포함할 수 있다.Also, the condylar movement data may include a Bennet angle obtained when the lateral movement of the object is performed within a limit movement range.

또한, 상기 3D 모델링 이미지는 전치부 가상 치아를 포함하고, 상기 전치부 가상 치아의 크기 또는 위치는 교합 상태에서 상악과 하악 간의 거리가 기설정값 범위 내에 포함되도록 결정될 수 있다.In addition, the 3D modeling image may include an anterior virtual tooth, and the size or position of the anterior virtual tooth may be determined such that a distance between the maxilla and the mandible in the occlusion state is included within a preset value range.

또한, 상기 3D 모델링 이미지는 구치부 가상 치아를 포함하고, 상기 구치부 가상 치아의 크기 또는 위치는 교합 상태에서 상악과 하악이 서로 맞닿도록 결정될 수 있다.In addition, the 3D modeling image may include the posterior virtual teeth, and the size or position of the posterior virtual teeth may be determined such that the maxilla and the mandible contact each other in an occlusal state.

또한, 상기 구치부 가상 치아가 교합 상태에서 서로 맞닿을 때 인가되는 힘의 크기는 구치부 실제 치아가 교합 상태에서 서로 맞닿을 때 인가되는 힘의 크기에 대응될 수 있다.Also, the magnitude of the force applied when the posterior virtual teeth abut against each other in the occlusal state may correspond to the magnitude of the force applied when the posterior virtual teeth abut with each other in the occlusal state.

또한, 상기 구치부 가상 치아가 교합 상태에서 서로 맞닿을 때의 상호 접촉 면적은 구치부 실제 치아가 교합 상태에서 서로 맞닿을 때의 상호 접촉 면적에 대응될 수 있다.Also, a mutual contact area when the posterior virtual teeth abut against each other in an occlusal state may correspond to a mutual contact area when the posterior real teeth abut with each other in an occlusal state.

또한, 상기 방법은 상기 구치부 가상 치아에 대한 상황을 케이나인 가이던스(canine guidance) 및 그룹 펑션(group function) 중 하나로 결정하는 단계; 및 결정된 상기 구치부 가상 치아에 대한 상황에 기초하여 상기 구치부 가상 치아의 크기 또는 위치를 결정하는 단계;를 더 포함할 수 있다.In addition, the method includes determining the situation for the posterior virtual tooth as one of canine guidance and a group function; and determining the size or position of the posterior virtual tooth based on the determined situation for the posterior virtual tooth.

본 개시의 제 2 측면에 따른 가상 교합기를 제공하는 디바이스는 대상체에 대한 CT 데이터 및 스캔 데이터를 정합하여 3D 모델링 이미지를 획득하고, 상기 3D 모델링 이미지에 대한 동적 데이터를 획득하고, 상기 동적 데이터를 이용하여 상기 대상체에 포함된 과두의 움직임을 나타내는 과두 이동 데이터를 획득하고, 상기 3D 모델링 이미지 및 상기 과두 이동 데이터에 기초하여 상기 대상체의 움직임을 시뮬레이션하는 가상 교합기를 제공하는 프로세서; 및 상기 CT 데이터 및 스캔 데이터를 저장하는 메모리;를 포함할 수 있다.A device for providing a virtual articulator according to the second aspect of the present disclosure obtains a 3D modeling image by matching CT data and scan data of an object, obtains dynamic data for the 3D modeling image, and uses the dynamic data a processor for obtaining condylar movement data representing movement of the condyle included in the object and providing a virtual articulator that simulates movement of the object based on the 3D modeling image and the condylar movement data; and a memory for storing the CT data and the scan data.

또한, 상기 과두 이동 데이터는 상기 대상체가 전방 운동 및 측방 운동을 한계 운동의 범위 내에서 수행할 때 상기 과두의 이동 경로를 나타내는 데이터를 포함하는, 디바이스.The device, wherein the condylar movement data includes data indicating a movement path of the condyle when the object performs an anterior movement and a lateral movement within a limit movement range.

또한, 상기 과두 이동 데이터는 상기 대상체의 전방 운동이 한계 운동의 범위 내에서 수행될 때 획득되는 컨다일러 각도(Condylar Angle)를 포함할 수 있다.Also, the condylar movement data may include a Condylar angle obtained when the forward motion of the object is performed within a limit motion range.

또한, 상기 과두 이동 데이터는 상기 대상체의 측방 운동이 한계 운동의 범위 내에서 수행될 때 획득되는 베넷 각도(Bennet Angle)를 포함할 수 있다.Also, the condylar movement data may include a Bennet angle obtained when the lateral movement of the object is performed within a limit movement range.

또한, 상기 3D 모델링 이미지는 전치부 가상 치아를 포함하고, 상기 전치부 가상 치아의 크기 또는 위치는 교합 상태에서 상악과 하악 간의 거리가 기설정값 범위 내에 포함되도록 결정될 수 있다.In addition, the 3D modeling image may include an anterior virtual tooth, and the size or position of the anterior virtual tooth may be determined such that a distance between the maxilla and the mandible in the occlusion state is included within a preset value range.

또한, 상기 3D 모델링 이미지는 구치부 가상 치아를 포함하고, 상기 구치부 가상 치아의 크기 또는 위치는 교합 상태에서 상악과 하악이 서로 맞닿도록 결정될 수 있다.In addition, the 3D modeling image may include the posterior virtual teeth, and the size or position of the posterior virtual teeth may be determined such that the maxilla and the mandible contact each other in an occlusal state.

본 개시의 제 3 측면은 제 1 측면에 따른 방법을 컴퓨터에서 실행시키기 위한 프로그램을 기록한 컴퓨터로 읽을 수 있는 기록매체를 제공할 수 있다. 또는, 본 개시의 제 4 측면은 제 1 측면에 따른 방법을 구현하기 위하여 기록매체에 저장된 컴퓨터 프로그램을 제공할 수 있다.A third aspect of the present disclosure may provide a computer-readable recording medium recording a program for executing the method according to the first aspect on a computer. Alternatively, the fourth aspect of the present disclosure may provide a computer program stored in a recording medium to implement the method according to the first aspect.

일 실시 예에 따르면, 치아가 교합 상태일 때 및 치아가 한계 운동 상황일 때의 정보를 이용하여 과두의 이동 경로를 그대로 재현해낼 수 있는 가상 교합기를 제공할 수 있다.According to an embodiment, it is possible to provide a virtual articulator capable of reproducing the movement path of the condyle as it is by using information when the teeth are in an occlusal state and when the teeth are in a limiting motion state.

또한, 종래에는 특정 수치를 입력하는 방식으로 보정하여 가상 교합기를 구현하였으나, 본 발명의 일 실시 예에 따르면, 미세한 이동 중 움직임의 변화까지도 반영하여 과두의 이동 경로를 그대로 재현하는 가상 교합기를 제공할 수 있다.In addition, in the prior art, a virtual articulator was implemented by correcting a specific numerical value. However, according to an embodiment of the present invention, it is possible to provide a virtual articulator that reproduces the movement path of the condyle as it is by reflecting even a change in movement during minute movement. can

또한, 과두의 이동 경로를 재현하는 가상 교합기를 바탕으로 가상 치아를 3D 모델링 이미지 상에 배치 및 보정하여 가상 치아를 정교하게 3D 모델링할 수 있다.In addition, it is possible to precisely 3D model the virtual teeth by placing and correcting the virtual teeth on the 3D modeling image based on the virtual articulator that reproduces the movement path of the condyle.

본 개시의 효과는 상기한 효과로 한정되는 것은 아니며, 본 개시의 상세한 설명 또는 특허청구범위에 기재된 발명의 구성으로부터 추론 가능한 모든 효과를 포함하는 것으로 이해되어야 한다.The effect of the present disclosure is not limited to the above effect, but it should be understood to include all effects inferred from the configuration of the invention described in the detailed description or claims of the present disclosure.

도 1은 일 실시 예에 따른 디바이스의 구성의 일 예를 나타내는 개략적인 도면이다.
도 2는 일 실시 예에 따른 디바이스가 가상 교합기를 제공하는 방법을 나타내는 흐름도이다.
도 3은 일 실시 예에 따른 디바이스가 CT 데이터 및 스캔 데이터를 획득하는 동작을 설명하기 위한 도면이다.
도 4 및 도 5는 일 실시 예에 따른 디바이스가 대상체에 대한 정적 데이터 및 동적 데이터를 획득하는 동작을 각각 설명하기 위한 도면이다.
도 6 내지 도 8은 일 실시 예에 따른 디바이스가 동적 데이터를 이용하여 CT 데이터와 스캔 데이터가 정합된 3D 모델링 이미지를 갱신하는 동작을 설명하기 위한 도면들이다.
도 9 내지 도 15는 일 실시 예에 따른 디바이스가 3D 모델링 이미지로부터 및 동적 데이터에 기초하여 과두 이동 데이터를 획득하는 동작을 설명하기 위한 도면들이다.
도 16 내지 도 17은 좌측방 운동 시 사용자에게 제공되는 작업측에서의 디스플레이 화면 및 균형측에서의 디스플레이 화면을 각각 나타낸다.
도 18은 전방 운동 시 사용자에게 제공되는 디스플레이 화면을 나타낸다.
도 19 내지 도 20은 일 실시 예에 따른 디바이스가 가상 교합기를 통한 시뮬레이션 결과에 기초하여 교합 상태에서 상악과 하악 간의 거리에 대한 정보를 제공하는 동작을 설명하기 위한 도면이다.
도 21 내지 도 22는 일 실시 예에 따른 디바이스가 가상 교합기에 기초하여 전치부 가상 치아를 결정하는 동작을 설명하기 위한 도면이다.
도 23 내지 도 24는 일 실시 예에 따른 디바이스가 가상 교합기에 기초하여 구치부 가상 치아를 결정하는 동작을 설명하기 위한 도면이다.
도 25는 일 실시 예에 따른 디바이스가 구치부 가상 치아에 대한 상황을 케이나인 가이던스 및 그룹 펑션 중 하나로 결정하는 동작을 설명하기 위한 도면이다.
도 26은 일 실시 예에 따른 디바이스가 가상 교합기를 제공하는 방법의 일 예를 설명하기 위한 흐름도이다.
1 is a schematic diagram illustrating an example of a configuration of a device according to an embodiment.
2 is a flowchart illustrating a method for a device to provide a virtual articulator according to an embodiment.
3 is a diagram for describing an operation in which a device acquires CT data and scan data, according to an exemplary embodiment.
4 and 5 are diagrams for explaining an operation in which a device acquires static data and dynamic data on an object, respectively, according to an exemplary embodiment.
6 to 8 are diagrams for explaining an operation in which a device uses dynamic data to update a 3D modeling image in which CT data and scan data are matched, according to an exemplary embodiment.
9 to 15 are diagrams for explaining an operation in which a device acquires condylar movement data from a 3D modeling image and based on dynamic data, according to an exemplary embodiment.
16 to 17 respectively show a display screen on the working side and a display screen on the balance side provided to the user during leftward movement.
18 shows a display screen provided to a user during a forward movement.
19 to 20 are diagrams for explaining an operation in which the device provides information on the distance between the maxilla and the mandible in an occlusal state based on a simulation result through a virtual articulator, according to an embodiment.
21 to 22 are diagrams for explaining an operation in which a device determines an anterior virtual tooth based on a virtual articulator, according to an exemplary embodiment.
23 to 24 are diagrams for explaining an operation of determining, by a device, a virtual posterior tooth based on a virtual articulator, according to an exemplary embodiment.
25 is a diagram for explaining an operation in which a device determines a situation for a posterior virtual tooth as one of K-Nine guidance and a group function, according to an embodiment.
26 is a flowchart illustrating an example of a method for a device to provide a virtual articulator according to an embodiment.

실시 예들에서 사용되는 용어는 본 개시에서의 기능을 고려하면서 가능한 현재 널리 사용되는 일반적인 용어들을 선택하였으나, 이는 당 분야에 종사하는 기술자의 의도 또는 판례, 새로운 기술의 출현 등에 따라 달라질 수 있다. 또한, 특정한 경우는 출원인이 임의로 선정한 용어도 있으며, 이 경우 해당되는 발명의 설명 부분에서 상세히 그 의미를 기재할 것이다. 따라서 본 개시에서 사용되는 용어는 단순한 용어의 명칭이 아닌, 그 용어가 가지는 의미와 본 개시의 전반에 걸친 내용을 토대로 정의되어야 한다.Terms used in the embodiments are selected as currently widely used general terms as possible while considering functions in the present disclosure, but may vary according to intentions or precedents of those of ordinary skill in the art, emergence of new technologies, and the like. In addition, in a specific case, there is a term arbitrarily selected by the applicant, and in this case, the meaning will be described in detail in the description of the corresponding invention. Therefore, the terms used in the present disclosure should be defined based on the meaning of the term and the contents of the present disclosure, rather than the simple name of the term.

명세서 전체에서 어떤 부분이 어떤 구성요소를 “포함”한다고 할 때, 이는 특별히 반대되는 기재가 없는 한 다른 구성요소를 제외하는 것이 아니라 다른 구성요소를 더 포함할 수 있음을 의미한다. 또한, 명세서에 기재된 “…부”, “…모듈” 등의 용어는 적어도 하나의 기능이나 동작을 처리하는 단위를 의미하며, 이는 하드웨어 또는 소프트웨어로 구현되거나 하드웨어와 소프트웨어의 결합으로 구현될 수 있다.In the entire specification, when a part “includes” a certain element, it means that other elements may be further included, rather than excluding other elements, unless otherwise stated. In addition, the “… wealth", "… The term “module” means a unit that processes at least one function or operation, which may be implemented as hardware or software, or a combination of hardware and software.

아래에서는 첨부한 도면을 참고하여 본 개시의 실시 예에 대하여 본 개시가 속하는 기술 분야에서 통상의 지식을 가진 자가 용이하게 실시할 수 있도록 상세히 설명한다. 그러나 본 개시는 여러 가지 상이한 형태로 구현될 수 있으며 여기에서 설명하는 실시 예에 한정되지 않는다.Hereinafter, embodiments of the present disclosure will be described in detail with reference to the accompanying drawings so that those of ordinary skill in the art to which the present disclosure pertains can easily implement them. However, the present disclosure may be implemented in several different forms and is not limited to the embodiments described herein.

이하에서는 도면을 참조하여 본 개시의 실시 예들을 상세히 설명한다.Hereinafter, embodiments of the present disclosure will be described in detail with reference to the drawings.

도 1은 일 실시 예에 따른 디바이스(100)의 구성의 일 예를 나타내는 개략적인 도면이고, 도 2는 일 실시 예에 따른 디바이스(100)가 가상 교합기를 제공하는 방법을 나타내는 흐름도이다.1 is a schematic diagram illustrating an example of a configuration of a device 100 according to an embodiment, and FIG. 2 is a flowchart illustrating a method of providing a virtual articulator by the device 100 according to an embodiment.

도 1 내지 도 2를 참조하면, 일 실시 예에 따른 디바이스(100)는 프로세서(110) 및 메모리(120)를 포함할 수 있다.1 to 2 , a device 100 according to an embodiment may include a processor 110 and a memory 120 .

단계 S210에서 프로세서(110)는 대상체에 대한 CT 데이터 및 스캔 데이터를 정합하여 3D 모델링 이미지를 획득할 수 있다. 예를 들면, 프로세서(110)는 대상체(예: 환자)의 구강에 대하여 CT 데이터 및 스캔 데이터 각각을 촬영, 스캔, 메모리 또는 통신 장치를 통해 획득할 수 있고, 기저장된 정합 알고리즘에 따라 CT 데이터 및 스캔 데이터 중 기설정된 어느 하나를 기준으로 다른 하나를 정합하여 3D 모델링 이미지를 생성할 수 있다.In operation S210, the processor 110 may obtain a 3D modeling image by matching the CT data and the scan data of the object. For example, the processor 110 may acquire CT data and scan data of the oral cavity of an object (eg, a patient) through photographing, scanning, memory, or a communication device, and according to a pre-stored registration algorithm, CT data and A 3D modeling image may be generated by matching the other one of the scan data based on one preset one.

일 실시 예에서, CT 데이터는 대상체(예: 환자)의 구강을 분석하기 위해 촬영된 다차원의 이미지 데이터를 포함할 수 있고(도 3(a) 참조), 예를 들면, 3차원 CT(Computed Tomography) 영상일 수 있으나, 이에 제한되는 것은 아니며, 다른 예를 들면, DICOM(Digital Imaging and COmmunications in Medicine) 디지털 영상과 같이 다양한 유형의 의료 영상을 포함할 수 있고, 환자에 대한 의료 영상을 획득한 후 구강 부분을 이용할 수 있다. 이처럼, 본 개시의 기술적 범위는 특정 유형의 의료 영상에 한정되지 않는다.In an embodiment, the CT data may include multidimensional image data taken to analyze the oral cavity of a subject (eg, a patient) (refer to FIG. 3A ), for example, 3D computed tomography (CT). ) image, but is not limited thereto, and may include various types of medical images such as, for example, DICOM (Digital Imaging and Communications in Medicine) digital images, and after obtaining a medical image of a patient The oral part may be used. As such, the technical scope of the present disclosure is not limited to a specific type of medical image.

일 실시 예에서, 스캔 데이터는 대상체(예: 환자)의 구강에 대한 3차원 입체 정보를 포함하고(도 3(b) 참조), 예를 들면, 구강 스캐너를 이용하여 디지털 스캐닝 방식으로 상악과 하악에 대해 획득한 구강 스캔 데이터일 수 있고, 다른 예를 들면, 인상재를 이용하여 인상을 채득한 뒤 인상체를 스캔한 데이터 또는 인상체에 석고를 부어 석고 모형을 제작한 다음 석고 모형을 스캔한 데이터일 수 있다(예: surface data).In an embodiment, the scan data includes 3D stereoscopic information about the oral cavity of the object (eg, a patient) (see FIG. 3( b )), and for example, the maxilla and the mandible in a digital scanning method using an oral scanner. It may be oral scan data acquired for can be (eg surface data).

일 실시 예에서, 3D 모델링 이미지는 CT 데이터와 스캔 데이터의 정합에 따라 획득되는 대상체(예: 환자)의 구강에 대한 3D 모델링 데이터를 포함할 수 있고, 명세서 전반에서 특정 뷰(예: Axial View, Cross View, Coronal View 등)를 기준으로 추출 또는 가공되는 하나 이상의 단면 이미지를 포괄하는 개념으로 이해될 수 있다.In an embodiment, the 3D modeling image may include 3D modeling data for the oral cavity of an object (eg, a patient) obtained according to the registration of CT data and scan data, and a specific view (eg, Axial View, It can be understood as a concept encompassing one or more cross-sectional images that are extracted or processed based on Cross View, Coronal View, etc.).

일 실시 예에서, 프로세서(110)는 CT 데이터와 스캔 데이터 각각에서 획득된 레진 마커에 기초하여 CT 데이터와 스캔 데이터를 정합할 수 있고, 예를 들면, CT 데이터와 스캔 데이터를 각각 분석하여 기설정된 기준 치아(예: 우각 부위, 전치와 양 구치 등)를 기준으로 복수개(예: 3개)의 레진 마커를 생성하거나 또는 사용자 입력을 통해 레진 마커를 생성하고, 레진 마커를 기준으로 좌표 정보가 서로 상이한 CT 데이터와 스캔 데이터를 정합할 수 있다.In an embodiment, the processor 110 may match the CT data and the scan data based on a resin marker obtained from each of the CT data and the scan data, for example, by analyzing the CT data and the scan data, respectively. A plurality of (eg, 3) resin markers are created based on a reference tooth (eg, right corner region, anterior and both molars, etc.) or a resin marker is created through user input, and coordinate information is mutually Different CT data and scan data can be matched.

단계 S220에서 프로세서(110)는 3D 모델링 이미지에 대한 동적 데이터를 획득할 수 있다. 이에 관한 내용은 도 4 및 도 5를 더 참조하여 서술하도록 한다.In step S220, the processor 110 may acquire dynamic data for the 3D modeling image. This will be described with further reference to FIGS. 4 and 5 .

도 4 및 도 5는 일 실시 예에 따른 디바이스(100)가 대상체에 대한 정적 데이터 및 동적 데이터를 획득하는 동작을 각각 설명하기 위한 도면이다.4 and 5 are diagrams for explaining an operation in which the device 100 acquires static data and dynamic data of an object, respectively, according to an exemplary embodiment.

도 4를 참조하면, 프로세서(110)는 대상체에 대한 정적 데이터를 획득할 수 있고, 예를 들면, 정적인 교합 상태에 있는 대상체(예: 환자)의 구강을 스캔하거나 환자의 치아를 본 떠 가공된 인공치아 구조물(예: 인공 상악, 인공 하악)의 교합 상태를 촬영하여 정적 데이터를 획득할 수 있다.Referring to FIG. 4 , the processor 110 may acquire static data about the object, and for example, scan the oral cavity of the object (eg, patient) in a static occlusion state or process the patient's teeth by imitation of the patient's teeth. Static data can be obtained by photographing the occlusal state of artificial tooth structures (eg, artificial maxilla, artificial mandible).

일 실시 예에서, 정적 데이터는 정적인 교합 데이터를 나타내고, 예를 들면, 환자가 입을 다문 상태에서 상악 치아와 하악 치아가 맞닿는 정적인 교합 상태를 기록한 데이터를 포함할 수 있다.In an embodiment, the static data represents static occlusion data, and for example, may include data recording a static occlusion state in which the maxillary and mandibular teeth are in contact with the patient's mouth closed.

도 5를 참조하면, 프로세서(110)는 대상체에 대한 동적 데이터를 획득할 수 있고, 예를 들면, 사진 촬영 방식 및 동영상 촬영 방식을 적어도 하나를 이용하여 대상체(예: 환자)의 구강 내 움직임을 촬영하여 동적 데이터를 획득할 수 있다.Referring to FIG. 5 , the processor 110 may acquire dynamic data on the object, and for example, the intraoral movement of the object (eg, a patient) using at least one of a photographing method and a video recording method. Dynamic data can be obtained by photographing.

일 실시 예에서, 동적 데이터는 동적인 교합 데이터를 나타내고, 교합 상태를 기준으로 대상체(예: 환자)의 구강에 대한 전방 움직임(도 5(a) 참조), 좌측 움직임(도 5(b) 참조) 및 우측 움직임(도 5(c) 참조) 중 적어도 하나를 포함할 수 있으며, 예를 들면, 환자가 전방, 좌측방, 우측방으로 각각 움직였을 때 상악 치아와 하악 치아가 맞닿는 순간과 맞닿지 않는 순간을 기록한 데이터를 포함할 수 있다. 일 실시 예에서, 전방 움직임, 좌측 움직임 및 우측 움직임 각각은 한계 운동의 범위 내에서 수행될 수 있다.In an embodiment, the dynamic data represents dynamic occlusal data, and based on the occlusal state, a forward movement (refer to FIG. 5(a) ) and a leftward movement (refer to FIG. 5(b) for an oral cavity of a subject (eg, a patient)) ) and rightward movement (see Fig. 5(c)), for example, when the patient moves forward, leftward, and rightward, respectively, the maxillary and mandibular teeth do not come into contact with each other. It may include data recording the moment. In an embodiment, each of the forward movement, the left movement, and the right movement may be performed within the range of the limit movement.

단계 S230에서 프로세서(110)는 동적 데이터를 이용하여 대상체에 포함된 과두의 움직임을 나타내는 과두 이동 데이터를 획득할 수 있다. 일 실시 예에서, 과두 이동 데이터는 대상체가 전방 운동 및 측방 운동을 한계 운동의 범위 내에서 수행할 때 과두의 이동 경로를 나타내는 데이터를 포함할 수 있다In operation S230 , the processor 110 may obtain condylar movement data indicating movement of the condyle included in the object by using the dynamic data. In an embodiment, the condylar movement data may include data indicating a movement path of the condyle when the object performs an anterior movement and a lateral movement within a limit movement range.

이하, 도 6 내지 도 15를 참조하여 단계 S230에 관한 다양한 실시 예들에 관해 보다 상세하게 서술하도록 한다.Hereinafter, various embodiments of step S230 will be described in more detail with reference to FIGS. 6 to 15 .

도 6 내지 도 8은 일 실시 예에 따른 디바이스(100)가 동적 데이터를 이용하여 CT 데이터와 스캔 데이터가 정합된 3D 모델링 이미지를 갱신하는 동작을 설명하기 위한 도면들이다.6 to 8 are diagrams for explaining an operation in which the device 100 updates a 3D modeling image in which CT data and scan data are matched using dynamic data, according to an exemplary embodiment.

도 6 내지 도 8을 참조하면, 프로세서(110)는 CT 데이터와 스캔 데이터가 정합된 3D 모델링 이미지에 동적 데이터를 정합하여 3D 모델링 이미지를 갱신하고, 갱신된 3D 모델링 이미지에서 과두의 움직임을 분석하여 과두 이동 데이터를 획득할 수 있다. 예를 들면, 프로세서(110)는 사용자에 의해 치아를 기준으로 설정된 특정 개수(예: 3개)의 포인트(예: 전치, 양 구치)(식별번호 610 참조)를 이용하여, 전방 움직임의 동적 데이터(도 6(b) 참조)를 3D 모델링 이미지에 정합하고(도 6(a) 참조), 좌측 움직임의 동적 데이터(도 7(b) 참조)를 3D 모델링 이미지에 정합하고(도 7(a) 참조), 우측 움직임의 동적 데이터(도 8(b) 참조)를 3D 모델링 이미지에 정합하여(도 8(a) 참조), 3D 모델링 이미지와 동적 데이터의 정합을 완료할 수 있다.6 to 8, the processor 110 updates the 3D modeling image by matching the dynamic data to the 3D modeling image to which the CT data and the scan data are matched, and analyzes the movement of the condyle in the updated 3D modeling image. Condylar movement data may be obtained. For example, the processor 110 uses a specific number (eg, three) of points (eg, anterior teeth, both molars) (eg, anterior teeth, both molars) set by the user based on the teeth (see identification number 610), dynamic data of forward movement (see Fig. 6(b)) is registered to the 3D modeling image (see Fig. 6(a)), and the dynamic data of the left movement (see Fig. 7(b)) is registered to the 3D modeling image (Fig. 7(a)) refer), by registering the dynamic data of the right movement (refer to FIG. 8(b)) to the 3D modeling image (refer to FIG. 8(a)), it is possible to complete the registration of the 3D modeling image and the dynamic data.

도 9 내지 도 15는 일 실시 예에 따른 디바이스(100)가 3D 모델링 이미지로부터 및 동적 데이터에 기초하여 과두 이동 데이터를 획득하는 동작을 설명하기 위한 도면들이다.9 to 15 are diagrams for explaining an operation in which the device 100 acquires condylar movement data from a 3D modeling image and based on dynamic data, according to an exemplary embodiment.

도 9를 참조하면, 프로세서(110)는 3D 모델링 이미지에서 하악두의 내측골(Medial Pole)(910), 하악두의 외측골(Lateral Pole)(920) 및 하악두의 최상방(930)에 기초하여, 과두의 이동 경로의 획득을 위한 기준점을 나타내는 과두의 중심 위치(940)를 결정하고, 결정된 과두의 중심 위치(940)를 기준으로 과두의 움직임을 분석하여 과두 이동 데이터를 획득할 수 있다. 예를 들면, Coronal View의 3D 모델링 이미지를 분석하여 하악두 상에서 변곡점을 검출하여 하악두의 내측골(910), 하악두의 외측골(920) 및 하악두의 최상방(930)을 추출하고, 하악두의 내측골(910)과 하악두의 외측골(920)을 수평으로 연결한 제 1 직선과 하악두의 최상방(930)에서 수직으로 연장한 제 2 직선을 결정하고, 제 1 직선과 제 2 직선이 만나는 지점을 과두의 중심 위치(940)로 결정할 수 있으며, 또한, 하악두의 내측골(910), 하악두의 외측골(920) 및 하악두의 최상방(930)을 모두 기준점으로 결정할 수도 있다.Referring to FIG. 9 , the processor 110 is based on the medial pole 910 of the mandible, the lateral pole 920 of the mandible and the uppermost 930 of the mandible in the 3D modeling image. Thus, the condylar movement data can be obtained by determining the central position 940 of the condyle indicating a reference point for acquiring the movement path of the condyle, and analyzing the movement of the condyle based on the determined central position 940 of the condyle. For example, by analyzing the 3D modeling image of Coronal View to detect an inflection point on the mandible, the medial bone 910 of the mandible, the lateral bone 920 of the mandible, and the uppermost part 930 of the mandible are extracted, and the mandible A first straight line connecting the medial bone 910 of the head and the lateral bone 920 of the mandibular head horizontally and a second straight line extending vertically from the uppermost part 930 of the mandible are determined, and the first straight line and the second straight line are determined. The point where the straight lines meet may be determined as the central position 940 of the condyle, and the medial bone 910 of the mandible, the lateral bone 920 of the mandible, and the uppermost portion 930 of the mandible may all be determined as reference points. have.

도 10을 참조하면, 과두 이동 데이터는 대상체의 전방 운동이 한계 운동의 범위 내에서 수행될 때 획득되는 컨다일러 각도(Condylar Angle)(1030)를 포함할 수 있다. 도 10에서, 제 1 기준면(1010)은 각도 측정을 위한 기준면으로서(예: FH Plane) 사용자에 의해 설정될 수 있고, 제 2 기준면(1020)은 과두의 움직임 분석에 따라 결정되는 기준면으로서 전방 운동 전 과두의 중심 위치(940)인 제 1 지점(940a)과 전방 운동 후 과두의 중심 위치(940)인 제 2 지점(940b)을 연결하여 획득될 수 있다. 또한, 컨다일러 각도(1030)는 대상체의 전방 운동 시 과두가 움직일 수 있는 한계 각도를 나타내고, 예를 들면, 환자가 최대한 턱을 앞으로 밀었을 때 측정되는 제 1 기준면(1010)과 제 2 기준면(1020) 간의 기울기일 수 있다. 또한, 컨다일러 경로(1040)는 대상체의 전방 운동 시 과두의 중심이 움직인 거리를 나타내고, 예를 들면, 교합 상태에서 과두의 중심인 제 1 지점(940a)에서 전방 한계 운동 시 과두의 중심인 제 2 지점(940b)으로 이동한 궤적일 수 있다.Referring to FIG. 10 , the condylar movement data may include a Condylar angle 1030 obtained when the forward motion of the object is performed within a limit motion range. In FIG. 10 , a first reference plane 1010 may be set by a user as a reference plane for measuring an angle (eg, FH Plane), and the second reference plane 1020 is a reference plane determined according to motion analysis of the condyle, and the forward motion It may be obtained by connecting the first point 940a which is the central position 940 of the anterior condyle and the second point 940b which is the central position 940 of the condyle after the anterior movement. In addition, the condylar angle 1030 represents the limit angle at which the condyle can move during the forward movement of the object, for example, the first reference plane 1010 and the second reference plane ( 1020) may be a slope between In addition, the condylar path 1040 indicates the distance the center of the condyle moves during the forward movement of the object, and for example, at the first point 940a, which is the center of the condyle in the occlusal state, is the center of the condyle during the forward limiting motion. It may be a trajectory moved to the second point 940b.

일 실시 예에서, 프로세서(110)는 3D 모델링 이미지 상에 나타나는 대상체(예: 환자)의 정적인 상태에서의 과두의 중심인 제 1 지점(940a)을 기준으로 전방 운동 시 한계 운동 지점에서의 과두의 중심인 제 2 지점(940b)을 연결한 선에 기초하여 전방 운동 시의 컨다일러 각도(1030) 및 컨다일러 경로(1040)를 획득할 수 있으며, 이에 관한 구체적인 실시 예는 다음과 같다.In an embodiment, the processor 110 performs a forward motion based on the first point 940a, which is the center of the condyle in a static state of an object (eg, a patient) displayed on the 3D modeling image, the condyle at the limiting motion point. Based on the line connecting the second point 940b, which is the center of , the condylor angle 1030 and the condylor path 1040 during the forward movement may be obtained, and specific examples thereof are as follows.

먼저, 도 11을 참조하면, 프로세서(110)는 Coronal View의 3D 모델링 이미지 상에서 외이도 상연(1110) 및 안와 하연(1120)에 대한 사용자의 선택 입력을 수신할 수 있는 사용자 인터페이스를 제공하고, 사용자의 선택 입력에 따라 결정되는 외이도 상연(1110)과 안와 하연(1120)을 연결한 평면을 제 1 기준면(1010)으로 설정할 수 있다.First, referring to FIG. 11 , the processor 110 provides a user interface capable of receiving a user's selection input for the upper ear canal 1110 and the lower orbital edge 1120 on the 3D modeling image of Coronal View, and the user's A plane connecting the upper edge 1110 of the external auditory meatus and the lower edge 1120 of the orbit determined according to the selection input may be set as the first reference plane 1010 .

다음, 도 12를 참조하면, 프로세서(110)는 Coronal view의 3D 모델링 이미지 상에서 변곡점을 검출하여 하악와의 최상방(1210) 및 관절 융기의 최하방(1220)을 결정하거나, 또는, Coronal View의 3D 모델링 이미지 상에서 하악와의 최상방(1210) 및 관절 융기의 최하방(1220)에 대한 사용자의 선택 입력을 수신할 수 있는 사용자 인터페이스를 제공하여 사용자의 선택 입력에 따라 하악와의 최상방(1210) 및 관절 융기의 최하방(1220)을 결정할 수 있으며, 결정된 하악와의 최상방(1210)과 관절 융기의 최하방(1220)을 연결한 평면을 제 2 기준면(1020)으로 설정할 수 있다.Next, referring to FIG. 12 , the processor 110 detects an inflection point on the 3D modeling image of the Coronal view to determine the uppermost portion 1210 of the mandibular fossa and the lowermost portion 1220 of the articular elevation, or 3D modeling of the Coronal View A user interface capable of receiving a user's selection input for the uppermost part of the mandible 1210 and the lowermost part of the articular elevation 1220 on the image is provided, and the uppermost part of the mandible 1210 and the lowest part of the joint elevation are provided according to the user's selection input. The chamber 1220 may be determined, and a plane connecting the determined uppermost portion 1210 of the mandibular fossa and the lowermost portion 1220 of the joint ridge may be set as the second reference plane 1020 .

그 다음, 프로세서(110)는 제 1 기준면(1010) 및 제 2 기준면(1020)을 연결하여 컨다일러 각도(1030)를 결정할 수 있으며, 이에 따라, 획득한 전방 움직임의 동적 데이터에 대하여 한계 운동의 범위까지 운동로를 나타내는 컨다일러 경로(1040)를 재현할 수 있다. 그러나, 이러한 운동로는 사용자 또는 잔존 치아의 상태(예: 상악 전치부의 절단면과 하악 전치부의 절단면이 맞물리는 지점까지)에 의해 운동로를 제한할 수 있으며, 일 실시 예에서, 전방 운동에 대하여 기설정 복수개의 구간 별로(예: 0.5mm 단위) 운동로를 구획한 컨트롤 포인트를 제공하여 컨트롤 포인트에 대한 사용자의 수정 입력에 따라 운동로를 제한할 수 있다.Then, the processor 110 may determine the condylor angle 1030 by connecting the first reference plane 1010 and the second reference plane 1020, and accordingly, with respect to the acquired dynamic data of the forward movement, It is possible to reproduce the condyler path 1040 representing the motion path to the extent. However, such a movement path may be limited by the user or the state of the remaining teeth (eg, up to the point where the cut surface of the maxillary anterior part and the cut surface of the mandibular anterior part engage), and in one embodiment, By providing a control point that divides the motion path for each of the plurality of sections (eg, 0.5 mm units) to set, the motion path can be limited according to a user's correction input for the control point.

도 13 내지 도 15를 참조하면, 과두 이동 데이터는 대상체의 측방 운동이 한계 운동의 범위 내에서 수행될 때 획득되는 베넷 각도(Bennet Angle)(1310)를 포함할 수 있다. 도 13 내지 도 15에서, 베넷 각도(1310)는 대상체의 측방 운동 시 과두가 움직일 수 있는 한계 각도를 나타내고, 예를 들면, 환자가 최대한 턱을 옆으로 틀었을 때 측정되는 각도일 수 있다. 또한, 베넷 경로(1320)는 대상체의 측방 운동 시 과두가 움직인 거리를 나타낸다.13 to 15 , the condylar movement data may include a Bennet angle 1310 obtained when a lateral motion of the object is performed within a limit motion range. 13 to 15 , the Bennett angle 1310 represents a limit angle at which the condyle can move during lateral movement of the object, and may be, for example, an angle measured when the patient turns the chin to the side as much as possible. Also, the Bennett path 1320 represents a distance moved by the condyle during the lateral motion of the object.

일 실시 예에서, 프로세서(110)는 3D 모델링 이미지 상에 나타나는 대상체(예: 환자)의 정적인 상태에서의 과두의 중심을 기준으로 측방 운동 시 한계 운동 지점에서의 과두의 중심을 연결한 선에 기초하여 측방 운동 시의 베넷 각도(1310) 및 베넷 경로(1320)를 획득할 수 있으며, 이에 관한 구체적인 실시 예는 다음과 같다.In one embodiment, the processor 110 is a line connecting the center of the condyle at the limiting motion point during lateral movement based on the center of the condyle in a static state of the object (eg, patient) appearing on the 3D modeling image. Based on the lateral motion, the Bennett angle 1310 and the Bennett path 1320 may be obtained, and a specific embodiment thereof is as follows.

먼저, 프로세서(110)는 각도 측정을 위한 기준면으로서 제 1 기준면(1010)을 획득할 수 있고, 컨다일러 각도(1030)의 획득 시에 결정된 제 1 기준면(1010)을 그대로 이용할 수 있다.First, the processor 110 may obtain the first reference surface 1010 as a reference surface for measuring the angle, and may use the first reference surface 1010 determined when the condylor angle 1030 is obtained as it is.

다음, 프로세서(110)는 제 1 기준면(1010)에 평행한 제 3 기준면(1330)을 획득하고, 제 3 기준면(1330)에서 운동 방향의 반대측(비작업측)에 있는 과두의 움직임을 분석하여 이동 거리 및 각도를 획득할 수 있다. 예를 들면, 좌측방 운동을 예시한 도 13에 도시된 것처럼, FH Plane인 제 1 기준면(1010)을 기준으로 평행하게 자른 Axial Plane인 제 3 기준면(1330)에서 좌측방 운동의 진행 방향의 반대측인 우측(식별번호 1340 참조)에 위치한 과두의 중심 위치(940)가 좌측방 운동에 따라 움직인 한계 운동 거리와 각도를 측정할 수 있다. 다른 예를 들면, 우측방 운동을 예시한 도 14에 도시된 것처럼, 제 1 기준면(1010)을 기준으로 평행하게 자른 제 3 기준면(1330)에서 우측방 운동의 진행 방향의 반대측인 좌측(식별번호 1410 참조)에 위치한 과두의 중심 위치(940)가 우측방 운동에 따라 움직인 한계 운동 거리와 각도를 측정할 수 있다. 또 다른 예를 들면, 도 15에 도시된 것처럼, FH Plane인 제 1 기준면(1010)을 기준으로 평행하게 자른 Axial Plane인 제 3 기준면(1330)에서 과두를 중심으로 Sagittal Plane인 제 4 기준면(1510)에서의 움직인 거리와 각도를 측정할 수 있다.Next, the processor 110 acquires a third reference plane 1330 parallel to the first reference plane 1010, and analyzes the movement of the condyle on the opposite side (non-working side) of the movement direction in the third reference plane 1330, The movement distance and angle can be obtained. For example, as shown in FIG. 13 exemplifying the leftward motion, the third reference plane 1330 that is an axial plane cut in parallel with respect to the first reference plane 1010 that is the FH plane is on the opposite side of the progress direction of the leftward motion. It is possible to measure the limit motion distance and angle of the condylar center position 940 located on the right side (refer to identification number 1340) moved according to the leftward motion. As another example, as shown in FIG. 14 illustrating a rightward movement, the left side (identification number) on the opposite side of the proceeding direction of the rightward movement in the third reference plane 1330 cut in parallel with respect to the first reference plane 1010 1410), the central position 940 of the condyle may measure the limit movement distance and angle moved according to the rightward movement. For another example, as shown in FIG. 15 , the fourth reference plane 1510 which is a sagittal plane with the center of the condyle in the third reference plane 1330 which is an axial plane cut in parallel with respect to the first reference plane 1010 which is the FH plane. ) can measure the distance and angle moved.

이에 따라, 프로세서(110)는 획득한 측방 움직임의 동적 데이터에 대하여 한계 운동의 범위까지 운동로를 재현할 수 있다. 그러나, 이러한 운동로는 사용자 또는 잔존 치아의 상태(예: 상악 협측 교두와 하악 협측 교두가 만나는 점까지, 또는 상악 설측 교두와 하악 협측 교두가 만나는 점까지)에 의해 운동로를 제한할 수 있으며, 일 실시 예에서, 좌 측방 운동 또는 우 측방 운동에서 기설정 복수개의 구간 별로(예: 0.5mm 단위) 운동로를 컨트롤 포인트를 제공하여 컨트롤 포인트에 대한 사용자의 수정 입력에 따라 운동로를 제한할 수 있다.Accordingly, the processor 110 may reproduce the motion path up to the limit of motion with respect to the acquired dynamic data of the lateral motion. However, the motion path may be limited by the user or the condition of the remaining teeth (e.g., to the point where the maxillary buccal cusp and the mandibular buccal cusp meet, or to the point where the maxillary lingual cusp and the mandibular buccal cusp meet). In an embodiment, the movement path may be limited according to the user's correction input for the control point by providing a control point for the movement path for each preset plurality of sections (eg, in units of 0.5 mm) in the left lateral movement or the right lateral movement. have.

단계 S240에서 프로세서(110)는 3D 모델링 이미지 및 과두 이동 데이터에 기초하여 대상체의 움직임을 시뮬레이션하는 가상 교합기를 제공할 수 있다. 일 실시 예에서, 프로세서(110)는 CT 데이터, 스캔 데이터 및 동적 데이터가 정합된 3D 모델링 이미지 상에 과두 이동 데이터를 적용하여 가상 교합기를 획득할 수 있고, 가상 교합기를 통해 정적인 운동과 동적인 운동(전방, 측방 운동)을 시뮬레이션하여 상악 및 하악의 전방 움직임, 좌측 움직임 및 우측 움직임에 대하여 한계 운동의 범위까지의 운동로를 재현할 수 있다.In operation S240 , the processor 110 may provide a virtual articulator that simulates the movement of the object based on the 3D modeling image and the condylar movement data. In an embodiment, the processor 110 may obtain a virtual articulator by applying condylar movement data on a 3D modeling image to which CT data, scan data, and dynamic data are registered, and static movement and dynamic movement through the virtual articulator By simulating the motion (forward and lateral motion), it is possible to reproduce the motion path up to the limit of motion for the forward, left and right motions of the maxilla and mandible.

도 16 내지 도 17은 좌측방 운동 시 사용자에게 제공되는 작업측에서의 디스플레이 화면 및 균형측에서의 디스플레이 화면을 각각 나타내고, 도 18은 전방 운동 시 사용자에게 제공되는 디스플레이 화면을 나타낸다. 도 16 내지 18에 도시된 것처럼, 프로세서(110)는 가상 교합기를 통해 과두의 움직임을 재현하고 운동 경로, 교합 세기 및 교합 면적을 제공하는 교합면 나침반을 제공할 수 있으며, 사용자의 선택 입력(예: 버튼 클릭)을 수신하는 사용자 인터페이스를 통해 사용자에 의해 선택된 부분만을 디스플레이할 수 있다.16 to 17 respectively show a display screen on the working side and a display screen on the balance side provided to the user during leftward movement, and FIG. 18 shows a display screen provided to the user during forward movement. 16 to 18 , the processor 110 may reproduce the movement of the condyle through a virtual articulator and provide an occlusal compass that provides a motion path, occlusal strength, and occlusal area, and a user's selection input (eg, : It is possible to display only the part selected by the user through the user interface that receives the button click).

이에 따라, 프로세서(110)는 전술한 단계들을 통해 환자 데이터를 바탕으로 3D 모델링 이미지 상에서 동적 운동이 가능한 가상 교합기를 획득할 수 있으며, 교합기 형상, 이동 각도와 경로 등이 지정된 교합기가 아닌, 환자의 CT 데이터와 스캔 데이터를 바탕으로 환자의 치아 형상으로 과두의 움직임을 그대로 재현할 수 있는 교합기 형상이라는 점에서 각별한 이점이 있다.Accordingly, the processor 110 may acquire a virtual articulator capable of dynamic motion on the 3D modeling image based on the patient data through the above-described steps, and the articulator shape, movement angle and path, etc. are not specified in the articulator, but the patient's It has a special advantage in that it is an articulator shape that can reproduce the movement of the condyle as it is in the shape of the patient's teeth based on CT data and scan data.

단계 S240 이후에 프로세서(110)는 가상 교합기에 기초하여 3D 모델링 이미지 상에 중첩되는 가상 치아를 결정할 수 있고, 일 실시 예에서, 가상 치아를 3D 모델링 이미지 상에 중첩하고, 가상 교합기를 통한 시뮬레이션 결과에 기초하여 가상 치아를 갱신할 수 있다. 예를 들면, 프로세서(110)는 3D 모델링 이미지 상에서 치아가 없는 영역의 변곡점 또는 곡률에 기초하여 치아와 보철물 사이의 경계면을 나타내는 마진을 설정하고, 기저장된 라이브러리로부터 가상 치아의 형상을 결정하고, 마진 및 형상에 기초하여 가상 치아(예: 가상 크라운)를 3D 모델링 이미지 상의 치아가 없는 영역에 수복할 준비를 할 수 있다. 이때, 가상 치아를 수복할 부위가 전치부에 대응하는지 또는 구치부에 대응하는지에 따라 일부 상이한 프로세스가 진행될 수 있으며, 이에 관한 내용은 도 19 내지 25를 더 참조하여 보다 상세하게 설명하도록 한다.After step S240, the processor 110 may determine a virtual tooth superimposed on the 3D modeling image based on the virtual articulator, and in an embodiment, the virtual tooth is superimposed on the 3D modeling image, and a simulation result through the virtual articulator The virtual tooth may be updated based on the . For example, the processor 110 sets a margin indicating the interface between the tooth and the prosthesis based on the inflection point or the curvature of the toothless region on the 3D modeling image, determines the shape of the virtual tooth from the pre-stored library, and the margin And based on the shape, it is possible to prepare a virtual tooth (eg, a virtual crown) to be restored to a tooth-free area on the 3D modeling image. At this time, some different processes may be performed depending on whether the region to be restored virtual teeth corresponds to the anterior part or the posterior part, and the details thereof will be described in more detail with further reference to FIGS. 19 to 25 .

도 19 내지 도 20은 일 실시 예에 따른 디바이스(100)가 가상 교합기를 통한 시뮬레이션 결과에 기초하여 교합 상태에서 상악과 하악 간의 거리에 대한 정보를 제공하는 동작을 설명하기 위한 도면이다.19 to 20 are diagrams for explaining an operation in which the device 100 provides information on the distance between the maxilla and the mandible in an occlusal state based on a simulation result through a virtual articulator, according to an embodiment.

도 19를 참조하면, 프로세서(110)는 수복하려는 가상 치아가 전치부인지 구치부인지 여부에 무관하게, 3D 모델링 이미지 상에서 가상 치아가 없을 때 잔존치 간(예: 상악, 하악 간)의 영역별 접촉 면적 또는 접촉 세기를 시뮬레이션한 결과를 디스플레이할 수 있다. 일 실시 예에서, 접촉 세기의 경우, 잔존치 간의 거리에 비례하여 등고선 형태로 표현될 수 있고, 예를 들면, 잔존치 간에 접촉한 곳은 빨간색으로 표현될 수 있다. 이 때, 잔존치 간에 충돌 표면에 대한 흔적을 기록할 수 있으며(예: 관통 불가능), 동적 데이터(예: 전방, 좌측방, 우측방)에서의 움직임과 서로 다른 색상으로 표현하여 사용자에게 직관적인 화면을 제공할 수 있다.Referring to FIG. 19 , the processor 110 determines whether a virtual tooth to be restored is an anterior or a posterior region, and when there is no virtual tooth on the 3D modeling image, the contact area for each region between the remaining teeth (eg, between the maxilla and the mandible) Alternatively, a result of simulating the contact strength may be displayed. In an embodiment, the contact intensity may be expressed in a contour form in proportion to the distance between the residual values, for example, a contact point between the residual values may be expressed in red. At this time, it is possible to record traces of the collision surface between the residual values (eg, impenetrable), and express them in different colors from the movement in dynamic data (eg, forward, left, right), which is intuitive to the user. screen can be provided.

도 20을 참조하면, 프로세서(110)는 수복하려는 가상 치아가 전치부인지 구치부인지 여부에 무관하게, 3D 모델링 이미지 상에서 가상 치아가 있을 때 잔존치 간(예: 상악, 하악 간)의 영역별 접촉 면적 또는 접촉 세기를 시뮬레이션한 결과를 디스플레이할 수 있다. 일 실시 예에서, 만일 수복할 가상 치아에 대하여 대합치가 있거나 상악과 하악을 동시에 수복해야 하는 경우, 충돌 시 관통된 상태가 나타나도록 디스플레이할 수 있으며, 접촉 면적과 세기가 상이하게 표시될 수 있고, 또한, 도 20에 도시된 화면과 충돌 시 관통된 상태가 나타난 화면을 하나의 윈도우 내에 병렬 배치하여 사용자가 보다 용이하게 비교할 수 있는 화면을 제공할 수도 있다.Referring to FIG. 20 , the processor 110 determines whether a virtual tooth to be restored is an anterior or a posterior region, when there is a virtual tooth on the 3D modeling image, the contact area for each region between the remaining teeth (eg, between the maxilla and the mandible) Alternatively, a result of simulating the contact strength may be displayed. In one embodiment, if there is an opposing tooth for the virtual tooth to be restored or the upper and lower jaws need to be restored at the same time, the penetrating state may be displayed at the time of collision, and the contact area and intensity may be displayed differently, , Also, it is possible to provide a screen that a user can compare more easily by arranging a screen showing a penetrating state when collided with the screen shown in FIG. 20 in one window.

도 21 내지 도 22는 일 실시 예에 따른 디바이스(100)가 가상 교합기에 기초하여 전치부 가상 치아를 결정하는 동작을 설명하기 위한 도면이다.21 to 22 are diagrams for explaining an operation in which the device 100 determines an anterior virtual tooth based on a virtual articulator, according to an exemplary embodiment.

도 21을 참조하면, 3D 모델링 이미지는 전치부 가상 치아를 포함하고, 전치부 가상 치아의 크기 또는 위치는 교합 상태에서 상악과 하악 간의 거리가 기설정값 범위 내에 포함되도록 결정될 수 있다. 즉, 수복할 치아가 전치부인 경우, 교합 상태에서 대합치와 닿지 않고 적정 거리만큼의 거리가 유지되도록 크기 및 위치가 조정될 수 있다.Referring to FIG. 21 , the 3D modeling image may include an anterior virtual tooth, and the size or location of the anterior virtual tooth may be determined such that the distance between the maxilla and the mandible in the occlusal state is included within a preset value range. That is, when the tooth to be restored is the anterior portion, the size and position may be adjusted so that a proper distance is maintained without contacting the antagonist in the occlusal state.

예를 들면, 도 21(a)에서와 같이, 전치부 가상 치아에 접촉이 있는 경우, 가상 치아의 영역별 접촉 면적 및 세기를 0으로 설정하거나, 또는 하악골이 정적인 상태로 교합(예: CO 상태)될 때 나타나는 등고선의 형태의 긴밀도가 기설정값(예: 0.5mm) 떨어진 형태로 가상 치아를 자동 변형시켜 사용자에게 디스플레이 화면을 제공할 수 있다.For example, as shown in FIG. 21(a), when there is contact with the anterior virtual tooth, the contact area and intensity for each area of the virtual tooth are set to 0, or the mandible is occluded in a static state (eg, CO state). ), it is possible to provide a display screen to the user by automatically transforming the virtual tooth into a form away from a preset value (eg, 0.5 mm) in the degree of closeness of the contour line that appears.

다른 예를 들면, 도 21(b)에서와 같이, 전치부 가상 치아에 접촉이 없을 경우, 전치부 가상치아와 대합치 간에 거리가 많이 뜰 수 있으므로 하악골이 정적인 상태로 교합(예: CO 상태)될 때 기설정값(예: 0.5mm) 떨어진 형태로 가상 치아를 형성하고, 이후 동적 운동 중 전방 운동을 실행할 때 가상 치아의 형태를 변화시킬 수 있다.For another example, as in Fig. 21(b), if there is no contact with the anterior virtual tooth, the distance between the anterior virtual tooth and the antagonist may be large, so the mandible may be occluded in a static state (eg, CO state). When a virtual tooth is formed in a shape separated from a preset value (eg, 0.5 mm), the shape of the virtual tooth may be changed when performing a forward motion during a dynamic motion thereafter.

도 22를 참조하면, 전치부 가상 치아의 크기는 운동 상태에서 상악과 하악 간의 거리가 기설정값 범위 내에 포함되도록 갱신될 수 있다. 예를 들면, 수복할 치아가 전치부인 경우, 전치부 가상 치아를 관통하는 접촉이 있다면 전치부 가상 치아가 없을 때의 잔존 전치부의 영역별 접촉 면적 및 세기가 동일하면서 가상 치아에 동일한 면적과 세기의 교합 접촉을 부여할 수 있도록 가상 치아의 형태를 변화시킬 수 있다. 만약 가상 치아에 접촉이 없을 경우, 컨다일러 각도 정보를 이용하여 운동 범위가 기설정값(예: 0.5mm) 이상에서 상악의 절단면과 하악의 절단면이 만날 때까지 상악의 설면과 하악의 절단면이 가상 치아가 없을 때의 잔존 전치부의 영역별 접촉 면적 및 세기가 동일하면서 가상 치아에 동일한 면적과 세기의 교합이 접촉되도록 가상 치아의 형태를 변화시킬 수 있다.Referring to FIG. 22 , the size of the virtual anterior teeth may be updated so that the distance between the maxilla and the mandible is included within a preset value range in an exercise state. For example, if the tooth to be restored is an anterior, if there is a contact penetrating the anterior virtual tooth, the contact area and intensity for each region of the remaining anterior region when there is no anterior virtual tooth is the same, and the occlusal contact with the virtual tooth has the same area and strength The shape of the virtual tooth can be changed to provide If there is no contact with the virtual tooth, the lingual surface of the maxilla and the cut surface of the mandible are virtual until the incisal surface of the maxilla and the incisal surface of the mandible meet when the range of motion is greater than the preset value (eg 0.5mm) using the condylor angle information. The shape of the virtual tooth may be changed so that the occlusion of the same area and intensity is brought into contact with the virtual tooth while the contact area and intensity for each region of the remaining anterior portion are the same when there are no teeth.

도 23 내지 도 24는 일 실시 예에 따른 디바이스(100)가 가상 교합기에 기초하여 구치부 가상 치아를 결정하는 동작을 설명하기 위한 도면이다.23 to 24 are diagrams for explaining an operation of determining, by the device 100, a virtual posterior tooth based on a virtual articulator, according to an exemplary embodiment.

도 23 내지 도 24를 참조하면, 3D 모델링 이미지는 구치부 가상 치아를 포함하고, 구치부 가상 치아의 크기 또는 위치는 교합 상태에서 상악과 하악이 서로 맞닿도록 결정될 수 있다. 즉, 수복할 치아가 구치부인 경우, 교합 상태에서 대합치와 서로 닿고 다른 치아와 평균 접촉 면적, 접촉 세기가 되도록 조절할 수 있다.23 to 24 , the 3D modeling image includes the posterior virtual teeth, and the size or position of the posterior virtual teeth may be determined so that the maxilla and the mandible contact each other in an occlusal state. That is, when the tooth to be restored is the posterior part, it can be adjusted so that it comes into contact with the opposing tooth in the occlusal state, and has an average contact area and contact strength with other teeth.

일 실시 예에서, 구치부 가상 치아가 교합 상태에서 서로 맞닿을 때 인가되는 힘의 크기는 구치부 실제 치아가 교합 상태에서 서로 맞닿을 때 인가되는 힘의 크기에 대응될 수 있고, 다른 일 실시 예에서, 구치부 가상 치아가 교합 상태에서 서로 맞닿을 때의 상호 접촉 면적은 구치부 실제 치아가 교합 상태에서 서로 맞닿을 때의 상호 접촉 면적에 대응될 수 있다.In one embodiment, the magnitude of the force applied when the posterior virtual teeth abut with each other in the occlusal state may correspond to the magnitude of the force applied when the posterior real teeth abut with each other in the occlusal state, and in another embodiment, A mutual contact area when the posterior virtual teeth abut against each other in an occlusal state may correspond to a mutual contact area when the posterior real teeth abut against each other in an occlusal state.

예를 들면, 프로세서(110)는 교합 상태에 있어서, 수복할 치아가 구치부이고 가상 치아에 접촉이 있는 경우, 가상 치아가 없을 때의 잔존 구치부의 영역별 접촉 면적 및 세기와 동일하도록 가상 치아에 교합점을 부여할 수 있다. 만일 가상 치아에 접촉이 없을 경우, 하악골이 정적인 상태로 교합(CO 상태)될 때, 접촉점의 위치에만 가상 치아가 닿도록 가상 치아의 형태를 변화시킬 수 있다. 이 때, 교합 접촉점만 맞도록 형태를 변화시키는 경우, 그 외적인 부분(예: 교두 사면이나 삼각융선)이 잘 어울리지 못해 형상이 바람직하지 않게 디스플레이될 수 있다. 이러한 경우, 형태에 관한 사용자 조작이 가능한 매뉴플레이터를 제공하여 사용자가 추가할 수 있도록 지원할 수 있고, 자동 조정을 수행할 수도 있다. 예를 들면, 제 1 포인트에서 교합점으로부터 0.3mm가 뜨고 제 2 포인트에서 교합점으로부터 0.5mm가 뜬 경우(식별번호 2410 참조), 그 교합점 영역을 전체적으로 0.3mm와 0.5mm를 올려줄 수 있다(식별번호 2420 참조). 영역은 제 1 포인트와 제 2 포인트를 메인 그루브(2430)를 중심으로 분할되고, 사용자는 매뉴플레이터를 통해 분할된 영역을 선택하고 그 영역을 올리거나 내리는 방식으로 제공하여 높낮이를 조절할 수 있다. 대구치의 경우, 메인 그루브(2430)가 2개로 4개의 영역을 분할할 수 있으며, 소구치의 경우 메인 그루브(2430)가 1개로 2개의 영역을 분할할 수 있다.For example, in the occlusal state, when the tooth to be restored is the posterior part and there is a contact with the virtual tooth, the processor 110 sets the occlusal point on the virtual tooth to be the same as the contact area and intensity for each area of the remaining posterior part when there is no virtual tooth. can be given If there is no contact with the virtual tooth, when the mandible is occluded in a static state (CO state), the shape of the virtual tooth may be changed so that the virtual tooth only comes into contact with the position of the contact point. At this time, if the shape is changed to fit only the occlusal contact point, the shape may be undesirably displayed because other external parts (eg, cusp slope or triangular ridge) do not match well. In this case, it is possible to support the user to add by providing a menu plate capable of user manipulation regarding the shape, and to perform automatic adjustment. For example, when 0.3 mm floats from the occlusal point at the first point and 0.5 mm rises from the occlusal point at the second point (refer to identification number 2410), the area of the occlusion point may be raised by 0.3 mm and 0.5 mm as a whole (identification number). 2420). The area is divided into the first point and the second point with the main groove 2430 as the center, and the user selects the divided area through the menu plate and raises or lowers the area to adjust the height. In the case of molars, the main groove 2430 may divide four regions into two, and in the case of premolars, the main groove 2430 may divide two regions into one.

다른 예를 들면, 프로세서(110)는 동적 움직임에 있어서, 수복할 치아가 구치부이고 가상 치아에 접촉이 있는 경우, 가상 치아의 영역별 접촉 면적 및 세기를 0으로 설정하되 충분히 이개가 되도록 하악골이 움직이는 경로 즉, 컨다일러 각도의 이동 경로에서 설정값(예: 0.5mm, 사용자 설정)만큼 떨어진 형태로 가상 치아를 형성할 수 있다.For another example, in the dynamic movement, when the tooth to be restored is the posterior part and there is a contact with the virtual tooth, the processor 110 sets the contact area and intensity for each area of the virtual tooth to 0, but the mandible moves so that it is sufficiently aroused. A virtual tooth may be formed in a shape separated by a set value (eg, 0.5 mm, user setting) from the path, that is, the movement path of the condylor angle.

일 실시 예에서, 프로세서(110)는 구치부 가상 치아에 대한 상황을 케이나인 가이던스(canine guidance) 및 그룹 펑션(group function) 중 하나로 결정하고, 결정된 구치부 가상 치아에 대한 상황에 기초하여 구치부 가상 치아의 크기 또는 위치를 결정할 수 있다. 이에 관한 내용은 도 25를 더 참조하여 설명하도록 한다.In an embodiment, the processor 110 determines a situation for the posterior virtual tooth as one of canine guidance and a group function, and based on the determined situation for the posterior virtual tooth, The size or location can be determined. This will be further described with reference to FIG. 25 .

도 25는 일 실시 예에 따른 디바이스(100)가 구치부 가상 치아에 대한 상황을 케이나인 가이던스 및 그룹 펑션 중 하나로 결정하는 동작을 설명하기 위한 도면이다.25 is a view for explaining an operation in which the device 100 determines a situation for a posterior virtual tooth as one of K-Nine guidance and a group function, according to an embodiment.

도 25를 참조하면, 프로세서(110)는 동적 데이터 중 측방 움직임에 기초하여 구치부 가상 치아에 대한 상황을 케이나인 가이던스 및 그룹 펑션 중 하나로 결정할 수 있다. 예를 들면, 수복할 치아가 구치부의 경우, 하악을 좌우로 움직이는 과정에서 치아들이 서로 닿는 상황을 분석하여 케이나인 가이던스인지 그룹 펑션인지 구별하여 그에 따라 상이한 방식으로 구치부 가상 치아를 조정할 수 있다.Referring to FIG. 25 , the processor 110 may determine a situation for the posterior virtual tooth as one of K-Nine guidance and a group function based on lateral movement among dynamic data. For example, if the tooth to be restored is the posterior part, it is possible to analyze the situation in which the teeth touch each other in the process of moving the mandible left and right to distinguish whether it is a K9 guidance or a group function, and adjust the posterior virtual teeth in a different way accordingly.

일 실시 예에서, 프로세서(110)는 동적 데이터 중 측방 움직임에 따라 구치부에서 여러 개의 치아가 동시 접촉되고 있는 경우에는 구치부 가상 치아에 대한 상황을 그룹 펑션으로 결정하고, 견치만 접촉되고 나머지는 접촉되지 않는 경우에는 케이나인 가이던스로 결정할 수 있다. 예를 들면, 그룹 펑션은 4, 5, 6번 치아가 서로 닿는 경우를 의미하고, 케이나인 가이던스는 3번 치아만 닿고 4, 5, 6 치아는 닿지 않는 상황을 의미할 수 있으며, 프로세서(110)는 이러한 상황에 따라 대응되는 방식으로 가상 치아를 보정하여 가상 치아를 3D 모델링할 수 있다.In one embodiment, the processor 110 determines the situation for the posterior virtual teeth as a group function when several teeth are being simultaneously contacted in the posterior region according to lateral movement among the dynamic data, only the canine teeth are in contact, and the rest are not in contact If not, it can be decided by K-Nine Guidance. For example, the group function may mean a case where teeth 4, 5, and 6 touch each other, and K-Nine guidance may mean a situation where only teeth 3 and teeth 4, 5, and 6 do not touch, and the processor 110 ) can 3D model the virtual tooth by correcting the virtual tooth in a corresponding manner according to such a situation.

일 실시 예에서, 프로세서(110)는 동적 측방 운동을 시행했을 때, 구치부 가상 치아에 대한 상황이 그룹 펑션으로 결정되고 수복할 치아가 전치부인 경우, 가상 치아에 접촉이 있다면 베넷 각도(1310)의 이동 경로 안에서 가상 치아의 영역별 접촉 면적 및 세기를 0으로 설정할 수 있고, 상악과 하악을 동시에 수복해야 하는 경우에는 하악을 삭제하여 영역별 접촉 면적 및 세기를 0으로 설정할 수 있다. 만약, 가상 치아에 접촉이 없을 경우, 중심 교합과 전방 운동에서 접촉이 안되는 선에 하악골이 움직이는 경로에서 설정값(예: 0.5mm)만큼 떨어진 형태로 가상 치아를 형성할 수 있다.In one embodiment, when the processor 110 performs a dynamic lateral motion, when the situation for the posterior virtual tooth is determined as a group function and the tooth to be restored is the anterior, if there is contact with the virtual tooth, the Bennett angle 1310 In the movement path, the contact area and intensity for each area of the virtual tooth can be set to 0, and when the maxilla and the mandible need to be restored at the same time, the contact area and intensity for each area can be set to 0 by deleting the mandible. If there is no contact with the virtual tooth, the virtual tooth may be formed in a form separated by a set value (eg, 0.5 mm) from the path of the mandible on the line where there is no contact between the central occlusion and the forward movement.

일 실시 예에서, 프로세서(110)는 수복할 치아가 견치이고, 구치부 가상 치아에 대한 상황이 케이나인 가이던스로 결정된 경우, 상악의 첨두와 하악의 첨두가 접촉되도록 가상 치아에 교합이 접촉되도록 가상 치아의 형태를 변화시킬 수 있다. 또한, 수복할 치아가 견치를 제외한 전치부라면, 가상 치아의 영역별 접촉 면적 및 세기를 0으로 설정할 수 있다.In an embodiment, when the tooth to be restored is a canine and the situation for the posterior virtual tooth is determined by K-Nine guidance, the processor 110 may occlude the virtual tooth so that the cusp of the maxilla and the apex of the mandible are in contact with the virtual tooth. can change the shape of In addition, if the tooth to be restored is an anterior excluding the canine, the contact area and intensity for each area of the virtual tooth may be set to 0.

일 실시 예에서, 프로세서(110)는 수복할 치아가 구치부이고, 가상 치아에 접촉이 있다면 작업측(예: 측방 운동 시 움직이는 쪽)에서 구치부 가상 치아에 대한 상황이 케이나인 가이던스로 결정된 경우, 가상 치아의 영역별 접촉 면적 및 세기를 0으로 설정할 수 있다.In one embodiment, the processor 110 determines that the tooth to be restored is the posterior part, and if the virtual tooth is in contact, the situation for the posterior virtual tooth on the working side (eg, the moving side during lateral movement) is determined as K-Nine guidance, virtual The contact area and intensity for each area of the tooth may be set to 0.

일 실시 예에서, 프로세서(110)는 작업측(예: 측방 운동 시 움직이는 쪽)의 구치부 가상 치아에 대한 상황이 그룹 평션으로 결정된 경우, 가상 치아가 없을 때의 잔존 구치부의 영역별 접촉 면적 및 세기가 앞에 있는 치아보다 적게 뒤에 있는 치아보다 큰 범위 내에서 가상 치아에 교합 면적을 갖는 교합 접촉을 부여할 수 있고, 이 때 교합의 세기는 같도록 등고선을 이용하여 설정할 수 있으며, 수복하는 치아가 제 2 대구치인 경우에는 교합 접촉을 부여하지 않을 수 있다. In an embodiment, the processor 110 determines the contact area and intensity of the residual posterior region when there is no virtual tooth when the situation for the posterior virtual tooth on the working side (eg, the moving side during lateral movement) is determined as a group function. Occlusal contact with an occlusal area can be given to the virtual tooth within a range that is less than the front tooth and larger than the back tooth. In the case of 2 molars, occlusal contact may not be provided.

일 실시 예에서, 프로세서(110)는 가상 치아에 접촉이 없고 작업측에서 구치부 가상 치아에 대한 상황이 그룹 펑션으로 결정된 경우, 가상 치아가 없을 때의 잔존 구치부의 영역별 접촉 면적 및 세기가 앞에 있는 치아보다 적게 뒤에 있는 치아보다 큰 범위 내에서 가상 치아에 교합 접촉 면적을 갖도록 가상 치아의 형태를 변화시킬 수 있다. 일 실시 예에서, 교합 접촉 면적은 면적 연산을 통해 수치화하여 디스플레이할 수 있다.In one embodiment, when the processor 110 has no contact with the virtual tooth and the situation for the posterior virtual tooth is determined as a group function on the working side, the contact area and intensity of each remaining posterior region when there is no virtual tooth is in front The shape of the virtual tooth may be changed so that the virtual tooth has an occlusal contact area within a range that is less than the tooth and larger than the tooth behind the tooth. In an embodiment, the occlusal contact area may be quantified and displayed through an area calculation.

일 실시 예에서, 프로세서(110)는 가상 치아가 포함되지 않은 제 1 3D 모델링 이미지 및 가상 치아가 포함된 제 2 3D 모델링 이미지를 함께 디스플레이할 수 있고, 이에 따라 사용자의 관점에서 보다 직관적인 비교가 가능한 인터페이스를 제공할 수 있다.In an embodiment, the processor 110 may display the first 3D modeling image not including the virtual tooth and the second 3D modeling image including the virtual tooth together, so that a more intuitive comparison from the user's point of view is possible. Possible interfaces can be provided.

일 실시 예에 따른 프로세서(110)는 가상 교합기를 제공하기 위한 일련의 동작들을 수행할 수 있고, 디바이스(100)의 동작 전반을 제어하는 CPU(central processor unit)로 구현될 수 있으며, 메모리(120), 디스플레이 및 그 밖의 구성요소들과 전기적으로 연결되어 이들 간의 데이터 흐름을 제어할 수 있다.The processor 110 according to an embodiment may perform a series of operations for providing the virtual articulator, may be implemented as a central processor unit (CPU) that controls overall operation of the device 100 , and the memory 120 ), the display and other components may be electrically connected to control the data flow between them.

일 실시 예에서, 메모리(120)는 CT 데이터 및 스캔 데이터를 저장할 수 있다. 일 실시 예에서, 메모리(120)는 SSD(Solid State Disk) 또는 HDD(Hard Disk Drive)와 같은 비휘발성 메모리로 구현되어 디바이스(100)에 필요한 데이터 전반을 저장하는데 사용될 수 있고, 그 외에 다른 범용적인 구성요소들이 더 포함될 수 있다.In an embodiment, the memory 120 may store CT data and scan data. In an embodiment, the memory 120 is implemented as a non-volatile memory such as a solid state disk (SSD) or a hard disk drive (HDD) and may be used to store overall data required for the device 100, and other general purpose Additional components may be included.

또한, 도 1에 도시된 구성요소들 외에 다른 범용적인 구성요소들이 디바이스(100)에 더 포함될 수 있음을 관련 기술 분야에서 통상의 지식을 가진 자라면 이해할 수 있다. 일 실시 예에 따를 경우, 디바이스(100)는 3차원 이미지 데이터 처리를 위한 알고리즘, 다른 디바이스와 유무선 네트워크를 통해 통신하기 위한 통신모듈, 사용자 입력을 수신하는 사용자 인터페이스 수신모듈, 상술한 정보들을 디스플레이하는 디스플레이 등을 더 포함할 수 있고, 다른 실시 예에 따를 경우, 도 1에 도시된 구성요소들 중 일부는 생략될 수도 있다.In addition, it can be understood by those skilled in the art that other general-purpose components other than those shown in FIG. 1 may be further included in the device 100 . According to an embodiment, the device 100 includes an algorithm for 3D image data processing, a communication module for communicating with other devices through a wired/wireless network, a user interface receiving module for receiving a user input, and displaying the above-mentioned information. It may further include a display, and according to another embodiment, some of the components shown in FIG. 1 may be omitted.

도 26은 일 실시 예에 따른 디바이스(100)가 가상 교합기를 제공하는 방법의 일 예를 설명하기 위한 흐름도이다.26 is a flowchart illustrating an example of a method for the device 100 to provide a virtual articulator according to an embodiment.

도 26을 참조하면, 단계 S2610에서 디바이스(100)는 환자의 CT 데이터, 스캔 데이터 및 동적 데이터를 각각 획득하고, 단계 S2620에서 CT 데이터, 스캔 데이터를 정합하여 3D 모델링 이미지를 획득할 수 있고, 예를 들면, 치아의 우각 부위에 기초 또는 보철물이 많을 경우 레진 마커를 이용해 정합을 수행할 수 있다.Referring to FIG. 26 , in step S2610, the device 100 acquires the patient's CT data, scan data, and dynamic data, respectively, and in step S2620, the CT data and scan data are matched to obtain a 3D modeling image, yes For example, if there are many foundations or prostheses in the right corner of the tooth, registration can be performed using a resin marker.

단계 S2630에서 디바이스(100)는 정합된 3D 모델링 이미지와 동적 데이터를 한계 운동 상에서 정합할 수 있다. 일 실시 예에서, 디바이스(100)는 동적 데이터의 전방 움직임에 따라 과두의 중심을 검출하여 컨다일러 각도(1030)를 결정하고, 컨다일러 각도(1030)를 통한 한계 운동까지의 과두가 움직인 거리 및 각도를 측정하고, 동적 데이터의 측방 움직임에 따라 과두의 중심을 검출하여 베넷 각도(1310)를 결정하고, 베넷 각도(1310)를 통한 한계 운동까지의 과두가 움직인 거리 및 각도를 측정할 수 있다. 이에 따라, 한계 운동까지 운동을 재현하고, 작업측에서 상악 협측 교두와 하악 협측 교두가 맞물리는 점까지 전방 운동에서 상악 전치부와 하악 전치부의 절단면이 맞물리는 점까지 운동로를 제한할 수 있다.In operation S2630, the device 100 may match the matched 3D modeling image and dynamic data on the limit motion. In an embodiment, the device 100 determines the condylar angle 1030 by detecting the center of the condylar according to the forward movement of the dynamic data, and the distance the condylar moves to the limiting motion through the condylar angle 1030 and measuring the angle, determining the Bennett angle 1310 by detecting the center of the condyle according to the lateral movement of the dynamic data, and measuring the distance and angle the condyle moved to the limiting motion through the Bennett angle 1310 have. Accordingly, it is possible to reproduce the motion up to the limiting motion, and to limit the motion path from the forward motion to the point where the maxillary buccal cusp and the mandibular buccal cusp engage on the working side to the point where the cut surfaces of the maxillary anterior and mandibular incisors engage.

단계 S2640에서 디바이스(100)는 3D 모델링 이미지 상에서 삭제된 치아의 변곡을 통해 마진을 설정하고, 단계 S2650에서 라이브러리에 기초하여 가상 치아의 형태를 결정하고, 단계 S2660에서 설정된 마진에 기초하여 가상 치아의 위치를 결정할 수 있다.In step S2640, the device 100 sets a margin through inflection of the deleted tooth on the 3D modeling image, determines the shape of the virtual tooth based on the library in step S2650, and determines the shape of the virtual tooth based on the margin set in step S2660. location can be determined.

단계 S2670에서 디바이스(100)는 정적 데이터, 동적 데이터 및 과두 이동 데이터에 기초하여 3D 모델링 이미지 상에 교합 상태를 디스플레이할 수 있다.In operation S2670, the device 100 may display the occlusal state on the 3D modeling image based on the static data, the dynamic data, and the condylar movement data.

일 실시 예에서, 디바이스(100)는 만일 수복할 치아가 전치부인 경우, 가상 치아가 없을 때와 가상 치아가 있을 때의 잔존치의 영역별 접촉 면적 및/또는 접촉 세기를 각각 결정할 수 있다. 만일 가상 치아에 접촉이 있는 경우에는 가상 치아의 영역별 접촉 면적 및 세기를 0으로 설정하거나 하악골이 움직이는 경로에서 교합의 긴밀도가 0.5mm 떨어진 형태로 가상 치아를 형성할 수 있다. 만일 가상 치아에 접촉이 없는 경우에는 접촉이 많이 뜨게 될 수 있으므로 하악골이 움직이는 경로에서 0.5mm 떨어진 형태로 가상 치아를 형성하고 전방 운동 시행 시 가상 치아의 형태를 변화시킬 수 있다.In an embodiment, if the tooth to be restored is an anterior, the device 100 may determine a contact area and/or contact strength for each region of a residual tooth in the absence of the virtual tooth and in the presence of the virtual tooth, respectively. If the virtual tooth is in contact, the virtual tooth may be formed in such a way that the contact area and intensity for each area of the virtual tooth are set to 0, or the closeness of occlusion is 0.5 mm away from the path in which the mandible moves. If there is no contact with the virtual tooth, a lot of contact may occur, so the virtual tooth can be formed 0.5 mm away from the path of the mandible and the shape of the virtual tooth can be changed during forward movement.

다른 일 실시 예에서, 디바이스(100)는 만일 수복할 치아가 구치부인 경우, 가상 치아가 없을 때와 가상 치아가 있을 때의 잔존치의 영역별 접촉 면적 및/또는 접촉 세기를 각각 결정할 수 있다. 만일 가상 치아에 접촉이 있는 경우에는 가상 치아가 없을 때의 잔존 구치부의 영역별 접촉 면적 및 세기가 동일하면서 가상 치아에 동일한 면적과 세기의 교합 접촉을 부여할 수 있다(이때, 교합점의 경우, 치아 배열 상태에 따라 달라질 수 있음). 만일 가상 치아에 접촉이 없는 경우에는 접촉이 되어야 하므로 하악골이 움직이는 경로에 맞게 접촉점 위치에만 가상 치아가 닿도록 가상 치아의 형태를 변화시키고, 교합 접촉점에 맞게 튀어 나온 부위를 나머지의 가상 치아의 형상과 어울릴 수 있도록 조정하는 매뉴플레이터를 제공하여 사용자가 추가하거나, 또는 예를 들어, 제 1 포인트에서 교합점으로부터 0.3mm가 뜨고 제 2 포인트에서 교합점으로부터 0.5mm가 뜬 경우 그 교합점 영역을 전체적으로 0.3mm와 0.5mm를 올려줄 수 있다. 제 1 포인트와 제 2 포인트는 그루브를 중심으로 하여 전체적인 영역을 분할할 수 있고, 교합점 영역을 기준으로 k제곱미리만큼 영역을 부여할 수 있다.In another embodiment, if the tooth to be restored is the posterior part, the device 100 may determine the contact area and/or contact intensity for each region of the residual tooth in the absence of the virtual tooth and in the presence of the virtual tooth, respectively. If there is contact with the virtual teeth, occlusal contact with the same area and intensity may be applied to the virtual teeth while the contact area and intensity for each region of the residual posterior part when there is no virtual tooth are the same (in this case, in the case of the occlusal point, the occlusal contact may vary depending on the arrangement state). If there is no contact with the virtual tooth, it must be in contact, so the shape of the virtual tooth is changed so that the virtual tooth only touches the contact point location according to the path of the movement of the mandible, and the protruding part to match the occlusal contact point is matched with the shape of the remaining virtual teeth. It provides a menu plater that adjusts to fit, so that the user can add it, or, for example, if 0.3mm from the occlusal point at the first point and 0.5mm from the occlusal point at the second point, then the area of the occlusal point as a whole is 0.3mm and 0.5mm can be raised. The first point and the second point may divide the entire area with the groove as the center, and the area may be given by k square millimeters based on the occlusal area.

본 발명의 일 실시 예에 따르면, 치과용 크라운을 소프트웨어로 디자인하는 과정에서 환자의 데이터를 기반으로 가상 교합기를 제공할 수 있으며, 환자 맞춤형 크라운을 제작하는데 있어 보다 효과적이고 교합 조정이 가능하여 사용자 만족도를 향상시킬 수 있다.According to an embodiment of the present invention, in the process of designing a dental crown with software, a virtual articulator can be provided based on patient data, and user satisfaction is more effective and occlusal adjustment is possible in manufacturing a patient-customized crown. can improve

또한, 환자의 동적 데이터를 이용하여 과두의 움직임을 그대로 재현할 수 있고, 시뮬레이션 결과에 따라 잔존치의 교합 양식을 판별하여 그에 맞는 수복 과정을 통해 환자 맞춤형 크라운을 제작할 수 있다.In addition, the movement of the condyle can be reproduced as it is by using the patient's dynamic data, and the occlusal style of the residual teeth can be determined according to the simulation result, and a crown customized for the patient can be manufactured through the appropriate restoration process.

또한, 환자의 동적 데이터를 제어하여 환자의 교합 상태에 대해 분석할 수 있고, 이러한 분석 결과를 환자를 치료하는 과정에 반영하여 치료 성과가 개선되도록 지원할 수 있다In addition, the patient's occlusion status can be analyzed by controlling the patient's dynamic data, and the result of this analysis can be reflected in the patient's treatment process to support the improvement of treatment performance.

도면 전반에서, 설명의 편의상, 과두, 가상 치아 등의 형상을 2차원적으로 도시하였으나, 3D 모델링 데이터에 기반하여 3차원적으로 표현되는 실시 예를 포함할 수 있으며, 이에 따라 개별 위치에서 과두의 중심 위치, 컨다일러 각도, 베넷 각도, 가상 치아의 형상, 크기 및 위치 등 다양한 항목들에 대한 값의 결정 및 수정이 이루어질 수 있다. 또한, 명세서 전반에서, 정보를 “제공”한다는 표현은 해당 정보를 디스플레이하거나, 송수신하는 동작 등을 포함할 수 있다. 또한 상술한 동작들 중 일부는 순서, 기능 및 분기의 측면에서 다양하게 변형된 형태로 실시될 수 있다.Throughout the drawings, for convenience of explanation, the shapes of condyles and virtual teeth are shown in two dimensions, but embodiments expressed in three dimensions based on 3D modeling data may be included. Determination and correction of values for various items such as the central position, the Condylor angle, the Bennett angle, the shape, size, and position of the virtual tooth may be performed. Also, throughout the specification, the expression “providing” information may include displaying or transmitting/receiving corresponding information. Also, some of the above-described operations may be implemented in variously modified forms in terms of order, function, and branching.

한편, 상술한 방법은 컴퓨터에서 실행될 수 있는 프로그램으로 작성 가능하고, 컴퓨터로 읽을 수 있는 기록매체를 이용하여 상기 프로그램을 동작시키는 범용 디지털 컴퓨터에서 구현될 수 있다. 또한, 상술한 방법에서 사용된 데이터의 구조는 컴퓨터로 읽을 수 있는 기록매체에 여러 수단을 통하여 기록될 수 있다. 상기 컴퓨터로 읽을 수 있는 기록매체는 마그네틱 저장매체(예를 들면, 롬, 램, USB, 플로피 디스크, 하드 디스크 등), 광학적 판독 매체(예를 들면, 시디롬, 디브이디 등)와 같은 저장매체를 포함한다.Meanwhile, the above-described method can be written as a program that can be executed on a computer, and can be implemented in a general-purpose digital computer that operates the program using a computer-readable recording medium. In addition, the structure of the data used in the above-described method may be recorded in a computer-readable recording medium through various means. The computer-readable recording medium includes a storage medium such as a magnetic storage medium (eg, ROM, RAM, USB, floppy disk, hard disk, etc.) and an optically readable medium (eg, CD-ROM, DVD, etc.) do.

본 실시 예와 관련된 기술 분야에서 통상의 지식을 가진 자는 상기된 기재의 본질적인 특성에서 벗어나지 않는 범위에서 변형된 형태로 구현될 수 있음을 이해할 수 있을 것이다. 그러므로 개시된 방법들은 한정적인 관점이 아니라 설명적인 관점에서 고려되어야 한다. 본 개시의 범위는 전술한 설명이 아니라 특허청구범위에 나타나 있으며, 그와 동등한 범위 내에 있는 모든 차이점은 본 개시에 포함된 것으로 해석되어야 할 것이다.A person of ordinary skill in the art related to this embodiment will understand that it may be implemented in a modified form within a range that does not deviate from the essential characteristics of the above description. Therefore, the disclosed methods are to be considered in an illustrative rather than a restrictive sense. The scope of the present disclosure is indicated in the claims rather than the foregoing description, and all differences within the scope equivalent thereto should be construed as being included in the present disclosure.

100: 디바이스
110: 프로세서
120: 메모리
100: device
110: processor
120: memory

Claims (16)

가상 교합기를 제공하는 방법에 있어서,
대상체에 대한 CT 데이터 및 스캔 데이터를 정합하여 3D 모델링 이미지를 획득하는 단계;
상기 3D 모델링 이미지에 대한 동적 데이터를 획득하는 단계;
상기 동적 데이터를 이용하여 상기 대상체에 포함된 과두의 움직임을 나타내는 과두 이동 데이터를 획득하는 단계; 및
상기 3D 모델링 이미지 및 상기 과두 이동 데이터에 기초하여 상기 대상체의 움직임을 시뮬레이션하는 가상 교합기를 제공하는 단계;를 포함하는, 방법.
A method of providing a virtual articulator, comprising:
acquiring a 3D modeling image by matching the CT data and the scan data of the object;
acquiring dynamic data for the 3D modeling image;
obtaining condylar movement data representing movement of a condyle included in the object by using the dynamic data; and
providing a virtual articulator simulating the movement of the object based on the 3D modeling image and the condylar movement data.
제 1 항에 있어서,
상기 과두 이동 데이터는
상기 대상체가 전방 운동 및 측방 운동을 한계 운동의 범위 내에서 수행할 때 상기 과두의 이동 경로를 나타내는 데이터를 포함하는, 방법.
The method of claim 1,
The condylar movement data is
and data indicating a movement path of the condyle when the subject performs an anterior movement and a lateral movement within a limit movement range.
제 1 항에 있어서,
상기 과두 이동 데이터는
상기 대상체의 전방 운동이 한계 운동의 범위 내에서 수행될 때 획득되는 컨다일러 각도(Condylar Angle)를 포함하는, 방법.
The method of claim 1,
The condylar movement data is
A method comprising: a Condylar angle obtained when the forward motion of the object is performed within a limit motion range.
제 1 항에 있어서,
상기 과두 이동 데이터는
상기 대상체의 측방 운동이 한계 운동의 범위 내에서 수행될 때 획득되는 베넷 각도(Bennet Angle)를 포함하는, 방법.
The method of claim 1,
The condylar movement data is
and a Bennet angle obtained when the lateral motion of the object is performed within a limit motion range.
제 1 항에 있어서,
상기 3D 모델링 이미지는 전치부 가상 치아를 포함하고,
상기 전치부 가상 치아의 크기 또는 위치는 교합 상태에서 상악과 하악 간의 거리가 기설정값 범위 내에 포함되도록 결정되는, 방법.
The method of claim 1,
The 3D modeling image includes an anterior virtual tooth,
The size or position of the anterior virtual tooth is determined such that the distance between the maxilla and the mandible in the occlusal state is within a preset value range.
제 1 항에 있어서,
상기 3D 모델링 이미지는 구치부 가상 치아를 포함하고,
상기 구치부 가상 치아의 크기 또는 위치는 교합 상태에서 상악과 하악이 서로 맞닿도록 결정되는, 방법.
The method of claim 1,
The 3D modeling image includes posterior virtual teeth,
The size or position of the posterior virtual teeth is determined so that the maxilla and the mandible are in contact with each other in an occlusal state.
제 6 항에 있어서,
상기 구치부 가상 치아가 교합 상태에서 서로 맞닿을 때 인가되는 힘의 크기는 구치부 실제 치아가 교합 상태에서 서로 맞닿을 때 인가되는 힘의 크기에 대응되는, 방법.
7. The method of claim 6,
The magnitude of the force applied when the posterior virtual teeth abut against each other in the occlusal state corresponds to the magnitude of the force applied when the posterior real teeth abut with each other in the occlusal state, the method.
제 6 항에 있어서,
상기 구치부 가상 치아가 교합 상태에서 서로 맞닿을 때의 상호 접촉 면적은 구치부 실제 치아가 교합 상태에서 서로 맞닿을 때의 상호 접촉 면적에 대응되는, 방법.
7. The method of claim 6,
The method, wherein the mutual contact area when the posterior virtual teeth abut against each other in the occlusal state corresponds to the mutual contact area when the posterior real teeth abut with each other in the occlusal state.
제 6 항에 있어서,
상기 구치부 가상 치아에 대한 상황을 케이나인 가이던스(canine guidance) 및 그룹 펑션(group function) 중 하나로 결정하는 단계; 및
결정된 상기 구치부 가상 치아에 대한 상황에 기초하여 상기 구치부 가상 치아의 크기 또는 위치를 결정하는 단계;를 더 포함하는, 방법.
7. The method of claim 6,
determining the situation for the posterior virtual tooth as one of canine guidance and a group function; and
Determining the size or position of the posterior virtual tooth based on the determined situation with respect to the posterior virtual tooth; further comprising, the method.
가상 교합기를 제공하는 디바이스에 있어서,
대상체에 대한 CT 데이터 및 스캔 데이터를 정합하여 3D 모델링 이미지를 획득하고, 상기 3D 모델링 이미지에 대한 동적 데이터를 획득하고, 상기 동적 데이터를 이용하여 상기 대상체에 포함된 과두의 움직임을 나타내는 과두 이동 데이터를 획득하고, 상기 3D 모델링 이미지 및 상기 과두 이동 데이터에 기초하여 상기 대상체의 움직임을 시뮬레이션하는 가상 교합기를 제공하는 프로세서; 및
상기 CT 데이터 및 스캔 데이터를 저장하는 메모리;를 포함하는, 디바이스.
A device for providing a virtual articulator, comprising:
A 3D modeling image is obtained by matching the CT data and the scan data of the object, the dynamic data of the 3D modeling image is obtained, and the condylar movement data representing the movement of the condyle included in the object by using the dynamic data a processor that obtains and provides a virtual articulator that simulates the movement of the object based on the 3D modeling image and the condylar movement data; and
A device comprising a; a memory for storing the CT data and the scan data.
제 10 항에 있어서,
상기 과두 이동 데이터는
상기 대상체가 전방 운동 및 측방 운동을 한계 운동의 범위 내에서 수행할 때 상기 과두의 이동 경로를 나타내는 데이터를 포함하는, 디바이스.
11. The method of claim 10,
The condylar movement data is
A device comprising: data indicating a movement path of the condyle when the object performs a forward motion and a lateral motion within a limit motion range.
제 10 항에 있어서,
상기 과두 이동 데이터는
상기 대상체의 전방 운동이 한계 운동의 범위 내에서 수행될 때 획득되는 컨다일러 각도(Condylar Angle)를 포함하는, 디바이스.
11. The method of claim 10,
The condylar movement data is
A device comprising a Condylar angle obtained when the forward motion of the object is performed within a limit motion range.
제 10 항에 있어서,
상기 과두 이동 데이터는
상기 대상체의 측방 운동이 한계 운동의 범위 내에서 수행될 때 획득되는 베넷 각도(Bennet Angle)를 포함하는, 디바이스.
11. The method of claim 10,
The condylar movement data is
A device comprising a Bennet angle obtained when the lateral motion of the object is performed within a limit motion range.
제 10 항에 있어서,
상기 3D 모델링 이미지는 전치부 가상 치아를 포함하고,
상기 전치부 가상 치아의 크기 또는 위치는 교합 상태에서 상악과 하악 간의 거리가 기설정값 범위 내에 포함되도록 결정되는, 디바이스.
11. The method of claim 10,
The 3D modeling image includes an anterior virtual tooth,
The size or position of the anterior virtual tooth is determined such that the distance between the maxilla and the mandible in the occlusion state is within a preset value range.
제 10 항에 있어서,
상기 3D 모델링 이미지는 구치부 가상 치아를 포함하고,
상기 구치부 가상 치아의 크기 또는 위치는 교합 상태에서 상악과 하악이 서로 맞닿도록 결정되는, 디바이스.
11. The method of claim 10,
The 3D modeling image includes posterior virtual teeth,
The size or position of the posterior virtual teeth is determined so that the maxilla and the mandible come into contact with each other in an occlusal state.
제 1 항 내지 제 9 항 중 어느 한 항의 방법을 컴퓨터에서 실행시키기 위한 프로그램을 기록한 컴퓨터로 읽을 수 있는 기록매체.10. A computer-readable recording medium recording a program for executing the method of any one of claims 1 to 9 on a computer.
KR1020200170772A 2020-12-08 2020-12-08 A device and method for providing a virtual articulator KR102472029B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020200170772A KR102472029B1 (en) 2020-12-08 2020-12-08 A device and method for providing a virtual articulator

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020200170772A KR102472029B1 (en) 2020-12-08 2020-12-08 A device and method for providing a virtual articulator

Publications (2)

Publication Number Publication Date
KR20220081176A true KR20220081176A (en) 2022-06-15
KR102472029B1 KR102472029B1 (en) 2022-11-30

Family

ID=81987750

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020200170772A KR102472029B1 (en) 2020-12-08 2020-12-08 A device and method for providing a virtual articulator

Country Status (1)

Country Link
KR (1) KR102472029B1 (en)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20090179986A1 (en) * 2006-01-26 2009-07-16 Rolf Klett Method and device for the recording of body movements
KR100954552B1 (en) * 2008-04-01 2010-04-23 이태경 Digitized Articulating Method and Digital Articulator
KR101778951B1 (en) * 2015-02-23 2017-09-18 서울대학교산학협력단 Method for simulating mandibular movements, apparatus, and recording medium thereof
JP2019526409A (en) * 2016-08-31 2019-09-19 ルーカス,ケリー System and method for creating a dental solution including a guidance package
KR20210088946A (en) 2020-01-07 2021-07-15 주식회사 메디트 Apparatus and method for generating 3d model using data matching

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20090179986A1 (en) * 2006-01-26 2009-07-16 Rolf Klett Method and device for the recording of body movements
KR100954552B1 (en) * 2008-04-01 2010-04-23 이태경 Digitized Articulating Method and Digital Articulator
KR101778951B1 (en) * 2015-02-23 2017-09-18 서울대학교산학협력단 Method for simulating mandibular movements, apparatus, and recording medium thereof
JP2019526409A (en) * 2016-08-31 2019-09-19 ルーカス,ケリー System and method for creating a dental solution including a guidance package
KR20210088946A (en) 2020-01-07 2021-07-15 주식회사 메디트 Apparatus and method for generating 3d model using data matching

Also Published As

Publication number Publication date
KR102472029B1 (en) 2022-11-30

Similar Documents

Publication Publication Date Title
US11751981B2 (en) Dynamic virtual articulator for simulating occlusion of teeth
US11633265B2 (en) Dynamic virtual articulator for simulating occlusion of teeth
JP5671734B2 (en) Computer-aided creation of custom tooth setup using facial analysis
KR20220017467A (en) Method, system and computer readable storage medium for determining occlusal parameters
KR20200070706A (en) Design method and apparatus for guiding a dental implant surgery that determines a crown position by reflecting a relationship between adjacent teeth and a an antagonistic teeth
US20230035538A1 (en) Tools and automation for tooth setup
KR102144369B1 (en) Dental CAD apparatus using characteristic of mirroring teeth and operating method the dental CAD apparatus
KR102538681B1 (en) Dental arrangement system using data of edentulous patient and method of operating the same
KR102406485B1 (en) Method for designing patient-specific abutment and apparatus thereof
KR102085852B1 (en) M method and apparatus for designing dental workpiece considering the occlusal relationship with an antagonistic teeth
KR102472029B1 (en) A device and method for providing a virtual articulator
KR102404189B1 (en) Method for designing prosthetic insertion path and prosthesis design apparatus therefor
KR102487344B1 (en) Virtual occlusion system using static and dynamic occlusion data and method of operating the same
KR102539577B1 (en) Method, device and recording medium for providing modeling data of artificial teeth for an object
KR102431223B1 (en) A device and method for obtaining a dental arch
KR102388411B1 (en) Method for fabricating tray, data transfer method and simulation apparatus therefor
KR102418809B1 (en) Method and apparatus for designing margin line of Inlay or Onlay
EP3741323A1 (en) Method for providing an anatomical prototype
KR20220051692A (en) A method for providing the shape of an artificial tooth model and device thereof
KR20230115355A (en) Method and apparatus for designing margin line of abutment model

Legal Events

Date Code Title Description
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right