WO2016108453A1 - Teeth image automatic matching method, apparatus therefor, and recording medium therefor - Google Patents

Teeth image automatic matching method, apparatus therefor, and recording medium therefor Download PDF

Info

Publication number
WO2016108453A1
WO2016108453A1 PCT/KR2015/013259 KR2015013259W WO2016108453A1 WO 2016108453 A1 WO2016108453 A1 WO 2016108453A1 KR 2015013259 W KR2015013259 W KR 2015013259W WO 2016108453 A1 WO2016108453 A1 WO 2016108453A1
Authority
WO
WIPO (PCT)
Prior art keywords
image
maximum outer
tooth
outer region
image data
Prior art date
Application number
PCT/KR2015/013259
Other languages
French (fr)
Korean (ko)
Inventor
김태환
정정운
Original Assignee
오스템임플란트 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 오스템임플란트 주식회사 filed Critical 오스템임플란트 주식회사
Publication of WO2016108453A1 publication Critical patent/WO2016108453A1/en

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61CDENTISTRY; APPARATUS OR METHODS FOR ORAL OR DENTAL HYGIENE
    • A61C1/00Dental machines for boring or cutting ; General features of dental machines or apparatus, e.g. hand-piece design
    • A61C1/08Machine parts specially adapted for dentistry
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61CDENTISTRY; APPARATUS OR METHODS FOR ORAL OR DENTAL HYGIENE
    • A61C13/00Dental prostheses; Making same
    • A61C13/34Making or working of models, e.g. preliminary castings, trial dentures; Dowel pins [4]
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61CDENTISTRY; APPARATUS OR METHODS FOR ORAL OR DENTAL HYGIENE
    • A61C19/00Dental auxiliary appliances
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61CDENTISTRY; APPARATUS OR METHODS FOR ORAL OR DENTAL HYGIENE
    • A61C19/00Dental auxiliary appliances
    • A61C19/04Measuring instruments specially adapted for dentistry

Definitions

  • the present invention relates to a dental image registration method, an apparatus and a recording medium therefor, and more particularly, to an automatic image registration method for automatically performing the registration of the dental image, an apparatus and a recording medium for the same.
  • Image registration refers to a process for transforming such different images and displaying them in one coordinate system. Through image matching, the correspondence of images obtained through different measurement methods can be confirmed.
  • an image registration process is typically performed between CT and scan data prior to entering the implant planning phase. Since the matched images serve as the basis for implant planning, which determines the location of bone tissue and neural tube, and determines the safe and optimal implant placement, the accuracy of image registration is very important for the further procedure.
  • FIG. 1 is a reference diagram for explaining an image matching method provided by a conventional medical software.
  • a user manually inputs a point that is a reference for image matching, and image matching is performed based on this.
  • the conventional image matching method since the user selects the reference point by roughly judging by the eye, the result is very inaccurate, and the user's manual operation process is inevitably followed after the image registration.
  • the user modifies the matching result by changing the location of the point or reselecting the point.
  • a user spends a lot of time for image registration due to the continuous repetitive process of registration and correction, and there is a problem that a result that satisfies the consumed time cannot be obtained.
  • a method including acquiring an image including a marker for use as an oral registration criterion and matching an image obtained from a heterogeneous sensor based on a marker in the image may be used. Since the process of performing marking for registration in the mouth of the premise is cumbersome, there was a problem causing inconvenience to the patient.
  • the present invention has been proposed in order to solve the problems of the prior art in which the inaccuracy of the matching result according to the manual operation of the user and the inconvenience of applying a separate marker exists, while excluding the user's intervention or the use of separate equipment as much as possible, It is an object of the present invention to provide an automatic tooth image matching method, an apparatus and a recording medium therefor, which can automatically perform tooth image registration with accuracy.
  • the above object is an automatic registration device for automatically matching two tooth images according to an aspect of the present invention, wherein the first maximum outer region and the second tooth image data, which are the maximum outer regions of the teeth of the first dental image data, are A maximum outer edge detector configured to detect a second maximum outer side region that is a maximum outer side region of the dental dentition; A feature point extracting unit extracting a feature point as a reference for image registration in the first maximum outer region and the second maximum outer region; And an image matching unit configured to match the first tooth image data and the second tooth image data based on the feature point.
  • the feature point extractor may extract the teeth of the first dental image data and the contact point of the first maximum outer region and the teeth of the second tooth image data and the contact point of the second maximum outer region as the feature points.
  • the display apparatus may further include a display unit configured to display a matching result of the first tooth image data and the second tooth image data so that a user may check the matching result.
  • the display unit may include the first maximum outer area and the first tooth image. 2 is a grid image obtained by dividing a maximum outer area into a plurality of grid cells, and displays the first grid image and the second grid image that have been gridized to have the same coordinate system by applying the feature points as reference coordinates, thereby improving user understanding. Can help.
  • the maximum outer edge detector may detect the first maximum outer region and the second maximum outer region in a polygonal shape in which each corner of the figure is in contact with the tooth portion protruding most in the direction of the corresponding corner.
  • the maximum outer detector detects a depth of the first maximum outer region or the second maximum outer region within the crown length of the tooth in the dental cavity in consideration of the tooth outer region that varies depending on the depth of the tooth, respectively, in three dimensions.
  • the maximum outer area can be calculated.
  • the image matching unit by applying a reference point or a peripheral region of the reference point in accordance with the user input as a reference for the image registration by modifying the image matching result calculated on the basis of the feature point extracted from the feature point extraction unit to correct the accuracy of the image registration Can be further increased.
  • the first tooth image data and the second tooth image data may each be one of a CT image, an oral scan image, and a magnetic resonance image.
  • the above object is a method for automatically matching two teeth image according to another aspect of the present invention, the method comprising the steps of: detecting the first maximum outer area which is the maximum outer area of the teeth of the first dental image data; Detecting a second maximum outer region that is a maximum outer region of the teeth of the second dental image data; Extracting a feature point which is a reference for image registration in the first maximum outer region and the second maximum outer region; And matching the first tooth image data with the second tooth image data based on the feature point.
  • the above object can also be achieved by a computer readable recording medium having recorded thereon a program for executing the above-described method for automatically matching teeth images.
  • FIG. 1 is a reference diagram for explaining a dental image registration method according to the prior art
  • FIG. 2 is a block diagram of a dental image automatic matching device according to an embodiment of the present invention.
  • FIG. 3 is a flowchart of a method for automatically matching a dental image according to an exemplary embodiment of the present invention
  • FIG. 4 is a view for explaining an example of a method for detecting a maximum tooth outer region in first tooth image data
  • 5A and 5B are views for explaining an example of a method for detecting a maximum tooth outer region in second tooth image data
  • 6A and 6B are diagrams for explaining an example of extracting feature points in a tooth maximum outer region
  • 7A and 7B are examples of a lattice image obtained by lattice the maximum outer region of the tooth image data.
  • the automatic tooth image matching device 100 may include a maximum edge detector 10, a feature point extractor 20, an image matcher 30, and a display 40. Include.
  • the maximum outline detector 10 processes the first tooth image data and the second tooth image data to detect the maximum outer region of the teeth from the two image data.
  • the first and second tooth image data may be obtained through heterogeneous sensors, or may have different coordinate systems due to a different point of view, and may be computed tomography (CT) images, oral scan images, It includes 2D image, 3D image, or more multidimensional image taken through various kinds of equipment including magnetic resonance image (MRI).
  • CT computed tomography
  • MRI magnetic resonance image
  • the maximum outer region of the tooth may be defined as a region in which each corner of the figure is in contact with the tooth portion most protruding in the corresponding corner direction while taking the form of a figure that can accommodate all the teeth in the tooth.
  • the maximum outer detection unit 10 detects a maximum outer area that is the outermost area among the plurality of outer areas.
  • the maximum outer detector 10 may detect the maximum outer region in three dimensions including not only two-dimensional images of the X-axis and Y-axis, but also depth coordinates that are Z-axis coordinates within the crown length.
  • the maximum outer extraction unit 10 performs image analysis through structure and morphology analysis and gray scale based algorithm in the image to distinguish the tooth region from other regions, for example, soft tissue such as gum, bone tissue, and the like. It is possible to detect the maximum outer area within the tooth area without being included.
  • the feature point extractor 20 extracts a feature point within each maximum outer region extracted from the dental image data.
  • the feature point extractor 20 is an edge where the brightness value of the pixel changes rapidly in one direction or a portion where the brightness value changes abruptly in all directions within the maximum edge region of each image data through processing of the image data.
  • the point that is the basis of image registration, such as the corner point, is extracted as the feature point.
  • the feature point extractor 20 may extract a contact point between the teeth of the dental image data and the maximum outer area as the feature point.
  • the image matching unit 30 performs registration of the first tooth image data and the second tooth image data based on the feature points extracted by the feature point extractor 20.
  • the matching may be performed by various matching algorithms based on the characteristics of the image.
  • the image matching unit 30 applies the reference point input from the user input means (not shown) or the peripheral area of the input reference point as an additional reference for image matching, based on the feature points extracted by the feature point extractor 20.
  • the applied primary image registration result can be modified.
  • the display unit 40 displays the result of registration of the dental image data so that the user can check it.
  • the display unit 40 displays a mark that can quantitatively determine the accuracy of the matching result by displaying different portions of the matching or relatively inaccurate parts in the matching image. You will be able to objectively determine the correctness of the match.
  • the display 40 may provide the user with a grid image obtained by dividing the maximum outer area of the first tooth image data and the second tooth image data into cells of a plurality of grids.
  • the grid image is formed by applying the feature points extracted by the feature point extractor 20 as reference coordinates so that the maximum outer region of the first tooth image data and the second tooth image data have the same coordinate system.
  • the feature points extracted during the grid image display may be overlapped and displayed on the grid so that the user may exclude the conventional feature points and use them as guide information for selecting a reference point that is more effective in correcting image registration.
  • FIG. 3 is a flowchart illustrating a matching process according to the automatic image matching method according to an embodiment of the present invention
  • FIGS. 4 to 7 are schematic diagrams for explaining an example according to each process of image matching.
  • an organic operation of the configuration of the image registration device 100 of FIG. 2 will be described with reference to FIGS. 3 and 4 to 7.
  • the maximum outer edge detector 10 detects the maximum tooth outer region from each tooth image data (S10 and S11).
  • FIG. 4 and 5 are diagrams for describing an example of a method in which the maximum outer edge detection unit 10 extracts the maximum tooth outer regions R1 and R2 from the first tooth image data and the second tooth image data, respectively.
  • FIG. 4 shows an example in which the maximum outer region of the tooth is extracted from the CT image and FIG. 5.
  • the maximum intensity projection technique is a rendering technique, in which a first two-dimensional cross-sectional image obtained first is sequentially stacked, and the voxels having the maximum intensity signal are projected by projecting in a predetermined direction.
  • the maximum outer detection unit 10 detects the maximum tooth outer region R1 that can accommodate all the tooth regions in the orthodontic portion except for other tissues such as bone and gum in the image.
  • 4 shows an example in which the maximum outer region R1 is detected in a rectangular shape, but the detected maximum tooth outer region R1 takes the form of a figure that can accommodate all the teeth in the teeth, and each corner of the figure If is configured to contact the tooth portion most protruding in the corner direction, it may be implemented to detect a variety of polygonal shape area other than the rectangular shape as the maximum outer area (R1).
  • FIGS. 5A and 5B show an example of detecting the maximum outer region R2 of the tooth in the oral scan 3D image. Unlike FIG. 4, where the maximum outer region R1 is detected in the reconstructed two-dimensional image, according to FIGS. 5A and 5B, since the maximum outer region R2 of the tooth is detected in the three-dimensional image, only the X and Y axes are detected. By detecting the Z-axis coordinates together, the maximum tooth outer region R2 having the depth coordinates can be detected.
  • the maximum outer detector 10 detects two-dimensional coordinates of the X and Y axes of the tooth maximum outer region R2, and as shown in FIG. 5B, the tooth depth.
  • the tooth outline that varies according to the Z-axis coordinate that is, depth coordinate of the tooth maximum outer region (R2) within the crown length (l) is finally detected to derive the maximum tooth outer region (R2) in three dimensions.
  • a substantially maximum outer region R2 may be obtained among the outer regions of the tooth that vary according to the height of the tooth. Meanwhile, in this case as well, various polygonal regions may be detected as the maximum outer region R2.
  • the feature point extractor 20 extracts a feature point which is a reference of image registration in the maximum outer region detected from each tooth image data (S13).
  • the feature point is a point extracted within the maximum outer region of the image, and means a characteristic point of the image that is easily identified such as an edge or a corner point of the tooth.
  • 6A and 6B are diagrams for explaining an example of extracting feature points P1 and P2 within a tooth maximum outer region.
  • the feature point extractor 20 is a feature point for image registration, and includes a contact point P1 between a dental region of the first dental image data and a first maximum outer region extracted from the first dental image data. And a contact point P2 between the dental region and the second maximum outer region of the second dental image data as a feature point.
  • the feature point extractor 20 is set based on the position of the feature points and the distance to the adjacent feature points in the dental column.
  • the selection criteria may be used to select some of the feature points.
  • the image matching unit 30 matches the two tooth image data based on the feature point (S15).
  • the matching may be performed by various matching algorithms that perform matching based on the characteristics of the image.
  • the display unit 40 displays an image matching result for the user to check (S17), and may add a quantitative mark to objectively determine the matching accuracy on the result display window. This may help the user determine if the matching result needs to be corrected.
  • the display unit 40 performs grid matching by dividing the maximum outer region of the first dental image data and the second dental image data into a plurality of grid cells as shown in FIGS. 7A and 7B. Can be provided.
  • the grid image is gridized such that the maximum outer region of the first dental image data and the second dental image data have the same coordinate system by applying feature points extracted from each image data as reference coordinates. It can be seen that. According to this, the feature points in the grid coordinate system of each tooth image data will be located at the same coordinates. Meanwhile, feature points extracted from each image data may be superimposed and displayed on the grid images of FIGS. 7A and 7B. According to the grid image, since the position corresponding to each other in each tooth image data can be easily identified, it can help the user to evaluate the image registration result or select a reference point for correcting the image registration.
  • the image matching unit 30 determines that the image matching result needs to be corrected, and thus the input reference point or the region around the input reference point for more accurate image matching is determined.
  • the new image registration result is newly added as a criterion of image registration (S19, S21).
  • the reconstruction of the reconstructed two-dimensional CT image and the three-dimensional oral scan image have been described as an example.
  • two images such as a CT image, a CT image, a scanned image, a scanned image, a magnetic resonance image, and a CT image, are described.
  • the maximum outer region of the dentition is detected within the image, and the feature points are extracted within the maximum outer region to match the image. This could be done.
  • the depth coordinates of the Z axis coordinates are calculated within the length of the crown in consideration of not only the X-axis and Y-axis coordinates but also the outer contour of the dental dentition depending on the length of the tooth.
  • the detection of the outer region is as described above.
  • the present invention may be widely applied to a multidimensional image including a 4D image in addition to the above-described 3D image.
  • the method for automatically matching a dental image may be implemented as a program that may be executed in a computer, and may be implemented as various recording media such as a magnetic storage medium, an optical reading medium, and a digital storage medium.
  • an apparatus and a recording medium therefor the user manually inputs a point which is a standard of image matching, followed by a hassle, thereby ensuring accuracy of image matching. It is possible to solve the problems of the prior art that can not be solved, and it is not necessary to apply a separate equipment for image registration can increase the convenience of the user and the patient. In addition, it is expected that the time required for the implant planning and the accuracy of the implant planning can be improved.
  • Implementations of the various techniques described herein may be implemented in digital electronic circuitry, or in computer hardware, firmware, software, or in combinations of them. Implementations may be implemented for processing by, or to control the operation of, a data processing device, eg, a programmable processor, a computer, or multiple computers, a computer program product, ie an information carrier, for example a machine readable storage. It can be implemented as a device (computer readable medium) or as a computer program tangibly embodied in a radio signal.
  • Computer programs, such as the computer program (s) described above may be written in any form of programming language, including compiled or interpreted languages, and may be written as standalone programs or in modules, components, subroutines, or computing environments. It can be deployed in any form, including as other units suitable for use.
  • the computer program can be deployed to be processed on one computer or multiple computers at one site or distributed across multiple sites and interconnected by a communication network.
  • processors suitable for the processing of a computer program include, by way of example, both general purpose and special purpose microprocessors, and any one or more processors of any kind of digital computer.
  • a processor will receive instructions and data from a read only memory or a random access memory or both.
  • Elements of a computer may include at least one processor that executes instructions and one or more memory devices that store instructions and data.
  • a computer may include one or more mass storage devices that store data, such as magnetic, magneto-optical disks, or optical disks, or receive data from, transmit data to, or both. It may be combined to be.
  • Information carriers suitable for embodying computer program instructions and data include, for example, semiconductor memory devices, for example, magnetic media such as hard disks, floppy disks, and magnetic tape, compact disk read only memory. ), Optical media such as DVD (Digital Video Disk), magneto-optical media such as floppy disk, ROM (Read Only Memory), RAM , Random Access Memory, Flash Memory, Erasable Programmable ROM (EPROM), Electrically Erasable Programmable ROM (EEPROM), and the like.
  • the processor and memory may be supplemented by or included by special purpose logic circuitry.

Abstract

The present invention relates to a teeth image automatic matching method, an apparatus therefor, and a recording medium therefor. A teeth image automatic matching apparatus according to the present invention detects the outermost boundary of teeth in teeth image data, and automatically performs image matching on the basis of image characteristic points extracted from the outermost boundary. As such, the present invention can perform image matching at a higher accuracy than manual operation by a user, and can simultaneously enhance user convenience. Further, the present invention has the effects of reducing the time required for a dental implant treatment plan, and enhancing the accuracy of the dental implant treatment plan.

Description

치아 영상 자동 정합 방법, 이를 위한 장치 및 기록 매체Automatic dental image registration method, apparatus and recording medium therefor
본 발명은 치아 영상 정합 방법, 이를 위한 장치 및 기록 매체에 관한 것으로서, 더욱 상세하게는 치아 영상의 정합을 자동으로 수행하는 영상 자동 정합 방법, 이를 위한 장치 및 기록 매체에 관한 것이다.The present invention relates to a dental image registration method, an apparatus and a recording medium therefor, and more particularly, to an automatic image registration method for automatically performing the registration of the dental image, an apparatus and a recording medium for the same.
컴퓨터 비전에서 하나의 장면이나 대상을 다른 시간이나 관점에서 촬영할 경우, 서로 다른 좌표계에 따른 영상이 얻어지게 된다. 영상 정합은 이와 같은 서로 다른 영상을 변형하여 하나의 좌표계에 나타내기 위한 처리를 의미한다. 영상 정합을 통하여 서로 다른 측정 방식을 통해 얻은 영상의 대응 관계를 확인할 수 있다.In computer vision, when one scene or object is photographed at different times or perspectives, images according to different coordinate systems are obtained. Image registration refers to a process for transforming such different images and displaying them in one coordinate system. Through image matching, the correspondence of images obtained through different measurement methods can be confirmed.
치과용 수술 가이드(surgical guide) 소프트웨어에서는 임플란트 계획 단계로 진입하기 전에 일반적으로 CT 데이터와 스캔 데이터 간의 영상 정합 과정을 거치게 된다. 정합된 영상은 골조직과 신경관 위치 등을 파악하여 안전하고 최적의 임플란트 식립 위치를 결정하는 임플란트 계획작업의 기초가 되므로 영상 정합의 정확성은 그 이후 절차진행에 있어 매우 중요한 의미를 가진다.In surgical guide software, an image registration process is typically performed between CT and scan data prior to entering the implant planning phase. Since the matched images serve as the basis for implant planning, which determines the location of bone tissue and neural tube, and determines the safe and optimal implant placement, the accuracy of image registration is very important for the further procedure.
도 1은 종래의 의료용 소프트웨어에서 제공하는 영상 정합 방법을 설명하기 위한 참고도이다. 도 1을 참조하면, 사용자가 영상 정합의 기준이 되는 포인트를 수동으로 입력하고, 이를 기초로 영상 정합이 이루어지게 된다. 이와 같은 종래의 영상 정합 방법에 따르면, 사용자가 눈으로 대략 판단하여 기준 포인트를 선택하므로 그 결과가 매우 부정확하여 영상 정합 후 사용자의 수동 조작 과정이 필연적으로 따르게 된다. 사용자는 포인트의 위치를 변경하거나 포인트를 재선택하여 정합 결과를 수정하게 된다. 이와 같이, 종래 기술에 따르면 정합, 수정의 계속되는 반복 과정으로 인하여 영상 정합에 사용자가 많은 시간을 소비하게 되며, 소비된 시간만큼 만족하는 결과를 얻을 수 없는 문제점이 있었다.1 is a reference diagram for explaining an image matching method provided by a conventional medical software. Referring to FIG. 1, a user manually inputs a point that is a reference for image matching, and image matching is performed based on this. According to the conventional image matching method, since the user selects the reference point by roughly judging by the eye, the result is very inaccurate, and the user's manual operation process is inevitably followed after the image registration. The user modifies the matching result by changing the location of the point or reselecting the point. As described above, according to the related art, a user spends a lot of time for image registration due to the continuous repetitive process of registration and correction, and there is a problem that a result that satisfies the consumed time cannot be obtained.
또 다른 종래의 방법으로서, 구강 내 정합 기준으로 활용하기 위한 마커가 포함된 영상을 획득하고, 영상 내의 마커를 기준으로 이종 센서로부터 획득된 영상을 정합하는 방법을 들 수 있으나, 이는 영상 획득시 환자의 구강 내에 정합을 위한 마킹을 수행하는 과정이 전제되어야 하므로 번거롭고, 환자에게도 불편함을 초래하는 문제점이 있었다.As another conventional method, a method including acquiring an image including a marker for use as an oral registration criterion and matching an image obtained from a heterogeneous sensor based on a marker in the image may be used. Since the process of performing marking for registration in the mouth of the premise is cumbersome, there was a problem causing inconvenience to the patient.
따라서, 별도의 마커의 이용이나 수동 조작의 번거로움 없이 높은 정확도로 영상 정합을 자동으로 수행할 수 있는 방안이 요구된다.Therefore, there is a need for a method for automatically performing image registration with high accuracy without the use of a separate marker or manual operation.
본 발명은 사용자의 수동 조작에 따른 정합 결과의 부정확성 및 별도의 마커 적용에 의한 번거로움이 존재하는 종래 기술의 문제점을 해결하기 위하여 제안된 것으로서, 사용자의 개입이나 별도의 장비이용을 최대한 배제하면서 높은 정확도로 치아 영상의 정합을 자동으로 수행할 수 있는 치아 영상 자동 정합 방법, 이를 위한 장치 및 기록 매체를 제공하는데 목적이 있다.The present invention has been proposed in order to solve the problems of the prior art in which the inaccuracy of the matching result according to the manual operation of the user and the inconvenience of applying a separate marker exists, while excluding the user's intervention or the use of separate equipment as much as possible, It is an object of the present invention to provide an automatic tooth image matching method, an apparatus and a recording medium therefor, which can automatically perform tooth image registration with accuracy.
상기한 목적은 본 발명의 일 양태에 따른 두 개의 치아 영상을 자동으로 정합하는 자동 정합 장치에 있어서, 제1 치아 영상 데이터의 치열의 최대 외곽영역인 제1 최대 외곽영역과 제2 치아 영상 데이터의 치열의 최대 외곽영역인 제2 최대 외곽영역을 검출하는 최대 외곽 검출부; 상기 제1 최대 외곽영역과 상기 제2 최대 외곽영역 내에서 영상 정합의 기준이 되는 특징점을 추출하는 특징점 추출부; 및 상기 특징점을 기준으로 상기 제1 치아 영상 데이터와 상기 제2 치아 영상 데이터의 정합을 수행하는 영상 정합부를 포함하는 치아 영상 자동 정합 장치에 의하여 달성될 수 있다.The above object is an automatic registration device for automatically matching two tooth images according to an aspect of the present invention, wherein the first maximum outer region and the second tooth image data, which are the maximum outer regions of the teeth of the first dental image data, are A maximum outer edge detector configured to detect a second maximum outer side region that is a maximum outer side region of the dental dentition; A feature point extracting unit extracting a feature point as a reference for image registration in the first maximum outer region and the second maximum outer region; And an image matching unit configured to match the first tooth image data and the second tooth image data based on the feature point.
이때, 상기 특징점 추출부는 상기 제1 치아 영상 데이터의 치열과 상기 제1 최대 외곽영역의 접점 및 상기 제2 치아 영상 데이터의 치열과 상기 제2 최대 외곽영역의 접점을 상기 특징점으로 추출할 수 있다.In this case, the feature point extractor may extract the teeth of the first dental image data and the contact point of the first maximum outer region and the teeth of the second tooth image data and the contact point of the second maximum outer region as the feature points.
한편, 상기 제1 치아 영상 데이터와 상기 제2 치아 영상 데이터의 정합 결과를 표시하는 디스플레이부를 더 포함하여 사용자로 하여금 정합 결과를 확인하도록 할 수 있으며, 상기 디스플레이부는 상기 제1 최대 외곽영역과 상기 제2 최대 외곽영역을 각각 복수의 격자 셀로 나누어 격자화한 영상으로서, 상기 특징점을 기준 좌표로 적용하여 서로 동일 좌표계를 가지도록 격자화한 제1 격자 영상과 제2 격자 영상을 표시함으로써 사용자의 이해를 도울 수 있다.The display apparatus may further include a display unit configured to display a matching result of the first tooth image data and the second tooth image data so that a user may check the matching result. The display unit may include the first maximum outer area and the first tooth image. 2 is a grid image obtained by dividing a maximum outer area into a plurality of grid cells, and displays the first grid image and the second grid image that have been gridized to have the same coordinate system by applying the feature points as reference coordinates, thereby improving user understanding. Can help.
또한, 상기 최대 외곽 검출부는 도형의 각 모서리가 해당 모서리 방향으로 가장 돌출된 치아 부분과 접하는 다각형 형태로 상기 제1 최대 외곽영역과 상기 제2 최대 외곽영역을 검출할 수 있다.The maximum outer edge detector may detect the first maximum outer region and the second maximum outer region in a polygonal shape in which each corner of the figure is in contact with the tooth portion protruding most in the direction of the corresponding corner.
그리고, 상기 최대 외곽 검출부는 치아 깊이에 따라 달라지는 치아 외곽영역을 고려하여, 상기 치열 내 치아의 치관 길이 내에서 상기 제1 최대 외곽영역 또는 상기 제2 최대 외곽영역의 깊이 좌표를 각각 결정함으로써 3차원 상에서 최대 외곽영역을 산출할 수 있다.In addition, the maximum outer detector detects a depth of the first maximum outer region or the second maximum outer region within the crown length of the tooth in the dental cavity in consideration of the tooth outer region that varies depending on the depth of the tooth, respectively, in three dimensions. The maximum outer area can be calculated.
한편, 상기 영상 정합부는 사용자 입력에 따른 기준점 또는 상기 기준점의 주변 영역을 추가로 영상 정합의 기준으로 적용하여 상기 특징점 추출부에서 추출된 특징점을 기초로 산출된 영상 정합 결과를 수정함으로써 영상 정합의 정확도를 더욱 높일 수 있다.On the other hand, the image matching unit by applying a reference point or a peripheral region of the reference point in accordance with the user input as a reference for the image registration by modifying the image matching result calculated on the basis of the feature point extracted from the feature point extraction unit to correct the accuracy of the image registration Can be further increased.
이때, 상기 제1 치아 영상 데이터와 상기 제2 치아 영상 데이터는 각각 CT 영상, 구강 스캔 영상, 및 자기공명영상 중 하나일 수 있다.In this case, the first tooth image data and the second tooth image data may each be one of a CT image, an oral scan image, and a magnetic resonance image.
뿐만 아니라, 상기한 목적은 본 발명의 또 다른 양태에 따른 두 개의 치아 영상을 자동으로 정합하는 방법에 있어서, 제1 치아 영상 데이터의 치열의 최대 외곽영역인 제1 최대 외곽영역을 검출하는 단계; 제2 치아 영상 데이터의 치열의 최대 외곽영역인 제2 최대 외곽영역을 검출하는 단계; 상기 제1 최대 외곽영역과 상기 제2 최대 외곽영역 내에서 영상 정합의 기준이 되는 특징점을 추출하는 단계; 및 상기 특징점을 기준으로 상기 제1 치아 영상 데이터와 상기 제2 치아 영상 데이터를 정합하는 단계를 포함하는 치아 영상 자동 정합 방법에 의해서도 달성될 수 있다. In addition, the above object is a method for automatically matching two teeth image according to another aspect of the present invention, the method comprising the steps of: detecting the first maximum outer area which is the maximum outer area of the teeth of the first dental image data; Detecting a second maximum outer region that is a maximum outer region of the teeth of the second dental image data; Extracting a feature point which is a reference for image registration in the first maximum outer region and the second maximum outer region; And matching the first tooth image data with the second tooth image data based on the feature point.
상기한 목적은 전술된 치아 영상 자동 정합 방법을 실행하기 위한 프로그램이 기록된 컴퓨터로 읽을 수 있는 기록 매체에 의해서도 달성될 수 있다.The above object can also be achieved by a computer readable recording medium having recorded thereon a program for executing the above-described method for automatically matching teeth images.
이상 설명한 바와 같이, 본 발명에 따르면, 높은 정확도로 영상 정합을 자동으로 수행하여 사용자의 편의성을 증진시키고, 이에 수반하여 임플란트 계획에 소요되는 시간 단축 및 임플란트 계획의 정확성을 제고할 수 있는 효과가 있다.As described above, according to the present invention, it is possible to automatically perform image matching with high accuracy, thereby improving user convenience, and consequently, reducing the time required for implant planning and improving the accuracy of the implant planning. .
도 1은 종래 기술에 따른 치아 영상 정합 방법을 설명하기 위한 참고도;1 is a reference diagram for explaining a dental image registration method according to the prior art;
도 2는 본 발명의 실시예에 따른 치아 영상 자동 정합 장치의 블록도;2 is a block diagram of a dental image automatic matching device according to an embodiment of the present invention;
도 3은 본 발명의 실시예에 따른 치아 영상 자동 정합 방법의 흐름도;3 is a flowchart of a method for automatically matching a dental image according to an exemplary embodiment of the present invention;
도 4는 제1 치아 영상 데이터에서 치아 최대 외곽영역을 검출하는 방법의 일 예를 설명하기 위한 도면; 4 is a view for explaining an example of a method for detecting a maximum tooth outer region in first tooth image data;
도 5a와 도 5b는 제2 치아 영상 데이터에서 치아 최대 외곽영역을 검출하는 방법의 일 예를 설명하기 위한 도면;5A and 5B are views for explaining an example of a method for detecting a maximum tooth outer region in second tooth image data;
도 6a와 도 6b는 치아 최대 외곽영역 내에서 특징점을 추출하는 예를 설명하기 위한 도면; 및6A and 6B are diagrams for explaining an example of extracting feature points in a tooth maximum outer region; And
도 7a와 도 7b는 각 치아 영상 데이터의 치아 최대 외곽영역을 격자화한 격자 영상의 일 예이다.7A and 7B are examples of a lattice image obtained by lattice the maximum outer region of the tooth image data.
이하 본 발명의 바람직한 실시 예를 첨부한 도면을 참조하여 상세히 설명한다. 다만, 하기의 설명 및 첨부된 도면에서 본 발명의 요지를 흐릴 수 있는 공지 기능 또는 구성에 대한 상세한 설명은 생략한다. 또한, 도면 전체에 걸쳐 동일한 구성 요소들은 가능한 한 동일한 도면 부호로 나타내고 있음에 유의하여야 한다.Hereinafter, exemplary embodiments of the present invention will be described in detail with reference to the accompanying drawings. However, in the following description and the accompanying drawings, detailed descriptions of well-known functions or configurations that may obscure the subject matter of the present invention will be omitted. In addition, it should be noted that like elements are denoted by the same reference numerals as much as possible throughout the drawings.
이하에서 설명되는 본 명세서 및 청구범위에 사용된 용어나 단어는 통상적이거나 사전적인 의미로 한정해서 해석되어서는 아니 되며, 발명자는 그 자신의 발명을 가장 최선의 방법으로 설명하기 위한 용어의 개념으로 적절하게 정의할 수 있다는 원칙에 입각하여 본 발명의 기술적 사상에 부합하는 의미와 개념으로 해석되어야만 한다. 따라서 본 명세서에 기재된 실시 예와 도면에 도시된 구성은 본 발명의 가장 바람직한 일 실시 예에 불과할 뿐이고, 본 발명의 기술적 사상을 모두 대변하는 것은 아니므로, 본 출원시점에 있어서 이들을 대체할 수 있는 다양한 균등물과 변형 예들이 있을 수 있음을 이해하여야 한다.The terms or words used in the specification and claims described below should not be construed as being limited to ordinary or dictionary meanings, and the inventors are appropriate as concepts of terms for explaining their own invention in the best way. It should be interpreted as meanings and concepts in accordance with the technical spirit of the present invention based on the principle that it can be defined. Therefore, the embodiments described in the present specification and the configuration shown in the drawings are only the most preferred embodiments of the present invention, and do not represent all of the technical ideas of the present invention, and various alternatives may be substituted at the time of the present application. It should be understood that there may be equivalents and variations.
도 2는 본 발명의 실시예에 따른 치아 영상 자동 정합 장치(100)의 블록도이다. 도 2를 참조하면, 본 발명의 실시예에 따른 치아 영상 자동 정합 장치(100)는 최대 외곽 검출부(10), 특징점 추출부(20), 영상 정합부(30), 및 디스플레이부(40)를 포함한다.2 is a block diagram of the dental image automatic matching device 100 according to an embodiment of the present invention. Referring to FIG. 2, the automatic tooth image matching device 100 according to the embodiment of the present invention may include a maximum edge detector 10, a feature point extractor 20, an image matcher 30, and a display 40. Include.
최대 외곽 검출부(10)는 제1 치아 영상 데이터와 제2 치아 영상 데이터를 처리하여 두 영상 데이터에서 각각 치열의 최대 외곽영역을 검출한다. 참고로, 제1 및 제2 치아 영상 데이터는 이기종 센서를 통하여 획득되거나, 서로 다른 시점에 획득되는 등의 원인으로 말미암아 서로 다른 좌표계를 가지는 영상으로서, 각각 CT(Computerized tomography) 영상, 구강 스캔 영상, 자기공명영상(Magnetic Resonance Image, MRI) 등을 포함하여 다양한 종류의 장비를 통해 촬영되는 2차원 영상, 3차원 영상, 또는 그 이상의 다차원 영상을 포괄한다.The maximum outline detector 10 processes the first tooth image data and the second tooth image data to detect the maximum outer region of the teeth from the two image data. For reference, the first and second tooth image data may be obtained through heterogeneous sensors, or may have different coordinate systems due to a different point of view, and may be computed tomography (CT) images, oral scan images, It includes 2D image, 3D image, or more multidimensional image taken through various kinds of equipment including magnetic resonance image (MRI).
이때, 치아의 최대 외곽영역은 치열 내 치아를 모두 수용 가능한 도형의 형태를 취하면서, 도형의 각 모서리가 해당 모서리 방향으로 가장 돌출된 치아 부분과 접하도록 설정되는 영역으로 정의될 수 있다. 최대 외곽 검출부(10)는 다수의 외곽영역 중 최외곽 영역인 최대 외곽영역을 검출한다.In this case, the maximum outer region of the tooth may be defined as a region in which each corner of the figure is in contact with the tooth portion most protruding in the corresponding corner direction while taking the form of a figure that can accommodate all the teeth in the tooth. The maximum outer detection unit 10 detects a maximum outer area that is the outermost area among the plurality of outer areas.
최대 외곽 검출부(10)는 X축, Y축의 2차원 상에서 뿐만 아니라 치관 길이 내에서 Z축 좌표인 깊이 좌표를 포함하여 3차원 상에서 최대 외곽영역을 검출할 수 있다.The maximum outer detector 10 may detect the maximum outer region in three dimensions including not only two-dimensional images of the X-axis and Y-axis, but also depth coordinates that are Z-axis coordinates within the crown length.
최대 외곽 추출부(10)는 영상에서 구조 및 형태분석, 그레이 스케일에 기반한 알고리즘을 통한 영상 분석 처리를 수행하여 치아 영역과 그 외의 영역, 예컨대, 잇몸 등의 연조직, 뼈조직을 구분함으로써 다른 영역이 포함됨이 없이 치아 영역 내에서 최대 외곽영역을 검출할 수 있다.The maximum outer extraction unit 10 performs image analysis through structure and morphology analysis and gray scale based algorithm in the image to distinguish the tooth region from other regions, for example, soft tissue such as gum, bone tissue, and the like. It is possible to detect the maximum outer area within the tooth area without being included.
특징점 추출부(20)는 치아 영상 데이터에서 추출된 각각의 최대 외곽영역 내에서 특징점을 추출한다. 특징점 추출부(20)는 영상 데이터의 처리를 통하여 각 영상 데이터의 최대 최곽영역 내에서 화소의 밝기값이 한 방향으로 급격히 변하는 부분인 에지(edge)나 모든 방향으로 밝기값이 급격하게 변하는 부분인 코너(corner) 포인트와 같이 영상 정합의 기준이 되는 포인트를 특징점으로 추출한다. 특징점 추출의 일 예로, 특징점 추출부(20)는 치아 영상 데이터의 치열과 최대 외곽영역의 접점을 특징점으로 추출할 수 있다.The feature point extractor 20 extracts a feature point within each maximum outer region extracted from the dental image data. The feature point extractor 20 is an edge where the brightness value of the pixel changes rapidly in one direction or a portion where the brightness value changes abruptly in all directions within the maximum edge region of each image data through processing of the image data. The point that is the basis of image registration, such as the corner point, is extracted as the feature point. As an example of feature point extraction, the feature point extractor 20 may extract a contact point between the teeth of the dental image data and the maximum outer area as the feature point.
영상 정합부(30)는 특징점 추출부(20)를 통하여 추출된 특징점을 기준으로 제1 치아 영상 데이터와 제2 치아 영상 데이터의 정합을 수행한다. 이때, 정합은 영상의 특징을 바탕으로 한 다양한 정합 알고리즘에 의하여 수행될 수 있다.The image matching unit 30 performs registration of the first tooth image data and the second tooth image data based on the feature points extracted by the feature point extractor 20. In this case, the matching may be performed by various matching algorithms based on the characteristics of the image.
또한, 영상 정합부(30)는 사용자 입력수단(미도시)으로부터 입력된 기준점 또는 입력된 기준점의 주변 영역을 영상 정합의 추가 기준으로 적용하여 특징점 추출부(20)를 통해 추출된 특징점을 기준으로 적용한 1차 영상 정합 결과를 수정할 수 있다.In addition, the image matching unit 30 applies the reference point input from the user input means (not shown) or the peripheral area of the input reference point as an additional reference for image matching, based on the feature points extracted by the feature point extractor 20. The applied primary image registration result can be modified.
디스플레이부(40)는 치아 영상 데이터의 정합 결과를 표시하여 사용자로 하여금 확인할 수 있도록 한다. 정합 결과 표시시, 디스플레이부(40)는 정합 영상 내에서 정합이 어긋나거나 상대적으로 부정확한 부분을 색을 달리하여 표시하는 등으로 영상 정합 결과의 정확도를 정량적으로 파악할 수 있는 표식을 제공함으로써 사용자가 정합의 정확 정도를 객관적으로 파악하도록 할 수 있을 것이다.The display unit 40 displays the result of registration of the dental image data so that the user can check it. When the matching result is displayed, the display unit 40 displays a mark that can quantitatively determine the accuracy of the matching result by displaying different portions of the matching or relatively inaccurate parts in the matching image. You will be able to objectively determine the correctness of the match.
또한, 디스플레이부(40)는 제1 치아 영상 데이터와 제2 치아 영상 데이터의 최대 외곽영역을 각각 복수의 격자의 셀로 나누어 격자화한 격자 영상을 사용자에게 제공할 수 있다. 격자 영상은 특징점 추출부(20)를 통하여 추출된 특징점을 기준 좌표로 적용하여 제1 치아 영상 데이터와 제2 치아 영상 데이터의 최대 외곽 영역이 서로 동일한 좌표계를 가지도록 격자화된 것이다. 이를 통하여, 영상 정합 결과를 평가하거나 수정할 때 사용자의 이해를 도모할 수 있다. 또한, 사용자가 종래의 특징점을 배제하고, 영상 정합 수정에 있어 더욱 효과적인 기준점을 선택하기 위한 가이드 정보로 활용할 수 있도록 격자 영상 표시시 추출된 특징점을 격자 상에 함께 중첩하여 표시할 수도 있을 것이다.In addition, the display 40 may provide the user with a grid image obtained by dividing the maximum outer area of the first tooth image data and the second tooth image data into cells of a plurality of grids. The grid image is formed by applying the feature points extracted by the feature point extractor 20 as reference coordinates so that the maximum outer region of the first tooth image data and the second tooth image data have the same coordinate system. Through this, it is possible to improve the user's understanding when evaluating or correcting the image registration result. In addition, the feature points extracted during the grid image display may be overlapped and displayed on the grid so that the user may exclude the conventional feature points and use them as guide information for selecting a reference point that is more effective in correcting image registration.
도 3은 본 발명의 실시예에 따른 영상 자동 정합 방법에 따른 정합 과정을 나타낸 흐름도이고, 도 4 내지 도 7은 영상 정합의 각 과정에 따른 예를 설명하기 위한 도식도이다. 이하, 도 3과 도 4 내지 도 7을 함께 참조하여 도 2의 영상 정합 장치(100) 구성의 유기적인 동작 과정을 살펴본다.3 is a flowchart illustrating a matching process according to the automatic image matching method according to an embodiment of the present invention, and FIGS. 4 to 7 are schematic diagrams for explaining an example according to each process of image matching. Hereinafter, an organic operation of the configuration of the image registration device 100 of FIG. 2 will be described with reference to FIGS. 3 and 4 to 7.
영상 장비를 활용하여 영상 정합을 수행할 제1 치아 영상 데이터와 제2 치아 영상 데이터가 획득되면, 최대 외곽 검출부(10)는 각 치아 영상 데이터에서 치아 최대 외곽영역을 검출한다(S10, S11).When the first tooth image data and the second tooth image data to perform image registration using the imaging equipment are acquired, the maximum outer edge detector 10 detects the maximum tooth outer region from each tooth image data (S10 and S11).
도 4와 도 5는 최대 외곽 검출부(10)가 각각 제1 치아 영상 데이터와 제2 치아 영상 데이터에서 치아 최대 외곽영역(R1, R2)을 추출하는 방법의 예를 설명하기 위한 도식도이다. 참고로, 도 4는 CT 영상에서, 도 5는 구강 스캔 영상에서 치아 최대 외곽영역이 추출된 모습의 예를 보여준다.4 and 5 are diagrams for describing an example of a method in which the maximum outer edge detection unit 10 extracts the maximum tooth outer regions R1 and R2 from the first tooth image data and the second tooth image data, respectively. For reference, FIG. 4 shows an example in which the maximum outer region of the tooth is extracted from the CT image and FIG. 5.
먼저, 도 4를 참조하면, 획득된 CT 영상을 최대강도투사기법(Maximum Intensity Projection, MIP)을 통하여 재구성한 2차원적 축면(axial) 영상을 보여준다. 참고로 최대강도투사기법은 렌더링(rendering) 기법의 하나로서, 1차적으로 획득된 2차원 단면 영상을 순차적으로 쌓아올린 후 소정의 방향에서 투사하였을 때 최대강도의 신호를 갖는 복셀들을 선택하여 영상을 재구성하는 방법이다.First, referring to FIG. 4, a two-dimensional axial image of the acquired CT image is reconstructed through a maximum intensity projection (MIP) technique. For reference, the maximum intensity projection technique is a rendering technique, in which a first two-dimensional cross-sectional image obtained first is sequentially stacked, and the voxels having the maximum intensity signal are projected by projecting in a predetermined direction. How to reconstruct
최대 외곽 검출부(10)는 도 4와 같이, 영상에서 뼈와 잇몸 등의 다른 조직을 제외한 치열부분에서 치아영역을 모두 수용할 수 있는 치아 최대 외곽영역(R1)을 검출한다. 도 4는 직사각형 형태로 최대 외곽영역(R1)이 검출된 모습의 예를 보여주나, 검출된 치아 최대 외곽영역(R1)이 치열 내 치아를 모두 수용 가능한 도형의 형태를 취하면서, 도형의 각 모서리가 해당 모서리 방향으로 가장 돌출된 치아 부분과 접하도록 구성된다면, 사각형 형태 외의 다양한 다각형 형태의 영역을 최대 외곽영역(R1)으로 검출하도록 구현될 수 있을 것이다.As shown in FIG. 4, the maximum outer detection unit 10 detects the maximum tooth outer region R1 that can accommodate all the tooth regions in the orthodontic portion except for other tissues such as bone and gum in the image. 4 shows an example in which the maximum outer region R1 is detected in a rectangular shape, but the detected maximum tooth outer region R1 takes the form of a figure that can accommodate all the teeth in the teeth, and each corner of the figure If is configured to contact the tooth portion most protruding in the corner direction, it may be implemented to detect a variety of polygonal shape area other than the rectangular shape as the maximum outer area (R1).
이어서, 도 5a와 도 5b는 구강 스캔 3차원 영상에서 치아 최대 외곽영역(R2)을 검출하는 일 예를 보여준다. 재구성된 2차원적 영상에서 최대 외곽영역(R1)을 검출한 도 4와는 달리, 도 5a와 도 5b에 따르면, 3차원 영상에서 치아 최대 외곽영역(R2)을 검출하는 것이므로 X축, Y축 이외의 Z축 좌표를 함께 검출함으로써 깊이 좌표를 가지는 치아 최대 외곽영역(R2)을 검출할 수 있다. 5A and 5B show an example of detecting the maximum outer region R2 of the tooth in the oral scan 3D image. Unlike FIG. 4, where the maximum outer region R1 is detected in the reconstructed two-dimensional image, according to FIGS. 5A and 5B, since the maximum outer region R2 of the tooth is detected in the three-dimensional image, only the X and Y axes are detected. By detecting the Z-axis coordinates together, the maximum tooth outer region R2 having the depth coordinates can be detected.
이에 대하여 설명하면, 최대 외곽 검출부(10)는 도 5a에 도시된 바와 같이, 치아 최대 외곽영역(R2)의 X축과 Y축의 2차원 좌표를 검출하고, 도 5b에 도시된 바와 같이, 치아 깊이에 따라 달라지는 치아 외곽을 고려하여 치관 길이(l) 내에서 치아 최대 외곽영역(R2)의 Z축 좌표, 즉, 깊이 좌표를 검출하여 최종적으로 3차원 상에서 치아 최대 외곽영역(R2)을 도출하게 된다. 이로써, 치아 높이에 따라 달라지는 치아 외곽영역 중에서 실질적인 최대 외곽영역(R2)을 얻을 수 있다. 한편, 이때에도 다양한 다각형 형태의 영역이 최대 외곽영역(R2)으로 검출될 수 있음은 물론이다.In this regard, as illustrated in FIG. 5A, the maximum outer detector 10 detects two-dimensional coordinates of the X and Y axes of the tooth maximum outer region R2, and as shown in FIG. 5B, the tooth depth. In consideration of the tooth outline that varies according to the Z-axis coordinate, that is, depth coordinate of the tooth maximum outer region (R2) within the crown length (l) is finally detected to derive the maximum tooth outer region (R2) in three dimensions. . As a result, a substantially maximum outer region R2 may be obtained among the outer regions of the tooth that vary according to the height of the tooth. Meanwhile, in this case as well, various polygonal regions may be detected as the maximum outer region R2.
이어서, 특징점 추출부(20)는 각 치아 영상 데이터에서 검출된 최대 외곽영역에서 영상 정합의 기준이 되는 특징점을 추출한다(S13). 특징점은 영상 내 최대 외곽영역 내에서 추출되는 점으로서, 치아의 에지나 코너 포인트와 같이 식별이 용이한 영상의 특징적인 점을 의미한다. Subsequently, the feature point extractor 20 extracts a feature point which is a reference of image registration in the maximum outer region detected from each tooth image data (S13). The feature point is a point extracted within the maximum outer region of the image, and means a characteristic point of the image that is easily identified such as an edge or a corner point of the tooth.
도 6a 및 도 6b는 치아 최대 외곽영역 내에서 특징점(P1, P2)을 추출하는 일 예를 설명하기 위한 도면이다.6A and 6B are diagrams for explaining an example of extracting feature points P1 and P2 within a tooth maximum outer region.
도 6a와 도 6b를 참조하면, 특징점 추출부(20)는 영상 정합을 위한 특징점으로서, 제1 치아 영상 데이터의 치열영역과 제1 치아 영상 데이터에서 추출된 제1 최대 외곽영역의 접점(P1) 및 제2 치아 영상 데이터의 치열영역과 제2 최대 외곽영역이 접하는 접점(P2)을 특징점으로 추출할 수 있다.6A and 6B, the feature point extractor 20 is a feature point for image registration, and includes a contact point P1 between a dental region of the first dental image data and a first maximum outer region extracted from the first dental image data. And a contact point P2 between the dental region and the second maximum outer region of the second dental image data as a feature point.
이때, 특징점 추출부(20)는 영상 내에서 다수의 특징점이 추출되었을 때, 추출된 특징점이 사전에 설정된 기준 개수를 초과하면, 치열 내에서 특징점의 위치 및 인접 특징점과의 거리 등을 기초로 설정된 선택기준을 이용하여 다수의 특징점 중 일부 특징점을 선택할 수도 있을 것이다.In this case, when a plurality of feature points are extracted from the image, when the extracted feature points exceed a preset reference number, the feature point extractor 20 is set based on the position of the feature points and the distance to the adjacent feature points in the dental column. The selection criteria may be used to select some of the feature points.
위와 같이, 각 치아 영상 데이터에서 특징점이 추출되면, 영상 정합부(30)는 특징점을 기준으로 두 치아 영상 데이터를 정합한다(S15). 정합은 영상의 특징을 기반으로 하여 정합을 수행하는 다양한 정합 알고리즘에 의할 수 있음은 전술된 바와 같다.As described above, when the feature point is extracted from each tooth image data, the image matching unit 30 matches the two tooth image data based on the feature point (S15). As described above, the matching may be performed by various matching algorithms that perform matching based on the characteristics of the image.
디스플레이부(40)는 사용자가 확인할 수 있도록 영상 정합 결과를 표시하며(S17), 이때, 결과 표시창에 정합 정확도를 객관적으로 파악할 수 있는 정량적인 표식을 부가할 수 있다. 이는 사용자가 정합 결과의 수정 필요 여부를 판단하는데 도움이 될 수 있다.The display unit 40 displays an image matching result for the user to check (S17), and may add a quantitative mark to objectively determine the matching accuracy on the result display window. This may help the user determine if the matching result needs to be corrected.
한편, 디스플레이부(40)는 영상 정합 결과와 함께 도 7a와 도7b에 도시된 바와 같이, 제1 치아 영상 데이터와 제2 치아 영상 데이터의 최대 외곽영역을 복수의 격자 셀로 나누어 격자화한 격자 영상을 제공할 수 있다.Meanwhile, as illustrated in FIGS. 7A and 7B, the display unit 40 performs grid matching by dividing the maximum outer region of the first dental image data and the second dental image data into a plurality of grid cells as shown in FIGS. 7A and 7B. Can be provided.
도 7a와 도 7b를 참조하면, 격자 영상은 각 영상 데이터에서 추출된 특징점을 기준 좌표로 적용하여 제1 치아 영상 데이터와 제2 치아 영상 데이터의 최대 외곽 영역이 서로 동일한 좌표계를 가지도록 격자화된 것임을 알 수 있다. 이에 의하면, 각 치아 영상 데이터의 격자좌표계에서 특징점이 같은 좌표에 위치하게 될 것이다. 한편, 도 7a 및 도 7b의 격자 영상에 각 영상 데이터에서 추출된 특징점을 중첩하여 표시할 수도 있다. 이와 같은 격자 영상에 의하면, 각 치아 영상 데이터에서 서로 대응되는 위치를 쉽게 파악할 수 있기 때문에 사용자가 영상 정합 결과를 평가하거나 영상 정합의 수정을 위한 기준점을 선택하는데 도움을 줄 수 있다.Referring to FIGS. 7A and 7B, the grid image is gridized such that the maximum outer region of the first dental image data and the second dental image data have the same coordinate system by applying feature points extracted from each image data as reference coordinates. It can be seen that. According to this, the feature points in the grid coordinate system of each tooth image data will be located at the same coordinates. Meanwhile, feature points extracted from each image data may be superimposed and displayed on the grid images of FIGS. 7A and 7B. According to the grid image, since the position corresponding to each other in each tooth image data can be easily identified, it can help the user to evaluate the image registration result or select a reference point for correcting the image registration.
영상 정합부(30)는 사용자 입력수단을 통하여 사용자로부터 치아 영상 데이터에서 기준점이 입력되면, 영상 정합 결과의 수정이 필요한 것으로 판단하여, 입력된 기준점 또는 더 정확한 영상 정합을 위하여 입력된 기준점 주변 영역을 새롭게 영상 정합의 기준으로 추가하여 종전의 영상 정합 결과를 수정하게 된다(S19, S21).When the reference point is input from the user image through the user input means, the image matching unit 30 determines that the image matching result needs to be corrected, and thus the input reference point or the region around the input reference point for more accurate image matching is determined. The new image registration result is newly added as a criterion of image registration (S19, S21).
전술된 실시예에서는 재구성된 2차원적 CT영상과 3차원 구강 스캔 영상의 정합이 이루어지는 것을 일 예로 들어 설명되었으나, CT영상-CT영상, 스캔 영상-스캔 영상, 자기공명영상-CT영상 등과 같이 2차원-2차원 영상, 2차원-3차원 영상, 3차원-3차원 영상의 다양한 조합에 대해서 위와 동일하게 영상 내에서 치열의 최대 외곽영역을 검출하고, 최대 외곽영역 내에서 특징점을 추출하여 영상 정합이 수행될 수 있을 것이다. 이때, 3차원 영상에서 치아 최대 외곽영역 산출시 X축, Y축 좌표 뿐 아니라, 치열의 외곽이 치관 길이에 따라 달라짐을 고려하여 치관 길이 내에서 Z축 좌표인 깊이 좌표를 산출하여 최종적인 치아 최대 외곽영역을 검출할 수 있음은 앞서 설명된 바와 같다. 또한, 전술된 3차원 영상 외에 4차원 영상을 포함한 다차원 영상에도 두루 적용가능하다.In the above-described embodiment, the reconstruction of the reconstructed two-dimensional CT image and the three-dimensional oral scan image have been described as an example. However, two images, such as a CT image, a CT image, a scanned image, a scanned image, a magnetic resonance image, and a CT image, are described. For the various combinations of 2D-3D, 3D-3D, and 3D-3D images, the maximum outer region of the dentition is detected within the image, and the feature points are extracted within the maximum outer region to match the image. This could be done. At this time, in calculating the maximum outer area of the tooth in the 3D image, the depth coordinates of the Z axis coordinates are calculated within the length of the crown in consideration of not only the X-axis and Y-axis coordinates but also the outer contour of the dental dentition depending on the length of the tooth. The detection of the outer region is as described above. In addition, the present invention may be widely applied to a multidimensional image including a 4D image in addition to the above-described 3D image.
한편, 본 발명의 실시예에 따른 치아 영상 자동 정합 방법은 컴퓨터에서 실행될 수 있는 프로그램으로 작성되어 마그네틱 저장매체, 광학적 판독매체, 디지털 저장매체 등 다양한 기록 매체로도 구현될 수 있을 것이다.Meanwhile, the method for automatically matching a dental image according to an exemplary embodiment of the present invention may be implemented as a program that may be executed in a computer, and may be implemented as various recording media such as a magnetic storage medium, an optical reading medium, and a digital storage medium.
이처럼, 본 발명에 따른 영상 자동 정합 방법, 이를 위한 장치 및 기록 매체에 따르면, 사용자가 수동으로 직접 영상 정합의 기준이 되는 포인트를 입력하여 번거로움이 뒤따르고, 이를 통해서도 영상 정합의 정확도를 보장할 수 없는 종래 기술의 문제점을 해결할 수 있으며, 영상 정합을 위한 별도의 장비 적용도 불필요하므로 사용자와 환자의 편의를 증대시킬 수 있다. 또한, 이에 수반하여, 임플란트 계획에 소요되는 시간 단축 및 임플란트 계획의 정확성을 제고할 수 있을 것으로 기대된다.As described above, according to the automatic image matching method according to the present invention, an apparatus and a recording medium therefor, the user manually inputs a point which is a standard of image matching, followed by a hassle, thereby ensuring accuracy of image matching. It is possible to solve the problems of the prior art that can not be solved, and it is not necessary to apply a separate equipment for image registration can increase the convenience of the user and the patient. In addition, it is expected that the time required for the implant planning and the accuracy of the implant planning can be improved.
본 명세서에 설명된 각종 기술들의 구현들은 디지털 전자 회로조직으로, 또는 컴퓨터 하드웨어, 펌웨어, 소프트웨어로, 또는 그들의 조합들로 구현될 수 있다. 구현들은 데이터 처리 장치, 예를 들어 프로그램가능 프로세서, 컴퓨터, 또는 다수의 컴퓨터들의 동작에 의한 처리를 위해, 또는 이 동작을 제어하기 위해, 컴퓨터 프로그램 제품, 즉 정보 캐리어, 예를 들어 기계 판독가능 저장 장치(컴퓨터 판독가능 매체) 또는 전파 신호에서 유형적으로 구체화된 컴퓨터 프로그램으로서 구현될 수 있다. 상술한 컴퓨터 프로그램(들)과 같은 컴퓨터 프로그램은 컴파일된 또는 인터프리트된 언어들을 포함하는 임의의 형태의 프로그래밍 언어로 기록될 수 있고, 독립형 프로그램으로서 또는 모듈, 구성요소, 서브루틴, 또는 컴퓨팅 환경에서의 사용에 적절한 다른 유닛으로서 포함하는 포함하는 임의의 형태로 전개될 수 있다. 컴퓨터 프로그램은 하나의 사이트에서 하나의 컴퓨터 또는 다수의 컴퓨터들 상에서 처리되도록 또는 다수의 사이트들에 걸쳐 분배되고 통신 네트워크에 의해 상호 연결되도록 전개될 수 있다.Implementations of the various techniques described herein may be implemented in digital electronic circuitry, or in computer hardware, firmware, software, or in combinations of them. Implementations may be implemented for processing by, or to control the operation of, a data processing device, eg, a programmable processor, a computer, or multiple computers, a computer program product, ie an information carrier, for example a machine readable storage. It can be implemented as a device (computer readable medium) or as a computer program tangibly embodied in a radio signal. Computer programs, such as the computer program (s) described above, may be written in any form of programming language, including compiled or interpreted languages, and may be written as standalone programs or in modules, components, subroutines, or computing environments. It can be deployed in any form, including as other units suitable for use. The computer program can be deployed to be processed on one computer or multiple computers at one site or distributed across multiple sites and interconnected by a communication network.
컴퓨터 프로그램의 처리에 적절한 프로세서들은 예로서, 범용 및 특수 목적 마이크로프로세서들 둘 다, 및 임의의 종류의 디지털 컴퓨터의 임의의 하나 이상의 프로세서들을 포함한다. 일반적으로, 프로세서는 판독 전용 메모리 또는 랜덤 액세스 메모리 또는 둘 다로부터 명령어들 및 데이터를 수신할 것이다. 컴퓨터의 요소들은 명령어들을 실행하는 적어도 하나의 프로세서 및 명령어들 및 데이터를 저장하는 하나 이상의 메모리 장치들을 포함할 수 있다. 일반적으로, 컴퓨터는 데이터를 저장하는 하나 이상의 대량 저장 장치들, 예를 들어 자기, 자기-광 디스크들, 또는 광 디스크들을 포함할 수 있거나, 이것들로부터 데이터를 수신하거나 이것들에 데이터를 송신하거나 또는 양쪽으로 되도록 결합될 수도 있다. 컴퓨터 프로그램 명령어들 및 데이터를 구체화하는데 적절한 정보 캐리어들은 예로서 반도체 메모리 장치들, 예를 들어, 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체(Magnetic Media), CD-ROM(Compact Disk Read Only Memory), DVD(Digital Video Disk)와 같은 광 기록 매체(Optical Media), 플롭티컬 디스크(Floptical Disk)와 같은 자기-광 매체(Magneto-Optical Media), 롬(ROM, Read Only Memory), 램(RAM, Random Access Memory), 플래시 메모리, EPROM(Erasable Programmable ROM), EEPROM(Electrically Erasable Programmable ROM) 등을 포함한다. 프로세서 및 메모리는 특수 목적 논리 회로조직에 의해 보충되거나, 이에 포함될 수 있다.Processors suitable for the processing of a computer program include, by way of example, both general purpose and special purpose microprocessors, and any one or more processors of any kind of digital computer. In general, a processor will receive instructions and data from a read only memory or a random access memory or both. Elements of a computer may include at least one processor that executes instructions and one or more memory devices that store instructions and data. In general, a computer may include one or more mass storage devices that store data, such as magnetic, magneto-optical disks, or optical disks, or receive data from, transmit data to, or both. It may be combined to be. Information carriers suitable for embodying computer program instructions and data include, for example, semiconductor memory devices, for example, magnetic media such as hard disks, floppy disks, and magnetic tape, compact disk read only memory. ), Optical media such as DVD (Digital Video Disk), magneto-optical media such as floppy disk, ROM (Read Only Memory), RAM , Random Access Memory, Flash Memory, Erasable Programmable ROM (EPROM), Electrically Erasable Programmable ROM (EEPROM), and the like. The processor and memory may be supplemented by or included by special purpose logic circuitry.
본 명세서는 다수의 특정한 구현물의 세부사항들을 포함하지만, 이들은 어떠한 발명이나 청구 가능한 것의 범위에 대해서도 제한적인 것으로서 이해되어서는 안되며, 오히려 특정한 발명의 특정한 실시형태에 특유할 수 있는 특징들에 대한 설명으로서 이해되어야 한다. 개별적인 실시형태의 문맥에서 본 명세서에 기술된 특정한 특징들은 단일 실시형태에서 조합하여 구현될 수도 있다. 반대로, 단일 실시형태의 문맥에서 기술한 다양한 특징들 역시 개별적으로 혹은 어떠한 적절한 하위 조합으로도 복수의 실시형태에서 구현 가능하다. 나아가, 특징들이 특정한 조합으로 동작하고 초기에 그와 같이 청구된 바와 같이 묘사될 수 있지만, 청구된 조합으로부터의 하나 이상의 특징들은 일부 경우에 그 조합으로부터 배제될 수 있으며, 그 청구된 조합은 하위 조합이나 하위 조합의 변형물로 변경될 수 있다.Although the specification includes numerous specific implementation details, these should not be construed as limiting to any invention or the scope of the claims, but rather as a description of features that may be specific to a particular embodiment of a particular invention. It must be understood. Certain features that are described in this specification in the context of separate embodiments may be implemented in combination in a single embodiment. Conversely, various features that are described in the context of a single embodiment can also be implemented in multiple embodiments individually or in any suitable subcombination. Furthermore, while the features may operate in a particular combination and may be initially depicted as so claimed, one or more features from the claimed combination may in some cases be excluded from the combination, the claimed combination being a subcombination Or a combination of subcombinations.
마찬가지로, 특정한 순서로 도면에서 동작들을 묘사하고 있지만, 이는 바람직한 결과를 얻기 위하여 도시된 그 특정한 순서나 순차적인 순서대로 그러한 동작들을 수행하여야 한다거나 모든 도시된 동작들이 수행되어야 하는 것으로 이해되어서는 안 된다. 특정한 경우, 멀티태스킹과 병렬 프로세싱이 유리할 수 있다. 또한, 상술한 실시형태의 다양한 시스템 컴포넌트의 분리는 그러한 분리를 모든 실시형태에서 요구하는 것으로 이해되어서는 안되며, 설명한 프로그램 컴포넌트와 시스템들은 일반적으로 단일의 소프트웨어 제품으로 함께 통합되거나 다중 소프트웨어 제품에 패키징 될 수 있다는 점을 이해하여야 한다.Likewise, although the operations are depicted in the drawings in a specific order, it should not be understood that such operations must be performed in the specific order or sequential order shown in order to obtain desirable results or that all illustrated operations must be performed. In certain cases, multitasking and parallel processing may be advantageous. Moreover, the separation of the various system components of the above-described embodiments should not be understood as requiring such separation in all embodiments, and the described program components and systems will generally be integrated together into a single software product or packaged into multiple software products. It should be understood that it can.
한편, 본 명세서와 도면에 개시된 본 발명의 실시 예들은 이해를 돕기 위해 특정 예를 제시한 것에 지나지 않으며, 본 발명의 범위를 한정하고자 하는 것은 아니다. 여기에 개시된 실시 예들 이외에도 본 발명의 기술적 사상에 바탕을 둔 다른 변형 예들이 실시 가능하다는 것은, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 자명한 것이다.On the other hand, the embodiments of the present invention disclosed in the specification and drawings are merely presented specific examples for clarity and are not intended to limit the scope of the present invention. It is apparent to those skilled in the art that other modifications based on the technical idea of the present invention can be carried out in addition to the embodiments disclosed herein.

Claims (10)

  1. 두 개의 치아 영상을 자동으로 정합하는 자동 정합 장치에 있어서,An automatic registration device for automatically matching two teeth images,
    제1 치아 영상 데이터의 치열의 최대 외곽영역인 제1 최대 외곽영역과 제2 치아 영상 데이터의 치열의 최대 외곽영역인 제2 최대 외곽영역을 검출하는 최대 외곽 검출부;A maximum outer edge detector configured to detect a first maximum outer region that is the maximum outer region of the teeth of the first dental image data and a second maximum outer region that is the maximum outer region of the teeth of the second dental image data;
    상기 제1 최대 외곽영역과 상기 제2 최대 외곽영역 내에서 영상 정합의 기준이 되는 특징점을 추출하는 특징점 추출부; 및A feature point extracting unit extracting a feature point as a reference for image registration in the first maximum outer region and the second maximum outer region; And
    상기 특징점을 기준으로 상기 제1 치아 영상 데이터와 상기 제2 치아 영상 데이터의 정합을 수행하는 영상 정합부를 포함하는 치아 영상 자동 정합 장치.And an image matching unit configured to match the first tooth image data and the second tooth image data based on the feature point.
  2. 제1항에 있어서,The method of claim 1,
    상기 특징점 추출부는 상기 제1 치아 영상 데이터의 치열과 상기 제1 최대 외곽영역의 접점 및 상기 제2 치아 영상 데이터의 치열과 상기 제2 최대 외곽영역의 접점을 상기 특징점으로 추출하는 치아 영상 자동 정합 장치.The feature point extractor extracts the teeth of the first dental image data and the contact point of the first maximum outer region and the teeth of the second tooth image data and the contact of the second maximum outer region as the feature point .
  3. 제1항에 있어서,The method of claim 1,
    상기 제1 치아 영상 데이터와 상기 제2 치아 영상 데이터의 정합 결과를 표시하는 디스플레이부를 더 포함하는 치아 영상 자동 정합 장치.And a display unit configured to display a matching result of the first tooth image data and the second tooth image data.
  4. 제3항에 있어서,The method of claim 3,
    상기 디스플레이부는 상기 제1 최대 외곽영역과 상기 제2 최대 외곽영역을 각각 복수의 격자 셀로 나누어 격자화한 영상으로서, 상기 특징점을 기준 좌표로 적용하여 서로 동일 좌표계를 가지도록 격자화된 제1 격자 영상과 제2 격자 영상을 표시하는 치아 영상 자동 정합 장치.The display unit is a grid image obtained by dividing the first maximum outer region and the second maximum outer region into a plurality of grid cells, respectively, and the first grid image which is gridized to have the same coordinate system by applying the feature points as reference coordinates. And an image matching device for displaying a second grid image.
  5. 제1항에 있어서,The method of claim 1,
    상기 최대 외곽 검출부는 도형의 각 모서리가 해당 모서리 방향으로 가장 돌출된 치아 부분과 접하는 다각형 형태로 상기 제1 최대 외곽영역과 상기 제2 최대 외곽영역을 검출하는 치아 영상 자동 정합 장치.The maximum edge detector is a tooth image automatic registration device for detecting the first maximum outer area and the second maximum outer area in a polygonal shape in which each corner of the figure is in contact with the tooth portion most protruding in the direction of the corner.
  6. 제1항에 있어서,The method of claim 1,
    상기 최대 외곽 검출부는 치아 깊이에 따라 달라지는 치아 외곽영역을 고려하여, 상기 치열 내 치아의 치관 길이 내에서 상기 제1 최대 외곽영역 또는 상기 제2 최대 외곽영역의 깊이 좌표를 각각 결정하는 치아 영상 자동 정합 장치.The maximum outer detector detects a tooth outer region that depends on the depth of the tooth, and automatically determines the depth coordinates of the first maximum outer region or the second maximum outer region within the crown length of the tooth in the dental dentition. Device.
  7. 제1항에 있어서,The method of claim 1,
    상기 영상 정합부는 사용자 입력에 따른 기준점 또는 상기 기준점의 주변 영역을 추가로 영상 정합의 기준으로 적용하여 상기 특징점 추출부에서 추출된 특징점을 기초로 산출된 영상 정합 결과를 수정하는 치아 영상 자동 정합 장치.And an image matching unit adapted to apply a reference point according to a user input or a peripheral region of the reference point as an image matching criterion to modify an image matching result calculated based on the feature points extracted by the feature point extracting unit.
  8. 제1항에 있어서,The method of claim 1,
    상기 제1 치아 영상 데이터와 상기 제2 치아 영상 데이터는 각각 CT 영상, 구강 스캔 영상, 및 자기공명영상 중 하나인 치아 영상 자동 정합 장치.And the first tooth image data and the second tooth image data are one of a CT image, an oral scan image, and a magnetic resonance image, respectively.
  9. 두 개의 치아 영상을 자동으로 정합하는 방법에 있어서,In the method of automatically matching two tooth images,
    제1 치아 영상 데이터의 치열의 최대 외곽영역인 제1 최대 외곽영역을 검출하는 단계;Detecting a first maximum outer region that is a maximum outer region of the teeth of the first dental image data;
    제2 치아 영상 데이터의 치열의 최대 외곽영역인 제2 최대 외곽영역을 검출하는 단계;Detecting a second maximum outer region that is a maximum outer region of the teeth of the second dental image data;
    상기 제1 최대 외곽영역과 상기 제2 최대 외곽영역 내에서 영상 정합의 기준이 되는 특징점을 추출하는 단계; 및Extracting a feature point which is a reference for image registration in the first maximum outer region and the second maximum outer region; And
    상기 특징점을 기준으로 상기 제1 치아 영상 데이터와 상기 제2 치아 영상 데이터를 정합하는 단계를 포함하는 치아 영상 자동 정합 방법.And automatically matching the first tooth image data to the second tooth image data based on the feature point.
  10. 제9항에 따른 치아 영상 자동 정합 방법을 실행하기 위한 프로그램이 기록된 컴퓨터로 읽을 수 있는 기록 매체.A computer-readable recording medium having recorded thereon a program for executing the method of automatically matching a dental image according to claim 9.
PCT/KR2015/013259 2014-12-31 2015-12-04 Teeth image automatic matching method, apparatus therefor, and recording medium therefor WO2016108453A1 (en)

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
KR20140195222 2014-12-31
KR10-2014-0195222 2014-12-31
KR10-2015-0040804 2015-03-24
KR1020150040804A KR101613159B1 (en) 2014-12-31 2015-03-24 Automatic dental image registration method, apparatus, and recording medium thereof

Publications (1)

Publication Number Publication Date
WO2016108453A1 true WO2016108453A1 (en) 2016-07-07

Family

ID=55917620

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/KR2015/013259 WO2016108453A1 (en) 2014-12-31 2015-12-04 Teeth image automatic matching method, apparatus therefor, and recording medium therefor

Country Status (2)

Country Link
KR (1) KR101613159B1 (en)
WO (1) WO2016108453A1 (en)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106570859A (en) * 2016-10-11 2017-04-19 深圳大学 Tooth image analysis system
CN111132607A (en) * 2017-09-26 2020-05-08 宝洁公司 Method and apparatus for determining plaque
WO2020197109A1 (en) * 2019-03-28 2020-10-01 주식회사 디오 Dental image registration device and method
WO2020209495A1 (en) * 2019-04-11 2020-10-15 주식회사 디오 Apparatus for preprocessing image data
KR20200120034A (en) * 2019-04-11 2020-10-21 주식회사 디오 Method and apparatus for preprocessing computerized tomography image data

Families Citing this family (26)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101878467B1 (en) 2016-11-01 2018-07-13 한국과학기술연구원 Method, apparatus and program for selective registration three-dimensional tooth image data to optical scanning tooth model
KR101876643B1 (en) * 2016-11-23 2018-07-13 한국과학기술원 Therapy guiding system and method based on matching between 2D fluoroscopy image and 3D CT image
KR101949202B1 (en) * 2016-11-30 2019-02-19 오스템임플란트 주식회사 Method for providing graphic for designing dental restorations, apparatus, and recording medium thereof
KR101806889B1 (en) 2016-12-22 2017-12-08 오스템임플란트 주식회사 Method for providing graphic for designing dental restorations, apparatus, and recording medium thereof
KR101906991B1 (en) * 2017-03-20 2018-10-12 오스템임플란트 주식회사 Method and device for dental image registration
KR102424096B1 (en) * 2017-05-16 2022-07-25 주식회사 디오 Service Apparatus for Coordinating of Images for Dental Implant Procedure and Method for Coordinating of Images for thereof
KR101913586B1 (en) * 2017-05-24 2018-11-01 오스템임플란트 주식회사 Dental image registration method, apparatus, and recording medium thereof
KR102122034B1 (en) * 2018-06-25 2020-06-12 오스템임플란트 주식회사 Method for designing a dental surgical guide, apparatus, and recording medium thereof
CN109903218B (en) * 2019-02-28 2023-06-02 维沃移动通信有限公司 Image processing method and terminal
KR102267449B1 (en) * 2019-03-28 2021-06-21 주식회사 디오 Apparatus And Method For Dental Image Registration
KR102270279B1 (en) * 2019-03-28 2021-06-28 주식회사 디오 Apparatus And Method For Dental Image Registration
KR102224064B1 (en) * 2019-04-11 2021-03-08 주식회사 디오 Apparatus For Separating Gum Area From Oral Scan Image
KR102289610B1 (en) * 2019-05-09 2021-08-17 오스템임플란트 주식회사 Method and apparatus for providing additional information of teeth
KR102301422B1 (en) * 2019-05-24 2021-09-14 오스템임플란트 주식회사 Dental panoramic x-ray photographing apparatus and method
KR102267488B1 (en) * 2019-06-26 2021-06-21 주식회사 디오 Apparatus And Method For Dental Image Registration
KR102314890B1 (en) * 2019-11-28 2021-10-19 오스템임플란트 주식회사 Method and apparatus for superimposition of medical images
KR102331038B1 (en) * 2020-09-14 2021-12-01 이마고웍스 주식회사 Automated method for aligning 3d dental data for different areas and computer readable medium having program for performing the method
WO2021210966A1 (en) * 2020-04-16 2021-10-21 이마고웍스 주식회사 Method and device for automatically detecting feature points of three-dimensional medical image data using deep learning, method for automating position alignment of dental three-dimensional data, method for automatically detecting landmarks in dental three-dimensional scan data, method for determining matching accuracy of three-dimensional dental ct image and three-dimensional digital impression model, and computer-readable recording medium in which program for executing methods in computer is recorded
KR102302587B1 (en) * 2020-12-17 2021-09-16 이마고웍스 주식회사 Method for determining accuracy of registration result of 3d dental ct image and 3d digital impression model
KR102334480B1 (en) * 2020-04-16 2021-12-06 이마고웍스 주식회사 Method and apparatus for detecting landmarks from medical 3d volume image based on deep learning
KR102334485B1 (en) * 2020-08-20 2021-12-06 이마고웍스 주식회사 Automated method for aligning 3d dental data and computer readable medium having program for performing the method
KR102363338B1 (en) * 2020-06-05 2022-02-16 오스템임플란트 주식회사 Method, Apparatus and Recording Medium For Displaying Tooth Measurement Information
KR102463389B1 (en) * 2020-08-06 2022-11-07 주식회사 메디트 Obtaining System of Reliability Data Using Multi-Angle Scanning And Method Thereof
KR102612679B1 (en) * 2022-04-14 2023-12-13 주식회사 메디트 Method, apparatus and recording medium storing commands for processing scanned image of intraoral scanner
WO2024014912A1 (en) * 2022-07-13 2024-01-18 주식회사 메디트 Image processing method, electronic device, and computer-readable storage medium
WO2024014909A1 (en) * 2022-07-13 2024-01-18 주식회사 메디트 Method for processing image, electronic apparatus, and computer-readable storage medium

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20110013405A (en) * 2008-04-15 2011-02-09 바이오메트 쓰리아이 엘엘씨 Method of creating an accurate bone and soft-tissue digital dental model
KR101057762B1 (en) * 2009-08-19 2011-08-19 주식회사바텍 Apparatus for processing a tooth model for prosthetics, a method thereof and a recording medium having recorded thereon a program for implementing the method
KR20120096238A (en) * 2011-02-22 2012-08-30 주식회사 모르페우스 Face image correcting simulation method and system using the same
KR20140079557A (en) * 2012-12-15 2014-06-27 주식회사 디오에프연구소 Dental impression 3-dimension scan alignment methodthat using target object to identify
KR101444727B1 (en) * 2014-03-18 2014-09-26 주식회사 디오 method for manufacturing guide stent of dental implant

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100977911B1 (en) 2008-05-30 2010-08-24 이태경 Simulation apparatus for insertion of an implant using different images and Simulated operation method
KR101227645B1 (en) 2010-07-23 2013-01-30 이태경 Tooth prosthesis with Reference Fitures for Image Process and Multiple Image Merging Method using the same

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20110013405A (en) * 2008-04-15 2011-02-09 바이오메트 쓰리아이 엘엘씨 Method of creating an accurate bone and soft-tissue digital dental model
KR101057762B1 (en) * 2009-08-19 2011-08-19 주식회사바텍 Apparatus for processing a tooth model for prosthetics, a method thereof and a recording medium having recorded thereon a program for implementing the method
KR20120096238A (en) * 2011-02-22 2012-08-30 주식회사 모르페우스 Face image correcting simulation method and system using the same
KR20140079557A (en) * 2012-12-15 2014-06-27 주식회사 디오에프연구소 Dental impression 3-dimension scan alignment methodthat using target object to identify
KR101444727B1 (en) * 2014-03-18 2014-09-26 주식회사 디오 method for manufacturing guide stent of dental implant

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106570859A (en) * 2016-10-11 2017-04-19 深圳大学 Tooth image analysis system
CN106570859B (en) * 2016-10-11 2020-02-14 深圳大学 Tooth image analysis system
CN111132607A (en) * 2017-09-26 2020-05-08 宝洁公司 Method and apparatus for determining plaque
CN111132607B (en) * 2017-09-26 2023-12-05 宝洁公司 Method and device for determining dental plaque
WO2020197109A1 (en) * 2019-03-28 2020-10-01 주식회사 디오 Dental image registration device and method
EP3949888A4 (en) * 2019-03-28 2022-12-21 DIO Corporation Dental image registration device and method
US11869203B2 (en) 2019-03-28 2024-01-09 Dio Corporation Dental image registration device and method
WO2020209495A1 (en) * 2019-04-11 2020-10-15 주식회사 디오 Apparatus for preprocessing image data
KR20200120034A (en) * 2019-04-11 2020-10-21 주식회사 디오 Method and apparatus for preprocessing computerized tomography image data
KR102177886B1 (en) 2019-04-11 2020-11-12 주식회사 디오 Method and apparatus for preprocessing computerized tomography image data
TWI782269B (en) * 2019-04-11 2022-11-01 南韓商迪耀股份有限公司 Apparatus for preprocessing image data

Also Published As

Publication number Publication date
KR101613159B1 (en) 2016-04-20

Similar Documents

Publication Publication Date Title
WO2016108453A1 (en) Teeth image automatic matching method, apparatus therefor, and recording medium therefor
KR101913586B1 (en) Dental image registration method, apparatus, and recording medium thereof
US10282873B2 (en) Unified coordinate system for multiple CT scans of patient lungs
US5381791A (en) Automatic indentification of anatomical features of interest from data acquired in nuclear medicine studies and automatic positioning of scintillation cameras to carry out such studies at optimal positions
WO2020040349A1 (en) Dental image analysis method and device using same for orthodontic diagnosis
WO2018056544A1 (en) Augmented reality system for dental surgery and implementation method therefor
CN105147311B (en) For the visualization device sub-scanning localization method and system in CT system
US11915378B2 (en) Method and system for proposing and visualizing dental treatments
CA3102807A1 (en) Orientation detection in fluoroscopic images
US20090135992A1 (en) Method for the processing of radiography cardiac images with a view to obtaining a subtracted and registered image
CN110619621B (en) Method, device, electronic equipment and storage medium for identifying rib area in image
CN106447664A (en) Matching pair determination method and image capturing method
CN112352289A (en) Method and system for providing ECG analysis interface
WO2023008849A1 (en) Three-dimensional tooth image display apparatus and method, and method for training three-dimensional tooth image display apparatus
WO2021149918A1 (en) Bone age estimation method and apparatus
EP3949888A1 (en) Dental image registration device and method
WO2017105032A1 (en) Method for planning dental implant procedure, apparatus therefor, and recording medium having method recorded thereon
IL104426A (en) Method and apparatus for automatic identification and analysis of anatomic features from data acquired in nuclear medicine studies
KR102270279B1 (en) Apparatus And Method For Dental Image Registration
CN103295246B (en) Processing to interventional radiology image is analyzed by ECG
CN105678738A (en) Positioning method and device for datum point in medical image
WO2017065591A1 (en) System and method for automatically calculating effective radiation exposure dose
KR102267449B1 (en) Apparatus And Method For Dental Image Registration
WO2023229152A1 (en) Automatic three-dimensional face scan matching device having artificial intelligence applied thereto, method for driving same, and computer program stored in medium
CN114617533B (en) Nutrition condition determination system based on three-dimensional reconstruction

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 15875547

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 15875547

Country of ref document: EP

Kind code of ref document: A1