WO2023027500A1 - Image processing apparatus and image processing method - Google Patents

Image processing apparatus and image processing method Download PDF

Info

Publication number
WO2023027500A1
WO2023027500A1 PCT/KR2022/012639 KR2022012639W WO2023027500A1 WO 2023027500 A1 WO2023027500 A1 WO 2023027500A1 KR 2022012639 W KR2022012639 W KR 2022012639W WO 2023027500 A1 WO2023027500 A1 WO 2023027500A1
Authority
WO
WIPO (PCT)
Prior art keywords
data
mesh data
image processing
mesh
restoration
Prior art date
Application number
PCT/KR2022/012639
Other languages
French (fr)
Korean (ko)
Inventor
로슬야코바마리아
박선애
Original Assignee
주식회사 메디트
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from KR1020220105637A external-priority patent/KR20230029554A/en
Application filed by 주식회사 메디트 filed Critical 주식회사 메디트
Publication of WO2023027500A1 publication Critical patent/WO2023027500A1/en

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/10Computer-aided planning, simulation or modelling of surgical operations
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61CDENTISTRY; APPARATUS OR METHODS FOR ORAL OR DENTAL HYGIENE
    • A61C13/00Dental prostheses; Making same
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H50/00ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
    • G16H50/50ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for simulation or modelling of medical disorders

Definitions

  • the disclosed embodiments relate to an image processing device and an image processing method, and more specifically, to an image processing device and processing method for processing an image of a dental restoration.
  • a process of sculpting mesh data for the restoration is required to similarly implement the curve of the patient's teeth. do.
  • the process of sculpting the mesh data may include transforming the mesh data in various ways, such as adding, removing, smoothing, or morphing the mesh data.
  • the user could not know the allowable range of deformation of the mesh data. For example, when a user continuously adds mesh data, interference between the fabricated restoration and the antagonist/adjacent teeth may occur. Alternatively, if the mesh data is continuously removed, the thickness of the restoration becomes thin, and thus the restoration may be broken during printing. In addition, when a user adds mesh data to a part of a restoration and removes mesh data from another part, the thickness deviation of the restoration increases, resulting in a rough restoration.
  • the disclosed embodiment automatically determines whether the deformed mesh data satisfies a critical condition when sculpting mesh data for a restoration, and image processing for feeding back the determined result to the user. It is an object of the present invention to provide a method and an apparatus for performing an operation thereof.
  • An image processing method includes obtaining mesh data of an object, transforming the mesh data based on a user input, and transforming the transformed mesh data based on at least one threshold condition. It may include providing feedback on the mesh data.
  • Mesh data may include restoration data for at least one tooth.
  • the image processing method further includes displaying at least one menu item for transforming the mesh data on a screen, wherein the at least one menu item is a first menu corresponding to a mesh addition function. at least one of an item, a second menu item corresponding to a mesh removal function, a third menu item corresponding to a mesh smoothing function, and a fourth menu item corresponding to a mesh morphing function, wherein the transforming the mesh data comprises: , transforming the mesh data based on the user input for selecting the at least one menu item.
  • Providing feedback includes determining whether the deformed mesh data satisfies the threshold condition, and based on the fact that the threshold condition is not satisfied, the deformed mesh data is appropriately and providing the feedback indicating no.
  • Critical conditions include a distance condition between an outer surface and an inner surface of the mesh data, whether an interference area in which an outer surface of the mesh data overlaps tooth data corresponding to the mesh data occurs, and the mesh data It may include at least one of distance conditions between the outer surface of the tooth and the tooth data.
  • Mesh data is restoration data for at least one tooth
  • the tooth data may include data for at least one of an opposing tooth that engages with the restoration object and an adjacent tooth adjacent to the restoration object.
  • the step of determining whether a threshold condition is satisfied includes determining whether a distance condition between an outer surface and an inner surface of the mesh data is satisfied, and a distance between an outer surface and an inner surface of the mesh data is satisfied.
  • a ray-intersection test is performed by generating virtual rays in a normal direction from vertices or faces included in the inner surface of the mesh data. determining a distance between an outer surface and an inner surface of the mesh data based on points at which the virtual rays intersect, and determining whether the distance satisfies at least one threshold range. can do.
  • Providing feedback according to an embodiment may include displaying an area in which a distance between an outer surface and an inner surface of the deformed mesh data does not satisfy the threshold condition to be identified with other areas.
  • Providing feedback according to an embodiment may include displaying an overlapping degree between the deformed mesh data and the tooth data in a color when the interference area occurs.
  • Providing feedback according to an embodiment may include displaying a message indicating that the deformed mesh data is not appropriate based on the fact that the deformed mesh data does not satisfy the threshold condition. .
  • Providing feedback according to an embodiment may include displaying a deformed region of the mesh data in a color according to a deformation amount.
  • Providing feedback according to an embodiment may include displaying at least one of an allowable minimum thickness and a maximum allowable thickness of the mesh data.
  • An image processing apparatus includes a display, a memory for storing one or more instructions, and a processor, wherein the processor executes the one or more instructions stored in the memory to generate mesh data for an object.
  • the display may be obtained, deforming the mesh data based on a user input, and providing feedback on the deformed mesh data based on at least one critical condition.
  • An image processing apparatus and an image processing method may automatically determine whether deformed mesh data satisfies a critical condition when sculpting mesh data for a restoration, and provide feedback to the user based on the determined result. there is. Accordingly, the user can easily determine whether the deformed mesh data is acceptable, and the quality of a restoration fabricated based on the deformed mesh data can be improved.
  • FIG. 1 is a diagram for explaining an image processing system according to an exemplary embodiment.
  • FIG. 2 is a flowchart illustrating an image processing method according to an exemplary embodiment.
  • FIG. 3 is a diagram illustrating an example of displaying a restoration image by an image processing apparatus according to an exemplary embodiment.
  • 4 to 7 are views referenced to describe a method of engraving restoration data by an image processing apparatus according to an exemplary embodiment.
  • FIG. 8 is a diagram referenced to explain a method of determining whether an image processing device satisfies a threshold condition in deformed mesh data according to an exemplary embodiment.
  • FIGS. 9 and 10 are diagrams illustrating examples of providing feedback when an image processing apparatus according to an exemplary embodiment does not satisfy a critical condition for a thickness of deformed restoration data.
  • 11 is a diagram referenced to describe a method of determining whether an image processing device satisfies a threshold condition in deformed mesh data according to an exemplary embodiment.
  • FIG. 12 is a diagram illustrating a screen on which an image processing apparatus displays an interference region to be distinguished from another region according to an exemplary embodiment.
  • 13 and 14 are diagrams referenced to describe a method of determining whether the deformed mesh data satisfies a critical condition and providing feedback thereof, according to an exemplary embodiment.
  • FIG. 15 is a diagram referenced to explain a method of determining whether deformed mesh data of another image processing device satisfies a critical condition according to an exemplary embodiment.
  • 16 is a diagram illustrating a screen on which an image processing device displays a deformation amount of mesh data according to an exemplary embodiment.
  • 17 is a block diagram illustrating an image processing device according to an exemplary embodiment.
  • an 'object' is an object to be photographed, and may include a human, an animal, or a part thereof.
  • the object may include a body part (organ or organ, etc.) or a phantom.
  • the object may include a plaster model imitating the oral cavity, dentures such as dentures or dentures, teeth-shaped dentiforms, and the like.
  • the object may include teeth, gingiva, at least a portion of the oral cavity, and/or artificial structures (eg, orthodontic devices including brackets and wires, implants, abutments, artificial teeth, inlays, and dental restorations including onlays, orthodontic aids inserted into the oral cavity, etc.), teeth or gingiva to which artificial structures are attached, and the like.
  • a “scanner” may refer to a device that acquires an image related to an object.
  • the scanner may refer to a scanner that acquires an image related to the oral cavity used for oral treatment.
  • the scanner may be an intraoral scanner having a form that can be inserted into the oral cavity.
  • the intraoral scanner generally has a form that can be held and carried with one hand, it can be referred to as a hand-held scanner.
  • the scanner may be a table type scanner usable for dental treatment.
  • the scanner may acquire at least one of a 2D image and a 3D image.
  • the scanner may acquire at least one 2D image of the oral cavity and generate a 3D image (or 3D model) of the oral cavity based on the obtained at least one 2D image.
  • the scanner may obtain at least one 2D image of the oral cavity and transmit the at least one 2D image to an external device.
  • the external device may generate a 3D image of the oral cavity based on the received at least one 2D image.
  • scanning the oral cavity may mean a case of scanning the oral cavity itself, as well as a case of scanning an artificial object and/or representing the oral cavity or other objects related to the oral cavity.
  • An “image” may be a 2D image of an object or a 3D model or 3D image representing the object in three dimensions.
  • an image may be data required to represent an object in 2D or 3D.
  • an image may mean raw data or a raw image obtained from at least one camera.
  • the raw image is data acquired to generate an oral image necessary for diagnosis, and is included in the scanner when scanning the patient's oral cavity using a scanner (eg, intraoral scanner) It may be an image acquired from at least one camera (eg, a 2D frame image).
  • the raw image is an image that has not been processed and may mean an original image obtained from a scanner.
  • the “3-dimensional oral model” may refer to a model in which the oral cavity is 3-dimensionally modeled based on raw data obtained by a scanning operation of a scanner.
  • a “3D oral model” may refer to a structure modeled three-dimensionally based on data obtained by scanning an object such as a tooth, an impression body, or an artificial object by a scanner.
  • the 3D oral model is generated by 3D modeling the internal structure of the oral cavity, and may be referred to as a 3D scan model, a 3D model, or a tooth model.
  • the format of the 3D oral model may be one of STL (Standard Triangle Language), OBJ, and PLY (Polygon File Format), and is not limited to the above example.
  • the 3D oral model may include information such as geometry information, color, texture, and material for a 3D shape.
  • polygon may refer to a polygon, which is the smallest unit used when expressing a three-dimensional shape of a 3D oral model.
  • the surface of a 3D oral model may be represented by triangular polygons.
  • a polygon can consist of at least 3 vertices and 1 face.
  • a vertex may include information such as position, color, and normal.
  • a mesh may be an object in a 3D space created by gathering a plurality of polygons. As the number of polygons representing the 3D oral model increases, the object can be expressed in detail.
  • FIG. 1 is a diagram for explaining an image processing system according to an exemplary embodiment.
  • the image processing system includes a scanner 10 and an image processing device 100 .
  • the scanner 10 and the image processing device 100 may communicate through a communication network.
  • the scanner 10 is a device that scans an object and may be a medical device that acquires an image of the object.
  • the scanner 10 may obtain an image of at least one of the oral cavity or an artificial structure or a plaster model modeled after the oral cavity or an artificial structure.
  • a scanner having a shape retractable into an oral cavity such as the scanner 10 shown in FIG. 1
  • the scanner 10 may be referred to as an intraoral scanner or a portable scanner.
  • the scanner 10 may be a table type scanner in addition to the handheld type scanner shown in FIG. 1 .
  • the scanner 10 is inserted into the oral cavity and scans an object (eg, an object in the oral cavity such as a tooth or an impression body) in a non-contact manner, thereby generating an image of the oral cavity including at least one tooth.
  • an object eg, an object in the oral cavity such as a tooth or an impression body
  • the scanner 10 may scan the inside of the patient's oral cavity or an impression modeled after the inside of the patient's oral cavity using at least one image sensor (eg, an optical camera).
  • the scanner 10 may include at least one of teeth, gingiva, and artificial structures insertable into the oral cavity (eg, orthodontic devices including brackets and wires, implants, artificial teeth, and orthodontic aids inserted into the oral cavity).
  • teeth e.g., orthodontic devices including brackets and wires, implants, artificial teeth, and orthodontic aids inserted into the oral cavity.
  • surface information of the object may be obtained as raw data.
  • the raw data acquired by the scanner 10 may be at least one image acquired by at least one camera included in the scanner 10 .
  • the raw data may be at least one 2D frame image obtained by performing a scanning operation by the scanner 10 .
  • 'frame image' may also be referred to as 'frame' or 'frame data'.
  • the scanner 10 may transmit the acquired raw data to the image processing device 100 through a communication network.
  • the scanner 10 may acquire a 3D model or 3D image generated based on raw data obtained from at least one camera.
  • the acquired 3D model or 3D image may be transmitted to the image processing device 100 .
  • Image data acquired by the scanner 10 may be transmitted to the image processing device 100 connected through a wired or wireless communication network.
  • the image processing device 100 is connected to the scanner 10 through a wired or wireless communication network, receives data obtained by scanning an object from the scanner 10, and generates, processes, and displays an image based on the received data. and/or any electronic device capable of transmitting.
  • the image processing device 100 may be a computing device such as a smart phone, a laptop computer, a desktop computer, a PDA, or a tablet PC, but is not limited thereto. Also, the image processing device 100 may exist in the form of a server (or server device) for processing oral cavity images.
  • a server or server device
  • the image processing device 100 may, based on the data received from the scanner 10, information necessary for diagnosis of the oral cavity, an image representing the oral cavity, and a model used for oral treatment (eg, a 3D image of the teeth). At least one of a model or a three-dimensional model for generating a crown) may be created, and the generated information and image may be displayed through the display 130 .
  • a model used for oral treatment eg, a 3D image of the teeth.
  • At least one of a model or a three-dimensional model for generating a crown may be created, and the generated information and image may be displayed through the display 130 .
  • the scanner 10 may transmit raw data obtained through scanning to the image processing device 100 as it is.
  • the image processing device 100 may generate a 3D oral image (3D oral model) representing the oral cavity in 3D based on the received raw data.
  • the image processing device 100 may generate 3D data (eg, surface data, mesh data, etc.) representing the shape of the surface of the object in 3D, based on the received raw data. there is.
  • the 3D data may include a plurality of polygons.
  • the image processing device 100 may analyze, process, display, and/or transmit the generated image to an external device.
  • the scanner 10 may obtain raw data by scanning an object, process the obtained raw data, generate an image corresponding to the object, and transmit the image to the image processing device 100 .
  • the image processing device 100 may analyze, process, display, and/or transmit the received image.
  • the image processing device 100 is an electronic device capable of generating and displaying an image representing an object in 3D, which will be described in detail below.
  • the image processing apparatus 100 When receiving raw data obtained by scanning an object from the scanner 10, the image processing apparatus 100 according to an embodiment may generate a 3D image (or 3D model) by processing the received raw data.
  • a 3D image of an object generated by the image processing apparatus 100 will be referred to as 'scan data' hereinafter.
  • the scanner 10 may scan an oral cavity including at least one tooth.
  • the image processing apparatus 100 receives raw data obtained by scanning the oral cavity from the scanner 10, and based on the received raw data, 3D scan data for the oral cavity including at least one tooth is generated. It is possible to generate and display the generated 3D scan data (3D image) through the display 130 .
  • the image processing apparatus 100 may obtain initial mesh data of the restoration based on scan data of the oral cavity.
  • the image processing apparatus 100 may engrave initial mesh data of the restoration in order to design the restoration, based on a user input.
  • the image processing device 100 may determine whether or not the degree of deformation of the initial mesh data satisfies a critical condition, and feedback the determination result to the user in various ways.
  • the image processing apparatus 100 determines whether the degree of deformation of mesh data for a restoration satisfies a critical condition and feeds back the determination result to the user. .
  • FIG. 2 is a flowchart illustrating an image processing method according to an exemplary embodiment.
  • the image processing device 100 may obtain mesh data of an object (S210).
  • the image processing device 100 may receive raw data obtained by scanning an oral cavity including at least one tooth from the scanner 10 .
  • the image processing device 100 may acquire a 3D image or 3D model of the oral cavity based on the received raw data.
  • the 3D image of the oral cavity may include a plurality of objects in the oral cavity and 3D shape information of the surfaces of the objects.
  • a 3D image of the oral cavity may be expressed as a plurality of polygons, and the shape of the polygon may be a triangle. However, it is not limited thereto.
  • the image processing device 100 may receive a 3D image of the oral cavity from the scanner 10 or an external device.
  • the image processing apparatus 100 may identify a tooth (target tooth) requiring treatment in a 3D image of the oral cavity, and obtain restoration data for the target tooth. For example, the image processing apparatus 100 may design a restoration for a target tooth based on 3D shape information of the target tooth. The image processing apparatus 100 may design a restoration for a target tooth using a computer aided design (CAD)/computer aided manufacturing (CAM) program. However, it is not limited thereto.
  • CAD computer aided design
  • CAM computer aided manufacturing
  • the image processing device 100 may transmit a 3D image of an oral cavity or data of a target tooth to an external device.
  • the external device may design a restoration of the target tooth based on the 3D image or data received from the image processing device 100 and transmit the image or data of the restoration to the image processing device 100 .
  • Images or data (hereinafter, referred to as restoration data) of a restoration may be expressed as a mesh including a plurality of polygons.
  • the image processing device 100 may obtain an oral cavity image including 3D scan data obtained by scanning the oral cavity and restoration data.
  • the image processing apparatus 100 may acquire an oral cavity image in which a restoration object is attached to a target tooth by applying restoration data to 3D scan data of the oral cavity.
  • the image processing device 100 may display on the screen an oral cavity image in which a restoration object is attached to a target tooth.
  • the image processing device 100 may transform mesh data based on a user input (S220).
  • the image processing apparatus 100 may transform mesh data of a restoration based on a user input.
  • the image processing device 100 may transform mesh data by using a sculpting function.
  • the image processing device 100 may display at least one menu corresponding to the sculpting function.
  • the sculpting function according to an embodiment may include at least one of a mesh adding function, a mesh removing function, a mesh smoothing function, and a mesh morphing function. However, it is not limited thereto.
  • the image processing device 100 may transform mesh data using a function corresponding to the selected menu. This will be described in detail with reference to FIGS. 4 to 7 .
  • the image processing device 100 may provide feedback on deformed mesh data based on at least one threshold condition (S230).
  • the image processing device 100 may check whether the deformed mesh data satisfies a critical condition.
  • the critical condition is a distance condition between an outer surface and an inner surface of the mesh data, whether an interference area in which an outer surface of the mesh data overlaps tooth data corresponding to the mesh data occurs, and mesh data It may include at least one of distance conditions between the outer surface of the tooth data.
  • the image processing device 100 may provide feedback indicating that the deformed mesh data is not appropriate based on the fact that the deformed mesh data does not satisfy the critical condition.
  • the image processing device 100 may display a region in which a distance between an outer surface and an inner surface of the deformed mesh data does not satisfy a critical condition to be identified with other areas. Also, when an interference area occurs between the mesh data of the restoration and the tooth data, the image processing apparatus 100 may display the degree of overlap between the mesh data and the tooth data in the interference area in color. In addition, the image processing device 100 may display a message indicating that the deformed mesh data is not appropriate based on the fact that the deformed mesh data does not satisfy a threshold condition. Also, the image processing device 100 may display the deformed region of the mesh data in a color according to the amount of deformation. Also, the image processing device 100 may display at least one of a minimum allowable thickness and a maximum allowable thickness of mesh data.
  • FIG. 3 is a diagram illustrating an example of displaying a restoration image by an image processing apparatus according to an exemplary embodiment.
  • the image processing apparatus 100 may display a restoration image (restoration data).
  • the image processing device 100 may receive raw data obtained by scanning the oral cavity including at least one tooth, and may obtain a 3D image or 3D model of the oral cavity based on the received raw data. there is. Alternatively, the image processing device 100 may receive a 3D image of the oral cavity from an external device.
  • the image processing apparatus 100 may identify a tooth (target tooth) requiring treatment in the 3D image of the oral cavity, and design a restoration 310 for the target tooth.
  • the image processing apparatus 100 may design the restoration 310 for the target tooth using a computer aided design (CAD)/computer aided manufacturing (CAM) program.
  • CAD computer aided design
  • CAM computer aided manufacturing
  • the image processing apparatus 100 may transmit a 3D image of an oral cavity or data of a target tooth to an external device, and the external device may design a restoration for the target tooth based on the received information.
  • the external device may transmit restoration data to the image processing device 100 .
  • the image processing device 100 may acquire data on the restoration 310 and display the data on the screen.
  • the restoration 310 may include an outer surface and an inner surface, and the transparency of the outer and inner surfaces may be adjusted. For example, if the transparency of the outer surface is increased and the transparency of the inner surface is decreased, the inner surface of the restoration 310 may be displayed on the screen. However, it is not limited thereto.
  • the image processing device 100 may sculpt the restoration 310 .
  • a process of sculpting restoration data is required to implement a similar curve of a patient's tooth or to design a restoration in detail to match the tooth.
  • sculpting the restoration may mean deforming the outer surface data of the restoration.
  • the image processing device 100 may transform data of the restoration 310 by using a sculpting function, and a method of sculpting the restoration 310 is described in detail with reference to FIGS. 4 to 7 . Let's explain.
  • 4 to 7 are views referenced to describe a method of engraving restoration data by an image processing apparatus according to an exemplary embodiment.
  • the image processing device 100 may provide an engraving function.
  • the image processing device 100 may display the engraving menu 410 corresponding to the engraving function on the screen.
  • the sculpting menu 410 includes a first menu item 420 corresponding to a function of adding mesh data, a second menu item 430 corresponding to a function of removing mesh data, and smoothing (smoothing) the mesh data.
  • a third menu item 440 corresponding to a function and a fourth menu item 450 corresponding to a function of morphing mesh data may be included.
  • the function of smoothing the mesh data may mean smoothing the mesh data by adding or removing mesh data.
  • the function of morphing mesh data may mean changing the position or normal direction of polygons while maintaining the number of polygons included in the mesh data.
  • the engraving menu 410 may include an item 460 for adjusting brush strength and an item 470 for adjusting brush size. However, it is not limited thereto.
  • the image processing device 100 may determine the amount of mesh data to be added or removed or the speed at which mesh data is added or removed based on the set brush strength and brush size.
  • the image processing apparatus 100 may display a brush icon 480 on the screen. For example, based on a user input for selecting the first menu item 420 , the image processing device 100 may display a brush icon 480 .
  • the image processing device 100 may add or remove mesh data to an area where the brush icon 480 passes.
  • mesh data is stored in the area where the brush icon 480 has passed. can be added.
  • the image processing apparatus 100 may add mesh data 520 to the outer surface of the restoration data 401 corresponding to the region 510 through which the brush icon 480 has passed. At this time, data on the inner surface of the restoration data 401 is not modified.
  • the amount or speed at which mesh data is added may be adjusted according to the set brush strength and brush size.
  • mesh data is stored in the area where the brush icon 480 has passed. can be removed.
  • the image processing apparatus 100 may remove mesh data from the outer surface of the restoration data 401 corresponding to the area 610 through which the brush icon 480 passed. At this time, data on the inner surface of the restoration data 401 is not modified.
  • the image processing device 100 when the image processing device 100 receives a user input for moving the brush icon 480 while the second menu item 430 is selected, the image processing device 100 applies mesh data to an area where the brush icon 480 has passed by (-). direction can be added. For example, the image processing device 100 may add mesh data in a direction opposite to a direction of a normal vector of an outer surface corresponding to an area where the brush icon 480 passes.
  • the amount of mesh data removed (or the amount of mesh data added in the (-) direction) or the speed at which mesh data is removed (or the speed at which mesh data is added in the (-) direction) ) can be adjusted.
  • the image processing apparatus 100 determines the area where the brush icon 480 has passed. By adding or removing mesh data, the area can be smoothed. Since the operation of adding or removing mesh data has been described above, the same description will be omitted.
  • the image processing device 100 may morph mesh data when receiving a user input of dragging a brush icon 480 while the fourth menu item 450 is selected. For example, the image processing device 100 may morph the mesh data of the outer surface of the restoration data 401 corresponding to the region 710 where the brush icon 480 is located in the direction in which the brush icon 480 is dragged. At this time, data on the inner surface of the restoration data 401 is not modified. Also, the number of polygons included in the morphed mesh data 720 is equal to the number of polygons included in the mesh data before morphing. The image processing device 100 may morph the mesh data by changing the position or normal direction of the polygons while maintaining the number of polygons included in the mesh data.
  • the image processing device 100 may determine whether or not mesh data deformed through a function of sculpting mesh data satisfies a critical condition, and provide feedback for the determination to the user. This will be described in detail with reference to FIGS. 8 to 16 .
  • FIG. 8 is a diagram referenced to explain a method of determining whether an image processing device satisfies a threshold condition in deformed mesh data according to an exemplary embodiment.
  • the image processing device 100 may check whether the transformed restoration data satisfies the thickness condition of the restoration. For example, when restoration data is deformed, the image processing device 100 may check whether the deformed restoration data satisfies a thickness condition. However, it is not limited thereto.
  • the image processing device 100 may obtain the thickness of restoration data 810 by performing a ray intersection inspection.
  • the ray intersection test generates virtual rays in the normal vector direction from vertices or faces included in the inner surface 820 of the restoration, and includes the outer surface 810 of the restoration where the generated virtual rays intersect. You can get distances to vertices or faces.
  • the image processing device 100 may check whether the obtained distance is within a threshold range (greater than the first threshold and equal to or less than the second threshold).
  • the first threshold value and the second threshold value may be preset values.
  • the first threshold value may be determined as a minimum thickness at which the restoration is not broken when the restoration data 801 is 3D printed.
  • the first threshold may be determined to be 1.0 mm, but is not limited thereto.
  • the image processing apparatus 100 generates rays in the opposite direction of a normal vector at vertices or faces included in the outer surface 810 of the restoration, and includes the virtual rays on the inner surface of the restoration where the generated virtual rays intersect. It is possible to obtain the distance to the vertices or faces that are
  • the image processing device 100 gives feedback indicating that the deformed restoration data is not appropriate when the obtained distance is not within a threshold range (above the first threshold and equal to or less than a second threshold that is greater than the first threshold). can provide This will be described in detail with reference to FIGS. 9 and 10 .
  • FIGS. 9 and 10 are diagrams illustrating examples of providing feedback when an image processing apparatus according to an exemplary embodiment does not satisfy a critical condition for a thickness of deformed restoration data.
  • the image processing apparatus 100 allows the thickness of the deformed restoration data when a region in which the distance between the outer surface and the inner surface of the deformed restoration data is smaller than a first threshold exists.
  • a message 910 indicating less than the minimum possible thickness may be displayed.
  • the image processing apparatus 100 may display a region where the thickness of restoration data is smaller than an allowable minimum thickness to be distinguished from other regions.
  • the image processing device 100 may display the minimum thickness view menu item 1010 on the screen.
  • the image processing device 100 when the minimum thickness view menu item 1010 is selected, the image processing device 100, as shown in FIG. , blue).
  • the image processing device 100 may display a dark blue color when the thickness is thin, and a light blue color when the thickness is thick.
  • 11 is a diagram referenced to describe a method of determining whether an image processing device satisfies a threshold condition in deformed mesh data according to an exemplary embodiment.
  • the image processing apparatus 100 may check whether an overlapping interference region occurs between the deformed restoration data and tooth data.
  • the image processing apparatus 100 may obtain an overlapping interference area between restoration data and tooth data by performing a ray intersection inspection.
  • FIG. 11 for convenience of explanation, an interference region generated between a restoration and an opposing tooth will be described as an example.
  • the image processing apparatus 100 generates virtual rays from a plurality of vertices or faces included in the opposition data 1120 in a direction opposite to the normal direction of the corresponding vertices or faces, It may be checked whether the virtual rays intersect the restoration data 1110.
  • the image processing device 100 may acquire the corresponding area as the interference area 1130 when the virtual rays intersect the restoration data 1110 .
  • the image processing apparatus 100 may provide feedback to a user by displaying the interference area 1130 to be identified with other areas. For example, the image processing apparatus 100 may display restoration data corresponding to the interference region 1130 in a color determined according to an overlapping degree. This will be described with reference to FIG. 12 .
  • FIG. 12 is a diagram illustrating a screen on which an image processing apparatus displays an interference region to be distinguished from another region according to an exemplary embodiment.
  • the image processing apparatus 100 may display the interference region 1130 where the restoration data 1110 and the antagonist data 1120 overlap to be identified with other regions.
  • the restoration data 1110 and the antagonist data 1120 may be displayed in different colors depending on the degree of overlap.
  • the degree of overlap can be determined through the ray intersection test described in FIG. 11 .
  • the image processing apparatus 100 may determine the degree of overlap based on a distance from a starting point of a ray to a vertex where the ray crosses.
  • the image processing apparatus 100 may determine that the degree of overlap is greater as the distance from the starting point of the ray to the vertex where the ray crosses is longer, and based on the color map 1210 representing colors according to the degree of overlap, the greater the degree of overlap, the greater the degree of overlap. It may be displayed in a color close to the first color (eg, red).
  • the image processing device 100 may determine that the overlapping degree is smaller as the distance from the starting point of the ray to the vertex where the ray crosses is shorter, and based on the color map 1210, the smaller the overlapping degree, the second color (eg, green).
  • the second color eg, green
  • 13 and 14 are diagrams referenced to describe a method of determining whether the deformed mesh data satisfies a critical condition and providing feedback thereof, according to an exemplary embodiment.
  • the image processing device 100 may check whether the transformed restoration data satisfies the thickness condition of the restoration. For example, when the restoration data is deformed, the image processing device 100 may check whether the deformed mesh data satisfies the thickness condition. However, it is not limited thereto.
  • the image processing apparatus 100 may obtain the thickness of restoration data 1301 by performing a ray intersection inspection.
  • the ray intersection test generates virtual rays in the normal vector direction from vertices or faces included in the inner surface 1310 of the restoration, and vertices or faces included in the outer surface 1320 of the restoration where the generated virtual rays intersect. distance can be obtained.
  • the image processing device 100 may display the corresponding area to be distinguished from other areas.
  • the image processing apparatus 100 when the distance obtained from the first area 1330 in the restoration data 1301 is equal to or less than the third threshold value, the image processing apparatus 100 as shown in FIG. 14 , the first region 1330 may be displayed in a first color (eg, blue).
  • a first color eg, blue
  • the image processing device 100 determines the area to be compared to other areas when the obtained distance is equal to or greater than the fourth threshold or when virtual rays do not intersect vertices or faces included in the outer surface 1320 of the restoration. can be identified and displayed.
  • the second area 1340 may be displayed in a second color (eg, gray). However, it is not limited thereto.
  • FIG. 15 is a diagram referenced to explain a method of determining whether deformed mesh data of another image processing device satisfies a critical condition according to an exemplary embodiment.
  • the image processing apparatus 100 may check whether a distance condition between the deformed restoration data and tooth data is satisfied. For example, if the distance between the restoration and the antagonist is too far, the restoration and the antagonist may not come into contact with each other, which may cause discomfort when chewing food. In addition, if the distance between the restoration and the adjacent teeth is too great, the probability of food getting caught in the gap between the restoration and the adjacent teeth increases. Therefore, when sculpting a restoration, the distance between the restoration and the antagonist, and the distance between the restoration and the adjacent tooth should be smaller than the critical value.
  • the image processing apparatus 100 may check whether the distance between the restoration and the antagonist is greater than or equal to a threshold value.
  • the image processing apparatus 100 may obtain a distance between the restoration object and the antagonist tooth by performing a ray intersection test. For example, the image processing apparatus 100 generates virtual rays from a plurality of vertices or facets included in the restoration data 1510 in a normal direction of the vertices or facets, and the generated virtual rays cross each other. Vertices or surfaces of the antagonist data 1520 may be obtained, and the distance from the starting point of the ray to the vertices or surfaces at which the ray crosses may be obtained as a distance between the restoration and the antagonist tooth.
  • the ray intersection test is performed by generating virtual rays from a plurality of vertices or faces included in the restoration data 1510, but it is not limited thereto, and the plurality of By creating virtual rays at vertices or faces, ray intersection checks can be performed.
  • the image processing apparatus 100 may check whether the distance between the obtained restoration and the antagonist is equal to or greater than a threshold value, and if the distance is equal to or greater than the threshold value, feedback indicating that the modified restoration data is not appropriate may be provided to the user.
  • a region where the distance between the restoration and the antagonist is equal to or greater than a threshold value may be displayed to be distinguished from other regions, or a message indicating that the modified restoration data is not appropriate may be displayed on the screen.
  • a threshold value For example, it is not limited thereto.
  • the image processing apparatus 100 may determine whether a distance between a restoration object and an adjacent tooth is greater than or equal to a threshold value.
  • the image processing device 100 may obtain a distance between a restoration and an adjacent tooth by performing a ray intersection inspection. For example, the image processing apparatus 100 generates virtual rays from a plurality of vertices or facets included in the restoration data 1510 in a normal direction of the vertices or facets, and the generated virtual rays cross each other. Vertices or faces of the adjacent tooth data 1530 may be obtained, and the distance from the starting point of the rays to the vertices or faces at which the rays cross may be obtained as the distance between the restoration and the adjacent tooth.
  • the ray intersection test is performed by generating virtual rays from a plurality of vertices or faces included in the restoration data 1510, but it is not limited thereto, and the plurality of By creating virtual rays at vertices or faces, ray intersection checks can be performed.
  • the image processing apparatus 100 may check whether the distance between the obtained restoration and the adjacent tooth is greater than or equal to a threshold value, and if the distance is greater than or equal to the threshold value, feedback indicating that the modified restoration data is not appropriate may be provided to the user.
  • a region where the distance between the restoration and adjacent teeth is equal to or greater than a threshold value may be displayed to be distinguished from other regions, or a message indicating that the modified restoration data is not appropriate may be displayed on the screen.
  • a threshold value For example, it is not limited thereto.
  • 16 is a diagram illustrating a screen on which an image processing device displays a deformation amount of mesh data according to an exemplary embodiment.
  • the image processing apparatus 100 may calculate a mesh deformation amount based on initial mesh data 1610 and deformed mesh data 1620 of the restoration. For example, the image processing device 100 may obtain the deformation amount by subtracting the initial mesh data 1610 from the mesh data 1620 deformed through the sculpting function. For example, the image processing device 100 may subtract the initial mesh data 1610 from the deformed mesh data 1620 using a boolean technique. The image processing device 100 may acquire an area in which the amount of deformation is not zero as a deformed area.
  • the image processing device 100 may display the deformed area in different colors according to the amount of deformation. For example, the image processing device 100 may determine that the amount of deformation of the region increases as the value obtained by subtracting the initial mesh data 1610 from the deformed mesh data 1620 increases, and the larger the amount of deformation, the deformed mesh data 1620 ), the meshes included in the corresponding region may be displayed in a color close to the first color (eg, red).
  • the first color eg, red
  • the image processing device 100 may determine that the deformation amount of the region is smaller as the value obtained by subtracting the initial mesh data 1610 from the deformed mesh data 1620 is smaller, and the smaller the deformation amount, the deformed mesh data 1620 ), meshes included in the corresponding region may be displayed in a color close to the second color (eg, green).
  • the second color eg, green
  • the image processing device 100 may display the mesh data 1620 with different colors according to the degree of overlap between the antagonist data.
  • the degree of overlap can be determined through the ray intersection test described in FIG. 11 .
  • the image processing device 100 may determine that the degree of overlap is greater as the distance from the start point of the ray to the vertex where the ray crosses is longer, and as the distance from the start point of the ray to the vertex where the ray crosses is shorter, the overlap is greater. It can be determined as small.
  • the image processing device 100 displays a color closer to the first color (eg, red) as the degree of overlap between the mesh data 1620 and the antagonist data increases, and the degree of overlap between the mesh data 1620 and the antagonist data When is smaller, a color closer to the second color (eg, green) may be displayed. However, it is not limited thereto.
  • 17 is a block diagram illustrating an image processing device according to an exemplary embodiment.
  • the image processing method illustrated in FIG. 17 may be performed through the image processing device 100 . Accordingly, the image processing method illustrated in FIG. 2 may be a flowchart illustrating operations of the image processing apparatus 100 .
  • the image processing device 100 may include a communication interface 110 , a user interface 120 , a display 130 , a memory 140 and a processor 150 .
  • the communication interface 110 may perform communication with at least one external electronic device (eg, the scanner 10, a server, or an external medical device) through a wired or wireless communication network.
  • the communication interface 110 may perform communication with at least one external sperm device under the control of the processor 150 .
  • the communication interface 110 is at least one short-range communication that performs communication according to a communication standard such as Bluetooth, Wi-Fi, Bluetooth Low Energy (BLE), NFC/RFID, Wi-Fi Direct, UWB, or ZIGBEE. modules may be included.
  • a communication standard such as Bluetooth, Wi-Fi, Bluetooth Low Energy (BLE), NFC/RFID, Wi-Fi Direct, UWB, or ZIGBEE. modules may be included.
  • the communication interface 110 may further include a remote communication module that communicates with a server for supporting remote communication according to a telecommunication standard.
  • the communication interface 110 may include a remote communication module that performs communication through a network for internet communication.
  • the communication interface 110 may include a remote communication module that performs communication through a communication network conforming to communication standards such as 3G, 4G, and/or 5G.
  • the communication interface 110 may include at least one port for connecting to an external electronic device (eg, intraoral scanner, etc.) through a wired cable in order to communicate with the external electronic device. Accordingly, the communication interface 110 may perform communication with an external electronic device wired through at least one port.
  • an external electronic device eg, intraoral scanner, etc.
  • the user interface 120 may receive a user input for controlling the image processing device 100 .
  • the user interface 120 includes a touch panel for detecting a user's touch, a button for receiving a user's push operation, a mouse or a keyboard for specifying or selecting a point on a user interface screen, and the like. It may include a user input device, but is not limited thereto.
  • the user interface 120 may include a voice recognition device for voice recognition.
  • the voice recognition device may be a microphone, and the voice recognition device may receive a user's voice command or voice request. Accordingly, the processor 150 may control an operation corresponding to the voice command or voice request to be performed.
  • the display 130 displays a screen. Specifically, the display 130 may display a predetermined screen according to the control of the processor 150 . Specifically, the display 130 may display a user interface screen including an oral cavity image generated based on data acquired by scanning the patient's oral cavity with the scanner 10 . Alternatively, a user interface screen including an image of an object generated based on data obtained from the scanner 10 may be displayed.
  • the display 130 may display a user interface screen including information related to the patient's dental treatment.
  • the memory 140 may store at least one instruction. Also, the memory 140 may store at least one instruction executed by the processor 150. Also, the memory 140 may store at least one program executed by the processor 150 . Also, the memory 140 may store data received from the scanner 10 (eg, raw data obtained through scanning). Alternatively, the memory 140 may store an image representing an object in 3D. Memory 140 according to one embodiment may contain one or more instructions for sculpting restoration data. Memory 140 according to an embodiment may include one or more instructions for performing a method disclosed in this disclosure to provide feedback on modified restoration data, based on at least one threshold condition.
  • the processor 150 executes at least one instruction stored in the memory 140 and controls an intended operation to be performed.
  • at least one instruction may be stored in an internal memory included in the processor 150 or in the memory 140 included in the data processing device separately from the processor.
  • the processor 150 may control at least one component included in the data processing apparatus so that an intended operation is performed by executing at least one instruction. Therefore, even if the processor performs certain operations as an example, it may mean that the processor controls at least one component included in the data processing apparatus so that the certain operations are performed.
  • the processor 150 may generate scan data based on raw data received from the 3D scanner by executing one or more instructions stored in the memory 140 .
  • the raw data may include raw data obtained by scanning an oral cavity including at least one tooth by a 3D scanner.
  • the processor 150 may acquire a 3D image or 3D model of the oral cavity based on the received raw data by executing one or more instructions stored in the memory 140 .
  • the processor 150 may obtain an image or data for restoration of a tooth (target tooth) requiring treatment from a 3D image of the oral cavity by executing one or more instructions stored in the memory 140 .
  • the processor 150 may identify a target tooth in the 3D image of the mouth and design a restoration for the target tooth.
  • the processor 150 may design a restoration for the target tooth based on the 3D shape information of the target tooth.
  • the processor 150 may design a restoration for a target tooth using a computer aided design (CAD)/computer aided manufacturing (CAM) program.
  • CAD computer aided design
  • CAM computer aided manufacturing
  • the processor 150 may transmit a 3D image of an oral cavity or data of a target tooth to an external device, and may receive an image or data of a restoration object from the external device.
  • the processor 150 executes one or more instructions stored in the memory 140 to generate an oral cavity image including 3D scan data obtained by scanning the oral cavity and restoration data (hereinafter referred to as 'restoration data'). can be obtained
  • the processor 150 may obtain an oral cavity image in which a restoration object is attached to a target tooth by applying restoration data to 3D scan data of the oral cavity.
  • the processor 150 may deform mesh data of the restoration based on a user input by executing one or more instructions stored in the memory 140 .
  • the processor 150 may transform mesh data using a sculpting function.
  • the processor 150 may display at least one menu corresponding to the sculpting function.
  • the sculpting function according to an embodiment may include at least one of a mesh adding function, a mesh removing function, a mesh smoothing function, and a mesh morphing function. However, it is not limited thereto.
  • the processor 150 may check whether the deformed mesh data satisfies a critical condition by executing one or more instructions stored in the memory 140 .
  • the critical condition is a distance condition between an outer surface and an inner surface of the mesh data, whether an interference area in which an outer surface of the mesh data overlaps tooth data corresponding to the mesh data occurs, and mesh data It may include at least one of distance conditions between the outer surface of the tooth data.
  • the processor 150 provides feedback indicating that the deformed mesh data is not appropriate based on the fact that the deformed mesh data does not satisfy a threshold condition by executing one or more instructions stored in the memory 140. can provide
  • the processor 150 may display a region in which the distance between the outer and inner surfaces of the deformed mesh data does not satisfy a critical condition on the display 130 to be identified with other regions. Also, when an interference area occurs between the mesh data of the restoration and the tooth data, the processor 150 may display the degree of overlap between the mesh data and the tooth data in the interference area in color. Additionally, the processor 150 may display a message indicating that the deformed mesh data is not appropriate on the display 130 based on the fact that the deformed mesh data does not satisfy the critical condition. Also, the processor 150 may display the deformed region of the mesh data in a color according to the amount of deformation. Also, the processor 150 may display on the display 130 at least one of the allowable minimum and maximum thicknesses of the mesh data.
  • the processor 150 internally includes at least one internal processor and a memory device (eg, RAM, ROM) for storing at least one of programs, instructions, signals, and data to be processed or used in the internal processor. etc.) may be implemented in a form including.
  • a memory device eg, RAM, ROM
  • the processor 150 may include a graphic processing unit for graphic processing corresponding to video.
  • the processor may be implemented as a system on chip (SoC) in which a core and a GPU are integrated.
  • SoC system on chip
  • the processor may include multiple cores over a single core.
  • a processor may include a dual core, triple core, quad core, hexa core, octa core, deca core, dodeca core, hexadecimal core, and the like.
  • the processor 150 may generate an image based on a 2D image received from the scanner 10 .
  • the communication interface 110 may receive data obtained from the scanner 10, for example, raw data obtained through scanning. Also, the processor 150 may generate a 3D image representing the object in 3D based on the raw data received through the communication interface 110 .
  • the scanner 10 uses an L camera corresponding to a left field of view and an R camera corresponding to a right field of view in order to restore a 3D image according to the optical triangulation method.
  • the 3D scanner may obtain L image data corresponding to a left field of view and R image data corresponding to a right field of view from the L camera and the R camera, respectively. Subsequently, the 3D scanner may transmit raw data including L image data and R image data to the communication interface 110 of the image processing device 100 .
  • the communication interface 110 transfers the received raw data to the processor 150, and the processor 150 may generate an image representing the object in three dimensions based on the received raw data.
  • the processor 150 may control the communication interface 110 to directly receive an image representing an object in 3D from an external server, medical device, or the like. In this case, the processor may acquire the 3D image without generating the 3D image based on the raw data.
  • the processor 150 performing operations such as 'extraction', 'acquisition', and 'creation' means that the processor 150 directly performs the above-described operations by executing at least one instruction. In addition, it may include controlling other components so that the above-described operations are performed.
  • the image processing apparatus 100 may include only some of the components shown in FIG. 17 or may include more components in addition to the components shown in FIG. 17. .
  • the image processing device 100 may store and execute dedicated software linked to the scanner 10 .
  • the dedicated software may be referred to as a dedicated program, a dedicated tool, or a dedicated application.
  • dedicated software stored in the image processing device 100 is connected to the scanner 10 to receive data acquired through scanning of an object in real time. can do.
  • Medit produces and distributes 'Medit Link', software for processing, managing, using, and/or transmitting data obtained from a 3D scanner (eg i500).
  • 'dedicated software means a program, tool, or application that can operate in conjunction with a 3D scanner, so that various 3D scanners developed and sold by various manufacturers may use it in common.
  • the aforementioned dedicated software may be produced and distributed separately from the 3D scanner that scans the object.
  • the image processing device 100 may store and execute dedicated software corresponding to the i500 product.
  • the transfer software may perform one or more operations for acquiring, processing, storing, and/or transmitting the image.
  • dedicated software may be stored in the processor.
  • the dedicated software may provide a user interface for using data obtained from the 3D scanner.
  • the user interface screen provided by dedicated software may include an image created according to the disclosed embodiment.
  • An image processing method may be implemented in the form of program instructions that can be executed through various computer means and recorded in a computer readable medium.
  • an embodiment of the present disclosure may be a computer-readable storage medium in which one or more programs including at least one instruction for executing an image processing method are recorded.
  • the computer readable storage medium may include program instructions, data files, data structures, etc. alone or in combination.
  • examples of computer-readable storage media include magnetic media such as hard disks, floppy disks and magnetic tapes, optical media such as CD-ROMs and DVDs, floptical disks and Hardware devices configured to store and execute program instructions, such as magneto-optical media, and ROM, RAM, flash memory, and the like, may be included.
  • the device-readable storage medium may be provided in the form of a non-transitory storage medium.
  • 'non-transitory storage medium' may mean that the storage medium is a tangible device.
  • the 'non-temporary storage medium' may include a buffer in which data is temporarily stored.
  • a method of processing an image according to various embodiments disclosed in this document may be included in a computer program product and provided.
  • a computer program product may be distributed in the form of a machine-readable storage medium (eg compact disc read only memory (CD-ROM)). Alternatively, it may be distributed (eg, downloaded or uploaded) online through an application store (eg, play store, etc.) or directly between two user devices (eg, smartphones).
  • the computer program product according to the disclosed embodiment may include a storage medium on which a program including at least one instruction for performing the image processing method according to the disclosed embodiment is recorded.

Landscapes

  • Health & Medical Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • Public Health (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Medical Informatics (AREA)
  • Animal Behavior & Ethology (AREA)
  • Biomedical Technology (AREA)
  • Epidemiology (AREA)
  • Surgery (AREA)
  • Physics & Mathematics (AREA)
  • Veterinary Medicine (AREA)
  • Computer Graphics (AREA)
  • Software Systems (AREA)
  • Dentistry (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Primary Health Care (AREA)
  • Pathology (AREA)
  • Geometry (AREA)
  • Data Mining & Analysis (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Robotics (AREA)
  • Databases & Information Systems (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Molecular Biology (AREA)
  • Processing Or Creating Images (AREA)

Abstract

Disclosed embodiments relate to an image processing method and an image processing apparatus, and the image processing method according to an embodiment may comprise the steps of: obtaining mesh data for an object; modifying the mesh data on the basis of a user input; and providing feedback for the modified mesh data, on the basis of at least one threshold condition.

Description

이미지 처리 장치, 및 이미지 처리 방법Image processing apparatus and image processing method
개시된 실시예는 이미지 처리 장치 및 이미지 처리 방법에 관한 것으로, 구체적으로, 치아의 수복물에 대한 이미지를 처리하는 이미지 처리 장치 및 처리 방법에 관한 것이다.The disclosed embodiments relate to an image processing device and an image processing method, and more specifically, to an image processing device and processing method for processing an image of a dental restoration.
CAD/CAM(Computer aided design/Computer aided manufacturing)을 이용하여, 치아 수복물을 디자인할 때, 환자 치아의 커브(curve)를 유사하게 구현하기 위해서는 수복물에 대한 메쉬 데이터를 조각하는(sculpting) 과정이 필요하다. 메쉬 데이터를 조각하는 과정은 메쉬 데이터를 추가(add), 제거(remove), 스무딩(smooth), 몰핑(morph)하는 등 메쉬 데이터를 다양하게 변형하는 것을 포함할 수 있다.When designing a dental restoration using CAD/CAM (Computer aided design/Computer aided manufacturing), a process of sculpting mesh data for the restoration is required to similarly implement the curve of the patient's teeth. do. The process of sculpting the mesh data may include transforming the mesh data in various ways, such as adding, removing, smoothing, or morphing the mesh data.
사용자는 기존의 CAD를 이용한 수복물에 대한 메쉬 데이터를 조각할 때, 메쉬 데이터의 변형이 허용되는 범위를 알 수 없었다. 예를 들어, 사용자가 메쉬 데이터를 계속적으로 추가(add)하는 경우, 제작된 수복물과 대합치/인접치와의 간섭이 발생할 수 있다. 또는 메쉬 데이터를 계속적으로 제거(remove)하면, 수복물의 두께가 얇아져서 프린팅 시, 수복물이 부숴질 수 있다. 또한, 사용자가 수복물의 일부분에서는 메쉬 데이터를 추가하고, 다른 부분에서는 메쉬 데이터를 제거하는 경우, 수복물의 두께 편차가 커져서 울퉁불퉁한 수복물이 제조될 수 있다.When sculpting mesh data for a restoration using an existing CAD, the user could not know the allowable range of deformation of the mesh data. For example, when a user continuously adds mesh data, interference between the fabricated restoration and the antagonist/adjacent teeth may occur. Alternatively, if the mesh data is continuously removed, the thickness of the restoration becomes thin, and thus the restoration may be broken during printing. In addition, when a user adds mesh data to a part of a restoration and removes mesh data from another part, the thickness deviation of the restoration increases, resulting in a rough restoration.
기존의 CAD는 메쉬 데이터의 변형에 대한 피드백을 제공하지 않아, 사용자는 수복물에 대한 메쉬 데이터의 조각 시, 임의로 판단하여, 조각을 수행하였다.Existing CADs do not provide feedback on the deformation of mesh data, so the user arbitrarily judged and performed the engraving when sculpting the mesh data for the restoration.
그러나, 사용자가 수동으로 변형된 메쉬 데이터가 허용 가능한지를 판단하는 것은 용이하지 않다는 문제점이 있다.However, there is a problem in that it is not easy for the user to determine whether manually deformed mesh data is acceptable.
개시된 실시예는, 상기의 문제점을 해결하기 위하여, 수복물에 대한 메쉬 데이터를 조각할 때, 변형된 메쉬 데이터가 임계 조건을 만족하는 지 자동으로 판단하고, 판단된 결과를 사용자에게 피드백하기 위한 이미지 처리 방법 및 그에 따른 동작을 수행하는 장치의 제공을 목적으로 한다.In order to solve the above problems, the disclosed embodiment automatically determines whether the deformed mesh data satisfies a critical condition when sculpting mesh data for a restoration, and image processing for feeding back the determined result to the user. It is an object of the present invention to provide a method and an apparatus for performing an operation thereof.
일 실시예에 따른 이미지 처리 방법은, 대상체에 대한 메쉬(mesh) 데이터를 획득하는 단계, 사용자 입력에 기초하여, 상기 메쉬 데이터를 변형시키는 단계, 및 적어도 하나의 임계 조건에 기초하여, 상기 변형된 메쉬 데이터에 대한 피드백을 제공하는 단계를 포함할 수 있다.An image processing method according to an embodiment includes obtaining mesh data of an object, transforming the mesh data based on a user input, and transforming the transformed mesh data based on at least one threshold condition. It may include providing feedback on the mesh data.
일 실시예에 따른 메쉬 데이터는 적어도 하나의 치아에 대한 수복물 데이터를 포함할 수 있다.Mesh data according to an embodiment may include restoration data for at least one tooth.
일 실시예에 따른 이미지 처리 방법은, 상기 메쉬 데이터를 변형시키기 위한 적어도 하나의 메뉴 아이템을 화면에 표시하는 단계를 더 포함하고, 상기 적어도 하나의 메뉴 아이템은, 메쉬 추가 기능에 대응하는 제1 메뉴 아이템, 메쉬 제거 기능에 대응하는 제2 메뉴 아이템, 메쉬 스무딩 기능에 대응하는 제3 메뉴 아이템, 및 메쉬 모핑 기능에 대응하는 제4 메뉴 아이템 중 적어도 하나를 포함하며, 상기 메쉬 데이터를 변형시키는 단계는, 상기 적어도 하나의 메뉴 아이템을 선택하는 상기 사용자 입력에 기초하여, 상기 메쉬 데이터를 변형시키는 단계를 포함할 수 있다.The image processing method according to an embodiment further includes displaying at least one menu item for transforming the mesh data on a screen, wherein the at least one menu item is a first menu corresponding to a mesh addition function. at least one of an item, a second menu item corresponding to a mesh removal function, a third menu item corresponding to a mesh smoothing function, and a fourth menu item corresponding to a mesh morphing function, wherein the transforming the mesh data comprises: , transforming the mesh data based on the user input for selecting the at least one menu item.
일 실시예에 따른 피드백을 제공하는 단계는, 상기 변형된 메쉬 데이터가 상기 임계 조건을 만족하는 지 여부를 결정하는 단계, 및 상기 임계 조건을 만족하지 않는 것에 기초하여, 상기 변형된 메쉬 데이터가 적절하지 않음을 나타내는 상기 피드백을 제공하는 단계를 포함할 수 있다.Providing feedback according to an embodiment includes determining whether the deformed mesh data satisfies the threshold condition, and based on the fact that the threshold condition is not satisfied, the deformed mesh data is appropriately and providing the feedback indicating no.
일 실시예에 따른 임계 조건은, 상기 메쉬 데이터의 외면과 내면 사이의 거리 조건, 상기 메쉬 데이터의 외면이 상기 메쉬 데이터에 대응하는 치아 데이터와 오버랩되는 간섭 영역이 발생하는 지 여부, 및 상기 메쉬 데이터의 외면과 상기 치아 데이터 사이의 거리 조건 중 적어도 하나를 포함할 수 있다.Critical conditions according to an embodiment include a distance condition between an outer surface and an inner surface of the mesh data, whether an interference area in which an outer surface of the mesh data overlaps tooth data corresponding to the mesh data occurs, and the mesh data It may include at least one of distance conditions between the outer surface of the tooth and the tooth data.
일 실시예에 따른 메쉬 데이터는 적어도 하나의 치아에 대한 수복물 데이터이고, 상기 치아 데이터는 상기 수복물과 맞물리는 대합치 및 상기 수복물에 인접한 인접치 중 적어도 하나에 대한 데이터를 포함할 수 있다.Mesh data according to an embodiment is restoration data for at least one tooth, and the tooth data may include data for at least one of an opposing tooth that engages with the restoration object and an adjacent tooth adjacent to the restoration object.
일 실시예에 따른 임계 조건을 만족하는 지 여부를 결정하는 단계는, 상기 메쉬 데이터의 외면과 내면 사이의 거리 조건을 만족하는 지 여부를 결정하는 단계를 포함하고, 상기 메쉬 데이터의 외면과 내면 사이의 거리 조건을 만족하는 지 여부를 결정하는 단계는, 상기 메쉬 데이터의 내면에 포함되는 정점들 또는 면(face)들에서 법선(normal) 방향으로 가상의 광선들을 생성하여, 광선-교차 검사를 수행하는 단계, 상기 가상의 광선들이 교차하는 지점들에 기초하여, 상기 메쉬 데이터의 외면과 내면 사이의 거리를 결정하는 단계, 및 상기 거리가 적어도 하나의 임계 범위를 만족하는지 여부를 결정하는 단계를 포함할 수 있다.The step of determining whether a threshold condition is satisfied according to an embodiment includes determining whether a distance condition between an outer surface and an inner surface of the mesh data is satisfied, and a distance between an outer surface and an inner surface of the mesh data is satisfied. In the step of determining whether the distance condition of is satisfied, a ray-intersection test is performed by generating virtual rays in a normal direction from vertices or faces included in the inner surface of the mesh data. determining a distance between an outer surface and an inner surface of the mesh data based on points at which the virtual rays intersect, and determining whether the distance satisfies at least one threshold range. can do.
일 실시예에 따른 피드백을 제공하는 단계는, 상기 변형된 메쉬 데이터의 외면과 내면 사이의 거리가 상기 임계 조건을 만족하지 않는 영역을 다른 영역과 식별되도록 표시하는 단계를 포함할 수 있다.Providing feedback according to an embodiment may include displaying an area in which a distance between an outer surface and an inner surface of the deformed mesh data does not satisfy the threshold condition to be identified with other areas.
일 실시예에 따른 피드백을 제공하는 단계는, 상기 간섭 영역이 발생하는 경우, 상기 간섭 영역에서 상기 변형된 메쉬 데이터와 상기 치아 데이터가 오버랩되는 정도를 색상으로 표시하는 단계를 포함할 수 있다.Providing feedback according to an embodiment may include displaying an overlapping degree between the deformed mesh data and the tooth data in a color when the interference area occurs.
일 실시예에 따른 피드백을 제공하는 단계는, 상기 변형된 메쉬 데이터가 상기 임계 조건을 만족하지 않는 것에 기초하여, 상기 변형된 메쉬 데이터가 적절하지 않음을 나타내는 메시지를 표시하는 단계를 포함할 수 있다.Providing feedback according to an embodiment may include displaying a message indicating that the deformed mesh data is not appropriate based on the fact that the deformed mesh data does not satisfy the threshold condition. .
일 실시예에 따른 피드백을 제공하는 단계는, 상기 메쉬 데이터의 변형된 영역을 변형량에 따른 색상으로 표시하는 단계를 포함할 수 있다.Providing feedback according to an embodiment may include displaying a deformed region of the mesh data in a color according to a deformation amount.
일 실시예에 따른 피드백을 제공하는 단계는, 상기 메쉬 데이터의 허용 가능한 최소 두께 및 최대 두께 중 적어도 하나를 표시하는 단계를 포함할 수 있다.Providing feedback according to an embodiment may include displaying at least one of an allowable minimum thickness and a maximum allowable thickness of the mesh data.
일 실시예에 따른 이미지 처리 장치는, 디스플레이, 하나 이상의 인스트럭션들을 저장하는 메모리, 및 프로세서를 포함하고, 상기 프로세서는, 상기 메모리에 저장된 상기 하나 이상의 인스트럭션들을 실행함으로써, 대상체에 대한 메쉬(mesh) 데이터를 획득하고, 사용자 입력에 기초하여, 상기 메쉬 데이터를 변형시키며, 적어도 하나의 임계 조건에 기초하여, 상기 변형된 메쉬 데이터에 대한 피드백을 제공하도록 상기 디스플레이를 제어할 수 있다.An image processing apparatus according to an embodiment includes a display, a memory for storing one or more instructions, and a processor, wherein the processor executes the one or more instructions stored in the memory to generate mesh data for an object. The display may be obtained, deforming the mesh data based on a user input, and providing feedback on the deformed mesh data based on at least one critical condition.
개시된 실시예에 따른 이미지 처리 장치, 및 이미지 처리 방법은, 수복물에 대한 메쉬 데이터를 조각할 때, 변형된 메쉬 데이터가 임계 조건을 만족하는 지 자동으로 판단하고, 판단된 결과를 사용자에게 피드백할 수 있다. 이에 따라, 사용자는 변형된 메쉬 데이터가 허용 가능한지를 용이하게 판단할 수 있으며, 변형된 메쉬 데이터에 기초하여, 제작되는 수복물의 품질이 향상될 수 있다.An image processing apparatus and an image processing method according to the disclosed embodiments may automatically determine whether deformed mesh data satisfies a critical condition when sculpting mesh data for a restoration, and provide feedback to the user based on the determined result. there is. Accordingly, the user can easily determine whether the deformed mesh data is acceptable, and the quality of a restoration fabricated based on the deformed mesh data can be improved.
본 발명은, 다음의 자세한 설명과 그에 수반되는 도면들의 결합으로 쉽게 이해될 수 있으며, 참조 번호(reference numerals)들은 구조적 구성요소(structural elements)를 의미한다.BRIEF DESCRIPTION OF THE DRAWINGS The present invention may be readily understood from the following detailed description in combination with the accompanying drawings, wherein reference numerals denote structural elements.
도 1은 개시된 실시예에 따른 이미지 처리 시스템을 설명하기 위한 도면이다.1 is a diagram for explaining an image processing system according to an exemplary embodiment.
도 2는 일 실시예에 따른 이미지 처리 방법을 나타내는 흐름도이다.2 is a flowchart illustrating an image processing method according to an exemplary embodiment.
도 3은 일 실시예에 따른 이미지 처리 장치가 수복물 이미지를 디스플레이하는 예를 나타내는 도면이다.3 is a diagram illustrating an example of displaying a restoration image by an image processing apparatus according to an exemplary embodiment.
도 4 내지 도 7은 일 실시예에 따른 이미지 처리 장치가 수복물 데이터를 조각하는 방법을 설명하기 위해 참조되는 도면들이다.4 to 7 are views referenced to describe a method of engraving restoration data by an image processing apparatus according to an exemplary embodiment.
도 8은 일 실시예에 따른 이미지 처리 장치가 변형된 메쉬 데이터가 임계 조건을 만족하는 지 여부를 판단하는 방법을 설명하기 위해 참조되는 도면이다.8 is a diagram referenced to explain a method of determining whether an image processing device satisfies a threshold condition in deformed mesh data according to an exemplary embodiment.
도 9 및 도 10은 일 실시예에 따른 이미지 처리 장치가 변형된 수복물 데이터의 두께가 임계 조건을 만족하지 않는 경우, 피드백을 제공하는 예들을 나타내는 도면들이다.9 and 10 are diagrams illustrating examples of providing feedback when an image processing apparatus according to an exemplary embodiment does not satisfy a critical condition for a thickness of deformed restoration data.
도 11은 일 실시예에 따른 이미지 처리 장치가 변형된 메쉬 데이터가 임계 조건을 만족하는 지 여부를 판단하는 방법을 설명하기 위해 참조되는 도면이다.11 is a diagram referenced to describe a method of determining whether an image processing device satisfies a threshold condition in deformed mesh data according to an exemplary embodiment.
도 12는 일 실시예에 따른 이미지 처리 장치가 간섭 영역을 다른 영역과 식별되도록 표시하는 화면을 나타내는 도면이다.12 is a diagram illustrating a screen on which an image processing apparatus displays an interference region to be distinguished from another region according to an exemplary embodiment.
도 13 및 도 14는 일 실시예에 따른 이미지 처리 장치가 변형된 메쉬 데이터가 임계 조건을 만족하는 지 여부를 판단하여 피드백하는 방법을 설명하기 위해 참조되는 도면들이다.13 and 14 are diagrams referenced to describe a method of determining whether the deformed mesh data satisfies a critical condition and providing feedback thereof, according to an exemplary embodiment.
도 15는 일 실시예에 다른 이미지 처리 장치가 변형된 메쉬 데이터가 임계 조건을 만족하는 지 여부를 판단하는 방법을 설명하기 위해 참조되는 도면이다.FIG. 15 is a diagram referenced to explain a method of determining whether deformed mesh data of another image processing device satisfies a critical condition according to an exemplary embodiment.
도 16은 일 실시예에 따른 이미지 처리 장치가 메쉬 데이터의 변형량을 디스플레이하는 화면을 나타내는 도면이다.16 is a diagram illustrating a screen on which an image processing device displays a deformation amount of mesh data according to an exemplary embodiment.
도 17은 일 실시예에 따른 이미지 처리 장치를 나타내는 블록도이다.17 is a block diagram illustrating an image processing device according to an exemplary embodiment.
본 명세서는 본 발명의 권리범위를 명확히 하고, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자가 본 발명을 실시할 수 있도록, 본 발명의 원리를 설명하고, 실시예들을 개시한다. 개시된 실시예들은 다양한 형태로 구현될 수 있다.This specification clarifies the scope of the present invention, explains the principles of the present invention, and discloses embodiments so that those skilled in the art can practice the present invention. The disclosed embodiments may be implemented in various forms.
명세서 전체에 걸쳐 동일 참조 부호는 동일 구성요소를 지칭한다. 본 명세서가 실시예들의 모든 요소들을 설명하는 것은 아니며, 본 발명이 속하는 기술분야에서 일반적인 내용 또는 실시예들 간에 중복되는 내용은 생략한다. 명세서에서 사용되는 '부'(part, portion)라는 용어는 소프트웨어 또는 하드웨어로 구현될 수 있으며, 실시예들에 따라 복수의 '부'가 하나의 요소(unit, element)로 구현되거나, 하나의 '부'가 복수의 요소들을 포함하는 것도 가능하다. 이하 첨부된 도면들을 참고하여 본 발명의 작용 원리 및 실시예들에 대해 설명한다.Like reference numbers designate like elements throughout the specification. This specification does not describe all elements of the embodiments, and general content or overlapping content between the embodiments in the technical field to which the present invention belongs is omitted. The term 'part' (portion) used in the specification may be implemented as software or hardware, and according to embodiments, a plurality of 'parts' may be implemented as one element (unit, element), or a single 'unit'. It is also possible that section' includes a plurality of elements. Hereinafter, the working principle and embodiments of the present invention will be described with reference to the accompanying drawings.
한편, 본 명세서에서 어떤 구성이 다른 구성과 "연결"되어 있다고 할 때, 이는 '직접적으로 연결'되어 있는 경우뿐 아니라, '그 중간에 다른 구성을 사이에 두고 연결'되어 있는 경우도 포함한다. 또한, 어떤 구성이 다른 구성을 "포함"한다고 할 때, 이는 특별히 반대되는 기재가 없는 한, 그 외 다른 구성을 제외하는 것이 아니라 다른 구성들 더 포함할 수도 있다는 것을 의미한다.On the other hand, when a component is said to be "connected" to another component in this specification, this includes not only the case of being 'directly connected', but also the case of being 'connected with another component in between'. In addition, when a certain component "includes" another component, this means that other components may be further included without excluding other components unless otherwise specified.
또한, 본 명세서에서 사용되는 '제 1' 또는 '제 2' 등과 같이 서수를 포함하는 용어는 다양한 구성 요소들을 설명하는데 사용할 수 있지만, 상기 구성 요소들은 상기 용어들에 의해 한정되어서는 안 된다. 상기 용어들은 하나의 구성 요소를 다른 구성 요소로부터 구별하는 목적으로만 사용된다.Also, terms including ordinal numbers such as 'first' or 'second' used in this specification may be used to describe various elements, but the elements should not be limited by the terms. These terms are only used for the purpose of distinguishing one component from another.
본 명세서에서 '대상체(object)'는 촬영의 대상이 되는 것으로서, 사람, 동물, 또는 그 일부를 포함할 수 있다. 예를 들어, 대상체는 신체의 일부(장기 또는 기관 등), 또는 팬텀(phantom) 등을 포함할 수 있다. 또한, 예를 들면, 대상체는, 구강을 본 뜬 석고 모델, 틀니나 의치 등의 덴쳐(denture), 이(teeth) 형상의 덴티폼(dentiform) 등을 포함할 수 있다. 예를 들어, 대상체는 치아, 치은, 구강의 적어도 일부 영역, 및/또는 구강 내에 삽입 가능한 인공 구조물(예를 들어, 브라켓 및 와이어를 포함하는 교정 장치, 임플란트, 어버트먼트, 인공 치아, 인레이 및 온레이 등을 포함하는 치아 수복물, 구강 내 삽입되는 교정 보조 도구 등), 인공 구조물이 부착된 치아 또는 치은 등을 포함할 수 있다.In this specification, an 'object' is an object to be photographed, and may include a human, an animal, or a part thereof. For example, the object may include a body part (organ or organ, etc.) or a phantom. Also, for example, the object may include a plaster model imitating the oral cavity, dentures such as dentures or dentures, teeth-shaped dentiforms, and the like. For example, the object may include teeth, gingiva, at least a portion of the oral cavity, and/or artificial structures (eg, orthodontic devices including brackets and wires, implants, abutments, artificial teeth, inlays, and dental restorations including onlays, orthodontic aids inserted into the oral cavity, etc.), teeth or gingiva to which artificial structures are attached, and the like.
"스캐너"는, 대상체와 관련된 이미지를 획득하는 장치를 의미할 수 있다. 스캐너는 구강의 치료에 이용되는 구강과 관련된 이미지를 획득하는 스캐너를 의미할 수 있다. 예를 들면, 스캐너는 구강 내에 인입 할 수 있는 형태를 가지는 구강 스캐너(intraoral scanner)가 될 수 있다. 여기서, 구강 스캐너는 한 손으로 잡아서 휴대 가능한 형태를 가지는 것이 일반적이므로, 핸드 헬드(hand-held) 형 스캐너라 칭할 수 있다. 또는, 스캐너는 치과 치료에 이용 가능한 테이블 형 스캐너가 될 수 있다. 또한, 스캐너는, 2차원 이미지 및 3차원 이미지 중 적어도 하나를 획득할 수 있다. 또한, 스캐너는, 구강에 대한 적어도 하나의 2차원 이미지를 획득하고, 획득된 적어도 하나의 2차원 이미지에 기초하여 구강에 대한 3차원 이미지(또는 3차원 모델)를 생성할 수 있다. 또한, 스캐너는, 구강에 대한 적어도 하나의 2차원 이미지를 획득하고, 적어도 하나의 2차원 이미지를 외부 장치로 전송할 수 있다. 외부 장치는, 수신된 적어도 하나의 2차원 이미지에 기초하여 구강에 대한 3차원 이미지를 생성할 수 있다.A “scanner” may refer to a device that acquires an image related to an object. The scanner may refer to a scanner that acquires an image related to the oral cavity used for oral treatment. For example, the scanner may be an intraoral scanner having a form that can be inserted into the oral cavity. Here, since the intraoral scanner generally has a form that can be held and carried with one hand, it can be referred to as a hand-held scanner. Alternatively, the scanner may be a table type scanner usable for dental treatment. Also, the scanner may acquire at least one of a 2D image and a 3D image. Also, the scanner may acquire at least one 2D image of the oral cavity and generate a 3D image (or 3D model) of the oral cavity based on the obtained at least one 2D image. Also, the scanner may obtain at least one 2D image of the oral cavity and transmit the at least one 2D image to an external device. The external device may generate a 3D image of the oral cavity based on the received at least one 2D image.
또한, "구강을 스캔"한다는 의미는, 구강 자체를 스캔하는 경우를 의미할 뿐만 아니라, 인공물, 및/또는 구강을 나타내거나 구강과 관련된 기타 객체 등을 스캔하는 경우를 의미할 수 있다.In addition, the meaning of "scanning the oral cavity" may mean a case of scanning the oral cavity itself, as well as a case of scanning an artificial object and/or representing the oral cavity or other objects related to the oral cavity.
"이미지"는 대상체에 대한 2차원 이미지 또는 대상체를 입체적으로 나타내는 3차원 모델 또는 3차원 이미지가 될 수 있다. 예를 들면, 이미지는, 대상체를 2차원 또는 3차원적으로 표현하기 위해서 필요한 데이터일 수 있다. 예를 들면, 이미지는, 적어도 하나의 카메라로부터 획득된 로우 데이터(raw data) 또는 로우 이미지(raw image) 등을 의미할 수 있다. 구체적으로, 로우 이미지는 진단을 위해서 필요한 구강 이미지를 생성하기 위해서 획득되는 데이터로, 스캐너(예를 들어, intraoral scanner)를 이용하여 대상체인 환자의 구강 내를 스캔(scan)할 때 스캐너에 포함되는 적어도 하나의 카메라에서 획득되는 이미지(예를 들어, 2차원 프레임 이미지)가 될 수 있다. 또한, 로우 이미지는, 가공 되지 않은 이미지로, 스캐너에서 획득된 이미지의 원본을 의미할 수 있다.An “image” may be a 2D image of an object or a 3D model or 3D image representing the object in three dimensions. For example, an image may be data required to represent an object in 2D or 3D. For example, an image may mean raw data or a raw image obtained from at least one camera. Specifically, the raw image is data acquired to generate an oral image necessary for diagnosis, and is included in the scanner when scanning the patient's oral cavity using a scanner (eg, intraoral scanner) It may be an image acquired from at least one camera (eg, a 2D frame image). Also, the raw image is an image that has not been processed and may mean an original image obtained from a scanner.
"3차원 구강 모델"은, 스캐너의 스캔 동작으로 획득된 로우 데이터에 기초하여 구강을 3차원적으로 모델링한 모델을 의미할 수 있다. 또한, "3차원 구강 모델"은, 스캐너가 치아, 인상체, 인공물 등과 같은 대상체를 스캔하여 획득된 데이터에 기초하여 3차원적으로 모델링된 구조체를 의미할 수 있다. 3차원 구강 모델은, 구강의 내부 구조를 3차원적으로 모델링하여 생성된 것으로, 3차원 스캔 모델, 3차원 모델, 또는 치아 모델 등으로 호칭될 수 있다. 예를 들면, 3차원 구강 모델의 포맷은, STL(Standard Triangle Language), OBJ, PLY(Polygon File Format) 중 하나일 수 있고, 상기 예시에 제한되지 않는다. 또한, 3차원 구강 모델은, 3차원적인 형상에 대한 기하학 정보, 컬러, 텍스처, 재료 등의 정보를 포함할 수 있다.The “3-dimensional oral model” may refer to a model in which the oral cavity is 3-dimensionally modeled based on raw data obtained by a scanning operation of a scanner. Also, a “3D oral model” may refer to a structure modeled three-dimensionally based on data obtained by scanning an object such as a tooth, an impression body, or an artificial object by a scanner. The 3D oral model is generated by 3D modeling the internal structure of the oral cavity, and may be referred to as a 3D scan model, a 3D model, or a tooth model. For example, the format of the 3D oral model may be one of STL (Standard Triangle Language), OBJ, and PLY (Polygon File Format), and is not limited to the above example. In addition, the 3D oral model may include information such as geometry information, color, texture, and material for a 3D shape.
또한, "폴리곤(polygon)"은, 3차원 구강 모델의 입체 형상을 표현할 때 사용되는 가장 작은 단위인 다각형을 의미할 수 있다. 예를 들면, 3차원 구강 모델의 표면은 삼각형 폴리곤들로 표현될 수 있다. 예를 들면, 폴리곤은 최소 3개의 정점(vertex)과 1개의 면(face)으로 구성될 수 있다. 정점은 위치, 컬러, 법선 등의 정보를 포함할 수 있다. 메쉬는 복수의 폴리곤들이 모여서 만들어진 3차원 공간 상의 대상체일 수 있다. 3차원 구강 모델을 표현하는 폴리곤의 수가 증가할수록, 대상체가 세밀하게 표현될 수 있다.Also, "polygon" may refer to a polygon, which is the smallest unit used when expressing a three-dimensional shape of a 3D oral model. For example, the surface of a 3D oral model may be represented by triangular polygons. For example, a polygon can consist of at least 3 vertices and 1 face. A vertex may include information such as position, color, and normal. A mesh may be an object in a 3D space created by gathering a plurality of polygons. As the number of polygons representing the 3D oral model increases, the object can be expressed in detail.
이하에서는 도면을 참조하여 실시 예들을 상세히 설명한다.Hereinafter, embodiments will be described in detail with reference to the drawings.
도 1은 개시된 실시예에 따른 이미지 처리 시스템을 설명하기 위한 도면이다.1 is a diagram for explaining an image processing system according to an exemplary embodiment.
도 1을 참조하면, 이미지 처리 시스템은 스캐너(10) 및 이미지 처리 장치(100)를 포함한다. 스캐너(10)와 이미지 처리 장치(100)는 통신망을 통해 통신을 수행할 수 있다.Referring to FIG. 1 , the image processing system includes a scanner 10 and an image processing device 100 . The scanner 10 and the image processing device 100 may communicate through a communication network.
스캐너(10)는 대상체를 스캔하는 장치로써, 대상체의 이미지를 획득하는 의료 장치일 수 있다. 스캐너(10)는 구강이나 인공 구조물, 또는 구강이나 인공 구조물을 본 뜬 석고 모형 중 적어도 하나에 대한 이미지를 획득할 수 있다.The scanner 10 is a device that scans an object and may be a medical device that acquires an image of the object. The scanner 10 may obtain an image of at least one of the oral cavity or an artificial structure or a plaster model modeled after the oral cavity or an artificial structure.
도 1에 도시된 스캐너(10)와 같이 구강 내에 인입 가능한 형태를 갖는 스캐너를 구강 스캐너(intraoral scanner) 또는 휴대형 스캐너 등으로 지칭할 수 있다. 스캐너(10)는 도 1에 도시된 핸드 헬드 형의 스캐너 이외에도, 테이블 형의 스캐너가 될 수 있다. A scanner having a shape retractable into an oral cavity, such as the scanner 10 shown in FIG. 1 , may be referred to as an intraoral scanner or a portable scanner. The scanner 10 may be a table type scanner in addition to the handheld type scanner shown in FIG. 1 .
스캐너(10)는 구강 내에 삽입되어 비 접촉식으로 대상체(예를 들어, 치아 등과 같은 구강 내의 객체 또는 인상체(impression body) 등)를 스캐닝함으로써, 적어도 하나의 치아를 포함하는 구강에 대한 이미지를 획득할 수 있다. 또한, 스캐너(10)는 적어도 하나의 이미지 센서(예를 들어, 광학 카메라 등)를 이용하여 환자의 구강 내부 또는 구강 내부를 본 뜬 인상체 등을 스캔할 수 있다.The scanner 10 is inserted into the oral cavity and scans an object (eg, an object in the oral cavity such as a tooth or an impression body) in a non-contact manner, thereby generating an image of the oral cavity including at least one tooth. can be obtained Also, the scanner 10 may scan the inside of the patient's oral cavity or an impression modeled after the inside of the patient's oral cavity using at least one image sensor (eg, an optical camera).
스캐너(10)는 구강 내부의 치아, 치은 및 구강 내에 삽입 가능한 인공 구조물(예를 들어, 브라켓 및 와이어 등을 포함하는 교정 장치, 임플란트, 인공 치아, 구강 내 삽입되는 교정 보조 도구 등) 중 적어도 하나의 표면을 이미징하기 위해서, 대상체에 대한 표면 정보를 로우 데이터(raw data)로 획득할 수 있다.The scanner 10 may include at least one of teeth, gingiva, and artificial structures insertable into the oral cavity (eg, orthodontic devices including brackets and wires, implants, artificial teeth, and orthodontic aids inserted into the oral cavity). In order to image the surface of the object, surface information of the object may be obtained as raw data.
스캐너(10)에서 획득되는 로우 데이터는 스캐너(10)에 포함되는 적어도 하나의 카메라에 획득된 적어도 하나의 이미지가 될 수 있다. 구체적으로, 로우 데이터는 스캐너(10)가 스캔 동작을 수행하여 획득된 적어도 하나의 2차원 프레임 이미지(frame image)가 될 수 있다. 여기서, '프레임 이미지'는 '프레임' 또는 '프레임 데이터'로 호칭될 수도 있을 것이다.The raw data acquired by the scanner 10 may be at least one image acquired by at least one camera included in the scanner 10 . Specifically, the raw data may be at least one 2D frame image obtained by performing a scanning operation by the scanner 10 . Here, 'frame image' may also be referred to as 'frame' or 'frame data'.
스캐너(10)는 획득한 로우 데이터를 통신망을 통하여 이미지 처리 장치(100)로 전송할 수 있다. 또는, 스캐너(10)는 적어도 하나의 카메라에서 획득된 로우 데이터에 근거하여 생성한 3차원 모델 또는 3차원 이미지를 획득할 수 있다. 그리고, 획득된 3차원 모델 또는 3차원 이미지를 이미지 처리 장치(100)로 전송할 수도 있을 것이다.The scanner 10 may transmit the acquired raw data to the image processing device 100 through a communication network. Alternatively, the scanner 10 may acquire a 3D model or 3D image generated based on raw data obtained from at least one camera. Also, the acquired 3D model or 3D image may be transmitted to the image processing device 100 .
스캐너(10)에서 획득된 이미지 데이터는 유선 또는 무선 통신망을 통하여 연결되는 이미지 처리 장치(100)로 전송될 수 있다.Image data acquired by the scanner 10 may be transmitted to the image processing device 100 connected through a wired or wireless communication network.
이미지 처리 장치(100)는 스캐너(10)와 유선 또는 무선 통신망을 통하여 연결되며, 스캐너(10)로부터 대상체를 스캔하여 획득된 데이터를 수신하고, 수신된 데이터에 근거하여 이미지를 생성, 처리, 디스플레이 및/또는 전송할 수 있는 모든 전자 장치가 될 수 있다.The image processing device 100 is connected to the scanner 10 through a wired or wireless communication network, receives data obtained by scanning an object from the scanner 10, and generates, processes, and displays an image based on the received data. and/or any electronic device capable of transmitting.
이미지 처리 장치(100)는 스마트 폰(smart phone), 랩탑 컴퓨터, 데스크탑 컴퓨터, PDA, 태블릿 PC 등의 컴퓨팅 장치가 될 수 있으며, 이에 한정되지 않는다. 또한, 이미지 처리 장치(100)는 구강 이미지를 처리하기 위한 서버(또는 서버 장치) 등의 형태로 존재할 수도 있을 것이다.The image processing device 100 may be a computing device such as a smart phone, a laptop computer, a desktop computer, a PDA, or a tablet PC, but is not limited thereto. Also, the image processing device 100 may exist in the form of a server (or server device) for processing oral cavity images.
구체적으로, 이미지 처리 장치(100)는 스캐너(10)에서 수신되는 데이터에 근거하여, 구강의 진단에 필요한 정보, 구강을 나타내는 이미지, 구강 치료에 이용되는 모델(예를 들어, 치아에 대한 3차원 모델 또는 크라운을 생성하기 위한 삼차원 모델 등) 중 적어도 하나를 생성하고, 생성된 정보 및 이미지를 디스플레이(130)를 통하여 디스플레이 할 수 있다.Specifically, the image processing device 100 may, based on the data received from the scanner 10, information necessary for diagnosis of the oral cavity, an image representing the oral cavity, and a model used for oral treatment (eg, a 3D image of the teeth). At least one of a model or a three-dimensional model for generating a crown) may be created, and the generated information and image may be displayed through the display 130 .
예를 들어, 스캐너(10)는 스캔을 통하여 획득된 로우 데이터(raw data)를 그대로 이미지 처리 장치(100)로 전송할 수 있다. 이 경우, 이미지 처리 장치(100)는 수신된 로우 데이터에 근거하여 구강을 3차원적으로 나타내는 3차원 구강 이미지(3차원 구강 모델)를 생성할 수 있다. 일 실시예에 따른 이미지 처리 장치(100)는 수신한 로우 데이터에 기초하여, 대상체의 표면의 형상을 3차원적으로 나타내는 3차원 데이터(예를 들어, 표면 데이터, 메쉬 데이터 등)를 생성할 수 있다. 이때, 3차원 데이터는 복수의 폴리곤들을 포함할 수 있다.For example, the scanner 10 may transmit raw data obtained through scanning to the image processing device 100 as it is. In this case, the image processing device 100 may generate a 3D oral image (3D oral model) representing the oral cavity in 3D based on the received raw data. The image processing device 100 according to an embodiment may generate 3D data (eg, surface data, mesh data, etc.) representing the shape of the surface of the object in 3D, based on the received raw data. there is. In this case, the 3D data may include a plurality of polygons.
또한, 이미지 처리 장치(100)는 생성된 이미지를 분석, 처리, 디스플레이 및/또는 외부 장치로 전송할 수 있다.Also, the image processing device 100 may analyze, process, display, and/or transmit the generated image to an external device.
또 다른 예로, 스캐너(10)는 대상체의 스캔을 통하여 로우 데이터(raw data)를 획득하고, 획득된 로우 데이터를 가공하여 대상체에 대응되는 이미지를 생성하여 이미지 처리 장치(100)로 전송할 수 있다. 이 경우, 이미지 처리 장치(100)는 수신된 이미지를 분석, 처리, 디스플레이 및/또는 전송할 수 있다. As another example, the scanner 10 may obtain raw data by scanning an object, process the obtained raw data, generate an image corresponding to the object, and transmit the image to the image processing device 100 . In this case, the image processing device 100 may analyze, process, display, and/or transmit the received image.
개시된 실시예에서, 이미지 처리 장치(100)는 대상체를 3차원적으로 나타내는 이미지를 생성 및 디스플레이할 수 있는 전자 장치로, 이하에서 상세히 설명한다.In the disclosed embodiment, the image processing device 100 is an electronic device capable of generating and displaying an image representing an object in 3D, which will be described in detail below.
일 실시예에 따른 이미지 처리 장치(100)는 스캐너(10)로부터 대상체를 스캔한 로우 데이터를 수신하면, 수신된 로우 데이터를 가공하여, 3차원 이미지(또는 3차원 모델)를 생성할 수 있다. 설명의 편의를 위하여, 이미지 처리 장치(100)에 의해 생성된 대상체에 대한 3차원 이미지를 이하에서,'스캔 데이터'라 지칭하기로 한다.When receiving raw data obtained by scanning an object from the scanner 10, the image processing apparatus 100 according to an embodiment may generate a 3D image (or 3D model) by processing the received raw data. For convenience of description, a 3D image of an object generated by the image processing apparatus 100 will be referred to as 'scan data' hereinafter.
예를 들어, 스캐너(10)는 적어도 하나의 치아를 포함하는 구강을 스캔할 수 있다. 일 실시예에 따른 이미지 처리 장치(100)는 스캐너(10)로부터 구강을 스캔한 로우 데이터를 수신하고, 수신된 로우 데이터에 기초하여, 적어도 하나의 치아를 포함하는 구강에 대한 3차원 스캔 데이터를 생성하고, 생성된 3차원 스캔 데이터(3차원 이미지)를 디스플레이(130)를 통하여 디스플레이할 수 있다.For example, the scanner 10 may scan an oral cavity including at least one tooth. The image processing apparatus 100 according to an embodiment receives raw data obtained by scanning the oral cavity from the scanner 10, and based on the received raw data, 3D scan data for the oral cavity including at least one tooth is generated. It is possible to generate and display the generated 3D scan data (3D image) through the display 130 .
일 실시예에 따른 이미지 처리 장치(100)는 구강에 대한 스캔 데이터에 기초하여, 수복물의 초기 메쉬 데이터를 획득할 수 있다. 이미지 처리 장치(100)는 수복물을 디자인하기 위하여, 사용자 입력에 기초하여, 수복물의 초기 메쉬 데이터를 조각할 수 있다. 이미지 처리 장치(100)는 초기 메쉬 데이터의 변형 정도가 임계 조건에 만족하는 지를 판단하고, 판단 결과를 다양한 방법으로 사용자에게 피드백할 수 있다.The image processing apparatus 100 according to an embodiment may obtain initial mesh data of the restoration based on scan data of the oral cavity. The image processing apparatus 100 may engrave initial mesh data of the restoration in order to design the restoration, based on a user input. The image processing device 100 may determine whether or not the degree of deformation of the initial mesh data satisfies a critical condition, and feedback the determination result to the user in various ways.
이하, 도면들을 참조하여, 일 실시예에 따른 이미지 처리 장치(100)가 수복물에 대한 메쉬 데이터의 변형 정도가 임계 조건에 만족하는 지를 판단하고, 판단 결과를 사용자에게 피드백하는 방법을 설명하기로 한다.Hereinafter, with reference to the drawings, a description will be given of a method in which the image processing apparatus 100 according to an embodiment determines whether the degree of deformation of mesh data for a restoration satisfies a critical condition and feeds back the determination result to the user. .
도 2는 일 실시예에 따른 이미지 처리 방법을 나타내는 흐름도이다.2 is a flowchart illustrating an image processing method according to an exemplary embodiment.
도 2를 참조하면, 일 실시예에 따른 이미지 처리 장치(100)는 대상체에 대한 메쉬 데이터를 획득할 수 있다(S210).Referring to FIG. 2 , the image processing device 100 according to an exemplary embodiment may obtain mesh data of an object (S210).
예를 들어, 이미지 처리 장치(100)는 스캐너(10)로부터 적어도 하나의 치아를 포함하는 구강을 스캔하여 획득한 로우 데이터를 수신할 수 있다. 이미지 처리 장치(100)는 수신한 로우 데이터에 기초하여, 구강에 대한 3차원 이미지 또는 3차원 모델을 획득할 수 있다. 이때, 구강에 대한 3차원 이미지는 구강 내의 복수의 대상체들 및 대상체들 표면의 3차원적 형상 정보를 포함할 수 있다. 예를 들어, 구강에 대한 3차원 이미지는 복수의 폴리곤들로 표현될 수 있으며, 폴리곤의 형태는 삼각형일 수 있다. 다만, 이에 한정되지 않는다.For example, the image processing device 100 may receive raw data obtained by scanning an oral cavity including at least one tooth from the scanner 10 . The image processing device 100 may acquire a 3D image or 3D model of the oral cavity based on the received raw data. In this case, the 3D image of the oral cavity may include a plurality of objects in the oral cavity and 3D shape information of the surfaces of the objects. For example, a 3D image of the oral cavity may be expressed as a plurality of polygons, and the shape of the polygon may be a triangle. However, it is not limited thereto.
또는, 이미지 처리 장치(100)는 스캐너(10) 또는 외부 장치로부터 구강에 대한 3차원 이미지를 수신할 수 있다.Alternatively, the image processing device 100 may receive a 3D image of the oral cavity from the scanner 10 or an external device.
일 실시예에 따른 이미지 처리 장치(100)는 구강에 대한 3차원 이미지에서 치료가 필요한 치아(대상 치아)를 식별하고, 대상 치아에 대한 수복물 데이터를 획득할 수 있다. 예를 들어, 이미지 처리 장치(100)는 대상 치아에 대한 3차원적 형상 정보에 기초하여, 대상 치아에 대한 수복물을 디자인할 수 있다. 이미지 처리 장치(100)는 CAD(Computer Aided Design)/CAM(Computer Aided Manufacturing) 프로그램을 이용하여, 대상 치아에 대한 수복물을 디자인할 수 있다. 다만, 이에 한정되지 않는다.The image processing apparatus 100 according to an embodiment may identify a tooth (target tooth) requiring treatment in a 3D image of the oral cavity, and obtain restoration data for the target tooth. For example, the image processing apparatus 100 may design a restoration for a target tooth based on 3D shape information of the target tooth. The image processing apparatus 100 may design a restoration for a target tooth using a computer aided design (CAD)/computer aided manufacturing (CAM) program. However, it is not limited thereto.
또는, 이미지 처리 장치(100)는 외부 장치로 구강에 대한 3차원 이미지 또는 대상 치아에 대한 데이터를 전송할 수 있다. 외부 장치는 이미지 처리 장치(100)로부터 수신한 3차원 이미지 또는 데이터에 기초하여, 대상 치아에 대한 수복물을 디자인하고, 수복물에 대한 이미지 또는 데이터를 이미지 처리 장치(100)로 전송할 수 있다.Alternatively, the image processing device 100 may transmit a 3D image of an oral cavity or data of a target tooth to an external device. The external device may design a restoration of the target tooth based on the 3D image or data received from the image processing device 100 and transmit the image or data of the restoration to the image processing device 100 .
일 실시예에 따른 수복물에 대한 이미지 또는 데이터(이하, 수복물 데이터라 지칭한다)는 복수의 폴리곤들을 포함하는 메쉬로 표현될 수 있다.Images or data (hereinafter, referred to as restoration data) of a restoration according to an embodiment may be expressed as a mesh including a plurality of polygons.
일 실시예에 따른 이미지 처리 장치(100)는 구강을 스캔한 3차원 스캔 데이터와 수복물 데이터를 포함하는 구강 이미지를 획득할 수 있다. 예를 들어, 이미지 처리 장치(100)는 구강에 대한 3차원 스캔 데이터에 수복물 데이터를 적용시킴으로써, 대상 치아에 수복물이 부착된 형태의 구강 이미지를 획득할 수 있다. 이미지 처리 장치(100)는 대상 치아에 수복물이 부착된 형태의 구강 이미지를 화면에 표시할 수 있다.The image processing device 100 according to an embodiment may obtain an oral cavity image including 3D scan data obtained by scanning the oral cavity and restoration data. For example, the image processing apparatus 100 may acquire an oral cavity image in which a restoration object is attached to a target tooth by applying restoration data to 3D scan data of the oral cavity. The image processing device 100 may display on the screen an oral cavity image in which a restoration object is attached to a target tooth.
일 실시예에 따른 이미지 처리 장치(100)는 사용자 입력에 기초하여, 메쉬 데이터를 변형시킬 수 있다(S220).The image processing device 100 according to an embodiment may transform mesh data based on a user input (S220).
일 실시예에 따른 이미지 처리 장치(100)는 사용자 입력에 기초하여, 수복물에 대한 메쉬 데이터를 변형시킬 수 있다. 예를 들어, 이미지 처리 장치(100)는 조각 하기(sculpting) 기능을 이용하여, 메쉬 데이터를 변형시킬 수 있다. 이미지 처리 장치(100)는 조각 하기 기능에 대응하는 적어도 하나의 메뉴를 표시할 수 있다. 예를 들어, 일 실시예에 따른 조각 하기 기능은 메쉬 추가 기능, 메쉬 제거 기능, 메쉬 스무딩 기능, 및 메쉬 모핑 기능 중 적어도 하나를 포함할 수 있다. 다만, 이에 한정되지 않는다.The image processing apparatus 100 according to an embodiment may transform mesh data of a restoration based on a user input. For example, the image processing device 100 may transform mesh data by using a sculpting function. The image processing device 100 may display at least one menu corresponding to the sculpting function. For example, the sculpting function according to an embodiment may include at least one of a mesh adding function, a mesh removing function, a mesh smoothing function, and a mesh morphing function. However, it is not limited thereto.
이미지 처리 장치(100)는 표시된 적어도 하나의 메뉴가 사용자 입력에 의해 선택되면, 선택된 메뉴에 해당하는 기능을 이용하여, 메쉬 데이터를 변형시킬 수 있다. 이에 대해서는 도 4 내지 도 7을 참조하여 자세히 설명하기로 한다.When at least one displayed menu is selected by a user input, the image processing device 100 may transform mesh data using a function corresponding to the selected menu. This will be described in detail with reference to FIGS. 4 to 7 .
일 실시예에 따른 이미지 처리 장치(100)는 적어도 하나의 임계 조건에 기초하여, 변형된 메쉬 데이터에 대한 피드백을 제공할 수 있다(S230).The image processing device 100 according to an embodiment may provide feedback on deformed mesh data based on at least one threshold condition (S230).
이미지 처리 장치(100)는 변형된 메쉬 데이터가 임계 조건을 만족하는 지 여부를 확인할 수 있다. 예를 들어, 일 실시예에 따른 임계 조건은, 메쉬 데이터의 외면과 내면 사이의 거리 조건, 메쉬 데이터의 외면이 메쉬 데이터에 대응하는 치아 데이터와 오버랩되는 간섭 영역이 발생하는 지 여부, 및 메쉬 데이터의 외면과 치아 데이터 사이의 거리 조건 중 적어도 하나를 포함할 수 있다. 이미지 처리 장치(100)가 변형된 메쉬 데이터가 임계 조건을 만족하는 지 여부를 확인하는 방법에 대해서는, 도 8, 도 11, 도 13 및 도 15를 참조하여 자세히 설명하기로 한다.The image processing device 100 may check whether the deformed mesh data satisfies a critical condition. For example, the critical condition according to an embodiment is a distance condition between an outer surface and an inner surface of the mesh data, whether an interference area in which an outer surface of the mesh data overlaps tooth data corresponding to the mesh data occurs, and mesh data It may include at least one of distance conditions between the outer surface of the tooth data. A method of determining whether the image processing device 100 deformed mesh data satisfies the critical condition will be described in detail with reference to FIGS. 8, 11, 13, and 15 .
이미지 처리 장치(100)는 변형된 메쉬 데이터가 임계 조건을 만족하지 않는 것에 기초하여, 변형된 메쉬 데이터가 적절하지 않음을 나타내는 피드백을 제공할 수 있다.The image processing device 100 may provide feedback indicating that the deformed mesh data is not appropriate based on the fact that the deformed mesh data does not satisfy the critical condition.
예를 들어, 이미지 처리 장치(100)는 변형된 메쉬 데이터의 외면과 내면 사이의 거리가 임계 조건을 만족하는 않는 영역을 다른 영역과 식별되도록 표시할 수 있다. 또한, 이미지 처리 장치(100)는 수복물에 대한 메쉬 데이터와 치아 데이터 사이에 간섭 영역이 발생하는 경우, 간섭 영역에서 메쉬 데이터와 치아 데이터가 오버랩되는 정도를 색상으로 표시할 수 있다. 또한, 이미지 처리 장치(100)는 변형된 메쉬 데이터가 임계 조건을 만족하지 않는 것에 기초하여, 변형된 메쉬 데이터가 적절하지 않음을 나타내는 메시지를 표시할 수 있다. 또한, 이미지 처리 장치(100)는 메쉬 데이터의 변형된 영역을 변형량에 따른 색상으로 표시할 수 있다. 또한, 이미지 처리 장치(100)는 메쉬 데이터의 허용 가능한 최소 두께 및 최대 두께 중 적어도 하나를 표시할 수 있다.For example, the image processing device 100 may display a region in which a distance between an outer surface and an inner surface of the deformed mesh data does not satisfy a critical condition to be identified with other areas. Also, when an interference area occurs between the mesh data of the restoration and the tooth data, the image processing apparatus 100 may display the degree of overlap between the mesh data and the tooth data in the interference area in color. In addition, the image processing device 100 may display a message indicating that the deformed mesh data is not appropriate based on the fact that the deformed mesh data does not satisfy a threshold condition. Also, the image processing device 100 may display the deformed region of the mesh data in a color according to the amount of deformation. Also, the image processing device 100 may display at least one of a minimum allowable thickness and a maximum allowable thickness of mesh data.
도 3은 일 실시예에 따른 이미지 처리 장치가 수복물 이미지를 디스플레이하는 예를 나타내는 도면이다.3 is a diagram illustrating an example of displaying a restoration image by an image processing apparatus according to an exemplary embodiment.
도 3을 참조하면, 일 실시예에 따른 이미지 처리 장치(100)는 수복물 이미지(수복물 데이터)를 표시할 수 있다.Referring to FIG. 3 , the image processing apparatus 100 according to an exemplary embodiment may display a restoration image (restoration data).
이미지 처리 장치(100)는 적어도 하나의 치아를 포함하는 구강을 스캔하여 획득한 로우 데이터를 수신할 수 있으며, 수신한 로우 데이터에 기초하여, 구강에 대한 3차원 이미지 또는 3차원 모델을 획득할 수 있다. 또는, 이미지 처리 장치(100)는 외부 장치로부터 구강에 대한 3차원 이미지를 수신할 수 있다.The image processing device 100 may receive raw data obtained by scanning the oral cavity including at least one tooth, and may obtain a 3D image or 3D model of the oral cavity based on the received raw data. there is. Alternatively, the image processing device 100 may receive a 3D image of the oral cavity from an external device.
이미지 처리 장치(100)는 구강에 대한 3차원 이미지에서 치료가 필요한 치아(대상 치아)를 식별하고, 대상 치아에 대한 수복물(310)을 디자인할 수 있다. 예를 들어, 이미지 처리 장치(100)는 CAD(Computer Aided Design)/CAM(Computer Aided Manufacturing) 프로그램을 이용하여, 대상 치아에 대한 수복물(310)을 디자인할 수 있다. The image processing apparatus 100 may identify a tooth (target tooth) requiring treatment in the 3D image of the oral cavity, and design a restoration 310 for the target tooth. For example, the image processing apparatus 100 may design the restoration 310 for the target tooth using a computer aided design (CAD)/computer aided manufacturing (CAM) program.
또는, 이미지 처리 장치(100)는 외부 장치로 구강에 대한 3차원 이미지 또는 대상 치아에 대한 데이터를 전송하고, 외부 장치는 수신한 정보에 기초하여, 대상 치아에 대한 수복물을 디자인할 수 있다. 외부 장치는 이미지 처리 장치(100)로 수복물에 대한 데이터를 전송할 수 있다.Alternatively, the image processing apparatus 100 may transmit a 3D image of an oral cavity or data of a target tooth to an external device, and the external device may design a restoration for the target tooth based on the received information. The external device may transmit restoration data to the image processing device 100 .
이에 따라, 이미지 처리 장치(100)는 수복물(310)에 대한 데이터를 획득하고, 화면에 표시할 수 있다. 일 실시예에 따른 수복물(310)은 외면과 내면을 포함할 수 있으며, 외면과 내면의 투명도가 조절될 수 있다. 예를 들어, 외면의 투명도를 증가시키고, 내면의 투명도를 감소시키면, 화면에 수복물(310)의 내면이 표시될 수 있다. 다만, 이에 한정되지 않는다.Accordingly, the image processing device 100 may acquire data on the restoration 310 and display the data on the screen. The restoration 310 according to an embodiment may include an outer surface and an inner surface, and the transparency of the outer and inner surfaces may be adjusted. For example, if the transparency of the outer surface is increased and the transparency of the inner surface is decreased, the inner surface of the restoration 310 may be displayed on the screen. However, it is not limited thereto.
일 실시예에 따른 이미지 처리 장치(100)는 수복물(310)을 조각할 수 있다. 치아 수복물 디자인 시, 환자 치아의 커브를 유사하게 구현하거나 수복물을 치아에 맞추어 세밀하게 디자인 하기 위해서는 수복물 데이터를 조각하는 과정이 필요하다. 이때, 수복물을 조각하는 것은 수복물의 외면 데이터를 변형시키는 것을 의미할 수 있다. The image processing device 100 according to an embodiment may sculpt the restoration 310 . When designing a dental restoration, a process of sculpting restoration data is required to implement a similar curve of a patient's tooth or to design a restoration in detail to match the tooth. In this case, sculpting the restoration may mean deforming the outer surface data of the restoration.
일 실시예에 따른 이미지 처리 장치(100)는 조각 하기 기능을 이용하여, 수복물(310)에 대한 데이터를 변형시킬 수 있으며, 수복물(310)을 조각하는 방법에 대해서는 도 4 내지 7을 참조하여 자세히 설명하기로 한다.The image processing device 100 according to an embodiment may transform data of the restoration 310 by using a sculpting function, and a method of sculpting the restoration 310 is described in detail with reference to FIGS. 4 to 7 . Let's explain.
도 4 내지 도 7은 일 실시예에 따른 이미지 처리 장치가 수복물 데이터를 조각하는 방법을 설명하기 위해 참조되는 도면들이다.4 to 7 are views referenced to describe a method of engraving restoration data by an image processing apparatus according to an exemplary embodiment.
도 4를 참조하면, 일 실시예에 따른 이미지 처리 장치(100)는 조각하기 기능을 제공할 수 있다. 이미지 처리 장치(100)는 조각하기 기능에 대응하는 조각하기 메뉴(410)를 화면에 표시할 수 있다. 조각하기 메뉴(410)는 메쉬 데이터를 추가하는 기능에 대응하는 제1 메뉴 아이템(420), 메쉬 데이터를 제거하는 기능에 대응하는 제2 메뉴 아이템(430), 메쉬 데이터를 매끄럽게 하는(스무딩하는) 기능에 대응하는 제3 메뉴 아이템(440), 및 메쉬 데이터를 모핑하는(morph) 기능에 대응하는 제4 메뉴 아이템(450)을 포함할 수 있다. 메쉬 데이터를 매끄럽게 하는 기능은 메쉬 데이터를 추가하거나 제거함으로써, 메쉬 데이터를 매끄럽게하는 것을 의미할 수 있다. 또한, 메쉬 데이터를 모핑하는 기능은 메쉬 데이터에 포함되는 폴리곤들의 개수는 유지한 채, 폴리곤들의 위치나 법선 방향을 변경하는 것을 의미할 수 있다.Referring to FIG. 4 , the image processing device 100 according to an exemplary embodiment may provide an engraving function. The image processing device 100 may display the engraving menu 410 corresponding to the engraving function on the screen. The sculpting menu 410 includes a first menu item 420 corresponding to a function of adding mesh data, a second menu item 430 corresponding to a function of removing mesh data, and smoothing (smoothing) the mesh data. A third menu item 440 corresponding to a function and a fourth menu item 450 corresponding to a function of morphing mesh data may be included. The function of smoothing the mesh data may mean smoothing the mesh data by adding or removing mesh data. Also, the function of morphing mesh data may mean changing the position or normal direction of polygons while maintaining the number of polygons included in the mesh data.
또한, 조각하기 메뉴(410)는 브러쉬 강도를 조절하는 아이템(460) 및 브러쉬 크기를 조절하는 아이템(470)을 포함할 수 있다. 다만, 이에 한정되지 않는다.In addition, the engraving menu 410 may include an item 460 for adjusting brush strength and an item 470 for adjusting brush size. However, it is not limited thereto.
이미지 처리 장치(100)는 설정된 브러쉬 강도와 브러쉬 크기에 기초하여 메쉬 데이터가 추가 또는 제거되는 양 또는 메쉬 데이터가 추가 또는 제거되는 속도를 결정할 수 있다.The image processing device 100 may determine the amount of mesh data to be added or removed or the speed at which mesh data is added or removed based on the set brush strength and brush size.
이미지 처리 장치(100)는 제1 내지 제4 메뉴 아이템들(420, 430, 440, 450) 중 어느 하나가 선택되는 사용자 입력을 수신하면, 화면에 브러쉬 아이콘(480)을 표시할 수 있다. 예를 들어, 제1 메뉴 아이템(420)을 선택하는 사용자 입력에 기초하여, 이미지 처리 장치(100)는 브러쉬 아이콘(480)을 표시할 수 있다. When receiving a user input for selecting any one of the first to fourth menu items 420, 430, 440, and 450, the image processing apparatus 100 may display a brush icon 480 on the screen. For example, based on a user input for selecting the first menu item 420 , the image processing device 100 may display a brush icon 480 .
브러쉬 아이콘(480)이 표시되면, 사용자는 표시된 브러쉬 아이콘(480)을 수복물 데이터(401) 상에서 이동시킬 수 있다. 이미지 처리 장치(100)는 브러쉬 아이콘(480)이 지나간 영역에 메쉬 데이터를 추가하거나, 제거할 수 있다.When the brush icon 480 is displayed, the user can move the displayed brush icon 480 on the restoration data 401 . The image processing device 100 may add or remove mesh data to an area where the brush icon 480 passes.
도 5를 참조하면, 이미지 처리 장치(100)는 제1 메뉴 아이템(420)이 선택된 상태에서, 브러쉬 아이콘(480)을 이동시키는 사용자 입력을 수신하면, 브러쉬 아이콘(480)이 지나간 영역에 메쉬 데이터를 추가할 수 있다. 예를 들어, 이미지 처리 장치(100)는 브러쉬 아이콘(480)이 지나간 영역(510)에 대응하는 수복물 데이터(401)의 외면에 메쉬 데이터(520)를 추가할 수 있다. 이때, 수복물 데이터(401)의 내면에 대한 데이터는 변형되지 않는다. 또한, 설정된 브러쉬 강도와 브러쉬 크기에 따라 메쉬 데이터가 추가되는 양 또는 메쉬 데이터가 추가되는 속도가 조절될 수 있다.Referring to FIG. 5 , when the image processing device 100 receives a user input for moving the brush icon 480 while the first menu item 420 is selected, mesh data is stored in the area where the brush icon 480 has passed. can be added. For example, the image processing apparatus 100 may add mesh data 520 to the outer surface of the restoration data 401 corresponding to the region 510 through which the brush icon 480 has passed. At this time, data on the inner surface of the restoration data 401 is not modified. In addition, the amount or speed at which mesh data is added may be adjusted according to the set brush strength and brush size.
도 6을 참조하면, 이미지 처리 장치(100)는 제2 메뉴 아이템(430)이 선택된 상태에서, 브러쉬 아이콘(480)을 이동시키는 사용자 입력을 수신하면, 브러쉬 아이콘(480)이 지나간 영역에 메쉬 데이터를 제거할 수 있다. 예를 들어, 이미지 처리 장치(100)는 브러쉬 아이콘(480)이 지나간 영역(610)에 대응하는 수복물 데이터(401)의 외면으로부터 메쉬 데이터를 제거할 수 있다. 이때, 수복물 데이터(401)의 내면에 대한 데이터는 변형되지 않는다. 또는, 이미지 처리 장치(100)는 제2 메뉴 아이템(430)이 선택된 상태에서, 브러쉬 아이콘(480)을 이동시키는 사용자 입력을 수신하면, 브러쉬 아이콘(480)이 지나간 영역에 메쉬 데이터를 (-) 방향으로 추가할 수 있다. 예를 들어, 이미지 처리 장치(100)는 브러쉬 아이콘(480)이 지나간 영역에 대응하는 외면의 법선 벡터의 방향과 반대 방향으로 메쉬 데이터를 추가할 수 있다.Referring to FIG. 6 , if the image processing device 100 receives a user input for moving the brush icon 480 while the second menu item 430 is selected, mesh data is stored in the area where the brush icon 480 has passed. can be removed. For example, the image processing apparatus 100 may remove mesh data from the outer surface of the restoration data 401 corresponding to the area 610 through which the brush icon 480 passed. At this time, data on the inner surface of the restoration data 401 is not modified. Alternatively, when the image processing device 100 receives a user input for moving the brush icon 480 while the second menu item 430 is selected, the image processing device 100 applies mesh data to an area where the brush icon 480 has passed by (-). direction can be added. For example, the image processing device 100 may add mesh data in a direction opposite to a direction of a normal vector of an outer surface corresponding to an area where the brush icon 480 passes.
또한, 설정된 브러쉬 강도와 브러쉬 크기에 따라 메쉬 데이터가 제거되는 양(또는 (-) 방향으로 메쉬 데이터가 추가되는 양) 또는 메쉬 데이터가 제거되는 속도(또는 (-) 방향으로 메쉬 데이터가 추가되는 속도)가 조절될 수 있다.Also, depending on the set brush strength and brush size, the amount of mesh data removed (or the amount of mesh data added in the (-) direction) or the speed at which mesh data is removed (or the speed at which mesh data is added in the (-) direction) ) can be adjusted.
다시 도 4를 참조하면, 이미지 처리 장치(100)는 제3 메뉴 아이템(440)이 선택된 상태에서, 브러쉬 아이콘(480)을 이동시키는 사용자 입력을 수신하면, 브러쉬 아이콘(480)이 지나간 영역에 대한 메쉬 데이터를 추가하거나 제거함으로써, 해당 영역을 매끄럽게 할 수 있다. 메쉬 데이터를 추가하거나 제거하는 동작에 대해서는 앞에서 설명하였으므로 동일한 설명은 생략하기로 한다.Referring back to FIG. 4 , when receiving a user input for moving the brush icon 480 in a state where the third menu item 440 is selected, the image processing apparatus 100 determines the area where the brush icon 480 has passed. By adding or removing mesh data, the area can be smoothed. Since the operation of adding or removing mesh data has been described above, the same description will be omitted.
도 7을 참조하면, 이미지 처리 장치(100)는 제4 메뉴 아이템(450)이 선택된 상태에서, 브러쉬 아이콘(480)을 드래그하는 사용자 입력을 수신하면, 메쉬 데이터를 모핑(morph)할 수 있다. 예를 들어, 이미지 처리 장치(100)는 브러쉬 아이콘(480)이 위치한 영역(710)에 대응하는 수복물 데이터(401) 외면의 메쉬 데이터를 브러쉬 아이콘(480)을 드래그한 방향으로 모핑할 수 있다. 이때, 수복물 데이터(401)의 내면에 대한 데이터는 변형되지 않는다. 또한, 모핑된 메쉬 데이터(720)에 포함되는 폴리곤들의 개수는 모핑되기 이전의 메쉬 데이터에 포함되는 폴리곤들의 개수와 동일하다. 이미지 처리 장치(100)는 메쉬 데이터에 포함되는 폴리곤들의 개수는 유지한 채, 폴리곤들의 위치나 법선 방향을 변경함으로써, 메쉬 데이터를 모핑할 수 있다.Referring to FIG. 7 , the image processing device 100 may morph mesh data when receiving a user input of dragging a brush icon 480 while the fourth menu item 450 is selected. For example, the image processing device 100 may morph the mesh data of the outer surface of the restoration data 401 corresponding to the region 710 where the brush icon 480 is located in the direction in which the brush icon 480 is dragged. At this time, data on the inner surface of the restoration data 401 is not modified. Also, the number of polygons included in the morphed mesh data 720 is equal to the number of polygons included in the mesh data before morphing. The image processing device 100 may morph the mesh data by changing the position or normal direction of the polygons while maintaining the number of polygons included in the mesh data.
일 실시예에 따른 이미지 처리 장치(100)는 메쉬 데이터의 조각하기 기능을 통해 변형된 메쉬 데이터가 임계 조건에 만족하는 지 여부를 판단하고, 이에 대한 피드백을 사용자에게 제공할 수 있다. 이에 대해서는 도 8 내지 도 16을 참조하여 자세히 설명하기로 한다.The image processing device 100 according to an embodiment may determine whether or not mesh data deformed through a function of sculpting mesh data satisfies a critical condition, and provide feedback for the determination to the user. This will be described in detail with reference to FIGS. 8 to 16 .
도 8은 일 실시예에 따른 이미지 처리 장치가 변형된 메쉬 데이터가 임계 조건을 만족하는 지 여부를 판단하는 방법을 설명하기 위해 참조되는 도면이다.8 is a diagram referenced to explain a method of determining whether an image processing device satisfies a threshold condition in deformed mesh data according to an exemplary embodiment.
일 실시예에 따른 이미지 처리 장치(100)는 변형된 수복물 데이터가 수복물의 두께 조건을 만족하는 지 여부를 확인할 수 있다. 예를 들어, 이미지 처리 장치(100)는 수복물 데이터가 변형되는 경우, 변형된 수복물 데이터가 두께 조건을 만족하는 지 여부를 확인할 수 있다. 다만, 이에 한정되지 않는다.The image processing device 100 according to an exemplary embodiment may check whether the transformed restoration data satisfies the thickness condition of the restoration. For example, when restoration data is deformed, the image processing device 100 may check whether the deformed restoration data satisfies a thickness condition. However, it is not limited thereto.
도 8을 참조하면, 일 실시예에 따른 이미지 처리 장치(100)는 광선 교차 검사를 수행하여, 수복물 데이터(810)의 두께를 획득할 수 있다. 광선 교차 검사는 수복물의 내면(820)에 포함되는 정점들 또는 면(face)들에서 법선 벡터 방향으로 가상의 광선들을 생성하고, 생성된 가상의 광선들이 교차하는 수복물의 외면(810)에 포함되는 정점들 또는 면들까지의 거리를 획득할 수 있다.Referring to FIG. 8 , the image processing device 100 according to an exemplary embodiment may obtain the thickness of restoration data 810 by performing a ray intersection inspection. The ray intersection test generates virtual rays in the normal vector direction from vertices or faces included in the inner surface 820 of the restoration, and includes the outer surface 810 of the restoration where the generated virtual rays intersect. You can get distances to vertices or faces.
이미지 처리 장치(100)는 획득된 거리가 임계 범위(제1 임계값 이상이고, 제2 임계값 이하) 이내인지를 확인할 수 있다. 이때, 제1 임계값 및 제2 임계값은 기 설정된 값들일 수 있다. 제1 임계값은 수복물 데이터(801)를 3D 프린팅할 때, 수복물이 깨지지 않을 최소 두께로 결정될 수 있다. 예를 들어, 제1 임계값은 1.0mm로 결정될 수 있으나, 이에 한정되지 않는다.The image processing device 100 may check whether the obtained distance is within a threshold range (greater than the first threshold and equal to or less than the second threshold). In this case, the first threshold value and the second threshold value may be preset values. The first threshold value may be determined as a minimum thickness at which the restoration is not broken when the restoration data 801 is 3D printed. For example, the first threshold may be determined to be 1.0 mm, but is not limited thereto.
한편, 상기에서는 가상의 광선들을 수복물의 내면(820)에 포함되는 정점들 또는 면들에서 법선 벡터 방향으로 생성하는 것으로 설명하였으나, 이에 한정되지 않는다. 일 실시예에 따른 이미지 처리 장치(100)는 수복물의 외면(810)에 포함되는 정점들 또는 면들에서 법선 벡터의 반대 방향으로 광선들을 생성하고, 생성된 가상의 광선들이 교차하는 수복물의 내면에 포함되는 정점들 또는 면들까지의 거리를 획득할 수 있다.Meanwhile, in the above, it has been described that virtual rays are generated in a normal vector direction at vertices or faces included in the inner surface 820 of the restoration, but it is not limited thereto. The image processing apparatus 100 according to an embodiment generates rays in the opposite direction of a normal vector at vertices or faces included in the outer surface 810 of the restoration, and includes the virtual rays on the inner surface of the restoration where the generated virtual rays intersect. It is possible to obtain the distance to the vertices or faces that are
이미지 처리 장치(100)는 획득된 거리가 임계 범위(제1 임계값 이상이고, 제1 임계값보다 큰 제2 임계값 이하) 이내가 아닌 경우, 변형된 수복물 데이터가 적절하지 않음을 나타내는 피드백을 제공할 수 있다. 이에 대해서는 도 9 및 도 10을 참조하여, 자세히 설명하기로 한다.The image processing device 100 gives feedback indicating that the deformed restoration data is not appropriate when the obtained distance is not within a threshold range (above the first threshold and equal to or less than a second threshold that is greater than the first threshold). can provide This will be described in detail with reference to FIGS. 9 and 10 .
도 9 및 도 10은 일 실시예에 따른 이미지 처리 장치가 변형된 수복물 데이터의 두께가 임계 조건을 만족하지 않는 경우, 피드백을 제공하는 예들을 나타내는 도면들이다.9 and 10 are diagrams illustrating examples of providing feedback when an image processing apparatus according to an exemplary embodiment does not satisfy a critical condition for a thickness of deformed restoration data.
도 9를 참조하면, 일 실시예에 따른 이미지 처리 장치(100)는 변형된 수복물 데이터의 외면과 내면 사이의 거리가 제1 임계값보다 작은 영역이 존재하는 경우, 변형된 수복물 데이터의 두께가 허용 가능한 최소 두께보다 작음을 나타내는 메시지(910)를 표시할 수 있다.Referring to FIG. 9 , the image processing apparatus 100 according to an exemplary embodiment allows the thickness of the deformed restoration data when a region in which the distance between the outer surface and the inner surface of the deformed restoration data is smaller than a first threshold exists. A message 910 indicating less than the minimum possible thickness may be displayed.
또한, 도 10을 참조하면, 일 실시예에 따른 이미지 처리 장치(100)는 수복물 데이터의 두께가 허용 가능한 최소 두께보다 작은 영역을 다른 영역과 식별되게 표시할 수 있다.Also, referring to FIG. 10 , the image processing apparatus 100 according to an exemplary embodiment may display a region where the thickness of restoration data is smaller than an allowable minimum thickness to be distinguished from other regions.
예를 들어, 이미지 처리 장치(100)는 최소 두께 보기 메뉴 아이템(1010)을 화면에 표시할 수 있다. 최소 두께 보기 메뉴 아이템(1010)이 선택되면, 이미지 처리 장치(100)는 도 10에 도시된 바와 같이, 수복물 데이터의 두께가 제1 임계값보다 작은 영역(1020)을 제1 색상(예를 들어, 파란색)으로 표시할 수 있다. 이미지 처리 장치(100)는 두께에 따른 컬러를 나타내는 컬러맵(1030)에 기초하여, 두께가 얇을수록 진한 파란색으로 표시하고, 두께가 두꺼울수록 연한 파란색으로 표시할 수 있다. 다만, 이에 한정되지 않는다.For example, the image processing device 100 may display the minimum thickness view menu item 1010 on the screen. When the minimum thickness view menu item 1010 is selected, the image processing device 100, as shown in FIG. , blue). Based on the color map 1030 representing colors according to thickness, the image processing device 100 may display a dark blue color when the thickness is thin, and a light blue color when the thickness is thick. However, it is not limited thereto.
도 11은 일 실시예에 따른 이미지 처리 장치가 변형된 메쉬 데이터가 임계 조건을 만족하는 지 여부를 판단하는 방법을 설명하기 위해 참조되는 도면이다.11 is a diagram referenced to describe a method of determining whether an image processing device satisfies a threshold condition in deformed mesh data according to an exemplary embodiment.
일 실시예에 따른 이미지 처리 장치(100)는 변형된 수복물 데이터와 치아 데이터 사이에 오버랩되는 간섭 영역이 발생하는 지 여부를 확인할 수 있다.The image processing apparatus 100 according to an embodiment may check whether an overlapping interference region occurs between the deformed restoration data and tooth data.
일 실시예에 따른 이미지 처리 장치(100)는 광선 교차 검사를 수행하여, 수복물 데이터와 치아 데이터 사이에 오버랩되는 간섭 영역을 획득할 수 있다. 도 11에서는 설명의 편의를 위해, 수복물과 대합치 사이에 발생하는 간섭 영역을 예로 들어 설명하기로 한다.The image processing apparatus 100 according to an exemplary embodiment may obtain an overlapping interference area between restoration data and tooth data by performing a ray intersection inspection. In FIG. 11 , for convenience of explanation, an interference region generated between a restoration and an opposing tooth will be described as an example.
도 11을 참조하면, 이미지 처리 장치(100)는 대합치 데이터(1120)에 포함되는 복수의 정점들 또는 면들에서 해당 정점들 또는 면들의 법선 방향과 반대 방향으로 가상의 광선들을 생성하고, 생성된 가상의 광선들이 수복물 데이터(1110)와 교차하는지 여부를 검사할 수 있다. 이미지 처리 장치(100)는 가상의 광선들이 수복물 데이터(1110)와 교차하는 경우, 해당 영역을 간섭 영역(1130)으로 획득할 수 있다.Referring to FIG. 11 , the image processing apparatus 100 generates virtual rays from a plurality of vertices or faces included in the opposition data 1120 in a direction opposite to the normal direction of the corresponding vertices or faces, It may be checked whether the virtual rays intersect the restoration data 1110. The image processing device 100 may acquire the corresponding area as the interference area 1130 when the virtual rays intersect the restoration data 1110 .
일 실시예에 따른 이미지 처리 장치(100)는 간섭 영역(1130)이 발생하면, 간섭 영역(1130)을 다른 영역과 식별되도록 표시함으로써, 사용자에게 피드백을 제공할 수 있다. 예를 들어, 이미지 처리 장치(100)는 간섭 영역(1130)에 대응하는 수복물 데이터를 오버랩되는 정도에 따라 결정되는 색상으로 디스플레이할 수 있다. 이에 대해서는 도 12를 참조하여 설명하기로 한다.When an interference area 1130 occurs, the image processing apparatus 100 according to an embodiment may provide feedback to a user by displaying the interference area 1130 to be identified with other areas. For example, the image processing apparatus 100 may display restoration data corresponding to the interference region 1130 in a color determined according to an overlapping degree. This will be described with reference to FIG. 12 .
도 12는 일 실시예에 따른 이미지 처리 장치가 간섭 영역을 다른 영역과 식별되도록 표시하는 화면을 나타내는 도면이다.12 is a diagram illustrating a screen on which an image processing apparatus displays an interference region to be distinguished from another region according to an exemplary embodiment.
일 실시예에 따른 이미지 처리 장치(100)는 수복물 데이터(1110)와 대합치 데이터(1120)가 오버랩되는 간섭 영역(1130)을 다른 영역과 식별되게 디스플레이할 수 있다. 예를 들어, 수복물 데이터(1110)와 대합치 데이터(1120)가 오버랩되는 정도에 따라 서로 다른 색상으로 나타낼 수 있다. 이때, 오버랩되는 정도는 도 11에서 설명한 광선 교차 검사를 통하여 결정할 수 있다. 예를 들어, 이미지 처리 장치(100)는 광선의 시점부터 광선이 교차하는 정점까지의 거리에 기초하여, 오버랩 정도를 결정할 수 있다. 이미지 처리 장치(100)는 광선의 시점부터 광선이 교차하는 정점까지의 거리가 길수록 오버랩 정도가 큰 것으로 결정할 수 있으며, 오버랩 정도에 따른 컬러를 나타내는 컬러맵(1210)에 기초하여, 오버랩 정도가 클수록 제1 색상(예를 들어, 빨강)에 가까운 색으로 표시할 수 있다. The image processing apparatus 100 according to an embodiment may display the interference region 1130 where the restoration data 1110 and the antagonist data 1120 overlap to be identified with other regions. For example, the restoration data 1110 and the antagonist data 1120 may be displayed in different colors depending on the degree of overlap. At this time, the degree of overlap can be determined through the ray intersection test described in FIG. 11 . For example, the image processing apparatus 100 may determine the degree of overlap based on a distance from a starting point of a ray to a vertex where the ray crosses. The image processing apparatus 100 may determine that the degree of overlap is greater as the distance from the starting point of the ray to the vertex where the ray crosses is longer, and based on the color map 1210 representing colors according to the degree of overlap, the greater the degree of overlap, the greater the degree of overlap. It may be displayed in a color close to the first color (eg, red).
또한, 이미지 처리 장치(100)는 광선의 시점부터 광선이 교차하는 정점까지의 거리가 짧을수록 오버랩 정도가 작은 것으로 결정할 수 있으며, 컬러맵(1210)에 기초하여, 오버랩 정도가 작을수록 제2 색상(예를 들어, 초록)에 가까운 색으로 표시할 수 있다. 다만, 이에 한정되지 않는다.In addition, the image processing device 100 may determine that the overlapping degree is smaller as the distance from the starting point of the ray to the vertex where the ray crosses is shorter, and based on the color map 1210, the smaller the overlapping degree, the second color (eg, green). However, it is not limited thereto.
도 13 및 도 14는 일 실시예에 따른 이미지 처리 장치가 변형된 메쉬 데이터가 임계 조건을 만족하는 지 여부를 판단하여 피드백하는 방법을 설명하기 위해 참조되는 도면들이다.13 and 14 are diagrams referenced to describe a method of determining whether the deformed mesh data satisfies a critical condition and providing feedback thereof, according to an exemplary embodiment.
일 실시예에 따른 이미지 처리 장치(100)는 변형된 수복물 데이터가 수복물의 두께 조건을 만족하는 지 여부를 확인할 수 있다. 예를 들어, 이미지 처리 장치(100)는 수복물 데이터가 변형되는 경우, 변형된 메쉬 데이터가 두께 조건을 만족하는 지 여부를 확인할 수 있다. 다만, 이에 한정되지 않는다.The image processing device 100 according to an exemplary embodiment may check whether the transformed restoration data satisfies the thickness condition of the restoration. For example, when the restoration data is deformed, the image processing device 100 may check whether the deformed mesh data satisfies the thickness condition. However, it is not limited thereto.
도 13을 참조하면, 일 실시예에 다른 이미지 처리 장치(100)는 광선 교차 검사를 수행하여, 수복물 데이터(1301)의 두께를 획득할 수 있다. 광선 교차 검사는 수복물의 내면(1310)에 포함되는 정점들 또는 면들에서 법선 벡터 방향으로 가상의 광선들을 생성하고, 생성된 가상의 광선들이 교차하는 수복물의 외면(1320)에 포함되는 정점들 또는 면들까지의 거리를 획득할 수 있다. 이미지 처리 장치(100)는 획득된 거리가 제3 임계값 이하인 경우, 해당 영역을 다른 영역과 식별되게 표시할 수 있다.Referring to FIG. 13 , the image processing apparatus 100 according to an exemplary embodiment may obtain the thickness of restoration data 1301 by performing a ray intersection inspection. The ray intersection test generates virtual rays in the normal vector direction from vertices or faces included in the inner surface 1310 of the restoration, and vertices or faces included in the outer surface 1320 of the restoration where the generated virtual rays intersect. distance can be obtained. When the obtained distance is equal to or less than the third threshold, the image processing device 100 may display the corresponding area to be distinguished from other areas.
예를 들어, 도 13에 도시된 바와 같이, 수복물 데이터(1301)에서 제1 영역(1330)에서 획득된 거리가 제3 임계값 이하인 경우, 이미지 처리 장치(100)는 도 14에 도시된 바와 같이, 제1 영역(1330)을 제1 색상(예를 들어, 파란색)으로 표시할 수 있다.For example, as shown in FIG. 13, when the distance obtained from the first area 1330 in the restoration data 1301 is equal to or less than the third threshold value, the image processing apparatus 100 as shown in FIG. 14 , the first region 1330 may be displayed in a first color (eg, blue).
또한, 이미지 처리 장치(100)는 획득된 거리가 제4 임계값 이상인 경우, 또는 가상의 광선들이 수복물의 외면(1320)에 포함되는 정점들 또는 면들에 교차하지 않는 경우, 해당 영역을 다른 영역과 식별되게 표시할 수 있다.In addition, the image processing device 100 determines the area to be compared to other areas when the obtained distance is equal to or greater than the fourth threshold or when virtual rays do not intersect vertices or faces included in the outer surface 1320 of the restoration. can be identified and displayed.
예를 들어, 도 13에 도시된 바와 같이, 수복물 데이터(1301)에서 제2 영역(1340)에서 생성된 가상의 광선이 수복물의 외면(1320)에 포함되는 정점들 또는 면들에 교차하지 않는 경우, 제2 영역(1340)을 제2 색상(예를 들어, 회색)으로 표시할 수 있다. 다만, 이에 한정되지 않는다.For example, as shown in FIG. 13, when the virtual rays generated in the second area 1340 in the restoration data 1301 do not intersect vertices or faces included in the outer surface 1320 of the restoration, The second area 1340 may be displayed in a second color (eg, gray). However, it is not limited thereto.
도 15는 일 실시예에 다른 이미지 처리 장치가 변형된 메쉬 데이터가 임계 조건을 만족하는 지 여부를 판단하는 방법을 설명하기 위해 참조되는 도면이다.FIG. 15 is a diagram referenced to explain a method of determining whether deformed mesh data of another image processing device satisfies a critical condition according to an exemplary embodiment.
일 실시예에 따른 이미지 처리 장치(100)는 변형된 수복물 데이터와 치아 데이터 사이의 거리 조건을 만족하는 지 여부를 확인할 수 있다. 예를 들어, 수복물과 대합치 사이의 거리가 너무 멀면 수복물과 대합치가 서로 맞닿지 않아 음식물을 씹을 때 불편할 수 있다. 또한, 수복물과 인접치 사이의 거리가 너무 멀면 수복물과 인접치 사이의 틈으로 음식물이 끼일 확률이 높아진다. 따라서, 수복물 조각 시, 수복물과 대합치 사이의 거리, 수복물과 인접치 사이의 거리는 임계값보다 작아야 한다.The image processing apparatus 100 according to an embodiment may check whether a distance condition between the deformed restoration data and tooth data is satisfied. For example, if the distance between the restoration and the antagonist is too far, the restoration and the antagonist may not come into contact with each other, which may cause discomfort when chewing food. In addition, if the distance between the restoration and the adjacent teeth is too great, the probability of food getting caught in the gap between the restoration and the adjacent teeth increases. Therefore, when sculpting a restoration, the distance between the restoration and the antagonist, and the distance between the restoration and the adjacent tooth should be smaller than the critical value.
도 15를 참조하면, 일 실시예에 따른 이미지 처리 장치(100)는 수복물과 대합치 사이의 거리가 임계값 이상인지 확인할 수 있다. 이미지 처리 장치(100)는 광선 교차 검사를 수행하여, 수복물과 대합치 사이의 거리를 획득할 수 있다. 예를 들어, 이미지 처리 장치(100)는 수복물 데이터(1510)에 포함되는 복수의 정점들 또는 면들에서 해당 정점들 또는 면들의 법선 방향으로 가상의 광선들을 생성하고, 생성된 가상의 광선들이 교차하는 대합치 데이터(1520)의 정점들 또는 면들을 획득하고, 광선의 시점부터 광선이 교차하는 정점들 또는 면들까지의 거리를 수복물과 대합치 사이의 거리로 획득할 수 있다.Referring to FIG. 15 , the image processing apparatus 100 according to an embodiment may check whether the distance between the restoration and the antagonist is greater than or equal to a threshold value. The image processing apparatus 100 may obtain a distance between the restoration object and the antagonist tooth by performing a ray intersection test. For example, the image processing apparatus 100 generates virtual rays from a plurality of vertices or facets included in the restoration data 1510 in a normal direction of the vertices or facets, and the generated virtual rays cross each other. Vertices or surfaces of the antagonist data 1520 may be obtained, and the distance from the starting point of the ray to the vertices or surfaces at which the ray crosses may be obtained as a distance between the restoration and the antagonist tooth.
상기에서는, 수복물 데이터(1510)에 포함되는 복수의 정점들 또는 면들에서 가상의 광선들을 생성하여 광선 교차 검사를 수행하는 것으로 설명하였지만, 이에 한정되지 않으며, 대합치 데이터(1520)에 포함되는 복수의 정점들 또는 면들에서 가상의 광선들을 생성하여, 광선 교차 검사를 수행할 수 있다.In the above, it has been described that the ray intersection test is performed by generating virtual rays from a plurality of vertices or faces included in the restoration data 1510, but it is not limited thereto, and the plurality of By creating virtual rays at vertices or faces, ray intersection checks can be performed.
이미지 처리 장치(100)는 획득된 수복물과 대합치 사이의 거리가 임계값 이상인지를 확인하고, 임계값 이상인 경우, 변형된 수복물 데이터가 적절하지 않음을 나타내는 피드백을 사용자에게 제공할 수 있다.The image processing apparatus 100 may check whether the distance between the obtained restoration and the antagonist is equal to or greater than a threshold value, and if the distance is equal to or greater than the threshold value, feedback indicating that the modified restoration data is not appropriate may be provided to the user.
예를 들어, 수복물과 대합치 사이의 거리가 임계값 이상인 영역을 다른 영역과 식별되게 표시하거나, 변형된 수복물 데이터가 적절하지 않음을 나타내는 메시지를 화면에 표시할 수 있다. 다만, 이에 한정되지 않는다.For example, a region where the distance between the restoration and the antagonist is equal to or greater than a threshold value may be displayed to be distinguished from other regions, or a message indicating that the modified restoration data is not appropriate may be displayed on the screen. However, it is not limited thereto.
또한, 도 15를 참조하면, 일 실시예에 따른 이미지 처리 장치(100)는 수복물과 인접치 사이의 거리가 임계값 이상인지 확인할 수 있다. 이미지 처리 장치(100)는 광선 교차 검사를 수행하여, 수복물과 인접치 사이의 거리를 획득할 수 있다. 예를 들어, 이미지 처리 장치(100)는 수복물 데이터(1510)에 포함되는 복수의 정점들 또는 면들에서 해당 정점들 또는 면들의 법선 방향으로 가상의 광선들을 생성하고, 생성된 가상의 광선들이 교차하는 인접치 데이터(1530)의 정점들 또는 면들을 획득하고, 광선들의 시점부터 광선들이 교차하는 정점들 또는 면들까지의 거리를 수복물과 인접치 사이의 거리로 획득할 수 있다.Also, referring to FIG. 15 , the image processing apparatus 100 according to an exemplary embodiment may determine whether a distance between a restoration object and an adjacent tooth is greater than or equal to a threshold value. The image processing device 100 may obtain a distance between a restoration and an adjacent tooth by performing a ray intersection inspection. For example, the image processing apparatus 100 generates virtual rays from a plurality of vertices or facets included in the restoration data 1510 in a normal direction of the vertices or facets, and the generated virtual rays cross each other. Vertices or faces of the adjacent tooth data 1530 may be obtained, and the distance from the starting point of the rays to the vertices or faces at which the rays cross may be obtained as the distance between the restoration and the adjacent tooth.
상기에서는, 수복물 데이터(1510)에 포함되는 복수의 정점들 또는 면들에서 가상의 광선들을 생성하여 광선 교차 검사를 수행하는 것으로 설명하였지만, 이에 한정되지 않으며, 인접치 데이터(1530)에 포함되는 복수의 정점들 또는 면들에서 가상의 광선들을 생성하여, 광선 교차 검사를 수행할 수 있다.In the above, it has been described that the ray intersection test is performed by generating virtual rays from a plurality of vertices or faces included in the restoration data 1510, but it is not limited thereto, and the plurality of By creating virtual rays at vertices or faces, ray intersection checks can be performed.
이미지 처리 장치(100)는 획득된 수복물과 인접치 사이의 거리가 임계값 이상인지를 확인하고, 임계값 이상인 경우, 변형된 수복물 데이터가 적절하지 않음을 나타내는 피드백을 사용자에게 제공할 수 있다.The image processing apparatus 100 may check whether the distance between the obtained restoration and the adjacent tooth is greater than or equal to a threshold value, and if the distance is greater than or equal to the threshold value, feedback indicating that the modified restoration data is not appropriate may be provided to the user.
예를 들어, 수복물과 인접치 사이의 거리가 임계값 이상인 영역을 다른 영역과 식별되게 표시하거나, 변형된 수복물 데이터가 적절하지 않음을 나타내는 메시지를 화면에 표시할 수 있다. 다만, 이에 한정되지 않는다.For example, a region where the distance between the restoration and adjacent teeth is equal to or greater than a threshold value may be displayed to be distinguished from other regions, or a message indicating that the modified restoration data is not appropriate may be displayed on the screen. However, it is not limited thereto.
도 16은 일 실시예에 따른 이미지 처리 장치가 메쉬 데이터의 변형량을 디스플레이하는 화면을 나타내는 도면이다.16 is a diagram illustrating a screen on which an image processing device displays a deformation amount of mesh data according to an exemplary embodiment.
도 16을 참조하면, 이미지 처리 장치(100)는 수복물에 대한 초기 메쉬 데이터(1610)와 변형된 메쉬 데이터(1620)에 기초하여, 메쉬 변형량을 계산할 수 있다. 예를 들어, 이미지 처리 장치(100)는 조각하기 기능을 통해 변형된 메쉬 데이터(1620)에서 초기 메쉬 데이터(1610)를 뺌으로써, 변형량을 획득할 수 있다. 예를 들어, 이미지 처리 장치(100)는 불리언(boolean) 기법을 이용하여, 변형된 메쉬 데이터(1620)에서 초기 메쉬 데이터(1610)를 뺄 수 있다. 이미지 처리 장치(100)는 변형량이 0이 아닌 영역을 변형된 영역으로 획득할 수 있다.Referring to FIG. 16 , the image processing apparatus 100 may calculate a mesh deformation amount based on initial mesh data 1610 and deformed mesh data 1620 of the restoration. For example, the image processing device 100 may obtain the deformation amount by subtracting the initial mesh data 1610 from the mesh data 1620 deformed through the sculpting function. For example, the image processing device 100 may subtract the initial mesh data 1610 from the deformed mesh data 1620 using a boolean technique. The image processing device 100 may acquire an area in which the amount of deformation is not zero as a deformed area.
이미지 처리 장치(100)는 변형된 영역을 변형량에 따라 서로 다른 색상으로 나타낼 수 있다. 예를 들어, 이미지 처리 장치(100)는 변형된 메쉬 데이터(1620)에서 초기 메쉬 데이터(1610)를 뺀 값이 클수록 해당 영역의 변형량이 큰 것으로 결정할 수 있으며, 변형량이 클수록 변형된 메쉬 데이터(1620)에서 해당 영역에 포함되는 메쉬들을 제1 색상(예를 들어, 빨강)에 가까운 색으로 표시할 수 있다. 또한, 이미지 처리 장치(100)는 변형된 메쉬 데이터(1620)에서 초기 메쉬 데이터(1610)를 뺀 값이 작을수록 해당 영역의 변형량이 작은 것으로 결정할 수 있으며, 변형량이 작을수록 변형된 메쉬 데이터(1620)에서 해당 영역에 포함되는 메쉬들을 제2 색상(예를 들어, 초록)에 가까운 색으로 표시할 수 있다. 다만, 이에 한정되지 않는다.The image processing device 100 may display the deformed area in different colors according to the amount of deformation. For example, the image processing device 100 may determine that the amount of deformation of the region increases as the value obtained by subtracting the initial mesh data 1610 from the deformed mesh data 1620 increases, and the larger the amount of deformation, the deformed mesh data 1620 ), the meshes included in the corresponding region may be displayed in a color close to the first color (eg, red). In addition, the image processing device 100 may determine that the deformation amount of the region is smaller as the value obtained by subtracting the initial mesh data 1610 from the deformed mesh data 1620 is smaller, and the smaller the deformation amount, the deformed mesh data 1620 ), meshes included in the corresponding region may be displayed in a color close to the second color (eg, green). However, it is not limited thereto.
또한, 이미지 처리 장치(100)는 메쉬 데이터(1620)와 대합치 데이터가 오버랩되는 정도에 따라 서로 다른 색상으로 나타낼 수 있다. 이때, 오버랩되는 정도는 도 11에서 설명한 광선 교차 검사를 통하여 결정할 수 있다. 예를 들어, 이미지 처리 장치(100)는 광선의 시점부터 광선이 교차하는 정점까지의 거리가 길수록 오버랩 정도가 큰 것으로 결정할 수 있으며, 광선의 시점부터 광선이 교차하는 정점까지의 거리가 짧을수록 오버랩 정도가 작은 것으로 결정할 수 있다. 이미지 처리 장치(100)는 메쉬 데이터(1620)와 대합치 데이터의 오버랩 정도가 클수록 제1 색상(예를 들어, 빨강)에 가까운 색으로 표시하고, 메쉬 데이터(1620)와 대합치 데이터의 오버랩 정도가 작을수록 제2 색상(예를 들어, 초록)에 가까운 색으로 표시할 수 있다. 다만, 이에 한정되지 않는다.Also, the image processing device 100 may display the mesh data 1620 with different colors according to the degree of overlap between the antagonist data. At this time, the degree of overlap can be determined through the ray intersection test described in FIG. 11 . For example, the image processing device 100 may determine that the degree of overlap is greater as the distance from the start point of the ray to the vertex where the ray crosses is longer, and as the distance from the start point of the ray to the vertex where the ray crosses is shorter, the overlap is greater. It can be determined as small. The image processing device 100 displays a color closer to the first color (eg, red) as the degree of overlap between the mesh data 1620 and the antagonist data increases, and the degree of overlap between the mesh data 1620 and the antagonist data When is smaller, a color closer to the second color (eg, green) may be displayed. However, it is not limited thereto.
도 17은 일 실시예에 따른 이미지 처리 장치를 나타내는 블록도이다.17 is a block diagram illustrating an image processing device according to an exemplary embodiment.
도 17에 도시된 이미지 처리 방법은 이미지 처리 장치(100)를 통하여 수행될 수 있다. 따라서, 도 2에 도시된 이미지의 처리 방법은 이미지 처리 장치(100)의 동작들을 나타내는 흐름도가 될 수 있다.The image processing method illustrated in FIG. 17 may be performed through the image processing device 100 . Accordingly, the image processing method illustrated in FIG. 2 may be a flowchart illustrating operations of the image processing apparatus 100 .
도 17를 참조하면, 이미지 처리 장치(100)는 통신 인터페이스(110), 사용자 인터페이스(120), 디스플레이(130), 메모리(140) 및 프로세서(150)를 포함할 수 있다.Referring to FIG. 17 , the image processing device 100 may include a communication interface 110 , a user interface 120 , a display 130 , a memory 140 and a processor 150 .
통신 인터페이스(110)는 적어도 하나의 외부 전자 장치(예를 들어, 스캐너(10), 서버, 또는 외부의 의료 장치 등)와 유선 또는 무선 통신 네트워크를 통하여 통신을 수행할 수 있다. 통신 인터페이스 (110)는 프로세서(150)의 제어에 따라서 적어도 하나의 외부 정자 장치와 통신을 수행할 수 있다. The communication interface 110 may perform communication with at least one external electronic device (eg, the scanner 10, a server, or an external medical device) through a wired or wireless communication network. The communication interface 110 may perform communication with at least one external sperm device under the control of the processor 150 .
구체적으로, 통신 인터페이스(110)는 블루투스, 와이파이, BLE(Bluetooth Low Energy), NFC/RFID, 와이파이 다이렉트(Wifi Direct), UWB, 또는 ZIGBEE 등의 통신 규격에 따른 통신을 수행하는 적어도 하나의 근거리 통신 모듈을 포함할 수 있다. Specifically, the communication interface 110 is at least one short-range communication that performs communication according to a communication standard such as Bluetooth, Wi-Fi, Bluetooth Low Energy (BLE), NFC/RFID, Wi-Fi Direct, UWB, or ZIGBEE. modules may be included.
또한, 통신 인터페이스(110)는 원거리 통신 규격에 따라서 원거리 통신을 지원하기 위한 서버와 통신을 수행하는 원거리 통신 모듈을 더 포함할 수 있다. 구체적으로, 통신 인터페이스(110)는 인터넷 통신을 위한 네트워크를 통하여 통신을 수행하는 원거리 통신 모듈을 포함할 수 있다. 또한, 통신 인터페이스(110)는 3G, 4G, 및/또는 5G 등의 통신 규격에 따르는 통신 네트워크를 통하여 통신을 수행하는 원거리 통신 모듈을 포함할 수 있다. In addition, the communication interface 110 may further include a remote communication module that communicates with a server for supporting remote communication according to a telecommunication standard. Specifically, the communication interface 110 may include a remote communication module that performs communication through a network for internet communication. In addition, the communication interface 110 may include a remote communication module that performs communication through a communication network conforming to communication standards such as 3G, 4G, and/or 5G.
또한, 통신 인터페이스(110)는 외부 전자 장치(예를 들어, 구강 스캐너 등)와 유선으로 통신하기 위해서, 외부 전자 장치와 유선 케이블로 연결되기 위한 적어도 하나의 포트를 포함할 수 있다. 그에 따라서, 통신 인터페이스(110)는 적어도 하나의 포트를 통하여 유선 연결된 외부 전자 장치와 통신을 수행할 수 있다. In addition, the communication interface 110 may include at least one port for connecting to an external electronic device (eg, intraoral scanner, etc.) through a wired cable in order to communicate with the external electronic device. Accordingly, the communication interface 110 may perform communication with an external electronic device wired through at least one port.
사용자 인터페이스(120)는 이미지 처리 장치(100)를 제어하기 위한 사용자 입력을 수신할 수 있다. 사용자 인터페이스(120)는 사용자의 터치를 감지하는 터치 패널, 사용자의 푸시 조작을 수신하는 버튼, 사용자 인터페이스 화면 상의 일 지점을 지정 또는 선택하기 위한 마우스(mouse) 또는 키보드(key board) 등을 포함하는 사용자 입력 디바이스를 포함할 수 있으나 이에 제한되지 않는다.The user interface 120 may receive a user input for controlling the image processing device 100 . The user interface 120 includes a touch panel for detecting a user's touch, a button for receiving a user's push operation, a mouse or a keyboard for specifying or selecting a point on a user interface screen, and the like. It may include a user input device, but is not limited thereto.
또한, 사용자 인터페이스(120)는 음성 인식을 위한 음성 인식 장치를 포함할 수 있다. 예를 들어, 음성 인식 장치는 마이크가 될 수 있으며, 음성 인식 장치는 사용자의 음성 명령 또는 음성 요청을 수신할 수 있다. 그에 따라서, 프로세서(150)는 음성 명령 또는 음성 요청에 대응되는 동작이 수행되도록 제어할 수 있다. Also, the user interface 120 may include a voice recognition device for voice recognition. For example, the voice recognition device may be a microphone, and the voice recognition device may receive a user's voice command or voice request. Accordingly, the processor 150 may control an operation corresponding to the voice command or voice request to be performed.
디스플레이(130)는 화면을 디스플레이 한다. 구체적으로, 디스플레이(130)는 프로세서(150)의 제어에 따라서 소정 화면을 디스플레이 할 수 있다. 구체적으로, 디스플레이(130)는 스캐너(10)에서 환자의 구강을 스캔하여 획득한 데이터에 근거하여 생성된 구강 이미지를 포함하는 사용자 인터페이스 화면을 디스플레이 할 수 있다. 또는, 스캐너(10)로부터 획득한 데이터에 근거하여 생성된 대상체에 대한 이미지를 포함하는 사용자 인터페이스 화면을 디스플레이할 수 있다.The display 130 displays a screen. Specifically, the display 130 may display a predetermined screen according to the control of the processor 150 . Specifically, the display 130 may display a user interface screen including an oral cavity image generated based on data acquired by scanning the patient's oral cavity with the scanner 10 . Alternatively, a user interface screen including an image of an object generated based on data obtained from the scanner 10 may be displayed.
또는, 디스플레이(130)는 환자의 치과 치료와 관련되는 정보를 포함하는 사용자 인터페이스 화면을 디스플레이 할 수 있다.Alternatively, the display 130 may display a user interface screen including information related to the patient's dental treatment.
메모리(140)는 적어도 하나의 인스트럭션을 저장할 수 있다. 또한, 메모리 (140)는 프로세서(150)가 실행하는 적어도 하나의 인스트럭션을 저장하고 있을 수 있다. 또한, 메모리(140)는 프로세서(150)가 실행하는 적어도 하나의 프로그램을 저장하고 있을 수 있다. 또한, 메모리(140)는 스캐너(10)로부터 수신되는 데이터(예를 들어, 스캔을 통하여 획득된 로우 데이터 등)를 저장할 수 있다. 또는, 메모리(140)는 대상체를 3차원적으로 나타내는 이미지를 저장할 수 있다. 일 실시예에 따른 메모리(140)는 수복물 데이터를 조각하기 위한 하나 이상의 인스트럭션들을 포함할 수 있다. 일 실시예에 따른 메모리(140)는 적어도 하나의 임계 조건에 기초하여, 변형된 수복물 데이터에 대한 피드백을 제공하기 위해 본 개시서에 개시된 방법을 수행하기 위한 하나 이상의 인스트럭션들을 포함할 수 있다.The memory 140 may store at least one instruction. Also, the memory 140 may store at least one instruction executed by the processor 150. Also, the memory 140 may store at least one program executed by the processor 150 . Also, the memory 140 may store data received from the scanner 10 (eg, raw data obtained through scanning). Alternatively, the memory 140 may store an image representing an object in 3D. Memory 140 according to one embodiment may contain one or more instructions for sculpting restoration data. Memory 140 according to an embodiment may include one or more instructions for performing a method disclosed in this disclosure to provide feedback on modified restoration data, based on at least one threshold condition.
프로세서(150)는 메모리(140)에 저장된 적어도 하나의 인스트럭션을 수행하여, 의도하는 동작이 수행되도록 제어한다. 여기서, 적어도 하나의 인스트럭션은 프로세서(150)내에 포함되는 내부 메모리 또는 프로세서와 별도로 데이터 처리 장치 내에 포함되는 메모리(140)에 저장되어 있을 수 있다.The processor 150 executes at least one instruction stored in the memory 140 and controls an intended operation to be performed. Here, at least one instruction may be stored in an internal memory included in the processor 150 or in the memory 140 included in the data processing device separately from the processor.
구체적으로, 프로세서(150)는 적어도 하나의 인스트럭션을 수행하여, 의도하는 동작이 수행되도록 데이터 처리 장치 내부에 포함되는 적어도 하나의 구성들을 제어할 수 있다. 따라서, 프로세서가 소정 동작들을 수행하는 경우를 예로 들어 설명하더라도, 프로세서가 소정 동작들이 수행되도록 데이터 처리 장치 내부에 포함하는 적어도 하나의 구성들을 제어하는 것을 의미할 수 있다. Specifically, the processor 150 may control at least one component included in the data processing apparatus so that an intended operation is performed by executing at least one instruction. Therefore, even if the processor performs certain operations as an example, it may mean that the processor controls at least one component included in the data processing apparatus so that the certain operations are performed.
일 실시예에 따른 프로세서(150)는 메모리(140)에 저장된 하나 이상의 인스트럭션을 실행함으로써, 3차원 스캐너로부터 수신한 로우 데이터에 기초하여, 스캔 데이터를 생성할 수 있다. 이때, 로우 데이터는 3차원 스캐너에 의해 적어도 하나의 치아를 포함하는 구강을 스캔함으로써 획득된 로우 데이터를 포함할 수 있다.The processor 150 according to an embodiment may generate scan data based on raw data received from the 3D scanner by executing one or more instructions stored in the memory 140 . In this case, the raw data may include raw data obtained by scanning an oral cavity including at least one tooth by a 3D scanner.
프로세서(150)는 메모리(140)에 저장된 하나 이상의 인스트럭션을 실행함으로써, 수신한 로우 데이터에 기초하여, 구강에 대한 3차원 이미지 또는 3차원 모델을 획득할 수 있다. The processor 150 may acquire a 3D image or 3D model of the oral cavity based on the received raw data by executing one or more instructions stored in the memory 140 .
프로세서(150)는 메모리(140)에 저장된 하나 이상의 인스트럭션을 실행함으로써, 구강에 대한 3차원 이미지에서 치료가 필요한 치아(대상 치아)에 대한 수복물에 대한 이미지 또는 데이터를 획득할 수 있다. 예를 들어, 프로세서(150)는 구강에 대한 3차원 이미지에서 대상 치아를 식별하고, 대상 치아에 대한 수복물을 디자인할 수 있다. 프로세서(150)는 대상 치아에 대한 3차원적 형상 정보에 기초하여, 대상 치아에 대한 수복물을 디자인할 수 있다. 프로세서(150)는 CAD(Computer Aided Design)/CAM(Computer Aided Manufacturing) 프로그램을 이용하여, 대상 치아에 대한 수복물을 디자인할 수 있다. 다만, 이에 한정되지 않는다.The processor 150 may obtain an image or data for restoration of a tooth (target tooth) requiring treatment from a 3D image of the oral cavity by executing one or more instructions stored in the memory 140 . For example, the processor 150 may identify a target tooth in the 3D image of the mouth and design a restoration for the target tooth. The processor 150 may design a restoration for the target tooth based on the 3D shape information of the target tooth. The processor 150 may design a restoration for a target tooth using a computer aided design (CAD)/computer aided manufacturing (CAM) program. However, it is not limited thereto.
또는, 프로세서(150)는 외부 장치로 구강에 대한 3차원 이미지 또는 대상 치아에 대한 데이터를 전송하고, 외부 장치로부터 수복물에 대한 이미지 또는 데이터를 수신할 수 있다.Alternatively, the processor 150 may transmit a 3D image of an oral cavity or data of a target tooth to an external device, and may receive an image or data of a restoration object from the external device.
일 실시예에 따른 프로세서(150)는 메모리(140)에 저장된 하나 이상의 인스트럭션을 실행함으로써, 구강을 스캔한 3차원 스캔 데이터와 수복물에 대한 데이터(이하, '수복물 데이터')를 포함하는 구강 이미지를 획득할 수 있다. 예를 들어, 프로세서(150)는 구강에 대한 3차원 스캔 데이터에 수복물 데이터를 적용시킴으로써, 대상 치아에 수복물이 부착된 형태의 구강 이미지를 획득할 수 있다. The processor 150 according to an exemplary embodiment executes one or more instructions stored in the memory 140 to generate an oral cavity image including 3D scan data obtained by scanning the oral cavity and restoration data (hereinafter referred to as 'restoration data'). can be obtained For example, the processor 150 may obtain an oral cavity image in which a restoration object is attached to a target tooth by applying restoration data to 3D scan data of the oral cavity.
일 실시예에 따른 프로세서(150)는 메모리(140)에 저장된 하나 이상의 인스트럭션을 실행함으로써, 사용자 입력에 기초하여, 수복물에 대한 메쉬 데이터를 변형시킬 수 있다. 예를 들어, 프로세서(150)는 조각 하기(sculpting) 기능을 이용하여, 메쉬 데이터를 변형시킬 수 있다. 프로세서(150)는 조각 하기 기능에 대응하는 적어도 하나의 메뉴를 표시할 수 있다. 예를 들어, 일 실시예에 따른 조각 하기 기능은 메쉬 추가 기능, 메쉬 제거 기능, 메쉬 스무딩 기능, 및 메쉬 모핑 기능 중 적어도 하나를 포함할 수 있다. 다만, 이에 한정되지 않는다.According to an embodiment, the processor 150 may deform mesh data of the restoration based on a user input by executing one or more instructions stored in the memory 140 . For example, the processor 150 may transform mesh data using a sculpting function. The processor 150 may display at least one menu corresponding to the sculpting function. For example, the sculpting function according to an embodiment may include at least one of a mesh adding function, a mesh removing function, a mesh smoothing function, and a mesh morphing function. However, it is not limited thereto.
일 실시예에 따른 프로세서(150)는 메모리(140)에 저장된 하나 이상의 인스트럭션을 실행함으로써, 변형된 메쉬 데이터가 임계 조건을 만족하는 지 여부를 확인할 수 있다. 예를 들어, 일 실시예에 따른 임계 조건은, 메쉬 데이터의 외면과 내면 사이의 거리 조건, 메쉬 데이터의 외면이 메쉬 데이터에 대응하는 치아 데이터와 오버랩되는 간섭 영역이 발생하는 지 여부, 및 메쉬 데이터의 외면과 치아 데이터 사이의 거리 조건 중 적어도 하나를 포함할 수 있다.The processor 150 according to an embodiment may check whether the deformed mesh data satisfies a critical condition by executing one or more instructions stored in the memory 140 . For example, the critical condition according to an embodiment is a distance condition between an outer surface and an inner surface of the mesh data, whether an interference area in which an outer surface of the mesh data overlaps tooth data corresponding to the mesh data occurs, and mesh data It may include at least one of distance conditions between the outer surface of the tooth data.
일 실시예에 따른 프로세서(150)는 메모리(140)에 저장된 하나 이상의 인스트럭션을 실행함으로써, 변형된 메쉬 데이터가 임계 조건을 만족하지 않는 것에 기초하여, 변형된 메쉬 데이터가 적절하지 않음을 나타내는 피드백을 제공할 수 있다.The processor 150 according to an embodiment provides feedback indicating that the deformed mesh data is not appropriate based on the fact that the deformed mesh data does not satisfy a threshold condition by executing one or more instructions stored in the memory 140. can provide
예를 들어, 프로세서(150)는 변형된 메쉬 데이터의 외면과 내면 사이의 거리가 임계 조건을 만족하는 않는 영역을 다른 영역과 식별되도록 디스플레이(130)에 표시할 수 있다. 또한, 프로세서(150)는 수복물에 대한 메쉬 데이터와 치아 데이터 사이에 간섭 영역이 발생하는 경우, 간섭 영역에서 메쉬 데이터와 치아 데이터가 오버랩되는 정도를 색상으로 표시할 수 있다. 또한, 프로세서(150)는 변형된 메쉬 데이터가 임계 조건을 만족하지 않는 것에 기초하여, 변형된 메쉬 데이터가 적절하지 않음을 나타내는 메시지를 디스플레이(130)에 표시할 수 있다. 또한, 프로세서(150)는 메쉬 데이터의 변형된 영역을 변형량에 따른 색상으로 표시할 수 있다. 또한, 프로세서(150)는 메쉬 데이터의 허용 가능한 최소 두께 및 최대 두께 중 적어도 하나를 디스플레이(130)에 표시할 수 있다.For example, the processor 150 may display a region in which the distance between the outer and inner surfaces of the deformed mesh data does not satisfy a critical condition on the display 130 to be identified with other regions. Also, when an interference area occurs between the mesh data of the restoration and the tooth data, the processor 150 may display the degree of overlap between the mesh data and the tooth data in the interference area in color. Additionally, the processor 150 may display a message indicating that the deformed mesh data is not appropriate on the display 130 based on the fact that the deformed mesh data does not satisfy the critical condition. Also, the processor 150 may display the deformed region of the mesh data in a color according to the amount of deformation. Also, the processor 150 may display on the display 130 at least one of the allowable minimum and maximum thicknesses of the mesh data.
일 실시예에 따른 프로세서(150)는, 내부적으로 적어도 하나의 내부 프로세서 및 내부 프로세서에서 처리 또는 이용될 프로그램, 인스트럭션, 신호, 및 데이터 중 적어도 하나 저장하기 위한 메모리 소자(예를 들어, RAM, ROM 등)을 포함하는 형태로 구현될 수 있다. The processor 150 according to an embodiment internally includes at least one internal processor and a memory device (eg, RAM, ROM) for storing at least one of programs, instructions, signals, and data to be processed or used in the internal processor. etc.) may be implemented in a form including.
또한, 프로세서(150)는 비디오에 대응되는 그래픽 처리를 위한 그래픽 프로세서(Graphic Processing Unit)를 포함할 수 있다. 또한, 프로세서는 코어(core)와 GPU를 통합한 SoC(System On Chip)로 구현될 수 있다. 또한, 프로세서는 싱글 코어 이상의 멀티 코어를 포함할 수 있다. 예를 들어, 프로세서는 듀얼 코어, 트리플 코어, 쿼드 코어, 헥사 코어, 옥타 코어, 데카 코어, 도데카 코어, 헥사 다시 벌 코어 등을 포함할 수 있다.Also, the processor 150 may include a graphic processing unit for graphic processing corresponding to video. Also, the processor may be implemented as a system on chip (SoC) in which a core and a GPU are integrated. Also, the processor may include multiple cores over a single core. For example, a processor may include a dual core, triple core, quad core, hexa core, octa core, deca core, dodeca core, hexadecimal core, and the like.
개시된 실시예에서, 프로세서(150)는 스캐너(10)로부터 수신되는 2차원 이미지에 근거하여 이미지를 생성할 수 있다.In the disclosed embodiment, the processor 150 may generate an image based on a 2D image received from the scanner 10 .
구체적으로, 프로세서(150)의 제어에 따라서 통신 인터페이스(110)는 스캐너(10)에서 획득된 데이터, 예를 들어 스캔을 통하여 획득된 로우 데이터(raw data)를 수신할 수 있다. 그리고, 프로세서(150)는 통신 인터페이스(110)에서 수신된 로우 데이터에 근거하여 대상체를 3차원적으로 나타내는 3차원 이미지를 생성할 수 있다. 예를 들어, 스캐너(10)는 광 삼각 방식에 따라서 3차원 이미지를 복원하기 위해서, 좌안 시야(left Field of View)에 대응되는 L 카메라 및 우안 시야(Right Field of View)에 대응되는 R 카메라를 포함할 수 있다. 그리고, 3차원 스캐너는 L 카메라 및 R 카메라 각각에서 좌안 시야(left Field of View)에 대응되는 L 이미지 데이터 및 우안 시야(Right Field of View)에 대응되는 R 이미지 데이터를 획득할 수 있다. 계속하여, 3차원 스캐너는 L 이미지 데이터 및 R 이미지 데이터를 포함하는 로우 데이터를 이미지 처리 장치(100)의 통신 인터페이스(110)로 전송할 수 있다. Specifically, under the control of the processor 150, the communication interface 110 may receive data obtained from the scanner 10, for example, raw data obtained through scanning. Also, the processor 150 may generate a 3D image representing the object in 3D based on the raw data received through the communication interface 110 . For example, the scanner 10 uses an L camera corresponding to a left field of view and an R camera corresponding to a right field of view in order to restore a 3D image according to the optical triangulation method. can include In addition, the 3D scanner may obtain L image data corresponding to a left field of view and R image data corresponding to a right field of view from the L camera and the R camera, respectively. Subsequently, the 3D scanner may transmit raw data including L image data and R image data to the communication interface 110 of the image processing device 100 .
그러면, 통신 인터페이스(110)는 수신되는 로우 데이터를 프로세서(150)로 전달하고, 프로세서(150)는 전달받은 로우 데이터에 근거하여, 대상체를 3차원적으로 나타내는 이미지를 생성할 수 있다. Then, the communication interface 110 transfers the received raw data to the processor 150, and the processor 150 may generate an image representing the object in three dimensions based on the received raw data.
또한, 프로세서(150)는 통신 인터페이스(110)를 제어하여, 외부의 서버, 의료 장치 등으로부터 대상체를 3차원적으로 나타내는 이미지를 직접 수신할 수 있다. 이 경우, 프로세서는 로우 데이터에 근거한 3차원 이미지를 생성하지 않고, 3차원 이미지를 획득할 수 있다.Also, the processor 150 may control the communication interface 110 to directly receive an image representing an object in 3D from an external server, medical device, or the like. In this case, the processor may acquire the 3D image without generating the 3D image based on the raw data.
개시된 실시예에 따라서, 프로세서(150)가 '추출', '획득', '생성' 등의 동작을 수행한다는 것은, 프로세서(150)에서 적어도 하나의 인스트럭션을 실행하여 전술한 동작들을 직접 수행하는 경우뿐만 아니라, 전술한 동작들이 수행되도록 다른 구성 요소들을 제어하는 것을 포함할 수 있다. According to the disclosed embodiment, the processor 150 performing operations such as 'extraction', 'acquisition', and 'creation' means that the processor 150 directly performs the above-described operations by executing at least one instruction. In addition, it may include controlling other components so that the above-described operations are performed.
본 개시서에 개시된 실시예들을 구현하기 위해서 이미지 처리 장치(100)는 도 17에 도시된 구성요소들의 일부만을 포함할 수도 있고, 도 17에 도시된 구성요소 외에 더 많은 구성요소를 포함할 수도 있다. In order to implement the embodiments disclosed in this disclosure, the image processing apparatus 100 may include only some of the components shown in FIG. 17 or may include more components in addition to the components shown in FIG. 17. .
또한, 이미지 처리 장치(100)는 스캐너(10)에 연동되는 전용 소프트웨어를 저장 및 실행할 수 있다. 여기서, 전용 소프트웨어는 전용 프로그램, 전용 툴(tool), 또는 전용 어플리케이션으로 호칭될 수 있다. 이미지 처리 장치(100)가 스캐너(10)와 상호 연동되어 동작하는 경우, 이미지 처리 장치(100)에 저장되는 전용 소프트웨어는 스캐너(10)와 연결되어 대상체의 스캔을 통하여 획득되는 데이터들을 실시간을 수신할 수 있다. 예를 들어, 메디트의 3차원 스캐너인 i500 제품에서 대상체의 스캔을 통하여 획득된 데이터를 처리하기 위한 전용 소프트웨어가 존재한다. 구체적으로, 메디트에서는 3차원 스캐너(예를 들어, i500)에서 획득된 데이터를 처리, 관리, 이용, 및/또는 전송하기 위한 소프트웨어인 'Medit Link'를 제작하여 배포하고 있다. 여기서, '전용 소프트웨어'는 3차원 스캐너와 연동되어 동작 가능한 프로그램, 툴, 또는 어플리케이션을 의미하는 것이므로 다양한 제작자에 의해서 개발 및 판매되는 다양한 3차원 스캐너들이 공용으로 이용할 수도 있을 것이다. 또한, 전술한 전용 소프트웨어는 대상체의 스캔을 수행하는 3차원 스캐너와 별도로 제작 및 배포될 수 있다. Also, the image processing device 100 may store and execute dedicated software linked to the scanner 10 . Here, the dedicated software may be referred to as a dedicated program, a dedicated tool, or a dedicated application. When the image processing device 100 operates in conjunction with the scanner 10, dedicated software stored in the image processing device 100 is connected to the scanner 10 to receive data acquired through scanning of an object in real time. can do. For example, in Medit's 3D scanner i500, there is dedicated software for processing data acquired through scanning of an object. Specifically, Medit produces and distributes 'Medit Link', software for processing, managing, using, and/or transmitting data obtained from a 3D scanner (eg i500). Here, 'dedicated software' means a program, tool, or application that can operate in conjunction with a 3D scanner, so that various 3D scanners developed and sold by various manufacturers may use it in common. In addition, the aforementioned dedicated software may be produced and distributed separately from the 3D scanner that scans the object.
이미지 처리 장치(100)는 i500 제품에 대응되는 전용 소프트웨어를 저장 및 실행할 수 있다. 전송 소프트웨어는 이미지를 획득, 처리, 저장, 및/또는 전송하기 위한 적어도 하나의 동작들을 수행할 수 있다. 여기서, 전용 소프트웨어는 프로세서에 저장될 수 있다. 또한, 전용 소프트웨어는 3차원 스캐너에서 획득된 데이터의 이용을 위한 사용자 인터페이스를 제공할 수 있다. 여기서, 전용 소프트웨어에서 제공되는 사용자 인터페이스 화면은 개시된 실시예에 따라서 생성되는 이미지를 포함할 수 있다.The image processing device 100 may store and execute dedicated software corresponding to the i500 product. The transfer software may perform one or more operations for acquiring, processing, storing, and/or transmitting the image. Here, dedicated software may be stored in the processor. Also, the dedicated software may provide a user interface for using data obtained from the 3D scanner. Here, the user interface screen provided by dedicated software may include an image created according to the disclosed embodiment.
본 개시의 일 실시예에 따른 이미지의 처리 방법은 다양한 컴퓨터 수단을 통하여 수행될 수 있는 프로그램 명령 형태로 구현되어 컴퓨터 판독 가능 매체에 기록될 수 있다. 또한, 본 개시의 실시예는, 이미지의 처리 방법을 실행하는 적어도 하나의 인스트럭션을 포함하는 하나 이상의 프로그램이 기록된 컴퓨터로 읽을 수 있는 저장 매체가 될 수 있다. An image processing method according to an embodiment of the present disclosure may be implemented in the form of program instructions that can be executed through various computer means and recorded in a computer readable medium. In addition, an embodiment of the present disclosure may be a computer-readable storage medium in which one or more programs including at least one instruction for executing an image processing method are recorded.
상기 컴퓨터 판독 가능 저장 매체는 프로그램 명령, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다. 여기서, 컴퓨터 판독 가능 저장 매체의 예에는 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체(magnetic media), CD-ROM, DVD와 같은 광기록 매체(optical media), 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical media), 및 롬(ROM), 램(RAM), 플래시 메모리 등과 같은 프로그램 명령을 저장하고 수행하도록 구성된 하드웨어 장치가 포함될 수 있다. The computer readable storage medium may include program instructions, data files, data structures, etc. alone or in combination. Here, examples of computer-readable storage media include magnetic media such as hard disks, floppy disks and magnetic tapes, optical media such as CD-ROMs and DVDs, floptical disks and Hardware devices configured to store and execute program instructions, such as magneto-optical media, and ROM, RAM, flash memory, and the like, may be included.
여기서, 기기로 읽을 수 있는 저장매체는, 비일시적(non-transitory) 저장매체의 형태로 제공될 수 있다. 여기서, '비일시적 저장매체'는 저장 매체가 실재(tangible)하는 장치임을 의미할 수 있다. 또한, '비일시적 저장매체'는 데이터가 임시적으로 저장되는 버퍼를 포함할 수 있다.Here, the device-readable storage medium may be provided in the form of a non-transitory storage medium. Here, 'non-transitory storage medium' may mean that the storage medium is a tangible device. Also, the 'non-temporary storage medium' may include a buffer in which data is temporarily stored.
일 실시예에 따르면, 본 문서에 개시된 다양한 실시예들에 따른 이미지의 처리 방법은 컴퓨터 프로그램 제품(computer program product)에 포함되어 제공될 수 있다. 컴퓨터 프로그램 제품은 기기로 읽을 수 있는 저장 매체(예: compact disc read only memory (CD-ROM))의 형태로 배포될 수 있다. 또는, 어플리케이션 스토어(예: 플레이 스토어 등)를 통해 또는 두 개의 사용자 장치들(예: 스마트폰들) 간에 직접, 온라인으로 배포(예: 다운로드 또는 업로드)될 수 있다. 구체적으로, 개시된 실시예에 따른 컴퓨터 프로그램 제품은 개시된 실시예에 따른 이미지의 처리 방법을 수행하기 위해 적어도 하나의 인스트럭션을 포함하는 프로그램이 기록된 저장 매체를 포함할 수 있다.According to an embodiment, a method of processing an image according to various embodiments disclosed in this document may be included in a computer program product and provided. A computer program product may be distributed in the form of a machine-readable storage medium (eg compact disc read only memory (CD-ROM)). Alternatively, it may be distributed (eg, downloaded or uploaded) online through an application store (eg, play store, etc.) or directly between two user devices (eg, smartphones). Specifically, the computer program product according to the disclosed embodiment may include a storage medium on which a program including at least one instruction for performing the image processing method according to the disclosed embodiment is recorded.
이상에서 실시예들에 대하여 상세하게 설명하였지만 본 발명의 권리범위는 이에 한정되는 것은 아니고 다음의 청구범위에서 정의하고 있는 본 발명의 기본 개념을 이용한 당업자의 여러 변형 및 개량 형태 또한 본 발명의 권리범위에 속한다.Although the embodiments have been described in detail above, the scope of the present invention is not limited thereto, and various modifications and improvements of those skilled in the art using the basic concept of the present invention defined in the following claims are also within the scope of the present invention. belongs to

Claims (20)

  1. 이미지 처리 방법에 있어서,In the image processing method,
    대상체에 대한 메쉬(mesh) 데이터를 획득하는 단계;obtaining mesh data of an object;
    사용자 입력에 기초하여, 상기 메쉬 데이터를 변형시키는 단계; 및transforming the mesh data based on a user input; and
    적어도 하나의 임계 조건에 기초하여, 상기 변형된 메쉬 데이터에 대한 피드백을 제공하는 단계를 포함하는, 이미지 처리 방법.Based on at least one threshold condition, providing feedback on the deformed mesh data.
  2. 제1항에 있어서,According to claim 1,
    상기 메쉬 데이터는 적어도 하나의 치아에 대한 수복물 데이터를 포함하는, 이미지 처리 방법.The mesh data includes restoration data for at least one tooth.
  3. 제1항에 있어서,According to claim 1,
    상기 방법은,The method,
    상기 메쉬 데이터를 변형시키기 위한 적어도 하나의 메뉴 아이템을 화면에 표시하는 단계를 더 포함하고,Further comprising displaying at least one menu item for transforming the mesh data on a screen,
    상기 적어도 하나의 메뉴 아이템은, 메쉬 추가 기능에 대응하는 제1 메뉴 아이템, 메쉬 제거 기능에 대응하는 제2 메뉴 아이템, 메쉬 스무딩 기능에 대응하는 제3 메뉴 아이템, 및 메쉬 모핑 기능에 대응하는 제4 메뉴 아이템 중 적어도 하나를 포함하며,The at least one menu item may include a first menu item corresponding to a mesh addition function, a second menu item corresponding to a mesh removal function, a third menu item corresponding to a mesh smoothing function, and a fourth menu item corresponding to a mesh morphing function. contains at least one of the menu items;
    상기 메쉬 데이터를 변형시키는 단계는,The step of transforming the mesh data,
    상기 적어도 하나의 메뉴 아이템을 선택하는 상기 사용자 입력에 기초하여, 상기 메쉬 데이터를 변형시키는 단계를 포함하는, 이미지 처리 방법.and transforming the mesh data based on the user input for selecting the at least one menu item.
  4. 제1항에 있어서,According to claim 1,
    상기 피드백을 제공하는 단계는,The step of providing the feedback is,
    상기 변형된 메쉬 데이터가 상기 임계 조건을 만족하는 지 여부를 결정하는 단계; 및determining whether the deformed mesh data satisfies the threshold condition; and
    상기 임계 조건을 만족하지 않는 것에 기초하여, 상기 변형된 메쉬 데이터가 적절하지 않음을 나타내는 상기 피드백을 제공하는 단계;를 포함하는, 이미지 처리 방법.Based on not satisfying the threshold condition, providing the feedback indicating that the deformed mesh data is not appropriate; an image processing method comprising:
  5. 제1항에 있어서,According to claim 1,
    상기 임계 조건은,The critical condition is,
    상기 메쉬 데이터의 외면과 내면 사이의 거리 조건, 상기 메쉬 데이터의 외면이 상기 메쉬 데이터에 대응하는 치아 데이터와 오버랩되는 간섭 영역이 발생하는 지 여부, 및 상기 메쉬 데이터의 외면과 상기 치아 데이터 사이의 거리 조건 중 적어도 하나를 포함하는, 이미지 처리 방법.A distance condition between the outer surface and the inner surface of the mesh data, whether or not an interference area occurs in which the outer surface of the mesh data overlaps with the tooth data corresponding to the mesh data, and the distance between the outer surface of the mesh data and the tooth data An image processing method comprising at least one of the conditions.
  6. 제5항에 있어서,According to claim 5,
    상기 메쉬 데이터는 적어도 하나의 치아에 대한 수복물 데이터이고,The mesh data is restoration data for at least one tooth,
    상기 치아 데이터는 상기 수복물과 맞물리는 대합치 및 상기 수복물에 인접한 인접치 중 적어도 하나에 대한 데이터를 포함하는, 이미지 처리 방법.The tooth data includes data on at least one of an opposing tooth engaged with the restoration and an adjacent tooth adjacent to the restoration.
  7. 제5항에 있어서,According to claim 5,
    상기 임계 조건을 만족하는 지 여부를 결정하는 단계는,Determining whether or not the threshold condition is satisfied,
    상기 메쉬 데이터의 외면과 내면 사이의 거리 조건을 만족하는 지 여부를 결정하는 단계를 포함하고,Determining whether a distance condition between an outer surface and an inner surface of the mesh data is satisfied;
    상기 메쉬 데이터의 외면과 내면 사이의 거리 조건을 만족하는 지 여부를 결정하는 단계는,Determining whether or not the distance condition between the outer surface and the inner surface of the mesh data is satisfied,
    상기 메쉬 데이터의 내면에 포함되는 정점들 또는 면(face)들에서 법선(normal) 방향으로 가상의 광선들을 생성하여, 광선-교차 검사를 수행하는 단계;performing a ray-intersection test by generating virtual rays in a normal direction from vertices or faces included in inner surfaces of the mesh data;
    상기 가상의 광선들이 교차하는 지점들에 기초하여, 상기 메쉬 데이터의 외면과 내면 사이의 거리를 결정하는 단계; 및determining a distance between an outer surface and an inner surface of the mesh data based on points at which the virtual rays intersect; and
    상기 거리가 적어도 하나의 임계 범위를 만족하는지 여부를 결정하는 단계;를 포함하는, 이미지 처리 방법.Determining whether the distance satisfies at least one threshold range; including, image processing method.
  8. 제5항에 있어서,According to claim 5,
    상기 피드백을 제공하는 단계는,The step of providing the feedback is,
    상기 변형된 메쉬 데이터의 외면과 내면 사이의 거리가 상기 임계 조건을 만족하지 않는 영역을 다른 영역과 식별되도록 표시하는 단계를 포함하는, 이미지 처리 방법.and displaying a region in which a distance between an outer surface and an inner surface of the deformed mesh data does not satisfy the threshold condition to be identified with other areas.
  9. 제5항에 있어서,According to claim 5,
    상기 피드백을 제공하는 단계는,The step of providing the feedback is,
    상기 간섭 영역이 발생하는 경우, 상기 간섭 영역에서 상기 변형된 메쉬 데이터와 상기 치아 데이터가 오버랩되는 정도를 색상으로 표시하는 단계를 포함하는, 이미지 처리 방법.and displaying, in color, a degree of overlap between the deformed mesh data and the tooth data in the interference area when the interference area occurs.
  10. 제1항에 있어서,According to claim 1,
    상기 피드백을 제공하는 단계는,The step of providing the feedback is,
    상기 변형된 메쉬 데이터가 상기 임계 조건을 만족하지 않는 것에 기초하여, 상기 변형된 메쉬 데이터가 적절하지 않음을 나타내는 메시지를 표시하는 단계를 포함하는, 이미지 처리 방법.and displaying a message indicating that the deformed mesh data is not appropriate based on the fact that the deformed mesh data does not satisfy the threshold condition.
  11. 제1항에 있어서,According to claim 1,
    상기 피드백을 제공하는 단계는,The step of providing the feedback is,
    상기 메쉬 데이터의 변형된 영역을 변형량에 따른 색상으로 표시하는 단계를 포함하는, 이미지 처리 방법.And displaying the deformed area of the mesh data in a color according to the amount of deformation.
  12. 제1항에 있어서,According to claim 1,
    상기 피드백을 제공하는 단계는,The step of providing the feedback is,
    상기 메쉬 데이터의 허용 가능한 최소 두께 및 최대 두께 중 적어도 하나를 표시하는 단계를 포함하는, 이미지 처리 방법.And displaying at least one of an allowable minimum thickness and maximum thickness of the mesh data.
  13. 이미지 처리 장치는,The image processing device,
    디스플레이;display;
    하나 이상의 인스트럭션들을 저장하는 메모리; 및a memory that stores one or more instructions; and
    프로세서를 포함하고,contains a processor;
    상기 프로세서는, 상기 메모리에 저장된 상기 하나 이상의 인스트럭션들을 실행함으로써,The processor, by executing the one or more instructions stored in the memory,
    대상체에 대한 메쉬(mesh) 데이터를 획득하고,Acquiring mesh data for an object,
    사용자 입력에 기초하여, 상기 메쉬 데이터를 변형시키며,Transforming the mesh data based on user input;
    적어도 하나의 임계 조건에 기초하여, 상기 변형된 메쉬 데이터에 대한 피드백을 제공하도록 상기 디스플레이를 제어하는, 이미지 처리 장치.Based on at least one critical condition, the image processing device controls the display to provide feedback on the deformed mesh data.
  14. 제13항에 있어서,According to claim 13,
    상기 메쉬 데이터는 적어도 하나의 치아에 대한 수복물 데이터를 포함하는, 이미지 처리 장치.The mesh data includes restoration data for at least one tooth.
  15. 제13항에 있어서,According to claim 13,
    상기 프로세서는, 상기 하나 이상의 인스트럭션들을 실행함으로써,The processor, by executing the one or more instructions,
    상기 메쉬 데이터를 변형시키기 위한 적어도 하나의 메뉴 아이템을 화면에 표시하도록 상기 디스플레이를 제어하고,Control the display to display at least one menu item for transforming the mesh data on the screen;
    상기 적어도 하나의 메뉴 아이템을 선택하는 상기 사용자 입력에 기초하여, 상기 메쉬 데이터를 변형시키며,Modifying the mesh data based on the user input for selecting the at least one menu item;
    상기 적어도 하나의 메뉴 아이템은, 메쉬 추가 기능에 대응하는 제1 메뉴 아이템, 메쉬 제거 기능에 대응하는 제2 메뉴 아이템, 메쉬 스무딩 기능에 대응하는 제3 메뉴 아이템, 및 메쉬 모핑 기능에 대응하는 제4 메뉴 아이템 중 적어도 하나를 포함하는, 이미지 처리 장치.The at least one menu item may include a first menu item corresponding to a mesh addition function, a second menu item corresponding to a mesh removal function, a third menu item corresponding to a mesh smoothing function, and a fourth menu item corresponding to a mesh morphing function. An image processing device comprising at least one of the menu items.
  16. 제13항에 있어서,According to claim 13,
    상기 프로세서는, 상기 하나 이상의 인스트럭션들을 실행함으로써,The processor, by executing the one or more instructions,
    상기 변형된 메쉬 데이터가 상기 임계 조건을 만족하는 지 여부를 결정하고,determining whether the deformed mesh data satisfies the threshold condition;
    상기 임계 조건을 만족하지 않는 것에 기초하여, 상기 변형된 메쉬 데이터가 적절하지 않음을 나타내는 상기 피드백을 제공하는, 이미지 처리 장치.Based on not satisfying the threshold condition, providing the feedback indicating that the deformed mesh data is not appropriate.
  17. 제13항에 있어서,According to claim 13,
    상기 임계 조건은,The critical condition is,
    상기 메쉬 데이터의 외면과 내면 사이의 거리 조건, 상기 메쉬 데이터의 외면이 상기 메쉬 데이터에 대응하는 치아 데이터와 오버랩되는 간섭 영역이 발생하는 지 여부, 및 상기 메쉬 데이터의 외면과 상기 치아 데이터 사이의 거리 조건 중 적어도 하나를 포함하는, 이미지 처리 장치.A distance condition between the outer surface and the inner surface of the mesh data, whether or not an interference area occurs in which the outer surface of the mesh data overlaps with the tooth data corresponding to the mesh data, and the distance between the outer surface of the mesh data and the tooth data An image processing device comprising at least one of the conditions.
  18. 제17항에 있어서,According to claim 17,
    상기 메쉬 데이터는 적어도 하나의 치아에 대한 수복물 데이터이고,The mesh data is restoration data for at least one tooth,
    상기 치아 데이터는 상기 수복물과 맞물리는 대합치 및 상기 수복물에 인접한 인접치 중 적어도 하나에 대한 데이터를 포함하는, 이미지 처리 장치.The tooth data includes data on at least one of an opposing tooth engaged with the restoration and an adjacent tooth adjacent to the restoration.
  19. 제17항에 있어서,According to claim 17,
    상기 프로세서는, 상기 하나 이상의 인스트럭션들을 실행함으로써,The processor, by executing the one or more instructions,
    상기 메쉬 데이터의 내면에 포함되는 정점들 또는 면(face)들에서 법선(normal) 방향으로 가상의 광선들을 생성하여, 광선-교차 검사를 수행하고,Generating virtual rays in a normal direction from vertices or faces included in the inner surface of the mesh data to perform a ray-intersection test;
    상기 가상의 광선들이 교차하는 지점들에 기초하여, 상기 메쉬 데이터의 외면과 내면 사이의 거리를 결정하며,Determine a distance between an outer surface and an inner surface of the mesh data based on points at which the virtual rays intersect;
    상기 거리가 적어도 하나의 임계 범위를 만족하는지 여부를 결정하는, 이미지 처리 장치.An image processing device that determines whether the distance satisfies at least one threshold range.
  20. 구강 이미지 처리 방법을 컴퓨터에 의해 수행하기 위한 적어도 하나의 인스트럭션을 포함하는 프로그램이 기록된 컴퓨터 판독 가능 기록 매체에 있어서, 상기 구강 이미지 처리 방법은,A computer-readable recording medium recorded with a program containing at least one instruction for performing an oral image processing method by a computer, wherein the oral image processing method comprises:
    대상체에 대한 메쉬(mesh) 데이터를 획득하는 단계;obtaining mesh data of an object;
    사용자 입력에 기초하여, 상기 메쉬 데이터를 변형시키는 단계; 및transforming the mesh data based on a user input; and
    적어도 하나의 임계 조건에 기초하여, 상기 변형된 메쉬 데이터에 대한 피드백을 제공하는 단계를 포함하는, 컴퓨터 판독 가능 기록 매체.Based on at least one threshold condition, providing feedback on the deformed mesh data.
PCT/KR2022/012639 2021-08-24 2022-08-24 Image processing apparatus and image processing method WO2023027500A1 (en)

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
KR10-2021-0111754 2021-08-24
KR20210111754 2021-08-24
KR10-2022-0105637 2022-08-23
KR1020220105637A KR20230029554A (en) 2021-08-24 2022-08-23 An image processing apparatus, and an image processing method

Publications (1)

Publication Number Publication Date
WO2023027500A1 true WO2023027500A1 (en) 2023-03-02

Family

ID=85321930

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/KR2022/012639 WO2023027500A1 (en) 2021-08-24 2022-08-24 Image processing apparatus and image processing method

Country Status (1)

Country Link
WO (1) WO2023027500A1 (en)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018501857A (en) * 2014-12-09 2018-01-25 スリーエム イノベイティブ プロパティズ カンパニー Dental restoration molding technology
KR20180125793A (en) * 2017-05-16 2018-11-26 주식회사 디오 Service Apparatus for Coordinating of Images for Dental Implant Procedure and Method for Coordinating of Images for thereof
US20200175678A1 (en) * 2018-11-28 2020-06-04 Orca Dental AI Ltd. Dental image segmentation and registration with machine learning
WO2020240351A1 (en) * 2019-05-31 2020-12-03 3M Innovative Properties Company Automated creation of tooth restoration dental appliances
KR102250520B1 (en) * 2019-08-08 2021-05-12 오스템임플란트 주식회사 Method for recommending crown model and prosthetic CAD apparatus therefor

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018501857A (en) * 2014-12-09 2018-01-25 スリーエム イノベイティブ プロパティズ カンパニー Dental restoration molding technology
KR20180125793A (en) * 2017-05-16 2018-11-26 주식회사 디오 Service Apparatus for Coordinating of Images for Dental Implant Procedure and Method for Coordinating of Images for thereof
US20200175678A1 (en) * 2018-11-28 2020-06-04 Orca Dental AI Ltd. Dental image segmentation and registration with machine learning
WO2020240351A1 (en) * 2019-05-31 2020-12-03 3M Innovative Properties Company Automated creation of tooth restoration dental appliances
KR102250520B1 (en) * 2019-08-08 2021-05-12 오스템임플란트 주식회사 Method for recommending crown model and prosthetic CAD apparatus therefor

Similar Documents

Publication Publication Date Title
WO2022085966A1 (en) Oral image processing device and oral image processing method
WO2021242050A1 (en) Oral image processing method, oral diagnostic device for performing operation according thereto, and computer-readable storage medium in which program for performing method is stored
WO2018066765A1 (en) Mobile apparatus-linked implant evaluation system
WO2022092627A1 (en) Method for determining object area from three-dimensional model, and three-dimensional model processing device
WO2023027500A1 (en) Image processing apparatus and image processing method
WO2022065756A1 (en) Oral image processing device and oral image processing method
WO2022164175A1 (en) Method and device for processing three-dimensional oral cavity model
WO2023003192A1 (en) Image processing apparatus and image processing method
WO2021242053A1 (en) Three-dimensional data acquisition method and device, and computer-readable storage medium storing program for performing same method
WO2023282619A1 (en) Method for adding text on 3-dimensional model and 3-dimensional model processing apparatus
WO2023038455A1 (en) Method for processing intraoral image and data processing device
WO2022225332A1 (en) Intraoral image processing device and intraoral image processing method
WO2023059167A1 (en) Oral image processing device and oral image processing method
WO2022014965A1 (en) Oral image processing apparatus and oral image processing method
WO2022265270A1 (en) Image processing device and image processing method
WO2023003381A1 (en) Oral cavity image processing apparatus and oral cavity image processing method
WO2022191665A1 (en) Method for identifying selection area in oral image and device therefor
WO2023191525A1 (en) Oral cavity image processing device and oral cavity image processing method
WO2022270903A1 (en) Method for providing margin line information about oral cavity, and electronic device for performing same
WO2022270889A1 (en) Intraoral image processing device and intraoral image processing method
WO2023063805A1 (en) Oral image processing device and oral image processing method
WO2023059166A1 (en) Oral image processing method and data processing device
WO2023063767A1 (en) Oral cavity image processing device and oral cavity image processing method
WO2022092594A1 (en) Oral image processing device and oral image processing method
WO2023277391A1 (en) Intraoral image processing device and intraoral image processing method

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 22861709

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE