WO2023282579A1 - 구강 모델을 처리하는 데이터 처리 장치 및 그 동작 방법 - Google Patents

구강 모델을 처리하는 데이터 처리 장치 및 그 동작 방법 Download PDF

Info

Publication number
WO2023282579A1
WO2023282579A1 PCT/KR2022/009667 KR2022009667W WO2023282579A1 WO 2023282579 A1 WO2023282579 A1 WO 2023282579A1 KR 2022009667 W KR2022009667 W KR 2022009667W WO 2023282579 A1 WO2023282579 A1 WO 2023282579A1
Authority
WO
WIPO (PCT)
Prior art keywords
target tooth
model
oral
data processing
tooth
Prior art date
Application number
PCT/KR2022/009667
Other languages
English (en)
French (fr)
Inventor
김상훈
이승훈
Original Assignee
주식회사 메디트
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from KR1020220063046A external-priority patent/KR102666198B1/ko
Application filed by 주식회사 메디트 filed Critical 주식회사 메디트
Publication of WO2023282579A1 publication Critical patent/WO2023282579A1/ko

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61CDENTISTRY; APPARATUS OR METHODS FOR ORAL OR DENTAL HYGIENE
    • A61C13/00Dental prostheses; Making same
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61CDENTISTRY; APPARATUS OR METHODS FOR ORAL OR DENTAL HYGIENE
    • A61C9/00Impression cups, i.e. impression trays; Impression methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F30/00Computer-aided design [CAD]
    • G06F30/20Design optimisation, verification or simulation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/20Editing of 3D images, e.g. changing shapes or colours, aligning objects or positioning parts
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H30/00ICT specially adapted for the handling or processing of medical images
    • G16H30/20ICT specially adapted for the handling or processing of medical images for handling medical images, e.g. DICOM, HL7 or PACS
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H30/00ICT specially adapted for the handling or processing of medical images
    • G16H30/40ICT specially adapted for the handling or processing of medical images for processing medical images, e.g. editing
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H50/00ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
    • G16H50/50ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for simulation or modelling of medical disorders

Definitions

  • the disclosed embodiments relate to a data processing apparatus for processing an oral model and an operation method thereof. Specifically, the disclosed embodiments relate to a data processing apparatus for processing an oral cavity model for transparently processing a partial region of the oral cavity model and an operation method thereof.
  • the margin line means a boundary point that comes into contact with the target tooth when a restoration is restored. Since the boundary of the restoration is determined according to the setting of the margin line, setting the margin line on the target tooth is important.
  • a target tooth and an adjacent tooth are usually displayed together, and a part of the target tooth is covered by the adjacent tooth, which may interfere with setting the margin line.
  • An object of the disclosed embodiment is to provide a data processing apparatus and an operating method for processing an oral cavity model capable of easily setting a margin line of a target tooth in the oral cavity model.
  • a data processing apparatus includes a memory for storing one or more instructions, and a processor for executing the one or more instructions, wherein the processor executes the one or more instructions, thereby performing an oral model including one or more teeth.
  • Display select a target tooth from among the one or more teeth included in the oral model, and in a transparent processing area located in the screen direction based on a clipping plane located apart from the target tooth by a predetermined distance in the screen direction
  • the region of the oral model that is included is transparently processed and displayed.
  • adjacent teeth adjacent to the target tooth may be transparently processed.
  • the boundary between the target tooth and the gingival region surrounding the target tooth can be better seen by transparently processing the adjacent tooth. Therefore, it is possible to easily identify and adjust the margin line of the target tooth.
  • the processor provides a position-adjustable margin line displayed on the target tooth by executing the one or more instructions, and adjusts the position of the margin line according to a user input for adjusting the position of the margin line.
  • a user input for adjusting the position of the margin line can be displayed.
  • Adjacent teeth adjacent to the target tooth may be included in the transparent treatment area. As the adjacent tooth included in the transparent tooth area is transparently processed, the margin line in the interdental region between the target tooth and the adjacent tooth is also displayed, so that the user can more easily adjust the position of the margin line. .
  • the processor may provide one or more control points to the margin line by executing the one or more instructions, and adjust the position of the margin line according to a user input for moving the position of the one or more control points.
  • the predetermined distance may include a predetermined distance from a central point of a bounding box surrounding the target tooth.
  • the predetermined distance may include a value obtained by adding a predetermined offset to an average value of horizontal and vertical lengths of planes perpendicular to the occlusion direction in the bounding box or a median value of distances from the center point of the target tooth to the center point of adjacent teeth.
  • the processor transparently processes and displays the area of the oral model included in the transparent processing area when the size of the target tooth displayed on the display is greater than a threshold value, and displays the area on the display. If the size of the displayed target tooth is less than the threshold value, the oral cavity model may be displayed without setting the transparent processing area.
  • the processor displays a predetermined icon by executing the one or more instructions, and displays the oral model without setting the transparent processing area by removing the clipping plane according to an input for selecting the icon.
  • the processor rotates and displays the oral model in response to a user input for rotating the oral model by executing the one or more instructions, and the target tooth rotates and moves according to the rotation of the oral model.
  • a new clipping plane is created at the predetermined distance in the screen direction, a new transparent processing area is created based on the new clipping plane, and the area of the oral model included in the new transparent processing area is transparently processed and displayed. .
  • the processor executes the one or more instructions so that an angle between an occlusal direction vector of the target tooth rotated in response to a user input for rotating the oral cavity model and a vector in a direction opposite to the screen normal vector is formed by the processor.
  • a part transparently processed by the transparent processing area may be removed by removing the clipping plane when it is detected whether the angle is smaller than the critical angle and when it is detected that the included angle is smaller than the critical angle.
  • the processor executes the one or more instructions so that at least a part of the target tooth is located in the transparent processing area according to the rotational movement of the target tooth in response to a user input for rotating the oral cavity model.
  • the at least part of the target tooth may be excluded from the transparent processing display.
  • a method of operating a data processing apparatus includes displaying an oral cavity model including one or more teeth, selecting a target tooth from among the one or more teeth included in the oral cavity model, and selecting a target tooth from the target tooth. and displaying a region of the oral model included in a transparent processing region located in the screen direction based on a clipping plane spaced apart from each other by a predetermined distance in the direction of the screen.
  • a margin line is set for a target tooth in the 3D oral model
  • teeth in a certain area based on the target tooth are transparently processed and displayed, so that the user can use the margin line Settings can be made more accurate and easier.
  • FIG. 1 is a reference diagram for explaining a method of setting a margin line in a three-dimensional oral model according to a related art.
  • FIG. 2 is a diagram for explaining a digital oral model processing system according to the disclosed embodiment.
  • FIG. 3 is a block diagram illustrating a data processing device 100 according to an exemplary embodiment.
  • FIG. 4 is a flowchart illustrating a method of processing a 3D mouth model in a data processing device according to an exemplary embodiment.
  • FIG 5 shows an example of a 3D oral model obtained by the data processing device 100 according to an example.
  • FIG. 6 is a view showing that a margin line is displayed on a target tooth according to an example.
  • FIG. 7 is a reference diagram for explaining a method of finding a center point of a target tooth according to an exemplary embodiment.
  • FIG. 8 is a reference diagram for explaining an example of a method of generating a clipping plane according to an exemplary embodiment.
  • FIG. 9 is a reference diagram for explaining a method of determining a predetermined distance offset from the center point 710 of a target tooth to create a clipping plane according to an embodiment.
  • FIG. 10 is a view showing that an oral model area located in a transparent processing area set based on a clipping plane is displayed transparently according to an embodiment.
  • FIG. 11 is a view showing an example in which a transparently displayed area is changed according to the positional movement of the 3D oral model according to an embodiment.
  • FIG. 12 illustrates a target tooth cut along a margin line according to an example.
  • FIG. 13 is a reference diagram for explaining a processing method when a part of a target tooth is included in a transparent processing area according to an exemplary embodiment.
  • FIG. 14 is a reference diagram for explaining that a transparent processing area is toggled between a displayed state and an undisplayed state according to a user input according to an exemplary embodiment.
  • the image may include at least one tooth, or an image representing an oral cavity including at least one tooth (hereinafter referred to as 'oral image').
  • an image may be a 2D image of an object or a 3D model or 3D image representing the object in three dimensions.
  • an image may refer to data required to represent an object in 2D or 3D, eg, raw data obtained from at least one image sensor.
  • the raw data is data acquired to generate an oral image, and when scanning the oral cavity of a patient, which is an object, using an intraoral scanner, at least one image sensor included in the oral scanner It may be acquired data (eg, 2-dimensional data).
  • an 'object' refers to teeth, gingiva, at least a portion of the oral cavity, and/or an artificial structure that can be inserted into the oral cavity (eg, an orthodontic device, an implant, an artificial tooth, an orthodontic aid tool inserted into the oral cavity, etc.) ) and the like.
  • the orthodontic device may include at least one of a bracket, an attachment, an orthodontic screw, a lingual orthodontic device, and a removable orthodontic retainer.
  • FIG. 1 is a reference diagram for explaining a method of setting a margin line in a three-dimensional oral model according to a related art.
  • a three-dimensional oral model 10 obtained by processing raw data obtained by scanning a patient's actual teeth or a plaster model created based on the patient's actual teeth may include one or more teeth.
  • One target tooth 20 for setting the margin line 40 may be selected from among one or more teeth included in the 3D oral model 10 .
  • the margin line 40 may be automatically set by a program or manually by a user's selection.
  • the adjacent tooth 30 covering a part of the target tooth 20 is transparently processed and displayed. It is preferable to allow the user to more easily check the margin line of the target tooth 20 .
  • the embodiments disclosed in the present disclosure transparently hide and display teeth that cover the target tooth based on the target tooth when displaying the 3D oral model, allowing the user to consider the degree of contact between the target tooth and adjacent teeth.
  • the margin line can be set more elaborately and easily.
  • FIG. 2 is a diagram for explaining a digital oral model processing system according to the disclosed embodiment.
  • the digital mouth model processing system may include a scanning device 200 and a data processing device 100 .
  • the scanning device 200 is a device that scans an object, and the object may include any body or object to be scanned.
  • the object may include at least a part of the patient's body including the oral cavity or face, or a tooth model.
  • the scanning device may include a handheld scanner that scans an object held in a user's hand, or a model scanner that scans an object by installing a tooth model and moving it around the installed tooth model.
  • an intraoral scanner which is a type of handheld scanner, may be a device for obtaining an image of an oral cavity including at least one tooth by being inserted into the oral cavity and scanning teeth in a non-contact manner.
  • the intraoral scanner 201 may have a form capable of being pulled in and out of the oral cavity, and scans the inside of the patient's oral cavity using at least one image sensor (eg, an optical camera, etc.).
  • the intraoral scanner 201 includes at least one of teeth, gingiva, and artificial structures (eg, orthodontic devices including brackets and wires, implants, artificial teeth, and orthodontic aids inserted into the oral cavity) that can be inserted into the oral cavity, which are objects. In order to image one surface, surface information of an object may be obtained as raw data.
  • the intraoral scanner 51 is suitable for scanning the oral cavity as it is easily drawn in and out of the oral cavity, but it is also possible to scan body parts such as the patient's face using the intraoral scanner 51.
  • the scanning device 200 may acquire image data using a wide triangulation method, a confocal method, or other methods.
  • Image data obtained by the scanning device 200 may be transmitted to the data processing device 100 connected through a wired or wireless communication network.
  • the data processing device 100 is connected to the scanning device 200 through a wired or wireless communication network, receives a two-dimensional image obtained by scanning the oral cavity from the scanning device 200, and generates, processes, and displays an oral image based on the received two-dimensional image. and/or any electronic device capable of transmitting.
  • the data processing device 100 Based on the two-dimensional image data received from the scanning device 200, the data processing device 100 generates at least one of information generated by processing the two-dimensional image data and an oral cavity image generated by processing the two-dimensional image data, and generates information and oral cavity images. Images can be displayed through the display.
  • the data processing device 100 may be a computing device such as a smart phone, a laptop computer, a desktop computer, a PDA, or a tablet PC, but is not limited thereto.
  • the data processing device 100 may exist in the form of a server (or server device) for processing oral cavity images.
  • the scan device 200 may transmit raw data obtained through scanning to the data processing device 100 as it is.
  • the data processing device 100 may generate a 3D oral cavity image representing the oral cavity in 3D based on the received raw data.
  • a '3-dimensional oral model' can be generated by modeling the internal structure of the oral cavity in three dimensions based on the received raw data
  • a '3-dimensional oral model', 'digital oral model', or ' It may also be referred to as a 'three-dimensional oral image'.
  • a model or image representing the oral cavity in two dimensions or three dimensions will be collectively referred to as a 'three-dimensional oral model'.
  • the data processing device 100 may analyze, process, display, and/or transmit the generated oral cavity image to an external device.
  • the scanning device 200 may obtain raw data through scanning, process the obtained raw data, generate an image corresponding to the oral cavity as an object, and transmit the image to the data processing device 100 .
  • the data processing device 100 may analyze, process, display, and/or transmit the received image.
  • the data processing device 100 is an electronic device capable of generating and displaying an oral cavity image 3-dimensionally representing an oral cavity including one or more teeth, which will be described in detail below.
  • the data processing device 100 may process the received raw data to generate a three-dimensional oral model.
  • the data processing device 100 may display an oral cavity model including one or more teeth.
  • the data processing device 100 may select a target tooth to set a margin line from among the one or more teeth included in the oral cavity model, and display the margin line on the selected target tooth.
  • the data processing device 100 creates a clipping plane at a predetermined distance from the target tooth in the screen direction, and based on the clipping plane, the area of the oral model included in the transparent processing area located in the screen direction is made transparent. can be processed and displayed.
  • FIG. 3 is a block diagram illustrating a data processing device 100 according to an exemplary embodiment.
  • the data processing device 100 may include a communication interface 110 , a user interface 120 , a display 130 , a memory 140 and a processor 150 .
  • the communication interface 110 may perform communication with at least one external electronic device through a wired or wireless communication network. Specifically, the communication interface 110 may communicate with the scan device 50 under the control of the processor 160 . The communication interface 110 may perform communication with an external electronic device or server connected through a wired/wireless communication network under the control of a processor.
  • the communication interface 110 may communicate with an external electronic device (eg, intraoral scanner, server, or external medical device) through a wired or wireless communication network.
  • the communication interface includes at least one short-range communication module that performs communication according to communication standards such as Bluetooth, Wi-Fi, Bluetooth Low Energy (BLE), NFC/RFID, Wi-Fi Direct, UWB, or ZIGBEE. can do.
  • the communication interface 110 may further include a remote communication module that communicates with a server for supporting remote communication according to a telecommunication standard.
  • the communication interface 110 may include a remote communication module that performs communication through a network for internet communication.
  • the communication interface may include a remote communication module that performs communication through a communication network conforming to communication standards such as 3G, 4G, and/or 5G.
  • the communication interface 110 may include at least one port for connecting to an external electronic device (eg, intraoral scanner, etc.) through a wired cable in order to communicate with the external electronic device. Accordingly, the communication interface 110 may perform communication with an external electronic device wired through at least one port.
  • an external electronic device eg, intraoral scanner, etc.
  • the user interface 120 may receive a user input for controlling the data processing device.
  • the user interface 120 includes a touch panel that detects a user's touch, a button that receives a user's push operation, and a user input including a mouse or keyboard for designating or selecting a point on a user interface screen.
  • the device may include, but is not limited thereto.
  • the user interface 120 may include a voice recognition device for voice recognition.
  • the voice recognition device may be a microphone, and the voice recognition device may receive a user's voice command or voice request. Accordingly, the processor may control an operation corresponding to the voice command or voice request to be performed.
  • the display 130 displays a screen. Specifically, the display 130 may display a predetermined screen according to the control of the processor 160 . Specifically, the display 130 may display a user interface screen including an oral cavity image generated based on data obtained by scanning the patient's oral cavity by the scanning device 50 . Alternatively, the display 130 may display a user interface screen including information related to the patient's dental treatment.
  • Memory 140 may store at least one instruction. Also, the memory 140 may store at least one instruction executed by the processor. Also, the memory may store at least one program executed by the processor 150 . Also, the memory 140 may store data received from the intraoral scanner (eg, raw data obtained through intraoral scanning). Alternatively, the memory may store an oral cavity image representing the oral cavity in three dimensions.
  • the processor 150 executes at least one instruction stored in the memory 140 to control an intended operation to be performed.
  • at least one instruction may be stored in an internal memory included in the processor 150 or in the memory 140 included in the data processing device separately from the processor.
  • the processor 150 may control at least one component included in the data processing apparatus so that an intended operation is performed by executing at least one instruction. Therefore, even if the processor performs certain operations as an example, it may mean that the processor controls at least one component included in the data processing apparatus so that the certain operations are performed.
  • the processor 150 displays an oral model including one or more teeth by executing one or more instructions stored in the memory 140, selects a target tooth from among the one or more teeth included in the oral model, and selects the selected tooth. Displaying a margin line on the target tooth, generating a clipping plane at a position spaced apart from the target tooth by a predetermined distance in the screen direction, and included in the transparent processing area located in the screen direction based on the clipping plane.
  • the oral model The area of is displayed transparently.
  • the processor 150 executes one or more instructions stored in the memory 140 to provide the margin line displayed on the target tooth in an adjustable position, and according to a user input for adjusting the position of the margin line, the margin line It can be displayed by adjusting the position of .
  • the processor 150 provides one or more control points to the margin line by executing one or more instructions stored in the memory 140, and the location of the margin line according to a user input for moving the location of the one or more control points. can be adjusted.
  • the predetermined distance may include a predetermined distance from a central point of a bounding box surrounding the target tooth.
  • the predetermined distance may include a value obtained by adding a predetermined offset to an average value of horizontal and vertical lengths of the xz plane of the bounding box or a median value of distances from the center point of the target tooth to the center point of adjacent teeth.
  • the processor 150 executes one or more instructions stored in the memory 140, so that if the size of the target tooth displayed on the display is greater than or equal to a threshold value, the area of the oral model included in the transparent processing area is processed and displayed as transparent, When the size of the target tooth displayed on the display is smaller than the threshold, the oral model may be displayed without setting the transparent processing area.
  • the processor 150 displays a predetermined icon by executing one or more instructions stored in the memory 140, and removes the transparent oral image region by removing the clipping plane according to an input for selecting the icon.
  • the processor 150 rotates and displays the oral cavity model in response to a user input for rotating the oral cavity model by executing one or more instructions stored in the memory 140, and rotates the oral cavity model according to the rotation of the oral cavity model.
  • a new clipping plane is created at the predetermined distance from the target tooth in the screen direction, a new transparent processing area is created based on the new clipping plane, and the area of the oral model included in the new transparent processing area is transparently processed and displayed can do.
  • the processor 150 executes one or more instructions stored in the memory 140 so that an angle between the occlusal direction of the target tooth rotated in response to a user input for rotating the oral cavity model and the screen direction is greater than a critical angle.
  • the clipping plane may be removed, thereby removing a portion transparently processed by the transparent processing region.
  • the processor 150 executes one or more instructions stored in the memory 140 so that at least a portion of the target teeth are in the transparent processing area according to the rotational movement of the target teeth in response to a user input for rotating the oral cavity model. If positioned, the at least part of the target tooth may be excluded from the transparent treatment display.
  • the processor 150 internally includes at least one internal processor and a memory device (eg, RAM, ROM, etc.) for storing at least one of programs, instructions, signals, and data to be processed or used by the internal processor. It can be implemented in a form that includes.
  • a memory device eg, RAM, ROM, etc.
  • the processor 150 may include a graphic processing unit for graphic processing corresponding to video.
  • the processor may be implemented as a system on chip (SoC) in which a core and a GPU are integrated.
  • SoC system on chip
  • the processor may include multiple cores over a single core.
  • a processor may include a dual core, triple core, quad core, hexa core, octa core, deca core, dodeca core, hexadecimal core, and the like.
  • the processor 150 may generate an oral cavity image based on the 2D image received from the scanning device 200 .
  • the communication interface 110 may receive data obtained from the scan device 200, for example, raw data obtained through intraoral scanning.
  • the processor 150 may generate a 3D oral image representing the oral cavity in 3D based on the raw data received through the communication interface.
  • the intraoral scanner may include at least one camera in order to restore a 3D image according to the optical triangulation method, and in a specific embodiment, an L camera corresponding to a left field of view and a right eye field of view. (Right Field of View) may include an R camera.
  • the intraoral scanner may obtain L image data corresponding to the left field of view and R image data corresponding to the right field of view from the L camera and the R camera, respectively. Subsequently, the intraoral scanner (not shown) may transmit raw data including L image data and R image data to the communication interface of the data processing device 100 .
  • the communication interface 110 transfers the received raw data to the processor, and the processor may generate an oral cavity image representing the oral cavity in three dimensions based on the received raw data.
  • the processor 150 may control a communication interface to directly receive an oral cavity image representing the oral cavity in 3D from an external server, medical device, or the like. In this case, the processor may obtain a 3D oral image without generating a 3D oral image based on the raw data.
  • the processor 150 performing operations such as 'extraction', 'acquisition', and 'generation' means that the processor 150 executes at least one instruction to directly perform the above-described operations, as well as the above-mentioned operations. It may include controlling other components to perform actions.
  • the data processing apparatus 100 may include only some of the components shown in FIG. 3 or may include more components than those shown in FIG. 3 .
  • the data processing device 100 may store and execute dedicated software linked to the intraoral scanner.
  • the dedicated software may be referred to as a dedicated program, a dedicated tool, or a dedicated application.
  • dedicated software stored in the data processing device 100 may be connected to the scanning device 50 to receive data acquired through intraoral scanning in real time.
  • 'dedicated software means a program, tool, or application that can operate in conjunction with an intraoral scanner, so that various intraoral scanners developed and sold by various manufacturers may be used in common.
  • exclusive software may be produced and distributed separately from the intraoral scanner for performing the intraoral scan.
  • the data processing device 100 may store and execute dedicated software corresponding to the intraoral scanner product.
  • the transmission software may perform one or more operations to acquire, process, store, and/or transmit the oral cavity image.
  • dedicated software may be stored in the processor.
  • dedicated software may provide a user interface for use of data obtained from the intraoral scanner.
  • the user interface screen provided by dedicated software may include an oral cavity image generated according to the disclosed embodiment.
  • FIG. 4 is a flowchart illustrating a method of processing a 3D mouth model in a data processing device according to an exemplary embodiment.
  • the method of processing the 3D oral cavity model shown in FIG. 4 may be performed through the data processing device 100 .
  • the 3D mouth model processing method shown in FIG. 4 may be a flowchart showing operations of the data processing device 100 .
  • the data processing device 100 may obtain a 3D mouth model 500 .
  • the data processing device 100 may receive data obtained by scanning the patient's oral cavity or the tooth model from the scanning device 200, process the received data, obtain a three-dimensional oral model including one or more teeth, and display the three-dimensional oral model. there is. As another example, the data processing device 100 may import a file including data obtained by scanning the oral cavity or scanning a tooth model from the outside.
  • FIG 5 shows an example of a 3D oral model obtained by the data processing device 100 according to an example.
  • the data processing device 100 may calculate coordinates of a plurality of illuminated surface points using a triangulation method.
  • coordinates of surface points may be accumulated as the amount of scan data increases.
  • a point cloud of vertices can be identified to indicate the extent of the surface.
  • Points in the point cloud may represent actual measured points on the three-dimensional surface of the object.
  • the surface structure can be approximated by forming a polygonal mesh in which adjacent vertices of the point cloud are connected by line segments.
  • Polygonal meshes may be variously determined such as triangular, quadrangular, and pentagonal meshes. Relationships between polygons of the mesh model and neighboring polygons may be used to extract features of a tooth boundary, such as curvature, minimum curvature, edge, spatial relationship, and the like.
  • the data processing device 100 may select a target tooth from among one or more teeth included in the 3D oral cavity model.
  • the data processing device 100 may select a target tooth from among one or more teeth included in the 3D oral model according to a user input for selecting the target tooth.
  • the data processing apparatus 100 may select a target tooth by identifying the boundary of the target tooth selected by the user using characteristics of the tooth boundary, eg, curvature, minimum curvature, edge, spatial relationship, and the like. For example, it is displayed that a target tooth 510 is selected from the three-dimensional mouth model 500 shown in FIG. 5 .
  • the data processing device 100 may automatically select a target tooth from among one or more teeth included in the 3D oral model according to a predetermined algorithm.
  • the data processing device 100 may display a margin line on the selected target tooth.
  • FIG. 6 is a view showing that a margin line is displayed on a target tooth according to an example.
  • the data processing device 100 may display a margin line 520 at the boundary between the target tooth 510 selected from the 3D oral cavity model 500 and the gingiva.
  • the data processing device 100 may arrange one or more control points 530 to adjust the margin line 520 .
  • the control point 530 is shown to include CP1 to CP12.
  • the data processing device 100 may adjust the margin line 520 in response to the movement of the location of the control point 530 . For example, when receiving an input for selecting the control point CP11 from the user and dragging the selected CP11 to move it to the CP11' position, the data processing device 100 sets the margin line 510 to the control point CP1,..CP10, CP11', and CP12. It can be adjusted with the new margin line.
  • the control points CP9, CP10, and CP11 arranged adjacent to the target tooth 510 and the adjacent tooth 580 do not identify the boundary between the target tooth 510 and the gingiva due to the adjacent tooth 580, allowing the user to adjust the control point. This may not be easy. Therefore, according to the embodiments disclosed in the present disclosure, the data processing device 100 transparently processes the portion of the tooth adjacent to the target tooth 510 so that the user can easily set the margin line of the target tooth 510 .
  • the data processing device 100 may create a clipping plane at a predetermined distance from the target tooth in the screen direction.
  • the clipping plane may represent a reference plane for transparently processing a partial region of the 3D oral cavity model.
  • the clipping plane may be understood as a plane parallel to the screen of the data processing device 100 and having a depth greater than that of the screen.
  • the data processing device 100 may transparently process and display a partial region of the oral cavity model included in the transparent processing region located in the screen direction based on the clipping plane.
  • FIG. 7 is a reference diagram for explaining a method of finding a center point of a target tooth according to an exemplary embodiment.
  • the data processing device 100 may generate a bounding box 700 based on the target tooth 510 .
  • the bounding box 700 has a rectangular parallelepiped shape connecting the min and max points of the target tooth 510, and the diagonal center of the rectangular parallelepiped may be determined as the central point 710 of the target tooth. There is one central point for each tooth, and this does not change even if the screen is rotated. Even when the user rotates the three-dimensional oral model displayed on the display, the screen may be rotated around the central point 710 of the target tooth 500 as a main axis.
  • FIG. 8 is a reference diagram for explaining an example of a method of generating a clipping plane according to an exemplary embodiment.
  • the data processing device 100 searches for a screen normal vector penetrating the screen in the vertical direction, and sets a predetermined distance offset from the center point 710 of the target tooth in the opposite direction of the screen normal vector, that is, in the screen direction. And, a clipping plane 800 in the vertical direction can be created at the offset position. Further, the data processing device 100 may set an area in the screen direction based on the clipping plane 800 as a transparent processing area. The data processing device 100 may transparently process and display a partial area of the 3D oral model to be positioned in the transparent processing area.
  • the position at which the clipping plane is created varies according to the positional movement of the target tooth.
  • the user may move the position of the 3D oral model including the target tooth to set the margin line of the target tooth or for other reasons.
  • the movement may include any positional movement such as rotating, vertically moving, or horizontally moving the 3D oral model. Therefore, according to the user's movement manipulation of the 3D oral model, the position of the central point of the target tooth may continue to change.
  • the clipping plane can always be created at a position with a constant distance relationship from the center point of the target tooth.
  • the transparent processing area may be set at a position at a certain distance from the center point of the target tooth. For example, the data processing device 100 sets a certain distance from the center point of the target tooth as the starting position of the adjacent teeth, so that no matter in which direction or by how much the user moves the 3D oral model, it is always transparent from the starting position of the adjacent teeth. can be displayed Accordingly, when the user sets or corrects the margin line of the target tooth, the adjacent tooth portion is displayed transparently, so that the boundary portion of the target tooth can be more easily identified.
  • the data processing device 100 may determine a predetermined distance offset from the center point 710 of the target tooth in various ways to create a clipping plane.
  • FIG. 9 is a reference diagram for explaining a method of determining a predetermined distance offset from the center point 710 of a target tooth to create a clipping plane according to an embodiment.
  • the data processing apparatus 100 may determine the predetermined distance as an average value of a horizontal length and a vertical length in a plane perpendicular to the occlusion direction in the bounding box of the target tooth.
  • the reason why the predetermined distance is determined based on the length on the plane perpendicular to the occlusion direction is to create a clipping plane as a criterion for transparently displaying adjacent teeth in order to set or modify the margin line of the target tooth. This is because the occlusion direction of the teeth and the distance in the occlusion direction (distance along the y-axis in FIG. 9 ) are mostly meaningless.
  • FIG. 9 the reason why the predetermined distance is determined based on the length on the plane perpendicular to the occlusion direction is to create a clipping plane as a criterion for transparently displaying adjacent teeth in order to set or modify the margin line of the target tooth. This is because the occlusion direction of the teeth and the distance in the occlusion direction (di
  • a plane perpendicular to the occlusion direction may be an xz plane.
  • the occlusion direction may be an x-axis direction or a z-axis direction according to embodiments.
  • the data processing device 100 may determine the average value of the horizontal length, vertical length, and height by considering the predetermined distance and the distance on the xyz axis of the bounding box of the target tooth.
  • the data processing device 100 may determine a predetermined distance based on the distance between the center point between the target tooth and the adjacent tooth. Specifically, the data processing device 100 obtains the median value of the distance between the center point 710 of the target tooth 510 and the center point 581 of the adjacent tooth 580, and determines the value obtained by adding a predetermined value (for example, +0.5 mm) to the obtained median value.
  • a predetermined value for example, +0.5 mm
  • FIG. 10 is a view showing that an oral model area located in a transparent processing area set based on a clipping plane is displayed transparently according to an embodiment.
  • the data processing device 100 may transparently process and display a partial area 1000 of the 3D oral cavity model 500 included in the transparent processing area 810 in the screen direction with respect to the clipping plane 800 .
  • the region at a predetermined distance from the target tooth 510 that is, the oral model region 1000 included in the transparent treatment region 810 is transparently processed to hide the adjacent tooth 580, so that the user can more easily locate the boundary region of the target tooth 510. can be clearly identified. Therefore, as it becomes possible for the user to more precisely move and position the control point 530 for setting the margin line 520 of the target tooth 510, the margin line 520 can be acquired more accurately.
  • FIG. 11 is a view showing an example in which a transparently displayed area is changed according to the positional movement of the 3D oral model according to an embodiment.
  • the user displays the 3D oral model at various angles by moving the 3D oral model in parallel, vertically, or rotatingly to set the margin line of the target tooth in the 3D oral model displayed on the display.
  • the clipping plane according to the disclosed embodiment is created at a position offset by a predetermined distance from the target tooth, for example, the starting position of the adjacent tooth, and processed transparently based on this position
  • the user can easily identify the boundary of the target tooth for setting the margin line.
  • the data processing device 100 may display the target tooth cut along the margin line. 12 illustrates a target tooth cut along a margin line according to an example.
  • FIG. 13 is a reference diagram for explaining a processing method when a part of a target tooth is included in a transparent processing area according to an exemplary embodiment.
  • a part of the target tooth 1300 may be included in the transparent processing area while the user rotates the 3D oral model.
  • a clipping plane may be created at a position corresponding to an offset determined by considering only the horizontal and vertical length of the target tooth 1300 on the xz plane without considering the length of the target tooth 1300 in the occlusion direction.
  • the user can rotate the three-dimensional oral model at various angles, and the occlusal direction vector of the long target tooth 1300 in the occlusal direction is less than a predetermined angle between the screen normal vector and the vector in the opposite direction (hereinafter, the offset direction vector).
  • the offset direction vector a predetermined angle between the screen normal vector and the vector in the opposite direction
  • a partial region of the target tooth 1300 located in the transparent treatment area may be processed transparently and hidden.
  • a part of the target tooth itself is not displayed, resulting in an awkward display.
  • the data processing device 100 may display the entire 3D oral model on the display by preventing the transparent processing region from being generated by not generating a clipping plane according to an embodiment.
  • the data processing device 100 may control a part of the target tooth 1300 included in the transparent processing area to be displayed as it is without being hidden. That is, if there is a target tooth 1300 in the region of the 3D oral model included in the transparent processing region, the data processing device 100 may display the target tooth 1300 as it is without processing it transparently.
  • the data processing device 100 may control a displaying state and a non-displaying state of the transparent processing area to be toggled according to a simple user input.
  • FIG. 14 is a reference diagram for explaining that a transparent processing area is toggled between a displayed state and an undisplayed state according to a user input according to an exemplary embodiment.
  • the data processing device 100 transparently processes the area around the target tooth so that the user can accurately set the margin line of the target tooth, but the user may also wish to view the non-transparent 3D oral cavity model as a whole. Accordingly, when a predetermined user input is received, the data processing device 100 may process the 3D oral model using a clipping plane so that it can be displayed without being transparently processed.
  • the data processing device 100 creates a clipping plane according to the embodiments disclosed in the present disclosure according to a user input for controlling the bounding box of the target tooth 510 of the 3D oral model to zoom-fit to the entire screen of the display.
  • the 3D oral model area located in the transparent processing area may be transparently processed and displayed. Since the user's enlargement of the target tooth to fill the entire screen by zooming in can be understood as the intention of the user to accurately set the margin line of the target tooth, the data processing device 100 transparently processes the area adjacent to the target tooth in this case. By doing so, it is possible for the user to easily set the margin line.
  • the fact that the user zooms out the 3D oral model and displays the entire 3D oral model on the screen indicates that the user wishes to view the 3D oral model as a whole rather than viewing the margin line of a specific target tooth.
  • the data processing device 100 can display all of the model without being transparently processed by the transparent processing area.
  • a criterion for determining whether or not to perform a hidden process by the transparent process area may be variously determined.
  • the data processing device 100 sets a transparent processing area according to a user input that completely displays the bounding box of the target tooth and only partially displays other teeth on the display screen as shown in FIG. Some areas of the model can be displayed transparently. In other cases, that is, according to a user input that allows the shape of one or more other teeth to be completely displayed on the display screen, including the bounding box of the target tooth, the data processing device 100 may display the 3D oral cavity model without setting a transparent processing area. there is.
  • the data processing device 100 sets a transparent processing area to transparently process and display a partial area of the 3D oral model, and displays the target tooth 510 If the size of the bounding box does not exceed the threshold value, the 3D oral cavity model may be displayed without setting a transparent processing area.
  • the data processing device 100 provides a predetermined icon to a partial area of the display, sets a transparent processing area according to a user input for selecting the predetermined icon, and processes and displays a partial area of the 3D oral model as transparent.
  • a three-dimensional oral model can be displayed without setting a transparent processing area.
  • the oral cavity image processing method may be implemented in the form of program instructions that can be executed through various computer means and recorded in a computer readable medium.
  • an embodiment of the present disclosure may be a computer-readable storage medium in which one or more programs including at least one instruction for executing a method of processing an oral cavity image are recorded.
  • the computer readable storage medium may include program instructions, data files, data structures, etc. alone or in combination.
  • examples of computer-readable storage media include magnetic media such as hard disks, floppy disks and magnetic tapes, optical media such as CD-ROMs and DVDs, floptical disks and Hardware devices configured to store and execute program instructions, such as magneto-optical media, and ROM, RAM, flash memory, and the like, may be included.
  • the device-readable storage medium may be provided in the form of a non-transitory storage medium.
  • 'non-transitory storage medium' may mean that the storage medium is a tangible device.
  • the 'non-temporary storage medium' may include a buffer in which data is temporarily stored.
  • the oral cavity image processing method according to various embodiments disclosed in this document may be included in a computer program product and provided.
  • a computer program product may be distributed in the form of a machine-readable storage medium (eg compact disc read only memory (CD-ROM)). Alternatively, it may be distributed (eg, downloaded or uploaded) online through an application store (eg, play store, etc.) or directly between two user devices (eg, smartphones).
  • the computer program product according to the disclosed embodiment may include a storage medium on which a program including at least one instruction is recorded to perform the oral cavity image processing method according to the disclosed embodiment.

Landscapes

  • Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Public Health (AREA)
  • Physics & Mathematics (AREA)
  • Epidemiology (AREA)
  • General Health & Medical Sciences (AREA)
  • Theoretical Computer Science (AREA)
  • Medical Informatics (AREA)
  • Primary Health Care (AREA)
  • General Physics & Mathematics (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • General Engineering & Computer Science (AREA)
  • Dentistry (AREA)
  • Veterinary Medicine (AREA)
  • Radiology & Medical Imaging (AREA)
  • Computer Graphics (AREA)
  • Geometry (AREA)
  • Software Systems (AREA)
  • Animal Behavior & Ethology (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Computer Hardware Design (AREA)
  • Dental Tools And Instruments Or Auxiliary Dental Instruments (AREA)
  • Biomedical Technology (AREA)
  • Data Mining & Analysis (AREA)
  • Databases & Information Systems (AREA)
  • Pathology (AREA)
  • Architecture (AREA)
  • Evolutionary Computation (AREA)

Abstract

실시예들에 따라 구강 모델을 처리하는 데이터 처리 장치 및 그 동작 방법이 개시된다. 개시된 데이터 처리 장치는, 하나 이상의 인스트럭션을 저장하는 메모리, 및 상기 하나 이상의 인스트럭션을 실행하는 프로세서를 포함하고, 상기 프로세서는 상기 하나 이상의 인스트럭션을 실행함으로써, 하나 이상의 치아를 포함하는 구강 모델을 표시하고, 상기 구강 모델에 포함된 상기 하나 이상의 치아 중에서 대상 치아를 선택하고, 상기 대상 치아로부터 스크린 방향으로 미리 정해진 거리 만큼 이격되어 위치된 클리핑 플레인을 기준으로 상기 스크린 방향에 위치한 투명 처리 영역에 포함되는 상기 구강 모델의 영역을 투명처리하여 표시한다.

Description

구강 모델을 처리하는 데이터 처리 장치 및 그 동작 방법
개시된 실시예는 구강 모델을 처리하는 데이터 처리 장치 및 그 동작 방법에 관한 것이다. 구체적으로, 개시된 실시예는 구강 모델의 일부 영역을 투명하게 처리하기 위한 구강 모델을 처리하는 데이터 처리 장치 및 그 동작 방법에 관한 것이다.
CAD/CAM을 이용하여 치아 수복물을 디자인하기 위해서는 수복이 필요한 치아(이하, 대상치아)의 마진 라인(margin line)을 잘 설정하는 것이 중요하다. 마진라인은 수복물을 수복할 때, 대상치아와 맞닿는 경계지점을 의미하는 것으로, 마진라인 설정에 따라 수복물의 경계가 결정되므로 대상 치아에서 마진라인의 설정은 중요하다.
그런데 통상적으로 삼차원 구강 모델에서 대상 치아와 인접 치아는 함께 표시되는 대상 치아의 일부는 인접 치아에 의해 가려지게 되므로 마진 라인 설정에 방해가 될 수 있다.
개시된 실시예는, 구강 모델에서 대상 치아의 마진 라인 설정을 용이하게 할 수 있는 구강 모델을 처리하는 데이터 처리 장치 및 그 동작 방법을 제공하는 것을 목적으로 한다.
개시된 실시예에 따른 데이터 처리 장치는, 하나 이상의 인스트럭션을 저장하는 메모리, 및 상기 하나 이상의 인스트럭션을 실행하는 프로세서를 포함하고, 상기 프로세서는 상기 하나 이상의 인스트럭션을 실행함으로써, 하나 이상의 치아를 포함하는 구강 모델을 표시하고, 상기 구강 모델에 포함된 상기 하나 이상의 치아 중에서 대상 치아를 선택하고, 상기 대상 치아로부터 스크린 방향으로 미리 정해진 거리 만큼 이격되어 위치된 클리핑 플레인을 기준으로 상기 스크린 방향에 위치한 투명 처리 영역에 포함되는 상기 구강 모델의 영역을 투명처리하여 표시한다. 이와 같이 대상 치아로부터 미리 정해진 거리에 투명 처리 영역을 마련함으로써 대상 치아에 인접한 인접 치아를 투명처리할 수 있다. 이와 같이 인접 치아를 투명처리함으로써 대상 치아와 대상 치아를 둘러싸는 치은 영역의 경계가 보다 잘 보여지게 할 수 있다. 따라서 대상 치아의 마진 라인 식별 및 조정을 용이하게 할 수 있다.
일 실시예에 따라 상기 프로세서는 상기 하나 이상의 인스트럭션을 실행함으로써, 상기 대상 치아에 표시된 마진 라인을 위치 조정가능하도록 제공하고, 상기 마진 라인의 위치를 조정하는 사용자 입력에 따라 상기 마진 라인의 위치를 조정하여 표시할 수 있다. 상기 대상 치아에 인접한 인접 치아가 상기 투명 처리 영역에 포함될 수 있다. 상기 투명 치아 영역에 포함된 상기 인접 치아가 투명 처리됨에 따라, 상기 대상 치아와 상기 인접 치아 사이의 치간 영역에 있는 마진 라인도 표시되게 함으로써 사용자로 하여금 마진 라인의 위치 조정을 보다 용이하게 할 수 있다.
일 실시예에 따라 상기 프로세서는 상기 하나 이상의 인스트럭션을 실행함으로써, 상기 마진 라인에 하나 이상의 콘트롤 포인트를 제공하고, 상기 하나 이상의 콘트롤 포인트의 위치를 이동시키는 사용자 입력에 따라 상기 마진 라인의 위치를 조정할 수 있다. 상기 미리 정해진 거리는 상기 대상 치아를 둘러싸는 바운딩 박스의 중심점으로부터 미리 정해진 거리를 포함할 수 있다. 상기 미리 정해진 거리는 상기 바운딩 박스에서 교합 방향에 수직인 평면의 가로 세로 길이의 평균값 또는 상기 대상 치아의 중심점으로부터 인접치의 중심점 까지의 거리의 중간값에 소정 오프셋을 더한 값을 포함할 수 있다.
일 실시예에 따라 상기 프로세서는 상기 하나 이상의 인스트럭션을 실행함으로써, 디스플레이에 표시되는 대상 치아의 크기가 임계치 이상이면 상기 투명 처리 영역에 포함되는 상기 구강 모델의 영역을 투명처리하여 표시하고, 상기 디스플레이에 표시되는 상기 대상 치아의 크기가 상기 임계치 미만이면, 상기 투명 처리 영역 설정 없이 상기 구강 모델을 표시할 수 있다.
일 실시예에 따라 상기 프로세서는 상기 하나 이상의 인스트럭션을 실행함으로써, 미리 정해진 아이콘을 표시하고, 상기 아이콘을 선택하는 입력에 따라 상기 클리핑 플레인을 제거함으로써 상기 투명 처리 영역의 설정 없이 상기 구강 모델을 표시할 수 있다.
일 실시예에 따라 상기 프로세서는 상기 하나 이상의 인스트럭션을 실행함으로써, 상기 구강 모델을 회전시키는 사용자 입력에 대응하여 상기 구강 모델을 회전시켜 표시하고, 상기 구강 모델의 회전에 따라 회전 이동된 상기 대상 치아로부터 스크린 방향으로 상기 미리 정해진 거리에 새로운 클리핑 플레인을 생성하여 상기 새로운 클리핑 플레인을 기준으로 새로운 투명 처리 영역을 생성하고, 상기 새로운 투명 처리 영역에 포함되는 상기 구강 모델의 영역을 투명처리하여 표시할 수 있다.
일 실시예에 따라 상기 프로세서는 상기 하나 이상의 인스트럭션을 실행함으로써, 상기 구강 모델을 회전시키는 사용자 입력에 대응하여 회전 이동된 상기 대상 치아의 교합 방향 벡터가 스크린 노말 벡터와 반대 방향의 벡터와 이루는 사잇각이 임계 각도 보다 작은 지 검출하고, 상기 사잇각이 상기 임계 각도 보다 작은 것을 검출함에 따라, 상기 클리핑 플레인을 제거함으로써 상기 투명 처리 영역에 의해 투명 처리되는 부분을 제거할 수 있다.
일 실시예에 따라 상기 프로세서는 상기 하나 이상의 인스트럭션을 실행함으로써, 상기 구강 모델을 회전시키는 사용자 입력에 대응하여 상기 대상 치아의 회전 이동에 따라 상기 대상 치아의 적어도 일부가 상기 투명 처리 영역에 위치되는 경우, 상기 대상 치아의 상기 적어도 일부는 투명 처리 표시에서 제외할 수 있다.
일 실시예에 따라 데이터 처리 장치의 동작 방법은, 하나 이상의 치아를 포함하는 구강 모델을 표시하는 동작, 상기 구강 모델에 포함된 상기 하나 이상의 치아 중에서 대상 치아를 선택하는 동작, 및 상기 대상 치아로부터 스크린 방향으로 미리 정해진 거리 만큼 이격되어 위치된 클리핑 플레인을 기준으로 상기 스크린 방향에 위치한 투명 처리 영역에 포함되는 상기 구강 모델의 영역을 투명처리하여 표시하는 동작을 포함한다.
일 실시예에 따라 구강 모델을 처리하는 방법을 수행하는 하나 이상의 인스트럭션을 포함하는 컴퓨터 판독가능 기록 매체에 있어서, 상기 구강 모델을 처리하는 방법은, 하나 이상의 치아를 포함하는 구강 모델을 표시하는 동작, 상기 구강 모델에 포함된 상기 하나 이상의 치아 중에서 대상 치아를 선택하는 동작, 및 상기 대상 치아로부터 스크린 방향으로 미리 정해진 거리 만큼 이격되어 위치된 클리핑 플레인을 기준으로 상기 스크린 방향에 위치한 투명 처리 영역에 포함되는 상기 구강 모델의 영역을 투명처리하여 표시하는 동작을 포함한다.
개시된 실시예에 따른 삼차원 구강 모델을 처리하는 방법 및 장치에 따르면, 삼차원 구강 모델에서 대상 치아에 마진 라인을 설정할 때, 대상 치아 기준으로 일정 영역에 있는 치아들을 투명 처리하여 표시해줌으로써 사용자로 하여금 마진 라인 설정을 보다 정확하고 용이하게 할 수 있다.
본 발명은, 다음의 자세한 설명과 그에 수반되는 도면들의 결합으로 쉽게 이해될 수 있으며, 참조 번호(reference numerals)들은 구조적 구성요소(structural elements)를 의미한다.
도 1은 관련 기술에 따라 삼차원 구강 모델에서 마진 라인을 설정하는 방법을 설명하기 위한 참고도이다.
도 2는 개시된 실시예에 따른 디지털 구강 모델 처리 시스템을 설명하기 위한 도면이다.
도 3은 개시된 실시예에 따른 데이터 처리 장치 100를 나타내는 일 블록도이다.
도 4는 개시된 실시예에 따라 데이터 처리 장치에서 삼차원 구강 모델을 처리하는 방법을 나타내는 일 플로우차트이다.
도 5는 일 예에 따라 데이터 처리 장치 100에 의해 획득된 삼차원 구강 모델의 일 예를 나타낸다.
도 6은 일 예에 따라 대상 치아에 마진 라인을 표시한 것을 나타내는 도면이다.
도 7은 일 실시예에 따라 대상 치아의 중심점을 찾는 방법을 설명하기 위한 참고도이다.
도 8은 일 실시예에 따라 클리핑 플레인을 생성하는 방법의 일 예를 설명하기 위한 참고도이다.
도 9는 일 실시예에 따라 클리핑 플레인을 생성하기 위해 대상 치아의 중심점 710에서 오프셋하는 소정 거리를 결정하는 방법을 설명하기 위한 참고도이다.
도 10은 일 실시예에 따라 클리핑 플레인을 기준으로 설정된 투명 처리 영역에 위치된 구강 모델 영역이 투명하게 표시된 것을 나타내는 도면이다.
도 11은 일 실시예에 따라 삼차원 구강 모델의 위치 이동에 따라 투명 처리 표시되는 영역이 달라지는 예를 보여주는 도면이다.
도 12는 일 예에 따라 마진 라인을 따라 컷팅된 대상 치아를 나타낸다.
도 13은 일 실시예에 따라 대상 치아의 일부가 투명 처리 영역에 포함되게 된 경우의 처리 방법을 설명하기 위한 참고도이다.
도 14는 일 실시예에 따라 투명 처리 영역이 표시되는 상태와 표시되지 않는 상태를 사용자 입력에 따라 토글되는 것을 설명하기 위한 참고도이다.
본 명세서는 본 발명의 권리범위를 명확히 하고, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자가 본 발명을 실시할 수 있도록, 본 발명의 원리를 설명하고, 실시예들을 개시한다. 개시된 실시예들은 다양한 형태로 구현될 수 있다.
명세서 전체에 걸쳐 동일 참조 부호는 동일 구성요소를 지칭한다. 본 명세서가 실시예들의 모든 요소들을 설명하는 것은 아니며, 본 발명이 속하는 기술분야에서 일반적인 내용 또는 실시예들 간에 중복되는 내용은 생략한다. 명세서에서 사용되는 '부'(part, portion)라는 용어는 소프트웨어 또는 하드웨어로 구현될 수 있으며, 실시예들에 따라 복수의 '부'가 하나의 요소(unit, element)로 구현되거나, 하나의 '부'가 복수의 요소들을 포함하는 것도 가능하다. 이하 첨부된 도면들을 참고하여 본 발명의 작용 원리 및 실시예들에 대해 설명한다.
본 명세서에서 이미지는 적어도 하나의 치아, 또는 적어도 하나의 치아를 포함하는 구강을 나타내는 이미지(이하, '구강 이미지')를 포함할 수 있다.
또한, 본 명세서에서 이미지는 대상체에 대한 2차원 이미지 또는 대상체를 입체적으로 나타내는 3차원 모델 또는 3차원 이미지가 될 수 있다. 또한, 본 명세서에서 이미지는 대상체를 2차원 또는 3차원적으로 표현하기 위해서 필요한 데이터, 예를 들어, 적어도 하나의 이미지 센서로부터 획득된 로우 데이터(raw data) 등을 의미할 수 있다. 구체적으로, 로우 데이터는 구강 이미지를 생성하기 위해서 획득되는 데이터로, 구강 스캐너(intraoral scanner)를 이용하여 대상체인 환자의 구강 내를 스캔(scan)할 때 구강 스캐너에 포함되는 적어도 하나의 이미지 센서에서 획득되는 데이터(예를 들어, 2차원 데이터)가 될 수 있다.
본 명세서에서 '대상체(object)'는 치아, 치은, 구강의 적어도 일부 영역, 및/또는 구강 내에 삽입 가능한 인공 구조물(예를 들어, 교정 장치, 임플란트, 인공 치아, 구강 내 삽입되는 교정 보조 도구 등) 등을 포함할 수 있다. 여기서, 교정 장치는 브라켓, 어태치먼트(attachment), 교정용 나사, 설측 교정 장치, 및 가철식 교정 유지 장치 중 적어도 하나를 포함할 수 있다.
이하에서는 도면을 참조하여 실시 예들을 상세히 설명한다.
도 1은 관련 기술에 따라 삼차원 구강 모델에서 마진 라인을 설정하는 방법을 설명하기 위한 참고도이다.
도 1을 참조하면, 환자의 실제 치아나 또는 환자의 실제 치아를 기반으로 생성된 석고 모형을 스캔함으로써 얻어진 로우 데이터를 가공하여 획득한 삼차원 구강 모델 10은 하나 이상의 치아를 포함할 수 있다.
삼차원 구강 모델 10에 포함된 하나 이상의 치아들 중에서 마진 라인 40을 설정할 하나의 대상 치아 20를 선택할 수 있다. 예를 들어 삼차원 구강 모델 10에서 대상 치아 20가 선택되면 마진 라인 40은 프로그램에 의해 자동으로 또는 사용자의 선택에 의해 수동으로 설정될 수 있다. 이때 마진 라인 40이 자동으로 설정되든지 수동으로 설정되든지 어느 경우에서나, 마진 라인 40은 대상 치아 20에 인접한 인접 치아 30로 인해 인접 치아 30에 의해 가려진 부분 60에서는 마진 라인 40이 정교하게 설정되기 어렵다. 즉, 치아와 치아 사이의 부분 즉, 대상 치아 20 기준으로 보면 인접 치아 30에 의해 가려진 부분에 대해서는 사용자가 마진 라인을 위한 콘트롤 포인트 50를 좀더 정교하게 수정함으로써 정확한 마진 라인을 획득할 수 있다. 이때 인접 치아 30에 의해 가려진 부분에 대해서 사용자가 좀더 용이하게 마진 라인을 위한 콘트롤 포인트 50를 제어하는 작업을 할 수 있도록 하기 위해서는 대상 치아 20의 일부를 가리고 있는 인접 치아 30을 투명하게 처리하여 표시함으로써 좀더 사용자로 하여금 대상 치아 20의 마진 라인 확인을 용이하게 하는 것이 바람직하다.
따라서 본 개시서에 개시된 실시예들은 삼차원 구강 모델을 표시할 때 대상 치아를 기준으로 대상 치아를 가리는 치아들을 투명하게 숨김 (hide) 처리하여 표시함으로써 사용자로 하여금 대상 치아와 인접 치아의 컨택 정도를 고려하여 마진 라인을 보다 정교하고 용이하게 설정하게 할 수 있다.
도 2는 개시된 실시예에 따른 디지털 구강 모델 처리 시스템을 설명하기 위한 도면이다.
도 2를 참조하면, 디지털 구강 모델 처리 시스템은 스캔 장치 200와 데이터 처리 장치 100를 포함할 수 있다.
스캔 장치 200는 대상체를 스캔하는 장치로서, 대상체는 스캔의 대상이 되는 물체나 신체 어느 것이라도 포함할 수 있다. 예를 들어, 대상체는 구강이나 얼굴을 포함하는 환자의 신체의 적어도 일부, 또는 치아 모형을 포함할 수 있다. 스캔 장치는, 사용자가 손에 쥐고 대상체를 스캔하는 핸드헬드 스캐너 또는 치아 모형을 설치하고 설치된 치아 모형 주위를 움직이면서 스캔하는 모델 스캐너 등을 포함할 수 있다.
예를 들어, 핸드헬드 스캐너의 일종인 구강 스캐너는 구강 내에 삽입되어 비 접촉식으로 치아를 스캐닝함으로써, 적어도 하나의 치아를 포함하는 구강에 대한 이미지를 획득하기 위한 장치가 될 수 있다. 또한, 구강 스캐너 201는 구강 내에 인입 및 인출이 가능한 형태를 가질 수 있으며, 적어도 하나의 이미지 센서(예를 들어, 광학 카메라 등)를 이용하여 환자의 구강 내부를 스캔 한다. 구강 스캐너 201는 대상체인 구강 내부의 치아, 치은 및 구강 내에 삽입 가능한 인공 구조물(예를 들어, 브라켓 및 와이어 등을 포함하는 교정 장치, 임플란트, 인공 치아, 구강 내 삽입되는 교정 보조 도구 등) 중 적어도 하나의 표면을 이미징하기 위해서, 대상체에 대한 표면 정보를 로우 데이터(raw data)로 획득할 수 있다. 구강 스캐너 51은 구강 내에 인입 및 인출이 용이한 형태로 되어 구강내를 스캔하기에 적합하지만, 구강 스캐너 51를 이용하여 환자의 얼굴 등의 신체 부위도 스캔 가능함은 물론이다.
스캔 장치 200는 광삼각 방식, 공초점 방식, 또는 그외 다른 방식 등에 의해 이미지 데이터를 획득할 수 있다.
스캔 장치 200에서 획득된 이미지 데이터는 유선 또는 무선 통신 네트워크를 통하여 연결되는 데이터 처리 장치 100로 전송될 수 있다.
데이터 처리 장치 100는 스캔 장치 200와 유선 또는 무선 통신 네트워크를 통하여 연결되며, 스캔 장치 200로부터 구강을 스캔하여 획득된 이차원 이미지를 수신하고, 수신된 이차원 이미지에 근거하여 구강 이미지를 생성, 처리, 디스플레이 및/또는 전송할 수 있는 모든 전자 장치가 될 수 있다.
데이터 처리 장치 100는 스캔 장치 200에서 수신된 이차원 이미지 데이터에 근거하여, 이차원 이미지 데이터를 처리하여 생성한 정보 및 이차원 이미지 데이터를 처리하여 생성한 구강 이미지 중 적어도 하나를 생성하고, 생성된 정보 및 구강 이미지를 디스플레이를 통하여 디스플레이 할 수 있다.
데이터 처리 장치 100는 스마트 폰(smart phone), 랩탑 컴퓨터, 데스크탑 컴퓨터, PDA, 태블릿 PC 등의 컴퓨팅 장치가 될 수 있으며, 이에 한정되지 않는다.
또한, 데이터 처리 장치 100는 구강 이미지를 처리하기 위한 서버(또는 서버 장치) 등의 형태로 존재할 수도 있을 것이다.
또한, 스캔 장치 200는 스캔을 통하여 획득된 로우 데이터(raw data)를 그대로 데이터 처리 장치 100로 전송할 수 있다. 이 경우, 데이터 처리 장치 100는 수신된 로우 데이터에 근거하여 구강을 3차원적으로 나타내는 3차원 구강 이미지를 생성할 수 있다. 또한, '3차원 구강 이미지'는 수신된 로우 데이터에 근거하여 구강의 내부 구조를 3차원적으로 모델링(modeling)하여 생성될 수 있으므로, '3차원 구강 모델', '디지털 구강 모델', 또는 '3차원 구강 이미지'로 호칭될 수도 있다. 이하에서는, 구강을 2차원 또는 3차원적으로 나타내는 모델 또는 이미지를 통칭하여, '삼차원 구강 모델'라 칭하도록 한다.
또한, 데이터 처리 장치 100는 생성된 구강 이미지를 분석, 처리, 디스플레이 및/또는 외부 장치로 전송할 수 있을 것이다.
또 다른 예로, 스캔 장치 200가 스캔을 통하여 로우 데이터(raw data)를 획득하고, 획득된 로우 데이터를 가공하여 대상체인 구강에 대응되는 이미지를 생성하여 데이터 처리 장치 100로 전송할 수 있다. 이 경우, 데이터 처리 장치 100는 수신된 이미지를 분석, 처리, 디스플레이 및/또는 전송할 수 있을 것이다.
개시된 실시예에서, 데이터 처리 장치 100는 하나 이상의 치아를 포함하는 구강을 3차원적으로 나타내는 구강 이미지를 생성 및 디스플레이할 수 있는 전자 장치로, 이하에서 상세히 설명한다.
일 실시예에 따라 데이터 처리 장치 100는 스캔 장치 200로부터 구강을 스캔한 로우 데이터를 수신하면, 수신된 로우 데이터를 가공하여 삼차원 구강 모델을 생성할 수 있다.
일 실시예에 따라 데이터 처리 장치 100는 하나 이상의 치아를 포함하는 구강 모델을 표시할 수 있다.
일 실시예에 따라 데이터 처리 장치 100는 구강 모델에 포함된 상기 하나 이상의 치아 중에서 마진 라인을 설정할 대상 치아를 선택하고, 선택된 대상 치아에 마진 라인을 표시할 수 있다.
일 실시예에 따라 데이터 처리 장치 100는 대상 치아로부터 스크린 방향으로 미리 정해진 거리에 클리핑 플레인을 생성하고, 상기 클리핑 플레인을 기준으로 상기 스크린 방향에 위치한 투명 처리 영역에 포함되는 상기 구강 모델의 영역을 투명처리하여 표시할 수 있다.
도 3은 개시된 실시예에 따른 데이터 처리 장치 100를 나타내는 일 블록도이다.
도 3을 참조하면, 데이터 처리 장치 100는 통신 인터페이스 110, 사용자 인터페이스 120, 디스플레이 130, 메모리 140 및 프로세서 150를 포함할 수 있다.
통신 인터페이스 110는 적어도 하나의 외부 전자 장치와 유선 또는 무선 통신 네트워크를 통하여 통신을 수행할 수 있다. 구체적으로, 통신 인터페이스 110는 프로세서 160의 제어에 따라서 스캔 장치 50와 통신을 수행할 수 있다. 통신 인터페이스 110는 프로세서의 제어에 따라서 유무선의 통신 네트워크를 통하여 연결되는 외부의 전자 장치 또는 서버 등과 통신을 수행할 수 있다.
통신 인터페이스 110는 유무선의 통신 네트워크를 통하여 외부의 전자 장치 (예를 들어, 구강 스캐너, 서버, 또는 외부의 의료 장치 등)와 통신할 수 있다. 구체적으로, 통신 인터페이스는 블루투스, 와이파이, BLE(Bluetooth Low Energy), NFC/RFID, 와이파이 다이렉트(Wifi Direct), UWB, 또는 ZIGBEE 등의 통신 규격에 따른 통신을 수행하는 적어도 하나의 근거리 통신 모듈을 포함할 수 있다.
또한, 통신 인터페이스 110는 원거리 통신 규격에 따라서 원거리 통신을 지원하기 위한 서버와 통신을 수행하는 원거리 통신 모듈을 더 포함할 수 있다. 구체적으로, 통신 인터페이스 110는 인터넷 통신을 위한 네트워크를 통하여 통신을 수행하는 원거리 통신 모듈을 포함할 수 있다. 또한, 통신 인터페이스는 3G, 4G, 및/또는 5G 등의 통신 규격에 따르는 통신 네트워크를 통하여 통신을 수행하는 원거리 통신 모듈을 포함할 수 있다.
또한, 통신 인터페이스 110는 외부 전자 장치(예를 들어, 구강 스캐너 등)와 유선으로 통신하기 위해서, 외부 전자 장치와 유선 케이블로 연결되기 위한 적어도 하나의 포트를 포함할 수 있다. 그에 따라서, 통신 인터페이스 110는 적어도 하나의 포트를 통하여 유선 연결된 외부 전자 장치와 통신을 수행할 수 있다.
사용자 인터페이스 120는 데이터 처리 장치를 제어하기 위한 사용자 입력을 수신할 수 있다. 사용자 인터페이스 120는 사용자의 터치를 감지하는 터치 패널, 사용자의 푸시 조작을 수신하는 버튼, 사용자 인터페이스 화면 상의 일 지점을 지정 또는 선택하기 위한 마우스(mouse) 또는 키보드(key board) 등을 포함하는 사용자 입력 디바이스를 포함할 수 있으나 이에 제한되지 않는다.
또한, 사용자 인터페이스 120는 음성 인식을 위한 음성 인식 장치를 포함할 수 있다. 예를 들어, 음성 인식 장치는 마이크가 될 수 있으며, 음성 인식 장치는 사용자의 음성 명령 또는 음성 요청을 수신할 수 있다. 그에 따라서, 프로세서는 음성 명령 또는 음성 요청에 대응되는 동작이 수행되도록 제어할 수 있다.
디스플레이 130는 화면을 디스플레이 한다. 구체적으로, 디스플레이 130는 프로세서 160의 제어에 따라서 소정 화면을 디스플레이 할 수 있다. 구체적으로, 디스플레이 130는 스캔 장치 50에서 환자의 구강을 스캔하여 획득한 데이터에 근거하여 생성된 구강 이미지를 포함하는 사용자 인터페이스 화면을 디스플레이 할 수 있다. 또는, 디스플레이 130는 환자의 치과 치료와 관련되는 정보를 포함하는 사용자 인터페이스 화면을 디스플레이 할 수 있다.
메모리 140는 적어도 하나의 인스트럭션을 저장할 수 있다. 또한, 메모리 140는 프로세서가 실행하는 적어도 하나의 인스트럭션을 저장하고 있을 수 있다. 또한, 메모리는 프로세서 150가 실행하는 적어도 하나의 프로그램을 저장하고 있을 수 있다. 또한, 메모리 140는 구강 스캐너로부터 수신되는 데이터(예를 들어, 구강 스캔을 통하여 획득된 로우 데이터 등)를 저장할 수 있다. 또는, 메모리는 구강을 3차원적으로 나타내는 구강 이미지를 저장할 수 있다.
프로세서 150는 메모리 140에 저장된 적어도 하나의 인스트럭션을 수행하여, 의도하는 동작이 수행되도록 제어한다. 여기서, 적어도 하나의 인스트럭션은 프로세서 150내에 포함되는 내부 메모리 또는 프로세서와 별도로 데이터 처리 장치 내에 포함되는 메모리 140에 저장되어 있을 수 있다.
구체적으로, 프로세서 150는 적어도 하나의 인스트럭션을 수행하여, 의도하는 동작이 수행되도록 데이터 처리 장치 내부에 포함되는 적어도 하나의 구성들을 제어할 수 있다. 따라서, 프로세서가 소정 동작들을 수행하는 경우를 예로 들어 설명하더라도, 프로세서가 소정 동작들이 수행되도록 데이터 처리 장치 내부에 포함하는 적어도 하나의 구성들을 제어하는 것을 의미할 수 있다.
일 실시예에 따라 프로세서 150는 메모리 140에 저장된 하나 이상의 인스트럭션을 실행함으로써, 하나 이상의 치아를 포함하는 구강 모델을 표시하고, 상기 구강 모델에 포함된 상기 하나 이상의 치아 중에서 대상 치아를 선택하고, 상기 선택된 대상 치아에 마진 라인을 표시하고, 상기 대상 치아로부터 스크린 방향으로 미리 정해진 거리 만큼 이격된 위치에 클리핑 플레인을 생성하고, 상기 클리핑 플레인을 기준으로 상기 스크린 방향에 위치한 투명 처리 영역에 포함되는 상기 구강 모델의 영역을 투명처리하여 표시한다.
일 실시예에 따라 프로세서 150는 메모리 140에 저장된 하나 이상의 인스트럭션을 실행함으로써, 상기 대상 치아에 표시된 상기 마진 라인을 위치 조정가능하도록 제공하고, 상기 마진 라인의 위치를 조정하는 사용자 입력에 따라 상기 마진 라인의 위치를 조정하여 표시할 수 있다.
일 실시예에 따라 프로세서 150는 메모리 140에 저장된 하나 이상의 인스트럭션을 실행함으로써, 상기 마진 라인에 하나 이상의 콘트롤 포인트를 제공하고, 상기 하나 이상의 콘트롤 포인트의 위치를 이동시키는 사용자 입력에 따라 상기 마진 라인의 위치를 조정할 수 있다. 상기 미리 정해진 거리는 상기 대상 치아를 둘러싸는 바운딩 박스의 중심점으로부터 미리 정해진 거리를 포함할 수 있다. 상기 미리 정해진 거리는 상기 바운딩 박스의 xz 평면의 가로 세로 길이의 평균값 또는 상기 대상 치아의 중심점으로부터 인접치의 중심점 까지의 거리의 중간값에 소정 오프셋을 더한 값을 포함할 수 있다.
일 실시예에 따라 프로세서 150는 메모리 140에 저장된 하나 이상의 인스트럭션을 실행함으로써, 디스플레이에 표시되는 대상 치아의 크기가 임계치 이상이면 상기 투명 처리 영역에 포함되는 상기 구강 모델의 영역을 투명처리하여 표시하고, 상기 디스플레이에 표시되는 상기 대상 치아의 크기가 상기 임계치 미만이면, 상기 투명 처리 영역 설정 없이 상기 구강 모델을 표시할 수 있다.
일 실시예에 따라 프로세서 150는 메모리 140에 저장된 하나 이상의 인스트럭션을 실행함으로써, 미리 정해진 아이콘을 표시하고, 상기 아이콘을 선택하는 입력에 따라 상기 클리핑 플레인을 제거함으로써 상기 투명처리된 구강 이미지 영역을 제거할 수 있다.
일 실시예에 따라 프로세서 150는 메모리 140에 저장된 하나 이상의 인스트럭션을 실행함으로써, 상기 구강 모델을 회전시키는 사용자 입력에 대응하여 상기 구강 모델을 회전시켜 표시하고, 상기 구강 모델의 회전에 따라 회전 이동된 상기 대상 치아로부터 스크린 방향으로 상기 미리 정해진 거리에 새로운 클리핑 플레인을 생성하여 상기 새로운 클리핑 플레인을 기준으로 새로운 투명 처리 영역을 생성하고, 상기 새로운 투명 처리 영역에 포함되는 상기 구강 모델의 영역을 투명처리하여 표시할 수 있다.
일 실시예에 따라 프로세서 150는 메모리 140에 저장된 하나 이상의 인스트럭션을 실행함으로써, 상기 구강 모델을 회전시키는 사용자 입력에 대응하여 회전 이동된 상기 대상 치아의 교합 방향과 상기 스크린 방향 사이의 사잇각이 임계 각도 보다 작은 지 검출하고, 상기 사잇각이 상기 임계 각도 보다 작은 것을 검출함에 따라, 상기 클리핑 플레인을 제거함으로써 상기 투명 처리 영역에 의해 투명 처리되는 부분을 제거할 수 있다.
일 실시예에 따라 프로세서 150는 메모리 140에 저장된 하나 이상의 인스트럭션을 실행함으로써, 상기 구강 모델을 회전시키는 사용자 입력에 대응하여 상기 대상 치아의 회전 이동에 따라 상기 대상 치아의 적어도 일부가 상기 투명 처리 영역에 위치되는 경우, 상기 대상 치아의 상기 적어도 일부는 투명 처리 표시에서 제외할 수 있다.
일 예에 따라 프로세서 150는, 내부적으로 적어도 하나의 내부 프로세서 및 내부 프로세서에서 처리 또는 이용될 프로그램, 인스트럭션, 신호, 및 데이터 중 적어도 하나 저장하기 위한 메모리 소자(예를 들어, RAM, ROM 등)을 포함하는 형태로 구현될 수 있다.
또한, 프로세서 150는 비디오에 대응되는 그래픽 처리를 위한 그래픽 프로세서(Graphic Processing Unit)를 포함할 수 있다. 또한, 프로세서는 코어(core)와 GPU를 통합한 SoC(System On Chip)로 구현될 수 있다. 또한, 프로세서는 싱글 코어 이상의 멀티 코어를 포함할 수 있다. 예를 들어, 프로세서는 듀얼 코어, 트리플 코어, 쿼드 코어, 헥사 코어, 옥타 코어, 데카 코어, 도데카 코어, 헥사 다시 벌 코어 등을 포함할 수 있다.
개시된 실시예에서, 프로세서 150는 스캔 장치 200로부터 수신되는 이차원 이미지에 근거하여 구강 이미지를 생성할 수 있다.
구체적으로, 프로세서 150의 제어에 따라서 통신 인터페이스 110는 스캔 장치 200에서 획득된 데이터, 예를 들어 구강 스캔을 통하여 획득된 로우 데이터(raw data)를 수신할 수 있다. 그리고, 프로세서 150는 통신 인터페이스에서 수신된 로우 데이터에 근거하여 구강을 3차원적으로 나타내는 3차원 구강 이미지를 생성할 수 있다. 예를 들어, 구강 스캐너는 광 삼각 방식에 따라서 3차원 이미지를 복원하기 위해서, 적어도 하나 이상의 카메라를 포함할 수 있고 구체적 일 실시예로 좌안 시야(left Field of View)에 대응되는 L 카메라 및 우안 시야(Right Field of View)에 대응되는 R 카메라를 포함할 수 있다. 그리고, 구강 스캐너는 L 카메라 및 R 카메라 각각에서 좌안 시야(left Field of View)에 대응되는 L 이미지 데이터 및 우안 시야(Right Field of View)에 대응되는 R 이미지 데이터를 획득할 수 있다. 계속하여, 구강 스캐너(미도시)는 L 이미지 데이터 및 R 이미지 데이터를 포함하는 로우 데이터를 데이터 처리 장치 100의 통신 인터페이스로 전송할 수 있다.
그러면, 통신 인터페이스 110는 수신되는 로우 데이터를 프로세서로 전달하고, 프로세서는 전달받은 로우 데이터에 근거하여, 구강을 3차원적으로 나타내는 구강 이미지를 생성할 수 있다.
또한, 프로세서 150는 통신 인터페이스를 제어하여, 외부의 서버, 의료 장치 등으로부터 구강을 3차원적으로 나타내는 구강 이미지를 직접 수신할 수 있을 것이다. 이 경우, 프로세서는 로우 데이터에 근거한 3차원 구강 이미지를 생성하지 않고, 3차원 구강 이미지를 획득할 수 있다.
개시된 실시예에 따라서, 프로세서 150가 '추출', '획득', '생성' 등의 동작을 수행한다는 것은, 프로세서 150에서 적어도 하나의 인스트럭션을 실행하여 전술한 동작들을 직접 수행하는 경우 뿐만 아니라, 전술한 동작들이 수행되도록 다른 구성 요소들을 제어하는 것을 포함할 수 있다.
본 개시서에 개시된 실시예들을 구현하기 위해서 데이터 처리 장치 100는 도 3에 도시된 구성요소들의 일부만을 포함할 수도 있고, 도 3에 도시된 구성요소 외에 더 많은 구성요소를 포함할 수도 있다.
또한, 데이터 처리 장치 100는 구강 스캐너에 연동되는 전용 소프트웨어를 저장 및 실행할 수 있다. 여기서, 전용 소프트웨어는 전용 프로그램, 전용 툴(tool), 또는 전용 어플리케이션으로 호칭될 수 있다. 데이터 처리 장치 100가 스캔 장치 50와 상호 연동되어 동작하는 경우, 데이터 처리 장치 100에 저장되는 전용 소프트웨어는 스캔 장치 50와 연결되어 구강 스캔을 통하여 획득되는 데이터들을 실시간을 수신할 수 있다. 예를 들어, 메디트의 구강 스캐너 제품에서 구강 스캔을 통하여 획득된 데이터를 처리하기 위한 전용 소프트웨어가 존재한다. 구체적으로, 메디트에서는 구강 스캐너에서 획득된 데이터를 처리, 관리, 이용, 및/또는 전송하기 위한 전용 소프트웨어를 제작하여 배포하고 있다. 여기서, '전용 소프트웨어'는 구강 스캐너와 연동되어 동작 가능한 프로그램, 툴, 또는 어플리케이션을 의미하는 것이므로 다양한 제작자에 의해서 개발 및 판매되는 다양한 구강 스캐너들이 공용으로 이용할 수도 있을 것이다. 또한, 전술한 전용 소프트웨어는 구강 스캔을 수행하는 구강 스캐너와 별도로 제작 및 배포될 수 있다.
데이터 처리 장치 100는 구강 스캐너 제품에 대응되는 전용 소프트웨어를 저장 및 실행할 수 있다. 전송 소프트웨어는 구강 이미지를 획득, 처리, 저장, 및/또는 전송하기 위한 적어도 하나의 동작들을 수행할 수 있다. 여기서, 전용 소프트웨어는 프로세서에 저장될 수 있다. 또한, 전용 소프트웨어는 구강 스캐너에서 획득된 데이터의 이용을 위한 사용자 인터페이스를 제공할 수 있다. 여기서, 전용 소프트웨어에서 제공되는 사용자 인터페이스 화면은 개시된 실시예에 따라서 생성되는 구강 이미지를 포함할 수 있다.
도 4는 개시된 실시예에 따라 데이터 처리 장치에서 삼차원 구강 모델을 처리하는 방법을 나타내는 일 플로우차트이다. 도 4에 도시된 삼차원 구강 모델 처리 방법은 데이터 처리 장치 100를 통하여 수행될 수 있다. 따라서, 도 4에 도시된 삼차원 구강 모델 처리 방법은 데이터 처리 장치 100의 동작들을 나타내는 흐름도가 될 수 있다.
도 4를 참조하면, 동작 410에서, 데이터 처리 장치 100는 삼차원 구강 모델 500을 획득할 수 있다.
데이터 처리 장치 100는 스캔 장치 200로부터 환자의 구강 내를 스캔함으로써 또는 치아 모형을 스캔함으로써 얻어진 데이터를 수신하고, 수신된 데이터를 처리함으로써 하나 이상의 치아를 포함하는 삼차원 구강 모델을 획득하고 이를 표시할 수 있다. 다른 예로 데이터 처리 장치 100는 구강 내를 스캔함으로써 또는 치아 모형을 스캔함으로써 얻어진 데이터를 포함하는 파일을 외부로부터 임포트할 수도 있다.
도 5는 일 예에 따라 데이터 처리 장치 100에 의해 획득된 삼차원 구강 모델의 일 예를 나타낸다.
예를 들어, 구강 스캐너를 이용하여 이차원 데이터가 획득되었을 때 데이터 처리 장치 100는 삼각 측량 방법을 사용하여 복수의 조명된 표면 포인트의 좌표를 계산할 수 있다. 구강 스캐너를 이용하여 대상체의 표면을 이동하면서 스캔함으로써 스캔 데이터의 양이 증가함에 따라 표면 포인트의 좌표들이 누적될 수 있다. 이러한 이미지 획득의 결과로서, 정점들의 포인트 클라우드가 식별되어 표면의 범위를 나타낼 수 있다. 포인트 클라우드 내의 포인트는 객체의 3 차원 표면 상의 실제 측정된 포인트를 나타낼 수 있다. 표면 구조는 포인트 클라우드의 인접한 정점 (vertice)이 라인 세그먼트에 의해 연결된 다각형 메쉬를 형성함으로써 근사화될 수 있다. 다각형 메쉬는 삼각형, 사각형, 오각형 메쉬 등 다양하게 결정될 수 있다. 이와 같은 메쉬 모델의 다각형 및 이웃하는 다각형 간의 관계는 치아 경계의 특징, 예를 들어, 곡률, 최소 곡률, 에지, 공간 관계 등을 추출하는 데 사용될 수 있다.
다시 도 4로 돌아가서, 동작 420에서, 데이터 처리 장치 100는 삼차원 구강 모델에 포함된 하나 이상의 치아 중에서 대상 치아를 선택할 수 있다.
일 실시예에 따라 데이터 처리 장치 100는 대상 치아를 선택하는 사용자 입력에 따라서 삼차원 구강 모델에 포함된 하나 이상의 치아 중에서 대상 치아를 선택할 수 있다. 데이터 처리 장치 100는 치아 경계의 특징, 예를 들어, 곡률, 최소 곡률, 에지, 공간 관계 등을 이용하여 사용자에 의해 선택된 대상 치아의 경계를 식별함으로써 대상 치아를 선택할 수 있다. 예를 들어, 도 5에 도시된 삼차원 구강 모델 500에서 대상 치아 510이 선택된 것이 표시되어 있다.
일 실시예에 따라 데이터 처리 장치 100는 미리 정해진 알고리즘에 따라 자동적으로 삼차원 구강 모델에 포함된 하나 이상의 치아 중에서 대상 치아를 선택할 수도 있다.
다시 도 4로 돌아가서, 동작 430에서, 데이터 처리 장치 100는 선택된 대상 치아에 마진 라인을 표시할 수 있다.
도 6은 일 예에 따라 대상 치아에 마진 라인을 표시한 것을 나타내는 도면이다.
도 6을 참조하면, 데이터 처리 장치 100는 삼차원 구강 모델 500에서 선택된 대상 치아 510와 치은의 경계에 마진 라인 520을 표시할 수 있다.
또한 데이터 처리 장치 100는 마진 라인 520를 조정할 수 있도록 하나 이상의 콘트롤 포인트 530를 배열할 수 있다. 도 6에서는 콘트롤 포인트 530는 CP1 부터 CP12까지 포함하는 것으로 도시되어 있다. 사용자로부터 콘트롤 포인트 530 중 어느 하나를 선택하고 선택된 콘트롤 포인트 530의 위치를 이동시키는 입력을 수신하면, 데이터 처리 장치 100는 콘트롤 포인트 530의 위치 이동에 대응하여 마진 라인 520을 조정할 수 있다. 예를 들어 사용자로부터 콘트롤 포인트 CP11을 선택하고 선택된 CP11을 드래그하여 CP11' 위치에 이동시키는 입력을 수신하면, 데이터 처리 장치 100는 마진 라인 510을 콘트롤 포인트 CP1,..CP10, CP11', CP12 로 이루어진 새로운 마진 라인으로 조정할 수 있다.
한편 도 6을 참조하면, 대상 치아 510과 인접 치아 580가 인접한 부분에 배열된 콘트롤 포인트 CP9, CP10, CP11은 인접 치아 580로 인해 대상 치아 510와 치은의 경계가 식별되지 않음으로써 사용자에게 콘트롤 포인트 조정이 용이하지 않을 수 있다. 따라서 본 개시서에 개시된 실시예들에 따라 데이터 처리 장치 100는 대상 치아 510와 인접한 치아 부분을 투명하게 처리함으로써 사용자로 하여금 대상 치아 510의 마진 라인을 용이하게 설정할 수 있도록 한다.
다시 도 4로 돌아가서, 동작 440에서, 데이터 처리 장치 100는 대상 치아로부터 스크린 방향으로 미리 정해진 거리에 클리핑 플레인 (clipping plane)을 생성할 수 있다. 클리핑 플레인은 삼차원 구강 모델의 일부 영역을 투명 처리 하기 위해 기준이 되는 플레인을 나타낼 수 있다. 클리핑 플레인은 데이터 처리 장치 100의 스크린과 평행하면서 스크린의 깊이보다 더 깊은 깊이를 가지는 플레인으로 이해될 수 있다.
동작 450에서, 데이터 처리 장치 100는 클리핑 플레인을 기준으로 스크린 방향에 위치한 투명 처리 영역에 포함되는 구강 모델의 일부 영역을 투명 처리하여 표시할 수 있다.
이제 도 7 내지 도 12를 참조하여 클리핑 플레인을 생성하고, 구강 모델의 일부 영역을 투명 처리하여 표시하는 방법을 구체적으로 설명한다.
도 7은 일 실시예에 따라 대상 치아의 중심점을 찾는 방법을 설명하기 위한 참고도이다.
도 7을 참조하면, 데이터 처리 장치 100는 대상 치아 510에 기초하여 바운딩 박스(bounding box) 700를 생성할 수 있다. 바운딩 박스 700는 대상 치아 510의 min 포인트 및 max 포인트를 연결한 직육면체 형상이고, 이와 같은 직육면체의 대각선 중심을 대상 치아의 중심점 710으로 결정할 수 있다. 각 치아 마다 하나의 중심점이 있고, 이는 화면을 회전시킨다 하더라도 변하지 않는다. 사용자가 디스플레이에 표시된 삼차원 구강 모델을 회전시키는 경우에도 이러한 대상 치아 500의 중심점 710을 주축으로 화면이 회전될 수 있다.
도 8은 일 실시예에 따라 클리핑 플레인을 생성하는 방법의 일 예를 설명하기 위한 참고도이다.
도 8을 참조하면, 데이터 처리 장치 100는 스크린에서 수직 방향으로 뚫고 들어가는 스크린 노말 벡터 (screen normal vector)를 찾고, 대상 치아의 중심점 710에서 스크린 노말 벡터의 반대 방향 즉, 스크린 방향으로 소정 거리 오프셋을 하고, 오프셋한 위치에서 수직 방향의 클리핑 플레인 800을 생성할 수 있다. 그리고 데이터 처리 장치 100는 클리핑 플레인 800을 기준으로 스크린 방향의 영역을 투명 처리 영역으로 설정할 수 있다. 데이터 처리 장치 100는 투명 처리 영역에 위치되게 되는 삼차원 구강 모델의 일부 영역을 투명 처리하여 표시할 수 있다. 이와 같이 대상 치아의 중심점을 기준으로 소정 거리에 투명 처리 영역을 설정함으로써 사용자가 삼차원 구강 모델을 어느 방향으로 이동시키거나 회전시키든지 항상 대상 치아의 중심점 기준으로 소정 거리에 있어서 투명 처리 영역에 포함되게 되는 삼차원 구강 모델의 일부를 투명하게 함으로써 대상 치아의 경계 부분을 용이하게 식별하게 할 수 있다.
이와 같이 클리핑 플레인 800을 마진 라인을 설정하고자 하는 대상 치아의 중심점에서 일정한 거리 오프셋을 준 위치에 생성하므로, 클리핑 플레인이 생성되는 위치는 대상 치아의 위치 이동에 따라 달라진다. 사용자는 대상 치아의 마진 라인을 설정을 위해 또는 그외 다른 여러가지 이유로 대상 치아를 포함하는 삼차원 구강 모델의 위치를 이동시킬 수 있다. 여기서 이동은 삼차원 구강 모델을 회전시키거나 수직으로 이동시키거나 수평으로 이동시키는 등의 모든 위치 이동을 포함할 수 있다. 따라서, 사용자의 삼차원 구강 모델의 이동 조작에 따라 대상 치아의 중심점은 그 위치가 계속 바뀔 수 있다. 이와 같이 대상 치아의 중심점이 계속 변하는 경우에도 클리핑 플레인은 대상 치아의 중심점으로부터 소정 거리 오프셋한 위치에 생성되므로, 클리핑 플레인은 항상 대상 치아의 중심점으로부터 일정한 거리 관계에 있는 위치에서 생성될 수 있다. 그리고 데이터 처리 장치 100는 이와 같이 생성된 클리핑 플레인을 기준으로 투명 처리 영역을 설정하므로 결국 대상 치아의 중심점으로부터 일정한 거리 관계에 있는 위치에 투명 처리 영역을 설정하게 될 수 있다. 예를 들어 데이터 처리 장치 100가 대상 치아의 중심점으로부터 일정한 거리를 인접치가 시작되는 위치로 설정함으로써, 사용자가 삼차원 구강 모델을 어느 방향으로 또는 얼마 만큼 이동시키더라도 항상 인접치가 시작되는 위치부터 투명 처리 되게 표시할 수 있다. 따라서 사용자로 하여금 대상 치아의 마진 라인을 설정하거나 수정할 때 인접 치아 부분을 투명하게 표시함으로써 좀더 대상 치아의 경계 부분을 용이하게 식별할 수 있게 할 수 있다.
여기서 데이터 처리 장치 100는 클리핑 플레인을 생성하기 위해 대상 치아의 중심점 710에서 오프셋하는 소정 거리를 다양한 방법에 따라 결정될 수 있다.
도 9는 일 실시예에 따라 클리핑 플레인을 생성하기 위해 대상 치아의 중심점 710에서 오프셋하는 소정 거리를 결정하는 방법을 설명하기 위한 참고도이다.
도 9의 900A를 참조하면, 데이터 처리 장치 100는 소정 거리를, 대상 치아의 바운딩 박스에서 교합 방향에 수직인 평면에서의 가로 길이와 세로 길이의 평균값으로 결정할 수 있다. 여기서 소정 거리를 판단할 때 교합 방향에 수직인 평면상의 길이를 기반으로 정하는 이유는, 대상 치아의 마진 라인을 설정하거나 수정하기 위해 인접 치아 부분을 투명하게 표시하는 기준으로 클리핑 플레인을 생성하는 것이므로 대상 치아의 교합 방향, 교합 방향으로의 거리(도 9에서는 y 축으로의 거리)는 대부분 의미가 없기 때문이다. 도 9에서 교합 방향이 y 축 방향으로 되어 있으므로 교합 방향에 수직인 평면은 xz 평면이 될 수 있다. 다만 교합 방향은 실시예들에 따라 x 축 방향이나 z 축 방향이 될 수도 있다.
그러나 다른 실시예에 따라 데이터 처리 장치 100는 소정 거리를, 대상 치아의 바운딩 박스의 xyz 축상의 거리를 모두 고려하여 가로 길이, 세로 길이, 높이의 평균값을 결정할 수도 있을 것이다.
도 9의 900B를 참조하면, 데이터 처리 장치 100는 소정 거리를, 대상 치아와 인접 치아 사이의 중심점 사이의 거리를 기반으로 결정할 수 있다. 구체적으로 데이터 처리 장치 100는, 대상 치아 510의 중심점 710과 인접 치아 580의 중심점 581 사이의 거리의 중간값을 구하고, 구해진 중간값에서 미리 정한 값 (예를 들어 +0.5mm) 을 더한 값으로 결정할 수 있다.
도 10은 일 실시예에 따라 클리핑 플레인을 기준으로 설정된 투명 처리 영역에 위치된 구강 모델 영역이 투명하게 표시된 것을 나타내는 도면이다.
도 10을 참조하면, 데이터 처리 장치 100는 클리핑 플레인 800을 기준으로 스크린 방향에 있는 투명 처리 영역 810 내에 포함되는 삼차원 구강 모델 500의 일부 영역 1000을 투명 처리하여 표시할 수 있다. 이와 같이 대상 치아 510를 기준으로 소정 거리에 있는 영역 즉 투명 처리 영역 810에 포함되는 구강 모델 영역 1000을 투명 처리함으로써 인접 치아 580 부분을 숨김 처리함으로써, 사용자는 대상 치아 510의 경계 영역을 좀 더 용이하게 식별할 수 있다. 따라서 사용자는 대상 치아 510의 마진 라인 520 설정을 위한 콘트롤 포인트 530를 보다 정교하게 이동시켜 위치시키는 것이 가능해짐에 따라 마진 라인 520를 보다 정확하게 획득할 수 있게 된다.
도 11은 일 실시예에 따라 삼차원 구강 모델의 위치 이동에 따라 투명 처리 표시되는 영역이 달라지는 예를 보여주는 도면이다.
도 11의 1100A, 1100B, 1100C를 참조하면, 사용자는 디스플레이에 표시된 삼차원 구강 모델에서 대상 치아의 마진 라인 설정을 위해 삼차원 구강 모델을 평행이동, 수직이동, 회전이동 시켜서 다양한 각도에서 삼차원 구강 모델을 표시되게 할 수 있다. 사용자가 어느 각도로 삼차원 구강 모델을 회전시키더라도 개시된 실시예에 따른 클리핑 플레인은 대상 치아를 중심으로 소정 거리 오프셋 된 위치, 예를 들어 인접 치아가 시작되는 위치에 생성되고 이 위치를 기준으로 투명 처리 영역에 포함되게 되는 구강 모델 영역을 투명 처리 표시함으로써, 사용자는 마진 라인을 설정할 대상 치아의 경계를 용이하게 식별할 수 있다.
데이터 처리 장치 100는 사용자의 마진 라인 설정이 완료되면, 대상 치아를 마진 라인을 따라서 컷팅된 대상 치아를 표시할 수 있다. 도 12는 일 예에 따라 마진 라인을 따라 컷팅된 대상 치아를 나타낸다.
도 13은 일 실시예에 따라 대상 치아의 일부가 투명 처리 영역에 포함되게 된 경우의 처리 방법을 설명하기 위한 참고도이다.
대상 치아 1300가 교합 방향으로 길이가 긴 경우에, 사용자가 삼차원 구강 모델을 회전시키는 동안 대상 치아 1300의 일부가 투명 처리 영역에 포함되게 될 수도 있다.
도 13을 참조하면, 클리핑 플레인이 대상 치아 1300의 교합 방향의 길이를 고려하지 않고 대상 치아 1300의 xz 평면상의 가로 세로 길이 만을 고려하여 결정된 오프셋에 대응하는 위치에 생성될 수 있다. 사용자는 삼차원 구강 모델을 다양한 각도로 회전 시킬 수 있는데, 교합 방향으로 길이가 긴 대상 치아 1300의 교합 방향 벡터가 스크린 노말 벡터와 반대 방향의 벡터 (이하 오프셋 방향 벡터)와 이루는 사잇각이 소정 각도 미만인 되는 경우 즉, 대상 치아 1300의 교합면이 스크린 방향 쪽을 향하는 경우, 대상 치아 1300의 일부가 투명 처리 영역에 포함되게 될 수 있다. 따라서 대상 치아 1300 임에도 불구하고, 투명 처리 영역 내에 위치된 대상 치아 1300의 일부 영역은 투명 처리되어 숨김 처리될 수 있다. 그러나 이렇게 되면 대상 치아를 중심으로 대상 치아의 경계 영역을 용이하게 식별할 수 있게 한다는 취지와는 달리 대상 치아의 일부 자체가 표시되지 않게 됨으로써 어색한 표시가 될 수 있다.
따라서, 이러한 상황이 된 경우, 일 실시예에 따라 데이터 처리 장치 100는 클리핑 플레인이 생성되게 하지 않음으로써 투명 처리 영역이 발생하는 것을 방지하여 삼차원 구강 모델 전체를 디스플레이에 표시되게 할 수 있다.
또는 다른 실시예에 따라 데이터 처리 장치 100는 투명 처리 영역에 포함되게 된 대상 치아 1300의 일부는 그대로 숨김 처리 없이 그대로 표시하도록 제어할 수 있다. 즉, 데이터 처리 장치 100는 투명 처리 영역에 포함되게 된 삼차원 구강 모델의 영역 중 대상 치아 1300 부분이 있다면 이 대상 치아 1300에 해당하는 부분은 투명 처리하지 않고 그대로 표시되게 제어할 수 있다.
일 실시예에 따라 데이터 처리 장치 100는 투명 처리 영역을 표시하는 상태와 표시하지 않는 상태를 간단한 사용자 입력에 따라 토글되도록 제어할 수 있다.
도 14는 일 실시예에 따라 투명 처리 영역이 표시되는 상태와 표시되지 않는 상태를 사용자 입력에 따라 토글되는 것을 설명하기 위한 참고도이다.
사용자가 대상 치아의 마진 라인 설정을 정확하게 할 수 있도록 데이터 처리 장치 100는 대상 치아 주변의 영역을 투명 처리 하여 보여주는 것이지만, 사용자는 또한 투명 처리 되지 않은 삼차원 구강 모델을 전체적으로 보기를 희망할 수도 있다. 이에 따라 데이터 처리 장치 100는 미리 정해진 사용자 입력을 수신한 경우에는 삼차원 구강 모델을 클리핑 플레인을 이용하여 투명 처리 하지 않고 숨김 없이 보여줄 수 있도록 처리할 수 있다.
도 14의 1400A를 참조하면, 삼차원 구강 모델의 대상 치아 510의 바운딩 박스가 디스플레이의 화면 전체에 줌핏되도록 제어하는 사용자 입력에 따라 데이터 처리 장치 100는 본 개시서에 개시된 실시예들에 따른 클리핑 플레인을 생성하고 클리핑 플레인을 기준으로 투명 처리 영역을 설정하여 투명 처리 영역에 위치된 삼차원 구강 모델 영역은 투명 처리하여 표시할 수 있다. 사용자가 줌인에 의해 대상 치아를 화면 전체에 들어차도록 확대하였다는 것은 사용자가 대상 치아의 마진 라인을 정확하게 설정하고자 하는 의도로 파악할 수 있으므로 데이터 처리 장치 100는 이러한 경우에 대상 치아에 인접한 영역을 투명 처리함으로써 사용자로 하여금 마진 라인 설정을 용이하게 할 수 있다.
도 14의 1400B를 참조하면, 사용자가 삼차원 구강 모델을 줌아웃하여 삼차원 구강 모델 전체적으로 화면에 표시될 수 있게 한다는 것은, 사용자가 특정한 대상 치아의 마진 라인을 보기 보다는 삼차원 구강 모델을 전체적으로 보기를 희망한다는 것으로 이해될 수 있다. 따라서 데이터 처리 장치 100는 이와 같이 사용자로부터 줌아웃 입력에 의해 디스플레이 화면에 삼차원 구강 모델이 전체적으로 표시되는 경우에는 투명 처리 영역에 의해 투명 처리 되는 부분 없이 모두 표시되게 할 수 있다.
삼차원 구강 모델을 표시할 때 투명 처리 영역에 의해 숨김 처리를 할지 여부를 결정하는 기준은 다양하게 결정될 수 있다.
일 실시예에 따라 데이터 처리 장치 100는 도 14에 도시된 바와 같이 디스플레이 화면에 대상 치아의 바운딩 박스가 온전하게 표시되고 다른 치아는 일부만 표시되게 하는 사용자 입력에 따라서, 투명 처리 영역을 설정하여 삼차원 구강 모델의 일부 영역을 투명 처리하여 표시할 수 있다. 그 외의 경우, 즉 디스플레이 화면에 대상 치아의 바운딩 박스를 포함하여 하나 이상의 다른 치아의 형상이 완전히 표시될 수 있도록 하는 사용자 입력에 따라서 데이터 처리 장치 100는 투명 처리 영역 설정 없이 삼차원 구강 모델을 표시할 수 있다.
일 실시예에 따라 데이터 처리 장치 100는 사용자 입력에 따라 대상 치아 510의 바운딩 박스의 크기가 임계치를 넘어가면, 투명 처리 영역을 설정하여 삼차원 구강 모델의 일부 영역을 투명 처리하여 표시하고, 대상 치아 510의 바운딩 박스의 크기가 임계치를 넘지 않으면, 투명 처리 영역의 설정 없이 삼차원 구강 모델을 표시할 수 있다.
일 실시예에 따라 데이터 처리 장치 100는 디스플레이의 일부 영역에 미리 지정된 아이콘을 제공하고, 이러한 미리 지정된 아이콘을 선택하는 사용자 입력에 따라 투명 처리 영역을 설정하여 삼차원 구강 모델의 일부 영역을 투명 처리하여 표시하거나 또는 투명 처리 영역의 설정 없이 삼차원 구강 모델을 표시할 수 있다.
본 개시의 일 실시예에 따른 구강 이미지의 처리 방법은 다양한 컴퓨터 수단을 통하여 수행될 수 있는 프로그램 명령 형태로 구현되어 컴퓨터 판독 가능 매체에 기록될 수 있다. 또한, 본 개시의 실시예는, 구강 이미지의 처리 방법을 실행하는 적어도 하나의 인스트럭션을 포함하는 하나 이상의 프로그램이 기록된 컴퓨터로 읽을 수 있는 저장 매체가 될 수 있다.
상기 컴퓨터 판독 가능 저장 매체는 프로그램 명령, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다. 여기서, 컴퓨터 판독 가능 저장 매체의 예에는 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체(magnetic media), CD-ROM, DVD와 같은 광기록 매체(optical media), 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical media), 및 롬(ROM), 램(RAM), 플래시 메모리 등과 같은 프로그램 명령을 저장하고 수행하도록 구성된 하드웨어 장치가 포함될 수 있다.
여기서, 기기로 읽을 수 있는 저장매체는, 비일시적(non-transitory) 저장매체의 형태로 제공될 수 있다. 여기서, '비일시적 저장매체'는 저장 매체가 실재(tangible)하는 장치임을 의미할 수 있다. 또한, '비일시적 저장매체'는 데이터가 임시적으로 저장되는 버퍼를 포함할 수 있다.
일 실시예에 따르면, 본 문서에 개시된 다양한 실시예들에 따른 구강 이미지의 처리 방법은 컴퓨터 프로그램 제품(computer program product)에 포함되어 제공될 수 있다. 컴퓨터 프로그램 제품은 기기로 읽을 수 있는 저장 매체(예: compact disc read only memory (CD-ROM))의 형태로 배포될 수 있다. 또는, 어플리케이션 스토어(예: 플레이 스토어 등)를 통해 또는 두 개의 사용자 장치들(예: 스마트폰들) 간에 직접, 온라인으로 배포(예: 다운로드 또는 업로드)될 수 있다. 구체적으로, 개시된 실시예에 따른 컴퓨터 프로그램 제품은 개시된 실시예에 따른 구강 이미지의 처리 방법을 수행하기 위해 적어도 하나의 인스트럭션을 포함하는 프로그램이 기록된 저장 매체를 포함할 수 있다.
이상에서 실시예들에 대하여 상세하게 설명하였지만 본 발명의 권리범위는 이에 한정되는 것은 아니고 다음의 청구범위에서 정의하고 있는 본 발명의 기본 개념을 이용한 당업자의 여러 변형 및 개량 형태 또한 본 발명의 권리범위에 속한다.

Claims (18)

  1. 데이터 처리 장치에 있어서,
    하나 이상의 인스트럭션을 저장하는 메모리, 및
    상기 하나 이상의 인스트럭션을 실행하는 프로세서를 포함하고,
    상기 프로세서는 상기 하나 이상의 인스트럭션을 실행함으로써,
    하나 이상의 치아를 포함하는 구강 모델을 표시하고,
    상기 구강 모델에 포함된 상기 하나 이상의 치아 중에서 대상 치아를 선택하고,
    상기 대상 치아로부터 스크린 방향으로 미리 정해진 거리 만큼 이격되어 위치된 클리핑 플레인을 기준으로 상기 스크린 방향에 위치한 투명 처리 영역에 포함되는 상기 구강 모델의 영역을 투명처리하여 표시하는, 데이터 처리 장치.
  2. 제1항에 있어서,
    상기 프로세서는 상기 하나 이상의 인스트럭션을 실행함으로써,
    상기 대상 치아에 표시된 마진 라인을 위치 조정가능하도록 제공하고,
    상기 마진 라인의 위치를 조정하는 사용자 입력에 따라 상기 마진 라인의 위치를 조정하여 표시하는, 데이터 처리 장치.
  3. 제1항에 있어서,
    상기 미리 정해진 거리는 상기 대상 치아를 둘러싸는 바운딩 박스의 중심점으로부터 미리 정해진 거리를 포함하는, 데이터 처리 장치.
  4. 제3항에 있어서,
    상기 미리 정해진 거리는 상기 바운딩 박스에서 교합 방향에 수직인 평면의 가로 세로 길이의 평균값 또는 상기 대상 치아의 중심점으로부터 인접치의 중심점 까지의 거리의 중간값에 소정 오프셋을 더한 값을 포함하는, 데이터 처리 장치.
  5. 제1항에 있어서,
    상기 프로세서는 상기 하나 이상의 인스트럭션을 실행함으로써,
    디스플레이에 표시되는 대상 치아의 크기가 임계치 이상이면 상기 투명 처리 영역에 포함되는 상기 구강 모델의 영역을 투명처리하여 표시하고,
    상기 디스플레이에 표시되는 상기 대상 치아의 크기가 상기 임계치 미만이면, 상기 투명 처리 영역 설정 없이 상기 구강 모델을 표시하는, 데이터 처리 장치.
  6. 제1항에 있어서,
    상기 프로세서는 상기 하나 이상의 인스트럭션을 실행함으로써,
    미리 정해진 아이콘을 표시하고,
    상기 아이콘을 선택하는 입력에 따라 상기 클리핑 플레인을 제거함으로써 상기 투명 처리 영역의 설정 없이 상기 구강 모델을 표시하는, 데이터 처리 장치.
  7. 제1항에 있어서,
    상기 프로세서는 상기 하나 이상의 인스트럭션을 실행함으로써,
    상기 구강 모델을 회전시키는 사용자 입력에 대응하여 상기 구강 모델을 회전시켜 표시하고,
    상기 구강 모델의 회전에 따라 회전 이동된 상기 대상 치아로부터 스크린 방향으로 상기 미리 정해진 거리에 새로운 클리핑 플레인을 생성하여 상기 새로운 클리핑 플레인을 기준으로 새로운 투명 처리 영역을 생성하고,
    상기 새로운 투명 처리 영역에 포함되는 상기 구강 모델의 영역을 투명처리하여 표시하는, 데이터 처리 장치.
  8. 제1항에 있어서,
    상기 프로세서는 상기 하나 이상의 인스트럭션을 실행함으로써,
    상기 구강 모델을 회전시키는 사용자 입력에 대응하여 회전 이동된 상기 대상 치아의 교합 방향 벡터가 스크린 노말 벡터와 반대 방향의 벡터와 이루는 사잇각이 임계 각도 보다 작은 지 검출하고,
    상기 사잇각이 상기 임계 각도 보다 작은 것을 검출함에 따라, 상기 클리핑 플레인을 제거함으로써 상기 투명 처리 영역에 의해 투명 처리되는 부분을 제거하는, 데이터 처리 장치.
  9. 제1항에 있어서,
    상기 프로세서는 상기 하나 이상의 인스트럭션을 실행함으로써,
    상기 구강 모델을 회전시키는 사용자 입력에 대응하여 상기 대상 치아의 회전 이동에 따라 상기 대상 치아의 적어도 일부가 상기 투명 처리 영역에 위치되는 경우, 상기 대상 치아의 상기 적어도 일부는 투명 처리 표시에서 제외하는, 데이터 처리 장치.
  10. 데이터 처리 장치의 동작 방법에 있어서,
    하나 이상의 치아를 포함하는 구강 모델을 표시하는 동작,
    상기 구강 모델에 포함된 상기 하나 이상의 치아 중에서 대상 치아를 선택하는 동작, 및
    상기 대상 치아로부터 스크린 방향으로 미리 정해진 거리 만큼 이격되어 위치된 클리핑 플레인을 기준으로 상기 스크린 방향에 위치한 투명 처리 영역에 포함되는 상기 구강 모델의 영역을 투명처리하여 표시하는 동작을 포함하는, 데이터 처리 장치의 동작 방법.
  11. 제10항에 있어서,
    상기 대상 치아에 표시된 상기 마진 라인을 위치 조정가능하도록 제공하는 동작, 및
    상기 마진 라인의 위치를 조정하는 사용자 입력에 따라 상기 마진 라인의 위치를 조정하여 표시하는 동작을 더 포함하는, 데이터 처리 장치의 동작 방법.
  12. 제10항에 있어서,
    상기 미리 정해진 거리는 상기 대상 치아를 둘러싸는 바운딩 박스의 중심점으로부터 미리 정해진 거리를 포함하는, 데이터 처리 장치의 동작 방법.
  13. 제12항에 있어서,
    상기 미리 정해진 거리는 상기 바운딩 박스에서 교합 방향에 수직인 평면의 가로 세로 길이의 평균값 또는 상기 대상 치아의 중심점으로부터 인접치의 중심점 까지의 거리의 중간값에 소정 오프셋을 더한 값을 포함하는, 데이터 처리 장치의 동작 방법.
  14. 제10항에 있어서,
    디스플레이에 표시되는 대상 치아의 크기가 임계치 이상이면 상기 투명 처리 영역에 포함되는 상기 구강 모델의 영역을 투명처리하여 표시하는 동작, 및
    상기 디스플레이에 표시되는 상기 대상 치아의 크기가 상기 임계치 미만이면, 상기 투명 처리 영역 설정 없이 상기 구강 모델을 표시하는 동작을 더 포함하는, 데이터 처리 장치의 동작 방법.
  15. 제10항에 있어서,
    상기 구강 모델을 회전시키는 사용자 입력에 대응하여 상기 구강 모델을 회전시켜 표시하는 동작,
    상기 구강 모델의 회전에 따라 회전 이동된 상기 대상 치아로부터 스크린 방향으로 상기 미리 정해진 거리에 새로운 클리핑 플레인을 생성하여 상기 새로운 클리핑 플레인을 기준으로 새로운 투명 처리 영역을 생성하는 동작, 및
    상기 새로운 투명 처리 영역에 포함되는 상기 구강 모델의 영역을 투명처리하여 표시하는 동작을 더 포함하는, 데이터 처리 장치의 동작 방법.
  16. 제10항에 있어서,
    상기 구강 모델을 회전시키는 사용자 입력에 대응하여 회전 이동된 상기 대상 치아의 교합 방향 벡터가 스크린 노말 벡터와 반대 방향의 벡터와 이루는 사잇각이 임계 각도 보다 작은 지 검출하는 동작, 및
    상기 사잇각이 상기 임계 각도 보다 작은 것을 검출함에 따라, 상기 클리핑 플레인을 제거함으로써 상기 투명 처리 영역에 의해 투명 처리되는 부분을 제거하는 동작을 더 포함하는, 데이터 처리 장치의 동작 방법.
  17. 제10항에 있어서,
    상기 구강 모델을 회전시키는 사용자 입력에 대응하여 상기 대상 치아의 회전 이동에 따라 상기 대상 치아의 적어도 일부가 상기 투명 처리 영역에 위치되는 경우, 상기 대상 치아의 상기 적어도 일부는 투명 처리 표시에서 제외하는 동작을 더 포함하는, 데이터 처리 장치의 동작 방법.
  18. 구강 모델을 처리하는 방법을 수행하는 하나 이상의 인스트럭션을 포함하는 컴퓨터 판독가능 기록 매체에 있어서, 상기 구강 모델을 처리하는 방법은,
    하나 이상의 치아를 포함하는 구강 모델을 표시하는 동작,
    상기 구강 모델에 포함된 상기 하나 이상의 치아 중에서 대상 치아를 선택하는 동작, 및
    상기 대상 치아로부터 스크린 방향으로 미리 정해진 거리 만큼 이격되어 위치된 클리핑 플레인을 기준으로 상기 스크린 방향에 위치한 투명 처리 영역에 포함되는 상기 구강 모델의 영역을 투명처리하여 표시하는 동작을 포함하는, 컴퓨터 판독가능 기록 매체.
PCT/KR2022/009667 2021-07-06 2022-07-05 구강 모델을 처리하는 데이터 처리 장치 및 그 동작 방법 WO2023282579A1 (ko)

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
KR10-2021-0088574 2021-07-06
KR20210088574 2021-07-06
KR1020220063046A KR102666198B1 (ko) 2021-07-06 2022-05-23 구강 모델을 처리하는 데이터 처리 장치 및 그 동작 방법
KR10-2022-0063046 2022-05-23

Publications (1)

Publication Number Publication Date
WO2023282579A1 true WO2023282579A1 (ko) 2023-01-12

Family

ID=84801980

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/KR2022/009667 WO2023282579A1 (ko) 2021-07-06 2022-07-05 구강 모델을 처리하는 데이터 처리 장치 및 그 동작 방법

Country Status (1)

Country Link
WO (1) WO2023282579A1 (ko)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20160149301A (ko) * 2014-05-07 2016-12-27 얼라인 테크널러지, 인크. 구강내 스캔 중 관심 구역의 식별
WO2019043038A1 (en) * 2017-08-31 2019-03-07 3Shape A/S RENDERING VOLUME USING GUIDED SURFACE TRADE
KR101946498B1 (ko) * 2017-09-13 2019-05-08 오스템임플란트 주식회사 치아 보철물 디자인 방법, 장치 및 그 방법을 실행하기 위한 프로그램이 기록된 기록매체
KR20200114763A (ko) * 2019-03-29 2020-10-07 오스템임플란트 주식회사 관심 영역의 상세 스캔 방법, 상세 스캔 장치 및 기록매체
KR20210025057A (ko) * 2018-06-29 2021-03-08 덴츠플라이 시로나 인코포레이티드 모델의 동적 조정을 위한 방법 및 시스템

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20160149301A (ko) * 2014-05-07 2016-12-27 얼라인 테크널러지, 인크. 구강내 스캔 중 관심 구역의 식별
WO2019043038A1 (en) * 2017-08-31 2019-03-07 3Shape A/S RENDERING VOLUME USING GUIDED SURFACE TRADE
KR101946498B1 (ko) * 2017-09-13 2019-05-08 오스템임플란트 주식회사 치아 보철물 디자인 방법, 장치 및 그 방법을 실행하기 위한 프로그램이 기록된 기록매체
KR20210025057A (ko) * 2018-06-29 2021-03-08 덴츠플라이 시로나 인코포레이티드 모델의 동적 조정을 위한 방법 및 시스템
KR20200114763A (ko) * 2019-03-29 2020-10-07 오스템임플란트 주식회사 관심 영역의 상세 스캔 방법, 상세 스캔 장치 및 기록매체

Similar Documents

Publication Publication Date Title
WO2022085966A1 (ko) 구강 이미지 처리 장치 및 구강 이미지 처리 방법
WO2022092627A1 (ko) 3차원 모델로부터 대상체 영역을 결정하는 방법 및 3차원 모델 처리 장치
WO2022014965A1 (ko) 구강 이미지 처리 장치 및 구강 이미지 처리 방법
WO2022065756A1 (ko) 구강 이미지 처리 장치, 및 구강 이미지 처리 방법
WO2023003192A1 (ko) 이미지 처리 장치, 및 이미지 처리 방법
WO2023282579A1 (ko) 구강 모델을 처리하는 데이터 처리 장치 및 그 동작 방법
WO2023277391A1 (ko) 구강 이미지 처리 장치 및 구강 이미지 처리 방법
WO2022164175A1 (ko) 삼차원 구강 모델을 처리하는 방법 및 장치
WO2023003399A1 (ko) 삼차원 구강 모델을 처리하는 방법 및 장치
WO2022270889A1 (ko) 구강 이미지 처리 장치, 및 구강 이미지 처리 방법
WO2021242053A1 (ko) 3차원 데이터 획득 방법, 장치 및 그 방법을 수행하는 프로그램이 저장된 컴퓨터 판독 가능 저장 매체
WO2022092594A1 (ko) 구강 이미지 처리 장치, 및 구강 이미지 처리 방법
WO2023063767A1 (ko) 구강 이미지 처리 장치, 및 구강 이미지 처리 방법
KR20220056760A (ko) 구강 이미지 처리 장치, 및 구강 이미지 처리 방법
WO2023249293A1 (ko) 이미지 처리 장치 및 이미지 처리 방법
WO2023063805A1 (ko) 구강 이미지 처리 장치, 및 구강 이미지 처리 방법
KR102666198B1 (ko) 구강 모델을 처리하는 데이터 처리 장치 및 그 동작 방법
WO2023038455A1 (ko) 구강 이미지를 처리하는 방법 및 데이터 처리 장치
WO2023003381A1 (ko) 구강 이미지 처리 장치, 및 구강 이미지 처리 방법
WO2023059167A1 (ko) 구강 이미지 처리 장치 및 구강 이미지 처리 방법
WO2022265270A1 (ko) 이미지 처리 장치, 및 이미지 처리 방법
WO2022225332A1 (ko) 구강 이미지 처리 장치 및 구강 이미지 처리 방법
WO2022260442A1 (ko) 구강 이미지를 처리하는 데이터 처리 장치 및 구강 이미지 처리 방법
WO2023027500A1 (ko) 이미지 처리 장치, 및 이미지 처리 방법
WO2023282619A1 (ko) 3차원 모델 상에 텍스트를 추가하는 방법 및 3차원 모델 처리 장치

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 22837931

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 22837931

Country of ref document: EP

Kind code of ref document: A1