WO2011118839A1 - 歯科用補綴物計測加工システム - Google Patents

歯科用補綴物計測加工システム Download PDF

Info

Publication number
WO2011118839A1
WO2011118839A1 PCT/JP2011/057922 JP2011057922W WO2011118839A1 WO 2011118839 A1 WO2011118839 A1 WO 2011118839A1 JP 2011057922 W JP2011057922 W JP 2011057922W WO 2011118839 A1 WO2011118839 A1 WO 2011118839A1
Authority
WO
WIPO (PCT)
Prior art keywords
image
data
dimensional shape
prosthesis
dimensional
Prior art date
Application number
PCT/JP2011/057922
Other languages
English (en)
French (fr)
Inventor
伸周 浦壁
Original Assignee
株式会社アドバンス
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 株式会社アドバンス filed Critical 株式会社アドバンス
Publication of WO2011118839A1 publication Critical patent/WO2011118839A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/24Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/46Arrangements for interfacing with the operator or the patient
    • A61B6/461Displaying means of special interest
    • A61B6/466Displaying means of special interest adapted to display 3D data
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/50Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment specially adapted for specific body parts; specially adapted for specific clinical applications
    • A61B6/51Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment specially adapted for specific body parts; specially adapted for specific clinical applications for dentistry
    • A61B6/512Intraoral means
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/56Details of data transmission or power supply, e.g. use of slip rings
    • A61B6/563Details of data transmission or power supply, e.g. use of slip rings involving image data transmission via a network
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61CDENTISTRY; APPARATUS OR METHODS FOR ORAL OR DENTAL HYGIENE
    • A61C13/00Dental prostheses; Making same
    • A61C13/0003Making bridge-work, inlays, implants or the like
    • A61C13/0004Computer-assisted sizing or machining of dental prostheses
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61CDENTISTRY; APPARATUS OR METHODS FOR ORAL OR DENTAL HYGIENE
    • A61C5/00Filling or capping teeth
    • A61C5/70Tooth crowns; Making thereof
    • A61C5/77Methods or devices for making crowns
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61CDENTISTRY; APPARATUS OR METHODS FOR ORAL OR DENTAL HYGIENE
    • A61C9/00Impression cups, i.e. impression trays; Impression methods
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61CDENTISTRY; APPARATUS OR METHODS FOR ORAL OR DENTAL HYGIENE
    • A61C9/00Impression cups, i.e. impression trays; Impression methods
    • A61C9/004Means or methods for taking digitized impressions
    • A61C9/0046Data acquisition means or methods
    • A61C9/0053Optical means or methods, e.g. scanning the teeth by a laser or light beam
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/521Depth or shape recovery from laser ranging, e.g. using interferometry; from the projection of structured light
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30036Dental; Teeth

Definitions

  • the present invention relates to a measurement processing system for acquiring three-dimensional shape information directly from the oral cavity and manufacturing a dental prosthesis or the like based on the three-dimensional shape information.
  • Patent Document 1 Japanese Patent Laid-Open No. 2000-74635 discloses a probe that directly acquires the shape of a tooth from the oral cavity without contact. When this probe is used, the shape of the oral cavity is measured in a non-contact manner using a triangulation technique based on the angle between the path of the irradiated light and the reflected light after irradiating the measurement site in the oral cavity with laser light. can do.
  • Patent Document 2 International Publication No. 2009/139110 pamphlet
  • a solution containing metal powder such as titanium oxide is sprayed into the oral cavity, so that the surface reflectance in the oral cavity is increased.
  • Patent Document 2 in order to omit the operation of spraying the metal powder into the oral cavity, a light projecting unit that irradiates at least two different wavelengths of light on the same optical axis toward the object to be measured in the oral cavity, An intraoral measurement device is proposed that includes an imaging unit that images light reflected by a measurement object. Further, Patent Document 3 (International Publication No. 2009/111068 pamphlet) irradiates a laser beam so as to scan the intraoral object, and utilizes the phase shift of reflected return light from the intraoral object. Discloses a method using a conoscopic method in which multiple interference fringes are formed and the distance between objects is measured from the characteristics of the interference fringes.
  • Patent Documents 1 and 3 Japanese Patent Laid-Open No.
  • 2003-148934 uses a camera that captures a large number of images, particularly a video camera, forms three-dimensional data by photogrammetry, and further performs three-dimensional morphing correction
  • a method for creating a tooth model from an image that can provide an accurate prosthesis In this method, as with the prior art described above, in order to capture a large number of images, a long imaging time or semi-fixed imaging is necessary, and the patient as a subject does not move on the way. Be patient. In short, all of the measuring instruments as described above are hand-held, so they can be grasped by measuring instruments with a high degree of freedom in handling. There are many restrictions that must not occur, and improvements are desired.
  • Patent Document 5 Japanese Patent Publication No. 2004-519289
  • measurement is performed while attaching a sensor and illumination to a mouthpiece-type experimental device and moving it around the mouthpiece.
  • a technique is disclosed.
  • patent document 6 Japanese translations of PCT publication No. 2004-502137
  • the guide body which can be driven with the robot etc. with a sensor outside the oral cavity is formed, this is put directly in a mouth, and a sensor is moved while moving in the oral cavity.
  • a method for measuring intraoral information In the methods disclosed in Patent Documents 5 and 6, a stationary and fixed type device is used, so that the sensor can be driven more stably than a hand-held type device.
  • Patent Document 7 Japanese Patent Laid-Open No. 2002-224143
  • Patent Document 8 Japanese Patent Laid-Open No. 2004-237104
  • the processing data is measured from the measurement data of the tooth of the prosthetic site after the three-dimensional measurement and the sample data obtained by measuring the tooth in a healthy state in a three-dimensional shape in advance, Obtaining a prosthesis is described.
  • Patent Document 8 a 3D shape data is formed by measuring a state in the oral cavity with a 3D camera and a CT scan in advance, and a virtual denture is formed by combining the 3D shape data with artificial tooth data created in advance.
  • Patent Document 9 Japanese Patent Laid-Open No. 2004-283594 discloses a database storing tooth data created by imaging existing teeth in digital form, and a tooth model created by accessing the database. And a dental prosthesis member manufactured using a database or a tooth model.
  • the above-described patent document does not show a specific method for acquiring information in the oral cavity.
  • various data processing methods have been proposed for data processing, including those described in the above-mentioned patent documents.
  • the above-described prior art for directly measuring the inside of the oral cavity is still insufficient in its handling. Therefore, a technique of obtaining various intra-oral information directly from the oral cavity without using an impression model and manufacturing various prostheses is still insufficient in practicality.
  • JP 2000-74635 A International Publication No. 2009/139110 Pamphlet International Publication No. 2009/111068 Pamphlet JP 2003-148934 A JP 2004-519289 A JP 2004-502137 A JP 2002-224143 A JP 2004-237104 A JP 2004-283594 A
  • methods for directly measuring the inside of the oral cavity include so-called hand-held types in which measurement is performed by inserting a probe or the like into the oral cavity, or stationary types in which measurement is performed by fixing the probe or the like in the oral cavity. Both methods are proposed, but since each method has a heavy burden for measurement, a method for solving these burdens and producing a dental prosthesis by directly measuring the inside of the oral cavity is proposed. Is desired.
  • the present inventor is provided with image data conversion means for converting the intraoral image data into still image data, and image data conversion means that can measure the three-dimensional shape of the object to be measured, and is arranged in the oral cavity.
  • 3D shape data acquisition means (hereinafter referred to as “3D shape data acquisition means”) capable of obtaining 3D shape data of an intraoral object, which is a measurement object, from a support having a possible size and imaging information obtained by the image data conversion means.
  • the present invention has been completed by obtaining the knowledge that it is effective to construct a dental prosthesis measuring and processing system with a “three-dimensional shape acquisition means”.
  • the measurement processing system is configured as described above, thereby obtaining an image capable of acquiring three-dimensional data by the image data converting means arranged in a state in which the distance space manually inserted into the oral cavity is defined,
  • data that can virtually obtain the prosthetic shape is formed, which can be displayed on a computer monitor, and converted into processed data
  • a prosthesis can be produced.
  • the intraoral shape can be obtained in a state where there is no burden on either the patient or the medical person, and the dental prosthesis can be manufactured in a short time with high accuracy.
  • the present invention is for measuring and processing a dental prosthesis used in the oral cavity, At least one image data conversion means for obtaining image data by measuring a three-dimensional shape of an object to be measured including at least one tooth having a prosthetic part existing in the oral cavity in a still image; A support for supporting the image data converting means and inserting into the oral cavity and measuring the three-dimensional shape by the image data converting means; and processing the image data from the image data converting means; A dental prosthesis measuring and processing system comprising a three-dimensional shape data acquisition means for obtaining three-dimensional shape data of a virtual prosthesis used as a prototype of a dental prosthesis.
  • the dental prosthesis measurement processing system by this invention can include the following preferable forms, for example.
  • the image data conversion means includes a close-up continuous shooting means for continuously shooting the measurement object at a close position and a plurality of images taken by continuous shooting at the close-up continuous shooting means.
  • a measurement processing system comprising image selection means for selecting an optimal image for obtaining the image data.
  • the support includes an inclination information detection unit that detects inclination information at or near a fixed portion that supports the image data conversion unit, and a three-dimensional shape data acquisition unit based on an inclination information output from the inclination information detection unit.
  • a measurement processing system comprising data adjustment means for adjusting the three-dimensional shape data.
  • Measurement further including a prosthesis processing means for manufacturing a dental prosthesis by processing a processing block based on the three-dimensional shape data of the virtual prosthesis obtained by the three-dimensional shape data acquisition means Processing system.
  • a measurement processing system in which the image data conversion means is fixed to the support body in a passive measurement state.
  • the image data converting means includes an image display means for displaying the image data as a video at a position independent from the support, and a switching means for switching start and stop of video shooting.
  • a measurement processing system that further includes an image display unit and a switching unit that are connected to each other by wire or wirelessly.
  • the object to be measured includes an abutment tooth having a prosthetic part, an adjacent tooth adjacent to the abutment tooth, and a counter tooth facing the abutment tooth, and a still image capable of detecting three-dimensional coordinates of these teeth.
  • the numerical data necessary for forming the three-dimensional shape of the virtual prosthesis is extracted from the obtained still image by the image data converting means, and the three-dimensional shape is extracted.
  • the numerical data is processed, the three-dimensional coordinates of the occlusal surface and the abutment surface of the object to be measured are detected, and the three-dimensional shape data of the virtual prosthesis is acquired from the numerical data and the three-dimensional coordinates. system.
  • a measurement processing system further comprising: complementary calculation means for performing complementary calculation on the actually measured three-dimensional shape data obtained by the three-dimensional shape data acquisition means on the three-dimensional shape data obtained by the search means.
  • a measurement processing system that performs a complementary calculation by complementing measured three-dimensional shape data with respect to an approximate three-dimensional shape obtained by searching from a database in a complementary calculation means.
  • the measurement processing system wherein the support is arranged and supported so that the two image data conversion means are orthogonal to each other.
  • the means for obtaining three-dimensional shape data by instantaneous imaging in the oral cavity is used in a semi-fixed state or in a state close to a hand-held type, that is, a probe configuration.
  • Accurate intraoral information can be obtained without burdening dentists and healthcare professionals. It becomes possible to manufacture efficiently.
  • FIG. 1 is a block diagram showing a first embodiment (part 1) of the present invention.
  • FIG. 2 is a schematic diagram showing a first embodiment (part 2) of the present invention
  • FIG. 3 is a schematic diagram for explaining the embodiment of the present invention shown in FIG.
  • FIG. 4 is a schematic diagram for explaining the embodiment of the present invention shown in FIG.
  • FIG. 5 is a schematic view showing a second embodiment of the present invention.
  • FIG. 6 is a schematic diagram showing a third embodiment of the present invention.
  • FIG. 7 is a schematic view showing a fourth embodiment of the present invention.
  • FIG. 8 is a schematic diagram showing a fifth embodiment of the present invention.
  • FIG. 9 is a schematic view showing a sixth embodiment of the present invention.
  • FIG. 10 is a schematic diagram for explaining the embodiment of FIG. FIG.
  • FIG. 11 is a schematic diagram showing a seventh embodiment of the present invention.
  • FIG. 12 is a schematic view showing an eighth embodiment of the present invention.
  • FIG. 13 is a schematic diagram showing a ninth embodiment of the present invention, and
  • FIG. 14 is a schematic diagram showing a tenth embodiment of the present invention.
  • the dental prosthesis measuring and processing system includes at least image data converting means, a support, and three-dimensional shape data acquiring means. If necessary, these means and related means can be explained as follows.
  • the image data conversion means means means that has a function of capturing a photographing screen of the measurement object existing in the oral cavity at the timing when the shutter is pressed, for example. As the shooting screen, a still image or a plurality of continuous shot images may be captured before and after one image.
  • Such capturing of a plurality of images, addition of a function for taking a picture after a predetermined time, and the like are suitable for preventing camera shake during a so-called shutter operation.
  • camera shake prevention functions generally used in cameras and mobile phones may be combined.
  • a moving image shooting device such as a video camera
  • a method of selecting a still image from a moving image may be employed.
  • the image data converting means or the image pickup means is not particularly limited as long as a still image can be finally obtained.
  • a support is used in combination. Image data converting means is installed on the support in a state where the three-dimensional shape of the object to be measured can be measured.
  • a support body since a support body is inserted and used in an oral cavity, it needs to have the shape and dimension which can be arrange
  • the support is arranged on the measurement site in a state where three-dimensional coordinates using a still image can be acquired, and can have different forms depending on the three-dimensional coordinate acquisition method. For example, in the case of supporting a single camera and moving it to take multiple photos, it is a shooting condition that can move so that the moving distance, moving direction, and moving position can be displayed as numerical values
  • the support body which can take is mentioned.
  • a support for example, a rod-shaped support, which is taken at predetermined intervals in the longitudinal direction by an image data conversion means, can be exemplified.
  • a stereo camera in which this is fixed at two points is effective in that the amount of calculation is reduced when acquiring coordinates and the position of the camera is fixed.
  • the acquisition calculation is formed at least during measurement, with a fixed interval between the cameras and the horizontal and vertical positions, with all cameras pointing in a specific direction. It is that.
  • “at the time of measurement” means the timing of shooting (at the time of shooting), and may move before and after.
  • the image data conversion means is inserted into the oral cavity and manually arranged with a certain distance from the teeth, so that a three-dimensional measurement shape can be measured.
  • Manual placement involves rocking, but if the camera is placed on a fixed support, even if it is rocked, if the image is clear as usual, 3D coordinate data can be obtained within the range of the photograph. Can be acquired.
  • a camera as an image data conversion means is used with a dental mirror by using a camera module whose vertical and horizontal height dimensions that are currently used in mobile phones are preferably within 10 mm or smaller. Close sizes can be realized.
  • the three-dimensional shape data acquisition means is for obtaining three-dimensional shape data of an intraoral object as a subject from the photographing information obtained by the image data conversion means.
  • the three-dimensional shape data acquisition unit is preferably a unit that performs passive measurement that measures the three-dimensional distance by analyzing the image information obtained from the image data conversion unit.
  • an image data converting means for projecting a contour pattern such as moire onto a subject, capturing it as a still image to be acquired instantaneously, and detecting the three-dimensional coordinates of the contour pattern.
  • the image data converting means having such a configuration may be fixedly arranged on the support during measurement. In the present invention, the positioning of the image data converting means is also important.
  • At least a still image taken by one or more image data converting means, or a plurality of still images taken by changing the position includes a tooth loss part or missing part corresponding to the subject. It is only necessary to be photographed so that three-dimensional measurement is possible, and the case where positioning is set on the support, such as photogrammetry, is also included.
  • a microchip such as an inclination sensor or an acceleration sensor is preferable as the inclination information detection means, but the inclination information detection means is not limited to this means.
  • a combination of a positioning sensor such as a GPS sensor, and the like may be used as the inclination information detecting means.
  • the timing at the time of measurement of the present invention may be taken at an arbitrary timing by a dentist.
  • the direction of the camera is further measured by the tilt sensor, and when the vertical, horizontal, or optimum angle according to the measuring means is obtained, the LED display and the display on the monitor screen receive a notification.
  • the operator who senses may press the shutter. Alternatively, the shutter may be pressed at a timing when the tilt sensor outputs a signal in an optimal state.
  • the image data converting means when the image data converting means is installed on the support, for example, in the case of side view photographing of the dentition, when the photographer holds the support and places the image data converting means in the oral cavity, the image data It may be configured as a so-called “cancer light” in which the converting means always maintains a vertical state.
  • the production of a dental prosthesis based on intraoral imaging can be performed by any method.
  • a dental prosthesis can be manufactured using a wax upless approach.
  • the present invention not only directly measuring the shape of the teeth in the oral cavity, but also from the missing tooth portion, the maximum richness obtained by the adjacent teeth, the tooth height value obtained from the relationship with the counter teeth, etc.
  • a still image capable of detecting the three-dimensional coordinates of the adjacent tooth and the prosthetic portion taken in the oral cavity, and a still image capable of three-dimensional detection of the opposite teeth are photographed and photographed by the image data converting means. Extract the numerical data necessary for forming the virtual prosthesis shape from the still image and detect the three-dimensional coordinates of the occlusal surface and the abutment tooth surface corresponding to those numerical data.
  • the present invention is for obtaining information sufficient for the production of dental prostheses such as crowns, inlays, dentures, and onlays for natural abutments and implant abutments from within the oral cavity. If the dental prosthesis is a crown, three-dimensional data is acquired from two sets of stereo images taken from the side and top.
  • a set of images in only that direction is sufficient.
  • three-dimensional coordinates may be obtained for each set, and the consistency between two three-dimensional coordinates may be combined to form intraoral information. Consistency between the three-dimensional coordinates can be obtained, for example, by performing coordinate conversion based on the abutment tooth and the processing part for the inlay, and adjusting and combining the shooting angle and shooting distance at the time of shooting. I can do it. That is, since it is in a hand-held type or semi-fixed state, when the shooting angle and distance are different, a part of the processed part such as the abutment tooth is converted as the central coordinate.
  • Another image is superimposed on the center coordinates, the distance is adjusted, and an operation is performed so that the shooting angles coincide.
  • coordinate values may be adjusted from the values of both inclination sensors in order to form an orthogonal relationship.
  • the adjustment of the photographing angle is similarly processed on the image, and the patient is not burdened.
  • Examples of the semi-fixed type shown in the present invention include, for example, a hand-held type that is also provided with a fixing support for temporarily fixing the distance between the imaging camera and the dentition by contacting other teeth in the oral cavity. Is done. By semi-fixing, the vertical and horizontal directions are maintained, and the photographing angle and the photographing distance can be easily corrected. Due to the semi-fixation, the contact point in the oral cavity may be the center coordinate.
  • reference numeral 101 denotes an abutment tooth, which is formed by shaping a natural tooth for a dentist to attach a prosthesis.
  • 21A and 21B are adjacent teeth, and 21C is a gingival part.
  • Reference numeral 102 denotes a photographed image of the photographing camera.
  • a schematic display in which coordinates are added to a plane on which a photographing screen is projected is performed.
  • Reference numerals 103 and 104 are also images taken by the photographing camera. As can be seen, the shooting screens 102, 103, and 104 are shot with a total of three shooting cameras.
  • All the captured images have the same configuration, and are formed, for example, by arranging camera modules of a general digital camera vertically and horizontally.
  • f is a focal length and is preferably set to the same value using the same camera.
  • FIG. 4 uses a total of three shooting cameras, it does not necessarily require three cameras.
  • the preferred one of the obtained three-dimensional coordinate data is selected for each combination of vertical and horizontal cameras, or else Depending on the case, a method may be adopted in which an averaging process is performed for each coordinate to obtain a more accurate coordinate.
  • main objects that enter the window indicating the imaging range of the camera may be different in either horizontal or vertical directions.
  • the camera arrangement shown in FIG. 4 is preferable in that a sufficient shooting window can be secured. Referring to FIG.
  • 102P, 103P, and 104P are coordinates when the point 101P on the surface of the abutment tooth is imaged, and the respective coordinates are 102P (xa, ya), 103P (xb, yb). , 104P (xc, yc).
  • a formula for obtaining the target coordinates 101P (x, y, z) from the coordinates 102P of the shooting screen 102 and the coordinates 104P of the shooting screen 104 based on the horizontal relationship can be expressed by the following formula.
  • x Tb (xa + xc) / 2 (xa-xc)
  • y Tb (ya + yc) / 2 (xa-xc)
  • z Tbf / (xa ⁇ xc) (Where xa-xc: horizontal parallax, Tb: distance between the center point oa of the shooting screen 102 and the center point oc of the shooting screen 104)
  • An expression for obtaining the target coordinates 101P (x, y, z) from the coordinates 103P of the photographing screen 103 and the coordinates 104P of the photographing screen 104 based on the vertical relationship can be expressed by the following expressions.
  • x Ta (xb + xc) / 2 (xb ⁇ xc)
  • y Ta (yb + yc) / 2 (xb ⁇ xc)
  • z Taf / (yb-yc) (Where yb-yc: vertical parallax, Ta: distance between the center point ob of the shooting screen 103 and the center point oc of the shooting screen 104)
  • the two may actually be different, but either one may be selected, or the other may be used for the purpose of supplementing a region that was not imaged by one imaging.
  • the measurement technique described in Toru Yoshizawa, optical three-dimensional measurement, published by New Technology Communications, 1998 can be suitably used. Adopted.
  • the principle of this measurement method is based on two camera configurations, but even if one is used, the same is true, and this is a so-called photogrammetric method. That is, when the image is taken at the site 102 with one camera and then taken at the site 104, the above-mentioned coordinates are obtained from the photographic images obtained at the respective sites.
  • position coordinates can be set around the upper plane of the abutment tooth 101.
  • position coordinates can be set around the upper plane of the abutment tooth 101.
  • an angle with respect to the reference may be set in advance, and correction may be performed using X, Y, and Z coordinate values obtained from a photographic image when the angle changes.
  • the shooting positions for shooting from the top surface are preferably equidistant at right angles to each other, but may not be particularly vertical as long as correction is possible.
  • 3D display An image conversion unit that converts an image displayed on the display unit into a right-eye image and a left-eye image, and a right-eye image and a left-eye image converted by the image conversion unit are displayed on a screen, a liquid crystal monitor, or the like. By providing an output adjustment unit that outputs an image for the right eye for the right eye and an image for the left eye for the left eye with respect to the image output by the 3D display means and the 3D display means.
  • the image for the right eye in the image conversion means may be one still image of the image data conversion means and corresponds to the right eye, and the same applies to the image for the left eye. Also, images for the right eye and the left eye may be formed.
  • These images are alternately displayed from the display unit, but may be displayed alternately at such a speed that there is no flickering of the images. At that time, these images may be images having different polarization properties, or the left-eye image and the right-eye image may be displayed separately.
  • a polarized image such as a linear polarization method, an anaglyph method, a color filter method, a polarization filter method, or a liquid crystal shutter method is displayed.
  • a liquid crystal display is used to output the right eye image and the left eye image for each dot line, and the polarization directions are 90 degrees different from each other for the output of each dot line.
  • a method of outputting a right-eye image and a left-eye image that are passed through a filter and polarized in different directions is a preferable mode in which a computer display is used.
  • the output adjustment unit in the present invention include glasses-type ones referred to as 3D glasses, or those mounted on the surface of the display unit, and at least the left-eye image is for the left eye and for the right eye. The image only needs to form a situation that can be seen by the right eye, and any image that can display such an image.
  • FIG. 1 is a block diagram showing a first example (including two embodiments) of the present invention.
  • reference numeral 1 is image data converting means.
  • the image data converting means 1 obtains photographing data directly from the oral cavity without contact. For example, at least a still image such as a stereo image method using parallax, a moire method combining a slit with illumination, a photogrammetry, etc. And the image analysis becomes the main processing technique.
  • the image data conversion means 1 mainly images the prosthetic site.
  • a mark is provided in the image. It may be taken in the form of a panoramic photo that joins these together.
  • a wide-angle image may be obtained by photographing the reflected light of the spherical mirror with a camera. Since this wide-angle image has curved coordinates, it can be applied within a range that can be corrected and converted into an orthogonal coordinate system.
  • 2 is a tilt information detection means. Examples of the tilt information detecting means 2 include a microchip that outputs an electrical signal or the like indicating the photographing state of the image data converting means, such as an tilt sensor and an acceleration sensor.
  • the inclination information detection means 2 is an apparatus for installing an image data conversion means and outputting an inclination state of a support body arranged in the oral cavity as an electric signal or the like.
  • 3 is a three-dimensional coordinate acquisition means.
  • the three-dimensional coordinate acquisition means 3 is a means for acquiring three-dimensional coordinates from the image obtained by the image data conversion means, and differs depending on the three-dimensional measurement method, but in the case of a stereo camera, the calculation shown in the subsequent stage is performed.
  • 4 is an adjustment means.
  • the adjustment unit 4 performs adjustment such as calibration on the three-dimensional coordinate value obtained by the three-dimensional coordinate acquisition unit 3 with the values in the gradient X direction, Y direction, and Z direction obtained by the gradient information detection unit 2. Means.
  • the adjusted three-dimensional coordinate data may be displayed as a virtual prosthesis on the monitor for confirmation by interpolating between the coordinates with lines or planes as necessary.
  • 5 is processing data forming means, which forms processing data in accordance with the processing specifications of the subsequent processing means 6.
  • the three-dimensional coordinate acquisition means 3, the adjustment means 4 and the processing data formation means 5 are mainly processed by a single microcomputer for calculation processing, but only the measurement is performed at the dental clinic and the processing is performed at a remote place. In some cases, the three-dimensional coordinate acquisition unit 3 and the adjustment unit 4, the processing data formation unit 5 and the processing unit 6 may be separate. 6 is a processing means.
  • Processing means 6 include feldspar, silica stone, ceramic material, hydroxyapatite, ⁇ -TCP, zirconia, alumina, ceramic materials such as glass-like ceramics, resin material, and a processing block formed of a composite material of resin material and ceramic material CAD / CAM equipment and NC processing equipment, such as those that manufacture prosthesis by grinding with cutters, mills, etc., cutting tools, automatic construction, rapid prototype processing equipment such as 3D printers, etc. Is done. Next, the operation of the embodiment shown in FIG.
  • the image data conversion means 1 and the inclination information detection means 2 are inserted into the oral cavity, for example, as an integrated body with the support in a state installed on the same support member, and manually placed in the vicinity of the measurement target site, Focus and shoot without causing camera shake. Alternatively, one or more still images captured by photographing a plurality of images of the same part and then selecting one image in which a part or all of the focus is matched are transferred to the three-dimensional coordinate acquisition unit 3 by wire or wirelessly. Sent. When the image data converting means 1 images a prosthetic part, a monitor that displays a moving image for positioning may also be provided.
  • the inclination information detecting means 2 for detecting the photographing direction of the image data converting means 1 outputs the inclination data to the adjusting means 4 in a wired or wireless manner.
  • the output information of the image data converting means 1 and the tilt information detecting means 2 is generally image information when output wirelessly and can be compressed to JPEG, GIF, etc. In some cases, it is preferable to output the output. In addition, there are cases where delivery is performed using media such as FD, MO, CD, SD card, and USB memory.
  • the image transmitted from the image data conversion means 1 is converted into a three-dimensional coordinate value by the three-dimensional coordinate acquisition means 3 and output to the adjustment means 4.
  • the adjusting means 4 adjusts the three-dimensional coordinate value from the three-dimensional information acquisition means 3 with the inclination value of the inclination information detecting means 2, and adjusts the adjusted three-dimensional coordinate data to the processing data forming means.
  • Send to 5 The processing data forming means 5 converts the three-dimensional coordinate data into data for processing by the processing means 6, displays a virtual dental prosthesis on the computer monitor, and sets an adjustable state. In some cases.
  • the processing means 6 manufactures a prosthesis based on the processing data sent from the processing data forming means 5. The manufactured prosthesis is delivered to the dentist by home delivery, mailing, etc. when the dentist and the dental technician department are separated.
  • FIG. 2 shows a second embodiment of the present invention.
  • 10 indicates an example of a support.
  • the support 10 is composed of a combination of a measurement support unit 11 on which a camera can be measured three-dimensionally and a gripping unit 12 for manual operation.
  • a specific configuration example of the support 10 is shown in FIG. 3A, reference numeral 301 denotes a measurement support unit, which is preferably fixedly connected horizontally with cameras 302 and 303 having the same specifications and the same settings.
  • the cameras 302 and 303 are small camera modules used in mobile phones and digital cameras as long as the images are captured when the shutter is pressed.
  • the cameras 302 and 303 have the same focal length, and are arranged and fixed parallel to the longitudinal direction of the grip portion 12.
  • 310 is an inclination sensor.
  • the tilt sensor 310 is a chip-shaped sensor also called an acceleration sensor.
  • a microchip-shaped tilt sensor such as a trade name GP1S36J0000F (manufactured by Sharp Corporation) is exemplified.
  • One or a plurality of arrangement parts may be arranged at an appropriate part depending on the shape and arrangement of the measurement support part. For example, when three cameras are used as shown in FIG. 3C, the tilt sensor 310 may be unnecessary because it may be corrected with a camera image.
  • the size of the tilt sensor 310 is preferably about a dental mirror or about one time larger in order to reduce the burden on the patient, and is preferably formed with a curved surface and a spherical surface as a whole.
  • 13 is a transmission unit for processing the image externally, and is connected to an external monitor. Note that a shutter may be provided on the grip portion 12, but may be set externally when shaking such as camera shake is involved.
  • 304 is a light source for illumination, and a light source that can recognize the tooth surface of the measurement site is used.
  • Reference numeral 305 denotes a pointer through a slit for projecting a pattern indicating a measurement point, such as a striped pattern or a point sequence pattern, in the oral cavity.
  • the pointer 305 can also serve as a pointer when it is difficult to extract a part for detecting the three-dimensional coordinates of the part to be measured by imaging.
  • the illumination light source 304 and the pointer 305 may be configured separately from the outside, may not be installed on the measurement support unit, or may be unnecessary.
  • FIG. 3 (b) shows the camera arranged in the vertical direction, whereas the camera shown in FIG. 3 (a) is arranged in the horizontal direction.
  • the arrangement shown in FIG. 3 (a) and the arrangement shown in FIG. 3 (b) may be appropriately selected and used depending on the measurement site in the oral cavity. In this case, the vertical state is changed to the horizontal state before measurement, or vice versa. You may form so that rotation is possible.
  • 3C shows an embodiment in which three cameras are used, and one camera can be moved up and down in order to enable photographing from the left and right sides.
  • the camera 306a can be used for three-dimensional measurement both vertically and horizontally by moving the camera 306a when photographing the left and right sides of the dentition.
  • 307 is a guide hole for sliding, and the photographing camera 306a can be moved along the guide hole.
  • 12 is a gripping part, which is a part that becomes a gripping part when used by an operator.
  • 308 is a sliding button, and a guide hole 309 is formed so that the sliding button can slide in the longitudinal direction.
  • the sliding button 308 is interlocked with the photographing camera 306 a, and when the sliding button 308 is moved along the guide hole 309, the photographing camera 306 a is also interlocked and moved along the guide hole 307.
  • the photographing camera 306a may be fixed without being slidable, and two cameras with different left and right arrangements may be prepared.
  • reference numeral 13 denotes a transmission unit, which is a cable for transmitting an on / off signal of a camera shutter and a video signal of a photographing camera to the display arithmetic unit 14.
  • wireless means may be used in place of wired means for transmission of still images.
  • 14 is a display calculation unit.
  • the display calculation unit 14 displays the transmitted image data, and may be formed of a portable monitor, a mobile phone, or the like for creating three-dimensional data depending on the case.
  • 15 is a display unit.
  • the display unit 15 is formed of a liquid crystal panel or the like, and displays a photographed intraoral photograph, synchronous display of three-dimensional data after calculation, and the like.
  • 15a, 15b, 15c are intraoral images displayed on the display unit 15 and are displayed in a stereo display state.
  • 15d displays the x-axis component, y-axis component, and z-axis component of the tilt detected by the tilt sensor 310.
  • FIG. 2 shows an example of the display screen of the display unit 15 obtained by photographing the occlusal surface 1A including the prosthesis mounting recess 1B formed on the occlusal surface of the tooth with the cameras 306a to 306c shown in FIG. 3 (c).
  • XY coordinates are respectively shown and are the same display, and the positions of the cameras are different, so this becomes parallax, and the XY coordinate positions of the photographed occlusal surface are shifted.
  • the three-dimensional display of the measurement site may be performed in the virtual mode after the calculation.
  • 16 is a shooting on / off button.
  • the shooting on / off button 16 is formed by a shutter or the like, and is a push button, for example, for performing shooting simultaneously with the shooting cameras 306a, 306b, and 306c shown in FIG.
  • the display unit 15 is a touch panel system, it may be due to contact with a finger, a dedicated pen, or the like.
  • FIG. 3 (e) is an example of a configuration in the case where three-dimensional measurement is performed by moving one camera.
  • one camera 311 is mounted on the measurement support unit 301 and configured to be movable in parallel along the slide hole 312 of the grip unit 12.
  • an inclination sensor, illumination, a pointer, etc. may be provided.
  • a photograph is taken with the camera 311 for each predetermined movement distance, and for example, between the 311 and 311 a, the three-dimensional coordinates of the subject are acquired from the two photographed photographs. Then, the three-dimensional coordinates of the portion captured by both the cameras 311a and 311b can be acquired from the two photographs taken between 311a and 311b without being captured by the cameras of different parts 311.
  • the moving means of the camera 311 include those equipped with a mechanism for automatically moving at intervals of several seconds by automatic driving by remote operation and timer setting. In order to prevent the position of the gripper from changing as much as possible, automatic moving shooting may be preferable.
  • reference numeral 18 denotes a computer, such as a personal computer.
  • the display operation unit 4 may be used supplementarily when sufficient processing is not performed.
  • the computer 18 is used by connecting via a connection cable 17 indicated by USB, infrared, wireless, or the like, or for transmitting processing three-dimensional data to a subsequent processing device 19. It may be used for In addition to the case where the computer 18 is required alone, the computer 18 may be unnecessary when the display arithmetic unit 14 has the function.
  • the display calculation unit 14 forms a connection relationship by transferring data between a dentist having a measuring device and a technical factory that processes and manufactures a prosthesis using a network such as the Internet. It is also possible. In this case, the dentist sends out a photo screen that can be converted into three commonly used jpeg, GIF, BMP, TIFF, and so on, and it is only necessary to extract three-dimensional data at the laboratory. Since the dentist's work is about simple mail, a system that does not require much time can be formed. Instead of e-mail, when taking a picture, the dentist does nothing, and a plurality of photographs may be sent to the laboratory, which may further simplify the system. 19 is a processing device.
  • the processing device 19 is exemplified by a CAD / CAM device, and is for grinding and cutting the ceramic block based on the three-dimensional processing data sent from the computer 18.
  • FIG. 2 shows a part thereof.
  • 20 is a processing block, which is formed of ceramics or a composite of ceramics and resin.
  • 21 is a processing mill that presses the tip and side surfaces against the processing block while the drill rotates, and performs grinding cutting.
  • Reference numeral 22 denotes a mounting portion for mounting and fixing the processing block 20.
  • CADIM registered trademark
  • FIGS. 2 and 3B the operation of the embodiment shown in FIGS. 2 and 3B will be described.
  • the measurement support part 11 is brought to the part for measuring the tooth to be measured and the photographing on / off button 16 is pressed.
  • the shooting camera instantaneously forms a shot image.
  • the imaging region is illuminated by a flash or an illumination light source 304 that performs constant illumination.
  • an image transmitted via the transmission unit 13 is displayed on the display unit 15 is shown. The image in this case is the occlusal surface 1A and the surface of the prosthetic site 1B of the measurement site.
  • the common part is obtained from the three images displayed on the display unit 15, and the three-dimensional coordinates of the part are obtained by calculation using the method shown in FIG. 4 to obtain the whole three-dimensional shape data.
  • the three-dimensional coordinate value can be obtained by calculation according to the operation principle shown in FIG. 4 if at least common measurement points can be confirmed by a plurality of photographs. Further, when a dot pattern or a striped pattern by the pointer 305 shown in FIG. 3 is used as a measurement point, three-dimensional coordinates can be obtained with high accuracy.
  • a specific point of a tooth is identified by two or more images, it is necessary to recognize this specific point. However, the surface of the tooth is likely to be irregularly reflected by the color of the tooth or saliva.
  • a means for identifying the corresponding range pixel of the photograph B with respect to the range pixel of the specific part of the photograph A and obtaining the luminance of each range pixel Measures to take the difference in luminance of the range pixels in photo A and set the difference value pattern, Measure to take the difference in brightness of the range pixels in photo B and set the difference value pattern
  • Means for setting the difference as a common point, and when they do not match, the range pixel of the photograph B is selected Means to move and make similar comparisons, The configuration can be exemplified.
  • the range pixel is a range that can be set as one common point. Since the difference indicates the amount of change in luminance, even if the luminance appears to be uniform, it may differ depending on the amount of change.
  • a common point is determined by forming a value pattern and comparing this difference value pattern with a difference pattern on another photographic image.
  • the difference value pattern is obtained by sequentially obtaining a difference value between one pixel luminance value and an adjacent pixel luminance value, and by connecting them, the difference between the difference value and the difference value, that is, 2 It is also possible to take the difference of times and connect the values of these two differences, and take the difference value of two times or more to specify the common part of both images.
  • the difference value is a change pattern before and after, so that comparison and matching can be easily performed on both images.
  • the range pixel is an example.
  • On the image coordinates for example, in the x-axis direction or the y-axis direction, means for connecting the difference values to form the brightness difference connection data R, and the brightness difference connection data can be used in other images.
  • Means for forming the luminance difference concatenated data L in the same direction that is, the luminance difference concatenated data R obtained earlier and the x-axis direction, the y-axis direction, or the direction having the same inclination), the luminance difference concatenated data R,
  • a combination configuration by means for detecting a portion having the same connection pattern in the luminance difference connection data L and selecting a common point from the common pattern is also exemplified. Due to this difference, photos taken in the same direction but with slightly different directions are focused on images with roughly the same brightness, but with different brightness ranges. By setting a part having the same pattern or a certain amount of tail as a common part and obtaining a three-dimensional coordinate, highly accurate three-dimensional coordinate data can be obtained.
  • This difference gives the rate of change in luminance at the adjacent portion. However, by further subtracting this difference, it may be a preferable aspect when two images are collated to obtain a common point. If still another surface requires a photograph of the opposite side via the dentition, the sliding unit 308 is operated to adjust the camera 306a by sliding it up and down. If three-dimensional data is obtained, it is virtually constructed, and dental prostheses such as inlays and crowns are output and displayed on the computer 18, etc., adjusted again if necessary, and then converted into processing data. To do. The processing data is further transmitted to the processing device 19, and the processing block 20 set in the mounting portion is ground and cut.
  • FIG. 5 shows a third embodiment of the present invention. Since the present invention is formed of a plurality of still image images, the image is two-dimensional and has a small capacity. Therefore, a general-purpose personal computer can obtain three-dimensional shape coordinates of teeth and dentition in a healthy state. Therefore, it is possible to take a processing technique as shown in FIG. 5A, reference numeral 402 denotes a tooth shape before caries, and at the time of measurement, at least three images are stored as stereo images. Furthermore, if necessary, a stereo image of the counter teeth 401 is also taken and stored. After the caries treatment, as shown in FIG.
  • the occlusal surface 404 including the prosthetic part 403 in which the prosthesis is required is photographed.
  • a photographed image example is shown in FIG.
  • 404a is an occlusal surface image
  • 403a is an image showing a processed prosthetic region.
  • the previously captured image is called up
  • the coordinates are obtained as a three-dimensional image
  • the virtual three-dimensional tooth shape before the caries is displayed.
  • 402a in FIG. 5D is a virtual occlusal surface before caries.
  • the prosthesis 23 can be obtained (see FIG. 4).
  • tooth data when healthy is recorded, but the present invention is not limited to this.
  • the data of the opposing teeth may be recorded, or the data of the opposing teeth 401 at the time of treatment may be recorded, and this may be used to form the occlusal surface.
  • the present invention is a method for manufacturing a prosthesis by directly measuring the shape of the oral cavity, it is more suitably used in a wax upless method in which a wax model is not created.
  • FIG. 6 shows a fourth embodiment of the present invention.
  • FIG. 6A shows the inside of the oral cavity where the abutment tooth or the implant abutment tooth 504 is exposed from the surface of the gingival portion 505.
  • the support shown in FIGS. 2 and 3 is inserted into the oral cavity and photographing is performed.
  • reference numerals 501 a and 501 b denote counter teeth adjacent to the counter teeth 501.
  • Reference numerals 502 and 503 denote adjacent teeth.
  • the captured photographic images for obtaining the three-dimensional coordinates are the scene of FIG. 6A, the scene of FIG. 6B, and the scene of FIG. 6C, each of which is a plurality of stereo images. Taken.
  • the diameter P1 and the tooth height value P2 of the maximum protuberance of the virtual prosthesis which is the distance between the maximum protuberances of the adjacent teeth 502 and 503, are obtained as the main parts for creating the virtual prosthesis.
  • the tooth height value P2 may be obtained by extracting the distance from the occlusal surface of the counter teeth 501 to the surface of the gingiva 505, but the height connecting the occlusal surfaces of the adjacent teeth 502 and 503 is not required. To the gingival 505 surface. In this case, the value can also be obtained from a single planar image and used as it is to form a virtual prosthesis shape.
  • FIG. 6 (b) shows a state taken from above. In this state, the tooth width value P3 coordinates can be acquired. This value is also sufficient for one plane coordinate, but by obtaining the z value, a more accurate tooth width value P3 can be obtained. Furthermore, the surface shape P8 and the margin line PM of the abutment tooth are obtained. The margin line PM may be subjected to marker processing such as coloring, and preprocessing that makes it easy to capture.
  • FIG. 6 (b) shows a state taken from above. In this state, the tooth width value P3 coordinates can be acquired. This value is also sufficient for one plane coordinate, but by obtaining the z value, a more accurate tooth width value P3 can be obtained. Furthermore, the surface shape P8 and the margin line PM of the abutment tooth are obtained. The margin line PM may be subjected to marker processing such as coloring, and preprocessing that makes it easy to capture.
  • FIG. 6 (c) shows the occlusal surface of the counter teeth, and can be obtained by photographing the three-dimensional shape P4 of the occlusal surface of the counter teeth 501 with the camera shown in FIG.
  • the virtual prosthesis has a height P5 from the maximum ridge (circumference of diameter P1) from the gingival portion 505 of the abutment tooth, a diameter P6 of the top surface of the abutment tooth, a diameter P7 of the bottom surface of the abutment tooth, and the abutment tooth.
  • P5 from the maximum ridge (circumference of diameter P1) from the gingival portion 505 of the abutment tooth
  • a diameter P6 of the top surface of the abutment tooth a diameter P7 of the bottom surface of the abutment tooth
  • the abutment tooth are formed on the basis of the values of the surface shape P8 and the margin line PM.
  • the surface shape of the abutment tooth can be determined by the surface shape P8 and the margin line PM restored based on the three-dimensional coordinate data, but the abutment tooth is originally formed by a dentist. In some cases, only other numerical values may be determined. In the case of passive three-dimensional shape measurement using a still image, the values obtained from the two-dimensional image are used as they are, and the occlusal surface and the abutment tooth surface are obtained three-dimensionally using stereo images and used. Thus, an appropriate virtual prosthesis can be created on a computer monitor in a short time with little processing data.
  • FIG. 6D shows a screen 506 of the computer 18 or the display unit 15, and a virtual prosthesis when the 507 displayed in the small window 506a virtually creates a prosthesis based on P1 to P8 and PM, for example. It is a thing. Note that all of P1 to P8 and PM are not always necessary, and may be selectively used as appropriate. 508 is the displayed database.
  • data relating to a typical shape of the prosthesis is accumulated, and a half-processed block having a shape corresponding to each piece of data is prepared.
  • the virtual ready-made model is formed by cutting and grinding a processing block in advance corresponding to the data, and the virtual ready-made model 509 determined and displayed is virtual as shown by a small window 506b in FIG. 6D.
  • a state in which the virtual prosthesis 507 of the prosthesis formed in an overlapping manner is displayed may be displayed.
  • the difference 510 between the solid line and the dotted line
  • a prosthesis corresponding to the virtual prosthesis 507 can be formed.
  • the main part of prosthesis formation is not limited to wax-up-less, and there are up to about 8 main parts. Therefore, a virtual prosthesis can be easily created by combining two-dimensional data and three-dimensional data.
  • the dental prosthesis can be manufactured with a shortened processing time.
  • FIG. 7 shows a fifth embodiment of the present invention.
  • reference numeral 601 denotes a network line indicating the Internet, an intranet, an extranet, a mobile phone network, or the like.
  • Reference numerals 602 and 603 denote providers in the case of the Internet and relay stations in the case of mobile phones.
  • 604 is a network transmission path for connecting the display arithmetic unit 14 and the provider 602
  • 607 is a network transmission path for connecting the provider 603 and the laboratory server 606, all of which are telephone lines, optical lines, LAN cables, etc.
  • a wired network or a wireless LAN is used.
  • 608 is a wired cable that connects the technical laboratory server and the processing device 19, and is formed of a USB cable, a parallel cable, a serial cable, or the like.
  • 613 is a mobile phone for a user
  • 614 is a mobile phone for a technical laboratory, which are connected by a wireless mobile phone network 615 (a relay station or the like is omitted on the way).
  • 605a, 605b, and 605c are transmission photographs, each of which is a three-dimensional shape data photograph having a parallax.
  • the number of transmissions may be a multiple of 3 depending on the shooting conditions.
  • Reference numeral 606 denotes a technical laboratory server for calculating three-dimensional coordinate data from the transmitted photographic image and converting it into processing data at the technical laboratory.
  • Reference numeral 609 denotes a delivery route, which is a means for delivering a completed prosthesis to a dentist or the like, such as mailing, delivery to the home, or bringing with you.
  • 610 is a transmission body that connects the support 10 and the user's mobile phone 613, and is formed by a wired cable such as USB, infrared rays, radio waves, radio waves, or the like.
  • Reference numeral 611 denotes a transmission body that connects the support 10 and the display arithmetic unit 14 and is formed of a wired cable such as USB, infrared rays, radio waves, wireless, or the like, similarly to 610.
  • Reference numeral 612 denotes a transmission path for connecting the laboratory mobile phone 614 and the laboratory server 606, which can use a wired cable such as USB, infrared rays, radio waves, wireless, etc., as well as an SD memory, a USB memory, and the like.
  • the support 10 is gripped and inserted directly into the oral cavity, and the surface of the prosthetic site 1B of the occlusal surface 1A is photographed in a stereo state by a camera group fixed to the measurement support unit 11.
  • the obtained photographs 605a, 605b, and 605c and the tilt information output by the tilt sensor are transmitted to the user mobile phone 613 via the transmitter 610.
  • these photographs may be transmitted to the display calculation unit 14 via the transmission body 611.
  • either one of the above-described methods may be selected.
  • the display arithmetic unit 14 is not necessary, or the button of the mobile phone is used as a shutter.
  • the display calculation unit 14 can display the inside of the oral cavity in a moving image state until a still image is captured. When a smooth movement is expected, both are connected, and the support 10 captures the prosthetic region. Until positioning, observe the inside of the oral cavity with the display calculation unit, press the photographing on / off button 16 to capture a still image, check the display unit 15 for blurring and blurring, and then via the user mobile phone 613, The photographs 605a, 605b, and 605c and the tilt information output by the tilt sensor may be transmitted.
  • the photo information 605a, 605b, 605c and the tilt information output from the tilt sensor are transmitted from the display calculation unit 14 via the network transmission path 604, the provider 602, the network line 601, and the provider 603 to the laboratory server. 606 is transmitted.
  • the photographs 605a, 605b, and 605c are transmitted to the user's mobile phone 613, they are transmitted from the display calculation unit 14 by using existing transmission means such as infrared rays and radio waves, and media such as an SD card.
  • the transmission path of the support 10 may be directly connected to a mobile phone and the shutter signal may be transmitted from the mobile phone to directly take a photographic image into the mobile phone without using 14.
  • the technical laboratory server 606 calculates three-dimensional data from the transmitted three photos, converts the data into processing data based on the virtual prosthesis shape, and transmits the processing data to the processing device 19.
  • the processing device 19 manufactures the prosthesis 23 by grinding and cutting the processing block 20 by a processing mill 21 which is a processing jig based on the processing data.
  • the manufactured prosthesis 23 is delivered to a user such as a dentist via a delivery route 609.
  • FIG. 8 shows a sixth embodiment of the present invention.
  • reference numeral 801 denotes a computer monitor, which is mainly composed of a liquid crystal display and a projector. If the monitor 801 is a projector system as shown in FIG.
  • a screen 809 having the same reflection characteristics as a mirror is obtained by using two projectors 810 and 811 for the left-eye image and the right-eye image. Project to.
  • the left-eye image is output to the screen while performing polarization driving of an internal polarizing plate such that the polarization axis direction is, for example, 45 degrees, and the right-eye image is subjected to polarization driving such as, for example, 135 degrees.
  • the monitor 801 is a liquid crystal display
  • the left-eye and right-eye images are alternately arranged for each dot line of the liquid crystal display screen, and the right-eye or left-eye polarization direction is 90 for each line.
  • a liquid crystal filter made of, for example, 25 ⁇ m cellophane that changes in degree is installed.
  • 802 is a glasses-type 3D display device
  • 803 is a polarization transmission unit for the left eye
  • 804 is a polarization transmission unit for the right eye.
  • the left-eye polarization transmission unit 803 is a polarization filter that allows only the left-eye image displayed on the monitor 801 to pass therethrough
  • the right-eye polarization transmission unit 804 is a polarization filter that allows only the right-eye image displayed on the monitor 801 to pass therethrough.
  • FIG. 8B shows a display method using two projectors 810 and 811 and a screen 809 instead of the monitor 801 shown in FIG.
  • FIG. 8C shows a polarizing filter unit 805 that is connected to the display surface of the monitor 801 or arranged at a predetermined distance.
  • Reference numeral 806 denotes a left-eye filter, which is a left output from the monitor 801. Only the eye image is passed.
  • Reference numeral 807 denotes a right-eye filter that passes only the right-eye image output from the monitor 801.
  • the filter unit 805 is not worn like glasses, but is intended to pass the left eye image to the left eye and the right eye image to the right eye.
  • a shielding plate 808 may be installed in the center of the filter unit 805 perpendicular to the filter surface.
  • the filter unit 805 is used by being placed on the front surface of the monitor 805, and the left and right images are not completely separable depending on the viewing direction. However, the filter unit 805 can be used sufficiently depending on the usage mode, and the shielding plate 808 is used. Sometimes it is not necessary.
  • teeth and the like are simultaneously photographed by a plurality of cameras. In this case, since the images captured by the individual cameras can be parallaxed, the individual images are respectively designated as a left eye image and a right eye image. It may be used.
  • Both these images are decomposed into dot lines, and the monitor 801 adjusts so that the left eye image and the right eye image are displayed for each dot line.
  • the polarization direction changes by 90 degrees.
  • the display in which the monitor 801 outputs the left-eye image and the right-eye image for each dot line is the 3D display 802, and the left-eye image 801a passes through the left-eye polarization transmission unit 803, and the left-eye image is displayed. Only input to the left eye.
  • the right-eye image 801b passes through the right-eye polarized light transmission unit 804, and only the right-eye image is input to the right eye, and the person wearing the 3D display 802 is viewing a stereoscopic image.
  • This state is a 3D display of the imaged intraoral cavity, and further, three-dimensional coordinate data is obtained based on the image data, and a virtual prosthesis shape having three-dimensional coordinates is formed.
  • a virtual prosthesis shape having three-dimensional coordinates is formed.
  • FIG. 9 is an example of a database in which three-dimensional coordinate data created in advance for the object to be measured is accumulated.
  • 90D1 is prepared by previously preparing a plurality of continuation shapes of a site to which a target prosthesis is to be attached and registered in a computer database.
  • the 90D2 prepares a plurality of shapes of a target prosthesis in advance, and is also a computer. Registered in the database.
  • the database 90D1 shown in FIG. 9 (a) obtains data from the oral cavity in order to produce a prosthesis by a wax upless technique or the like.
  • Various shapes are stored in a database by using data and data supplemented thereto.
  • 900 is the first reference virtual data registered inside one virtual oral cavity, and preferably has an ID symbol.
  • the first virtual data 900 is an aggregate of three-dimensional data, but is a three-dimensional display list that is three-dimensionally displayed so that the user can easily select it.
  • Reference numeral 901 denotes second reference virtual data.
  • Reference numeral 902 is a three-dimensional perspective view
  • reference numeral 903 is a three-dimensional side view
  • reference numeral 904 is a three-dimensional top view.
  • the database 90D2 shown in FIG. 9B is a database in which the shape of the prosthesis to be manufactured is registered in advance
  • 905 is a tertiary formed by previously detecting the prosthesis model to be manufactured from the oral cavity. It is an example of the original coordinate data berth.
  • reference numeral 906 denotes a virtual three-dimensional display when one piece of three-dimensional coordinate data is viewed from a predetermined direction.
  • 907 is a virtual perspective view
  • 908 is a virtual side surface
  • 909 is a virtual top surface
  • 910 is a diagram showing a virtual bottom surface.
  • tooth height value data 908a, tooth width value data 909a, Margin diameter data 910a is set and registered as a keyword, is compared and searched with corresponding measured value data, and uses the closest data as reference data. It should be noted that such display is not necessarily required, and actually, the virtual data that is most approximate is selected by comparing as data.
  • FIG. 10 shows an embodiment when three-dimensional data processing is performed using the database 90D1 in which the virtual three-dimensional shape data shown in FIG. 9 is accumulated.
  • the search based on the database shown in FIG. 9 may be sufficient based on a search based on at least one photograph. For example, it is approximated based on the tooth height 903b obtained from the photograph 903, the value 903b indicating the diameter of the maximum protuberance of the prosthesis, the shape of the adjacent tooth, and the margin line size of the abutment tooth as seen from the top photograph 904. Search for 3D data.
  • FIG. 10A shows actually measured virtual data configured based on three-dimensional data calculated from actual photograph images.
  • the actually measured virtual data 911 includes a blind spot portion caused by imaging, and further selects and compares the selected reference virtual data 911S selected for the portion whose accuracy is lowered due to the situation in the oral cavity, and calculates the difference.
  • a portion that has not been photographed due to blind spots or a portion that has not been accurately measured due to intraoral conditions is supplemented with reference to the reference data 911S.
  • 912 is measured first adjacent tooth three-dimensional data
  • 913 is measured second three-dimensional data
  • 914 is measured three-dimensional abutment tooth data.
  • 915 is the diameter of the profound difference of the prosthesis to be produced, and 916 corresponds to the diameter of the abutment tooth 914.
  • the approximated data is retrieved from the virtual database shown in FIG.
  • the virtual data obtained as a result of the search is shown in FIG.
  • Actual measured first adjacent tooth data 912 and reference first adjacent tooth data 912S, measured second adjacent tooth data 913, reference second adjacent tooth data 913S, measured abutment tooth data 914, and reference actually measured tooth data 914S are compared.
  • 917, 918, 919, and 920 are areas that cannot be measured due to blind spots.
  • FIG. 10C is a cross-sectional view of the line segment a-a ′ in a state where the measured first adjacent tooth three-dimensional data and the reference first adjacent tooth three-dimensional data are superimposed. There is a difference L between the measured first adjacent tooth data 912 and the reference first adjacent tooth data 912S.
  • the reference data is prioritized, or the region 917S where the actual measurement cannot be performed due to the blind spot.
  • three-dimensional coordinates with respect to a common point are obtained from at least two photographic images, and the three-dimensional shape of the subject is recognized.
  • the three-dimensional coordinates are calculated, and the state of the measurement site is a representative numerical value.
  • the data corresponding to the intraoral site is retrieved from the database shown in FIG. 9 at the timing when the value of the site corresponding to the keyword registered in the database shown in FIG. 9 is calculated.
  • FIG. 11 shows an eighth embodiment of the present invention.
  • FIG. 11 shows an example of an imaging probe for enabling simultaneous imaging of the upper and side surfaces of the dentition in the oral cavity.
  • FIG. 11A is a perspective view of the probe as viewed from the upper surface, and
  • FIG. ) Is a perspective view seen from the back side.
  • reference numeral 1101 denotes an upper surface support portion
  • 1102 denotes a side surface support portion, both of which are preferably arranged and fixed at a right angle or an angle at which coordinates can be easily obtained, from the end of the upper surface support portion 1101.
  • the grip 1103 extends.
  • the gripper 1003 may be further connected to an external monitor device by an electrical lead wire.
  • the present embodiment is about data of a plurality of photographic images, it can be transmitted wirelessly to an external monitor. In some cases, it may be recorded on a small media such as an SD card. Focusing may be performed automatically, but since a mechanical mechanism is required for this purpose, multiple photos are automatically taken from one camera, and the best focus is achieved from that. An image may be selected.
  • 1104 is a top camera R
  • 1105 is a top camera L. It is preferable that the configuration is the same digital camera and the resolution is high.
  • 1106 is illumination, and white LED etc. are irradiated in the state etc. which passed through the slide glass.
  • 1107 is a side camera R
  • 1108 is a side camera L
  • 1109 is an illumination unit, which has the same configuration as the top surface unit.
  • FIG. 11C is an explanatory diagram in the case where the probe of the present embodiment is actually addressed to the measurement site in the oral cavity. As can be understood from this figure, necessary information can be photographed at once without wax-up, and when photographing separately, it is not necessary to unify the coordinates obtained at the position of the probe.
  • FIG. 12 shows an eighth embodiment of the present invention.
  • reference numeral 1001 denotes a close-up shot image acquisition means.
  • the close-up shot image acquisition means 1001 is a plurality of cameras, and one or a plurality of the same shooting means each having a lens set with a depth of field of several tens of mm is formed in a flat plate shape or It is means for acquiring a plurality of images taken by a photographing member having a photographing surface fixedly or semi-fixedly mounted at a predetermined angle.
  • the camera used here preferably has a high resolution and is exemplified by about 0.3 to 4 megapixels.
  • the camera is preferably small because it is disposed at the tip of the probe inserted into the oral cavity or a portion close to the tip. Therefore, a camera having a smaller and higher resolution is exemplified.
  • the present invention preferably uses it within a range where close-up photography is possible.
  • the camera is formed by customizing the lens and the image sensor, it is preferable that the lens is high resolution and small.
  • Semi-fixed means a configuration in which a single camera is formed to be movable so that it moves in a fixed direction.
  • it is preferable to shoot continuously, and delete a photographed image that is out of focus such as camera shake and out of the depth of field from a plurality of photographed images. For example, from 30 movie levels per second up to 1 movie is illustrated, but in the case of a movie, the resolution may be limited. It may be good if it is possible.
  • Reference numeral 1002 denotes selection means for selecting a pair of photographed images from image data obtained by one photographing. For example, camera shake and blurring may be determined by performing a convolution process using a known kernel and determining the level of the total density of the extracted edge images. ⁇ By adopting this selection means, without taking a picture in a fixed state of the camera, the picture is taken while moving, and an image pair free from blurring and camera shake is detected. Defocusing indicates that the shooting is not within the distance range of the depth of field. If necessary, a distance sensor is attached, and the user is able to reverse the depth of field from the approximate distance.
  • Reference numeral 1003 denotes a correction unit, which is formed by camera calibration software or the like, and is a unit that adjusts the distortion of the image by the lens, the brightness between the image periphery and the center, and the like, and a unit that converts the image into a distance acquisition image It is.
  • Reference numeral 1004 denotes photographed image coordinate setting means for setting coordinate values for the photographed image corrected by the correcting means 1003. Orthogonal xy coordinates having a center point at the same part with respect to a plurality of images. It is preferable to set common coordinates such as.
  • Reference numeral 1005 denotes a common shooting range setting unit that sets a common range among shooting ranges of a plurality of shot images obtained by the closest shot image acquisition unit 1001. This is for setting a common range by, for example, extracting and superimposing the contours and characteristic parts of each image. This is performed in order to increase the processing speed of the means for determining the common point in the subsequent stage. If there is no problem in the processing speed, there is a case where the common imaging range may not be set at this time. Further, in the case of close-up photography, the outline may not be detected, so the common range may be determined later.
  • Numeral 1006 is a common point determination means, which is a means for specifying a common point on a common range, which is a plurality of images, using a so-called block matching method and sub-pixel estimation method.
  • the common point determination unit 1006 uses one point on one image as a reference point and searches and determines a point corresponding to the reference point on another image.
  • the search is mainly a luminance value, and may be performed for each of the three primary colors if it is a color image.
  • the brightness value match may be an approximate match, and the subpixel estimation method for estimating the difference between the brightness value of the search point and the reference point or the point at which the square value is the smallest can be used for more accurate accuracy. It is preferable to look for high commonalities.
  • the reference points shown here and the points indicated by the common points may indicate a single pixel or a plurality of pixels, and in the case of a plurality of pixels, examples using an average luminance value are exemplified.
  • 1007 is a common coordinate setting means for obtaining a so-called world coordinate value from each image coordinate value of the common point estimated or deterministically obtained by the common point determination means 1006.
  • a method for obtaining the world coordinate value a known trigonometric method or the like may be used. If necessary, a plurality of common points such as an 8-point algorithm are obtained, and an algorithm such as a basic matrix is determined from each image coordinate value. A technique may be used.
  • Reference numeral 1008 denotes a combining unit that reads the previously formed 3D coordinate data from the temporary recording unit 1008 and combines this with the 3D common coordinate data formed at the present time. The combination is exemplified by a method of finding a coordinate group that is approximately in common with the previous data and matching the coordinate group to combine them.
  • Reference numeral 1009 denotes a temporary storage means, and examples thereof include a digital memory and other digital media that temporarily store common three-dimensional coordinate data obtained by combining with the previous combining means.
  • Reference numeral 1010 denotes processing data forming means for converting the combined data obtained by the combining means 1008 into data for processing. The data is displayed on a computer monitor and is sequentially combined.
  • the close-up image acquisition means 1001 continuously shoots at a close distance while holding a probe with a plurality of cameras attached to the tip of the camera pair with respect to the portion to be imaged in the mouth. Shooting is performed by continuous shooting while moving or stationary, and a plurality of image pairs are output to the selection unit 1002 (0a).
  • the selection unit 1002 performs an edge detection process on the input image data, grasps the state of camera shake from the value, selects an image without blurring and camera shake, and outputs the image to the correction unit 1003 (0b).
  • the correction unit 1003. When a part of the image is out of focus, such as when the depth of field is shallow, an image other than the out of focus is extracted and output to the correction unit 1003.
  • the distance image pair is output to the captured image coordinate setting unit 1004 (0c). Coordinates are set for the input multiple pairs of distance images and output to the common shooting range setting means 1005 (0d).
  • the common shooting range setting unit 1005 detects and sets a common shooting range from the image pair, and outputs the range to the common point determination unit 1006 (0e).
  • a reference point is set by using one image of the image pair in which the common range is set as a reference image, and a point that matches or approximates the reference point is sequentially compared with another image, and the luminance value is compared for each unit point. Detect with. If a point estimated to match or approximate is obtained, the same operation is performed for the next reference point using this as a common point, a common point is determined, this is repeated, and the image coordinates of the common point of each image are determined. This is output to the common coordinate setting means 1007 (0f).
  • the common coordinate setting unit 1007 converts the image coordinates of the common point on each image data into world coordinates and outputs them to the combining unit 1008 (0g).
  • the world coordinate data input to the combining means 1008 is read based on the common coordinate portion by reading the previously processed world coordinate data from the temporary storage means 1009 (0i).
  • the combined world coordinate data is recorded to be temporarily overwritten in the temporary recording means 1009 (0h), and further output to the processed data forming means 1010 (0j).
  • the processing data forming means 1010 stores the obtained world coordinate data while actually displaying the obtained three-dimensional coordinates until there is no unmeasured area and shape data is obtained until a prosthesis can be formed. Convert to processing path data for use. Based on this processing data, a block formed of ceramics, resin, and these composite materials is processed, or a prosthesis is manufactured by a modeling process using a rapid prototype.
  • FIG. 13A shows a ninth embodiment of the present invention.
  • reference numeral 1110 denotes a camera unit in which the same CCD or CMOS camera is installed at a predetermined angle in the direction of each other.
  • the individual cameras (A) 1111a and cameras (B) 1111b of the camera unit 1110 are preferably those having a resolution of, for example, about 1M pixels or more, but may be 1M pixels or less depending on the degree of processing.
  • 1112a is a close-up lens for the camera 1111a
  • 1112b is a close-up lens for the camera 1111b.
  • a focal length is short, a pinhole lens or a close-up lens is applied, and one or a plurality of lenses may be used. In some cases, a calibrated range may be used even when a magnifying lens is used.
  • 1113 is an illumination light output unit, and an output unit is formed along the periphery of the camera unit. A translucent member such as plastic or glass is mounted on the surface of the illumination light output unit 1113.
  • 1114 is a light source, which is mainly formed of an LED, but has a high optical output considering attenuation due to the optical path length based on the light guide path.
  • the illumination light output unit 1113 is a part that outputs the light emitted from the light source 1114 in the light guide 1115 to the outside, and can compensate for darkening of the periphery of the screen when a digital image is taken.
  • the illumination light output unit 1113 that avoids receiving and reflecting the light outline of the LED on the measurement surface can use a frosted glass-like translucent member or a transparent translucent member. Since the loss of the spectrum occurs, a transparent one may be preferable.
  • the illumination light output unit 1113 may use not only such an indirect light source but also a means for directly irradiating illumination light, and the contour of the light source formed on the irradiation surface of the living body. Etc. may be a part for obtaining a measure of common points.
  • 1116 is a front-end
  • the main body front end portion 1116 and the main body gripping portion 1117 are made of hard plastic, and are preferably light in weight and easy to carry.
  • 1119 is an electrical lead wire for transmitting image data to the outside or supplying power.
  • the electric lead 1119 may be a general-purpose cable such as a USB cable, and may be unnecessary if wireless transmission / reception is possible.
  • an antenna may be used, but 1120 is an indicator that indicates an operation state by display. For example, it can be displayed by emitting light during a shooting period. It is a display body that tries to indicate that it is out of focus and in focus, or that it is in the depth of field range by light emission, color, intensity, etc. In addition to LEDs, it can display elements such as liquid crystal panels It may be used.
  • 1121 is a light source for the sensor, the surrounding side surface is covered, and so-called spotlight-like output is preferably performed.
  • the output is an output for measuring the distance to the subject, and is for outputting light divergently output at a narrow angle in advance.
  • the spread of the output light is associated with the distance to the subject, and the distance to the subject can be obtained by measuring the diameter, area, etc. of the light reflected in the spotlight form.
  • a light source is used.
  • the operation of the embodiment shown in FIG. Hold the main body gripping part 1117 and bring the camera unit 1110 close to the teeth.
  • shooting is started.
  • the light source 1114 outputs illumination light from the illumination light output unit around the camera unit 1110 via the light guide path 1115 when performing output at all times or during shooting.
  • the illumination light may be output adjusted to white or other colors close to white.
  • the camera 1111a, 1111b When constantly irradiating, since a high-power LED is adopted, the power consumption is increased, and thus illumination such as a flash lamp may be used.
  • the camera 1111a, 1111b When the camera 1111a, 1111b is in auto focus, it is executed in a state of being automatically in focus, but when it is not in auto focus, for example, as shown in FIG.
  • the unit 1110 is moved closer to the imaging region. Since the output of the sensor light source 121 draws an arc on the imaging surface, the diameter or area of the arc is measured, and the distance to the subject is measured based on a pre-measured relationship, and the distance is determined by the depth of field.
  • shooting is automatically started, and the indicator 1120 emits light to that effect (color and intensity are changed).
  • the image when the image is not automatically captured, the image is started by pressing the switch 1118 or another shutter. It is only necessary to shoot an image that is in focus and has no camera shake at one time. However, a plurality of images may be taken by continuous shooting, and an image may be selected from them. As shown in FIG. 14 (a), the main body gripping part 1117 is held, and the camera unit 1110 of the main body tip 1116 is moved close as shown in FIG. 14 (b). At this time, if the distance is within the depth of field, continuous shooting is continued and image data is stored in the internal memory. In addition to being stored in the internal memory, it may be stored in an external storage device via the electrical lead wire 1119.
  • the illumination from the illumination light output unit 1113 may be output at the time of photographing or always output. Also, a magnifying lens may be used, or a small area may be photographed.
  • the camera unit 1110 is inclined at a predetermined angle in the direction of each other. In this state, a common imaging region is indicated by H21 in FIG.
  • the common point M is detected from the common imaging region H21 in FIG.
  • the common point M is determined based on the illuminance for the M selected from one of the images and the other image based on the angle.
  • the present invention performs close-up shooting in order to reduce the shooting burden of the illuminance value.
  • the obtained photographic image is passed through a calibration means for correcting the distortion caused by the lens or correcting the light quantity as necessary.
  • the calibration means may be realized by using a combination of software such as OPEN-CV.
  • block matching operation is performed. For example, in the case of a horizontal camera relationship, the comparison between the comparison along the y-axis or the difference between the reference block pixel and the comparison block pixel, such as SSD and SAD, is taken and squared as necessary.
  • a parabola is drawn as the minimum value, the minimum value is taken, and sub-pixel estimation using the block in the comparison screen of the minimum value as a common point may be performed. If the block unit is 2 ⁇ 2, 3 ⁇ 3 or more and accuracy is required, a smaller one may be preferable.
  • determining the block from the reference image in addition to performing the matching process by detecting adjacent blocks, it is only necessary to obtain data that can at least obtain processing accuracy, so it is necessary to select every other block or skip multiple blocks. Then, a matching operation may be performed.
  • the connection of the reproduced three-dimensional data may be a curve interpolation process using a spline curve or the like, which may enable time reduction and real-time processing.
  • the common point M is converted into common coordinates such as world coordinates.
  • a known method by using an algorithm using a perspective projection matrix of the camera may be used.
  • An algorithm for calculating a basic matrix by an existing 8-point algorithm by obtaining a plurality of world coordinate values of a common point and converting known captured image coordinates such as trigonometry to world coordinates using this basic matrix.
  • the common point coordinates on the world coordinates may be obtained based on the coordinates of the common points in the captured images.
  • the world coordinate data of a partial region in the oral cavity (FIG. 14, H21) is obtained from a single imaging in this way, the world coordinate data from the range of H22 in FIG. Then, the process moves to the area of H23, and each shape is converted into world coordinates.
  • the three-dimensional shape data of the tooth is obtained by connecting the three-dimensional data planes H21 and H22 converted into world coordinates by comparing and approximating the coordinates of the common parts. Further, the periodontal portion other than the teeth can be three-dimensionalized by the same method.
  • the texture in the oral cavity may be used as a feature of the image by taking a close-up, and further, it is used for matching depending on the pattern projection by using the diffractive optical element, the direction and type of illumination. May be obtained. Further, there are cases where the accuracy is further improved by taking a close-up image so as to trace the same part and averaging the three-dimensional data of the same part.
  • the present invention can adopt a passive stereo system, since close-up and continuous shooting are performed, as shown in FIG. 14B, the tooth surface 2H is actively moved at an approximate close distance. Since shape measurement is also possible and use as an intraoral camera is possible, the present invention is a preferred embodiment.
  • FIG. 13B is referred to as a technique for eliminating the defocused image in the present invention.
  • a defocused image means an image taken outside the range of depth of field.
  • the sensor light source 1121 is converted into a spotlight by outputting output light having a directivity angle of about 5 degrees or more with the side face shielded by a black shield. Since the LED light has a straight traveling property, the irradiation distance 1121a and the area of the circular irradiation surface 1121b substantially correspond to each other (the longer the irradiation distance, the larger the irradiation surface area).
  • the user may grasp the state from the indicator display and may take an active image of the oral cavity while adjusting the camera position.
  • the sensor light source 1121 may be mounted as necessary, or may be used as a pattern light source. That is, since the present embodiment is a close distance close to a close-up state, an optical pattern can be formed on the measurement surface using various slits by using an LED having a narrow directivity angle.
  • the external monitor may be one that operates the position of the camera unit while viewing the incomplete part by displaying it on the screen at the same time as obtaining the three-dimensional coordinates.
  • FIG. 13 (c) shows a tenth embodiment of the present invention.
  • one image sensor is divided into four, and each is used as a compound eye as an independent image sensor.
  • 1122a to 1122d are lens bodies to which lenses 1123a to 1123d are attached, and are inclined inward. By tilting, it is appropriate when photographing a narrow range for three dimensions, but it may be planar and facilitates the detection of common points. Also, it is possible to adopt a technique that reduces the number of reflections such as reflection mirrors and reflection prisms inside, so that calibration is not complicated.
  • reference numerals 1124a and 1124c denote first reflecting members, which are formed by prisms and mirrors, and reflect incident light to the next second reflecting member while suppressing distortion. .
  • the first reflecting member corresponds to the lens member, only two are shown in the figure, but there are four, and each lens member corresponds to the lens member 1123a.
  • the first reflecting member 1124c corresponds to 1124a and the lens member 1123c.
  • the first reflecting member 1124b corresponds to the lens member 1123b
  • the first reflecting member 1124d corresponds to the lens member 1123d.
  • 1125 is a second reflecting member, which uses the same mirror and prism as the first reflecting member 1124, and reflects incident light to the corresponding area of the image sensor.
  • four second reflecting members 1125a to 1125d are arranged corresponding to the first reflecting members 1124a to 1124d, respectively.
  • the 1126 is an image sensor, which has a square shape and is easily divided into four equal parts.
  • Fig. 13 (c) shows a state where the range is divided. In order to receive the reflected light of the second reflecting member, they are divided and used equally. There is a case where the partition is not necessary, and it is preferable to provide a software system that partitions the data output by the image sensor 1126.
  • the light source 1114 by analog illumination such as one LED or a ball ball irradiates the measurement site with the illumination light from the irradiation unit 1127 formed around the lens member via the light guide path 1115. It has the composition to do.
  • This embodiment is configured to perform three-dimensional shape measurement with a maximum of four cameras, select a pair of cameras, detect a common point from a captured image, obtain three-dimensional coordinates, and use four cameras.
  • the same common point obtained by at least four combinations may be obtained, and a coordinate with higher accuracy may be obtained by averaging.
  • three or two of the four regions may be used.
  • data is obtained in a state close to the moment, this data is subjected to computer processing, and prosthetic data can be obtained.
  • a simple prosthesis can be created as the amount of data is reduced, and instantaneous measurement can reduce the burden on the patient and save the labor of the dentist in the field of dentistry.

Landscapes

  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • Veterinary Medicine (AREA)
  • General Health & Medical Sciences (AREA)
  • Physics & Mathematics (AREA)
  • Public Health (AREA)
  • Animal Behavior & Ethology (AREA)
  • Medical Informatics (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Optics & Photonics (AREA)
  • Dentistry (AREA)
  • Epidemiology (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Surgery (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Biomedical Technology (AREA)
  • Radiology & Medical Imaging (AREA)
  • Pathology (AREA)
  • High Energy & Nuclear Physics (AREA)
  • Biophysics (AREA)
  • Molecular Biology (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Theoretical Computer Science (AREA)
  • Dental Tools And Instruments Or Auxiliary Dental Instruments (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Endoscopes (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)
  • Medical Treatment And Welfare Office Work (AREA)

Abstract

被計測物である口腔内物を静止画的に計測して画像データを得る画像データ化手段と、計測時に被計測物の三次元形状が計測可能な状態で画像データ化手段の位置が固定された固定部位を持ち口腔内に挿入可能な大きさを持つ支持体と、画像データ化手段で得られた撮影情報から、被計測物の三次元形状を得る三次元形状データ取得手段とを有するように歯科用補綴物計測加工システムを構成する。これにより、非接触で、口腔内から患者、歯科医師の負担を軽減させながら直接歯科用補綴物の三次元形状データを取得して、正確な歯科用補綴物を製造することができる。

Description

歯科用補綴物計測加工システム
 本発明は、口腔内から直接三次元形状情報を取得し、当該三次元形状情報に基づいて、歯科用補綴物等を製造するための計測加工システムに関する。
 周知の通り、CAD/CAMを用いた歯科用補綴物の加工及び製造は、コンピュータ、計測機器等の性能の向上により、精度の高い補綴物を製造することが可能となっている。しかしながら、自動計測に際し、口腔内から凹状の歯型を有する印象を採り、この印象から凸模型を形成して、この凸模型の表面形状を自動計測してデータ化し、加工用ブロックを加工して補綴物を製造する手法を採る場合が依然として多くを占めている。印象の作製に際して、印象材の口腔内への適用は、患者にとって、感触的に好ましくなく、また、歯科医、歯科技工士にとっても手間がかかる作業である。
 印象材の口腔内への適用を回避するため、特許文献1(特開2000−74635号公報)は、歯の形状を非接触で口腔内から直接取得するプローブを開示している。このプローブを使用すると、口腔内の計測部位へレーザ光を照射してその照射光と反射光の経路間の角度に基づいた三角測量手法を用いて、非接触的に口腔内物の形状を測定することができる。しかしながら、この手法では、特許文献2(国際公開第2009/139110号パンフレット)でも紹介されている様に、酸化チタン等の金属粉末を含む溶液を口腔内に噴霧して、口腔内の表面反射率の異なり(バラツキ)を均一化するための操作を必要としている。なお、特許文献2は、金属粉末を口腔内に噴霧する操作を省略するため、口腔内の被測定物に向けて少なくとも2つの波長の異なる光を同一光軸で照射する投光部と、被測定物で反射された光を撮像する撮像部とを備える口腔内測定装置を提案している。
 また、特許文献3(国際公開第2009/113068号パンフレット)は、レーザ光を口腔内物に走査するように照射して、口腔内物からの反射戻り光の位相のずれを利用して中間スクリーンに多重の干渉縞を形成し、さらにこの干渉縞の特徴から、被写体間の距離を測定するコノスコープ法を用いる手法を開示している。この手法を使用すると、口腔内から直接非接触で口腔内物の三次元形状を計測することができる。
 特許文献1及び3では、いずれも手持ち型の計測機器が提案されているが、手持ち操作に原因した問題点が存在している。すなわち、このような計測機器を使用した場合には、イメージスキャナの様に複数の繰り返し往復走査を行う操作の間や、一群の光ビームを形成してその三角測量角度を移動させる操作の間に、プローブをしっかり固定しておく必要がある。
 他方、特許文献4(特開2003−148934号公報)は、多数の画像を撮影するカメラ、特にビデオカメラを使用して、写真測量法で三次元データを形成し、更に三次元モーフィング補正により、正確な補綴物を得ることができる、画像から歯のモデルを作成する方法を開示している。しかしながら、この方法では、先に説明した先行技術と同様、多数の画像を撮影するために、長い撮影時間や半固定的な撮影が必要であり、被写体となる患者は、途中で動かないよう、我慢が強いられる。
 要するに、上記した様な計測機器は、いずれも手持ち型であるため、取り扱いに自由度がある計測器にも捉えられるが、測定するための時間が長いため、その間、患者及び医師は揺動を生じてはならないという制約が課せられる場合が多く、改良することが望まれている。
 上記の様な制約を解消するために、特許文献5(特表2004−519289号公報)では、マウスピース型の実験機器にセンサと照明を装着してこれをマウスピースの外周で移動させながら計測する手法が開示されている。また、特許文献6(特表2004−502137号公報)では、口腔外にセンサ付のロボット等で駆動可能なガイド体を形成し、これを直接口の中に入れ、口腔内を移動しながらセンサによって、口腔内情報を計測する手法が開示されている。
 特許文献5及び6に開示されている手法では、据え置き固定型の機器を使用するので、手持ち型の機器に比べて安定したセンサの駆動が可能となり、したがって、モアレ、写真測量、干渉分光、ステレオカメラ等、様々なセンサを利用できるというメリットがある。しかしながら、使用する機器としては、大がかりな機器が必要となるため、口腔内に機器を固定的に配置するときに、患者に一定の負担を強いるというデメリットも存在している。
 また、据え置き固定型の計測機器と上記先行技術に示される手持ち型の計測機器は、口腔内で、直接口腔内物の表面を三次元計測するものであるが、多数の画像の取得、形状計測のための走査期間の固定、患者の負担を強いる機器の口腔内への導入といった、実用的に困難な点が多いため、印象模型の計測を併用したものが依然として多い。印象模型の計測を併用したものの例として、以下に示すように、特許文献7(特開2002−224143号公報)及び特許文献8(特開2004−237104号公報)が挙げられる。
 特許文献7には、三次元計測後の補綴部位の歯牙の計測データと、予め健康な状態の歯牙を三次元形状にて計測して得ておいた見本データとから加工用データを計測し、補綴物を得ることが記載されている。また、特許文献8には、予め口腔内の状態を3Dカメラ、CTスキャンで計測して三次元形状データを形成し、この三次元形状データに予め作成された人工歯データを組み合わせて仮想義歯を形成し、この仮想義歯に基づいて、加工用ブロックの加工と、データに対応する人工歯の配置により、義歯を製造することが記載されている。また、特許文献9(特開2004−283594号公報)には、実存する歯をデジタル形態でイメージングして作成した歯牙データを格納したデータベースと、そのデータベースにアクセスすることで作製された歯牙モデルと、データベースあるいは歯牙モデルを使用して製造された歯牙補綴部材とが記載されている。
 しかしながら、上記した特許文献には、口腔内の情報を取得する具体的手法は示されていない。また、データ処理については、上記した特許文献に記載されたものも含めて、様々なデータ処理法が提案がされているけれども、上述した口腔内を直接計測する先行技術が、その取り扱いにおいて未だ十分ではないため、印象模型を用いず、口腔内から直接口腔内情報を取得して、様々な補綴物を製造するといった手法は、未だ実用性において不十分である。
特開2000−74635号公報 国際公開第2009/139110号パンフレット 国際公開第2009/113068号パンフレット 特開2003−148934号公報 特開2004−519289号公報 特開2004−502137号公報 特開2002−224143号公報 特開2004−237104号公報 特開2004−283594号公報
 上述のように、口腔内を直接三次元計測する手法には、プローブ等を口腔内へ挿入して計測を行う、いわゆる手持ちタイプや、プローブ等を口腔内へ固定して計測を行う据え置きタイプが提案されているが、いずれの手法も、計測の為の負担が大きいことから、これらの負担を解消し、口腔内を直接三次元計測することで歯科用補綴物を製造する方法を提案することが望まれている。
 上記に鑑み本発明者は、口腔内を静止画的に画像データ化する画像データ化手段と、被計測物の三次元形状を計測可能な状態として画像データ化手段が設置され、且つ口腔に配置可能な大きさを持つ支持体と、画像データ化手段で得られた撮影情報から、被計測物である口腔内物の三次元形状データを得ることのできる三次元形状データ取得手段(以下、「三次元形状取得手段」と呼ぶこともある)とをもって歯科用補綴物計測加工システムを構成するのが有効であるという知見を得、本発明を完成した。
 本発明では、計測加工システムを上記のように構成したことにより、口腔内に手動で挿入した距離空間が規定された状態で配置した画像データ化手段により三次元データ取得可能な画像を得、当該画像から得られた被計測物の座標をデジタル処理することによって仮想的に補綴物形状を得ることができるデータを形成し、さらにこれをコンピュータのモニタ上に表示可能とすると共に、加工データ化して、補綴物を作製することができる。本発明によれば、口腔内形状を患者、医療当事者のいずれにも負担が無い状態で、得ることが出来、歯科用補綴物の製造を短時間で、且つ精度良く製造することを実現できる。
 さらに具体的には、本発明は、口腔内で使用される歯科用補綴物を計測及び加工するためのものであって、
 口腔内に存在する、補綴部位を有する少なくとも1つの歯を含む被計測物の三次元形状を静止画的に計測して画像データを得るための少なくとも1つの画像データ化手段、
 前記画像データ化手段を支持し、かつ口腔内に挿入して前記画像データ化手段で前記三次元形状を計測するための支持体、及び
 前記画像データ化手段からの画像データを処理して、前記歯科用補綴物の原型として使用される仮想補綴物の三次元形状データを得るための三次元形状データ取得手段
を備えてなる、歯科用補綴物計測加工システムにある。
 ここで、「静止画的に」とは、被計測物を静止画面で撮影するか、さもなければ動画面として撮影された一群の静止画面のなかから、ピントのあったものなど、好適な静止画面を選択することを意味する。また、支持体は、画像データ化手段を支持した状態で口腔内に挿入可能な形状及び寸法を有する。
 また、本発明による歯科用補綴物計測加工システムは、例えば次のような好ましい形態を包含することができる。
(1)画像データ化手段は、被計測物を近接位置において連続的に撮影する至近連写手段と、該至近連写手段おいて連写により撮影された複数の画像のなかから、被計測物の画像データを得るのに最適な画像を選択する画像選択手段とを備えている、計測加工システム。
(2)支持体は、画像データ化手段を支持する固定部位あるいはその近傍において、傾き情報を検出する傾き情報検出手段、及び傾き情報検出手段からの傾き情報出力に基づき、三次元形状データ取得手段の三次元形状データを調整するデータ調整手段を備えている、計測加工システム。
(3)三次元形状データ取得手段で得られた仮想補綴物の三次元形状データに基づいて、加工用ブロックを加工して歯科用補綴物を製造するための補綴物加工手段をさらに含む、計測加工システム。
(4)画像データ化手段は、支持体に受動的計測状態で固定されている、計測加工システム。
(5)画像データ化手段は、支持体とは離れた独立した位置において、画像データを映像として表示するための画像表示手段、及び映像の撮影の開始及び停止の切り替えを行うためのスイッチング手段をさらに有しており、かつ画像表示手段とスイッチング手段の間は、有線もしくは無線で相互に接続されている、計測加工システム。
(6)被計測物が、補綴部位を有する支台歯、支台歯に隣接する隣接歯、及び支台歯に対向する対合歯を含み、これらの歯の三次元座標検出可能な静止画を画像データ化手段に備わった撮影手段により撮影し、得られた静止画により、仮想補綴物の三次元形状を形成するのに必要な数値データを画像データ化手段により抽出するとともに、三次元形状データ取得手段において、数値データを処理して、被計測物の咬合面及び支台面の三次元座標を検出し、数値データ及び三次元座標より仮想補綴物の三次元形状データを取得する、計測加工システム。
(7)画像表示手段が、該画像表示手段で表示された画像を、一方向画像及び多方向画像に変換するための画像変換手段と、該画像変換手段で変換された一方向画像及び多方向画像を三次元で表示するための3D表示手段と、該3D表示手段で出力される画像に関して、右眼に対して一方向画像を出力し、かつ左眼に対して多方向画像を出力するための出力調整手段とをさらに備える、計測加工システム。
(8)目的とする補綴物に対応する複数の三次元形状データを蓄積したデータベースと、三次元形状データ取得手段で得られる三次元形状データに近似した三次元形状をデータベースから検索する検索手段と、検索手段で得られた三次元形状データ上で、三次元形状データ取得手段で得られた実測の三次元形状データを補完演算する補完演算手段とをさらに備える、計測加工システム。
(9)補完演算手段において、データベースから検索により得られた近似三次元形状に対して、実測の三次元形状データの補完を行うことで補完演算を実行する、計測加工システム。
(10)支持体は、2つの前記画像データ化手段を互いに直交するように配置し、支持している、計測加工システム。
 本発明によれば、口腔内の瞬間的な撮影により、三次元形状データが得られる手段を、半固定的な状態又は、手持ち型に近い状態での使用即ちプローブ構成とすることで、患者、歯科医師、医療従事者に負担を与えず、正確な口腔内情報が得られ、更に欠落部及びそ
Figure JPOXMLDOC01-appb-I000001
効率よく製造することが可能となる。
 図1は、本発明の第1の実施例(その1)を示すブロック図であり、
 図2は、本発明の第1の実施例(その2)を示す模式図であり、
 図3は、図2に示した本発明の実施例を説明するための模式図であり、
 図4は、図2に示した本発明の実施例を説明するための模式図であり、
 図5は、本発明の第2の実施例を示す模式図であり、
 図6は、本発明の第3の実施例を示す模式図であり、
 図7は、本発明の第4の実施例を示す模式図であり、
 図8は、本発明の第5の実施例を示す模式図であり、
 図9は、本発明の第6の実施例を示す模式図であり、
 図10は、本発明の図9の実施例を説明する模式図であり、
 図11は、本発明の第7の実施例を示す模式図であり、
 図12は、本発明の第8の実施例を示す模式図であり、
 図13は、本発明の第9の実施例を示す模式図であり、そして
 図14は、本発明の第10の実施例を示す模式図である。
 引き続いて、本発明の好ましい形態を詳細に説明する。なお、本発明は、以下に記載する特定の形態のみに限定されるものではない。
 本発明による歯科用補綴物計測加工システムは、画像データ化手段と、支持体と、三次元形状データ取得手段とを少なくとも含んで構成される。これらの手段や関連の手段等は、要すれば、次のように説明することができる。
 画像データ化手段は、例えばシャッターを押したタイミングで、口腔内に存在する被計測物の撮影画面が取り込まれる程度の機能を奏する手段を意味する。撮影画面としては、静止画像、又は、一つの画像の前後に複数の連写的な画像が取り込まれてもよい。この様な複数の画像の取り込み、所定の時間後に撮影を行う機能の追加等は、いわゆるシャッター操作の際の手ぶれを防止する場合に好適な態様となる。又、場合によっては、一般的にカメラ、携帯電話で用いられている手ぶれ防止機能を組み合わせてもよい。ビデオカメラ等の動画撮影機器を用いた場合は、動画の中から静止画を選ぶ方式を採用してもよい。画像データ化手段あるいはその撮像手段としは、最終的に静止画が得られるものであれば、特に限定されない。
 画像データ化手段には、支持体が組み合わせて用いられる。支持体には、被計測物の三次元形状が計測可能な状態で、画像データ化手段が設置される。また、支持体は、口腔内に挿入して用いられるため、口腔に配置可能な形状及び寸法を持つことが必要である。支持体は、静止画を利用した三次元座標の取得可能な状態で計測部位に配置するものであって、三次元座標取得手法によって異なる形態を有することができる。例えば、一つのカメラを支持して、これを移動させ、複数の写真を撮る場合は、撮影の条件であって、移動距離、移動方向、移動位置が数値として表示できるような移動を行い得る構造を取り得る支持体を挙げることができる。かかる支持体として、例えば、棒状の支持体となし、画像データ化手段で長手方向に所定間隔毎に撮影していくもの等を例示することができる。この構成により、計測が出来ない部位を極力抑えることができる。又、これを2地点で固定したステレオカメラは、座標取得の際、計算量を少なくする点と、カメラの位置が固定されている点で有効である。ステレオカメラによる三次元座標データ取得の際は、取得演算が、カメラ同志の水平、垂直位置の関係で一定の間隔、全てのカメラがそれぞれ特定の方向を向いている状態を少なくとも計測時に、形成されていることである。ここで「計測時」とは、撮影するタイミング(撮影の時)であって、その前後で、移動しても良いことを意味する。本発明では、例えばステレオカメラであれば、画像データ化手段が口腔内に挿入され、歯と一定の間隔をもって手動配置されることで、三次元計測形状が測定可能ということを示している。手動配置は、揺動を伴うが、カメラの配置が固定された支持体であれば、たとえ揺動しても、画像が通常通りに明確であれば、その写真の範囲で三次元座標データを取得することができる。
 上記に関連して、画像データ化手段としてのカメラは、今般携帯電話に使用されている縦横高さ寸法が、好ましくは10mm以内か、それより小さいカメラモジュールが使用されることで、デンタルミラーにより近い大きさを実現可能である。
 三次元形状データ取得手段は、画像データ化手段で得られた撮影情報から、被写体としての口腔内物の三次元形状データを得るためのものである。三次元形状データ取得手段は、いわば、画像データ化手段から得られた画像情報を分析して三次元距離の測定を行う受動的計測を行う手段であることが好ましい。
 別法によれば、モアレのような、等高線模様を被写体に投影し、これを瞬間的に取得する静止画として取り込んで、この等高線模様の三次元座標を検出する画像データ化手段であってもよい。かかる構成をもった画像データ化手段を支持体に、計測時に固定的に配置しても良い。
 本発明では、画像データ化手段の位置決めも重要である。本発明では、少なくとも、1乃至複数の画像データ化手段により撮影された静止画像、又は位置を変えて撮影された複数の静止画像に被写体に相当する歯牙損失部位、又は、欠落部位が含まれる状態で三次元計測可能に撮影されればよく、写真測量法等、位置決めが支持体上で設定される場合も包含される。
 本発明の実施において、画像データ化手段の位置決めのため、傾き情報検出手段をさらに備えることが好ましい。傾き情報検出手段としては、例えば、傾きセンサ又は加速度センサのようなマイクロチップが好ましいけれども、これの手段に限定されるものではない。例えば、撮影画像から、傾き抽出を行うソフトウエア処理、GPSセンサのような位置決めセンサの組み合わせ等を傾き情報検出手段として使用してもよい。
 本発明の計測時のタイミングは、歯科医により任意のタイミングで撮影が行われてもよい。別法によれば、カメラの方向を傾きセンサでさらに計測し、垂直、水平又は、計測手段に応じた最適な角度となったとき、LEDの表示、モニタ画面の表示による知らせを受けて、これを感知した操作者が、シャッターを押すものであってもよい。また、傾斜センサが最適な状態の信号を出力したタイミングで、シャッターを押すものであってもよい。
 本発明は、画像データ化手段が支持体に設置される場合、例えば歯列の側面撮影の場合は、撮影者が支持体を持って、口腔内に画像データ化手段を配置する際、画像データ化手段が常に垂直状態を保つ、いわゆる「がん灯」の様な構成にしてもよい。
 口腔内撮影に基づく歯科用補綴物の製造は、任意の手法で実施することができる。好ましくは、ワックスアップレス手法を使用して歯科用補綴物を製造することができる。
 本発明では、口腔内の歯の形状を直接に形状計測するだけでなく、欠落した歯牙部分から、隣在歯によって得られる最大豊隆部、対合歯との関係から得られる歯高値、等の仮想補綴物形成の為のパラメータを得るだけでも十分利用が可能である。
 即ち、本発明では、口腔内で撮影された隣接歯と補綴部位の三次元座標検出可能な静止画、対合歯の三次元検出可能な静止画を画像データ化手段で撮影し、撮影された静止画より、仮想補綴物形状の形成に必要な数値データを抽出すると共に、それらの数値データに対応して、咬合面、支台歯面の三次元座標を検出し、数値データと三次元座標から仮想補綴物形状を取得する工程又は手段を組み合わせることで、口腔内の歯が欠落した部位から、模型の製造を全く行うことなく、仮想補綴物をコンピュータ上に形成した後直ちに、加工装置で加工用ブロックを直接に加工して歯科用補綴物を製造することが可能となる。
 以上、本発明による歯科用補綴物計測加工システムの形態の概略を説明したけれども、以下でさらに具体的に説明する。
 本発明は、天然支台、インプラント支台に対するクラウン、インレー、義歯、オンレー等の歯科用補綴物の製造に足りる情報を、口腔内から得る為のものである。歯科用補綴物がクラウンであれば、側面、及び上面からの撮影した2組のステレオ画像によって、三次元データを取得する。インレーの場合は、その方向のみの一組の画像で足りる。
 場合によっては、一組毎に立体座標を取得し、2つの立体座標間の整合性をとって結合し、口腔内情報を形成してもよい。立体座標間の整合性は、例えば、支台歯、インレー用の加工部を基準とした座標変換を行い、それぞれの撮影時の撮影角度及び撮影距離を調整した上で結合することで得ることが出来る。即ち、手持ち型、又は半固定的な状態であるため、撮影角度、距離が異なる場合は、支台歯等の加工部分の一部を中心座標として変換する。この中心座標に他の画像を重ね合わせ、距離を調整し、撮影角度が一致するような演算を行う。また、両方の傾きセンサの値から、直交関係を形成するため座標値を調整する場合もある。
 撮影角度の調整も同様に画像上で処理され、患者に負担を強いることがない。
 本発明で示す半固定型としては、例えば手持ち型に、口腔内の他の歯牙と接触して一時的に撮影カメラと歯列の距離を固定する為の固定支持具を併せ備えるもの等が例示される。半固定により、垂直、水平が保たれ、撮影角度、撮影距離の補正も容易となる。当該半固定により、その固定具と口腔内の接点を、中心座標とする場合もある。
 以下に参照して説明する図4は、クラウンを、例えばステレオ撮影を用いて三次元計測する際の、座標取得の一例を示した模式図である。図中、101は、支台歯であって、歯科医が補綴物を装着するために天然歯を整形して形成される。21A及び21Bは隣接歯であり、21Cが歯肉の部分である。102は、撮影用カメラの撮影画像である。図では、撮影画面が投影される平面に座標を付した模式的表示がなされている。103及び104も、撮影用カメラの撮影画像である。理解されるように、撮影画面102、103及び104は、合計3台の撮影用カメラで撮影されている。いずれの撮影画像も同じ構成を有しており、例えば一般的なデジタルカメラのカメラモジュールを垂直、水平に配置して形成される。fは、焦点距離であり、同じカメラを用いて同じ値とすることが好ましい。
 ところで、図4で示す実施例は、合計3台の撮影用カメラを用いているけれども、必ずしも3台のカメラを必要とするものではない。本発明では、少なくとも、撮影画面102と撮影画面104の水平方向に2つの組み合わせがあるか、さもなければ、撮影画面103と撮影画面104の垂直方向に2つの組み合わせがあればよい。
 尚、3つの画像データ化手段を支持体に配置固定した場合も、それぞれ垂直および水平の関係のカメラの組み合わせで、得られた三次元座標データのいずれか好ましい方を選択するか、さもなければ、場合によって、座標ごとに平均化処理を施して、より正確な座標を得る手法を採用してもよい。
 本発明では、口腔内の限られた空間を撮影対象とする為、水平、垂直のいずれかでは、カメラの撮影範囲を示すウィンドウに入る主要な被写物が異なる場合があるため、互いに補完して、十分な撮影ウィンドウを確保する事が出来る点で、図4で示すカメラ配置が好適である。
 再び図4を参照して説明すると、102P、103P、104Pは、支台歯表面の点101Pを撮影した際の座標であり、それぞれの座標を102P(xa,ya)、103P(xb、yb)、104P(xc、yc)で示す。
 ここで、水平関係に基づく撮影画面102の座標102Pと撮影画面104の座標104Pより、目的とする座標101P(x、y、z)を得る式は、次式で表すことができる。
 x=Tb(xa+xc)/2(xa−xc)  y=Tb(ya+yc)/2(xa−xc)
 z=Tbf/(xa−xc)
 (式中、xa−xc:水平の視差、Tb:撮影画面102の中心点oaと撮影画面104の中心点ocの距離である。)
 垂直関係に基づく撮影画面103の座標103Pと撮影画面104の座標104Pより、目的とする座標101P(x、y、z)を得る式は、次式で表すことができる。
 x=Ta(xb+xc)/2(xb−xc)  y=Ta(yb+yc)/2(xb−xc)
 z=Taf/(yb−yc)
 (式中、yb−yc:垂直の視差、Ta:撮影画面103の中心点obと撮影画面104の中心点ocの距離である。)
 両者は、実際は異なる場合もあるけれども、いずれか一方を選択するか、一方の撮影では撮影されなかった部位を補う目的にいずれか他方を用いても良い。また、口腔内では、近接位置あるいは至近位置での近距離計測となるため、3つの映像手段を組み合わせて使用することが好ましい。
 画像データ化手段の構成配置については、例えば、吉澤徹著、光三次元計測、新技術コミュニケーションズ社発行、1998年に記載された計測手法を好適に利用することができ、本発明でもこの手法を採用している。
 この計測手法の原理は2つのカメラ構成によるものであるが、これを一つとした場合でも、同様であり、いわゆる写真測量的手法となる。
 即ち、一つのカメラで102の部位で撮影し、次に104の部位で撮影すると、それぞれの部位で得られた写真画像より上述の座標が得られる。
 更に、104から横へスライドして105の位置でカメラ撮影を行えば、104の写真画像と105での写真画像から同様の座標が得られると共に、104の写真画像では、計測できない部分の立体座標を取得できる。このカメラの移動ができれば、見えない部分の撮影が可能となると共に、更に広範囲の座標が得られる。
 尚、この場合、座標101Pを設定することについて、歯の色、歯の光反射性等で位置が認識出来ない場合は、予め、線、点の影を表面に投影して位置決めをしたり、認識しやすいように、酸化チタン粉末を含む溶液を撮影部位に塗布しても良い。
 更に、撮影画面上に、基準点が設けられれば、そこから等間隔の位置を設定して、演算用の位置座標を求めることもできる。図4の場合は、例えば、支台歯101の上部平面周辺に位置座標を設定することが可能である。
 又、一枚のステレオ写真では、隠れて見えない部位が生じるが、その際は、カメラの角度を変えて見える角度で繰り返し撮影する場合がある。その際、基準に対する角度を予め設定しておき、角度が変わった場合の写真画像から得られた、X、Y、Z座標値で補正しても良い。
 本発明は、少なくとも、補綴物の仮想形状が得られればよいことから、反対側面の撮影は、必ずしも必要がない場合が多い。次に、上面からの撮影を行う撮影位置は、互いに直角位置で等距離であることが好ましいが、補正可能であれば、特に垂直でなくても良い場合もある。
(3D表示)
 表示部で表示された画像を、右眼用画像と左眼用画像に変換する画像変換手段、画像変換手段で変換された右眼用画像と左眼用画像をスクリーン、液晶モニタ等に表示する3D表示手段、3D表示手段で出力される画像に対し、右眼に対して右眼用画像を出力し、左眼に対して左眼画像を出力する出力調整部を更に設けることで、歯科治療における治療用データ、インフォームドコンセントの際の説明データ、歯牙データベース等として使用することができる。
 通常のコンピュータの平面モニタで観察される仮想空間上の補綴物は、あくまで平面であるため、現実感、審美において十分とは言い難いものがあり、補綴物作成後の調整量も多くなるのに対し、3D表示は、立体的表示として空間上に浮かび上がるように見ることができ、より現実的な形状が観察でき、特に欠落部の状態及びその周辺を3Dで観察することで、製作する物の目視観察による的確な調整が可能となり、補綴物のより適合性の高い形状を得ることが出来る。
 画像変換手段における右眼用画像は、画像データ化手段の1つの静止画であって、右眼に対応するものであれば良く、左眼用画像も同様である。また、それぞれ右眼用、左眼用としての画像を形成しても良い。
 これらの画像は、交互に表示部から表示されるが、画像のちらつきが無い程度の速度で交互に表示されればよい。その際、これらの画像にはそれぞれ、異なる偏光性を備えた画像とする場合や、左眼用画像と右眼用画像を分けて表示する場合がある。直線偏光方式、アナグリフ方式、カラーフィルタ方式,偏光フィルタ方式,液晶シャッター方式といった、偏光した画像を表示する。
 偏光した画像を表示する手段として、液晶ディスプレイを用いて、右眼画像、左眼画像をそれぞれの出力を1ドットライン毎に出力し、各ドットラインの出力に対し偏光方向が互いに90度異なる偏光フィルタを通過させ、それぞれ異なる方向に偏光した右眼画像、左眼画像を出力する手法がコンピュータのディスプレイを用いる場合が好ましい態様となる。
 本発明における出力調整部としては、例えば、3Dメガネといわれる眼鏡タイプのもの、あるいは、表示部表面に装着されるもの等が例示され、少なくとも、左眼用画像は、左眼で、右眼用画像は、右眼で見れる状況が形成されればよく、そのような表示を行うものであれば良い。
 下記の実施例は、本発明をさらに説明するためのものである。
第1の実施例
 図1は、本発明の第1の実施例(2つの実施形態を含む)を示すブロック図である。
 第1の実施形態を示す図1(a)において、参照番号1は、画像データ化手段である。画像データ化手段1としては、非接触で口腔内から直接撮影データを得るものであって、例えば、視差を利用したステレオ画像手法、照明にスリットを組み合わせたモアレ手法、写真測量等、少なくとも静止画像を取得してこの画像解析が主な処理手法になるものが例示される。
 画像データ化手段1は、主に補綴部位を撮影するが、例えば、総入れ歯のような義歯の場合、口腔内の全ての歯列を一回で撮影できない場合は、画像内に目印を設けてこれをつなぎ合わせるパノラマ写真状に撮影しても良い。
 その他、球面鏡の反射光をカメラで撮影することで、広角度な画像が得られる場合もある。この広角度な画像は、座標も湾曲するため、これを補正し、直交座標系に変換できる範囲で適用され得る。
 2は、傾き情報検出手段である。傾き情報検出手段2としては、傾きセンサ、加速度センサ等、画像データ化手段の撮影状態を示す様な電気信号等を出力するマイクロチップが例示される。傾き情報検出手段2は、画像データ化手段を設置して口腔内に配置される支持体の傾き状態を電気信号等で出力するものである。
 3は、三次元座標取得手段である。三次元座標取得手段3は、画像データ化手段で得られた画像から、三次元座標を取得する手段で、三次元計測手法により相違するがステレオカメラの場合は、後段に示す演算が行われる。
 4は、調整手段である。調整手段4は、三次元座標取得手段3で得られた三次元座標値に対し、傾き情報検出手段2で得られた傾きX方向、Y方向、Z方向の値で校正のような調整を行う手段である。調整された三次元座標データは、必要に応じ、座標間を線又は面で補完して確認のためモニタ上に仮想補綴物が作成表示されてもよい。
 5は、加工用データ形成手段であり、後段の加工手段6の加工仕様に沿った、加工用データを形成する。三次元座標取得手段3、調整手段4及び加工用データ形成手段5は、主に一つの演算処理用マイクロコンピュータによる処理が行われるが、歯科医院で、計測のみが行われ、遠隔地で加工が行われる場合は、三次元座標取得手段3及び調整手段4と加工用データ形成手段5及び加工手段6が別々となる場合もある。
 6は、加工手段である。加工手段6としては、長石、珪石、陶磁器材料、ハイドロキシアパタイト、αーTCP、ジルコニア、アルミナ、ガラス状セラミックス等のセラミックス材、レジン材、レジン材とセラミックス材の複合材により形成される加工用ブロックを、カッター、ミル等の研削、切削加工具で加工して補綴物を製造するものや、自動築成、三次元プリンタ等のラピッドプロトタイプの加工装置等、CAD/CAM装置、NC加工装置が例示される。
 次いで、図1(a)に示す実施例の動作について説明する。
 画像データ化手段1と、傾き情報検出手段2は、例えば同一の支持部材に設置された状態の支持体との一体化物として、口腔内に挿入され、測定対象部位の近傍に手動で配置し、手ぶれを生じさせない状態で、ピントを合わせを行い撮影する。又は、同じ部位を複数枚撮影した上で、ピントの一部又は全部が合った一枚を選ぶなどして撮影された1乃至複数の静止画像は、有線又は無線で三次元座標取得手段3に送信される。
 画像データ化手段1が補綴物部位を撮影する場合は、位置決め用に動画を表示するモニタを併せて備える場合もある。
 この撮影と同時に、画像データ化手段1の撮影方向を検出する傾き情報検出手段2が傾きデータを調整手段4に有線、無線で出力する。
 画像データ化手段1と、傾き情報検出手段2の出力情報は、無線で出力する場合、画像情報が一般的で、JPEG、GIF等に圧縮可能であることから容量が小さい為、携帯電話を介して出力することが好ましい場合もある。その他、FD、MO、CD、SDカード、USBメモリ等のメデイアを利用して配送する場合もある。
 画像データ化手段1から送信されてきた画像を三次元座標取得手段3で三次元座標値に変換し、調整手段4に出力する。
 調整手段4は、三次元情報取得手段3からの三次元座標値を、傾き情報検出手段2の傾き値で校正する等の調整をして、調整された三次元座標データを加工用データ形成手段5に送信する。
 加工用データ形成手段5は、三次元座標データを加工手段6での加工のためのデータに変換すると共に、コンピュータモニタ上に仮想の歯科用補綴物を表示し、更に調整可能な状態を設定する場合もある。
 加工手段6は、加工用データ形成手段5から送られてきた加工用データに基づいて、補綴物を製造する。製造された補綴物は、歯科医と歯科技工部が離れている場合は、宅配、郵送等で、歯科医に配送される。
 本発明では、患者の口腔内に画像データ化手段を手動で又は半固定的に挿入して短時間で直接口腔内の撮影を行えば、その後は、コンピュータの画像解析により加工用の三次元データが得られることから、模型を作製しなくてすむ等、患者、歯科医双方に負担がかからない歯科用補綴物の計測加工システムが実現可能である。
 尚、傾き情報検出手段2及び調整手段4は、得られる画像からでも、傾きが算出できる場合があり、よって、これらの手段が不要な場合もある。この場合は、図1(b)で示す第2の実施形態の構成であっても良い。
 図1(b)の場合は、上述した動作であって、傾き情報検出手段2及び調整手段4を除いた動作となる。加工用データ形成手段は7、加工手段は8で示したが、動作は上述と同様であり、符号のみを変えたものである。
第2の実施例
 図2は、本発明の第2の実施例を示すものである。
 図中、10は、支持体の一例を示す。支持体10は、カメラが三次元測定可能に配置された計測支持部11と、手動操作の為の把持部12の組み合わせよりなる。支持体10の具体的構成例を図3に示す。
 図3(a)において、301は、計測支持部であり、好ましくは同一仕様で同じ設定がされたカメラ302と303が水平に固定接続されている。カメラ302、303は、携帯電話、デジタルカメラで用いられる小型カメラモジュールであって、シャッターを押せば映像がキャプチャーされる程度であればよい。カメラ302、303は、同一の焦点距離を備えており、把持部12の長手方向に平行に配置固定されている。
 310は、傾きセンサである。傾きセンサ310は、加速度センサとも呼ばれるチップ状のセンサであり、例えば、商品名GP1S36J0000F(シャープ社製)のようなマイクロチップ状の傾きセンサが例示される。配置部位は、計測支持部の形状、配置によって、1乃至複数個が、適当な部位に配置されればよい。
 傾きセンサ310は、例えば、図3(c)の様に3つのカメラを用いる場合は、カメラ画像での補整が出来る場合があるため、不要になる場合もある。傾きセンサ310の大きさは、患者の負担を抑える為にデンタルミラー程度か一回り程度大きいくらいが好ましく、全体的に曲面及び球面で形成されることが好ましい。
 13は、映像を外部で処理する為の伝達部であり、外部モニタに接続される。尚、把持部12にシャッターを備え付けても良いが、手ぶれ等の揺動を伴う場合は、外部に設定しても良い。
 304は、照明用光源であり、計測部位の歯牙表面が認識できるような光源が用いられる。また、305は、例えば、縞模様、点列模様等、計測ポイントを指示する模様を口腔内に映し出すためのスリットを介したポインタである。ポインタ305は、測定しようとする部位の三次元座標を検出する部位が撮影により抽出困難な場合ポインタ的役割を発揮することも可能である。
 照明用光源304及びポインタ305は、外部別体で構成されても良く、計測支持部に設置しない場合もあり、不要になる場合もある。
 図3(b)は、図3(a)が水平方向へカメラを配置したのに対し、垂直方向に配置したものである。図3(a)の配置と図3(b)の配置は、口腔内の測定部位によって適宜選択使用される場合があるが、その際は、計測前に垂直状態から水平状態、又はその逆に回動可能に形成されても良い。
 図3(c)は、3つのカメラを用いた構成であって、左右側面からの撮影を可能とするため、一つのカメラを上下に移動させることを可能とした実施例である。
 カメラ306aは、プローブで歯列の左右の側面を撮影する際に、移動させることで、垂直、水平両方での三次元計測が可能となる。
 307は、摺動するためのガイド孔であり、このガイド孔に沿って、撮影用カメラ306aを移動可能である。
 12は、把持部であり、操作者が使用する際の把持部となる部分である。
 308は、摺動ボタンであり、摺動ボタンが長手方向に摺動可能に、ガイド孔309が形成されている。摺動ボタン308は、撮影用カメラ306aと連動しており、摺動ボタン308をガイド孔309に沿って移動させると、撮影用カメラ306aも連動してガイド孔307に沿って移動する。尚、撮影用カメラ306aを摺動可能とせず固定としても良く、左右配置を変えたものを2つ用意しても良い場合もある。
 図2及び図3(c)において、13は、伝送部であって、カメラのシャッターのオンオフ信号、撮影用カメラの映像信号を表示演算ユニット14へ伝送するためのケーブルである。尚、本発明の実施に当たっては、静止画の伝送において、有線手段に代えて無線手段を用いてもよい。
 14は、表示演算ユニットである。表示演算ユニット14は、伝送されてきた画像データを表示するものであり、場合によっては、三次元データを作成するための携帯型モニタ、携帯電話等で形成されていてもよい。
 15は、表示部である。表示部15は、液晶パネル等で形成され、撮影された口腔内写真を表示、演算後の三次元データの同期表示等がなされる。
 また、15a、15b、15cは、表示部15に表示された口腔内画像であって、ステレオ表示状態で表示されている。15dは、傾きセンサ310で検出された傾きのx軸成分、y軸成分、z軸成分を表示したものである。
 図2では、歯の咬合面表面に形成された補綴物装着用凹部1Bを含む咬合面1Aを図3(c)で示すカメラ306a~306cで撮影した表示部15の表示画面の一例を示す。
 図2において、それぞれ、XY座標が示されており、同一の表示であって、カメラの位置が相違する為これが視差となって、撮影した咬合面のXY座標位置がずれている。尚、演算後、仮想モードで、計測部位の三次元表示がされてもよい場合もある。
 16は、撮影オンオフボタンである。撮影オンオフボタン16は、シャッター等で形成され、これを押すことで、図3(c)で示す撮影用カメラ306a、306b及び306cで同時に撮影を行うための、例えば押しボタンである。その他、表示部15がタッチパネル方式であれば、指、専用ペン等の接触によるものであっても良い場合もある。
 図3(e)は、一つのカメラを移動させて三次元計測を行う場合の一構成例である。この構成例は、計測支持部301上に1つのカメラ311を装着したものであり、把持部12のスライド用孔312に沿って平行に移動可能なように構成されている。その他、傾きセンサ、照明、ポインタ等を備えたものであってもよい。
 スライド用孔312を利用して、所定の移動距離毎にカメラ311で写真を撮影していき、例えば、311と311aとの間で、撮影された2枚の写真から被写体の立体座標を取得し、次に311aと311bとの間で撮影された2枚の写真から異なる部位311のカメラでは写らず、311aと311bの両方のカメラで写った部分の立体座標を取得することができる。
 カメラ311の移動手段としては、遠隔操作による自動駆動、タイマー設定により、数秒間隔で、自動的に移動しながら撮影する機構を備えたものが例示される。
 なるべく把持部の位置が変わらない様にするため、自動的な移動撮影が好ましい場合もある。尚、カメラ311が固定された場合、把持部12を持って撮影するが、この場合、口腔内に位置決めを行う半固定具を用いて、平行乃至垂直移動を行わせてもよい。
 図2において、18は、コンピュータであり、パーソナルコンピュータ等が例示される。表示演算ユニット4では、十分な処理が行われない場合、補助的に用いられる場合もある。
 コンピュータ18は、その他必要な場合にUSB、赤外線、無線等で示される接続用ケーブル17を介して接続して用いられる場合や、後段の加工装置19へ、加工用三次元データの伝送を行う為に用いられる場合もある。
 コンピュータ18は、単独で必要とされる場合の他、表示演算ユニット14がその機能を併せ持つ場合は、不要となる場合もある。
 又、コンピュータ18は、同等の機能がある場合の表示演算ユニット14は、インターネット等のネットワークを用いて計測装置をもつ歯科医と補綴物を加工製造する技工所をデータ転送によって接続関係を形成することも可能である。この場合、歯科医が発信するのは、3枚の通常使用されるjpeg、GIF、BMP、TIFF等の様式に変換可能な写真画面であり、技工所で三次元データを抽出すればよいことから、歯科医の作業は、簡単なメール程度であるため、手間がかからないシステムを形成することができる。メールではなく、撮影すると歯科医はなにもせずそのまま、複数の写真が技工所へ送信されてもよく、よりシステムの簡素化が図れる場合もある。
 19は、加工装置である。加工装置19は、CAD/CAM装置に例示されるものであって、コンピュータ18から送られてくる三次元加工データに基づいて、セラミックスブロックを研削、切削加工を行う為のものである。図2では、その一部を示している。
 20は、加工用ブロックであり、セラミックス又はセラミックスとレジンの複合材より形成される。
 21は、加工用ミルで、ドリルが回転しながら、先端部及び側面部を加工用ブロックに押し当てて研削切削する。22は、加工用ブロック20が装着固定される為の装着部である。なお、図2の加工装置の構成では、商品名CADIM(登録商標)(アドバンス社製)の加工部を略式的に示している。
 次いで、図2及び図3(b)に示す実施例の動作について説明する。
 図2及び図3(b)に示す把持部12を持ち、支持体10を計測部位へ移動する。上面のみであれば、計測支持部11を計測対象の歯を計測する部分に持って行き撮影オンオフボタン16を押す。
 撮影オンオフボタン16が押されると、撮影用カメラは、撮影画像を瞬間的に形成する。その際フラッシュ又は、常時照明を行う照明用光源304が、撮影部位を照らし出す場合もある。
 ここで、表示部15には、伝送部13を介して伝送された画像が表示されている場合を示す。この場合の画像は、測定部位の咬合面1A及び補綴部位1Bの表面である。
 表示部15に映し出された3つの画像から、共通する部位を求め、その部位の三次元座標を図4に示す手法で演算により求めていき、全体の三次元形状データを求める。当該三次元座標値は、少なくとも共通の計測点が、複数の写真で確認できれば、図4で示す動作原理により演算にて得られる。又、図3で示すポインタ305による点模様又は縞模様を計測点として使用すると、精度良く三次元座標が得られる。
 尚、本発明では、歯の特定の点を2つ以上の画像で識別する為、この特定の点を認識する必要があるが、歯の表面は、歯の色や唾液等で乱反射しやすいため、直射光を避け、例えばドーム内で反射光を利用するドーム照明や、スライドガラス等のフィルタを介した照明を用いても良い場合もある。
 共通点の求め方についての一例を以下に示す。
 写真画像の共通部位を特定するため、写真Aの特定の部位の範囲画素に対し、対応する写真Bの範囲画素を特定し、それぞれの範囲画素の輝度を求める手段、
 写真Aの範囲画素の輝度の差分を取り、差分値パターンを設定する手段、
 写真Bの範囲画素の輝度の差分を取り、差分値パターンを設定する手段、
 写真Aの差分値パターンと写真Bの差分値パターンを比較して、一致、又は近似している時は、そこを共通点と設定する手段、一致していないときは、写真Bの範囲画素を移動させて、同様の比較を行う手段、
よりなり構成が例示できる。範囲画素は、一つの共通点して設定できる範囲である。差分は、輝度の変化量を示すことから、輝度が一様に見えても、その変化量により相違する場合がある為、一つの写真の特定の点(範囲画素)の差分を取って、差分値パターンを形成し、この差分値パターンを他の写真画像上の差分パターンと比較することで、共通点を決定する。
 差分値パターンとは、一つの画素輝度値と隣接する画素輝度値の差の値を順次求めていき、これをつなぎ合わせることで、得られる場合の他、差分値と差分値の差分、即ち2回差分をとり、これらの2回差分の値を繋ぎあわせたものも示され、2回以上の差分値をとり、両画像の共通部位の特定を行っても良く、その場合は、基準点として用いて他の方向から撮影した三次元座標との共通座標を得る場合に用いても良い場合もある。
 即ち、画像上の画素輝度の比較一致では、部位の特定は、困難であっても、差分値は、前後の変化パターンであるため、両画像で比較一致が容易となるのである。
 範囲画素は、一例であり、画像の座標上で、例えばx軸方向又はy軸方向で、差分値を連結して輝度差分連結データRを形成する手段、当該輝度差分連結データを他の画像でも、同じ方向で(即ち、先に得た輝度差分連結データRとx軸方向、y軸方向、又は同じ傾きを持った方向)輝度差分連結データLを形成する手段、輝度差分連結データRと、輝度差分連結データL内で、同じ連結パターンをもつ部分を検出し、この共通パターンから、共通点を選択する手段による組み合わせ構成も例示される。この差分により、同じ条件で撮影された多少方向が異なる写真は、写真の写る範囲は異なるもののおおよそ同じ輝度を持つ画像であることに着目したものであり、同じ輝度の変化パターンを求めて、そのパターンが同じ、又はある程度尾同じ部位を共通部位として設定して、三次元座標を得ることで、精度の高い三次元座標データが得られるのである。
 この差分により、隣接部の輝度の変化の割合が得られるが、これを更に差分することで、2つの画像を照合して共通点を取る場合に好ましい態様となる場合がある。
 更に別の面で、歯列を介して反対側面の写真が必要な場合は、摺動部308を操作して、撮影用カメラ306aを上下に摺動させて調整する。
 三次元データが得られた場合、更に、これを仮想構築してインレー、クラウン等の歯科用補綴物をコンピュータ18等に出力して表示し、必要に応じ再度調整した後、加工用データに変換する。
 加工用データは、更に加工装置19に伝送され、装着部にセットされた加工用ブロック20を研削、切削加工する。
 このように、本発明によれば、患者及び歯科医療従事者に負担を与えず、三次元計測加工が行うことができる。
第3の実施例
 図5は、本発明の第3の実施例を示すものである。本発明は、複数の静止映像画像で形成される為に、画像が二次元で容量が少ないことから、健康な状態での歯及び歯列を三次元形状座標取得可能な状態で汎用のパーソナルコンピュータで容易に保管できることから、図5で示す様な加工手法もとることができる。
 図5(a)において、402は、う蝕前の歯の形状を示し、この測定時点で、ステレオ画像として少なくとも3枚の画像を保存する。更に必要に応じ、対合歯401のステレオ画像も撮影し保存する。
 う蝕の治療後、図5(b)で示す様に補綴物の必要な状態となる補綴部位403を含む咬合面404を写真撮影する。撮影した画像例を図5(c)に示す。図中、404aが咬合面画像、403aが加工された補綴部位を示す画像である。
 更に以前撮影しておいた画像を呼び出して、これを三次元画像として座標を得て、う蝕前の仮想三次元の歯牙形状を表示する。図5(d)の402aが、う蝕前の仮想咬合面である。これと、治療の必要な歯牙の三次元形状の咬合面画像404aを図5(d)で示すように重ね合わせると、補綴物全体の形状(補綴物形状)405が得られる。
 補綴物形状405を加工装置19に伝送し、加工用ブロック20を研削、切削加工すると、補綴物23を得ることができる(図4を参照)。
 尚、本実施例では、健康なときの歯牙データを記録するものとしているが、これに限られるものではない。例えば、別法として、対合歯のデータを記録し、又は治療時の対合歯401のデータを記録し、これを用いて咬合面を形成しても良い。
 要するに、本発明は、直接口腔内を形状計測して、補綴物を製造する方法であることから、ワックス模型を作成しないワックスアップレス手法において、より好適に使用される。
第4の実施例
 図6は、本発明の第4の実施例を示すものである。
 図6(a)は、支台歯又はインプラント支台歯504が歯肉部505表面から露出した状態の口腔内部を示す。この状態で、図2及び図3で示す支持体を口腔内に挿入して撮影を行う。図中、501a及び501bは、対合歯501に隣接する対合歯である。また、502及び503は、隣接歯を示している。
 撮影した写真画像であって、三次元座標をえるための画像は、図6(a)の場面、図6(b)の場面、図6(c)の場面であり、それぞれステレオ画像として複数枚撮影される。
 これらの写真画像を用いて、仮想補綴物作成の為の要部として、隣接歯502と503の最大豊隆部間の距離となる仮想補綴物の最大豊隆部の直径P1、及び歯高値P2を得る。
 歯高値P2は、対合歯501の咬合面からと歯肉505の表面までの距離を抽出すればよいが、対合歯を要しなくても、隣接歯502と503の咬合面を結ぶ高さから、歯肉505表面までの距離を示しても良い。
 この場合、1枚の平面画像からもその値が求められ、そのまま仮想補綴物形状を形成する為に用いられても良いが、更に奥行きデータ、即ちy座標を得ることで、上面からの撮影画像とのマッチングが容易となる場合もある。
 図6(b)は、上面から撮影した状態を示す。この状態で、歯幅値P3座標が取得できる。この値も、一つの平面座標で足りるものであるが、z値を求めることで、より精度の高い歯幅値P3が得られる。
 更に支台歯の表面形状P8及びマージンラインPMが得られる。マージンラインPMは、着色を施すなどのマーカー処理をして、写り易い前処理を施しても良い。
 図6(c)は、対合歯の咬合面を示すものであって、主に対合歯501の咬合面の三次元形状P4を図3で示すカメラで撮影して得ることができる。
 仮想補綴物は、最大豊隆部(直径P1の円周)から支台歯の歯肉部505からの高さP5、支台歯の上面の直径P6、支台歯の底面の直径P7、支台歯の表面形状P8及びマージンラインPMの値に基づいて形成される。
 尚、支台歯の表面形状は、三次元座標データに基づいて復元された表面形状P8とマージンラインPMで決定可能であるが、もともと支台歯は、歯科医が形成したものであるので、その他の数値のみでも決定する場合もある。
 静止画による受動的な三次元形状測定の場合、二次元画像から得られる値は、そのまま使用し、咬合面、支台歯面は、ステレオ画像により三次元的に取得して、これを利用することで、処理データが少なく、短時間で、適当な仮想補綴物をコンピュータのモニタ上に作成できる。
 本発明は、補綴物データを二次元画像で大量に記憶しておくことが出来るため、これをデータベース化しておき、復元時、三次元形状に変換して仮想既成モデルとし、これと、仮想補綴物を比較し、最も近似する仮想既成モデルを決定しても良い。
 図6(d)は、コンピュータ18又は表示部15の画面506を示し、小ウィンドウ506aに表示された507が、例えばP1からP8及びPMに基づいて仮想的に補綴物を作成した際の仮想補綴物である。尚、P1からP8及びPMが常に全てが必要とは限らず、適宜選択的に計測使用される場合もある。
 508は、表示されたデータベースである。ここには、補綴物の典型的な形状に係るデータが蓄積され、更に個々のデータに対応した形状の半加工ブロックが用意されている。
 仮想既成モデルは、データと対応して予め加工用ブロックを切削研削加工して形成されており、決定されて表示された仮想既成モデル509を図6(d)の小ウィンドウ506bで示すように仮想的に形成した補綴物の仮想補綴物507に重ね合わせた状態を表示しても良い。
 小ウィンドウ506bで示す仮想補綴物507とデータベース508から決定された既成補綴物形状509を重ね合わせた状態図において、その差510(実線と点線との間)を加工することで、より短い加工時間で仮想補綴物507に対応する補綴物を形成できる。
 尚、ワックスアップレスに限らずとも、補綴物形成の要部は8カ所程度までであることから、これを二次元データと、三次元データの組み合わせにおいて容易に仮想補綴物が作成できる。
 本実施例によれば、複数の二次元静止画像から得られる二次元座標データと三次元座標データからそれぞれ仮想補綴物を構成する要素が取得できる為、処理時間が短縮できる歯科用補綴物の製造を可能とすると共に、データベースから近似模型を検索するキーワードが容易に得られ、歯科医、患者に負担が少ない歯科用補綴物の製造が可能となる。
第5の実施例
 図7は、本発明の第5の実施例を示すものである。本実施例では、インターネット等のネットワーク回線、又は携帯電話回線網を使用して計測と加工を切り離したシステムを示す。なお、図7において、他の実施例と同じ構成を示すものについては、同一の番号を付して説明を省略することとする。
 図中、601は、ネットワーク回線であり、インターネット、イントラネット、エクストラネット、携帯電話網等を示す。
 602、603は、インターネットの場合はプロバイダであり、携帯電話の場合は中継局等を示す。
 604は、表示演算ユニット14とプロバイダ602を接続するネットワーク用伝送路、607は、プロバイダ603と技工所サーバ606を接続するネットワーク用伝送路であり、いずれも電話回線、光回線、LANケーブル等の有線網又は無線LAN等で構成される。
 608は、技工所サーバと、加工装置19を接続する有線ケーブルで、USBケーブル、パラレルケーブル、シリアルケーブル等で形成されている。
 613は、ユーザ用携帯電話、614は、技工所用携帯電話であって、無線による携帯電話網615(途中中継局等は省略)で接続される。
 605a、605b、605cは、伝送用写真であり、それぞれ視差を備えた三次元形状データ用写真である。送信枚数は、撮影の具合による3の倍数になる場合もある。
 606は、技工所のサーバであり、技工所で、送信されてきた写真画像から三次元座標データを算出し、加工用データに変換するためのものである。
 609は、配送経路であり、郵送、宅配、持参等、完成した補綴物を歯科医等に届ける手段である。
 610は、支持体10とユーザ用携帯電話613を接続する伝送体であって、USB等の有線ケーブル、赤外線、電波、無線等で形成されている。
 611は、支持体10と表示演算ユニット14を接続する伝送体であって、610と同様にUSB等の有線ケーブル、赤外線、電波、無線等で形成されている。
 612は、技工所用携帯電話614と技工所のサーバ606を接続する伝送路であり、USB等の有線ケーブル、赤外線、電波、無線等の他、SDメモリ、USBメモリ等も使用可能である。
 次いで、本実施例の動作について説明する。
 支持体10を把持して口腔内に直接挿入し、計測支持部11に固定されたカメラ群により咬合面1Aの補綴部位1Bの表面をステレオ状態で撮影する。
 得られた写真605a、605b、605c及び傾きセンサが出力した傾き情報を伝送体610を介してユーザ用携帯電話613に送信する。別法によれば、これらの写真を伝送体611を介して表示演算ユニット14へ送信してもよい。
 本実施例では、上記した手法のいずれか一方を選択すれば良いが、場合によっては、携帯電話の表示画面を用いれば、表示演算ユニット14を不要とする場合や、携帯電話のボタンがシャッター代わりとなる場合もあり、ユーザの費用的負担は低減される。又、表示演算ユニット14は、静止画を取り込むまで、動画状態で、口腔内を表示し得るものであり、スムーズな動きを期待する場合は、両方を接続し、支持体10が補綴部位の撮影位置決めまで、表示演算ユニットで、口腔内を観察し、撮影オンオフボタン16を押して静止画を取り込み、ピンぼけ、ぶれがないかどうかを表示部15で確認した後、ユーザ用携帯電話613を介して、写真605a、605b、605c及び傾きセンサが出力した傾き情報を送信しても良い。
 ネットワーク回線601を用いた場合、写真605a、605b、605c及び傾きセンサが出力した傾き情報は、表示演算ユニット14からネットワーク用伝送路604、プロバイダ602、ネットワーク回線601、プロバイダ603を介して技工所サーバ606に送信される。
 写真605a、605b、605cをユーザ用携帯電話613へ送信する場合は、表示演算ユニット14から、赤外線、電波等の既成の伝送手段、SDカード等のメデイアを用いて、伝送する他、表示演算ユニット14を用いず、支持体10の伝送路をUSB仕様として、直接携帯電話に接続し、携帯電話から、シャッター信号を送信して、直接携帯電話に写真画を取り込んでも良い場合もある。
 また、携帯電話によって、撮影された写真をみることが出来ることから、ピントや手ぶれが有るかどうか確認が出来、更に手軽な形となり、又、支持体10を必要とするだけとなることから、歯科医の負担はより低減される。
 技工所サーバ606は、送信されてきた3枚の写真から三次元データを算出し、仮想的補綴物形状に基づいた加工用データに変換し、加工装置19に伝送する。
 加工装置19は、この加工データに基づいて、加工用ブロック20を加工用治具である加工用ミル21によって研削、切削加工して、補綴物23を製造する。製造された補綴物23は、配送経路609を経て、歯科医等のユーザに配送される。
 本実施例は、歯科医等のユーザがインターネット、携帯電話を用いて計測写真を送信し、技工所は、この写真を用いて、補綴物を加工して、歯科医へ配送するシステムを示しており、口腔内から直接印象材などを用いて型どりをすることなく、単に支持体を持って、写真を撮りこれを技工所へ送信すればよい点で、歯科医の負担は今までになく低減されることとなる。
第6の実施例
 図8は、本発明の第6の実施例を示すものである。
 図中、801は、コンピュータ用のモニタであり、主に液晶ディスプレイ、プロジェクタで構成されている。モニタ801は、例えば、図8(b)で示すようなプロジェクタ方式であれば、左眼用画像と右眼画像を2台のプロジェクタ810及び811を用いて、鏡と同じ反射特性を有するスクリーン809に投影する。左眼用画像は、偏光軸方向が例えば45度となるような内部の偏光板の偏光駆動を行い、右眼用画像は、例えば135度となるような偏光駆動を行いながらスクリーンに出力する。
 モニタ801が、液晶ディスプレイの場合、例えば液晶表示画面の1ドットライン毎に、左眼用と右眼用の画像を交互に並べ、1ライン毎に右眼用又は左眼用の偏光方向が90度変化する例えば25μmのセロファンからなる液晶フィルタ等を設置して構成されている。
 802は、メガネタイプの3D表示具であり、803は、左眼用偏光透過部、804は、右眼用偏光透過部である。左眼用偏光透過部803は、モニタ801が表示する左眼用の画像のみを通過させ、右眼用偏光透過部804は、モニタ801が表示する右眼用の画像のみを通過させる偏光フィルタで形成されている。
 図8(b)は、図8(a)で示すモニタ801の代わりに、2台のプロジェクタ810、811とスクリーン809を用いて表示する手法を示す。
 左のプロジェクタ810は、左眼画像を出力し、右のプロジェクタ811は右眼の画像を出力する。スクリーン809の表面は、アルミニウム等の金属粉末等で被覆したいわゆるシルバースクリーンが好適に用いられる。
 図8(c)は、モニタ801の表示表面に接続又は、所定の距離を置いて配置する偏光フィルタユニット805を示すものであり、806は、左眼用フィルタであり、モニタ801が出力する左眼用画像のみを通過させる。807は、右眼用フィルタであり、モニタ801が出力する右眼用画像のみを通過させる。
 フィルタユニット805は、メガネの様に装着するものではなく、左眼画像を左眼に右眼画像を右眼にそれぞれ通過させようとするものである。フィルタユニット805の中央に遮蔽板808を、フィルタ面に垂直に設置しても良い。
 フィルタユニット805は、モニタ805の前面に置いて用いるものであり、見る方向によって、完全に左右の画像が、分離できるものでは無いが、使用態様によって、十分に使用可能となり、遮蔽板808を用いなくても良い場合もある。
 次いで、本実施例の動作について説明する。
 本発明は、複数のカメラで同時に歯牙等を撮影し、その際、個々のカメラの撮影画像には、互いに視差ができるため、その個々の画像をそれぞれ、左眼用画像、右眼用画像として用いても良い。これら両画像を、ドットライン状に分解し、モニタ801が、左眼画像と右眼画像を一ドットライン毎に表示させる様に調整する。右眼用画像が表示されるドットライン上には、偏光方向が90度変化している。
 モニタ801が左眼画像及び右眼画像が一ドットライン毎に出力した表示は、3D表示具802で、左眼用偏光透過部803を介して左眼用画像801aが通過して左眼用画像のみが左眼に入力される。右眼用偏光透過部804を介して右眼用画像801bが通過して、右眼用画像のみが右眼に入力され、3D表示具802を装着した者は、立体的な像を見ている状態となる。
 この状態は、撮影した口腔内の3D表示であり、更に、撮影データに基づいて三次元座標データが得られると共に、三次元座標を持つ仮想的な補綴物形状が形成される。
 これを、補綴物形状の座標を撮影用カメラの撮影位置に基づいた座標にそれぞれ変換して、左眼用画像データ及び右眼用画像データを作製して上記と同様にモニタ801を用いて表示する。
 3D表示具802を装着した者は、口腔内の3D表示と仮想的に形成された三次元補綴物の3D表示を見ていることとなり、更に両者が、装着された状態、又は、装着後の咬合状態を3D表示で見ることが出来るため、実際の装着時の調整を予め行うことができ、その調整に基づく補綴物製造を可能とする。これは、特にワックスアップレスによる、三次元仮想補綴物データに基づく、加工用ブロックを加工して補綴物を製造する方法において、より正確な補綴物の製造を実現する。
第7の実施例
 図9及び図10は、本発明の第7の実施例を示すものである。
 図9は、計測される対象物について、予め作製された三次元座標データを蓄積したデータベースの一例である。90D1は、目的とする補綴物を装着する部位の継続形状を予め、複数用意し、コンピュータのデータベースに登録したものであり、90D2は、目的とする補綴物の形状を予め複数用意し、同じくコンピュータのデータベース上に登録したものである。
 図9(a)に示すデータベース90D1は、ワックスアップレス手法等で、補綴物を作製するために、口腔内からデータを入手し、これを補綴物作成の為に用いる場合、予め口腔内からのデータと、これに補完したデータにより様々な形状を記憶してデータベース化したものである。
 900は、一つの仮想口腔内部の登録した第1基準仮想データであり、好ましくは、ID記号が付されている。第1仮想データ900は、三次元データの集合体であるが、これを使用者が選択しやすいように三次元的に表示した三次元表示リストである。901は、第2基準仮想データである。902は、三次元斜視図であり、903は、三次元側面図であり、904は、三次元上面図である。これは、三次元座標データでは、見えないデータの構造を使用者がわかりやすい状態にするためリスト表示しているものである。ここでは、2つの仮想データを示したが、仮想データはより多数有ることが好ましい。当該仮想データは、基準データとして使用される。
 図9(b)に示すデータベース90D2は、製造しようとする補綴物の形状を予め登録したものであって、905は、作製しようとする補綴物模型を予め口腔内から検出して形成された三次元座標データバースの一つの例である。
 図中、906は、一つの三次元座標データの、所定の方向から見た場合の仮想三次元表示である。
 907は、仮想斜視図、908は、仮想側面、909は仮想上面、910は、仮想底面を示す図であり、実測三次元データと比較するために、歯高値データ908a、歯幅値データ909a、マージン直径データ910aがキーワードとして設定登録されており、対応する実測値データと比較検索され、一番近似するデータを基準データとして使用するものである。
 尚、このような表示は、必ずしも必要ではなく、実際は、データとして比較され、最も近似的な仮想データが選択される。この場合の近似とは、例えば図9(a)の最大豊隆部の直径903a、歯高値903bであり、この値が近い仮想データが選択される。
 図10は、図9で示した仮想三次元形状データを蓄積したデータベース90D1を用いて三次元データ処理した場合の一実施例を示す。
 図9で示すデータベースを検索するタイミングは、少なくとも1枚の写真図に基づいた検索で足りる場合がある。例えば、写真図903から得られる、歯高903b、補綴物の最大豊隆部の直径を示す値903b及び隣接歯の形状、上面写真図904から見た支台歯のマージンラインの大きさから、近似三次元データを検索する。このように、平面データから近似三次元形状データを検索することで、処理のさらなる迅速化が図れる。
 図10(a)は、実際写真画像から算出した三次元データに基づいて構成された実測仮想データを示す。
 実測仮想データ911は、撮影により生じる死角部分を備え、更に口腔内の状況により精度が低下する部分に対して選択された基準仮想データ911Sを選択してこれと比較し、その差を求めていき、死角により撮影されなかった部分、或いは、口腔内状況により正確に計測されなかった部分を基準データ911Sを参照して補完するものである。
 912は、実測第1隣接歯三次元データであり、913は、実測第2三次元データであり、914は、実測三次元支台歯データである。
 915は、作製しようとする補綴物の差大豊隆部の直径であり、916は、支台歯914の直径に相当する。
 この実測値915、914から、図9(a)で示す仮想データベースから近似したデータを検索する。検索の結果、得られた仮想データを図10(b)に示す。
 実測第1隣接歯データ912と基準第1隣接歯データ912S、実測第2隣接歯データ913と基準第2隣接歯データ913S、実測支台歯データ914と基準実測歯データ914Sが比較される。
 917、918、919、920は、死角による実測不可能領域であり、この場合、基準データ911の該当する領域のデータ917S、918S、919S、920Sが参照され補完される。
 921は、実測仮想歯肉データであり、これらの歯牙に関連する領域までのデータが基準仮想歯肉データ921Sとして、予め記録されているが、この部位は、近似データとして使用される場合とされない場合がある。
 図10(c)は、実測第1隣接歯三次元データと、基準第1隣接歯三次元データを重ね合わせた状態の線分a−a’の断面図である。
 実測第1隣接歯データ912と基準第1隣接歯データ912Sとの間に差Lが生じるが、この差Lが大幅に違う場合は、基準データを優先させたり、死角により実測が出来ない領域917S’は、そのまま基準データ917S’が補完され、又は、差Lの値と滑らかな曲線を得るための演算補完され、補綴物作製用の加工データが形成される。
 本発明では、少なくとも2つの写真画像から、共通点に対する三次元座標を求めて、被写体の三次元形状を認識するものであるが、三次元座標が算出され、計測部位の状態が代表的数値であって、図9で示したデータベースで登録されたキーワードに相当する部位の値が算出されたタイミングで、図9で示すデータベースから、口腔内部位に相当するデータを検索し、検索して得られた基準データに基づいて各部の三次元データを上述のように決定していっても良く、より短時間で、補綴物を得るに適した口腔内データを算出可能である。
第8の実施例
 図11は、本発明の第8の実施例を示すものである。
 図11は、口腔内の歯列の上面と側面を同時に撮影可能とするための撮影用プローブの一例を示し、図11(a)は、プローブを上面方向から見た斜視図、図11(b)は、裏面から見た斜視図である。
 図中、1101は、上面用支持部、1102は側面用支持部であり、両者は、好ましくは、直角又は座標を得やすい状態の角度で配置固定されており、上面支持部1101の端部から、把持部1103が延びている。把持部1003は、更に外部モニタ機器と電気リード線で接続されている場合があるが、本実施例は、複数枚の写真画像程度のデータであるので、これを無線で外部モニタに伝送したり、SDカードのような小型メデイアに記録してもよい場合もある。
 ピント合わせは、自動で行われても良いが、その為の機械的メカニズムが必要となるため、一つのカメラから複数枚の写真を自動的にとりこんで、その中から、ピントのあった最適な画像を選ぶものであっても良い。
 1104は、上面カメラRであり、1105は上面カメラLである。構成は同じデジタルカメラであり、分解能は高いほうが好ましい。
 1106は、照明であり、白色LED等が、スライドガラスを介した状態等で、照射されている。
 1107は、側面カメラRであり、1108は、側面カメラLであり、1109は、照明部であって、上面部と同様の構成を有する。
 図11(c)は、実際に口腔内の計測部位に本実施例のプローブを宛がって撮影した場合の説明図である。この図から理解できるように、ワックスアップレスで必要とする情報を一度に撮影でき、又、別々に撮影する場合、プローブの位置で得られた座標を統一する必要がない。
 本実施例では、支持部が直交して配置されていることから、カメラの位置は、必然的に直交座標内に据え置かれており、座標変換等の処理を必要とせず、容易に三次元座標が得られると共に、カメラ配置周辺の色を非反射色として、乱反射を防いだ構成とすることも可能である。
第8の実施例
 図12は、本発明の第8の実施例を示すものである。
 図中、1001は、至近撮影画像取得手段である。至近撮影画像取得手段1001は、複数のカメラであって、被写界深度が数十mmの範囲で設定されたレンズをそれぞれ具えた同一の撮影手段を、1乃至複数個、平板状に又は、所定の角度を具えて固定的に又は、半固定的に装着された撮影面を具えた撮影部材によって、撮影された複数の画像を取得する手段である。
 ここで用いられるカメラは、高分解能であることが好ましく、0.3~4メガピクセル程度が例示される。カメラは、口腔内に挿入されるプローブの先端または、先端に近い部位に配置されることから、小型であることが好ましい。よって、より小さく且つ高分解能であるカメラが例示されるが、今後より高分解能で、且つ、小型化されたカメラがでれば、接写可能な範囲で、本発明はそれを好適に使用する。
 又、レンズとイメージセンサを分離してカスタムにカメラを形成する場合も同様に、高分解能で、小型であることが好ましい。半固定とは、一つのカメラを移動可能に形成することで、決まった方向に移動する構成を意味する。
 又、撮影は、連続して撮影し、複数の撮影画像から手ぶれ、被写界深度の範囲外にあるようなピントの合っていない撮影画像を削除する手法が好ましい。これは例えば1秒間に30枚の動画レベルから、1枚までが例示されるが、動画の場合は、分解能が限られてしまう場合があるため、一度の撮影で数枚から数十枚程度得られれば良い場合もある。至近距離での撮影で被写界深度が浅い状態の場合、ピントが合った部分のみを抽出して、その範囲で、共通点を求めてもよい。
 1002は、選択手段であり、一度の撮影で得られた画像データから一対の撮影画像対を選択するものである。例えば、手ぶれ、ピンぼけは、既知のカーネルを用いたコンボリューション処理を行って、抽出されたエッジ画像の全体の濃度の総和のレベルによって判断する手法等が採られる。
 この選択手段の採用によりカメラの固定した状態での撮影を行わず、動かしながら、撮影していき、その中からピンぼけ、手ぶれのない画像対を検出する。ピンぼけは、被写界深度の距離範囲内での撮影でない場合を示すものであり、必要に応じ、距離センサを装着し、おおよその距離から、被写界深度内外を反転しながら、利用者が手持ち状態で移動させる手法を用いることも可能である。
 オートフォーカス手段の利用も可能であるが、その場合、自動焦点設定の間、静止しながらの撮影となるものであってもよい。
 1003は、補正手段であり、カメラキャリブレーションソフトウエアなどで形成され、レンズによる画像の歪み、画像周辺と、中心との明るさの調整等を行う手段であり、距離取得用画像に変換する手段である。
 1004は、撮影画像座標設定手段であり、補正手段1003で補正された撮影画像に座標値を設定するためのものであり、複数の画像に対して同一の部位に中心点を持つ直交のxy座標などの共通座標を設定することが好ましい。
 1005は、共通撮影範囲設定手段であり、至近撮影画像取得手段1001で得られた複数の撮影画像の撮影範囲で、共通する範囲を設定する手段である。これは、例えば、それぞれの画像の輪郭、特徴部位を抽出し、重ね合わせることで、共通範囲を設定するためのものである。これは、後段の共通点を決定する手段の処理速度を速める為におこなうものであって、処理速度に問題がなければ、共通撮影範囲をこの時点で設定しなくてもよい場合もある。又、至近撮影の場合は、輪郭等が検出されない場合があるため、後段で共通範囲を決定しても良い場合もある。
 1006は、共通点決定手段であり、いわゆるブロックマッチング手法、サブピクセル推定手法を用いて、複数の画像であって、共通範囲上の共通点を特定する為の手段である。
 共通点決定手段1006は、まず、一つの画像上の一つの点を基準点として、この基準点に相当する点が他の画像上で検索し、決定する。検索は、主に輝度値であり、カラー画像であれば、三原色毎に行われても良い。輝度値の一致は、おおよその範囲での一致であればよく、検索点と参照点の輝度値の差又はその2乗値が一番小さくなる点を推定するサブピクセル推定手法により、より精度の高い共通点を探すことが好ましい。
 ここで示す参照点、共通点で示す点は、一つの画素を示す他、複数の画素を示す場合もあり、複数の画素の場合は、平均輝度値を用いるものが例示される。
 1007は、共通座標設定手段であり、共通点決定手段1006で推定的に又は確定的に得られた共通点のそれぞれの画像座標値から、いわゆるワールド座標値を求めるものである。
 ワールド座標値を得る手法としては、既知の三角法等を用いれば良く、必要に応じ、8点アルゴリズム等、複数の共通点を求め、それぞれの画像座標値から、基礎行列等のアルゴリズムを決定する手法を用いてもよい。
 1008は、結合手段であり、先に形成された三次元座標データを一時記録手段1008から読み出して、これと、現時点で形成された三次元共通座標データとを結合する手段である。結合は、先のデータとおおよそ共通する座標群を見つけて、この座標群を一致させて結合する手法が例示される。
 1009は、一時記憶手段であり、先の結合手段で結合して得られた共通三次元座標データを一時的に記憶しておく、デジタルメモリ、その他のデジタルメデイアが例示される。
 1010は、加工データ形成手段であり、結合手段1008で得られた結合データを加工用のデータに変換するためのもので、当該データは、コンピュータモニター上に表示されて、順次結合されていくデータが表示され、CAM加工用に補綴物の加工データを形成する。結合データが画面表示されていくことで、未計測部分が表示でき、その部分を補完することが可能となる。
 次いで、本実施例を動作について説明する。
 至近撮影画像取得手段1001によりカメラ対を口腔内の被撮影部分に対し、先端に複数のカメラが装着されたプローブを手で持ちながら、至近距離で連続撮影する。撮影は、連続撮影によって、移動させながら又は、静止させながら行われ、複数の画像対が選択手段1002へ出力される(0a)。
 選択手段1002は、入力されてくる画像データのエッジ検出処理を施して、その値から、手ぶれ状態を把握し、ピンぼけ、手ぶれがない画像を選択し、補正手段1003へ出力する(0b)。被写界深度が浅い場合等、一部ピンぼけしている場合は、ピンぼけ以外の画像を抽出して、補正手段1003へ出力する。
 補正手段1003でキャリブレーション処理が施され、距離画像に補正された後、撮影画像座標設定手段1004へ距離画像対を出力する(0c)。
 入力された、複数枚の距離画像対に対し、座標が設定され、共通撮影範囲設定手段1005へ出力される(0d)。
 共通撮影範囲設定手段1005は、画像対から、共通する撮影範囲を検出設定して、その範囲を画像を共通点決定手段1006へ出力する(0e)。
 この共通範囲が設定された画像対の一つの画像を参照画像として、参照点を設定し、この参照点に一致又は近似する点を他の画像から順次、単位点ごとに輝度値を比較することで検出する。
 一致、又は近似すると推定した点が得られた場合これを共通点として次の参照点について同様の操作を行い、共通点を決定し、これを繰り返していき、各画像の共通点の画像座標を得て、これを共通座標設定手段1007へ出力する(0f)。
 共通座標設定手段1007では、各画像データ上における共通点の画像座標をワールド座標に変換して、結合手段1008へ出力する(0g)。
 結合手段1008に入力されたワールド座標データは、その前に処理されたワールド座標データを一時記憶手段1009から読み取り(0i)、共通座標部分に基づいて結合される。
 結合されたワールド座標データは、一時記録手段1009に一時的に重ね書きするように記録され(0h)、更に加工データ形成手段1010に出力される(0j)。
 加工データ形成手段1010は、得られたワールド座標データを実際3次元表示しながら、計測されていない領域が無くなり、補綴物が形成できる状態までの形状データが得られるまで、蓄積され、その後、CAM用の加工パスデータに変換処理する。この加工データに基づいて、セラミックス、レジン、及ぶこれらの複合材により形成されるブロックを加工したり、ラピッドプロトタイプによる造形処理により補綴物を製造する。
 本発明は、至近接写により、撮影範囲を限定することで、精度の高い座標データを得ることができる。
第9の実施例
 図13(a)は、本発明の第9の実施例を示すものである。
 図中、1110は、カメラユニットであって、同じCCD又はCMOSカメラを互いの方向へ所定の角度を施して、設置したものである。カメラユニット1110の個々のカメラ(A)1111a、カメラ(B)1111bは、例えば1Mピクセル程度かそれ以上の分解能を持つものが好ましいが、加工程度により、1Mピクセル以下でも良い場合もある。
 1112aは、カメラ1111aの至近接写用のレンズであって、1112bは、カメラ1111bの至近接写用のレンズである。いずれも焦点距離が短かく、ピンホールレンズや接写可能なレンズが適用され、1乃至複数のレンズが使用されてもよい。又、拡大レンズを用いてもキャリブレーション可能な範囲で良い場合もある。
 1113は、照明光出力部であり、カメラユニット周辺に沿って、出力部が形成されている。照明光出力部1113の表面には、プラスチック、ガラス等の透光性部材が装着されている。
 1114は、光源であり、主に、LEDで形成されるが、導光路に基づく光路長があるため減衰を考慮して高出力なものが選択される。
 1115は、導光路であり、光源1114の出力光を照明光出力部1113に伝達するためのものであり、内部は、光を反射する部材で覆われていることが好ましい。
 照明光出力部1113は、導光路1115内の光源1114の発光を外部へ出力する部分であり、デジタル画像を撮影すると、画面の周辺が暗くなることを補償できるものである。
 又、LEDの光の輪郭が測定面に反射して受光することを回避させる照明光出力部1113は、磨りガラス状の透光性部材や、透明な透光性部材を用いることができるが、その分光の損失が生じる為、透明なものが好ましい場合もある。
 尚、照明光出力部1113は、このような、間接的光源の利用だけでなく、直接、照明光を照射する手段を用いるものであっても良く、光源が生体の照射面に形成される輪郭等も、共通点の目安を取得する部位と成り得る場合がある。
 1116は、本体先端部であり、本体把持部1117と一体的に形成され、中央に押しボタン型のスイッチ1118が形成されている。
 本体先端部1116と本体把持部1117は、硬質なプラスチックで形成されており、軽量で持ち運びに優れた形状が好ましい。
 1119は、電気リード線であって、外部へ画像データを送信したり、電力を供給したりするためのものである。電気リード線1119は、USBケーブル等の汎用性ケーブルが使用されても良く、又、無線送受信可能な場合は、不要な場合もある。
 無線送受信の場合は、アンテナになる場合もあるが、1120は、インジケータであり、表示により、動作状態を示すものであって、例えば、撮影がされている期間を発光することで、表示したり、ピンぼけ状態とピントが合った状態、或いは、被写界深度範囲にあることを発光、色、強度等で示そうとする表示体であり、LEDの他、液晶パネル等、表示可能な素子を用いてもよい。
 1121は、センサ用光源であり、周囲側面が覆われており、いわゆるスポットライト状の出力が行われるようにすることが好ましい。ここで、出力は、被写体との距離を計測する為の出力であり、予め狭い角度で発散的に出力する光を出力するためのものである。この出力光の広がりは、被写体との距離と対応した関係が接待されており、被写体との距離をスポットライト状に映し出された光の直径、面積等を測定して、距離が得られるような、光源が利用される。
 次いで、図13(a)に示された実施例の動作について説明する。
 本体把持部1117を持って、カメラユニット1110の部分を歯牙へ接近させる。カメラユニット1110のピントがあった時点で、撮影を開始する。
 光源1114は、常時、又は撮影時出力を行うと、導光路1115を介して、カメラユニット1110の周囲の照明光出力部より照明光を出力する。照明光は、白色、その他、白色に近い色に調整された出力であっても良い。常時照射する場合は、高出力LEDを採用するため、消費電力が大きくなるため、フラッシュランプの様な照明であっても良い。
 ピントが合った時点とは、カメラ1111a、1111bが、オートフォーカスであれば、自動的にピントがあった状態で、実行されるが、オートフォーカスでない場合は、例えば、図14に示すようにカメラユニット1110を撮影部位に接近させていく。センサ光源121の出力が、撮影面に円弧を描く為、その円弧の直径又は面積等を測定し、被写体までの距離が予め計測された関係に基づき、計測され、その距離が、被写界深度に入ると自動的に撮影を開始し、インジケータ1120が、その旨の発光(色、強度を変えた)を行う。
 又、自動的に撮影されない場合は、スイッチ1118、その他のシャッターを押すことで、撮影が開始される。
 撮影は、一回でピントがあい、手ぶれがない画像が撮影されればよいが、連写することで、複数の撮影が行われて、その中から、画像が選ばれても良い。
 本体把持部1117を手でもって、図14(a)で示すように、本体先端部1116のカメラユニット1110を接写しながら、図14(b)で示すように、移動させて行く。その際も、被写界深度にあった距離である場合は、連写が続けられ、画像データが内部メモリに蓄積される。内部メモリに蓄積される場合の他、電気リード線1119を介して外部記憶装置に記憶される場合もある。
 照明光出力部1113からの照明は、撮影のタイミングで出力する場合や、常時出力するものであってもよい。
 又、拡大レンズを使用してもよく、狭い面積を撮影するものであっても良い。
 カメラユニット1110は、所定角度で、互いの方向に傾いているが、その状態で両者の共通した撮影部位を図14(a)のH21で示す。
 図14(a)の共通撮影部位H21から、それぞれ、共通点Mを検出する。共通点Mは、どちらかの画像から選択されたMに対し、他の画像において、その角度に基づいた範囲を、その照度に基づいて決定する。
 本発明は、この照度値の撮影負担を、小さくするため、近接した撮影を行う。即ち、CCD、CMOS画素の集合体であるイメージセンサ部の大きさに対し撮影面積を小さくすることで、画素が負担する範囲を小さくして、分解能を向上させると共に至近接写可能なカメラ構造により、更に精度の高い計測を可能とする。
 得られる写真画像は、レンズによる歪みを是正したり、必要に応じ、光量の補正をおこなうキャリブレーション手段を通過させる。キャリブレーション手段は、OPEN−CVの様な、ソフトウエアを組み合わせ利用することで、実現させても良い。
 次にブロックマッチング操作を行う。例えば水平なカメラ関係であれば、y軸に沿った比較による一致又は、SSD、SADのように、基準ブロック画素と、比較ブロック画素の差分をとっていき、必要に応じて2乗してその最小値を放物線を描いて、その最小値をとり、その最小値の比較画面におけるブロックを共通点とするサブピクセル推定をしても良い場合もある。
 ブロック単位は、2×2、3×3~で精度を求める場合は、より小さい方が好ましい場合もある。参照画像からのブロックの決定は、隣接するブロックを検出してマッチング処理を行う他、少なくとも、加工精度が得られるデータが得られればよいことから、一つおき、又は、複数ブロックを飛び越して選択し、マッチング操作をおこなってもよい。
 再現された3次元データの連結は、スプライン曲線等を用いた曲線補完処理でも足り、時間短縮と、リアルタイム処理を可能とする場合もある。
 少なくとも、加工データが得られる精度のブロック選択が行なわれればよく、又、加工までにいかず、撮影と同時に、画面上に3次元画像を再現する場合は、ブロックをさらに飛び越してマッチング処理を行うことで、リアルタイムな画像表示を可能とする。
 共通点Mが得られた後、この共通点Mをワールド座標等の共通座標へ変換する。共通座標への変換手法は、カメラの透視投影行列を用いたアルゴリズムの利用による公知の手法が用いられても良い。
 尚、共通点のワールド座標値を複数点得ることで既存の8点アルゴリズム等による基礎行列を算出し、この基礎行列を用いて三角法等の既知の撮影画像座標をワールド座標へ変換するアルゴリズムを形成し、それぞれの撮影画像での共通点の座標に基づいてワールド座標上での共通点座標を求めても良い。
 このように一回の撮影から口腔内の一部の領域(図14、H21)のワールド座標データが得られた後、次の画像データ対から例えば、図14のH22の範囲からワールド座標データを得て、H23の領域へ移行して、それぞれの形状をワールド座標化する。
 ワールド座標化した3次元データ面、H21、H22を、その共通する部位の座標を比較近似してつなぎ合わせてゆくことで、歯の3次元形状データを得る。又、歯以外の歯周部等も同様の手法で、3次元化可能である。
 尚、口腔内のテクスチャは、接写することで、その凹凸が画像の特徴として利用される場合もあり、更に、回折光学素子の利用によるパターン投影、照明の方向、種類によって、そのマッチングに供する特徴が得られる場合もある。また同じ部位をなぞるように接写して画像化し、同部位の3次元データを加算平均することで、より精度が向上する場合もある。
 本発明は、パッシブなステレオ方式を採用することも可能であるが、接写し連写することから、図14(b)で示すように歯面2H上をおおよその至近距離でアクテイブに移動させて、形状計測も可能であり、口腔内カメラ的な使用も可能とすることから、本発明では好適な実施態様となる。
 本発明におけるピンぼけ画像を解消する手法として、図13(b)を参照する。ピンぼけ画像とは、被写界深度の範囲以外で撮影された画像を意味する。
 センサ用光源1121は、指向角が、5度前後から、それ以上の角度を持つ、出力光を、側面を黒い遮蔽物で遮蔽した状態で出力することで、スポットライト化する。LED光は、直進性があるため、照射距離1121aと円形の照射面1121bの面積が略対応する(照射距離が長くなると照射面の面積が広くなる)ことから、あらかじめその関係をデータ化し、距離を測定する際、照射して、その直径、面積を測り、被写界深度範囲であるかないかを識別し、範囲である場合は、インジケータ120の光を点滅させたり、異なる色の表示をさせたりしても良く、利用者が、そのインジケータ表示により、状態を把握し、カメラ位置を調整しながら、アクテイブに口腔内を撮影しても良い。
 センサ用光源1121は、必要に応じて装着されれば良く、又、パターン光源として使用しても良い。即ち、本実施例は、接写状態に近い至近距離であるため、指向角度の狭いLED等を用いれば、いろいろなスリットを用いて、測定面に光学的模様が形成することが出来るからである。
 尚、外部モニターは、3次元座標が得られると同時に、画面上に表示していくことで、未完部分をみながら、カメラユニットの位置を操作するものであってもよい。
 又、その際の、画像のみを記録して、その他は削除しても良い。尚、このようなセンサ光源を用いなくても、得られる対の画像データから、容易に検出できる特徴部位を検出して、そこから、共通点を求めて、その座標を求めても良い場合もあるが、接写の場合は、センサ用光源の利用が適当になる場合がある。
 尚、オートフォーカスタイプのカメラモジュールの使用の際は、一つの撮影毎に、多少の静止時間が必要となるが、連写手法との組み合わせによりおおよそアクテイブな操作となる場合もある。
第10の実施例
 図13(c)は、本発明の第10の実施例を示すものである。本実施例では、一つのイメージセンサを4に分けて、それぞれを独立のイメージセンサとして複眼的に使用したものである。なお、図13(a)と同じ構成の部分は、同じ番号を付して説明を省略する。
 1122aから1122dは、レンズ1123a~1123dを装着したレンズ体であり、それぞれ内向きに傾斜している。傾斜することで、より、狭い範囲を3次元用に撮影する場合は適当であるが、平面状であってもよく、共通点の検出を容易にするものである。
 また、内部で反射鏡、反射プリズムなどの反射回数を少なくすることで、キャリブレーションを複雑にしないで済むようにする手法も採用することが可能である。
 図13(d)において、1124a及び1124cは、第1反射部材であり、プリズム、鏡で形成され、入射光を次の第2反射部材へ、歪みを抑えた状態で反射させる為のものである。
 第1反射部材は、レンズ部材と対応していることから、図では、2つしか表示していないが、4つあり、それぞれのレンズ部材と対応することから、レンズ部材1123aに対しては、1124a、レンズ部材1123cに対しては、第1反射部材1124cがそれぞれ対応しており、図示しないが、レンズ部材1123bには第1反射部材1124b、レンズ部材1123dには、第1反射部材1124dがそれぞれ対応している。
 1125は、第2反射部材であり、第1反射部材1124と同様の鏡、プリズムが用いられており、入射光を、イメージセンサの該当エリアへ、反射させるものである。
 第2反射部材1125a~1125dも同様に4つ、それぞれ第1反射部材1124a~1124dと対応して配置されている。
 1126はイメージセンサであり、正方形状等4等分しやすいものが用いられている。
 図13(c)に、範囲を区切った状態を示す。それぞれ、第2反射部材の反射光を受光するために、等分で仕切られて使用される。仕切りは、必要ない場合もあり、イメージセンサ1126の出力するデータで区切るソフトウエア式提供が好ましい。
 本実施例の照明も、一つのLEDやむぎ球等のアナログ照明等による光源1114を導光路1115を介して、レンズ部材の周辺に形成された照射部1127から、照明光を、測定部位へ照射する構成を有する。
 本実施例は、最大4つのカメラによる、三次元形状計測を行う構成であり、一対のカメラを選択して、撮影画像より共通点を検出し、三次元座標を得て、4つのカメラを用いた場合は、少なくとも4通りの組み合わせで得られた、同じ共通点を得て、加算平均するなどしてより精度の高い座標を得てもよい。場合によっては、4つの領域のうち3つ又は2つを使用してもよい場合もある。
 以上に説明したように、本発明によれば、瞬間に近い状態でデータを取得し、このデータをコンピュータ処理に供して、補綴物データが得られることから、手軽な口腔内情報の取得と、データ量の縮小化に伴う、手軽な補綴物の作成ができ、瞬間的な計測により、患者の負担を軽減し、歯科医療分野で従事者の手間を省くことができる。

Claims (11)

  1.  口腔内で使用される歯科用補綴物を計測及び加工するためのものであって、
     口腔内に存在する、補綴部位を有する少なくとも1つの歯を含む被計測物の三次元形状を静止画的に計測して画像データを得るための少なくとも1つの画像データ化手段、
     口腔内に挿入可能な形状及び寸法を有する、前記画像データ化手段を支持するための支持体、及び
     前記画像データ化手段からの画像データを処理して、前記歯科用補綴物の原型として使用される仮想補綴物の三次元形状データを得るための三次元形状データ取得手段
    を備えてなる、歯科用補綴物計測加工システム。
  2.  前記画像データ化手段は、被計測物を近接位置において連続的に撮影する至近連写手段と、該至近連写手段おいて連写により撮影された複数の画像のなかから、前記被計測物の画像データを得るのに最適な画像を選択する画像選択手段とを備えている、請求項1に記載の計測加工システム。
  3.  前記支持体は、前記画像データ化手段を支持する固定部位あるいはその近傍において、傾き情報を検出する傾き情報検出手段、及び前記傾き情報検出手段からの傾き情報出力に基づき、前記三次元形状データ取得手段の三次元形状データを調整するデータ調整手段を備えている、請求項1又は2に記載の歯科用補綴物計測加工システム。
  4.  前記三次元形状データ取得手段で得られた仮想補綴物の三次元形状データに基づいて、加工用ブロックを加工して歯科用補綴物を製造するための補綴物加工手段をさらに含む、請求項1~3のいずれか1項に記載の歯科用補綴物計測加工システム。
  5.  前記画像データ化手段は、前記支持体に受動的計測状態で固定されている、請求項1~4のいずれか1項に記載の歯科用補綴物計測加工システム。
  6.  前記画像データ化手段は、前記支持体とは離れた独立した位置において、前記画像データを映像として表示するための画像表示手段、及び前記映像の撮影の開始及び停止の切り替えを行うためのスイッチング手段をさらに有しており、かつ前記画像表示手段とスイッチング手段の間は、有線もしくは無線で相互に接続されている、請求項1~5のいずれか1項に記載の歯科用補綴物計測加工システム。
  7.  前記被計測物が、補綴部位を有する支台歯、支台歯に隣接する隣接歯、及び支台歯に対向する対合歯を含み、これらの歯の三次元座標検出可能な静止画を前記画像データ化手段に備わった撮影手段により撮影し、得られた静止画により、前記仮想補綴物の三次元形状を形成するのに必要な数値データを前記画像データ化手段により抽出するとともに、前記三次元形状データ取得手段において、前記数値データを処理して、前記被計測物の咬合面及び支台面の三次元座標を検出し、前記数値データ及び該三次元座標より前記仮想補綴物の三次元形状データを取得する、請求項1~6のいずれか1項に記載の歯科用補綴物計測加工システム。
  8.  前記画像表示手段が、該画像表示手段で表示された画像を、一方向画像及び多方向画像に変換するための画像変換手段と、該画像変換手段で変換された一方向画像及び多方向画像を三次元で表示するための3D表示手段と、該3D表示手段で出力される画像に関して、右眼に対して一方向画像を出力し、かつ左眼に対して多方向画像を出力するための出力調整手段とをさらに備える、請求項6に記載の歯科用補綴物計測加工システム。
  9.  目的とする補綴物に対応する複数の三次元形状データを蓄積したデータベースと、前記三次元形状データ取得手段で得られる三次元形状データに近似した三次元形状を前記データベースから検索する検索手段と、前記検索手段で得られた三次元形状データ上で、前記三次元形状データ取得手段で得られた実測の三次元形状データを補完演算する補完演算手段とをさらに備える、請求項1~8のいずれか1項に記載の歯科用補綴物計測加工システム。
  10.  前記補完演算手段において、前記データベースから検索により得られた近似三次元形状に対して、前記実測の三次元形状データの補完を行うことで補完演算を実行する、請求項9に記載の歯科用補綴物計測加工システム。
  11.  前記支持体は、2つの前記画像データ化手段を互いに直交するように配置し、支持している、請求項1~10のいずれか1項に記載の歯科用補綴物計測加工システム。
PCT/JP2011/057922 2010-03-24 2011-03-23 歯科用補綴物計測加工システム WO2011118839A1 (ja)

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
JP2010-090853 2010-03-24
JP2010090853 2010-03-24
JP2010129722 2010-06-07
JP2010-129722 2010-06-07

Publications (1)

Publication Number Publication Date
WO2011118839A1 true WO2011118839A1 (ja) 2011-09-29

Family

ID=44673376

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2011/057922 WO2011118839A1 (ja) 2010-03-24 2011-03-23 歯科用補綴物計測加工システム

Country Status (2)

Country Link
JP (1) JP5815962B2 (ja)
WO (1) WO2011118839A1 (ja)

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013078395A (ja) * 2011-09-30 2013-05-02 Advance Co Ltd 歯科用画像処理システム
CN105125160A (zh) * 2015-08-27 2015-12-09 李翔 一种口腔内窥镜检测系统及其检测方法
JP2016014896A (ja) * 2015-10-13 2016-01-28 オリンパス株式会社 内視鏡装置、内視鏡装置の制御方法、およびプログラム
JP2016030158A (ja) * 2014-07-30 2016-03-07 株式会社岩間工業所 補綴物加工方法並びに補綴物加工装置
CN105813593A (zh) * 2013-12-18 2016-07-27 西诺德牙科设备有限公司 用于为义齿体烧结制定计划的方法
CN106073919A (zh) * 2016-07-19 2016-11-09 华南理工大学 一种用于口腔修复体的无模数字化适配方法
EP3232151A4 (en) * 2016-01-22 2018-01-10 Beijing Qingying Machine Visual Technology Co., Ltd. Three-dimensional measurement system and measurement method for feature point based on plane of four-camera set array
US20210361387A1 (en) * 2017-06-09 2021-11-25 Dental Monitoring Method of evaluating an orthodontic appliance
CN114748201A (zh) * 2022-04-19 2022-07-15 深圳广成创新技术有限公司 一种牙科种植体的三维参数的获取方法、装置
WO2023023852A1 (en) * 2021-08-24 2023-03-02 Moleculight Inc. Systems, devices, and methods for imaging and measurement
WO2023194460A1 (en) * 2022-04-08 2023-10-12 3Shape A/S Intraoral scanning device with extended field of view

Families Citing this family (29)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013165795A (ja) * 2012-02-15 2013-08-29 Medeia Kk 口腔内歯列撮影装置
JP2013169239A (ja) * 2012-02-17 2013-09-02 Gikou:Kk 歯科補綴物製造支援装置、歯科補綴物製造支援プログラムおよび歯形データ
US9454846B2 (en) 2012-12-24 2016-09-27 Dentlytec G.P.L. Ltd. Device and method for subgingival measurement
JPWO2014141369A1 (ja) * 2013-03-11 2017-02-16 富士通株式会社 歯科補綴物設計プログラム、歯科補綴物設計装置、及び歯科補綴物設計方法
JP6455424B2 (ja) * 2013-03-26 2019-01-23 凸版印刷株式会社 画像処理装置、画像処理システム、画像処理方法及び画像処理プログラム
JP6306285B2 (ja) * 2013-04-10 2018-04-04 オリンパス株式会社 内視鏡装置
EP3107484B1 (en) * 2014-02-21 2022-03-30 Trispera Dental Inc. Augmented reality dental design method and system
US10136970B2 (en) 2015-01-18 2018-11-27 Dentlytec G.P.L.Ltd System, device, and method for dental intraoral scanning
JP2016133440A (ja) * 2015-01-21 2016-07-25 株式会社リコー 撮像システム
US10159542B2 (en) 2015-05-01 2018-12-25 Dentlytec G.P.L. Ltd. System, device and methods for dental digital impressions
CN107735714B (zh) * 2015-06-25 2020-06-09 奥林巴斯株式会社 内窥镜装置
WO2017111116A1 (ja) * 2015-12-24 2017-06-29 株式会社モリタ製作所 三次元計測方法及び三次元計測装置
EP3405092A2 (en) 2016-01-18 2018-11-28 Dentlytec G.P.L. Ltd. Intraoral scanner
US10806376B2 (en) * 2016-03-02 2020-10-20 Dror Ortho Design LTD (Aerodentis) Orthodontic system with tooth movement and position measuring, monitoring, and control
WO2018012862A1 (ko) * 2016-07-13 2018-01-18 문정본 3차원 스캐너와 이를 이용한 인공물가공장치
WO2018047180A1 (en) 2016-09-10 2018-03-15 Ark Surgical Ltd. Laparoscopic workspace device
JP6409900B2 (ja) * 2017-04-17 2018-10-24 富士通株式会社 歯科補綴物設計プログラム、歯科補綴物設計装置、及び歯科補綴物設計方法
US11813132B2 (en) 2017-07-04 2023-11-14 Dentlytec G.P.L. Ltd. Dental device with probe
EP3658069B1 (en) 2017-07-26 2024-06-26 Dentlytec G.P.L. Ltd. Intraoral scanner
CN111787827A (zh) * 2017-08-17 2020-10-16 特罗菲公司 用于口内表面扫描的模版
JP6960800B2 (ja) * 2017-08-18 2021-11-05 株式会社Nttドコモ う蝕予測システム
KR101946498B1 (ko) * 2017-09-13 2019-05-08 오스템임플란트 주식회사 치아 보철물 디자인 방법, 장치 및 그 방법을 실행하기 위한 프로그램이 기록된 기록매체
EP3689295B1 (en) * 2017-09-29 2023-11-22 J. Morita MFG. Corp. Dental observation device and display method of dental image
JP6938410B2 (ja) * 2018-03-16 2021-09-22 株式会社Nttドコモ 口腔疾患診断システム及び口腔疾患診断プログラム
JP7135517B2 (ja) * 2018-07-10 2022-09-13 凸版印刷株式会社 三次元形状モデル生成装置、三次元モデル生成方法及びプログラム
KR102085852B1 (ko) * 2018-11-26 2020-03-06 오스템임플란트 주식회사 대합치와의 교합관계를 반영한 치과용 가공물 설계방법 및 그 장치
EP3763324B1 (de) * 2019-07-09 2023-09-06 VITA-ZAHNFABRIK H. Rauter GmbH & Co. KG Unterstützungssystem zur herstellung von dentalrestaurationen sowie dentalrestaurationssystem
KR102034416B1 (ko) * 2019-08-06 2019-10-18 김기수 치과전용 ct스캔너를 이용한 초정밀 치과보철물의 제조방법 및 그 초정밀 치과보철물
KR102575217B1 (ko) * 2020-04-24 2023-09-06 주식회사 메디트 라이브러리 데이터를 사용한 스캔 데이터 보완 방법 및 시스템

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11137517A (ja) * 1997-11-14 1999-05-25 Matsushita Electric Ind Co Ltd 撮像装置
JP3082549U (ja) * 2001-06-11 2001-12-14 株式会社吉田製作所 歯科用口腔内カメラの外部補助光源装置
JP2002224143A (ja) * 2001-01-31 2002-08-13 Gc Corp 歯科用補綴物の作製方法

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
TW576729B (en) * 2003-06-12 2004-02-21 Univ Nat Taipei Technology Apparatus and technique for automatic 3-D dental data required for crown reconstruction
WO2009006303A2 (en) * 2007-06-29 2009-01-08 3M Innovative Properties Company Video-assisted margin marking for dental models
DE102007060263A1 (de) * 2007-08-16 2009-02-26 Steinbichler Optotechnik Gmbh Vorrichtung zur Ermittlung der 3D-Koordinaten eines Objekts, insbesondere eines Zahns

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11137517A (ja) * 1997-11-14 1999-05-25 Matsushita Electric Ind Co Ltd 撮像装置
JP2002224143A (ja) * 2001-01-31 2002-08-13 Gc Corp 歯科用補綴物の作製方法
JP3082549U (ja) * 2001-06-11 2001-12-14 株式会社吉田製作所 歯科用口腔内カメラの外部補助光源装置

Cited By (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013078395A (ja) * 2011-09-30 2013-05-02 Advance Co Ltd 歯科用画像処理システム
JP2016540562A (ja) * 2013-12-18 2016-12-28 シロナ・デンタル・システムズ・ゲゼルシャフト・ミット・ベシュレンクテル・ハフツング 歯科補綴部品の焼結を計画する方法
US10939980B2 (en) 2013-12-18 2021-03-09 Dentsply Sirona Inc. Method for planning a sintering of a dental prosthesis part
CN105813593A (zh) * 2013-12-18 2016-07-27 西诺德牙科设备有限公司 用于为义齿体烧结制定计划的方法
JP2016030158A (ja) * 2014-07-30 2016-03-07 株式会社岩間工業所 補綴物加工方法並びに補綴物加工装置
US10231611B2 (en) 2015-08-27 2019-03-19 Xiang Li Oral endoscope detection system and detection method thereof
CN105125160A (zh) * 2015-08-27 2015-12-09 李翔 一种口腔内窥镜检测系统及其检测方法
JP2016014896A (ja) * 2015-10-13 2016-01-28 オリンパス株式会社 内視鏡装置、内視鏡装置の制御方法、およびプログラム
EP3232151A4 (en) * 2016-01-22 2018-01-10 Beijing Qingying Machine Visual Technology Co., Ltd. Three-dimensional measurement system and measurement method for feature point based on plane of four-camera set array
CN106073919A (zh) * 2016-07-19 2016-11-09 华南理工大学 一种用于口腔修复体的无模数字化适配方法
CN106073919B (zh) * 2016-07-19 2021-05-14 华南理工大学 一种用于口腔修复体的无模数字化适配方法
US20210361387A1 (en) * 2017-06-09 2021-11-25 Dental Monitoring Method of evaluating an orthodontic appliance
WO2023023852A1 (en) * 2021-08-24 2023-03-02 Moleculight Inc. Systems, devices, and methods for imaging and measurement
US11758263B2 (en) 2021-08-24 2023-09-12 Moleculight, Inc. Systems, devices, and methods for imaging and measurement using a stereoscopic camera system
WO2023194460A1 (en) * 2022-04-08 2023-10-12 3Shape A/S Intraoral scanning device with extended field of view
CN114748201A (zh) * 2022-04-19 2022-07-15 深圳广成创新技术有限公司 一种牙科种植体的三维参数的获取方法、装置

Also Published As

Publication number Publication date
JP2012016573A (ja) 2012-01-26
JP5815962B2 (ja) 2015-11-17

Similar Documents

Publication Publication Date Title
JP5815962B2 (ja) 歯科用補綴物計測加工システム
JP6935036B1 (ja) 統合されたカメラを有する歯科ミラーおよびそのアプリケーション
US20230285124A1 (en) Intraoral scanner
US6364660B1 (en) Method and system for imaging and modeling dental structures
US8279450B2 (en) Intra-oral measurement device and intra-oral measurement system
EP3028003B1 (en) Methods and systems for generating color images
US6594539B1 (en) Three-dimensional dental imaging method and apparatus having a reflective member
EP1607064B1 (en) Method and apparatus for colour imaging a three-dimensional structure
US20150002649A1 (en) Device for detecting the three-dimensional geometry of objects and method for the operation thereof
EP1941843A2 (en) Method and apparatus for colour imaging a three-dimensional structure
US7099732B2 (en) Sanitary sleeve or tip for intra-oral three-dimensional camera
KR101662566B1 (ko) 광학부 교환에 의해 스캔 영역과 정밀도 변경이 가능한 구강스캐너
US20230190109A1 (en) Intraoral scanner
JP2004202069A (ja) 画像読取装置、画像読取方法
WO2017205294A1 (en) A dental mirror with an integrated camera, and applications thereof
KR20170032644A (ko) 치과용 3차원 스캐너
EP4272630A1 (en) System and method for providing dynamic feedback during scanning of a dental object
WO2016047739A1 (ja) 口腔内3次元形状測定装置
Santosi et al. An innovative photogrammetric system for 3D digitization of dental models
KR101854728B1 (ko) 인공치아 통합 시스템
EP3664687B1 (en) Intra-oral scanning device
WO2016084065A1 (en) 3d scanners for simultaneous acquisition of multiple 3d data sets of 3d object
KR20160133111A (ko) 복수개의 촬상부를 갖는 구강스캐너

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 11759641

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 11759641

Country of ref document: EP

Kind code of ref document: A1