JP2012016573A - System for measuring and processing dental prosthesis - Google Patents

System for measuring and processing dental prosthesis Download PDF

Info

Publication number
JP2012016573A
JP2012016573A JP2011063525A JP2011063525A JP2012016573A JP 2012016573 A JP2012016573 A JP 2012016573A JP 2011063525 A JP2011063525 A JP 2011063525A JP 2011063525 A JP2011063525 A JP 2011063525A JP 2012016573 A JP2012016573 A JP 2012016573A
Authority
JP
Japan
Prior art keywords
image
data
dimensional
unit
camera
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2011063525A
Other languages
Japanese (ja)
Other versions
JP5815962B2 (en
Inventor
Nobukane Urakabe
伸周 浦壁
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Advance Co Ltd
Original Assignee
Advance Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Advance Co Ltd filed Critical Advance Co Ltd
Priority to JP2011063525A priority Critical patent/JP5815962B2/en
Publication of JP2012016573A publication Critical patent/JP2012016573A/en
Application granted granted Critical
Publication of JP5815962B2 publication Critical patent/JP5815962B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/24Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/46Arrangements for interfacing with the operator or the patient
    • A61B6/461Displaying means of special interest
    • A61B6/466Displaying means of special interest adapted to display 3D data
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/50Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment specially adapted for specific body parts; specially adapted for specific clinical applications
    • A61B6/51Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment specially adapted for specific body parts; specially adapted for specific clinical applications for dentistry
    • A61B6/512Intraoral means
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/56Details of data transmission or power supply, e.g. use of slip rings
    • A61B6/563Details of data transmission or power supply, e.g. use of slip rings involving image data transmission via a network
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61CDENTISTRY; APPARATUS OR METHODS FOR ORAL OR DENTAL HYGIENE
    • A61C13/00Dental prostheses; Making same
    • A61C13/0003Making bridge-work, inlays, implants or the like
    • A61C13/0004Computer-assisted sizing or machining of dental prostheses
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61CDENTISTRY; APPARATUS OR METHODS FOR ORAL OR DENTAL HYGIENE
    • A61C5/00Filling or capping teeth
    • A61C5/70Tooth crowns; Making thereof
    • A61C5/77Methods or devices for making crowns
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61CDENTISTRY; APPARATUS OR METHODS FOR ORAL OR DENTAL HYGIENE
    • A61C9/00Impression cups, i.e. impression trays; Impression methods
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61CDENTISTRY; APPARATUS OR METHODS FOR ORAL OR DENTAL HYGIENE
    • A61C9/00Impression cups, i.e. impression trays; Impression methods
    • A61C9/004Means or methods for taking digitized impressions
    • A61C9/0046Data acquisition means or methods
    • A61C9/0053Optical means or methods, e.g. scanning the teeth by a laser or light beam
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/521Depth or shape recovery from laser ranging, e.g. using interferometry; from the projection of structured light
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30036Dental; Teeth

Landscapes

  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Animal Behavior & Ethology (AREA)
  • General Health & Medical Sciences (AREA)
  • Public Health (AREA)
  • Veterinary Medicine (AREA)
  • Medical Informatics (AREA)
  • Optics & Photonics (AREA)
  • Dentistry (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Epidemiology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Surgery (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Biophysics (AREA)
  • Pathology (AREA)
  • Radiology & Medical Imaging (AREA)
  • Biomedical Technology (AREA)
  • High Energy & Nuclear Physics (AREA)
  • Molecular Biology (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Dental Tools And Instruments Or Auxiliary Dental Instruments (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Endoscopes (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)
  • Medical Treatment And Welfare Office Work (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide a system which allows to contactlessly and directly acquire data of the three-dimensional shape of a dental prosthesis from the intraoral cavity of a patient with the alleviated burden on the patient and a dentist, and produce the accurate dental prosthesis.SOLUTION: The system includes: an image data preparing means, a carrier, and a three-dimensional shape obtaining means, wherein the image data preparing means takes a stationary photograph of an intraoral object to target; the carrier has a dimension to insert itself into an intraoral cavity, and comprises a fixing site for fixing the image data preparing means to take such a position that the three-dimensional shape of the object to be measured can be measured; and the three-dimensional shape obtaining means bases on the photographic information obtained by the image data preparing means to obtain the three-dimensional shape of the targeted intraoral object.

Description

本発明は、口腔内から直接三次元形状情報を取得し、当該三次元形状情報に基づいて、補綴物等を製造するためのシステムに関する。 The present invention relates to a system for acquiring three-dimensional shape information directly from the oral cavity and manufacturing a prosthesis or the like based on the three-dimensional shape information.

CAD/CAMを用いた歯科補綴物の加工製造は、コンピュータ、計測機器等の性能の向上により、精度の高い補綴物を製造することが可能となったが、依然として自動計測に際し、口腔内から凹状の歯型を有する印象を採り、この印象から凸模型を形成して、この凸模型の表面形状を自動計測してデータ化し、加工用ブロックを加工して補綴物を製造する手法を採る場合が多い。
印象材の口腔内への適用は、患者にとって、感触的に好ましくなく、また、歯科医、歯科技工士にとっても手間がかかる作業であった。
Processing and manufacturing of dental prostheses using CAD / CAM has made it possible to manufacture high-precision prosthetics by improving the performance of computers, measuring instruments, etc., but it is still concave from the oral cavity during automatic measurement. Taking the impression of having a tooth shape, forming a convex model from this impression, automatically measuring the surface shape of this convex model and converting it to data, and processing the processing block to manufacture a prosthesis Many.
The application of the impression material to the oral cavity is uncomfortable for the patient, and is troublesome for the dentist and dental technician.

特開2000−74635号では、歯の形状を非接触で口腔内から直接取得するプローブが提案されている。これは、レーザ光を口腔内の計測部位へ照射してその照射光と反射光の経路間の角度に基づいた三角測量手法を用いて、非接触的に口腔内物の形状を測定する手法が開示されている。この手法は、国際公開WO2009/139110でも紹介されている様に、予め酸化チタン等を含む溶液を歯に塗布して、反射光を明確に得ることが必要とされていることが記載されている。   Japanese Patent Application Laid-Open No. 2000-74635 proposes a probe that directly acquires a tooth shape from the oral cavity without contact. This is a technique that irradiates a measurement site in the oral cavity and measures the shape of the oral cavity in a non-contact manner using a triangulation method based on the angle between the path of the irradiated light and the reflected light. It is disclosed. As described in International Publication WO2009 / 139110, this technique describes that it is necessary to obtain a reflected light clearly by applying a solution containing titanium oxide or the like to teeth in advance. .

又、国際公開WO2009−113068では、レーザ光を被写口腔内物に走査するように照射してこの反射戻り光の位相のずれを利用して中間スクリーンに多重の干渉縞を形成してこの干渉縞の特徴から、被写体間の距離を測定するコノスコープ手法を用いたものであって、口腔内から直接非接触で口腔内形状物の三次元形状を計測することが記載されている。
特開2000−74635号、国際公開WO2009−113068号は、いずれも手持ち型の計測機器であるが、イメージスキャナの様に複数の繰り返し往復走査中や、一群の光ビームを形成してその三角測量角度を移動させる手法は、プローブをしっかり固定する必要がある。
Also, in International Publication WO2009-113068, laser light is irradiated to scan the intraoral object, and multiple interference fringes are formed on the intermediate screen by utilizing the phase shift of the reflected return light. It uses a conoscopic method for measuring the distance between subjects from the characteristics of the stripes, and describes that the three-dimensional shape of an intraoral shaped object is measured directly from the oral cavity without contact.
Japanese Patent Application Laid-Open No. 2000-74635 and International Publication No. WO2009-1113068 are both hand-held measuring instruments, but during a plurality of repeated reciprocating scans as in an image scanner, or by forming a group of light beams and triangulating them. In the method of moving the angle, it is necessary to fix the probe firmly.

他方、特開2003−148934号公報には、多数の画像を撮影する主にビデオカメラを使用して、写真測量で三次元データを形成し、更に三次元モーフィング補正により、正確な補綴物を得ることが開示されている。
多数の画像を撮影するため、上記先行技術と同様、長い時間、半固定的な撮影が必要であり、途中で動かないよう、被写体となる患者は、我慢が強いられる。
On the other hand, in Japanese Patent Laid-Open No. 2003-148934, a video camera is mainly used to shoot a large number of images, three-dimensional data is formed by photogrammetry, and an accurate prosthesis is obtained by three-dimensional morphing correction. It is disclosed.
In order to take a large number of images, as in the above-described prior art, a semi-fixed shooting is required for a long time, and the patient as a subject is forced to endure so as not to move in the middle.

これらは、いずれも手持ち型で、自由度がある計測器にも捉えられるが、測定するための時間が長いため、その間、患者及び医師は揺動を生じてはならないという制約が化せられる場合が多い。   These are both hand-held instruments that can be captured by flexible measuring instruments, but the measurement time is long, so that the restriction that patients and doctors must not shake during that time There are many.

この様な制約を解消するために、特表2004−519289号では、マウスピース型の実験機器にセンサと照明を装着してこれをマウスピースの外周で移動させながら計測する手法が開示され、
特表2004−502137号公報では、口腔外にセンサ付のロボット等で駆動可能なガイド体を形成し、これを直接口の中に入れ、口腔内を移動しながらセンサによって、口腔内情報を計測する手法が開示されている。
これらの手法は、据え置き固定型であり、手持ち型に比べ、安定した、センサの駆動が可能となるため、モアレ、写真測量、干渉分光、ステレオカメラ等様々なセンサが利用できるが、機器としては、大がかりで、口腔内に機器を固定的に配置する為、患者に一定の負担を強いるものとなる。
In order to eliminate such restrictions, Japanese translations of PCT publication No. 2004-519289 discloses a method for measuring while moving a sensor and illumination on a mouthpiece type experimental device and moving it around the mouthpiece,
In Japanese Translation of PCT International Publication No. 2004-502137, a guide body that can be driven by a robot with a sensor or the like is formed outside the oral cavity, and the guide body is directly placed in the mouth. A technique is disclosed.
These methods are stationary and fixed, and can be driven more stably than the hand-held type, so various sensors such as moire, photogrammetry, interference spectroscopy, and stereo cameras can be used. Because of the large scale and the fixed placement of the device in the oral cavity, it imposes a certain burden on the patient.

据え置き固定タイプと上記先行技術に示される手持ち型の計測器は、口腔内で、直接口腔内物の表面を三次元計測するものであるが、多数の画像の取得、形状計測のための走査期間の固定、患者の負担を強いる機器の口腔内への導入といった、実用的に困難な点が多い等の点から、特開2002−224143号公報、特開2004−237104号公報で示されるような、印象模型の計測を併記したものが依然として多い。   The stationary fixed type and the hand-held measuring instrument shown in the above prior art measure the surface of the oral cavity directly in the oral cavity, but the scanning period for acquiring many images and measuring the shape As shown in JP-A-2002-224143 and JP-A-2004-237104, there are many practically difficult points such as fixation of the patient and introduction of a device that imposes a burden on the patient into the oral cavity. There are still a lot of impression models.

特開2002−224143号公報は、三次元計測後の補綴部位の歯牙の計測データと、予め健康な状態の歯牙を三次元形状にて計測して、これを見本として、加工用データを計測し、補綴物を得ることが記載されており、特開2004−237104号公報には、予め口腔内の状態を3Dカメラ、CTスキャンで計測して三次元形状データを形成し、この三次元形状データに予め作成された人工歯データを組み合わせて仮想義歯を形成し、この仮想義歯に基づいて、加工用ブロックの加工と、データに対応する人工歯の配置により、義歯を製造することが記載されているが、口腔内の情報を取得する具体的手法は示されておらず、確かにデータ処理については、その他にも様々な提案がされているが、上述した口腔内を直接計測する先行技術が、その取り扱いにおいて未だ十分ではないため、印象模型を用いず、口腔内から直接口腔内情報を取得して、様々な補綴物を製造するといった手法は、未だ実用性において不十分である。
Japanese Patent Laid-Open No. 2002-224143 measures tooth measurement data of a prosthetic part after three-dimensional measurement and a healthy tooth in a three-dimensional shape in advance, and uses this as a sample to measure processing data. In Japanese Patent Application Laid-Open No. 2004-237104, the state in the oral cavity is previously measured with a 3D camera and a CT scan to form three-dimensional shape data. In this document, a virtual denture is formed by combining artificial tooth data created in advance, and based on this virtual denture, a denture is manufactured by processing a processing block and arranging an artificial tooth corresponding to the data. However, there is no specific method for acquiring information in the oral cavity, and there are various other proposals for data processing. But because it is not yet sufficient in their handling, without using an impression model, and obtains the oral information directly from the mouth, the method such that manufacture various prosthesis, is still insufficient in practical use.

国際公開WO2009−113068号公報International Publication WO2009-1113068 国際公開WO2009−139110号公報International Publication WO2009-139110 特開2000−74635号公報JP 2000-74635 A 特開2003−148934号公報JP 2003-148934 A 特開2004−519284号公報JP 2004-519284 A 特開2004−502137号公報JP 2004-502137 A 特開2002−224143号公報JP 2002-224143 A 特開2004−237104号公報JP 2004-237104 A 特開2004−283594号公報JP 2004-283594 A

このように口腔内を直接三次元計測する手法には、いわゆる手持ちタイプ、口腔内へ固定据え置くタイプ等が提案されているが、いずれも、計測の為の負担が大きいことから、これらの負担を解消し、口腔内を直接三次元計測する歯科用補綴物の製造方法を提案する。
In this way, methods for direct three-dimensional measurement of the oral cavity have been proposed, so-called hand-held type, fixed type in the oral cavity, etc., both of which are burdensome for measurement. We propose a method for manufacturing dental prostheses that eliminates the three-dimensional measurement directly in the oral cavity.

上記に鑑み本発明は、口腔内を静止画的に画像データ化する画像データ化手段、被計測物の三次元形状を計測可能な状態として前記画像データ化手段が設置され、且つ口腔に配置可能な大きさを持つ支持体、前記画像データ化手段で得られた撮影情報から、被写口腔内物の三次元形状を得る三次元形状取得手段により、口腔内に手動で挿入した距離空間が規定された状態で配置した画像データ化手段により三次元データ取得可能な画像を得、当該画像から得られた被写体の座標をデジタル処理によって仮想的に補綴物形状を得ることができるデータを形成し、これをコンピュータのモニター上に表示可能とすると共に、加工データ化して、補綴物を作成することができ、口腔内形状を患者、医療当事者のいずれにも負担が無い状態で、得ることが出来、歯科補綴物の製造を短時間で、且つ精度良く製造することを実現した。   In view of the above, the present invention provides an image data converting means for converting the intraoral image data into a still image, and the image data converting means is installed in a state capable of measuring the three-dimensional shape of the object to be measured and can be placed in the oral cavity. A metric space manually inserted into the oral cavity is defined by a three-dimensional shape acquisition means for obtaining a three-dimensional shape of the object in the oral cavity from the imaging information obtained by the image data conversion means. An image that can be obtained three-dimensional data by the image data converting means arranged in the state is obtained, forming the data that can virtually obtain the prosthetic shape by digital processing of the coordinates of the subject obtained from the image, This can be displayed on a computer monitor and processed data can be created to create a prosthesis, and the oral shape can be obtained without any burden on either the patient or the medical party. It is possible, in a short time the production of dental prosthesis, was and realize that accurately manufactured.

本発明における画像データ化手段は、例えばシャッターを押したタイミングで、撮影画面が取り込まれる程度のものを示すものであって、静止画像、又は、一つの画像の前後に複数の連写的な画像が取り込まれてもよい。この様な複数の画像の取り込み、所定の時間後に、撮影を行う機能の追加等は、いわゆるシャッター操作の際の手ぶれを防止する場合に好適な態様となる。又、一般的にカメラ、携帯電話で用いられている手ぶれ防止機能を組み合わせてもよい場合もある。ビデオカメラ等の動画撮影機器を用いた場合は、動画の中から静止画を選ぶ場合もあり、最終的に静止画がえられれば、特に限定されない。   The image data conversion means in the present invention indicates, for example, that the shooting screen is captured at the timing when the shutter is pressed, and is a still image or a plurality of continuous images before and after one image. May be incorporated. Such capturing of a plurality of images, addition of a function for performing photographing after a predetermined time, and the like are suitable for preventing camera shake during a so-called shutter operation. In some cases, camera shake prevention functions generally used in cameras and mobile phones may be combined. When a moving image shooting device such as a video camera is used, a still image may be selected from the moving images, and there is no particular limitation as long as a still image is finally obtained.

本発明における、被計測物の三次元形状が計測可能な状態で前記画像データ化手段が設置され、且つ口腔に配置可能な大きさを持つ支持体、は、静止画を利用した三次元座標の取得可能な状態を計測部位に配置するものであって、三次元座標取得手法によって相違するが、例えば、一つのカメラを支持して、これを移動させ、複数の写真を撮る場合は、撮影の条件であって、移動距離、移動方向、移動位置が数値として表示できるような移動を行い得る構造を取り得るものであり、例えば棒状の支持体を長手方向に所定間隔毎に撮影していくもの等が示され得る。この構成により、計測が出来ない部位を極力抑えることができる。又、これを2地点で固定したステレオカメラは、座標取得の際、計算量を少なくする点と、カメラの位置が固定されている点で有効である。   In the present invention, the image data conversion means is installed in a state in which the three-dimensional shape of the object to be measured can be measured, and the support having a size that can be placed in the oral cavity is a three-dimensional coordinate using a still image. The acquisition state is arranged at the measurement site and differs depending on the three-dimensional coordinate acquisition method.For example, when a single camera is supported and moved to take a plurality of photographs, It is a condition, and it can take a structure that can move so that the moving distance, moving direction, moving position can be displayed as numerical values, for example, a rod-shaped support is photographed at predetermined intervals in the longitudinal direction Etc. may be shown. With this configuration, it is possible to suppress as much as possible the part that cannot be measured. Further, a stereo camera in which this is fixed at two points is effective in that the amount of calculation is reduced when acquiring coordinates and the position of the camera is fixed.

ステレオカメラによる三次元座標データ取得の際は、取得演算が、カメラ同志の水平、垂直位置の関係で一定の間隔、全てのカメラがそれぞれが特定の方向を向いている状態を少なくとも撮影の際、形成されていることである。特に至近距離での撮影を行う場合は、
画角を狭くし、お互いに向き合う方向に角度をもって設置されても良い。画角を狭くして撮影した場合(標準範囲のレンズ(50°〜25°)も含む。更にそれ以下15°以下の望遠レンズ状態でも良い場合もある。)は、交差する範囲も小さくなるが、画素単位で、負担する撮影面積も小さくなるため、共通点の把握やその推定が、より正確さを増すことから、精度の高い補綴物の作成を可能とする場合がある。
次に位置を変えながら撮影していき、それぞれのカメラの位置における画像データの座標をワールド座標に変換して、前の撮影の際に得られたワールド座標のデータと現時点でのワールド座標データを連結して、3次元形状を表す3次元座標データを形成する。この場合のカメラはアクテイブに移動させることが好ましく、連続した撮影を行いピンぼけの画像データを排除しながら処理を好ましくはリアルタイムでおこなうことが好ましい。
When acquiring three-dimensional coordinate data with a stereo camera, the acquisition operation is a fixed interval due to the relationship between the horizontal and vertical positions of the cameras, at least when shooting all the cameras facing a specific direction, It is formed. Especially when shooting at close range,
The angle of view may be narrowed and installed with an angle in a direction facing each other. When shooting with a narrow angle of view (including lenses in the standard range (50 ° to 25 °), and may be in a telephoto lens state of 15 ° or less), the intersecting range is also small. In addition, since the imaging area to be borne is reduced in units of pixels, it becomes possible to create a highly accurate prosthesis because grasping and estimation of common points increases accuracy.
Next, shoot while changing the position, convert the coordinates of the image data at each camera position into world coordinates, and obtain the world coordinate data obtained at the previous shooting and the current world coordinate data. Connected to form three-dimensional coordinate data representing a three-dimensional shape. In this case, the camera is preferably moved actively, and it is preferable that the processing is performed in real time while continuously shooting and removing out-of-focus image data.

連写的とは連続した自動撮影を示し、単写とは、手動によるシャッター操作を示し、得られる画像対は、1枚だけではなく、連続したシャッター操作による複数の画像データ対を含む場合もある。
ここで示す画像対は、視差画像が得られる関係の状態であればよく、2枚以上も示す場合もある。
撮影した複数の画像座標データから、共通点座標をワールド座標で得て、これを蓄積しながら、コンピュータモニター上のワールド座標表示上にプロットしていき、所定の間隔でワイヤーフレームモデル化するなどCG(Computer Graphics)表示することで、撮影されていない場所がわかり、プローブをその部位へ移動させて撮影することで、オクルージョンを解消した口腔内の3次元モデルが形成可能となる。
ここで「計測時」とは、撮影するタイミングであって、その前後で、移動しても良いことを示す物である。本発明では、例えばステレオカメラであれば、画像データ化手段が口腔内に挿入され、歯と一定の間隔をもって手動配置されることで、三次元計測形状が測定可能ということを示している。手動配置は、揺動を伴うが、カメラの配置が固定された支持体であれば、たとえ揺動しても、画像が通常通りに明確であれば、その写真の範囲で三次元座標データが取得できる。
Continuous shooting refers to continuous automatic shooting, single shooting refers to manual shutter operation, and the obtained image pair may include not only one image but also a plurality of image data pairs by continuous shutter operation. is there.
The image pairs shown here may be in a state in which a parallax image is obtained, and may show two or more images.
Common point coordinates are obtained from a plurality of captured image coordinate data as world coordinates, and this is accumulated, plotted on the world coordinate display on a computer monitor, and converted into a wire frame model at a predetermined interval. By displaying the (Computer Graphics) display, it is possible to determine a place where the image is not captured, and by moving the probe to the site and capturing the image, it is possible to form a three-dimensional model in the oral cavity in which occlusion is eliminated.
Here, “at the time of measurement” is an object indicating that it is possible to move before and after the photographing timing. In the present invention, for example, in the case of a stereo camera, it is indicated that the image data conversion means is inserted into the oral cavity and manually arranged with a certain distance from the teeth, so that a three-dimensional measurement shape can be measured. Manual placement is accompanied by rocking, but if the support is a fixed camera, even if it is rocked, if the image is clear as usual, the 3D coordinate data will be within the range of the photograph. You can get it.

画像データ化手段としてのカメラは、今般携帯電話に使用されている縦横高さ寸法が、好ましくは10mm以内か、より小さいカメラモジュールが使用されることで、デンタルミラーにより近い大きさを実現可能とする。尚、至近距離撮影をする場合、レンズは、10mm以下又は、25mm迄の距離で被写界深度の範囲となるようなものが好ましい。 更に本発明は、前記画像データ化手段で得られた撮影情報から、被写口腔内物の三次元形状を得る三次元形状取得手段により、いわば、画像データ化手段から得られた画像情報を分析して三次元距離の測定を行う受動的計測が好ましい。
その他、モアレのような、等高線模様を被写体に投影し、これを瞬間的に取得する静止画として、取り込んで、この等高線模様の三次元座標を検出する方法であっても、当該構成を支持体に計測時固定的に配置しても良い。
The camera used as the image data conversion means can be made closer to a dental mirror by using a camera module whose vertical and horizontal height dimensions are preferably within 10 mm or smaller, which are currently used in mobile phones. To do. In close-up shooting, it is preferable that the lens has a depth of field at a distance of 10 mm or less or up to 25 mm. Furthermore, the present invention analyzes the image information obtained from the image data conversion means by the three-dimensional shape acquisition means for obtaining the three-dimensional shape of the intraoral object from the photographing information obtained by the image data conversion means. Passive measurement for measuring a three-dimensional distance is preferable.
In addition, even if it is a method of projecting a contour line pattern, such as moire, onto a subject, capturing it as a still image to be acquired instantaneously, and detecting the three-dimensional coordinates of this contour line pattern, the structure is supported May be fixedly arranged during measurement.

本発明は、少なくとも、1乃至複数の画像データ化手段により撮影された静止画像、又は位置を変えて撮影された複数の静止画像に被写体に相当する歯牙損失部位、又は、欠落部位が含まれる状態で三次元計測可能に撮影されればよく、写真測量法等、位置決めが支持体上で設定される場合もある。
本発明における傾き情報検出手段は、傾きセンサー又は加速度センサーのようなマイクロチップが、好ましいが、これに限らず、撮影画像から、傾き抽出を行うソフトウエア処理、GPSセンサのような位置決めセンサの組み合わせ等であってもよい。
本発明の計測時のタイミングは、歯科医が任意のタイミングで撮影が行われてもよく、
更にカメラの方向を傾きセンサで計測し、垂直、水平又は、計測手段に応じた最適な角度となったとき、LEDの表示、モニター画面の表示を知らせて、操作者が、これを感知しシャッターを押すものであってもよく、傾斜センサが最適な状態の信号を出力したタイミングで、シャッターを押すものであっても良い。
The present invention is a state in which at least a tooth loss part or a missing part corresponding to a subject is included in a still image taken by one or more image data converting means or a plurality of still images taken at different positions. It is sufficient that the image is photographed so as to be capable of three-dimensional measurement, and positioning may be set on the support, such as photogrammetry.
The inclination information detecting means in the present invention is preferably a microchip such as an inclination sensor or an acceleration sensor. However, the present invention is not limited to this, and a combination of software processing for extracting inclination from a photographed image and a positioning sensor such as a GPS sensor. Etc.
The timing at the time of measurement of the present invention may be taken at an arbitrary timing by the dentist,
Further, the camera direction is measured by the tilt sensor, and when the vertical, horizontal, or optimum angle according to the measuring means is reached, the LED display and the monitor screen display are notified, and the operator detects this and the shutter. The shutter may be pressed at the timing when the tilt sensor outputs a signal in an optimum state.

本発明は、画像データ化手段が支持体に設置される場合、例えば歯列の側面撮影の場合は、撮影者が支持体を持って、口腔内に画像データ化手段を配置する際、画像データ化手段が常に垂直状態を保つ、いわゆるがん灯の様な構成にしてもよい。
尚、本発明は、このような傾きセンサーを要しない場合もある。
即ち、本発明は、複数の撮影画像座標からワールド座標への変換を行う手段を取り入れることで、撮影画像が傾いたり、反転しても、良い場合がある。
ワールド座標への変換は、三角法等の公知手法を用いればよい。このように、ワールド座標への変換工程を採用することで、カメラの撮影姿勢を問題とすることがなく、アクテイブにカメラを動かして、距離を求めることができる画像対を複数形成して、補綴部位周辺の3次元座標を容易に取得できる。ワールド座標に変換することで、1回の撮影で生じるオクルージョン部位を、更にプローブを移動させてアクテイブ化し、連続した撮影を行うことで、解消させることができる。その際、画面上に、3次元形状が得られ、例えばCG化して表示し、どの部分が未測定かをモニターで確認しながら、プローブの移動を行い、撮影していない部位の効果的な撮影が可能となる。
In the present invention, when the image data converting means is installed on the support, for example, in the case of side view photographing of the dentition, when the photographer holds the support and places the image data converting means in the oral cavity, the image data It may be configured like a so-called cancer light in which the adjusting means always maintains a vertical state.
The present invention may not require such a tilt sensor.
That is, the present invention may adopt a means for converting a plurality of photographed image coordinates into world coordinates so that the photographed image may be tilted or inverted.
For the conversion to the world coordinates, a known method such as trigonometry may be used. In this way, by adopting the process of converting to world coordinates, the camera's shooting posture is not a problem, and the camera is actively moved to form a plurality of image pairs that can be used to determine the distance, and the prosthesis 3D coordinates around the part can be easily acquired. By converting to world coordinates, the occlusion site generated by one imaging can be further activated by moving the probe and performing continuous imaging. At that time, a three-dimensional shape is obtained on the screen, for example, displayed as CG, and the probe is moved while confirming which part is not measured on the monitor, so that an effective imaging of the part not imaged is performed. Is possible.

口腔内撮影に基づくワックスアップレス手法による歯科補綴物の製造手法について、

本発明では、口腔内の歯の形状を直接形状計測をするだけでなく、欠落した歯牙部分から、隣在歯によって得られる最大豊隆部、対合歯との関係から得られる歯高値、等の仮想補綴物形成の為のパラメータを得るだけでも十分利用が可能である。
即ち、口腔内で撮影された隣接歯と補綴部位の三次元座標検出可能な静止画、対合歯の三次元検出可能な静止画を前記画像データ化手段で撮影し、前記静止画より、仮想補綴物形状形成に必要な数値データを抽出すると共に、前記データに対応して、咬合面、支台歯面の三次元座標を検出し、前記数値データと三次元座標から仮想補綴物形状を取得する工程又は手段を組み合わせることで、口腔内の歯が欠落した部位から模型の製造を全くせず、仮想補綴物をコンピュータ上に形成した後、直接加工装置でブロックの加工を可能とする。
About manufacturing method of dental prosthesis by wax upless method based on intraoral photography,

In the present invention, not only directly measuring the shape of the teeth in the oral cavity, but also from the missing tooth portion, the maximum ridge obtained by the adjacent tooth, the tooth height value obtained from the relationship with the counter teeth, etc. It is possible to use the parameters simply by obtaining the parameters for forming the virtual prosthesis.
That is, a still image capable of detecting three-dimensional coordinates of adjacent teeth and prosthetic sites taken in the oral cavity, and a still image capable of three-dimensional detection of a pair of teeth are photographed by the image data converting means, and from the still image, Extracts numerical data necessary for forming the prosthesis shape, detects the three-dimensional coordinates of the occlusal surface and the abutment tooth surface corresponding to the data, and acquires the virtual prosthesis shape from the numerical data and the three-dimensional coordinates By combining the steps or means to perform the process, the block can be processed directly by the processing device after the virtual prosthesis is formed on the computer without manufacturing the model from the portion where the teeth in the oral cavity are missing.

本発明は、瞬間的な連写的、単写的な撮影により、三次元形状データが得られる手段を、半固定的な状態又は、手持ち型に近い状態での使用即ちプローブ構成の使用とし、より至近距離からの撮影をすることで、患者、歯科医師、医療従事者に負担を与えず、正確な口腔内情報が得られ、更に欠落部及びその周辺から、仮想的歯科補綴物から歯科用補綴物を効率よく製造することが可能となる。     In the present invention, the means for obtaining three-dimensional shape data by instantaneous continuous shooting or single shooting is used in a semi-fixed state or a state close to a hand-held type, that is, a probe configuration. By taking images from a closer distance, accurate intraoral information can be obtained without burdening patients, dentists, and healthcare professionals. Furthermore, virtual dental prosthesis can be used from the missing part and its surroundings. It becomes possible to manufacture the prosthesis efficiently.

本発明の一実施例を示すブロック図。The block diagram which shows one Example of this invention. 本発明の一実施例を示す図。The figure which shows one Example of this invention. 本発明の実施例を説明する為の図。The figure for demonstrating the Example of this invention. 本発明の実施例を説明する為の図。The figure for demonstrating the Example of this invention. 本発明の他の実施例を示す図。The figure which shows the other Example of this invention. 本発明の他の実施例を示す図。The figure which shows the other Example of this invention. 本発明の他の実施例を示す図。The figure which shows the other Example of this invention. 本発明の他の実施例を示す図。The figure which shows the other Example of this invention. 本発明の他の実施例を示す図。The figure which shows the other Example of this invention. 本発明の他の実施例を説明する図。The figure explaining the other Example of this invention. 本発明の他の実施例を示す図。The figure which shows the other Example of this invention. 本発明の他の実施例を示す図。The figure which shows the other Example of this invention. 本発明の他の実施例を示す図。The figure which shows the other Example of this invention. 本発明の他の実施例を説明する為の図。The figure for demonstrating the other Example of this invention.

本発明は、天然支台、インプラント支台に対するクラウン、インレー、義歯、オンレー等の歯科補綴物の製造に足りる情報を、口腔内から得る為のものであって、歯科補綴物が、クラウンであれば、側面、及び上面からの撮影した2組のステレオ画像によって、三次元データを取得する。インレーの場合は、その方向のみの一組の画像で足りる。
場合によっては、一組毎に立体座標を取得し、2つの立体座標間の整合性をとって結合し、口腔内情報を形成する。
立体座標間の整合性は、例えば、支台歯、インレー用の加工部を基準とした座標変換を行い、それぞれの撮影時の撮影角度及び撮影距離を調整した上で結合することで得ることが出来る。即ち、手持ち型、又は半固定的な状態であるため、撮影角度、距離が異なる場合は、支台歯等の加工部分の一部を中心座標として変換する。
この中心座標に他の画像を重ね合わせ、距離を調整し、撮影角度が一致するような演算を行う。また、両方の傾きセンサーの値から、直行関係を形成するため座標値を調整する場合もある。又、複数の撮影画像座標から三角法などの既知の手法によりワールド座標への変換をしてもよい。
撮影角度の調整も同様に画像上で処理され、患者に負担を強いることがない。
本発明で示す半固定型とは、例えば手持ち型に、口腔内の他の歯牙と接触して一時的に撮影カメラと歯列の距離を固定する為の固定支持具を併せ備えるもの等が例示される。
半固定により、垂直、水平が保たれ、撮影角度、撮影距離の補正も容易となる。
当該半固定により、その固定具と口腔内の接点を、中心座標とする場合もある。
The present invention is for obtaining information sufficient for manufacturing dental prostheses such as crowns, inlays, dentures, and onlays for natural abutments and implant abutments from the oral cavity, and the dental prosthesis is a crown. For example, three-dimensional data is acquired from two sets of stereo images taken from the side surface and the top surface. In the case of an inlay, a set of images in only that direction is sufficient.
In some cases, three-dimensional coordinates are acquired for each set, combined with consistency between two three-dimensional coordinates, and intraoral information is formed.
Consistency between the three-dimensional coordinates can be obtained, for example, by performing coordinate conversion based on the abutment tooth and the processing part for the inlay, and adjusting and combining the shooting angle and shooting distance at the time of shooting. I can do it. That is, since it is in a hand-held type or semi-fixed state, when the shooting angle and distance are different, a part of the processed part such as the abutment tooth is converted as the central coordinate.
Another image is superimposed on the center coordinates, the distance is adjusted, and an operation is performed so that the shooting angles coincide. Further, coordinate values may be adjusted from the values of both inclination sensors in order to form an orthogonal relationship. Alternatively, the plurality of captured image coordinates may be converted into world coordinates by a known method such as trigonometry.
The adjustment of the photographing angle is similarly processed on the image, and the patient is not burdened.
Examples of the semi-fixed type shown in the present invention include, for example, a hand-held type that is also provided with a fixing support for temporarily fixing the distance between the imaging camera and the dentition by contacting other teeth in the oral cavity. Is done.
By semi-fixing, the vertical and horizontal directions are maintained, and the photographing angle and the photographing distance can be easily corrected.
Due to the semi-fixation, the contact point in the oral cavity may be the center coordinate.

図4は、クラウンを例えばステレオ撮影を用いて三次元計測する際の、座標取得の一例を示す。
101は、支台歯であって、歯科医が補綴物を装着するために天然歯を整形して形成される。21A、21Bが隣接歯、21Cが歯肉の部分である。102は、撮影用カメラの撮影画像であり、撮影画面が投影される平面に座標を付した模式的表示である。103は、撮影用カメラの撮影画像であり、104は、撮影カメラの撮影画像で3台のカメラで構成されている。いずれも同じ構成を有しており、例えば一般的なデジタルカメラのカメラモジュールを垂直水平に配置して形成される。 fは、焦点距離であり、同じ撮影用カメラを用いて同じ値とすることが好ましい。
FIG. 4 shows an example of coordinate acquisition when the crown is three-dimensionally measured using, for example, stereo imaging.
Reference numeral 101 denotes an abutment tooth, which is formed by shaping a natural tooth for a dentist to attach a prosthesis. 21A and 21B are adjacent teeth, and 21C is a gingival part. Reference numeral 102 denotes a photographed image of the photographing camera, which is a schematic display in which coordinates are attached to a plane on which the photographing screen is projected. Reference numeral 103 denotes a photographed image of the photographing camera, and reference numeral 104 denotes a photographed image of the photographing camera, which includes three cameras. Both have the same configuration, and are formed, for example, by arranging camera modules of a general digital camera vertically and horizontally. f is a focal length and is preferably set to the same value using the same photographing camera.

図4で示す実施例は、3台の撮影カメラを用いているが、必ずしも3台必要とするのではなく、少なくとも、撮影画面102と撮影画面104の水平方向に2つかまたは、撮影画面103と撮影画面104の垂直方向の2つの組み合わせが有ればよい。
尚、3つの画像データ化手段を支持体に配置固定した場合も、それぞれ垂直および水平の関係のカメラの組み合わせで、得られた三次元座標データのいずれか好ましい方、又は、座標ごとの平均処理を施して、より正確な座標が得ても良い場合もある。
本発明では、口腔内の限られた空間を撮影対象とする為、水平、垂直のいずれかでは、カメラの撮影範囲を示すウィンドウに入る主要な被写物が異なる場合があるため、互いに補完して、十分な撮影ウィンドウを確保する事が出来る点で、図4でしめすカメラ配置が好適である。
102P、103P、104Pは、支台歯表面の点101Pを撮影した際の座標であり、
それぞれの座標を102P(xa,ya)、103P(xb、yb)、104P(xc、yc)で示す。
The embodiment shown in FIG. 4 uses three photographing cameras. However, the three photographing cameras are not necessarily required. At least two photographing cameras 102 and the photographing screen 104 in the horizontal direction or the photographing screen 103 are used. There may be two combinations of the shooting screen 104 in the vertical direction.
Even when the three image data conversion means are arranged and fixed on the support, either the preferred three-dimensional coordinate data obtained or the average processing for each coordinate is obtained by a combination of vertical and horizontal cameras. In some cases, more accurate coordinates may be obtained.
In the present invention, since a limited space in the oral cavity is to be imaged, main objects that enter the window indicating the imaging range of the camera may be different in either horizontal or vertical directions. The camera arrangement shown in FIG. 4 is preferable in that a sufficient shooting window can be secured.
102P, 103P, and 104P are coordinates when the point 101P on the surface of the abutment tooth is photographed,
The respective coordinates are indicated by 102P (xa, ya), 103P (xb, yb), and 104P (xc, yc).

水平関係に基づく撮影画面102の座標102Pと撮影画面104の座標104Pより

目的とする座標101P(x、y、z)を得る式は、

x=Tb(xa+xc)/2(xa-xc) y=Tb(ya+yc)/2(xa-xc)
z=Tbf/(xa-xc)
(xa-xc:水平の視差 Tb:撮影画面102の中心点oaと撮影画面104の中心点ocの距離)
垂直関係に基づく撮影画面103の座標103Pと撮影画面104の座標104Pより

目的とする座標101P(x、y、z)を得る式は、

x=Ta(xb+xc)/2(xb-xc) y=Ta(yb+yc)/2(xb-xc)
z=Taf/(yb-yc)
(yb-yc:垂直の視差 Ta:撮影画面103の中心点obと撮影画面104の中心点ocの距離である。)
From the coordinates 102P of the shooting screen 102 based on the horizontal relationship and the coordinates 104P of the shooting screen 104

The expression for obtaining the target coordinates 101P (x, y, z) is

x = Tb (xa + xc) / 2 (xa-xc) y = Tb (ya + yc) / 2 (xa-xc)
z = Tbf / (xa-xc)
(Xa-xc: horizontal parallax Tb: distance between the center point oa of the shooting screen 102 and the center point oc of the shooting screen 104)
From the coordinates 103P of the shooting screen 103 based on the vertical relationship and the coordinates 104P of the shooting screen 104

The expression for obtaining the target coordinates 101P (x, y, z) is

x = Ta (xb + xc) / 2 (xb-xc) y = Ta (yb + yc) / 2 (xb-xc)
z = Taf / (yb-yc)
(Yb-yc: vertical parallax Ta: distance between the center point ob of the shooting screen 103 and the center point oc of the shooting screen 104)

両者は、実際は異なる場合もあるが、いずれかを選択するか、一方の撮影では、撮影されなかった部位を補う目的にいづれかを用いても良く、口腔内では、近距離計測となるため、3つの映像手段を組み合わせて使用する方が好ましい。
画像データ化手段の構成配置については、例えば、新技術コミュニケーションズ発行 光三次元計測:吉澤徹著、1998年に記載された計測手法を好適に利用している。
この原理は2つのカメラ構成によるものであるが、これを一つとした場合でも、同様であり、いわゆる写真測量的手法となる。
即ち、一つのカメラで102の部位で撮影、次に104の部位で写すとそれぞれ得られた写真画より上述の座標が得られる。
更に、104から横へスライドして105の位置でカメラ撮影をすれば、104の写真画像と105での写真画像から同様の座標が得られると共に、104の写真画では、計測できない部分の立体座標を取得できる。このカメラの移動ができれば、見えない部分の撮影が可能となると共に、更に広範囲の座標が得られる。
尚、この場合、座標101Pを設定することについて、歯の色、歯の光反射性等で位置が認識出来ない場合は、予め、線、点の影を表面に投影して位置決めをしたり、認識しやすいように、酸化チタン粉末を含む溶液を撮影部位に塗布しても良い。
The two may actually be different, but either one may be selected, or one of the imaging may be used for the purpose of supplementing the region that was not imaged. It is preferable to use a combination of two video means.
For the arrangement of the image data conversion means, for example, the measurement technique described in 1998 by New Technology Communications, Optical 3D Measurement: Toru Yoshizawa, 1998, is preferably used.
This principle is based on two camera configurations, but even if one is used, the same is true, and this is a so-called photogrammetric technique.
That is, the above-mentioned coordinates can be obtained from the obtained photographic images by photographing at 102 sites with one camera and then capturing at 104 sites.
Further, if the camera is photographed at the position 105 by sliding sideways from 104, similar coordinates can be obtained from the photographic image 104 and the photographic image at 105, and the three-dimensional coordinates of the portion that cannot be measured in the 104 photographic image. Can be obtained. If the camera can be moved, it is possible to take an image of an invisible part and obtain a wider range of coordinates.
In this case, regarding the setting of the coordinates 101P, if the position cannot be recognized due to the tooth color, the light reflectivity of the tooth, etc., the shadows of the lines and points are projected on the surface in advance for positioning, For easy recognition, a solution containing titanium oxide powder may be applied to the imaging region.

更に、撮影画面上に、基準点が設けられれば、そこから等間隔の位置を設定して、演算用の位置座標を求めることもできる。図4の場合は、例えば、支台歯101の上部平面周辺に設定することが可能である。
又、一枚のステレオ写真では、隠れて見えない部位が生じるが、その際は、カメラの角度を変えて見える角度で繰り返し撮影する場合がある。その際、基準に対する角度を予め設定しておき、角度が変わった場合の写真図から得られた、X、Y、Z座標値で補正しても良い。
本発明は、少なくとも、補綴物の仮想形状が得られればよいことから、反対側面の撮影は、必ずしも必要がない場合が多い。次に、上面からの撮影を行う、撮影位置は、互いに直角位置で等距離であることが好ましいが、補正可能であれば、特に垂直でなくても良い場合もある。
Furthermore, if a reference point is provided on the photographing screen, it is possible to set positions at equal intervals from the reference point to obtain position coordinates for calculation. In the case of FIG. 4, for example, it can be set around the upper plane of the abutment tooth 101.
In addition, in a single stereo photograph, there is a part that is hidden and cannot be seen. In this case, there are cases in which repeated photographing is performed at an angle that can be seen by changing the angle of the camera. At this time, an angle with respect to the reference may be set in advance, and correction may be performed using X, Y, and Z coordinate values obtained from a photograph when the angle changes.
Since at least the virtual shape of the prosthesis can be obtained according to the present invention, it is not always necessary to photograph the opposite side surface. Next, it is preferable that the photographing positions for photographing from the upper surface are equidistant at right angles to each other, but may not be particularly vertical as long as they can be corrected.

3D表示

前記表示部で表示された画像を、右眼用画像と左眼用画像に変換する画像変換手段、前記画像変換手段で変換された右眼用画像と左眼用画像をスクリーン、液晶モニター等に表示する3D表示手段、前記3D表示手段で出力される画像に対し、右眼に対して右眼用画像を出力し、左眼に対して左眼画像を出力する出力調整部を更に設けることで、歯科治療における治療用データ、インフォームドコンセントの際の説明データ、歯牙データベース等として使用される。
通常のコンピュータの平面モニタで観察される仮想空間上の補綴物は、あくまで平面であるため、現実感、審美において十分とは言い難いものがあり、補綴物作成後の調整量も多くなるのに対し、3D表示は、立体的表示として空間上に浮かび上がるように見ることができ、より現実的な形状が観察でき、特に欠落部の状態及びその周辺を3Dで観察することで、製作する物の目視観察による的確な調整が可能となり、補綴物のより適合性の高い形状を得ることが出来る。
3D display

Image conversion means for converting the image displayed on the display unit into an image for the right eye and an image for the left eye, the image for the right eye and the image for the left eye converted by the image conversion means on a screen, a liquid crystal monitor, etc. By providing a 3D display means for displaying and an output adjustment unit for outputting a right eye image for the right eye and an output of the left eye image for the left eye with respect to the image output by the 3D display means. It is used as data for treatment in dental treatment, explanation data for informed consent, tooth database, and the like.
Since the prosthesis in the virtual space that is observed on a normal computer flat monitor is flat, there are things that are not sufficient in reality and aesthetics, and the amount of adjustment after creating the prosthesis increases. On the other hand, the 3D display can be seen as a three-dimensional display as if it appears in space, and a more realistic shape can be observed. Therefore, it is possible to accurately adjust the shape of the prosthesis by visual observation.

画像変換手段における右眼用画像は、前記画像データ化手段のひとつの静止画像であって、右眼に対応するものであれば良く、左眼用画像も同様である。
また、それぞれ右眼用、左眼用としての画像を形成しても良い。
これらの画像は、交互に表示部から表示されるが、画像のちらつきが無い程度の速度で交互に表示されればよい。
その際、これらの画像にはそれぞれ、異なる偏光性を備えた画像とする場合や、左眼用画像と右眼用画像を分けて表示する。直線偏光方式、アナグリフ方式、カラーフィルタ方式,偏光フィルタ方式,液晶シャッタ方式といった、偏光した画像を表示する
偏光した画像を表示する手段として、液晶ディスプレイを用いて、右眼画像、左眼画像をそれぞれの出力を1ドットライン毎に出力し、各ドットラインの出力に対し偏光方向が互いに90度異なる偏光フィルタを通過させ、それぞれ異なる方向に偏光した右眼画像、左眼画像を出力する手法がコンピュータのディスプレーを用いる場合が好ましい態様となる。
The image for the right eye in the image conversion means may be one still image of the image data conversion means and corresponds to the right eye, and the same applies to the image for the left eye.
Also, images for the right eye and the left eye may be formed.
These images are alternately displayed from the display unit, but may be displayed alternately at such a speed that there is no flickering of the images.
At that time, these images are displayed with different polarization properties, or the left eye image and the right eye image are displayed separately. Display polarized images, such as linear polarization, anaglyph, color filter, polarization filter, and liquid crystal shutter. As a means to display polarized images, use a liquid crystal display to display right-eye and left-eye images. Is output for each dot line, passes through polarization filters whose polarization directions differ from each other by 90 degrees with respect to the output of each dot line, and outputs a right eye image and a left eye image polarized in different directions, respectively. The case of using the display is a preferred embodiment.

本発明における出力調整部は、例えば、3Dメガネといわれる眼鏡タイプのもの、あるいは、表示部表面に装着されるもの等が例示され、少なくとも、左眼用画像は、左眼で、右眼用画像は、右眼で見れる状況が形成されればよく、そのような表示を行うものであれば良い。   Examples of the output adjustment unit according to the present invention include glasses type so-called 3D glasses, or those mounted on the surface of the display unit, and at least the left-eye image is the left eye and the right-eye image. It suffices if a situation that can be seen with the right eye is formed, as long as such a display is performed.

図1(a)は、本発明の一実施例を示すブロック図である。
1は、画像データ化手段であり、非接触で口腔内から直接撮影データを得るものであって、例えば、視差を利用したステレオ画像手法、照明にスリットを組み合わせたモアレ手法、写真測量等、少なくとも静止画像を取得してこの画像解析が主な処理手法になるものが例示される。
画像データ化手段1は、主に補綴部位を撮影するが、例えば、総入れ歯のような義歯の場合、
口腔内の全ての歯列を一回で撮影できない場合は、画像内に目印を設けてこれをつなぎ合わせるパノラマ写真状に撮影されても良い。
その他、球面鏡の反射光をカメラで撮影することで、広角度な画像が得られる場合もある。
FIG. 1A is a block diagram showing an embodiment of the present invention.
Reference numeral 1 denotes image data conversion means for obtaining photographing data directly from the oral cavity without contact. For example, a stereo image method using parallax, a moire method combining a slit with illumination, photogrammetry, etc. Examples are those in which a still image is acquired and this image analysis is the main processing technique.
The image data converting means 1 mainly shoots the prosthetic part. For example, in the case of a denture such as a full denture,
When all the dentitions in the oral cavity cannot be photographed at one time, the images may be photographed in a panoramic picture in which marks are provided in the image and joined together.
In addition, a wide-angle image may be obtained by photographing the reflected light of the spherical mirror with a camera.

この広角度画像は、座標も湾曲するため、これを補正し、直交座標系に変換できる範囲で適用され得る。
広角度画像は、パッシブなステレオ視による形状計測に用いられることが好ましい場合があり、歯列等を短い撮影で3次元形状計測する場合に好ましい場合もある。
画像データ化手段は、至近距離状態での撮影を行うことが好ましい場合もあり、いわゆる接写により、部分的な3次元座標をえていく。口腔内にカメラを挿入して撮影することにおいて、歯からの距離は、数十ミリ程度で、画角を狭めて撮影を行い、共通点が得られるピントがあった領域を共通座標化して、これをつなぎ合わせることで、精度の高い3次元座標データを具えた口腔内情報を得て、この情報に基づいて、ブロックの加工を行う等の操作を行う。更に、歯肉部、等歯周辺の形状を計測して、義歯床における歯肉接合面の形状データを得る。

2は、傾き情報検出手段であり、傾きセンサ、加速度センサ等、画像データ化手段の撮影状態を示す様な電気信号等を出力するマイクロチップが例示される。
傾き情報検出手段2は、画像データ化手段を設置して口腔内に配置される支持体の傾き状態を電気信号等で出力するものである。
Since this wide-angle image has curved coordinates, the wide-angle image can be applied as long as it can be corrected and converted into an orthogonal coordinate system.
The wide-angle image may be preferably used for shape measurement by passive stereo vision, and may be preferable when the three-dimensional shape measurement is performed with a short image of a dentition or the like.
In some cases, the image data conversion means preferably performs shooting in a close distance state, and obtains partial three-dimensional coordinates by so-called close-up. In taking a picture by inserting a camera into the oral cavity, the distance from the teeth is about several tens of millimeters, taking a picture with a narrowed angle of view, and converting the area where the common point was obtained into common coordinates, By connecting these, intraoral information including highly accurate three-dimensional coordinate data is obtained, and an operation such as processing a block is performed based on this information. Further, the shape around the gingival part and the equivalent tooth is measured to obtain the shape data of the gingival joint surface in the denture base.

Reference numeral 2 denotes an inclination information detection unit, which is exemplified by a microchip that outputs an electrical signal or the like indicating an imaging state of the image data conversion unit, such as an inclination sensor or an acceleration sensor.
The inclination information detection means 2 is an apparatus for installing an image data conversion means and outputting an inclination state of a support body arranged in the oral cavity as an electric signal or the like.

3は、三次元座標取得手段であり、画像データ化手段で得られた画像から、三次元座標を取得する手段で、三次元計測手法により相違するがステレオカメラの場合は、後段に示す演算が行われる。
4は調整手段であり、三次元座標取得手段3で得られた三次元座標値に対し、傾き情報検出手段2で得られた傾きX方向、Y方向、Z方向の値で校正のような調整をし、調整された三次元座標データは、必要に応じ、座標間を線又は面で補完して確認のためモニター上に仮想補綴物が作成表示されてもよい。
5は、加工用データ形成手段であり、後段の加工手段6の加工仕様に沿った、加工用データを形成する。三次元座標取得手段3、調整手段4及び加工用データ形成手段5は、主に一つの演算処理用マイクロコンピュータによる処理が行われるが歯科医院で、計測のみが行われ、遠隔地で加工が行われる場合は、三次元座標取得手段3及び調整手段4と加工用データ形成手段5及び加工手段6が別々となる場合もある。
3 is a three-dimensional coordinate acquisition means, which is a means for acquiring three-dimensional coordinates from the image obtained by the image data conversion means, and differs depending on the three-dimensional measurement method. Done.
Reference numeral 4 denotes an adjustment unit, which adjusts the three-dimensional coordinate value obtained by the three-dimensional coordinate acquisition unit 3 using calibration values obtained by the inclination information detection unit 2 in the X, Y, and Z directions. In the adjusted three-dimensional coordinate data, a virtual prosthesis may be created and displayed on the monitor for confirmation by interpolating between the coordinates with a line or a surface as necessary.
Reference numeral 5 denotes processing data forming means for forming processing data in accordance with the processing specifications of the subsequent processing means 6. The three-dimensional coordinate acquisition means 3, the adjustment means 4 and the processing data formation means 5 are mainly processed by a single microcomputer for calculation processing, but only the measurement is performed at the dental clinic and the processing is performed at a remote place. In some cases, the three-dimensional coordinate acquisition unit 3 and the adjustment unit 4 and the processing data forming unit 5 and the processing unit 6 may be separate.

6は、加工手段であり、長石、珪石、陶磁器材料、ハイドロキシアパタイト、αーTCP、ジルコニア、アルミナ、ガラス状セラミックス等のセラミックス材、レジン材、レジン材とセラミックス材の複合材により形成される加工用ブロック、カッター、ミル等の研削、切削加工具で加工して補綴物を製造するものや、自動築成、三次元プリンタ等のラピッドプロトタイプの加工装置等、CAD/CAM装置、NC加工装置が例示される。   6 is a processing means, which is formed by a ceramic material such as feldspar, quartzite, ceramic material, hydroxyapatite, α-TCP, zirconia, alumina, glass-like ceramic, a resin material, and a composite material of the resin material and the ceramic material. CAD / CAM equipment, NC processing equipment, such as grinding blocks, cutters, mills, etc., manufacturing prostheses by processing with cutting tools, rapid construction equipment such as automatic construction, 3D printers, etc. Illustrated.

次に図1(a)で示す実施例の動作について説明する。
画像データ化手段1と、傾き情報検出手段2は、例えば同一の支持部材に設置された状態の支持体として、口腔内に挿入され、測定対象部位の近傍に手動で配置し、手ぶれを生じさせない状態で、ピントを合わせを行い撮影する。又は、同じ部位を複数枚撮影した上で、ピントの合った一枚を選ぶなどして撮影された1乃至複数の静止画像は、有線又は無線で三次元座標取得手段3に送信される。
画像データ化手段1が補綴物部位を撮影する場合は、位置決め用に動画を表示するモニターを併せて備える場合もある。
この撮影と同時に、画像データ化手段1の撮影方向を検出する傾き情報検出手段2が傾きデータを調整手段4に有線、無線で出力する。
Next, the operation of the embodiment shown in FIG.
The image data conversion means 1 and the inclination information detection means 2 are inserted into the oral cavity as a support body installed on the same support member, for example, and manually placed in the vicinity of the measurement target site, so that camera shake does not occur. In the state, focus and shoot. Alternatively, one or a plurality of still images photographed by photographing a plurality of the same parts and then selecting one in focus is transmitted to the three-dimensional coordinate acquisition unit 3 by wire or wirelessly.
When the image data converting means 1 images a prosthetic part, a monitor that displays a moving image for positioning may be provided.
Simultaneously with this photographing, the inclination information detecting means 2 for detecting the photographing direction of the image data converting means 1 outputs the inclination data to the adjusting means 4 in a wired or wireless manner.

画像データ化手段1と、傾き情報検出手段2の出力情報は、無線で出力する場合、画像情報が一般的で、JPEG、GIF等に圧縮可能であることから容量が小さい為、携帯電話を介して出力することが好ましい場合もある。その他、FD、MO、CD、SDカード、USBメモリ等のメデイアを利用して配送する場合もある。
画像データ化手段1から送信されてきた画像を三次元座標取得手段3で三次元座標値に変換し、調整手段4に出力する。
調整手段4は、三次元情報取得手段3からの三次元座標値を、傾き情報検出手段2の傾き値で校正する等の調整をして、調整された三次元座標データを加工用データ形成手段5に送信する。
The output information of the image data conversion means 1 and the inclination information detection means 2 is generally image information when output wirelessly and can be compressed into JPEG, GIF, etc. In some cases, it is preferable to output the output. In addition, there are cases where delivery is performed using media such as FD, MO, CD, SD card, and USB memory.
The image transmitted from the image data conversion means 1 is converted into a three-dimensional coordinate value by the three-dimensional coordinate acquisition means 3 and output to the adjustment means 4.
The adjusting means 4 adjusts the three-dimensional coordinate value from the three-dimensional information acquisition means 3 with the inclination value of the inclination information detecting means 2, and adjusts the adjusted three-dimensional coordinate data to the processing data forming means. Send to 5.

加工用データ形成手段5は、三次元座標データを加工手段6での加工のためのデータに変換すると共に、コンピュータモニター上に仮想歯科補綴物を表示し、更に調整可能な状態を設定する場合もある。
加工手段6は、加工用データ形成手段5から送られてきた加工用データに基づいて、補綴物を製造する。製造された補綴物は、歯科医と歯科技工部が離れている場合は、宅配、郵送等で、歯科医に配送される。
本発明では、患者の口腔内に画像データ化手段を手動で又は半固定的に挿入して短時間で直接口腔内の撮影を行えば、その後は、コンピュータの画像解析により加工用の三次元データが得られることから、模型を作成しなくてすむ等、患者、歯科医双方に負担がかからない歯科補綴物の計測加工システムが実現可能である。
尚、傾き情報検出手段2及び調整手段4は、得られる画像からでも、傾きが算出できる場合があり、不要な場合もあり、この場合は、図1(b)で示す構成であっても良い。
図1(b)の場合は、上述した動作であって、 傾き情報検出手段2及び調整手段4を除いた動作となる。加工用データ形成手段は7、加工手段は8で示したが、動作は上述と同様であり、符号のみを変えたものである。
The processing data forming unit 5 converts the three-dimensional coordinate data into data for processing by the processing unit 6, displays the virtual dental prosthesis on the computer monitor, and sets an adjustable state. is there.
The processing means 6 manufactures a prosthesis based on the processing data sent from the processing data forming means 5. The manufactured prosthesis is delivered to the dentist by home delivery, mailing, etc. when the dentist and the dental technician department are separated.
In the present invention, if image data conversion means is manually or semi-fixedly inserted into the oral cavity of a patient and direct intraoral imaging is performed in a short time, then three-dimensional data for processing is performed by computer image analysis. Therefore, it is possible to realize a measurement processing system for a dental prosthesis that does not impose a burden on both the patient and the dentist, such as eliminating the need to create a model.
Note that the inclination information detection means 2 and the adjustment means 4 may be able to calculate the inclination even from the obtained image, and may not be necessary. In this case, the configuration shown in FIG. .
In the case of FIG. 1B, the above-described operation is performed except for the inclination information detecting means 2 and the adjusting means 4. Although the processing data forming means is indicated by 7 and the processing means is indicated by 8, the operation is the same as described above, and only the sign is changed.

図2は、本発明の具体的形態を含む実施例を示すものである。
10は、支持体の一例を示すものであり、カメラが三次元測定可能に配置された計測支持部11と、手動操作の為の把持部12の組み合わせよりなる。
図3に支持体10の具体的構成例を示した。
図3(a)で301は、計測支持部であり、好ましくは同一仕様で同じ設定がされたカメラ302と303が水平に固定接続されている。カメラ302、303は、携帯電話、デジタルカメラで用いられる小型カメラモジュールが例示されるが、イメージセンサはそのまま用いられるものの、至近距離の撮影を行う為に、焦点距離が口腔内カメラ程度かそれよりも短いレンズが採用されることが好ましい。シャッターを押せば映像が1乃至複数、場合によっては連写的にキャプチャーされる程度であればよく、同一の焦点距離を備えており、把持部12の長手方向に平行に配置固定されている。
310は、傾きセンサーであり、加速度センサとも呼ばれる。チップ状のセンサであり、例えば、GP1S36J0000F シャープ社製のようなマイクロチップ状の傾きセンサが例示される。配置部位は、計測支持部の形状、配置によって、1乃至複数個が、適当な部位に配置されればよい。
FIG. 2 shows an embodiment including a specific form of the present invention.
Reference numeral 10 denotes an example of a support body, which is composed of a combination of a measurement support portion 11 in which a camera is arranged so as to be capable of three-dimensional measurement and a grip portion 12 for manual operation.
FIG. 3 shows a specific configuration example of the support 10.
In FIG. 3A, reference numeral 301 denotes a measurement support unit, which is preferably fixedly connected horizontally with cameras 302 and 303 having the same specifications and the same settings. The cameras 302 and 303 are exemplified by small camera modules used in mobile phones and digital cameras. Although the image sensor can be used as it is, the focal length is about the intraoral camera in order to perform close-up shooting. It is preferable to use a short lens. One or a plurality of images may be captured when the shutter is pressed, and in some cases, the image may be captured continuously. The images have the same focal length and are arranged and fixed parallel to the longitudinal direction of the grip portion 12.
Reference numeral 310 denotes an inclination sensor, which is also called an acceleration sensor. A chip-shaped sensor, for example, a microchip-shaped tilt sensor such as that manufactured by GP1S36J0000F Sharp is exemplified. One or a plurality of arrangement parts may be arranged at an appropriate part depending on the shape and arrangement of the measurement support part.

この傾きセンサ310は、例えば、図3(c)の様に3つのカメラを用いる場合は、カメラ画像での補整が出来る場合やワールド座標に変換する場合があるため、不要になる場合もある。
大きさは、患者の負担を抑える為にデンタルミラー程度か一回り程度大きいくらいが好ましく、全体的に曲面及び球面で形成されることが好ましい。 13は、映像を外部で処理する為の伝達部であり、外部モニタに接続される。尚、把持部12にシャッターを備え付けても良いが、手ぶれ等の揺動を伴う場合は、外部に設定しても良い。304は、照明用光源であり、計測部位の歯牙表面が認識できるような光源が用いられる。305は、例えば、縞模様、点列模様等計測ポイントを指示する模様を口腔内に映し出すためのスリットを介したポインタであり、測定しようとする部位の三次元座標を検出する部位が撮影により抽出困難な場合ポインタ的役割を発揮することも可能である。
照明用光源304及びポインタ305は、外部別体で構成されても良く、計測支持部に設置しない場合もあり、不要になる場合もある。
For example, when three cameras are used as shown in FIG. 3C, the tilt sensor 310 may be unnecessary because it may be corrected with camera images or may be converted into world coordinates.
In order to suppress the burden on the patient, the size is preferably about a dental mirror or about one time larger, and is preferably formed with a curved surface and a spherical surface as a whole. Reference numeral 13 denotes a transmission unit for processing an image externally, and is connected to an external monitor. Note that a shutter may be provided on the grip portion 12, but may be set externally when shaking such as camera shake is involved. Reference numeral 304 denotes an illumination light source, which is a light source that can recognize the tooth surface of the measurement site. Reference numeral 305 denotes a pointer through a slit for projecting a pattern indicating a measurement point such as a striped pattern or a point sequence pattern in the oral cavity, and a part for detecting the three-dimensional coordinates of the part to be measured is extracted by photographing. If difficult, it can also play a pointer role.
The illumination light source 304 and the pointer 305 may be configured separately from the outside, and may not be installed on the measurement support unit or may be unnecessary.


図3(b)は、図3(a)が水平方向へカメラを配置したのに対し、垂直方向に配置したものである。(a)と(b)は、口腔内の測定部位によって適宜選択使用される場合があるが、その際は、計測前に垂直状態から水平状態、又はその逆に回動可能に形成されても良い。
図3(c)は、3つのカメラを用いた構成であって、左右側面からの撮影を可能とするため一つのカメラを上下に移動させることを可能とした実施例である。
カメラ306aは、当該プローブが、歯列の左右の側面を撮影する際に、移動させることで、垂直、水平両方での三次元計測が可能となる。
307は、摺動するためのガイド孔であり、このガイド孔に沿って、撮影用カメラ306aは、移動する。
12は、把持部であり、操作者が使用する際の把持部となる部分である。308は、摺動ボタンであり、摺動ボタンが長手方向に摺動可能に、ガイド孔309が形成されている。摺動ボタン308は、撮影カメラ306aと連動しており、摺動ボタン308をガイド孔309に沿って移動させると、撮影カメラ306aも連動してガイド孔307に沿って移動する。尚、撮影用カメラ306aを摺動可能とせず固定としても良く、左右配置を変えたものを2つ容易しても良い場合もある。

FIG. 3B shows a camera arranged in the vertical direction, whereas FIG. 3A shows the camera arranged in the horizontal direction. (A) and (b) may be appropriately selected and used depending on the measurement site in the oral cavity, but in that case, it may be formed to be rotatable from the vertical state to the horizontal state or vice versa before measurement. good.
FIG. 3C shows an embodiment in which three cameras are used, and one camera can be moved up and down to enable photographing from the left and right side surfaces.
The camera 306a is moved when the probe images the left and right side surfaces of the dentition, thereby enabling three-dimensional measurement both vertically and horizontally.
Reference numeral 307 denotes a guide hole for sliding, and the photographing camera 306a moves along the guide hole.
Reference numeral 12 denotes a gripping portion, which is a portion that becomes a gripping portion when used by an operator. Reference numeral 308 denotes a sliding button, and a guide hole 309 is formed so that the sliding button can slide in the longitudinal direction. The sliding button 308 is interlocked with the photographing camera 306 a, and when the sliding button 308 is moved along the guide hole 309, the photographing camera 306 a is also interlocked and moved along the guide hole 307. The photographing camera 306a may be fixed without being slidable, and there may be two cases where the left and right arrangements are changed.

図2及び図3(c)において、
13は、伝送部であって、カメラのシャッタのオンオフ信号、撮影カメラの映像信号を表示演算ユニット14へ伝送するためのケーブルである。尚、本発明は静止画の伝送に係り、無線手段を用いてもよい。
14は、表示演算ユニットであって、伝送されてきた画像データを表示し、場合によっては、三次元データを作成するための携帯型モニター、携帯電話等で形成されている。
15は、表示部であって、液晶パネル等で形成され、撮影された口腔内写真を表示、演算後の三次元データの同期表示等がなされる。
15a、15b、15cは、表示部15に表示された口腔内画像であって、ステレオ表示状態で表示されている。
15dは、傾きセンサ310で検出された傾きのx軸成分、y軸成分、z軸成分を表示したものである。
図2では、歯の咬合面表面に形成された補綴物装着用凹部1Bを含む咬合面1Aを図3(c)で示すカメラ306aから306cで撮影した表示部15の表示画面の一例を示した。
それぞれ、XY座標が示されており、同一の表示であって、カメラの位置が相違する為これが視差となって、撮影した咬合面のXY座標位置がずれている。
尚、演算後、仮想モードで、計測部位の三次元表示がされてもよい場合もある。
2 and 3 (c),
A transmission unit 13 is a cable for transmitting an on / off signal of the shutter of the camera and a video signal of the photographing camera to the display arithmetic unit 14. Note that the present invention relates to transmission of still images, and may use wireless means.
Reference numeral 14 denotes a display arithmetic unit which displays transmitted image data, and in some cases, is formed of a portable monitor, a cellular phone or the like for creating three-dimensional data.
Reference numeral 15 denotes a display unit which is formed of a liquid crystal panel or the like and displays a photographed intraoral photograph, synchronous display of three-dimensional data after calculation, and the like.
15a, 15b, and 15c are intraoral images displayed on the display unit 15, and are displayed in a stereo display state.
15d displays the x-axis component, y-axis component, and z-axis component of the tilt detected by the tilt sensor 310.
FIG. 2 shows an example of the display screen of the display unit 15 obtained by photographing the occlusal surface 1A including the prosthesis mounting recess 1B formed on the tooth occlusal surface surface with the cameras 306a to 306c shown in FIG. 3C. .
The XY coordinates are respectively shown and are the same display, and the position of the camera is different. Therefore, this becomes a parallax, and the XY coordinate position of the captured occlusal surface is shifted.
In some cases, the three-dimensional display of the measurement site may be performed in the virtual mode after the calculation.

16は、撮影オンオフボタンであり、シャッター等で形成され、これを押すことで、図3(c)で示す撮影カメラ306a、306b及び、306cは、同時に撮影を行うための例えば押しボタンである。その他、表示部15がタッチパネル方式であれば、指、専用ペン等の接触によるものであっても良い場合もある。
図3(e)は、一つのカメラを移動させて三次元計測を行う場合の一構成例である。
計測支持部301上に1つのカメラ311を装着したものであり、把持部12のスライド用孔312に沿って平行に移動可能とするように形成されたものである。
その他、傾きセンサ、照明、ポインタ等を備えたものであってもよい。
このスライド用孔312を所定の移動距離毎にカメラ311は、写真を撮影をしていき、
例えば、311と311aとの間で、撮影された2枚の写真から被写体の立体座標を取得し、次に311aと311bとの間で撮影された2枚の写真から異なる部位、311のカメラでは写らず、311aと311bの両方のカメラで写った部分の立体座標を取得することができる。
Reference numeral 16 denotes a shooting on / off button, which is formed by a shutter or the like. By pressing this button, the shooting cameras 306a, 306b, and 306c shown in FIG. 3C are, for example, push buttons for simultaneously shooting. In addition, if the display unit 15 is a touch panel system, it may be due to contact with a finger, a dedicated pen, or the like.
FIG. 3 (e) is an example of a configuration in the case where three-dimensional measurement is performed by moving one camera.
One camera 311 is mounted on the measurement support portion 301 and is formed so as to be movable in parallel along the slide hole 312 of the grip portion 12.
In addition, an inclination sensor, illumination, a pointer, etc. may be provided.
The camera 311 shoots the slide hole 312 for every predetermined moving distance,
For example, between the 311 and 311a, the three-dimensional coordinates of the subject are acquired from the two photographs taken, and then the different parts from the two photographs taken between the 311a and 311b, the 311 camera It is possible to acquire the solid coordinates of the portion that is not captured and is captured by both the cameras 311a and 311b.

カメラ311の移動は、遠隔操作による自動駆動、タイマー設定により、数秒間隔で、自動的に移動しながら撮影する機構を備えたものが例示される。
なるべく把持部の位置が変わらない様にいするため、自動的な移動撮影が好ましい場合もある。
尚、カメラ311が固定された場合、把持部12を持って撮影するが、この場合、口腔内に位置決めを行う半固定具を用いて、平行乃至垂直移動を行わせてもよい。
図2において、
18は、コンピュータであり、パーソナルコンピュータ等が例示され、表示演算ユニット4では、十分な処理が行われない場合、補助的に用いられる場合もある。
コンピュータ18は、その他必要な場合にUSB、赤外線、無線等で示される接続用ケーブル17を介して接続して用いられる場合や、後段の加工装置19へ、加工用三次元データの伝送を行う為に用いられる場合もある。
コンピュータ18は、単独で必要とされる場合の他、表示演算ユニット14がその機能を併せ持つ場合は、不要となる場合もある。
又、コンピュータ18又は、同等の機能がある場合の表示演算ユニット14は、インターネット等のネットワークを用いて計測装置をもつ歯科医と補綴物を加工製造する技工所をデータ転送によって接続関係を形成することも可能である。
The movement of the camera 311 is exemplified by a mechanism equipped with a mechanism for automatically moving at intervals of several seconds by automatic driving by remote operation and timer setting.
In order to prevent the position of the gripper from changing as much as possible, automatic moving shooting may be preferable.
Note that when the camera 311 is fixed, the image is taken with the grasping portion 12, but in this case, a parallel or vertical movement may be performed using a semi-fixing tool for positioning in the oral cavity.
In FIG.
Reference numeral 18 denotes a computer, such as a personal computer. The display calculation unit 4 may be used in an auxiliary manner when sufficient processing is not performed.
When necessary, the computer 18 is used by connecting via a connection cable 17 indicated by USB, infrared, wireless, or the like, or for transmitting processing three-dimensional data to a subsequent processing device 19. It may be used for
In addition to the case where the computer 18 is required alone, the computer 18 may be unnecessary when the display arithmetic unit 14 has the function.
In addition, the computer 18 or the display calculation unit 14 having an equivalent function forms a connection relationship by data transfer between a dentist having a measuring device and a technical factory that processes and manufactures a prosthesis using a network such as the Internet. It is also possible.

この場合、歯科医が発信するのは、3枚の通常使用されるjpeg、GIF、BMP、TIFF等の様式に変換可能な写真画面であり、技工所で三次元データを抽出すればよいことから、歯科医の作業は、簡単なメール程度であるため、手間がかからないシステムを形成することができる。メールではなく、撮影すると歯科医はなにもせずそのまま、複数の写真が技工所へ送信されてもよく、よりシステムの簡素化が図れる場合もある。
19は、加工装置であり、CAD/CAM装置に例示されるものであって、コンピュータ18から送られてくる三次元加工データに基づいて、セラミックスブロックを研削、切削加工を行う為のものである。図2では、その一部を示している。
20は、加工用ブロックであり、セラミックス又はセラミックスとレジンの複合材より形成される。
21は、加工用ミルで、ドリルが回転しながら、先端部及び側面部を加工用ブロックに押し当てて研削切削する。22は、加工用ブロック20が装着固定される為の装着部である。図2の加工装置の構成は、商品名CADIM(登録商標)(アドバンス社製)の加工部を略式的に示している。
In this case, the dentist will send out three photographic images that can be converted into a commonly used format such as jpeg, GIF, BMP, TIFF, etc. Since the dentist's work is about simple mail, a system that does not require much time can be formed. Instead of e-mail, when taking a picture, the dentist does nothing, and a plurality of photographs may be sent to the laboratory, which may further simplify the system.
Reference numeral 19 denotes a processing apparatus, exemplified by a CAD / CAM apparatus, for grinding and cutting a ceramic block based on the three-dimensional processing data sent from the computer 18. . FIG. 2 shows a part thereof.
Reference numeral 20 denotes a processing block, which is formed of ceramics or a composite material of ceramics and resin.
Reference numeral 21 denotes a machining mill, which grinds and cuts the tip and side portions against the machining block while the drill rotates. Reference numeral 22 denotes a mounting portion for mounting and fixing the processing block 20. The configuration of the processing apparatus in FIG. 2 schematically shows a processing portion of the trade name CADIM (registered trademark) (manufactured by Advance).

図2及び図3(b)で示す実施例の動作について説明する。
図2及び図3(b)で示す把持部12を持ち、計測部位へ移動する。上面のみであれば、計測支持部11が計測対象となる歯を計測する部分に持って行き撮影オンオフボタン16を押す。
撮影オンオフボタン16が押されると、撮影用カメラは、撮影画像を瞬間的に形成する。その際フラッシュ又は、常時照明を行う照明用光源304が、撮影部位を照らし出す場合もある。
ここで表示部15には、伝送部13を介して伝送された画像が表示されている場合を示す。この場合の画像は、測定部位の咬合面1A及び補綴部位1Bの表面である。
表示部15に映し出された3つの画像から、共通する部位を求め、その部位の図4で示す手法で三次元座標を演算により求めていき、全体の三次元形状データを求める。当該三次元座標値は、少なくとも共通の計測点が、複数の写真で確認できれば、図4で示す動作原理により演算にて得られる。又、図3で示すポインタ305による点模様又は、縞模様を計測点として使用すると、精度良く三次元座標が得られる。
The operation of the embodiment shown in FIGS. 2 and 3B will be described.
The holding part 12 shown in FIG.2 and FIG.3 (b) is held, and it moves to a measurement site | part. If it is only the upper surface, the measurement support unit 11 takes the tooth to be measured to the part to be measured and presses the photographing on / off button 16.
When the shooting on / off button 16 is pressed, the shooting camera instantaneously forms a shot image. At that time, there may be a case where the imaging region is illuminated by a flash or an illumination light source 304 that performs constant illumination.
Here, the display unit 15 shows a case where an image transmitted via the transmission unit 13 is displayed. The image in this case is the occlusal surface 1A and the surface of the prosthetic site 1B of the measurement site.
A common part is obtained from the three images displayed on the display unit 15, and the three-dimensional coordinates of the part are obtained by calculation using the method shown in FIG. 4 to obtain the whole three-dimensional shape data. The three-dimensional coordinate value can be obtained by calculation according to the operation principle shown in FIG. 4 if at least common measurement points can be confirmed by a plurality of photographs. Further, when a dot pattern or a striped pattern by the pointer 305 shown in FIG. 3 is used as a measurement point, three-dimensional coordinates can be obtained with high accuracy.

尚、本発明では、歯の特定の点を2枚以上の画像で識別する為、この特定の点を認識する必要があるが、歯表面は、歯の色や唾液等で、乱反射しやすいため。直射光を避け、例えばドーム内で反射光を利用するドーム照明や、スライドガラス等のフィルタを介した照明を用いても良い場合もある。
共通点の求め方についての一例を示す。
写真画像の共通部位を特定するため、写真Aの特定の部位の範囲画素に対し、対応する写真Bの範囲画素を特定し、それぞれの範囲画素の輝度を求める手段、
写真Aの範囲画素の輝度の差分を取り、差分値パターンを設定する手段、写真Bの範囲画素の輝度の差分を取り、差分値パターンを設定する手段、写真Aの差分値パターンと写真Bの差分値パターンを比較して、一致、又は近似している時は、そこを共通点と設定する手段、一致していないときは、写真Bの範囲画素を移動させて、同様の比較を行う手段、よりなり構成を例示する。範囲画素は、一つの共通点して設定できる範囲である。差分は、輝度の変化量を示すことから、輝度が一様に見えても、その変化量により相違する場合がある為、一つの写真の特定の点(範囲画素)の差分を取って、差分値パターンを形成し、この差分値パターンを他の写真画像上の差分パターンと比較することで、共通点を決定する。
In the present invention, since a specific point of a tooth is identified by two or more images, it is necessary to recognize this specific point. . In some cases, direct light may be avoided, and for example, dome illumination using reflected light in the dome or illumination through a filter such as a slide glass may be used.
An example of how to find common points is shown.
Means for identifying the corresponding range pixels of the photo B and determining the luminance of each range pixel for the range pixels of the specific portion of the photo A in order to specify the common portion of the photo image;
Means for taking the luminance difference of the range pixels of photo A and setting the difference value pattern, Means for taking the luminance difference of the range pixels of photo B and setting the difference value pattern, Difference value pattern of photo A and photo B A means for setting the difference value patterns as a common point when they match or approximate, and a means for making a similar comparison by moving the range pixels of photo B when they do not match And the configuration is illustrated. The range pixel is a range that can be set as one common point. Since the difference indicates the amount of change in luminance, even if the luminance appears to be uniform, it may differ depending on the amount of change. A common point is determined by forming a value pattern and comparing this difference value pattern with a difference pattern on another photographic image.

差分値パターンとは、一つの画素輝度値と隣接する画素輝度値の差の値を順次求めていき、これをつなぎ合わせることで、得られる場合の他、差分値と差分値の差分、即ち2回差分をとり、これらの2回差分の値を繋ぎあわせたものもしめされ、2回以上の差分値をとり、両画像の共通部位の特定を行っても良く、その場合は、基準点として用いて他の方向から撮影した3次元座標との共通座標を得る場合に用いても良い場合もある。
即ち、画像上の画素輝度の比較一致では、部位の特定は、困難であっても、差分値は、前後の変化パターンであるため、両画像で比較一致が容易となるのである。
範囲画素は、一例であり、画像の座標上で、例えばx軸方向又はy軸方向で、差分値を連結して輝度差分連結データRを形成する手段、当該輝度差分連結データを他の画像でも、同じ方向で(即ち、先に得た輝度差分連結データRとx軸方向、y軸方向、又は同じ傾きを持った方向)輝度差分連結データLを形成する手段、前記の輝度差分連結データRと、輝度差分連結データL内で、同じ連結パターンをもつ部分を検出し、この共通パターンから、共通点を選択する手段による組み合わせ構成も例示される。この差分により、同じ条件で撮影された多少方向が異なる写真は、写真の写る範囲は異なるもののおおよそ同じ輝度を持つ画像であることに着目したものであり、同じ輝度の変化パターンを求めて、そのパターンが同じ、又はある程度尾同じ部位を共通部位として設定して、3次元座標を得ることで、精度の高い3次元座標データが得られるのである。
この差分により、隣接部の輝度の変化の割合が得られるが、これを更に差分することで、2つの画像を照合して共通点を取る場合に好ましい態様となる場合がある。
The difference value pattern is obtained by sequentially obtaining a difference value between one pixel luminance value and an adjacent pixel luminance value, and by connecting them, the difference between the difference value and the difference value, that is, 2 It is also possible to take the difference between the two times and connect the values of these two differences, take the difference value two or more times, and specify the common part of both images. In that case, as a reference point In some cases, it may be used to obtain a common coordinate with a three-dimensional coordinate photographed from another direction.
In other words, even if it is difficult to specify a part in the comparison and matching of pixel luminances on the image, the difference value is a change pattern before and after, so that comparison and matching can be easily performed on both images.
The range pixel is an example, and means for connecting the difference values on the image coordinates, for example, in the x-axis direction or the y-axis direction to form the brightness difference connection data R, and the brightness difference connection data can be used in other images. Means for forming the luminance difference concatenated data L in the same direction (that is, the previously obtained luminance difference concatenated data R and the x-axis direction, the y-axis direction, or the direction having the same inclination), the luminance difference concatenated data R A combination configuration by means for detecting a portion having the same connection pattern in the luminance difference connection data L and selecting a common point from the common pattern is also exemplified. Due to this difference, photos taken in the same direction but with slightly different directions are focused on images with roughly the same brightness, but with different brightness ranges. By setting a part having the same pattern or a certain amount of tail as a common part and obtaining three-dimensional coordinates, highly accurate three-dimensional coordinate data can be obtained.
This difference gives the rate of change in the brightness of the adjacent portion. However, by further subtracting this, it may be a preferable aspect when two images are collated to obtain a common point.

更に別の面で、歯列を介して反対側面の写真が必要な場合は、摺動部308を操作して、撮影用カメラ306aを上下に摺動させて調整してもよい 。
三次元データが得られた場合、更に、これを仮想構築してインレー、クラウン等の歯科補綴物をコンピュータ18等に出力して表示し、必要に応じ再度調整した後、加工用データに変換する。
加工用データは、更に加工装置19に伝送され、装着部に加工用ブロック20に対してを研削、切削加工する。
このように、患者及び歯科医療従事者に負担をあたえず、三次元計測加工が行うことができるのである。
If still another surface requires a photograph of the opposite side surface via the dentition, the slide unit 308 may be operated to slide the photographing camera 306a up and down for adjustment.
When three-dimensional data is obtained, it is further constructed, and dental prostheses such as inlays and crowns are output and displayed on the computer 18, etc., adjusted again if necessary, and then converted into processing data. .
The processing data is further transmitted to the processing device 19, and the mounting block is ground and cut with respect to the processing block 20.
In this way, three-dimensional measurement processing can be performed without burdening the patient and dental care workers.

又、本発明は、複数の静止映像画像で形成される為に、画像が二次元で容量が少ないことから、健康な状態での歯及び歯列を三次元形状座標取得可能な状態で容易に一般パーソナルコンピュータで容易に保管できることから図5で示す様な加工手法もとることができる。
図5(a)において、402は、う蝕前の歯の形状を示し、この測定時点で、ステレオ画像として少なくとも3枚の画像を保存する。
更に必要に応じ対合歯401のステレオ画像も撮影保存する。
う蝕の治療後、図5(b)で示す様に補綴物の必要な状態となる補綴部位403を含む咬合面404を写真撮影する。撮影した画像例を図5(c)に示す。404aが咬合面画像、403aが加工された補綴部位を示す画像である。
In addition, since the present invention is formed with a plurality of still image images, the image is two-dimensional and has a small capacity, so that teeth and dentition in a healthy state can be easily obtained in a state where three-dimensional shape coordinates can be acquired. Since it can be easily stored in a general personal computer, a processing technique as shown in FIG. 5 can be taken.
In FIG. 5A, reference numeral 402 denotes a tooth shape before caries, and at the time of this measurement, at least three images are stored as stereo images.
Further, a stereo image of the counter teeth 401 is also taken and stored as necessary.
After the caries treatment, as shown in FIG. 5B, a photograph is taken of the occlusal surface 404 including the prosthetic part 403 in which the prosthesis is required. A photographed image example is shown in FIG. 404a is an occlusal image, and 403a is an image showing a processed prosthetic part.

更に以前撮影しておいた画像を呼び出して、これを三次元画像として座標を得て、う蝕前の仮想三次元の歯牙形状を表示する。図5(d)の402aがう蝕前の仮想咬合面である。
これと、治療の必要な歯牙の三次元形状の咬合面画像404aを図5(d)で示すように重ね合わせると、補綴物全体の形状405が得られる。
この補綴物形状405を加工装置19に伝送し、加工用ブロック20を研削、切削加工をし補綴物23を得る。
尚、本実施例では、健康なときの歯牙データを記録するとしたが、これに限らず、対合歯のデータを記録し、又は治療時の対合歯401のデータを記録し、これを用いて咬合面を形成しても良い。
Further, an image that has been taken before is called up, coordinates are obtained as a three-dimensional image, and a virtual three-dimensional tooth shape before caries is displayed. 402a in FIG. 5D is a virtual occlusal surface before caries.
When this and the three-dimensional occlusal surface image 404a of the tooth that requires treatment are superimposed as shown in FIG. 5D, a shape 405 of the entire prosthesis is obtained.
The prosthesis shape 405 is transmitted to the processing device 19, and the processing block 20 is ground and cut to obtain the prosthesis 23.
In this embodiment, the tooth data when healthy is recorded. However, the present invention is not limited to this, and the data of the counter teeth is recorded, or the data of the counter teeth 401 at the time of treatment is recorded and used. An occlusal surface may be formed.

本発明は、直接口腔内を形状計測して、補綴物を製造する方法であることから、ワックス模型を作成しないワックスアップレス手法において、より好適に使用される。
そこで、本発明の他の実施例を図6を参照して詳細に説明する。
図6(a)は、支台歯又はインプラント支台歯504が歯肉部505表面から露出した状態の口腔内部を示す。
この状態で、図2、図3で示す支持体を口腔内に挿入して撮影する。
501a及び501bは、対合歯501に隣接する対合歯である。
502及び503は、隣接歯を示している。
撮影した写真画像であって、3次元座標をえるための画像は、図6(a)の場面、図6(b)の場面、図6(c)の場面であり、それぞれステレオ画像として複数枚撮影される。
Since the present invention is a method for manufacturing a prosthesis by directly measuring the shape of the oral cavity, it is more suitably used in a wax upless method in which a wax model is not created.
Therefore, another embodiment of the present invention will be described in detail with reference to FIG.
FIG. 6A shows the inside of the oral cavity where the abutment tooth or the implant abutment tooth 504 is exposed from the surface of the gingival part 505.
In this state, the support shown in FIGS. 2 and 3 is inserted into the oral cavity and photographed.
Reference numerals 501 a and 501 b are counter teeth adjacent to the counter teeth 501.
Reference numerals 502 and 503 denote adjacent teeth.
The captured photographic images for obtaining the three-dimensional coordinates are the scene of FIG. 6 (a), the scene of FIG. 6 (b), and the scene of FIG. 6 (c), each of which is a plurality of stereo images. Taken.

この写真を用いて、仮想補綴物作成の為の要部として、隣接歯502と503の最大豊隆部間の距離となる仮想補綴物の最大豊隆部の直径P1、及び歯高値P2を得る。
歯高値P2は、対合歯501の咬合面からと歯肉505の表面までの距離を抽出すればよいが、対合歯を要しなくても、隣接歯502と503の咬合面を結ぶ高さから、歯肉505表面までの距離を示しても良い。
この場合、1枚の平面画像からもその値が求められ、そのまま仮想補綴物形状を形成する為に用いられても良いが、更に奥行きデータ、即ちy座標を得ることで、上面からの撮影画像とのマッチングが容易となる場合もある。
Using this photograph, the diameter P1 and the tooth height value P2 of the maximum protuberance of the virtual prosthesis, which is the distance between the maximum protuberances of the adjacent teeth 502 and 503, are obtained as the main parts for creating the virtual prosthesis.
The tooth height value P2 may be obtained by extracting the distance from the occlusal surface of the counter teeth 501 to the surface of the gingiva 505. To the gingival 505 surface.
In this case, the value can be obtained from a single planar image and can be used as it is to form a virtual prosthesis shape. However, by obtaining depth data, that is, the y-coordinate, a photographed image from the upper surface can be obtained. It may be easy to match with.

図6(b)は、上面から撮影した状態を示す。この状態で、歯幅値P3座標が取得できる。この値も、一つの平面座標で足りるものであるが、z値を求めることで、より精度の高い歯幅値P3が得られる。
更に支台歯の表面形状P8及びマージンラインPMが得られる。マージンラインPMは、着色を施すなどのマーカー処理をして、写り易い前処理を施しても良い。
図6(c)は、対合歯の咬合面を示すものであって、主に対合歯501の咬合面の三次元形状P4を図3で示すカメラにて撮影して得る。
仮想補綴物は、最大豊隆部(直径P1の円周)から支台歯の歯肉部505からの高さP5、支台歯の上面の直径P6、支台歯の底面の直径P7、支台歯の表面形状P8及びマージンラインPMの値に基づいて形成される。
尚、支台歯の表面形状は、3次元座標データに基づいて復元された表面形状P8とマージンラインPMで決定可能であるが、もともと支台歯は、歯科医が形成したものであるので、その他の数値のみでも決定する場合もある。
静止画による受動的な三次元形状測定の場合、二次元画像から得られる値は、そのまま使用し、咬合面、支台歯面は、ステレオ画像により三次元的に取得して、これを利用することで、処理データが少なく、短時間で、適当な仮想補綴物をコンピュータのモニター上に作成できる。
FIG. 6B shows a state taken from above. In this state, the tooth width value P3 coordinates can be acquired. This value is also sufficient for one plane coordinate, but by obtaining the z value, a more accurate tooth width value P3 can be obtained.
Furthermore, the surface shape P8 and the margin line PM of the abutment tooth are obtained. The margin line PM may be subjected to marker processing such as coloring, and preprocessing that makes it easy to capture.
FIG. 6C shows the occlusal surface of the paired teeth, and is obtained by photographing the three-dimensional shape P4 of the occlusal surface of the paired teeth 501 with the camera shown in FIG.
The virtual prosthesis has a height P5 from the maximum ridge (circumference of diameter P1) from the gingival portion 505 of the abutment tooth, a diameter P6 of the top surface of the abutment tooth, a diameter P7 of the bottom surface of the abutment tooth, and the abutment tooth. Are formed on the basis of the values of the surface shape P8 and the margin line PM.
The surface shape of the abutment tooth can be determined by the surface shape P8 and the margin line PM restored based on the three-dimensional coordinate data, but the abutment tooth is originally formed by a dentist. In some cases, only other numerical values may be determined.
In the case of passive three-dimensional shape measurement using a still image, the values obtained from the two-dimensional image are used as they are, and the occlusal surface and the abutment tooth surface are obtained three-dimensionally using stereo images and used. Thus, an appropriate virtual prosthesis can be created on a computer monitor in a short time with little processing data.

本発明は、補綴物データを二次元画像で大量に記憶しておくことが出来るため、これをデータベース化しておき、復元時、三次元形状に変換して仮想既成モデルとし、これと、仮想補綴物を比較し、最も近似する仮想既成モデルを決定しても良い。
図6(d)は、コンピュータ18又は表示部15の画面506を示し、小ウィンドウ506aに表示された507が、例えばP1からP8及びPMに基づいて仮想的に補綴物を作成した際の仮想補綴物である。
尚、P1からP8及びPMが常に全てが必要とは限らず、適宜選択的に計測使用される場合もある。
508がデータベース表示であり、補綴物の典型的な形状に係るデータが蓄積され、更に個々のデータに対応した形状の半加工ブロックが用意されている。
仮想既成モデルは、データと対応して予め加工用ブロックを切削研削加工して形成されており、決定されて表示された仮想既成モデル509を図6(d)の小ウィンドウ506bで示すように仮想的に形成した補綴物の仮想補綴物507に重ね合わせた状態を表示しても良い。
小ウィンドウ506bで示す仮想補綴物507とデータベース508から決定された既成補綴物形状509を重ね合わせた状態図において、その差510(実線と点線との間)を加工することで、より短い加工時間で仮想補綴物507に対応する補綴物を形成できるのである。
尚、ワックスアップレスに限らずとも、補綴物形成の要部は8カ所程度までであることから、これを二次元データと、三次元データの組み合わせにおいて容易に仮想補綴物が作成できる。
Since the present invention can store a large amount of prosthetic data as a two-dimensional image, it is stored in a database and converted into a three-dimensional shape at the time of restoration into a virtual pre-built model. It is also possible to compare objects and determine the virtual pre-built model that most closely approximates.
FIG. 6D shows a screen 506 of the computer 18 or the display unit 15, and a virtual prosthesis when the 507 displayed in the small window 506a virtually creates a prosthesis based on P1 to P8 and PM, for example. It is a thing.
Note that all of P1 to P8 and PM are not always necessary, and may be selectively used as appropriate.
Reference numeral 508 denotes a database display, in which data related to a typical shape of the prosthesis is stored, and a half-processed block having a shape corresponding to each data is prepared.
The virtual pre-built model is formed by cutting and grinding a processing block in advance corresponding to the data, and the virtual pre-built model 509 determined and displayed is virtual as shown by a small window 506b in FIG. 6D. Alternatively, a state in which the virtual prosthesis 507 of the prosthesis formed in an overlapping manner is displayed may be displayed.
In the state diagram in which the virtual prosthesis 507 indicated by the small window 506b and the ready-made prosthesis shape 509 determined from the database 508 are overlapped, the difference 510 (between the solid line and the dotted line) is processed, thereby shortening the processing time. Thus, a prosthesis corresponding to the virtual prosthesis 507 can be formed.
Note that the main part of prosthesis formation is not limited to the wax-up-less method, and the virtual prosthesis can be easily created by combining two-dimensional data and three-dimensional data.

本実施例によれば、複数の二次元静止画像から得られる二次元座標データと三次元座標データからそれぞれ仮想補綴物を構成する要素が取得できる為、処理時間が短縮できる歯科補綴物の製造を可能とすると共に、データベースから近似模型を検索するキーワードが容易に得られ、歯科医、患者に負担が少ない歯科用補綴物の製造が可能となる。   According to the present embodiment, since the elements constituting the virtual prosthesis can be obtained from the two-dimensional coordinate data and the three-dimensional coordinate data obtained from a plurality of two-dimensional still images, it is possible to manufacture a dental prosthesis that can reduce the processing time. In addition, it is possible to easily obtain a keyword for searching for an approximate model from a database, and to manufacture a dental prosthesis with less burden on the dentist and the patient.

図7に他の実施例を示し説明する。
本実施例は、インターネット等のネットワーク回線、又は携帯電話回線網を使用して計測と加工を切り離したシステムを示す。図7中、他の実施例と同じ構成を示すものについては、同一の番号を付して説明を省略した。
601は、ネットワーク回線であり、インターネット、イントラネット、エクストラネット、携帯電話網等を示す。
602、603は、インターネットの場合はプロバイダであり、携帯電話の場合は中継局等を示す。
604は、表示演算ユニット14とプロバイダ602を接続するネットワーク用伝送路、607は、プロバイダ603と技工所サーバ606を接続するネットワーク用伝送路であり、いずれも電話回線、光回線、LANケーブル等の有線網又は無線LAN等で構成される。
FIG. 7 shows another embodiment and will be described.
This embodiment shows a system in which measurement and processing are separated using a network line such as the Internet or a cellular phone line network. In FIG. 7, the same components as those in the other embodiments are designated by the same reference numerals and the description thereof is omitted.
Reference numeral 601 denotes a network line, which indicates the Internet, an intranet, an extranet, a mobile phone network, or the like.
Reference numerals 602 and 603 denote providers in the case of the Internet, and relay stations and the like in the case of mobile phones.
604 is a network transmission path for connecting the display arithmetic unit 14 and the provider 602, and 607 is a network transmission path for connecting the provider 603 and the laboratory server 606, all of which are telephone lines, optical lines, LAN cables, etc. A wired network or a wireless LAN is used.

608は、技工所サーバと、加工装置19を接続する有線ケーブルで、USBケーブル、パラレルケーブル、シリアルケーブル等で形成されている。
613は、ユーザ用携帯電話、614は、技工所用携帯電話であって、無線による携帯電話網615(途中中継局等は省略)で接続される。
605a、605b、605cは、伝送用写真であり、それぞれ視差を備えた三次元形状データ用写真である。送信枚数は。撮影の具合による3の倍数になる場合もある。
606は、技工所サーバであり、技工所で、送信されてきた写真画像から三次元座標データを算出し、加工用データに変換するためのものである。
Reference numeral 608 denotes a wired cable that connects the technical laboratory server and the processing apparatus 19 and is formed of a USB cable, a parallel cable, a serial cable, or the like.
Reference numeral 613 denotes a user mobile phone, and reference numeral 614 denotes a laboratory mobile phone, which is connected by a wireless mobile phone network 615 (a relay station is omitted on the way).
Reference numerals 605a, 605b, and 605c denote transmission photographs, which are three-dimensional shape data photographs each having a parallax. How many sheets are sent? It may be a multiple of 3 depending on the shooting conditions.
Reference numeral 606 denotes a technical laboratory server, which calculates three-dimensional coordinate data from a transmitted photographic image and converts it into processing data.

609は、配送経路であり、郵送、宅配、持参等、完成した補綴物を歯科医等に届ける手段である。
610は、支持体10とユーザ用携帯電話613を接続する伝送体であって、USB等の有線ケーブル、赤外線、電波、無線等で形成されている。
611は、支持体10と表示演算ユニット14を接続する伝送体であって、同様にUSB等の有線ケーブル、赤外線、電波、無線等で形成されている。
612は、技工所用携帯電話614と技工所サーバ606を接続する伝送路であり、USB等の有線ケーブル、赤外線、電波、無線等の他、SDメモリ、USBメモリ、等も使用可能である。
Reference numeral 609 denotes a delivery route, which is a means for delivering a completed prosthesis such as mail, home delivery, and bringing to a dentist or the like.
Reference numeral 610 denotes a transmission body that connects the support 10 and the user's mobile phone 613, and is formed of a wired cable such as a USB, infrared rays, radio waves, and wireless.
Reference numeral 611 denotes a transmission body that connects the support 10 and the display arithmetic unit 14, and is similarly formed by a wired cable such as a USB, infrared rays, radio waves, radio, or the like.
Reference numeral 612 denotes a transmission path for connecting the laboratory mobile phone 614 and the laboratory server 606. An SD memory, a USB memory, or the like can be used in addition to a wired cable such as USB, infrared rays, radio waves, and wireless.

本実施例の動作を説明する。
支持体10を把持して口腔内に直接挿入し、計測支持部11に固定されたカメラ群により咬合面1Aの補綴部位1Bの表面をステレオ状態で撮影する。
得られた写真605a、605b、605c及び傾きセンサが出力した傾き情報を伝送体610を介してユーザ用携帯電話613に送信する。
又はこれらの写真を伝送体611を介して表示演算ユニット14へ送信する。
両者のいずれかを選択すれば良いが、場合によっては、携帯電話の表示画面を用いれば、表示演算ユニット14を不要とする場合や、携帯電話のボタンがシャッター代わりとなる場合もあり、ユーザの費用的負担は低減される。又、表示演算ユニット14は、静止画を取り込むまで、動画状態で、口腔内を表示し得るものであり、スムーズな動きを期待する場合は、両方接続し、支持体10が補綴部位の撮影位置決めまで、表示演算ユニットで、口腔内を観察し、撮影オンオフボタン16を押して静止画を取り込み、ピンぼけ、ぶれがないかどうかを表示部15で確認した後、ユーザ用携帯電話613を介して、写真605a、605b、605c及び傾きセンサが出力した傾き情報を送信しても良い。
The operation of this embodiment will be described.
The support body 10 is grasped and directly inserted into the oral cavity, and the surface of the prosthetic site 1B of the occlusal surface 1A is photographed in a stereo state by a camera group fixed to the measurement support unit 11.
The obtained photographs 605a, 605b, and 605c and the tilt information output from the tilt sensor are transmitted to the user mobile phone 613 via the transmitter 610.
Alternatively, these photographs are transmitted to the display calculation unit 14 via the transmission body 611.
Either of the two may be selected, but depending on the case, if the display screen of the mobile phone is used, the display calculation unit 14 may be unnecessary or the button of the mobile phone may be used as a shutter. Cost burden is reduced. In addition, the display calculation unit 14 can display the oral cavity in a moving image state until a still image is captured. If smooth movement is expected, both are connected, and the support 10 is used for imaging positioning of the prosthetic site. Until the display operation unit observes the inside of the oral cavity, presses the photographing on / off button 16 to capture a still image, checks the display unit 15 for blurring and blurring, and then takes a picture via the user mobile phone 613. The inclination information output from the sensors 605a, 605b, and 605c and the inclination sensor may be transmitted.

ネットワーク回線601を用いた場合、写真605a、605b、605c及び傾きセンサが出力した傾き情報は、表示演算ユニット14からネットワーク用伝送路604、プロバイダ602、ネットワーク回線601、プロバイダ603を介して技工所サーバ606に送信される。
写真605a、605b、605cをユーザ用携帯電話613へ送信する場合は、
表示演算ユニット14から、赤外線、電波等の既成の伝送手段、SDカード等のメデイアを用いて、伝送する他、表示演算ユニット14を用いず、支持体10の伝送路をUSB仕様として、直接携帯電話に接続し、携帯電話から、シャッター信号を送信して、直接携帯電話に写真画を取り込んでも良い場合もある。
When the network line 601 is used, the photo information 605a, 605b, 605c and the tilt information output by the tilt sensor are transmitted from the display calculation unit 14 via the network transmission path 604, the provider 602, the network line 601, and the provider 603 to the laboratory server. 606 is transmitted.
When sending the photos 605a, 605b, 605c to the user mobile phone 613,
In addition to transmitting from the display calculation unit 14 using existing transmission means such as infrared rays and radio waves, and media such as an SD card, the transmission path of the support 10 is directly carried by the USB specification without using the display calculation unit 14. In some cases, it may be possible to connect to a telephone, send a shutter signal from the mobile phone, and directly take a picture on the mobile phone.

また、携帯電話によって、撮影された写真をみることが出来ることから、ピントや手ぶれが有るかどうか確認が出来、更に手軽な形となり、又、支持体10を必要とするだけとなることから、歯科医の負担はより低減される。
技工所サーバ606は、送信されてきた3枚の写真から三次元データを算出し、仮想的補綴物形状に基づいた加工用データに変換し、加工装置19に伝送する。
加工装置19は、この加工データに基づいて、加工用ブロック20を加工用治具である加工用ミル21によって研削、切削加工を施して、補綴物23を加工製造する。
加工製造された補綴物23は、配送経路609を経て、歯科医等のユーザに送信される。
本実施例は、歯科医等のユーザがインターネット、携帯電話を用いて計測写真を送信し、技工所は、この写真を用いて、補綴物を加工して、歯科医へ配送するシステムを示しており、口腔内から直接印象材などを用いて型どりをすることなく、単に支持体を持って、写真をとりこれを技工所へ送信すればよい点で、歯科医の負担は今までになく低減されることとなる。
In addition, since it is possible to see the photographed picture with a mobile phone, it is possible to confirm whether there is any focus or camera shake, and it becomes a simpler form, and only the support 10 is required. The burden on the dentist is further reduced.
The technical laboratory server 606 calculates three-dimensional data from the transmitted three photographs, converts the data into processing data based on the virtual prosthesis shape, and transmits the processing data to the processing device 19.
The processing device 19 processes and manufactures the prosthesis 23 by grinding and cutting the processing block 20 by a processing mill 21 which is a processing jig based on the processing data.
The processed prosthesis 23 is transmitted to a user such as a dentist via a delivery route 609.
This embodiment shows a system in which a user such as a dentist transmits a measurement photograph using the Internet or a mobile phone, and the laboratory uses this photograph to process the prosthesis and deliver it to the dentist. The burden on the dentist has never been reduced by simply holding the support, taking a picture, and sending it to the laboratory without using an impression material directly from the oral cavity. Will be.

次に本発明の他の実施例を図8を参照して詳細に説明する。
801は、コンピュータ用のモニターであり、主に液晶ディスプレー、プロジェクターで構成されている。
モニター801は、例えば、図8(b)で示すようなプロジェクター方式であれば、左眼用画像と右眼画像を2台のプロジェクター810と811を用いて、、鏡と同じ反射特性を有するスクリーン809に投影する。左眼用画像は、偏光軸方向が例えば45度となるような内部の偏光板の偏光駆動を行い、右眼用画像は、例えば135度とねるような偏光駆動を行いながらスクリーンに出力する。
モニター801が、液晶デイスプレーの場合、例えば液晶表示画面の1ドットライン毎に、左眼用と右眼用の画像を交互に並べ、1ライン毎に右眼用又は左眼用の偏光方向が90度変化する例えば25μmのセロファンからなる液晶フィルタ等を設置して構成されている。
Next, another embodiment of the present invention will be described in detail with reference to FIG.
Reference numeral 801 denotes a computer monitor, which mainly includes a liquid crystal display and a projector.
If the monitor 801 is a projector system as shown in FIG. 8B, for example, a screen having the same reflection characteristics as a mirror is obtained by using two projectors 810 and 811 for the left-eye image and the right-eye image. 809 is projected. The left-eye image is output to the screen while performing polarization driving of an internal polarizing plate such that the polarization axis direction is 45 degrees, for example, and the right-eye image is subjected to polarization driving such as 135 degrees.
When the monitor 801 is a liquid crystal display, for example, the left-eye and right-eye images are alternately arranged for each dot line of the liquid crystal display screen, and the right-eye or left-eye polarization direction is changed for each line. For example, a liquid crystal filter made of, for example, 25 μm cellophane that changes by 90 degrees is installed.

802は、メガネタイプの3D表示具であり、803は、左眼用偏光透過部、804は、右眼用偏光透過部である。左眼用偏光透過部803は、モニター801が表示する左眼用の画像のみを通過させ、右眼用偏光透過部804は、モニター801が表示する右眼用の画像のみを通過させる偏光フィルターで形成されている。
図8(b)は、図8(a)で示すモニター801の代わりに、2台のプロジェクター810、811とスクリーン809を用いて表示する手法を示す。
左のプロジェクター810は、左眼画像を出力し、右のプロジェクター811は右眼の画像を出力する。スクリーン809の表面は、アルミニウム等の金属粉末等で被覆したいわゆるシルバースクリーンが好適に用いられる。
図8(c)は、モニター801の表示表面に接続又は、所定の距離を置いて配置する偏光フィルターユニット805を示すものであり、806は、左眼用フィルターであり、モニター801が出力する左眼用画像のみを通過させる。807は、右眼用フィルタであり、モニター801が出力する右眼用画像のみを通過させる。
フィルターユニット805は、メガネの様に装着せず、左眼画像を左眼に右眼画像を右眼にそれぞれ通過させようとするものであり、中央に遮蔽板808をフィルター面に垂直に設置しても良い。
フィルターユニット805は、モニター805前面に置いて用いるものであり、見る方向によって、完全に左右の画像が、分離できるものでは無いが、使用態様によって、十分に使用可能となり、遮蔽板808を用いなくても良い場合もある。
Reference numeral 802 denotes a glasses-type 3D display device, reference numeral 803 denotes a left-eye polarized light transmission section, and reference numeral 804 denotes a right-eye polarization transmission section. The left-eye polarization transmission unit 803 is a polarization filter that allows only the left-eye image displayed on the monitor 801 to pass therethrough, and the right-eye polarization transmission unit 804 is a polarization filter that allows only the right-eye image displayed on the monitor 801 to pass therethrough. Is formed.
FIG. 8B shows a display method using two projectors 810 and 811 and a screen 809 instead of the monitor 801 shown in FIG.
The left projector 810 outputs a left eye image, and the right projector 811 outputs a right eye image. The surface of the screen 809 is preferably a so-called silver screen coated with a metal powder such as aluminum.
FIG. 8C shows a polarizing filter unit 805 that is connected to the display surface of the monitor 801 or arranged at a predetermined distance. Reference numeral 806 denotes a left-eye filter, which is a left output from the monitor 801. Only the eye image is passed. Reference numeral 807 denotes a right-eye filter that passes only the right-eye image output from the monitor 801.
The filter unit 805 is not worn like glasses, and is intended to pass the left eye image to the left eye and the right eye image to the right eye, and a shielding plate 808 is installed in the center perpendicular to the filter surface. May be.
The filter unit 805 is used by being placed on the front surface of the monitor 805, and the left and right images are not completely separable depending on the viewing direction. However, depending on the use mode, the filter unit 805 can be used sufficiently and does not use the shielding plate 808. Sometimes it is okay.

次に図8でしめす実施例の動作を説明する。
本発明は、複数のカメラで同時に歯牙等を撮影し、その際、個々のカメラの撮影画像には、互いに視差ができるため、その個々の画像をそれぞれ、左眼用画像、右眼用画像として用いても良い。これら両画像を、ドットライン状に分解し、モニター801が、左眼画像と右眼画像を一ドットライン毎に表示させる様に調整する。
右眼用画像が表示されるドットライン上には、偏光方向が90度変化している。
モニター801が左眼画像及び右眼画像が一ドットライン毎に出力した表示は、3D表示具802で、左眼用偏光透過部803を介して左眼用画像801aが通過して左眼用画像のみが左眼に入力される。右眼用偏光透過部804を介して右眼用画像801bが通過して、右眼用画像のみが右眼に入力され、3D表示具802を装着した者は、立体的な像を見ている状態となる。
Next, the operation of the embodiment shown in FIG. 8 will be described.
In the present invention, teeth and the like are simultaneously photographed by a plurality of cameras. In this case, since the images captured by the individual cameras can be parallaxed, the individual images are respectively designated as a left eye image and a right eye image. It may be used. Both these images are decomposed into dot lines, and the monitor 801 adjusts so that the left eye image and the right eye image are displayed for each dot line.
On the dot line where the image for the right eye is displayed, the polarization direction changes by 90 degrees.
The display in which the monitor 801 outputs the left-eye image and the right-eye image for each dot line is a 3D display 802, and the left-eye image 801a passes through the left-eye polarization transmission unit 803, and the left-eye image is displayed. Only input to the left eye. The right-eye image 801b passes through the right-eye polarization transmission unit 804, and only the right-eye image is input to the right eye, and the person wearing the 3D display 802 is viewing a stereoscopic image. It becomes a state.

この状態は、撮影した口腔内の3D表示であり、更に、撮影データに基づいて3次元座標データが得られると共に、3次元座標を持つ仮想的な補綴物形状が形成される。
これを、補綴物形状の座標を撮影用カメラの撮影位置に基づいた座標にそれぞれ変換して、左眼用画像データ及び右眼用画像データを作製して上記と同様にモニター801を用いて表示する。
3D表示具802を装着した者は、口腔内の3D表示と仮想的に形成された3次元補綴物の3D表示を見ていることとなり、更に両者が、装着された状態、又は、装着後の咬合状態を3D表示で見ることが出来るため、実際の装着時の調整を予め行うことができ、その調整に基づく補綴物製造を可能とする。これは、特にワックスアップレスによる、3次元仮想補綴物データに基づく、加工用ブロックの加工して補綴物を製造する方法において、より正確な補綴物の製造を実現する。
This state is a 3D display of the photographed intraoral cavity, and further, three-dimensional coordinate data is obtained based on the photographing data, and a virtual prosthesis shape having three-dimensional coordinates is formed.
By converting the coordinates of the prosthesis shape into coordinates based on the photographing position of the photographing camera, left eye image data and right eye image data are produced and displayed on the monitor 801 in the same manner as described above. To do.
The person wearing the 3D display tool 802 sees the 3D display of the intraoral 3D display and the 3D display of the virtually formed 3D prosthesis. Since the occlusal state can be seen in a 3D display, adjustment at the time of actual mounting can be performed in advance, and the prosthesis can be manufactured based on the adjustment. This realizes more accurate prosthesis manufacturing in a method of manufacturing a prosthesis by processing a processing block based on three-dimensional virtual prosthesis data, particularly by wax-upless.

次に本発明の他の実施例を図9、図10を参照して詳細に説明する。
図9は、計測される対象物について、予め作製された3次元座標データを蓄積したデータベースの一例である。90D1は、目的とする補綴物を装着する部位の継続形状を予め、複数用意し、コンピュータのデータベースに登録したものであり、90D2は、目的とする補綴物の形状を予め複数用意し、同じくコンピュータのデータベース上に登録したものである。
図9(a)でしめすデータベース90D1は、ワックスアップレス手法等で、補綴物を作製するために、口腔内からデータを入手し、これを補綴物作成の為に用いる場合、予め口腔内からのデータと、これに補完したデータにより様々な形状を記憶してデータベース化したものである。
900は、一つの仮想口腔内部の登録した第1基準仮想データであり、好ましくは、ID記号が付されている。第1仮想データ900は、3次元データの集合体であるが、これを使用者が選択しやすいように3次元的に表示した3次元表示リストである。901は、第2基準仮想データである。902は、3次元斜視図であり、903は、3次元側面図であり、904は、3次元上面図である。これは、3次元座標データでは、見えないデータの構造を使用者がわかりやすい状態にするためリスト表示しているものである。ここでは、2つの仮想データを示したがこれはより多数有ることが好ましい。当該仮想データは、基準データとして使用される
Next, another embodiment of the present invention will be described in detail with reference to FIGS.
FIG. 9 is an example of a database that accumulates three-dimensional coordinate data prepared in advance for an object to be measured. 90D1 is prepared in advance with a plurality of continuation shapes of a part to which a target prosthesis is to be attached, and is registered in a computer database. 90D2 is prepared with a plurality of shapes of a target prosthesis in advance. Registered in the database.
The database 90D1 shown in FIG. 9 (a) is obtained from the oral cavity in order to prepare a prosthesis by a wax-up-less method or the like. Various shapes are stored in a database by using data and data supplemented thereto.
900 is the 1st reference | standard virtual data registered inside one virtual oral cavity, Preferably, ID code | symbol is attached | subjected. The first virtual data 900 is an aggregate of three-dimensional data, and is a three-dimensional display list that is three-dimensionally displayed so that the user can easily select it. Reference numeral 901 denotes second reference virtual data. 902 is a three-dimensional perspective view, 903 is a three-dimensional side view, and 904 is a three-dimensional top view. In the three-dimensional coordinate data, the invisible data structure is displayed as a list so that the user can easily understand the structure. Here, two virtual data are shown, but it is preferable that there are more virtual data. The virtual data is used as reference data

図9(b)で示すデータベース90D2は、製造しようとする補綴物の形状を予め登録したものであって、905は、作製しようとする補綴物模型を予め口腔内から検出して形成された3次元座標データバースの一つの例である。
906は、一つの3次元座標データの、所定の方向から、見た場合の仮想3次元表示である。
907は、仮想斜視図、908は、仮想側面、909は仮想上面、910は、仮想底面を示す図であり、実測3次元データと比較するために、歯高値データ908a、歯幅値データ909a、マージン直径データ910aがキーワードとして設定登録されており、
対応する実測値データと比較検索され、一番近似するデータを基準データとして使用するものである。
このような表示は、必ずしも必要ではなく、実際は、データとして比較され、もっとも近似的な仮想データが選択される。
この場合の近似とは、例えば図9(a)の最大豊隆部の直径903a、歯高値903bであり、この値が近い仮想データが選択される。
The database 90D2 shown in FIG. 9B is a database in which the shape of the prosthesis to be manufactured is registered in advance, and 905 is formed by detecting the prosthesis model to be manufactured from the oral cavity in advance 3 It is an example of a dimensional coordinate data berth.
Reference numeral 906 denotes a virtual three-dimensional display when one piece of three-dimensional coordinate data is viewed from a predetermined direction.
907 is a virtual perspective view, 908 is a virtual side surface, 909 is a virtual top surface, and 910 is a diagram showing a virtual bottom surface. To compare with measured three-dimensional data, tooth height value data 908a, tooth width value data 909a, Margin diameter data 910a is set and registered as a keyword,
The data is compared and searched with the corresponding measured value data, and the closest data is used as the reference data.
Such a display is not necessarily required. Actually, comparison is made as data, and the most approximate virtual data is selected.
The approximation in this case is, for example, the diameter 903a and the tooth height value 903b of the largest ridge in FIG.

図10は、図9で示した仮想3次元形状データを蓄積したデータベース90D1を用いて3次元データ処理した場合の一実施例を示す。
図9でしめすデータベースを検索するタイミングは、少なくとも1枚の写真図に基づいた検索で足りる場合がある。例えば、903でしめす写真図から得られる、歯高903b、補綴物の最大豊隆部の直径を示す値903b及び隣接歯の形状、上面写真図904から見た支台歯のマージンラインの大きさから、近似3次元データを検索する。
このように、平面データから近似3次元形状データを検索することで、より処理の迅速化が図れる。
FIG. 10 shows an embodiment when three-dimensional data processing is performed using the database 90D1 in which the virtual three-dimensional shape data shown in FIG. 9 is accumulated.
The search based on the database shown in FIG. 9 may be based on a search based on at least one photograph. For example, the tooth height 903b, the value 903b indicating the diameter of the maximum protuberance of the prosthesis, the shape of the adjacent tooth, the size of the margin line of the abutment tooth as seen from the top photograph 904, obtained from the photograph shown at 903 Search for approximate 3D data.
In this way, by searching for approximate three-dimensional shape data from plane data, the processing can be further speeded up.

図10(a)は、実際写真画像から算出した3次元データに基づいて構成された実測仮想データを示す。
実測仮想データ911は、撮影により生じる死角部分を備え、更に口腔内の状況により精度が低下する部分に対して選択された基準仮想データ911Sを選択してこれと比較し、その差を求めていき、死角により撮影されなかった部分、或いは、口腔内状況により正確に計測されなかった部分を基準データ911Sを参照して補完するものである。
912は、実測第1隣接歯3次元データであり、913は、実測第23次元データであり、914は、実測3次元支台歯データである。
915は、作製しようとする補綴物の差大豊隆部の直径であり、916は、支台歯914の直径に相当する。
この実測値915、914から、図9(a)でしめす仮想データベースから近似したデータを探す。
FIG. 10A shows actually measured virtual data configured based on three-dimensional data calculated from actual photograph images.
The actually measured virtual data 911 includes a blind spot portion caused by imaging, and further selects and compares the selected reference virtual data 911S selected for the portion whose accuracy is lowered due to the situation in the oral cavity, and calculates the difference. A portion that has not been photographed due to blind spots or a portion that has not been accurately measured due to intraoral conditions is supplemented with reference to the reference data 911S.
912 is measured first adjacent tooth 3D data, 913 is measured 23D data, and 914 is measured 3D abutment tooth data.
Reference numeral 915 denotes the diameter of the profound difference of the prosthesis to be produced, and 916 corresponds to the diameter of the abutment tooth 914.
From these measured values 915 and 914, the approximated data is searched from the virtual database shown in FIG.

検索結果得られた仮想データを図10(b)にしめす。
実測第1隣接歯データ912と基準第1隣接歯データ912S、実測第2隣接歯データ913と基準第2隣接歯データ913S、実測支台歯データ914と基準実測歯データ914Sが比較される。
917、918、919、920は、死角による実測不可能領域であり、この場合、基準データ911の該当する領域のデータ917S、918S、919S、920Sが参照され補完される。
921は、実測仮想歯肉データであり、これらの歯牙に関連する領域までのデータが基準仮想歯肉データ921Sとして、予め記録されているが、この部位は、近似データとして使用される場合とされない場合がある。
図10(c)は、実測第1隣接歯3次元データと、基準第1隣接歯3次元データを重ね合わせた状態のa−a’断面図である。
実測第1隣接歯データ912と基準第1隣接歯データ912Sとの間に差Lが生じるが、この差Lが大幅に違う場合は、基準データを優先させたり、死角により実測が出来ない領域917S’は、そのまま基準データ917S’が補完され、又は、差Lの値と滑らかな曲線を得るための演算補完され、補綴物作製用の加工データが形成される。
The virtual data obtained as a result of the search is shown in FIG.
The measured first adjacent tooth data 912 and the reference first adjacent tooth data 912S, the measured second adjacent tooth data 913, the reference second adjacent tooth data 913S, the measured abutment tooth data 914, and the reference measured tooth data 914S are compared.
Reference numerals 917, 918, 919, and 920 are areas that cannot be measured due to blind spots. In this case, the data 917S, 918S, 919S, and 920S of the corresponding area of the reference data 911 are referred to and supplemented.
921 is actually measured virtual gingival data, and data up to a region related to these teeth is recorded in advance as reference virtual gingival data 921S, but this part may or may not be used as approximate data. is there.
FIG. 10C is a cross-sectional view taken along the line aa ′ in a state where the measured first adjacent tooth 3D data and the reference first adjacent tooth 3D data are superimposed.
There is a difference L between the measured first adjacent tooth data 912 and the reference first adjacent tooth data 912S. If this difference L is significantly different, the reference data is prioritized, or the region 917S where the actual measurement cannot be performed due to the blind spot. 'Is complemented with the reference data 917S' as it is, or the computation for obtaining the value of the difference L and a smooth curve is completed, and processed data for prosthesis production is formed.

本発明では、少なくとも2つの写真画像から、共通点に対する3次元座標を求めて、被写体の3次元形状を認識するものであるが、3次元座標が算出され、計測部位の状態が代表的数値であって、第9図で示したデータベースで登録されたキーワードに相当する部位の値が算出されたタイミングで、図9で示すデータベースから、口腔内部位に相当するデータを検索し、検索して得られた基準データに基づいて各部の3次元データを上述のように決定していっても良く、より短時間で、補綴物を得るに適した口腔内データを算出可能とする。   In the present invention, three-dimensional coordinates with respect to a common point are obtained from at least two photographic images and the three-dimensional shape of the subject is recognized. The three-dimensional coordinates are calculated, and the state of the measurement site is a representative numerical value. At the timing when the value of the part corresponding to the keyword registered in the database shown in FIG. 9 is calculated, data corresponding to the intraoral part is searched from the database shown in FIG. The three-dimensional data of each part may be determined as described above based on the obtained reference data, and intraoral data suitable for obtaining a prosthesis can be calculated in a shorter time.

次に本願発明の他の実施例を図11を参照して詳細に説明する。
図11は、口腔内の歯列の上面と側面を同時に撮影可能とするための撮影用プローブの一例を示す。図10(a)は、プローブを上面方向から見た斜視図であり、図10(b)は、裏面から見た斜視図である。
1001は、上面用支持部、1002は側面用支持部であり、両者は、好ましくは、直角又は座標を得やすい状態の角度で配置固定されており、上面支持部1001の端部から、把持部1003が延びている。
把持部1003は、更に外部モニター機器と電気リード線で接続されている場合があるが、本実施例は、複数枚の写真画像程度のデータであるので、これを無線で外部モニターに伝送したり、SDカードのような小型メデイアに記録してもよい場合もある。
ピント合わせは、自動で行われても良いが、その為の機械的メカニズムが必要となるため、一つのカメラから複数枚の写真を自動的にとりこんで、その中から、ピントのあった画像を選ぶものであっても良い。
Next, another embodiment of the present invention will be described in detail with reference to FIG.
FIG. 11 shows an example of an imaging probe for enabling simultaneous imaging of the upper and side surfaces of the dentition in the oral cavity. FIG. 10A is a perspective view of the probe viewed from the upper surface direction, and FIG. 10B is a perspective view of the probe viewed from the back surface.
Reference numeral 1001 denotes an upper surface support portion, and reference numeral 1002 denotes a side surface support portion, both of which are preferably arranged and fixed at a right angle or an angle at which coordinates can be easily obtained. 1003 extends.
The gripper 1003 may be further connected to an external monitor device by an electrical lead wire. However, since the present embodiment is about the data of a plurality of photographic images, it can be transmitted wirelessly to an external monitor. In some cases, it may be recorded on a small media such as an SD card.
Focusing may be performed automatically, but since a mechanical mechanism is required for this purpose, multiple photos are automatically captured from one camera, and the image that is in focus is selected from that. You may choose.

1004は、上面カメラRであり、1005は上面カメラLである。構成は同じデジタルカメラであり、分解能は高いほうが好ましい。
1006は、照明であり、白色LED等が、スライドガラスを介した状態等で、照射されている。
1007は、側面カメラRであり、1008は、側面カメラLであり、1009は、照明部であって、上面部と同様の構成を有する。
図11(c)は、実際に口腔内の計測部位に本実施例のプローブを宛がって撮影した場合の説明図であり、当該図から、ワックスアップレスで必要とする情報を一度に撮影でき、又、別々に撮影する場合、プローブの位置で得られた座標を統一する必要がないものである。
当該支持部材が直交して配置されていることから、カメラの位置は、必然的に直交座標内に据え置かれており、座標変換等の処理を要せず、容易に3次元座標が得られると共に、カメラ配置周辺の色を非反射色として、乱反射を防いだ構成とすることも可能である。
Reference numeral 1004 denotes a top camera R, and reference numeral 1005 denotes a top camera L. It is preferable that the configuration is the same digital camera and the resolution is high.
1006 is illumination, and white LED etc. are irradiated in the state etc. which passed through the slide glass.
Reference numeral 1007 denotes a side camera R, reference numeral 1008 denotes a side camera L, and reference numeral 1009 denotes an illumination unit, which has a configuration similar to that of the upper surface part.
FIG. 11C is an explanatory diagram when the probe of the present embodiment is actually taken to the measurement site in the oral cavity, and from this figure, information necessary for wax-upless imaging is taken at a time. In addition, when photographing separately, it is not necessary to unify the coordinates obtained at the probe position.
Since the support members are orthogonally arranged, the position of the camera is inevitably left in the orthogonal coordinates, and processing such as coordinate conversion is not required, and three-dimensional coordinates can be easily obtained. It is also possible to adopt a configuration in which irregular reflection is prevented by making the color around the camera arrangement non-reflective color.

次に本発明の他の実施例を図12を参照して詳細に説明する。
001は、至近撮影画像取得手段であり、複数のカメラであって、例えば、被写界深度が浅い部分で数十mmの範囲で設定されたレンズをそれぞれ具えた同一の撮影手段を、1乃至複数個、平板状に又は、所定の角度を具えて固定的に又は、半固定的に装着された撮影面を具えた撮影部材によって、撮影された複数の画像を取得する手段である、
ここで用いられるカメラは、高分解能であることが好ましく、0.3〜10メガピクセル程度例示されるが、口腔内に挿入されるプローブの先端または、先端に近い部位に配置されることから、小型であることが好ましいことから、より小さく且つ高分解能であるものが例示され既製品では、1メガピクセル前後が、好ましいが、今後より高分解能で、且つ、小型化されたカメラがでれば、本発明はそれを好適に使用する。
又、レンズとイメージセンサを分離してカスタムにカメラを形成する場合も同様に、構文可能で、小型であることが好ましい。半固定とは、一つのカメラを移動可能に形成することで、決まった方向に移動する構成を意味するものである。
Next, another embodiment of the present invention will be described in detail with reference to FIG.
Reference numeral 001 denotes a close-up photographed image acquisition means, which is a plurality of cameras, for example, the same photographing means each having a lens set within a range of several tens of millimeters in a shallow depth of field. A means for acquiring a plurality of images photographed by a photographing member having a photographing surface that is fixedly or semi-fixedly mounted in a flat plate shape or at a predetermined angle.
The camera used here preferably has a high resolution, and is exemplified by about 0.3 to 10 megapixels. However, since the camera is disposed at the tip of the probe inserted into the oral cavity or a portion close to the tip, Since it is preferable to be small, an example of a smaller and higher resolution is exemplified, and in the off-the-shelf product, about 1 megapixel is preferable, but if a camera with higher resolution and a smaller size is produced in the future, The present invention preferably uses it.
Similarly, when the lens and the image sensor are separated to form a custom camera, it is preferable that the camera can be syntactically and is small in size. Semi-fixed means a configuration that moves in a fixed direction by forming one camera so as to be movable.

又、撮影は、連続して撮影し、複数の撮影画像から手ぶれ、ピントの合っていない撮影画像を削除する手法が好ましい。これは例えば1秒間に30枚の動画レベルから、1枚までが例示されるが、動画の場合は、分解能が限られてしまう場合があるため、一度の撮影で数枚から数十枚程度得られれば良い場合もある。
尚、被写界深度が浅い画像の場合、周辺がピンぼけするものがあるが、この場合は、
画像中で、画像が明確な範囲のみでの距離画像を得てもよい。
即ち、ピンぼけの割合が例えば6割あっても、4割を距離画像として採用することで、短時間での測定を可能とする。明確な画像の割合は、大きければ大きいほどよいが、1割以上であれば、利用は可能である。

002は、選択手段であり、前記一度の撮影で得られた画像データから一対の撮影画像対を選択するものであり、手ぶれ、ピンぼけは、既知のエッジ検出ソフトウエアを用いて、そのエッジの検出度合いによって判断する手法等が採られる。
この選択手段の採用によりカメラの固定した状態での撮影を行わず。動かしながら、撮影していき、その中からピンぼけ、手ぶれのない画像対を検出する。被写界深度が浅い状態で、ピントがぼけた画像であっても、一部に明確な画像範囲があるものは、その部分だけを使用すればよい。
In addition, it is preferable to shoot continuously, and delete a photographed image that is not in focus or in hand shake from a plurality of photographed images. For example, from the level of 30 moving images per second to 1 is exemplified, but in the case of moving images, the resolution may be limited. It may be good if it is possible.
In the case of an image with a shallow depth of field, the periphery may be out of focus, but in this case,
You may obtain the distance image only in the range where the image is clear in the image.
That is, even if the ratio of defocus is 60%, for example, 40% is adopted as a distance image, thereby enabling measurement in a short time. The larger the ratio of clear images, the better. However, if it is 10% or more, it can be used.

Reference numeral 002 denotes selection means for selecting a pair of captured images from the image data obtained by the one-time image capturing. A method of judging according to the degree is adopted.
By adopting this selection means, shooting is not performed with the camera fixed. While moving, the camera shoots and detects a pair of images that are out of focus and free from camera shake. Even if the image has a small depth of field and is out of focus, if the image has a clear image range, only that portion needs to be used.

オートフォーカス手段の利用も可能であるが、その場合、自動焦点設定の間、静止しながらの撮影となるものであってもよい。
003は、補正手段であり、カメラキャリブレーションソフトウエアなどで形成され、レンズによる画像の歪み、画像周辺と、中心との明るさの調整等をおこなう手段であり、距離取得用画像に変換する手段である。
004は、撮影画像座標設定手段であり、補正手段003で補正された撮影画像に座標値を設定するためのものであり、複数の画像に対して同一の部位に中心点を持つ直交のxy座標などの共通座標を設定することが好ましい。
005は、共通撮影範囲設定手段であり、至近撮影画像取得手段001で得られた複数の撮影画像の撮影範囲で、共通する範囲を設定する手段である。
これは、例えば、それぞれの画像の輪郭、特徴部位を抽出し、重ね合わせることで、共通範囲を設定するためのものである。これは、後段の共通点を決定する手段の処理速度を速める為におこなうものであって、処理速度に問題がなければ、共通撮影範囲をこの時点で設定しなくてもよい場合もある。又、至近撮影の場合は、輪郭等が検出されない場合があるため、後段で共通範囲を決定しても良い場合もある。
Auto-focus means can also be used, but in that case, the image may be taken while still during auto-focus setting.
Reference numeral 003 denotes a correction unit, which is formed by camera calibration software or the like, and is a unit that adjusts the distortion of the image by the lens, the brightness between the image periphery and the center, and the like, and a unit that converts the image into a distance acquisition image It is.
004 is a captured image coordinate setting unit for setting a coordinate value to the captured image corrected by the correcting unit 003, and is an orthogonal xy coordinate having a center point at the same part for a plurality of images. It is preferable to set common coordinates such as.
Reference numeral 005 denotes a common shooting range setting unit that sets a common range among shooting ranges of a plurality of shot images obtained by the closest shot image acquisition unit 001.
This is for setting a common range by, for example, extracting and superimposing the contours and characteristic parts of each image. This is performed in order to increase the processing speed of the means for determining the common point in the subsequent stage. If there is no problem in the processing speed, there is a case where the common imaging range may not be set at this time. Further, in the case of close-up photography, the outline may not be detected, so the common range may be determined later.

006は、共通点決定手段であり、いわゆるブロックマッチング手法、サブピクセル推定手法を用いて、複数の画像であって、共通範囲上の共通点を特定する為の手段である。
共通点決定手段006は、まず、一つの画像上の一つの点を基準点として、この基準点に相当する点が他の画像上で検索し、決定する。検索は、主に輝度値であり、カラー画像であれば、三原色毎に行われても良い。輝度値の一致は、おおよその範囲での一致であればよく、検索点と参照点の輝度値の差又はその2乗値が一番小さくなる点を推定するサブピクセル推定手法により、より精度の高い共通点を探すことが好ましい。
こおで示す参照点、共通点で示す点は、一つの画素を示す他複数の画素を示す場合もあり、複数の画素の場合は、平均輝度値を用いるものが例示される。
007は、共通座標設定手段であり、共通点決定手段006で推定的に又は確定的に得られた共通点のそれぞれの画像座標値から、いわゆるワールド座標値を求めるものである。
006 is a common point determination means, which is a means for specifying a common point on a common range of a plurality of images using a so-called block matching method and sub-pixel estimation method.
First, the common point determination unit 006 uses one point on one image as a reference point, and searches and determines a point corresponding to the reference point on another image. The search is mainly a luminance value, and may be performed for each of the three primary colors if it is a color image. The luminance value match may be a match within an approximate range, and the subpixel estimation method for estimating the difference between the luminance value of the search point and the reference point or the point at which the square value is the smallest is more accurate. It is preferable to look for high commonalities.
The reference point shown here and the point shown by the common point may indicate a plurality of other pixels indicating one pixel, and in the case of a plurality of pixels, examples using an average luminance value are exemplified.
Reference numeral 007 denotes a common coordinate setting unit that obtains a so-called world coordinate value from each image coordinate value of the common point estimated or deterministically obtained by the common point determination unit 006.

ワールド座標値を得る手法としては、既知の三角法等を用いれば良く、必要に応じ、8点アルゴリズム等、複数の共通点を求め、それぞれの画像座標値から、基礎行列等のアルゴリズムを決定する手法を用いてもよい。
008は、結合手段であり、先に形成された3次元座標データを一時記録手段008から読み出して、これと、現時点で形成された3次元共通座標データとを結合する手段である。結合は、先のデータとおおよそ共通する座標群を見つけて、この座標群を一致させて結合する手法が例示される。
009は、一時記憶手段であり、先の結合手段で結合して得られた共通三次元座標データを一時的に記憶しておく、デジタルメモリ、その他のデジタルメデイアが例示される。
010は、加工データ形成手段であり、前記結合手段008で得られた結合データを加工用のデータに変換するためのもので、当該データは、コンピュータモニター上に表示されていき順次結合されていくデータが表示され、CAM加工用に補綴物の加工データを形成する。結合データが画面表示されていくことで、未計測部分が表示でき、その部分を補完することが可能となる。
As a method for obtaining the world coordinate value, a known trigonometric method or the like may be used. If necessary, a plurality of common points such as an 8-point algorithm are obtained, and an algorithm such as a basic matrix is determined from each image coordinate value. A technique may be used.
Reference numeral 008 denotes a combining unit that reads the previously formed three-dimensional coordinate data from the temporary recording unit 008 and combines this with the three-dimensional common coordinate data formed at the present time. The combination is exemplified by a method of finding a coordinate group that is approximately in common with the previous data and matching the coordinate group to combine them.
Reference numeral 009 denotes temporary storage means, and examples thereof include a digital memory and other digital media for temporarily storing common three-dimensional coordinate data obtained by combining with the previous combining means.
Reference numeral 010 denotes processing data forming means for converting the combined data obtained by the combining means 008 into processing data. The data is displayed on the computer monitor and sequentially combined. Data is displayed and processing data for the prosthesis is formed for CAM processing. By displaying the combined data on the screen, an unmeasured part can be displayed and the part can be complemented.

次に動作を説明する。
至近撮影画像取得手段001によりカメラ対を口腔内の被撮影部分に対し、先端に複数のカメラが装着されたプローブを手で持ちながら、至近距離で連続撮影する。撮影は、連続撮影によって、移動させながら又は、静止させながら行われ、複数の画像対が選択手段002へ出力される(0a)。
選択手段002は、入力されてくる画像データのエッジ検出処理を施して、その値から、手ぶれ状態を把握し、ピンぼけ、手ぶれがない画像を選択し、補正手段002へ出力する(0b)。
補正手段002でキャリブレーション処理が施され、距離画像に補正された後、撮影画像座標設定手段003へ距離画像対を出力する(0c)。
入力された、複数枚の距離画像対に対し、座標が設定され、共通撮影範囲設定手段005へ出力される(0d)。
Next, the operation will be described.
The close-up image acquisition means 001 continuously takes images at close distances while holding a probe with a plurality of cameras attached to the tip of the camera pair with respect to the portion to be imaged in the oral cavity. Shooting is performed by continuous shooting while moving or stationary, and a plurality of image pairs are output to the selection unit 002 (0a).
The selection unit 002 performs an edge detection process on the input image data, grasps the state of camera shake from the value, selects an image without blurring or camera shake, and outputs the image to the correction unit 002 (0b).
After the calibration process is performed by the correction unit 002 and the distance image is corrected, the distance image pair is output to the captured image coordinate setting unit 003 (0c).
Coordinates are set for the input multiple pairs of distance images and output to the common photographing range setting means 005 (0d).

共通撮影範囲設定手段005は、画像対から、共通する撮影範囲を検出設定して、その範囲を画像を共通点決定手段006へ出力する(0e)。
この共通範囲が設定された画像対の一つの画像を参照画像として、参照点を設定し、この参照点に一致又は近似する点を他の画像から順次、単位点ごとこに輝度値を日かkすうることで検出する。
一致、又は近似すると推定した点が得られた場合これを共通点として次の参照点について同様の操作を行い、共通点を決定し、これを繰り返していき、各画像の共通点の画像座標を得て、これを共通座標設定手段007へ出力する(0f)。
共通座標設定手段007では、各画像データ上における共通点の画像座標をワールド座標に変換して、結合手段008へ出力する(0g)。
結合手段008に入力されたワールド座標データは、その前に処理されたワールド座標データを一時記憶手段009から読み取り(0i)、共通座標部分に基づいて結合される。
結合されたワールド座標データは、一時記録手段009に一時的に重ね書きするように記録され(0h)、更に加工データ形成手段010に出力される(0j)。
The common shooting range setting unit 005 detects and sets a common shooting range from the image pair, and outputs the range to the common point determination unit 006 (0e).
The reference point is set using one image of the image pair in which the common range is set as a reference image, and a point that matches or approximates the reference point is sequentially determined from other images, and the luminance value is converted to the unit point. Detect by moving.
If a point estimated to match or approximate is obtained, the same operation is performed for the next reference point using this as a common point, a common point is determined, this is repeated, and the image coordinates of the common point of each image are determined. This is output to the common coordinate setting means 007 (0f).
The common coordinate setting unit 007 converts the image coordinates of the common point on each image data into world coordinates and outputs them to the combining unit 008 (0g).
The world coordinate data input to the combining unit 008 is read based on the common coordinate portion by reading the previously processed world coordinate data from the temporary storage unit 009 (0i).
The combined world coordinate data is recorded so as to be temporarily overwritten in the temporary recording unit 009 (0h), and further output to the processed data forming unit 010 (0j).

加工データ形成手段010は、得られたワールド座標データを実際3次元表示しながら、計測されていない領域が無くなり、補綴物が形成できる状態までの形状データが得られる
まで、蓄積され、その後、CAM用の加工パスデータに変換処理する。この加工データに基づいて、セラミックス、レジン、及ぶおれらの複合材により形成されるブロックを加工したり、ラピッドプロトタイプによる造形処理により補綴物を得る。
本発明は、至近接写により、撮影範囲を限定することで、精度の高い座標データを得ることができる。
The processed data forming means 010 stores the obtained world coordinate data until the shape data to the state where the prosthesis can be formed is obtained after the area that has not been measured disappears while actually displaying the three-dimensional world coordinate data. Convert to processing path data for use. Based on this processing data, a prosthesis is obtained by processing a block formed of a composite material of ceramics, resin, and others, or by a modeling process using a rapid prototype.
According to the present invention, highly accurate coordinate data can be obtained by limiting the photographing range by close-up photography.

次に本発明の他の実施例に係る具体的構成例を図13を参照して詳細に説明する。
図13の(a)において、
110は、カメラユニットであって、同じCCD又はCMOSカメラを互いの方向へ所定の角度を施して、設置したものである。カメラユニット110の個々のカメラA111a、カメラB111bは、例えば1M(100万)ピクセル、程度かそれ以上の分解能を持つものが好ましいが、加工程度により、1Mピクセル以下でも良い場合もある。
112aは、カメラ111aの至近接写用のレンズ、であって、112bは、カメラ111bの至近接写用のレンズである。いずれも焦点距離が、短かく、ピンホールレンズや接写可能なレンズが、適用され、1乃至複数のレンズが使用されてもよい。又、拡大レンズを用いてもキャリブレーション可能な範囲で良い場合もある。
113は、照明光出力部であり、カメラユニット周辺に沿って、出力部が形成されている。照明光出力部113の表面には、プラスチック、ガラス等の透光性部材が装着されている。
Next, a specific configuration example according to another embodiment of the present invention will be described in detail with reference to FIG.
In FIG. 13A,
Reference numeral 110 denotes a camera unit in which the same CCD or CMOS camera is installed at a predetermined angle with respect to each other. The individual cameras A111a and B111b of the camera unit 110 preferably have a resolution of, for example, 1M (1 million) pixels or more, but may be 1M pixels or less depending on the degree of processing.
112a is a close-up lens for the camera 111a, and 112b is a close-up lens for the camera 111b. In any case, a focal length is short, and a pinhole lens or a close-up lens may be applied, and one or a plurality of lenses may be used. In some cases, a calibrated range may be used even when a magnifying lens is used.
Reference numeral 113 denotes an illumination light output unit, and an output unit is formed along the periphery of the camera unit. A translucent member such as plastic or glass is mounted on the surface of the illumination light output unit 113.

114は、光源であり、主に、LEDで形成されるが、導光路に基づく光路長があるため減衰を考慮して高出力なものが選択される。
115は、導光路であり、光源114の出力光を照明光出力部113に伝達数Rためのものであり、内部は、光を反射する部材でおおわれていることが好ましい。
照明光出力部113は、導光路115内の光源114の発光を外部へ出力する部分であり、デジタル画像を撮影すると、画面の周辺が暗くなることを補償できるものである。
又、LEDの光の輪郭が測定面に反射して受光することを回避させる照明光出力部113は、磨りガラス状の透光性部材や、透明な透光性部材を用いることができるが、その分光の損失が生じる為、透明なものが好ましい場合もある。
尚、照明光出力部113は、このような、間接的光源の利用だけでなく、直接、照明光を照射する手段を用いるものであっても良く、光源が生体の照射面に形成される輪郭等も、共通点の目安を取得する部位と成り得る場合がある。
Reference numeral 114 denotes a light source, which is mainly formed of an LED, and has a light path length based on the light guide path, so that a high output light is selected in consideration of attenuation.
Reference numeral 115 denotes a light guide, which is for transmitting the output light of the light source 114 to the illumination light output unit 113, and is preferably covered with a member that reflects light.
The illumination light output unit 113 is a part that outputs the light emitted from the light source 114 in the light guide 115 to the outside, and can compensate for the darkness of the periphery of the screen when a digital image is taken.
In addition, the illumination light output unit 113 that avoids receiving and reflecting the outline of the light of the LED on the measurement surface can use a polished glass-like translucent member or a transparent translucent member. Since the loss of the spectrum occurs, a transparent one may be preferable.
The illumination light output unit 113 may use not only such an indirect light source but also a means for directly irradiating illumination light, and the contour of the light source formed on the irradiation surface of the living body. Etc. may be a part for obtaining a measure of common points.

116は、本体先端部であり、本体把持部117と一体的に形成され、中央に押しボタン型のスイッチ118が形成されている。
本体先端部116と本体把持部117は、硬質なプラスチックで形成されており、軽量で持ち運びに優れた形状が好ましい。
119は、電気リード線であって、外部へ画像データを送信したり、電力を供給したりするためのものである。電気リード線119は、USBケーブル等の汎用性ケーブルが使用されても良く、又、無線送受信可能な場合は、不要な場合もある。

120は、インジケータであり、表示により、動作状態を示すものであって、例えば、撮影がされている期間を発光することで、表示したり、ピンぼけ状態とピントが合った状態、或いは、被写界深度範囲にあることを発光、色、強度等で示そうとする表示体であり、LEDの他、液晶パネル等、表示可能な素子を用いてもよい。
Reference numeral 116 denotes a main body tip portion, which is formed integrally with the main body gripping portion 117, and a push button type switch 118 is formed at the center.
The main body front end portion 116 and the main body gripping portion 117 are made of hard plastic, and are preferably light in weight and easy to carry.
Reference numeral 119 denotes an electrical lead wire for transmitting image data to the outside or supplying power. The electrical lead 119 may be a general-purpose cable such as a USB cable, and may be unnecessary if wireless transmission / reception is possible.

Reference numeral 120 denotes an indicator that indicates an operation state by display. For example, the indicator is displayed by emitting light during a shooting period, or is out of focus or in focus. It is a display body that is intended to indicate that it is in the depth of field range by light emission, color, intensity, etc. In addition to LEDs, displayable elements such as liquid crystal panels may be used.

121は、センサ用光源であり、周囲側面が覆われており、いわゆるスポットライト状の出力が行われるようにすることが好ましい。
被写体との距離を計測する為の出力であり、予め狭い角度で発散的に出力する光を出力するためのものである。この出力光の広がりは、被写体との距離と対応した関係が接待されており、被写体との距離をスポットライト状に映し出された光の直径、面積等を測定して、距離が得られるような、光源が利用される。
Reference numeral 121 denotes a sensor light source, which is preferably covered with a peripheral side surface so that a so-called spotlight-like output is performed.
This is an output for measuring the distance to the subject, and for outputting light that is divergently output at a narrow angle in advance. The spread of the output light is associated with the distance to the subject, and the distance to the subject can be obtained by measuring the diameter, area, etc. of the light projected as a spotlight. A light source is used.

図13の(a)に示された実施例の動作を説明する。
本体把持部117を持って、カメラユニット110の部分を歯牙へ接近させる。カメラユニット110のピントがあった時点で、撮影を開始する。
光源114は、常時、又は撮影時出力を行うと、導光路115を介して、カメラユニット110の周囲の照明光出力部より照明光を出力する。
照明光は、白色、その他、白色に近い色に調整された出力であっても良い。
常時照射する場合は、高出力LEDを採用するため、消費電力が大きくなるため、フラッシュランプの様な照明であっても良い。
ピントが合った時点とは、カメラ111a、111bが、オートフォーカスであれば、自動的にピントがあった状態で、実行されるが、オートフォーカスでない場合は、
The operation of the embodiment shown in FIG. 13A will be described.
Holding the main body holding part 117, the part of the camera unit 110 is brought close to the teeth. Shooting is started when the camera unit 110 is in focus.
The light source 114 outputs illumination light from the illumination light output unit around the camera unit 110 via the light guide path 115 when output is performed at all times or during photographing.
The illumination light may be output adjusted to white or other colors close to white.
When constantly irradiating, since a high-power LED is adopted, the power consumption is increased, and thus illumination such as a flash lamp may be used.
When the camera 111a, 111b is in auto focus, it is executed when the camera 111a, 111b is in focus.

例えば、図14でしめすようにカメラユニット110、撮影部位に接近させていく、センサ光源121の出力が、撮影面に円弧を描く為、その円弧の直径又は面積等を測定し、被写体までの距離が予め計測された関係に基づき、計測され、その距離が、被写界深度に入ると自動的に撮影を開始し、インジケータ120が、その旨の発光(色、強度を変えた)を行う。
又、自動的に撮影されない場合は、スイッチ118、その他のシャッターを押すことで、撮影が開始される。
撮影は、一回でピントが、手ぶれがない画像が撮影されればよいが、連写することで、複数の撮影が行われて、その中から、画像が選ばれても良い。
本体把持部117を手でもって、図14の(a)で示すように、本体先端部116のカメラユニット110を接写しながら、図14(b)で示すように、移動させてゆく、その際も、被写界深度にあった距離であって、少なくともピントのあった所定の範囲である場合は、連写が続けられ、画像データが内部メモリに蓄積される。内部メモリに蓄積される場合の他、電気リード線119を介して外部記憶装置に記憶される場合もある。
For example, as shown in FIG. 14, the output of the sensor light source 121 that approaches the camera unit 110 and the imaging region draws an arc on the imaging surface, so the diameter or area of the arc is measured and the distance to the subject is measured. Is measured based on a pre-measured relationship, and when the distance enters the depth of field, photographing is automatically started, and the indicator 120 emits light (color and intensity are changed).
If the image is not automatically shot, shooting is started by pressing the switch 118 or another shutter.
It is only necessary to shoot an image that is out of focus and has no camera shake at one time. However, a plurality of shootings may be performed by continuous shooting, and an image may be selected from among them.
As shown in FIG. 14 (a), the camera body 110 is moved while holding the body gripping part 117 as shown in FIG. 14 (b). However, if the distance is within the depth of field, and at least within a predetermined range in focus, continuous shooting is continued and image data is stored in the internal memory. In addition to being stored in the internal memory, it may be stored in an external storage device via the electrical lead wire 119.

照明光出力部113からの照明は、撮影のタイミングで出力する場合や、常時出力するものであってもよい。尚、
連写は、少なくとも、手ぶれとピンぼけがない画像を選択抽出できる早さであれば良く、動画レベルで、1秒間に30枚程度であってもよく、分解能を得る場合などそれ以下の枚数であっても良く、枚数が多いとメモリを大幅に消費することから、メモリ容量に応じて適宜選択される。
又、拡大レンズの使用してもよく、狭い面積を撮影するものであっても良い。
カメラユニット110は、所定角度で、互いの方向に傾いているが、その状態で両者の共通した撮影部位を図14(a)のH21で示した。
Illumination from the illumination light output unit 113 may be output at the time of shooting or may be always output. still,
Continuous shooting is only required to be fast enough to select and extract images that are free from camera shake and blurring, and may be about 30 images per second at the video level, or less than that, for example, when obtaining resolution. If the number of sheets is large, the memory is consumed greatly, so that the number is appropriately selected according to the memory capacity.
Further, a magnifying lens may be used, or a small area may be photographed.
The camera unit 110 is inclined at a predetermined angle toward each other. In this state, a common imaging region is indicated by H21 in FIG.


図14(a)の共通撮影部位H21から、それぞれ、共通点Mを検出する。共通点Mは、どちらかの画像から選択されたMに対し、他の画像において、その角度に基づいた範囲を、その照度に基づいて決定する。
本願発明は、この照度値の撮影負担を、小さくするため、近接した撮影を行う。
即ち、CCD、CMOS画素の集合体であるイメージセンサ部の大きさに対し撮影面積を小さくすることで、画素が負担する範囲を小さくして、分解能を向上させると共に至近接写可能なカメラ構造により、更に精度の高い計測を可能とする。

得られる写真画像は、レンズによる歪みを是正したり、必要に応じ、光量の補正をおこなうキャリブレーション手段を通過させる。キャリブレーション手段は、OPEN-CVの様な、ソフトウエアを組み合わせ利用することで、実現させても良い。

A common point M is detected from each common imaging region H21 in FIG. The common point M is determined based on the illuminance for the M selected from one of the images and the other image based on the angle.
In the present invention, in order to reduce the photographing burden of the illuminance value, close photographing is performed.
In other words, by reducing the shooting area with respect to the size of the image sensor unit that is an aggregate of CCD and CMOS pixels, the range of the pixels is reduced, the resolution is improved, and the camera structure capable of close-up shooting is provided. In addition, highly accurate measurement is possible.

The obtained photographic image is passed through calibration means that corrects distortion caused by the lens and corrects the amount of light as necessary. The calibration means may be realized by using a combination of software such as OPEN-CV.

従って、一回の撮影で得られる3次元データの範囲は、10mm×10mmであれば、一画素の撮影範囲は、100万画素(1Mピクセル)程度を用いるとすると数十μm×数十μmであり、ブロックマッチングの際の比較する1ブロックも同様の値となって、共通点の決定における座標の精度を向上させることができる。
次にブロックマッチング操作をおこなう。例えば水平なカメラ関係であれば、y軸に沿った比較による一致又は、SSD SADのように、基準ブロック画素と、比較ブロック画素の差分をとっていき、必要に応じて2乗してその最小値を放物線を描いて、その最小値をとり、その最小値の比較画面におけるブロックを共通点とするサブピクセル推定をしても良い場合もある。
ブロック単位は、2×2、3×3〜で精度を求める場合は、より小さい方が好ましい場合もある。参照画像からのブロックの決定は、隣接するブロックを検出してマッチング処理を行う他、少なくとも、加工精度が得られるデータが得られればよいことから、一つおき、又は、複数ブロックを飛び越して選択し、マッチング操作をおこなってもよい。
Therefore, if the range of the three-dimensional data obtained by one imaging is 10 mm × 10 mm, the imaging range of one pixel is several tens μm × several tens μm when about 1 million pixels (1M pixels) are used. Yes, one block to be compared at the time of block matching has the same value, and the accuracy of coordinates in determining the common point can be improved.
Next, block matching operation is performed. For example, in the case of a horizontal camera relationship, the difference between the reference block pixel and the comparison block pixel is taken as in the case of coincidence by comparison along the y-axis or SSD SAD, and if necessary, the minimum is obtained by squaring. In some cases, the value may be drawn as a parabola, the minimum value thereof may be taken, and sub-pixel estimation using the block on the comparison screen of the minimum value as a common point may be performed.
When the block unit is 2 × 2, 3 × 3, and accuracy is required, a smaller one may be preferable. In determining the block from the reference image, in addition to performing the matching process by detecting adjacent blocks, it is only necessary to obtain data that can at least obtain processing accuracy, so it is necessary to select every other block or skip multiple blocks. Then, a matching operation may be performed.

再現された3次元データの連結は、スプライン曲線等を用いた曲線補完処理でも足り、時間短縮と、リアルタイム処理を可能とする場合もある。
少なくとも、加工データが得られる精度のブロック選択がされればよく、又、加工までにいかず、撮影と同時に、画面上に3次元画像を再現する場合は、ブロックをさらに飛び越してマッチング処理をおこなうことで、リアルタイムな画像表示を可能とする。
共通点Mが得られた後、この共通点Mをワールド座標等の共通座標へ変換する。
共通座標への変換手法は、カメラの透視投影行列を用いたアルゴリズムの利用による公知の手法が用いられても良い。
尚、共通点のワールド座標値を複数点得ることで既存の8点アルゴリズム等による基礎行列を算出し、この基礎行列を用いて三角法等の既知の撮影画像座標をワールド座標へ変換するアルゴリズムを形成し、それぞれの撮影画像での共通点の座標に基づいてワールド座標上での共通点座標を求めても良い。
The connection of the reproduced three-dimensional data may be a curve interpolation process using a spline curve or the like, which may enable time reduction and real-time processing.
It is only necessary to select a block with sufficient accuracy to obtain processed data, and if the 3D image is reproduced on the screen at the same time as shooting without performing processing, the block is further skipped and matching processing is performed. This enables real-time image display.
After the common point M is obtained, the common point M is converted into common coordinates such as world coordinates.
As the conversion method to the common coordinates, a known method by using an algorithm using a perspective projection matrix of the camera may be used.
An algorithm for calculating a basic matrix by an existing 8-point algorithm by obtaining a plurality of world coordinate values of a common point and converting known captured image coordinates such as trigonometry to world coordinates using this basic matrix. The common point coordinates on the world coordinates may be obtained based on the coordinates of the common points in the captured images.

このように一回の撮影から口腔内の一部の領域(図14、H21)のワールド座標データが得られた後、次の画像データ対から例えば、図14のH22の範囲からワールド座標データを得て、H23の領域へ移行して、それぞれの形状をワールド座標化する。。
ワールド座標化した3次元データ面、H21、H22を、その共通する部位の座標を比較近似してつなぎ合わせてゆくことで、歯の3次元形状データを得る。又、歯以外の歯周部等も同様の手法で、3次元化可能である。
尚、口腔内のテクスチャは、接写することで、その凹凸が画像の特徴として利用される場合もあり、更に、回折光学素子の利用によるパターン投影、照明の方向、種類によって、そのマッチングに供する特徴が得られる場合もある。また同じ部位をなぞるように接写して画像化し、同部位の3次元データを加算平均することで、より精度が向上する場合もある。
After the world coordinate data of a partial region in the oral cavity (FIG. 14, H21) is obtained from a single imaging in this way, the world coordinate data from the range of H22 in FIG. Then, the process moves to the area of H23, and each shape is converted into world coordinates. .
The three-dimensional shape data of the tooth is obtained by connecting the three-dimensional data planes H21 and H22 converted into world coordinates by comparing and approximating the coordinates of the common parts. Further, the periodontal portion other than the teeth can be three-dimensionalized by the same method.
In addition, the texture in the oral cavity may be used as a feature of the image by taking a close-up, and further, it is used for matching depending on the pattern projection by using the diffractive optical element, the direction and type of illumination. May be obtained. Further, there are cases where the accuracy is further improved by taking a close-up image so as to trace the same part and averaging the three-dimensional data of the same part.

本発明は、パッシブなステレオ方式を採用することも可能であるが、接写し連写することから、図14(b)で示すように歯面2H上をおおよその至近距離でアクテイブに移動させて、形状計測も可能であり、口腔内カメラ的な使用も可能とすることから、本発明では好適な実施態様となる。
本発明におけるピンぼけ画像を解消する手法として、図13(b)を参照する。
センサ用光源121は、指向角が、5度前後から、それ以上の角度を持つ、出力光を、側面を黒い遮蔽物で遮蔽した状態で出力することで、スポットライト化する。LED光は、直進性があるため、照射距離121aと円形の照射面121bの面積が略対応する(照射距離が長くなると照射面の面積が広くなる)ことから、あらかじめその関係をデータ化し、距離を測定する際、照射して、その直径、面積を測り、被写界深度範囲であるかないかを識別し、範囲である場合は、インジケータ120の光を点滅させたり、異なる色の表示をさせたりしても良く、利用者が、そのインジケータ表示により、状態を把握し、カメラ位置を調整しながら、アクテイブに口腔内を撮影しても良い。
又、当該照射面121bの計測により、被写界深度範囲に、プローブがあることを自動的に検出すると、連写が始まるようにしておくことで、シャッターを押す動作を無くして、手ぶれの一要因を解消させてもよい。照射面121bは、照射される部位の凹凸により、面積の算出が困難な場合は、その輪郭の数点を検出して、得られる推定した円の直径、面積を計算するものであってもよい。
Although the present invention can adopt a passive stereo system, since close-up and continuous shooting are performed, as shown in FIG. 14B, the tooth surface 2H is actively moved at an approximate close distance. Since shape measurement is also possible and use as an intraoral camera is possible, the present invention is a preferred embodiment.
FIG. 13B is referred to as a method for eliminating the defocused image in the present invention.
The sensor light source 121 is turned into a spotlight by outputting output light having a directivity angle of about 5 degrees or more with the side face shielded by a black shield. Since the LED light has a straight traveling property, the irradiation distance 121a and the area of the circular irradiation surface 121b substantially correspond to each other (when the irradiation distance becomes longer, the area of the irradiation surface becomes larger). When measuring, irradiate and measure its diameter and area, identify whether it is in the depth of field range, and if it is in range, flash the light of indicator 120 or display different colors The user may grasp the state from the indicator display and may take an active image of the oral cavity while adjusting the camera position.
In addition, when the presence of a probe in the depth of field range is automatically detected by measuring the irradiation surface 121b, continuous shooting is started, so that the operation of pressing the shutter is eliminated, thereby reducing the amount of camera shake. The factor may be eliminated. If the area of the irradiated surface 121b is difficult to calculate due to the unevenness of the irradiated part, the diameter and area of the estimated circle obtained by detecting several points of the contour may be calculated. .

センサ用光源121は、必要に応じて装着されれば良く、又、パターン光源として使用しても良い。即ち、本実施例は、接写状態に近い至近距離であるため、指向角度の狭いLED等を用いれば、いろいろなスリットを用いて、測定面に光学的模様を形成することが出来るからである。
尚、外部モニターは、3次元座標が得られると同時に、画面上にCG表示していくことで、未完部分をみながら、カメラユニットの位置を操作するものであってもよい。
The sensor light source 121 may be mounted as necessary, or may be used as a pattern light source. In other words, since this embodiment is close to the close-up state, an optical pattern can be formed on the measurement surface using various slits if an LED having a narrow directivity angle is used.
The external monitor may operate the position of the camera unit while viewing the unfinished part by displaying CG on the screen at the same time as obtaining the three-dimensional coordinates.


又、その際の、画像のみを記録して、その他は削除しても良い。尚、このようなセンサ光源を用いなくても、得られる対の画像データから、容易に検出できる特徴部位を検出して、そこから、共通点を求めて、その座標を求めても良い場合もあるが、接写の場合は、センサ用光源の利用が適当になる場合がある。

尚、オートフォーカスタイプのカメラモジュールの使用の際は、一つの撮影毎に、多少の静止時間が必要となるが、連写手法との組み合わせによりおおよそアクテイブな操作となる場合もある。

In this case, only the image may be recorded and the others may be deleted. In some cases, it is possible to detect a feature part that can be easily detected from the obtained image data of the pair without using such a sensor light source, to obtain a common point from the detected feature part, and to obtain its coordinates. However, in the case of close-up photography, the use of a sensor light source may be appropriate.

Note that when using an autofocus type camera module, a certain amount of still time is required for each shooting, but there are cases where the operation is roughly active in combination with a continuous shooting method.

図13(c)は、本発明の他の実施例であり、一つのイメージセンサを4に分けて、それぞれを独立のイメージセンサとして複眼的に使用したものである。
図13(a)と同じ、構成の部分は、同じ番号を付して説明を省略した、
122aから122dは、レンズ123a〜123dを装着したレンズ体であり、それぞれ内向きに傾斜している。傾斜することで、より、狭い範囲を3次元用に撮影する場合は適当であるが、平面状であってもよく、共通点の検出を容易にするものである。
また、内部で反射鏡、反射プリズムなどの反射回数を少なくすることで、キャリブレーションを複雑にしないで済むようにする手法も採用することが可能である。
図面中124a及び124cは、第1反射部材であり、プリズム、鏡で形成され、入射光を次の第2反射部材へ、歪みを抑えた状態で反射させる為のものである。
FIG. 13C shows another embodiment of the present invention, in which one image sensor is divided into four and each is used compoundly as an independent image sensor.
The same components as those shown in FIG.
Reference numerals 122a to 122d denote lens bodies to which the lenses 123a to 123d are attached, and are inclined inward. By tilting, it is appropriate when photographing a narrow range for 3D, but it may be planar and facilitates the detection of common points.
Also, it is possible to adopt a technique that reduces the number of reflections inside the reflecting mirror, reflecting prism, etc. so that the calibration is not complicated.
In the drawing, 124a and 124c are first reflecting members, which are formed by prisms and mirrors, and reflect incident light to the next second reflecting member in a state where distortion is suppressed.

第1反射部材は、レンズ部材と対応していることから、図では、2つしか表示していないが、4つあり、それぞれのレンズ部材と対応することから、レンズ部材123aに対しては、124a、レンズ部材123cに対しては、第1反射部材124cがそれぞれ対応しており、図示しないが、レンズ部材123bには第1反射部材124b、レンズ部材123dには、第1反射部材124dがそれぞれ対応している。
125は、第2反射部材であり、第1反射部材124と同様の鏡、プリズムが用いられており、入射光を、イメージセンサの該当エリアへ、反射させるものである。
第2反射部材125a〜125dも同様に4つ、それぞれ第1反射部材124a〜124dと対応して配置されている。
126はイメージセンサであり、正方形状等4等分しやすいものが用いられている。
図13(c)に範囲を区切った状態を示した。それぞれ、第2反射部材の反射光を受光するために、等分で仕切られて使用される。
仕切りは、必要ない場合もあり、イメージセンサ126の出力するデータで区切るソフトウエア式提供が好ましい。
Since the first reflecting member corresponds to the lens member, only two are shown in the figure, but there are four, and each lens member corresponds to the lens member 123a. The first reflecting member 124c corresponds to the lens member 123c, and the first reflecting member 124d corresponds to the lens member 123b, and the first reflecting member 124d corresponds to the lens member 123d. It corresponds.
Reference numeral 125 denotes a second reflecting member, which uses the same mirror and prism as the first reflecting member 124, and reflects incident light to a corresponding area of the image sensor.
Similarly, four second reflecting members 125a to 125d are arranged corresponding to the first reflecting members 124a to 124d, respectively.
Reference numeral 126 denotes an image sensor, which has a square shape and is easily divided into four equal parts.
FIG. 13C shows a state where the range is divided. In order to receive the reflected light of the second reflecting member, they are divided and used equally.
The partition may not be necessary, and it is preferable to provide a software system that partitions the data output by the image sensor 126.

本実施例の照明も、一つのLEDやむぎ球等のアナログ照明等による光源114を導光路115を介して、レンズ部材の周辺に形成された照射部127から、照明光を、測定部位へ照射する構成を有する。
本実施例は、最大4つのカメラによる、3次元形状計測を行う構成であり、一対のカメラを選択して、撮影画像より共通点を検出し、3次元座標を得て、4つのカメラを用いた場合は、少なくとも4通りの組み合わせで得られた、同じ共通点を得て、加算平均するなどしてより精度の高い座標を得てもよい。
場合によっては、4つの領域のうち3つ又は2つを使用してもよい場合もある。
In the illumination of this embodiment as well, the light source 114 by analog illumination such as one LED or a ball ball is irradiated with illumination light from the irradiation unit 127 formed around the lens member via the light guide path 115 to the measurement site. It has the composition to do.
This embodiment is configured to perform three-dimensional shape measurement using a maximum of four cameras. A pair of cameras is selected, a common point is detected from a captured image, three-dimensional coordinates are obtained, and four cameras are used. In such a case, the same common point obtained by at least four combinations may be obtained, and a coordinate with higher accuracy may be obtained by averaging.
In some cases, three or two of the four regions may be used.

本発明は、瞬間に近い状態でデータを取得し、このデータをコンピュータ処理を施して、補綴物データが得られることから、手軽な口腔内情報の取得と、データ量の縮小化に伴う、手軽な補綴物の作成ができ、瞬間的な計測により、患者の負担を軽減し、歯科医療分野で従事者の手間を省くことができる。     Since the present invention acquires data in a state close to the moment and performs computer processing on this data to obtain prosthesis data, it is easy to obtain information in the oral cavity and reduce the amount of data. The prosthesis can be created, and instantaneous measurement can reduce the burden on the patient and save the labor of the worker in the dentistry field.

1 画像データ化手段
2 傾き情報検出手段
3 三次元座標取得手段
4 調整手段
5、7 加工用データ形成手段
6、8 加工手段
10 支持体
11 計測支持部
12 把持部
13 伝送部
14 表示演算ユニット
15 表示部
16 撮影オンオフボタン
17 接続用ケーブル
18 コンピュータ
19 加工装置
DESCRIPTION OF SYMBOLS 1 Image data conversion means 2 Tilt information detection means 3 Three-dimensional coordinate acquisition means 4 Adjustment means 5, 7 Processing data formation means 6, 8 Processing means 10 Support body 11 Measurement support part 12 Grip part 13 Transmission part 14 Display calculation unit 15 Display unit 16 Shooting on / off button 17 Connection cable 18 Computer 19 Processing device

Claims (10)

口腔内で被写体に対し至近接写手段を用いて静止画的に1乃至複数の画像データを連写又は単写して得る画像データ化手段、被計測物の三次元形状を計測可能な状態として前記画像データ化手段が設置され、且つ口腔に配置可能な大きさを持つ支持体、前記画像データ化手段で得られた画像データから、被写口腔内物の三次元形状を得る三次元形状取得手段、を有する歯科用補綴物計測加工システム。 Image data generating means for continuously shooting or single-shoting one or more image data in a still image using a close-up shooting means for a subject in the oral cavity, and the image as a state in which the three-dimensional shape of the object to be measured can be measured A support having a size capable of being placed in the oral cavity and having a data conversion means; a three-dimensional shape acquisition means for obtaining a three-dimensional shape of the object in the oral cavity from the image data obtained by the image data conversion means; A dental prosthesis measuring and processing system. 前記至近接写手段の至近接写距離が、5mm〜20mmの範囲であり請求項1に記載の歯科用補綴物計測加工システム。 The dental prosthesis measurement processing system according to claim 1, wherein a close-up shooting distance of the close-up shooting means is in a range of 5 mm to 20 mm. 前記支持体の画像データ化手段の固定部位には傾き情報を検出する傾き情報検出手段、前記傾き情報検出手段の傾き情報出力に基づき前記三次元形状取得手段の三次元データを調整する調整手段を備えている請求項1に記載の歯科用補綴物計測加工システム。 The fixed part of the image data converting means of the support has an inclination information detecting means for detecting inclination information, and an adjusting means for adjusting the three-dimensional data of the three-dimensional shape acquiring means based on the inclination information output of the inclination information detecting means. The dental prosthesis measurement processing system according to claim 1, which is provided. 前記三次元形状取得手段で得られたデータに基づいて、加工用ブロックを加工して歯科補綴物を製造加工する加工手段を含む請求項1に記載の歯科用補綴物製造システム。 The dental prosthesis manufacturing system according to claim 1, further comprising processing means for processing a processing block to manufacture and process a dental prosthesis based on data obtained by the three-dimensional shape acquisition means. 前記画像データ化手段で得られた映像を表示する表示部、及び前記画像データ化手段の撮影開始停止を行うスイッチング手段が前記支持体と別体で形成され、その間を有線又は無線で接続される請求項1に記載の歯科用補綴物製造システム。 The display unit for displaying the video obtained by the image data converting unit and the switching unit for starting and stopping the imaging of the image data converting unit are formed separately from the support, and are connected by wire or wirelessly. The dental prosthesis manufacturing system according to claim 1. 口腔内で撮影された隣接歯と補綴部位の三次元座標検出可能な静止画、対合歯の三次元検出可能な静止画を前記画像データ化手段で撮影し、前記静止画より、仮想補綴物形状形成に必要な数値データを抽出すると共に、前記データに対応して、咬合面、支台歯面の三次元座標を検出し、前記数値データと三次元座標から仮想補綴物形状を取得する請求項1に記載の歯科用補綴物製造システム。   A still image capable of detecting the three-dimensional coordinates of the adjacent tooth and the prosthetic region taken in the oral cavity and a still image capable of detecting the three-dimensional of the opposing tooth are photographed by the image data converting means, and the virtual prosthesis is obtained from the still image Extracting numerical data necessary for shape formation, detecting three-dimensional coordinates of an occlusal surface and an abutment tooth surface corresponding to the data, and acquiring a virtual prosthesis shape from the numerical data and the three-dimensional coordinates Item 2. The dental prosthesis manufacturing system according to Item 1. 前記表示部で表示された画像を、一方向画像と多方向用画像に変換する画像変換手段、前記画像変換手段で変換された一方向画像と多方向画像を表示する3D表示手段、前記3D表示手段で出力される画像に対し、右眼に対して一方向画像を出力し、左眼に対して多方向画像を出力する出力調整部を更に設けた請求項5に記載の歯科用補綴物製造システム。 Image conversion means for converting the image displayed on the display section into a unidirectional image and a multidirectional image, 3D display means for displaying the unidirectional image and multidirectional image converted by the image conversion means, and the 3D display 6. The dental prosthesis manufacture according to claim 5, further comprising an output adjustment unit that outputs a unidirectional image to the right eye and outputs a multidirectional image to the left eye with respect to the image output by the means. system. 目的とする補綴物に対応する3次元形状データを複数蓄積したデータベースを用意し、
前記三次元形状取得手段で得られるデータに近似した形状を前記データベースから検索する検索手段、前記検索手段で得られたデータ上で、前記三次元形状取得手段で得られた実測データを補完演算する請求項1に記載の歯科用補綴物製造システム。
Prepare a database that accumulates multiple 3D shape data corresponding to the target prosthesis,
A search unit that searches the database for a shape that approximates the data obtained by the three-dimensional shape acquisition unit, and complements the actual measurement data obtained by the three-dimensional shape acquisition unit on the data obtained by the search unit. The dental prosthesis manufacturing system according to claim 1.
前記補完演算は、前記データベースで得られた近似形状に対して、前記実測データの補完を行う請求項8に記載の歯科用補綴物製造システム。   The dental prosthesis manufacturing system according to claim 8, wherein the supplementary calculation supplements the actual measurement data with respect to the approximate shape obtained in the database. 前記支持体は、2つの画像データ形成手段を互いに直角状態で配置する形状を有してなる請求項1に記載の歯科用補綴物製造システム。   The dental prosthesis manufacturing system according to claim 1, wherein the support has a shape in which two image data forming units are arranged at right angles to each other.
JP2011063525A 2010-03-24 2011-03-23 Dental prosthesis measuring and processing system Expired - Fee Related JP5815962B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2011063525A JP5815962B2 (en) 2010-03-24 2011-03-23 Dental prosthesis measuring and processing system

Applications Claiming Priority (5)

Application Number Priority Date Filing Date Title
JP2010090853 2010-03-24
JP2010090853 2010-03-24
JP2010129722 2010-06-07
JP2010129722 2010-06-07
JP2011063525A JP5815962B2 (en) 2010-03-24 2011-03-23 Dental prosthesis measuring and processing system

Publications (2)

Publication Number Publication Date
JP2012016573A true JP2012016573A (en) 2012-01-26
JP5815962B2 JP5815962B2 (en) 2015-11-17

Family

ID=44673376

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011063525A Expired - Fee Related JP5815962B2 (en) 2010-03-24 2011-03-23 Dental prosthesis measuring and processing system

Country Status (2)

Country Link
JP (1) JP5815962B2 (en)
WO (1) WO2011118839A1 (en)

Cited By (28)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013165795A (en) * 2012-02-15 2013-08-29 Medeia Kk Photographing apparatus for teeth row in oral cavity
JP2013169239A (en) * 2012-02-17 2013-09-02 Gikou:Kk Dental prosthesis manufacturing support device and program thereof, and tooth form data
WO2014141369A1 (en) * 2013-03-11 2014-09-18 富士通株式会社 Program for design of dental prostheses, device for design of dental prostheses, and method for design of dental prostheses
JP2014203064A (en) * 2013-04-10 2014-10-27 オリンパス株式会社 Endoscope apparatus, overtube, and optical adapter
CN105027159A (en) * 2013-03-26 2015-11-04 凸版印刷株式会社 Image processing device, image processing system, image processing method, and image processing program
JP2016133440A (en) * 2015-01-21 2016-07-25 株式会社リコー Imaging system
KR20160099543A (en) * 2013-12-18 2016-08-22 시로나 덴탈 시스템스 게엠베하 Method for planning a sintering of a dental prosthesis part
WO2016208664A1 (en) * 2015-06-25 2016-12-29 オリンパス株式会社 Endoscope device
JP2017512087A (en) * 2014-02-21 2017-05-18 トリスペラ デンタル インコーポレイテッド Augmented reality dental design method and system
JP2017140452A (en) * 2017-04-17 2017-08-17 富士通株式会社 Dental prosthesis design program, dental prosthesis design apparatus, and dental prosthesis design method
WO2017125926A3 (en) * 2016-01-18 2017-09-28 Dentlytec G.P.L. Ltd Intraoral scanner
US10136970B2 (en) 2015-01-18 2018-11-27 Dentlytec G.P.L.Ltd System, device, and method for dental intraoral scanning
JP2019036188A (en) * 2017-08-18 2019-03-07 株式会社Nttドコモ Caries prediction system
KR20190025539A (en) * 2016-03-02 2019-03-11 드로르 오르토 디자인 리미티드(에어로덴티스) Orthodontic system for tooth movement and position measurement, monitoring and control
CN109475394A (en) * 2016-07-13 2019-03-15 株式会社Dds Spatial digitizer and the artifact processing unit (plant) for utilizing above-mentioned spatial digitizer
WO2019065700A1 (en) * 2017-09-29 2019-04-04 株式会社モリタ製作所 Dental observation device and display method of dental image
JP2019155027A (en) * 2018-03-16 2019-09-19 株式会社Nttドコモ Oral disease diagnosis system and oral disease diagnosis program
JP2020009255A (en) * 2018-07-10 2020-01-16 凸版印刷株式会社 Three-dimensional shape model generation device, three-dimensional model generation method and program
KR102085852B1 (en) * 2018-11-26 2020-03-06 오스템임플란트 주식회사 M method and apparatus for designing dental workpiece considering the occlusal relationship with an antagonistic teeth
JP2020537550A (en) * 2017-08-17 2020-12-24 トロフィー Stencil for intraoral surface scanning
EP3763324A1 (en) * 2019-07-09 2021-01-13 VITA-ZAHNFABRIK H. Rauter GmbH & Co. KG Support system for producing dental restorations and dental restoration system
JP2021090790A (en) * 2015-12-24 2021-06-17 株式会社モリタ製作所 Three-dimensional-measurement method and three-dimensional-measurement device
KR20210131904A (en) * 2020-04-24 2021-11-03 주식회사 메디트 Method for supplement scan data using library data and system thereof
US11173011B2 (en) 2015-05-01 2021-11-16 Dentlytec G.P.L. Ltd. System, device and methods for dental digital impressions
US11602418B2 (en) 2012-12-24 2023-03-14 Dentlytec G.P.L. Ltd. Device and method for subgingival measurement
US11690701B2 (en) 2017-07-26 2023-07-04 Dentlytec G.P.L. Ltd. Intraoral scanner
US11690604B2 (en) 2016-09-10 2023-07-04 Ark Surgical Ltd. Laparoscopic workspace device
US11813132B2 (en) 2017-07-04 2023-11-14 Dentlytec G.P.L. Ltd. Dental device with probe

Families Citing this family (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5869822B2 (en) * 2011-09-30 2016-02-24 株式会社アドバンス Dental image processing system
JP2016030158A (en) * 2014-07-30 2016-03-07 株式会社岩間工業所 Prosthetic appliance machining method and prosthetic appliance machining device
CN105125160B (en) * 2015-08-27 2017-01-18 李翔 Oral cavity endoscope detecting system and detecting method thereof
JP6023865B2 (en) * 2015-10-13 2016-11-09 オリンパス株式会社 Endoscope apparatus, control method of endoscope apparatus, and program
CN105627926B (en) * 2016-01-22 2017-02-08 尹兴 Four-camera group planar array feature point three-dimensional measurement system and measurement method
CN106073919B (en) * 2016-07-19 2021-05-14 华南理工大学 Non-mold digital adaptation method for dental prosthesis
US20210361387A1 (en) * 2017-06-09 2021-11-25 Dental Monitoring Method of evaluating an orthodontic appliance
KR101946498B1 (en) * 2017-09-13 2019-05-08 오스템임플란트 주식회사 Method and device for designing a dental prosthesis and recording medium recorded program for implement thereof
KR102034416B1 (en) * 2019-08-06 2019-10-18 김기수 Manufacturing method of ultra precision dental prosthesis using CT scanner for dental use and ultra precision dental prosthesis
US11758263B2 (en) 2021-08-24 2023-09-12 Moleculight, Inc. Systems, devices, and methods for imaging and measurement using a stereoscopic camera system
WO2023194460A1 (en) * 2022-04-08 2023-10-12 3Shape A/S Intraoral scanning device with extended field of view
CN114748201A (en) * 2022-04-19 2022-07-15 深圳广成创新技术有限公司 Method and device for acquiring three-dimensional parameters of dental implant

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11137517A (en) * 1997-11-14 1999-05-25 Matsushita Electric Ind Co Ltd Imaging device
JP2002224143A (en) * 2001-01-31 2002-08-13 Gc Corp Method for making dental prosthesis
US20040252312A1 (en) * 2003-06-12 2004-12-16 Liang-Chia Chen Apparatus and method for rapid and precise scanning of three-dimensional occlusal profile of dental cast
WO2009006303A2 (en) * 2007-06-29 2009-01-08 3M Innovative Properties Company Video-assisted margin marking for dental models
JP2009078133A (en) * 2007-08-16 2009-04-16 Steinbichler Optotechnik Gmbh Device for determining 3d coordinates of object, in particular of tooth

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3082549U (en) * 2001-06-11 2001-12-14 株式会社吉田製作所 External auxiliary light source device for dental intraoral camera

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11137517A (en) * 1997-11-14 1999-05-25 Matsushita Electric Ind Co Ltd Imaging device
JP2002224143A (en) * 2001-01-31 2002-08-13 Gc Corp Method for making dental prosthesis
US20040252312A1 (en) * 2003-06-12 2004-12-16 Liang-Chia Chen Apparatus and method for rapid and precise scanning of three-dimensional occlusal profile of dental cast
WO2009006303A2 (en) * 2007-06-29 2009-01-08 3M Innovative Properties Company Video-assisted margin marking for dental models
JP2010532681A (en) * 2007-06-29 2010-10-14 スリーエム イノベイティブ プロパティズ カンパニー Video auxiliary boundary marking for dental models
JP2009078133A (en) * 2007-08-16 2009-04-16 Steinbichler Optotechnik Gmbh Device for determining 3d coordinates of object, in particular of tooth

Cited By (48)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013165795A (en) * 2012-02-15 2013-08-29 Medeia Kk Photographing apparatus for teeth row in oral cavity
JP2013169239A (en) * 2012-02-17 2013-09-02 Gikou:Kk Dental prosthesis manufacturing support device and program thereof, and tooth form data
US11602418B2 (en) 2012-12-24 2023-03-14 Dentlytec G.P.L. Ltd. Device and method for subgingival measurement
JPWO2014141369A1 (en) * 2013-03-11 2017-02-16 富士通株式会社 Dental prosthesis design program, dental prosthesis design apparatus, and dental prosthesis design method
WO2014141369A1 (en) * 2013-03-11 2014-09-18 富士通株式会社 Program for design of dental prostheses, device for design of dental prostheses, and method for design of dental prostheses
US10354019B2 (en) 2013-03-11 2019-07-16 Fujitsu Limited Recording medium, dental prosthesis design apparatus, and dental prosthesis design method
CN105007855A (en) * 2013-03-11 2015-10-28 富士通株式会社 Program for design of dental prostheses, device for design of dental prostheses, and method for design of dental prostheses
CN105027159B (en) * 2013-03-26 2018-10-26 凸版印刷株式会社 Image processing apparatus, image processing system, image processing method and image processing program
CN105027159A (en) * 2013-03-26 2015-11-04 凸版印刷株式会社 Image processing device, image processing system, image processing method, and image processing program
EP2980752A4 (en) * 2013-03-26 2016-11-09 Toppan Printing Co Ltd Image processing device, image processing system, image processing method, and image processing program
US10068339B2 (en) 2013-03-26 2018-09-04 Toppan Printing Co., Ltd. Image processing device, image processing system, image processing method and image processing program
JP2014203064A (en) * 2013-04-10 2014-10-27 オリンパス株式会社 Endoscope apparatus, overtube, and optical adapter
KR20160099543A (en) * 2013-12-18 2016-08-22 시로나 덴탈 시스템스 게엠베하 Method for planning a sintering of a dental prosthesis part
KR102027418B1 (en) * 2013-12-18 2019-11-04 시로나 덴탈 시스템스 게엠베하 Method for planning a sintering of a dental prosthesis part
JP2017512087A (en) * 2014-02-21 2017-05-18 トリスペラ デンタル インコーポレイテッド Augmented reality dental design method and system
US10912634B2 (en) 2014-02-21 2021-02-09 Trispera Dental Inc. Augmented reality dental design method and system
US10966614B2 (en) 2015-01-18 2021-04-06 Dentlytec G.P.L. Ltd. Intraoral scanner
US10136970B2 (en) 2015-01-18 2018-11-27 Dentlytec G.P.L.Ltd System, device, and method for dental intraoral scanning
JP2016133440A (en) * 2015-01-21 2016-07-25 株式会社リコー Imaging system
US11173011B2 (en) 2015-05-01 2021-11-16 Dentlytec G.P.L. Ltd. System, device and methods for dental digital impressions
CN107735714A (en) * 2015-06-25 2018-02-23 奥林巴斯株式会社 Endoscope apparatus
US10742958B2 (en) 2015-06-25 2020-08-11 Olympus Corporation Endoscope apparatus
WO2016208664A1 (en) * 2015-06-25 2016-12-29 オリンパス株式会社 Endoscope device
JP7109609B2 (en) 2015-12-24 2022-07-29 株式会社モリタ製作所 Three-dimensional measuring method and three-dimensional measuring device
JP2021090790A (en) * 2015-12-24 2021-06-17 株式会社モリタ製作所 Three-dimensional-measurement method and three-dimensional-measurement device
WO2017125926A3 (en) * 2016-01-18 2017-09-28 Dentlytec G.P.L. Ltd Intraoral scanner
KR20190025539A (en) * 2016-03-02 2019-03-11 드로르 오르토 디자인 리미티드(에어로덴티스) Orthodontic system for tooth movement and position measurement, monitoring and control
KR102151333B1 (en) 2016-03-02 2020-09-04 드로르 오르토 디자인 리미티드(에어로덴티스) Orthodontic system capable of measuring, monitoring and controlling teeth movement and position
CN109475394A (en) * 2016-07-13 2019-03-15 株式会社Dds Spatial digitizer and the artifact processing unit (plant) for utilizing above-mentioned spatial digitizer
JP2019525167A (en) * 2016-07-13 2019-09-05 株式会社ディーディーエスDds Company Three-dimensional scanner and artifact processing device using the same
CN109475394B (en) * 2016-07-13 2021-04-20 株式会社Dds Three-dimensional scanner and artificial product processing device using same
US11690604B2 (en) 2016-09-10 2023-07-04 Ark Surgical Ltd. Laparoscopic workspace device
JP2017140452A (en) * 2017-04-17 2017-08-17 富士通株式会社 Dental prosthesis design program, dental prosthesis design apparatus, and dental prosthesis design method
US11813132B2 (en) 2017-07-04 2023-11-14 Dentlytec G.P.L. Ltd. Dental device with probe
US11690701B2 (en) 2017-07-26 2023-07-04 Dentlytec G.P.L. Ltd. Intraoral scanner
JP2020537550A (en) * 2017-08-17 2020-12-24 トロフィー Stencil for intraoral surface scanning
JP2019036188A (en) * 2017-08-18 2019-03-07 株式会社Nttドコモ Caries prediction system
WO2019065700A1 (en) * 2017-09-29 2019-04-04 株式会社モリタ製作所 Dental observation device and display method of dental image
JPWO2019065700A1 (en) * 2017-09-29 2020-11-19 株式会社モリタ製作所 Dental observation device and how to display dental images
EP3689295A4 (en) * 2017-09-29 2021-06-23 J. Morita MFG. Corp. Dental observation device and display method of dental image
JP7121740B2 (en) 2017-09-29 2022-08-18 株式会社モリタ製作所 DENTAL OBSERVATION DEVICE AND METHOD FOR DISPLAYING DENTAL IMAGES
JP2019155027A (en) * 2018-03-16 2019-09-19 株式会社Nttドコモ Oral disease diagnosis system and oral disease diagnosis program
JP7135517B2 (en) 2018-07-10 2022-09-13 凸版印刷株式会社 3D geometric model generation device, 3D model generation method and program
JP2020009255A (en) * 2018-07-10 2020-01-16 凸版印刷株式会社 Three-dimensional shape model generation device, three-dimensional model generation method and program
KR102085852B1 (en) * 2018-11-26 2020-03-06 오스템임플란트 주식회사 M method and apparatus for designing dental workpiece considering the occlusal relationship with an antagonistic teeth
EP3763324A1 (en) * 2019-07-09 2021-01-13 VITA-ZAHNFABRIK H. Rauter GmbH & Co. KG Support system for producing dental restorations and dental restoration system
KR20210131904A (en) * 2020-04-24 2021-11-03 주식회사 메디트 Method for supplement scan data using library data and system thereof
KR102575217B1 (en) 2020-04-24 2023-09-06 주식회사 메디트 Method for supplement scan data using library data and system thereof

Also Published As

Publication number Publication date
WO2011118839A1 (en) 2011-09-29
JP5815962B2 (en) 2015-11-17

Similar Documents

Publication Publication Date Title
JP5815962B2 (en) Dental prosthesis measuring and processing system
JP6935036B1 (en) Dental mirror with integrated camera and its applications
US9956061B2 (en) Methods and systems for generating color images
US20200205942A1 (en) Intraoral scanner
JP5433381B2 (en) Intraoral measurement device and intraoral measurement method
US6364660B1 (en) Method and system for imaging and modeling dental structures
JP6663718B2 (en) Intraoral scanning device with illumination frame incorporated into image frame
US20150002649A1 (en) Device for detecting the three-dimensional geometry of objects and method for the operation thereof
KR101693158B1 (en) 3-dimension scaner for oral cavity and apparatus for processing an artifact using thereof
US20150097931A1 (en) Calibration of 3d scanning device
US7099732B2 (en) Sanitary sleeve or tip for intra-oral three-dimensional camera
WO2002006767A1 (en) Dental panoramic imaging system
JP2006525066A (en) Dental laser digitizer system
KR101662566B1 (en) Intraoral scanner altering scanning area and scanning detail by changing optical unit
JP2004202069A (en) Image reader and image reading method
WO2017205294A1 (en) A dental mirror with an integrated camera, and applications thereof
KR20110082759A (en) Scaner for oral cavity and system for manufacturing teeth mold
KR101693157B1 (en) 3-dimension scaner for oral cavity
WO2016047739A1 (en) Device for measuring three-dimensional shape of inside of oral cavity
Santosi et al. An innovative photogrammetric system for 3D digitization of dental models
KR101854728B1 (en) Artificial tooth integrated system
US20240172934A1 (en) Using an intraoral mirror with an integrated camera to record dental status, and applications thereof
EP3664687B1 (en) Intra-oral scanning device
WO2016084065A1 (en) 3d scanners for simultaneous acquisition of multiple 3d data sets of 3d object

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20140320

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20141003

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20141014

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20141215

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20150515

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20150811

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20150819

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20150828

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20150925

R150 Certificate of patent or registration of utility model

Ref document number: 5815962

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

LAPS Cancellation because of no payment of annual fees