JP2009165558A - Method and device for measuring inside of oral cavity - Google Patents

Method and device for measuring inside of oral cavity Download PDF

Info

Publication number
JP2009165558A
JP2009165558A JP2008004904A JP2008004904A JP2009165558A JP 2009165558 A JP2009165558 A JP 2009165558A JP 2008004904 A JP2008004904 A JP 2008004904A JP 2008004904 A JP2008004904 A JP 2008004904A JP 2009165558 A JP2009165558 A JP 2009165558A
Authority
JP
Japan
Prior art keywords
exposure time
dimensional
region
image
still image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2008004904A
Other languages
Japanese (ja)
Inventor
Sadaaki Ota
禎章 太田
Seiji Hamano
誠司 濱野
Fumio Sugata
文雄 菅田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Corp
Original Assignee
Panasonic Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Panasonic Corp filed Critical Panasonic Corp
Priority to JP2008004904A priority Critical patent/JP2009165558A/en
Publication of JP2009165558A publication Critical patent/JP2009165558A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Length Measuring Devices By Optical Means (AREA)
  • Dental Tools And Instruments Or Auxiliary Dental Instruments (AREA)
  • Studio Devices (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide a method and device for measuring the inside of the oral cavity, which allows precise shape measurement of the inside of the oral cavity. <P>SOLUTION: The method for measuring the inside of the oral cavity includes a light projecting process, an imaging process, an exposure time control process, an image composition process, and a three-dimensional arithmetic process. In the light projecting process, an encoded stripe pattern is projected. In the imaging process, an area where the stripe pattern is projected, is picked up as a two-dimensional static image. In the exposure time control process, an exposure time is controlled so as to be able to optimally pick up the two dimensional static image in the imaging process. In the image composition process, two-dimensional static images picked up by at least two different exposure times are combined to generate a composite two-dimensional static image. In the three-dimensional arithmetic process, three-dimensional coordinates of the inside of the oral cavity is calculated on the basis of the composite two-dimensional static image. <P>COPYRIGHT: (C)2009,JPO&INPIT

Description

本発明は、インレー、クラウン、ブリッジ等の歯科用補綴物作成のために口腔内を撮像する方法と装置に関するものであり、更に詳細には、患者の口腔内を直接測定する口腔内測定方法と口腔内測定装置に関するものである。   The present invention relates to a method and an apparatus for imaging an intraoral area for producing a dental prosthesis such as an inlay, a crown, and a bridge, and more specifically, an intraoral measurement method for directly measuring an intraoral area of a patient, and The present invention relates to an intraoral measurement device.

従来、インレー、クラウン、ブリッジ等の歯科用補綴物の作製は、ロストワックス鋳造法により金属材料やセラミックス材料を鋳造して作製する方法が一般的に採用されてきた。しかし、近年の歯科用補綴物の作成においては、セレックシステム(独、シロナ社のシステム)に代表されるような光学三次元カメラを用いた歯および歯肉の口腔内測定と、CAD/CAMシステムを用いた歯科用補綴物の設計・作製システムが注目されてきている。   Conventionally, for the production of dental prostheses such as inlays, crowns and bridges, a method of casting a metal material or a ceramic material by a lost wax casting method has been generally adopted. However, in the creation of dental prostheses in recent years, in-oral measurement of teeth and gingiva using an optical three-dimensional camera such as the SEREC system (system of Sirona, Germany) and a CAD / CAM system are used. Attention has been focused on the design and production system of dental prosthesis used.

光学三次元カメラには、位相シフト法や空間コード化法に代表される非接触三次元計測手法が用いられている。光学三次元カメラは、支台歯や窩洞形成した歯牙や、場合によっては、隣在歯や対合歯の形状を口腔内で直接読み取る(例えば、特許文献1参照)。   For the optical three-dimensional camera, a non-contact three-dimensional measurement technique represented by a phase shift method or a spatial encoding method is used. The optical three-dimensional camera directly reads the shape of the abutment tooth, the tooth formed in the cavity, and in some cases, the adjacent tooth and the counter tooth (for example, see Patent Document 1).

この光学三次元カメラおよびCAD/CAMシステムは、前述のような鋳造による方法等と比較して効率良く歯科用補綴物を作製でき、設計が適切に行われていれば完成した歯科用補綴物の精度も高く、口腔内への適合精度に優れた歯科用補綴物を作製できる特長がある。しかし、光学三次元カメラおよびCAD/CAMシステムでは、最終的な歯科用補綴物の形状を決定する(形状を加工用の情報にする)計算はコンピュータで自動計算が可能であるが、口腔内形状は患者一人一人によって異なり、虫歯の状態や、歯を構成するエナメル質と象牙質さらには歯肉の組成の違いにより、各組織の表面反射率が異なり、鮮鋭な画像を取り込むことができないため正確な歯および歯肉の形状計測が困難である。このため、適合精度に優れた理想的な歯科用補綴物を作製することが困難となるという問題があった。   This optical three-dimensional camera and CAD / CAM system can efficiently produce a dental prosthesis as compared with the casting method as described above. If the design is appropriately performed, the completed dental prosthesis can be obtained. It has the advantage of being able to produce a dental prosthesis that has high accuracy and is excellent in conformity to the oral cavity. However, in the optical three-dimensional camera and the CAD / CAM system, the calculation for determining the final shape of the dental prosthesis (the shape becomes information for processing) can be automatically calculated by a computer. It depends on each patient, and the surface reflectance of each tissue differs depending on the condition of the caries and the composition of the enamel, dentin and gingiva that make up the teeth. It is difficult to measure the shape of teeth and gums. For this reason, there has been a problem that it becomes difficult to produce an ideal dental prosthesis excellent in conformity accuracy.

このような問題を解決するため、口腔内の反射率の異なりを均一化するため、前記セレックシステム(独、シロナ社のシステム)においては、酸化チタンなどのパウダーを口腔内に噴霧している。
特開2000‐74635号公報
In order to solve such a problem, in order to make the difference in the reflectance in the oral cavity uniform, in the SEREC system (system of Sirona, Germany), powder such as titanium oxide is sprayed in the oral cavity.
JP 2000-74635 A

しかしながら、パウダーの噴霧は、患者にとってはパウダーが金属粉末のため苦味や不快感を伴う行為であり、医師にとっては均一な噴霧が必要なため時間と熟練を要する行為となっていた。   However, the spraying of the powder is an action that causes bitterness and discomfort for the patient because the powder is a metal powder, and for the doctor, it is an action that requires time and skill because a uniform spray is required.

本発明は上記課題を解決するもので、パウダーを噴霧することなく、口腔内を正確に形状計測することが可能な口腔内測定方法と口腔内測定装置を提供することを目的とする。   This invention solves the said subject, and it aims at providing the intraoral measurement method and intraoral measurement apparatus which can measure the shape of an intraoral correctly, without spraying powder.

第1の発明に係る口腔内測定方法は、口腔内を測定対象とする口腔内測定方法であって、投光工程と、撮像工程と、露光時間制御工程と、画像合成工程と、三次元演算工程とを備えている。投光工程は、コード化された縞パターンを投影する。撮像工程は、縞パターンが投影された領域を二次元静止画像として取り込む。露光時間制御工程は、撮像工程において二次元静止画像を最適に取り込めるように露光時間を制御する。画像合成工程は、少なくとも2つの異なる露光時間によって取り込んだ二次元静止画像を合成して、合成二次元静止画像を生成する。三次元演算工程は、合成二次元静止画像に基づいて口腔内の三次元座標を演算する。   An intraoral measurement method according to a first invention is an intraoral measurement method for measuring the intraoral area, and includes a light projecting step, an imaging step, an exposure time control step, an image composition step, and a three-dimensional calculation. Process. The light projecting process projects the coded fringe pattern. In the imaging step, a region on which the fringe pattern is projected is captured as a two-dimensional still image. The exposure time control step controls the exposure time so that a two-dimensional still image can be optimally captured in the imaging step. The image synthesizing step synthesizes the two-dimensional still image captured by at least two different exposure times to generate a synthesized two-dimensional still image. In the three-dimensional calculation step, three-dimensional coordinates in the oral cavity are calculated based on the synthesized two-dimensional still image.

ここでは、露光時間制御工程で、撮像工程において二次元静止画像を最適に取り込めるように露光時間を制御し、画像合成工程において、少なくとも2つの異なる露光時間によって取り込まれた二次元静止画像を合成して、合成二次元静止画像を生成する。   Here, in the exposure time control step, the exposure time is controlled so that a two-dimensional still image can be optimally captured in the imaging step, and in the image composition step, a two-dimensional still image captured by at least two different exposure times is synthesized. Thus, a composite two-dimensional still image is generated.

従来より、光学三次元カメラおよびCAD/CAMシステムによって、口腔内形状を計測して、歯科用補綴物の形状を決定することが行われている。ところが、口腔内形状は、虫歯の状態や歯肉の組成の違いにより、各組織の表面反射率が異なるため、コントラストの小さな画像しか取り込むことができない。このため、正確な歯および歯肉の形状計測が困難である。   Conventionally, the shape of a dental prosthesis is determined by measuring the intraoral shape using an optical three-dimensional camera and a CAD / CAM system. However, the intraoral shape can only capture an image with a small contrast because the surface reflectance of each tissue differs depending on the state of the caries and the composition of the gingiva. For this reason, accurate tooth and gingival shape measurement is difficult.

そこで、本発明の口腔内測定方法においては、撮像工程において二次元静止画像を最適に取り込めるように露光時間を制御する露光時間制御工程と、少なくとも2つの異なる露光時間によって取り込んだ二次元静止画像を合成して、合成二次元静止画像を生成する画像合成工程とを備えている。   Therefore, in the intraoral measurement method of the present invention, an exposure time control step for controlling the exposure time so as to optimally capture a two-dimensional still image in the imaging step, and a two-dimensional still image captured by at least two different exposure times. And an image synthesis step for generating a synthesized two-dimensional still image.

これにより、表面反射率の異なる領域を抽出し、その領域ごとに最適な露光時間で二次元静止画像を取り込むことができるので、対象となる領域についてコントラストの大きな二次元静止画像をそれぞれ取得することが可能となる。また、最適露光時間で取り込んだそれぞれの二次元静止画像を合成することによって、全ての領域についてコントラストが大きな合成二次元静止画像を取得することが可能となる。   This makes it possible to extract regions with different surface reflectivities and capture a two-dimensional still image with an optimal exposure time for each region. Is possible. Further, by synthesizing the respective two-dimensional still images captured with the optimum exposure time, it is possible to obtain a synthesized two-dimensional still image having a large contrast for all the regions.

この結果、コントラストよく撮像された合成二次元静止画像を使用して計測することができるので、パウダーを噴霧することなく、口腔内を正確に形状計測することが可能となる。   As a result, since it is possible to measure using a synthesized two-dimensional still image imaged with good contrast, the shape of the oral cavity can be accurately measured without spraying powder.

第2の発明に係る口腔内測定方法は、第1の発明に係る口腔内測定方法であって、露光時間制御工程は、口腔内における歯および歯肉のそれぞれの領域が撮像工程によって最適に取り込まれるように露光時間を制御する。   The intraoral measurement method according to the second invention is the intraoral measurement method according to the first invention, and in the exposure time control step, each region of teeth and gingiva in the oral cavity is optimally captured by the imaging step. The exposure time is controlled as follows.

ここでは、口腔内における歯の領域と歯肉の領域とをそれぞれ抽出し、それぞれの領域が撮像工程によって最適に取り込まれるように露光時間を制御する。
これにより、歯の領域および歯肉の領域のそれぞれについて最適な露光時間で二次元静止画像を取り込むことができるので、歯の領域についてコントラストの大きな二次元静止画像と、歯肉の領域についてコントラストの大きな二次元静止画像との2枚を取得することが可能となる。そして、上記2枚の二次元静止画像を合成することによって、歯の領域と歯肉の領域との両方の領域についてコントラストが大きな合成二次元静止画像を取得することが可能となる。
Here, a tooth region and a gingival region in the oral cavity are extracted, and the exposure time is controlled so that each region is optimally captured by the imaging process.
As a result, a two-dimensional still image can be captured with an optimum exposure time for each of the tooth region and the gingival region. Therefore, a two-dimensional still image having a large contrast for the tooth region and a two-dimensional still image having a large contrast for the gingival region. It is possible to acquire two images with a three-dimensional still image. Then, by combining the two two-dimensional still images, it is possible to obtain a combined two-dimensional still image having a large contrast in both the tooth region and the gingival region.

第3の発明に係る口腔内測定方法は、第1または第2の発明に係る口腔内測定方法であって、露光時間制御工程は、データ分離工程と、露光時間算出工程と、露光時間調整工程と、を有している。データ分離工程は、撮像工程において得られる映像信号から信号データを分離する。露光時間算出工程は、信号データに基づいて二次元静止画像における飽和限界の露光時間を算出する。露光時間調整工程は、露光時間算出工程において算出された露光時間に基づいて、露光時間を調整する。   An intraoral measurement method according to a third invention is the intraoral measurement method according to the first or second invention, and the exposure time control step includes a data separation step, an exposure time calculation step, and an exposure time adjustment step. And have. In the data separation step, signal data is separated from the video signal obtained in the imaging step. The exposure time calculation step calculates an exposure time at the saturation limit in the two-dimensional still image based on the signal data. The exposure time adjustment step adjusts the exposure time based on the exposure time calculated in the exposure time calculation step.

ここでは、データ分離工程で、撮像工程において得られる映像信号から信号データを分離し、露光時間算出工程で、信号データに基づいて二次元静止画像における飽和限界の露光時間を算出する。   Here, in the data separation step, signal data is separated from the video signal obtained in the imaging step, and in the exposure time calculation step, the saturation limit exposure time in the two-dimensional still image is calculated based on the signal data.

これにより、露光時間を算出に用いる信号データを抽出可能となるので、適切に露光時間を算出することができる。また、飽和限界の露光時間を算出することによって最もコントラストの高い状態を算出することが可能となる。   Thereby, signal data used for calculating the exposure time can be extracted, so that the exposure time can be calculated appropriately. It is also possible to calculate the state with the highest contrast by calculating the exposure time at the saturation limit.

第4の発明に係る口腔内測定方法は、第1から第3の発明のいずれか1つに係る口腔内測定方法であって、露光時間制御工程は、輝度情報に基づいて歯の領域および歯肉の領域の設定を行う。
ここでは、歯の領域と歯肉の領域との抽出にあたり輝度情報を使用している。
これにより、比較的に容易に歯の領域と歯肉の領域とを抽出することが可能になる。
An intraoral measurement method according to a fourth invention is the intraoral measurement method according to any one of the first to third inventions, wherein the exposure time control step is based on the luminance information and the tooth region and gingiva. Set the area.
Here, luminance information is used in extracting the tooth region and the gingival region.
This makes it possible to extract the tooth region and the gingival region relatively easily.

第5の発明に係る口腔内測定装置は、口腔内を測定対象とする口腔内測定装置であって、投光部と、撮像部と、露光時間制御部と、画像合成部と、三次元演算部とを備えている。投光部は、コード化された縞パターンを投影する。撮像部は、縞パターンが投影された領域を二次元静止画像として取り込む。露光時間制御部は、撮像部が二次元静止画像を最適に取り込めるように露光時間を制御する。画像合成部は、少なくとも2つの異なる露光時間によって取り込んだ二次元静止画像を合成して、合成二次元静止画像を生成する。三次元演算部は、合成二次元静止画像に基づいて口腔内の三次元座標を演算する。   An intraoral measurement apparatus according to a fifth invention is an intraoral measurement apparatus whose measurement target is the intraoral area, and includes a light projecting unit, an imaging unit, an exposure time control unit, an image synthesis unit, and a three-dimensional calculation Department. The light projecting unit projects the coded stripe pattern. The imaging unit captures a region on which the fringe pattern is projected as a two-dimensional still image. The exposure time control unit controls the exposure time so that the imaging unit can optimally capture a two-dimensional still image. The image synthesizing unit synthesizes the two-dimensional still images captured by at least two different exposure times to generate a synthesized two-dimensional still image. The three-dimensional calculation unit calculates three-dimensional coordinates in the oral cavity based on the synthesized two-dimensional still image.

ここでは、露光時間制御部が、撮像部が二次元静止画像を最適に取り込めるように露光時間を制御して、画像合成部が、少なくとも2つの異なる露光時間によって取り込まれた二次元静止画像を合成して、合成二次元静止画像を生成する。   Here, the exposure time control unit controls the exposure time so that the imaging unit can optimally capture the two-dimensional still image, and the image synthesis unit synthesizes the two-dimensional still image captured by at least two different exposure times. Then, a synthesized two-dimensional still image is generated.

従来より、光学三次元カメラおよびCAD/CAMシステムによって、口腔内形状を計測して、歯科用補綴物の形状を決定することが行われている。ところが、口腔内形状は、虫歯の状態や歯肉の組成の違いにより、各組織の表面反射率が異なるため、コントラストの小さな画像しか取り込むことができない。このため、正確な歯および歯肉の形状計測が困難である。   Conventionally, the shape of a dental prosthesis is determined by measuring the intraoral shape by an optical three-dimensional camera and a CAD / CAM system. However, the intraoral shape can only capture an image with a small contrast because the surface reflectance of each tissue differs depending on the state of the caries and the composition of the gingiva. For this reason, accurate tooth and gingival shape measurement is difficult.

そこで、本発明の口腔内測定装置においては、撮像部が二次元静止画像を最適に取り込めるように露光時間を制御する露光時間制御部と、少なくとも2つの異なる露光時間によって取り込んだ二次元静止画像を合成して、合成二次元静止画像を生成する画像合成部とを備えている。   Therefore, in the intraoral measurement apparatus of the present invention, an exposure time control unit that controls the exposure time so that the imaging unit can optimally capture a two-dimensional still image, and a two-dimensional still image captured by at least two different exposure times. And an image synthesis unit that synthesizes and generates a synthesized two-dimensional still image.

これにより、表面反射率の異なる領域を抽出し、その領域ごとに最適な露光時間で二次元静止画像を取り込むことができるので、対象となる領域についてコントラストの大きな二次元静止画像をそれぞれ取得することが可能となる。また、最適露光時間で取り込んだそれぞれの二次元静止画像を合成することによって、全ての領域についてコントラストが大きな合成二次元静止画像を取得することが可能となる。   This makes it possible to extract regions with different surface reflectivities and capture a two-dimensional still image with an optimal exposure time for each region. Is possible. Further, by synthesizing the respective two-dimensional still images captured with the optimum exposure time, it is possible to obtain a synthesized two-dimensional still image having a large contrast for all the regions.

この結果、コントラストよく撮像された合成二次元静止画像を使用して3次元座標を演算することができるので、パウダーを噴霧することなく、口腔内を正確に形状計測することが可能となる。   As a result, since a three-dimensional coordinate can be calculated using a synthesized two-dimensional still image imaged with good contrast, the shape of the oral cavity can be accurately measured without spraying powder.

第6の発明に係る口腔内測定装置は、第5の発明に係る口腔内測定装置であって、露光時間制御部は、口腔内における歯および歯肉のそれぞれの領域が撮像部によって最適に取り込まれるように露光時間を制御する。   An intraoral measurement device according to a sixth invention is the intraoral measurement device according to the fifth invention, wherein the exposure time control unit optimally captures each region of the teeth and gingiva in the oral cavity by the imaging unit. The exposure time is controlled as follows.

ここでは、口腔内における歯の領域と歯肉の領域とをそれぞれ抽出し、それぞれの領域が撮像部によって最適に取り込まれるように露光時間を制御する。
これにより、歯の領域および歯肉の領域のそれぞれについて最適な露光時間で二次元静止画像を取り込むことができるので、歯の領域についてコントラストの大きな二次元静止画像と、歯肉の領域についてコントラストの大きな二次元静止画像との2枚を取得することが可能となる。そして、上記2枚の二次元静止画像を合成することによって、歯の領域と歯肉の領域との両方の領域についてコントラストが大きな合成二次元静止画像を取得することが可能となる。
Here, a tooth region and a gingival region in the oral cavity are extracted, and the exposure time is controlled so that each region is optimally captured by the imaging unit.
As a result, a two-dimensional still image can be captured with an optimum exposure time for each of the tooth region and the gingival region. Therefore, a two-dimensional still image having a large contrast for the tooth region and a two-dimensional still image having a large contrast for the gingival region. It is possible to acquire two images with a three-dimensional still image. Then, by combining the two two-dimensional still images, it is possible to obtain a combined two-dimensional still image having a large contrast in both the tooth region and the gingival region.

第7の発明に係る口腔内測定装置は、第5または第6の発明に係る口腔内測定装置であって、露光時間制御部は、データ分離部と、露光時間算出部と、露光時間調整部とを有している。データ分離部は、撮像部において得られる映像信号から信号データを分離する。露光時間算出部は、信号データに基づいて二次元静止画像における飽和限界の露光時間を算出する。露光時間調整部は、露光時間算出部において算出された露光時間に基づいて、露光時間を調整する。   An intraoral measurement device according to a seventh invention is the intraoral measurement device according to the fifth or sixth invention, wherein the exposure time control unit is a data separation unit, an exposure time calculation unit, and an exposure time adjustment unit. And have. The data separation unit separates signal data from the video signal obtained in the imaging unit. The exposure time calculation unit calculates the exposure time at the saturation limit in the two-dimensional still image based on the signal data. The exposure time adjustment unit adjusts the exposure time based on the exposure time calculated by the exposure time calculation unit.

ここでは、データ分離部が、撮像部において得られる映像信号から信号データを分離し、露光時間算出部が、信号データに基づいて二次元静止画像における飽和限界の露光時間を算出する。   Here, the data separation unit separates the signal data from the video signal obtained in the imaging unit, and the exposure time calculation unit calculates the saturation limit exposure time in the two-dimensional still image based on the signal data.

これにより、露光時間を算出に用いる信号データを抽出可能となるので、適切に露光時間を算出することができる。また、飽和限界の露光時間を算出することによって最もコントラストの高い状態を算出することが可能となる。   Thereby, signal data used for calculating the exposure time can be extracted, so that the exposure time can be calculated appropriately. It is also possible to calculate the state with the highest contrast by calculating the exposure time at the saturation limit.

第8の発明に係る口腔内測定装置は、第5から第7の発明のいずれか1つに係る口腔内測定装置であって、露光時間制御部は、輝度情報に基づいて、歯の領域および歯肉の領域の設定を行う。   An intraoral measurement device according to an eighth invention is the intraoral measurement device according to any one of the fifth to seventh inventions, wherein the exposure time control unit is configured to determine a tooth region and a tooth area based on the luminance information. Set the gingival area.

ここでは、歯の領域と歯肉の領域との抽出にあたり輝度情報を使用している。
これにより、比較的に容易に歯の領域と歯肉の領域とを抽出することが可能になる。
Here, luminance information is used in extracting the tooth region and the gingival region.
This makes it possible to extract the tooth region and the gingival region relatively easily.

本発明に係る口腔内測定方法および口腔内測定装置によれば、コントラストよく撮像された合成二次元静止画像を使用して3次元座標を演算することができるので、口腔内を正確に形状計測することが可能となる。   According to the intraoral measurement method and the intraoral measurement device according to the present invention, since a three-dimensional coordinate can be calculated using a synthesized two-dimensional still image imaged with good contrast, the intraoral shape is accurately measured. It becomes possible.

以下、本発明の実施の形態について、図面を参照しながら説明する。   Hereinafter, embodiments of the present invention will be described with reference to the drawings.

[実施の形態1]
図1は、本発明の実施の形態1における、口腔内撮影および画像計測フロー図である。
図1において、口腔内にセットされた光学三次元カメラ(以下オーラルスキャナーと称する)は、口腔内撮影として、従来型のビデオシステムと類似の動作を行う(S01)。撮像フレーム内に、撮像レンズおよびセンサによって歯108および歯肉109が撮像され、その映像がディスプレイに表示される。これにより、標準のビデオ映像が得られる(S02)。このとき、オーラルスキャナーの撮像位置を歯108および歯肉109に正確にあわせるため、例えば、フレームや十字等のマーク等によって撮像位置を指定する等を行ってもよい。
[Embodiment 1]
FIG. 1 is an intraoral imaging and image measurement flowchart in the first embodiment of the present invention.
In FIG. 1, an optical three-dimensional camera (hereinafter referred to as an oral scanner) set in the oral cavity performs an operation similar to that of a conventional video system for intraoral imaging (S01). In the imaging frame, the teeth 108 and the gingiva 109 are imaged by the imaging lens and sensor, and the images are displayed on the display. Thereby, a standard video image is obtained (S02). At this time, in order to accurately match the imaging position of the oral scanner with the tooth 108 and the gingiva 109, for example, the imaging position may be designated by a mark such as a frame or a cross.

次に、縞パターン投影による三次元画像処理を高速高精度に実施する為に、イメージセンサーのシャッター速度等を調整して、歯108の領域、歯肉109の領域それぞれに対して最適な露光時間の設定を行なう(S03:露光時間制御工程)。なお、歯108および歯肉109の領域化とそれぞれの領域に対する最適な露光時間の条件の設定については後述する。   Next, in order to perform three-dimensional image processing by fringe pattern projection with high speed and high accuracy, the shutter speed of the image sensor is adjusted, and the optimal exposure time for each of the tooth 108 region and the gingival 109 region is adjusted. Setting is performed (S03: exposure time control step). Note that the region formation of the teeth 108 and the gums 109 and the setting of the optimum exposure time condition for each region will be described later.

次に、上記撮像走査段階で得られたビデオ画像に対して、歯108および歯肉109の画像が良好であるかを確認する(S04)。良好であれば、フットスイッチなどを用いて画像計測を行なう。   Next, it is confirmed whether or not the images of the teeth 108 and the gingiva 109 are good with respect to the video image obtained in the imaging scanning stage (S04). If it is satisfactory, image measurement is performed using a foot switch or the like.

画像計測では、三角測量法により、二次元静止画像を三次元静止画像に変換するための縞パターンを投影し、CCD等のイメージセンサーを用いて撮像し、画像データ(二次元静止画像)としてメモリに記録する(S05:投光工程、撮像工程)。このとき、縞パターンは、空間コード化法を用いるならば、図2に示すようなグレーコードと呼ばれるパターンを用いるのが好ましい。なお、通常のコードパターンでも計測精度として十分であるならば使用可能である。また、位相シフト法を用いるのであれば、正弦波状に変化する既知の濃淡パターンを用いるのが一般的である。   In image measurement, a triangulation method is used to project a fringe pattern for converting a two-dimensional still image into a three-dimensional still image, pick it up using an image sensor such as a CCD, and store it as image data (two-dimensional still image). (S05: Projection process, imaging process). At this time, the stripe pattern is preferably a pattern called a gray code as shown in FIG. 2 if a spatial encoding method is used. A normal code pattern can be used if the measurement accuracy is sufficient. If the phase shift method is used, it is common to use a known shading pattern that changes in a sine wave shape.

次に、メモリに記録された画像データの縞パターンのコントラストを改善する為、歯108および歯肉109の領域で、ノイズ除去、階調補正、ガンマ補正等の二次元画像処理を行う(S06)。   Next, in order to improve the contrast of the fringe pattern of the image data recorded in the memory, two-dimensional image processing such as noise removal, gradation correction, and gamma correction is performed in the areas of the teeth 108 and the gums 109 (S06).

続いて、歯の領域、歯肉の領域に対して、撮像画像のヒストグラムを参照しながら階調補正を行い、画像を合成する(S07:画像合成工程)。歯と歯肉の領域の画像合成手法については後述する。   Subsequently, tone correction is performed on the tooth region and the gingival region while referring to the histogram of the captured image, and the image is synthesized (S07: image synthesis step). A method for synthesizing the teeth and gingiva regions will be described later.

さらに、最終の三次元データ量を1/2〜1/10に間引いた画像データから三角測量にて低精度の三次元画像変換を行う(S08)。これにより、撮像された画像が良好であるかどうかを判定する(S09)。これは、得られた画像の良否判定の高速化をはかるものであり、高速化の必要がない場合は不要となる。   Further, low-accuracy three-dimensional image conversion is performed by triangulation from the image data obtained by thinning the final three-dimensional data amount to 1/2 to 1/10 (S08). Thereby, it is determined whether or not the captured image is good (S09). This is intended to speed up the pass / fail judgment of the obtained image, and is unnecessary when speeding up is not necessary.

最後に撮像された画像が良好であれば、三角測量法にて、高精度の三次元画像変換を行い、得られた三次元座標を点群データまたはSTL(Stereo Lithography)データとして、メモリに保存し、そのデータを用いて、ディスプレイ上に三次元座標を表示する(S10:三次元演算工程)。ここでは、代表的なデータ形式として、点群データまたはSTLデータを挙げているが、データ形式をこれに限定するものではない。   If the last captured image is good, highly accurate three-dimensional image conversion is performed by triangulation, and the obtained three-dimensional coordinates are stored in memory as point cloud data or STL (Stereo Lithography) data. Then, using the data, three-dimensional coordinates are displayed on the display (S10: three-dimensional calculation step). Here, point cloud data or STL data is cited as a representative data format, but the data format is not limited to this.

図3は、本発明の実施の形態1における、オーラルスキャナー(口腔内測定装置)1の構成概略図である。
オーラルスキャナー1は、図3に示すように、患者の口腔内に直接挿入する事が可能なように、内部構成物を格納する外装ケース101を備えている。外装ケース101内には、発光ダイオードLED、または、レーザーからなる光源(投光部)102が取り付けられた構成となっている。光源102からの光は、集光レンズ103を通過して、LCDシャッターなどで構成された縞パターンを生成するためのパターンマスク104に照射可能な構成をとっている。そして、ビームスプリッター105を通過した縞パターンは、絞り106と対物集光レンズ107とを介して、被測定物である歯108および歯肉109に投影される構成となっている。また、光源からの光束を、投影光経路と観察光経路とに分離する為、ビームスプリッター105を設けている。縞パターン光は、撮像レンズ110を介して、最終的にCCD等のイメージセンサー(撮像部)111によって受光される。入力されたデータは、転送ケーブル112を介してPC等の外部機器120に格納された画像処理部(画像合成部)113へデータ転送される構成としている。
FIG. 3 is a schematic configuration diagram of the oral scanner (oral cavity measuring device) 1 according to the first embodiment of the present invention.
As shown in FIG. 3, the oral scanner 1 includes an exterior case 101 that stores internal components so that the oral scanner 1 can be directly inserted into the oral cavity of a patient. A light source (light projecting unit) 102 made of a light emitting diode LED or a laser is attached in the exterior case 101. The light from the light source 102 passes through the condenser lens 103 and can irradiate the pattern mask 104 for generating a fringe pattern composed of an LCD shutter or the like. The fringe pattern that has passed through the beam splitter 105 is projected onto the tooth 108 and the gum 109 that are the objects to be measured via the aperture 106 and the objective condenser lens 107. In addition, a beam splitter 105 is provided to separate the light beam from the light source into the projection light path and the observation light path. The fringe pattern light is finally received by an image sensor (imaging unit) 111 such as a CCD through the imaging lens 110. The input data is transferred to the image processing unit (image combining unit) 113 stored in the external device 120 such as a PC via the transfer cable 112.

外部機器120には、画像処理部113の他、イメージセンサー111が口腔内の画像を取り込む際の露光時間を制御する露光時間制御部114と、画像処理部113により生成された撮像画像に基づいて三次元座標を演算する三次元演算部118とを備えている。露光時間制御部114は、さらに、データ分離部115と、露光時間算出部116と、露光時間調整部117とを有している。データ分離部115は、イメージセンサー111において得られる映像信号からL信号とS信号とに分離する。露光時間算出部116は、データ分離部115によって得られた信号画像を取り込む際の最適露光時間を算出する。露光時間調整部117は、露光時間算出部116において算出された最適露光時間に基づいてイメージセンサー111における露光時間を最適化する。   The external device 120 includes an image processing unit 113, an exposure time control unit 114 that controls an exposure time when the image sensor 111 captures an intraoral image, and a captured image generated by the image processing unit 113. And a three-dimensional calculation unit 118 that calculates three-dimensional coordinates. The exposure time control unit 114 further includes a data separation unit 115, an exposure time calculation unit 116, and an exposure time adjustment unit 117. The data separation unit 115 separates the video signal obtained by the image sensor 111 into an L signal and an S signal. The exposure time calculation unit 116 calculates the optimum exposure time when the signal image obtained by the data separation unit 115 is captured. The exposure time adjustment unit 117 optimizes the exposure time in the image sensor 111 based on the optimum exposure time calculated by the exposure time calculation unit 116.

なお、本実施形態においては、画像処理部113、露光時間制御部114、三次元演算部118が外部機器120に格納された例を挙げて説明したが、これらは、オーラルスキャナー1に内蔵されていてもよいし、無線LAN等によって接続されたサーバ等に格納されていてもよい。
画像処理部113、露光時間制御部114、三次元演算部118が行う詳細の処理内容については後段にて説明する。
In the present embodiment, the example in which the image processing unit 113, the exposure time control unit 114, and the three-dimensional calculation unit 118 are stored in the external device 120 has been described, but these are built in the oral scanner 1. Alternatively, it may be stored in a server connected by a wireless LAN or the like.
Details of processing performed by the image processing unit 113, the exposure time control unit 114, and the three-dimensional calculation unit 118 will be described later.

図4は、実施の形態1における、歯108および歯肉109の領域化とそれぞれの領域に対する露光時間の条件の設定についての処理フロー図である。   FIG. 4 is a process flow diagram regarding the region formation of the teeth 108 and the gingiva 109 and the setting of the exposure time condition for each region in the first embodiment.

露光時間の設定が開始されると(T01)、イメージセンサー111から口腔内の映像信号が画像処理部113へ取り込まれる(T02)。このとき、イメージセンサー111は、CCDの水平転送速度を通常の2倍の速度にして水平ライン毎に、露光時間が長時間の映像信号(L信号)および露光時間が短時間の映像信号(S信号)を交互に出力することにより、通常の撮像にて1フィールド分の映像を出力する期間内に、L信号およびS信号をそれぞれ1フィールド分出力している。   When the setting of the exposure time is started (T01), the intraoral video signal is taken into the image processing unit 113 from the image sensor 111 (T02). At this time, the image sensor 111 sets the horizontal transfer rate of the CCD to twice the normal speed, and for each horizontal line, the image signal (L signal) having a long exposure time and the video signal (S) having a short exposure time. By alternately outputting (signal), an L signal and an S signal are each output for one field within a period in which an image for one field is output in normal imaging.

次に、イメージセンサー111より出力された信号に対して、ノイズ除去等の前処理を施す(T03)。続いて、前処理された信号をアナログ信号からデジタル信号に変換する(T04)。次に、イメージセンサー111にて生成された映像信号においてL信号とS信号とを独立して取り扱うことが出来るように、イメージセンサー111にて連続的に生成されたL信号とS信号との時間軸を変換する(T05)。   Next, preprocessing such as noise removal is performed on the signal output from the image sensor 111 (T03). Subsequently, the preprocessed signal is converted from an analog signal to a digital signal (T04). Next, the time between the L signal and the S signal continuously generated by the image sensor 111 so that the L signal and the S signal can be handled independently in the video signal generated by the image sensor 111. The axis is converted (T05).

次に、L信号およびS信号をL信号画像およびS信号画像として画像処理部113内の記憶メモリに保存する(T06)。
続いて、L信号画像から歯108および歯肉109の領域設定に用いる情報を抽出する(T07)。領域設定情報としては、輝度信号でも良いし、特定の色信号でも良い。また、これらの輝度信号や色信号の最大値や最小値などを用いても良い。ここでは、最も一般的な、輝度値を領域設定に用いるものとして説明する。また、ここでは領域設定にはノイズの関係から露光時間が長時間であるL信号画像を用いているが、S信号画像を用いても良い。
Next, the L signal and the S signal are stored in the storage memory in the image processing unit 113 as an L signal image and an S signal image (T06).
Subsequently, information used for setting the regions of the teeth 108 and the gums 109 is extracted from the L signal image (T07). The area setting information may be a luminance signal or a specific color signal. Further, the maximum value or the minimum value of these luminance signals and color signals may be used. Here, a description will be given assuming that the most common luminance value is used for area setting. In this example, the L signal image having a long exposure time is used for region setting because of noise, but an S signal image may be used.

次に、領域設定の閾値を算出する(T08)。ここでは閾値として、抽出された輝度値から飽和していないデータの平均をとる。
次に、各画素の輝度値と、領域設定の閾値を比較する(T09)。輝度値が閾値未満であれば歯肉109の領域と設定し(T10)、閾値以上であれば歯108の領域と設定する(T11)。
Next, a threshold value for area setting is calculated (T08). Here, the average of the data which is not saturated from the extracted luminance value is taken as the threshold value.
Next, the brightness value of each pixel is compared with the threshold value for region setting (T09). If the luminance value is less than the threshold value, it is set as the region of the gum 109 (T10).

続いて、歯肉109の領域の露光時間を調整する(T12)。通常、歯肉109の領域は、歯108の領域に比べて暗いため、露光時間が長時間のL信号画像を露光時間調整に用いる。   Subsequently, the exposure time of the gum region 109 is adjusted (T12). Usually, since the region of the gingiva 109 is darker than the region of the tooth 108, an L signal image having a long exposure time is used for adjusting the exposure time.

次に、露光時間を変化させL信号画像を取り込む(T13)。L信号画像の歯肉109の領域の輝度レベルが飽和するまで露光時間を遅くし露光時間を最適化する(T14)。ここでは、輝度レベルが飽和していないことを前提に処理しているが、逆の場合は露光時間を速めながら調整する。   Next, the exposure time is changed to capture an L signal image (T13). The exposure time is delayed until the luminance level in the region of the gum 109 in the L signal image is saturated, and the exposure time is optimized (T14). Here, processing is performed on the assumption that the luminance level is not saturated, but in the opposite case, adjustment is performed while increasing the exposure time.

輝度レベルが飽和した段階で、露光時間を飽和する直前のレベルに戻し、歯肉109の領域の露光時間を確定する(T15)。同時に、歯肉109の領域露光時間(GT)を記録する(T16)。   When the brightness level is saturated, the exposure time is returned to the level immediately before saturation, and the exposure time of the region of the gum 109 is determined (T15). At the same time, the region exposure time (GT) of the gingiva 109 is recorded (T16).

同様に、歯108の領域における露光時間の調整および歯108の領域露光時間(DT)の記録を行なう(T17〜T21)。ただし、歯108の領域は、歯肉109の領域に比べて明るいため露光時間が短時間のS画像を露光時間調整に用いる。
以上、T01〜T22のフローを実施することによって、露光時間の設定が完了する(T22)。
Similarly, the adjustment of the exposure time in the area of the tooth 108 and the recording of the area exposure time (DT) of the tooth 108 are performed (T17 to T21). However, since the region of the tooth 108 is brighter than the region of the gingiva 109, an S image having a short exposure time is used for adjusting the exposure time.
As described above, the setting of the exposure time is completed by performing the flow from T01 to T22 (T22).

図5は、実施の形態1における、歯108の領域と歯肉109の領域との各画像の画像合成処理のフロー図である。   FIG. 5 is a flowchart of image composition processing of each image of the region of the tooth 108 and the region of the gingiva 109 in the first embodiment.

画像合成が開始されると(U01)、図4のフローで調整された露光時間GTおよびDTで撮影された、L信号およびS信号が画像処理部113へ取り込まれる(U02)。このときも、イメージセンサー111は、CCDの水平転送速度を通常の2倍の速度にして水平ライン毎にL信号およびS信号を交互に出力することにより、通常の撮像にて1フィールド分の映像を出力する期間内に、L信号およびS信号をそれぞれ1フィールド分出力する。次に、イメージセンサー111より出力された信号に対して、ノイズ除去等の前処理を施す(U03)。続いて、前処理された信号をアナログ信号からデジタル信号に変換する(U04)。次に、イメージセンサー111にて生成された映像信号をL信号とS信号を独立して取り扱うことが出来るように、イメージセンサー111にて連続的に生成されたL信号およびS信号の時間軸を変換する(U05)。   When image composition is started (U01), the L signal and the S signal photographed with the exposure times GT and DT adjusted in the flow of FIG. 4 are taken into the image processing unit 113 (U02). Also at this time, the image sensor 111 alternately outputs the L signal and the S signal for each horizontal line by setting the horizontal transfer speed of the CCD to twice the normal speed, so that an image for one field is obtained in normal imaging. The L signal and the S signal are each output for one field within the period for outputting. Next, preprocessing such as noise removal is performed on the signal output from the image sensor 111 (U03). Subsequently, the preprocessed signal is converted from an analog signal to a digital signal (U04). Next, the time axis of the L signal and the S signal continuously generated by the image sensor 111 is set so that the video signal generated by the image sensor 111 can be handled independently of the L signal and the S signal. Convert (U05).

次に、L信号およびS信号をL信号画像およびS信号画像として画像処理部113内の記憶メモリに保存する(U06)。L信号画像およびS信号画像は、歯108の領域と歯肉109の領域とに分割される(U07)。この情報を元に歯108および歯肉109の領域が設定される(U08、U09)。   Next, the L signal and the S signal are stored in the storage memory in the image processing unit 113 as an L signal image and an S signal image (U06). The L signal image and the S signal image are divided into a tooth 108 region and a gingival 109 region (U07). Based on this information, the regions of the teeth 108 and the gingiva 109 are set (U08, U09).

図6(a)〜図6(d)は実施の形態1における、歯108と歯肉109との領域分割(U07)を説明するための図である。図6(a)は、イメージセンサー111で撮像した歯108と歯肉109を示す図である。一般的に、歯108の領域は高輝度領域となり、歯肉109の領域は低輝度領域となる。図6(b)は、歯肉109の領域にあわせて調整した長時間の露光時間GTで取得したL信号画像の輝度値、図6(c)は、歯108の領域にあわせて調整した短時間の露光時間DTで取得したS信号画像の輝度値である。図6(b)および図6(c)は、共に、図6(a)に示す画像のAB線に対応する輝度値である。ここで、L信号画像の輝度値および閾値の比較を行い、輝度レベルが閾値未満であれば歯肉109の領域に、閾値以上であれば歯108の領域に領域分割され、歯108の領域信号(DA)と歯肉109の領域信号(GA)が付与(U08、U09)される。図6(d)では、歯108および歯肉109の領域に分割されている。   FIGS. 6A to 6D are diagrams for explaining region division (U07) between the tooth 108 and the gum 109 in the first embodiment. FIG. 6A is a diagram illustrating the teeth 108 and the gingiva 109 captured by the image sensor 111. Generally, the region of the tooth 108 is a high luminance region, and the region of the gingiva 109 is a low luminance region. FIG. 6B shows the luminance value of the L signal image acquired with the long exposure time GT adjusted according to the region of the gingiva 109, and FIG. 6C shows the short time adjusted according to the region of the tooth 108. Is the luminance value of the S signal image acquired at the exposure time DT. Both FIG. 6B and FIG. 6C are luminance values corresponding to the AB line of the image shown in FIG. Here, the luminance value of the L signal image and the threshold value are compared. If the luminance level is less than the threshold value, the region is divided into the region of the gingiva 109, and if the luminance level is equal to or greater than the threshold value, the region is divided into the tooth 108 region. DA) and the gingival 109 region signal (GA) are given (U08, U09). In FIG. 6 (d), it is divided into regions of teeth 108 and gingiva 109.

次に、図5に示すように、各領域において輝度のヒストグラムデータを取得する(U12、U13)。歯108の領域は、高輝度領域となっているためヒストグラムは、明るい部分に集中している。したがって、明るい部分を持ち上げるような階調補正を行なう(U14)。逆に、歯肉109の領域は、低輝度領域となっているためヒストグラムは、暗い部分に集中している。したがって、暗い部分を持ち上げるような階調補正を行なう(U15)。
最後に、領域信号DA、GAを用いて、階調補正された歯108の領域の画像(二次元静止画像)と歯肉109の領域の画像(二次元静止画像)とを合成する(U16)。
Next, as shown in FIG. 5, luminance histogram data is acquired in each region (U12, U13). Since the region of the tooth 108 is a high luminance region, the histogram is concentrated on a bright portion. Therefore, gradation correction is performed to lift a bright part (U14). On the contrary, since the region of the gingiva 109 is a low luminance region, the histogram is concentrated in a dark part. Therefore, gradation correction is performed so as to lift a dark part (U15).
Finally, using the region signals DA and GA, the tone-corrected tooth 108 region image (two-dimensional still image) and the gingival 109 region image (two-dimensional still image) are synthesized (U16).

図7(a)〜図7(c)は、通常の処理フローで撮像処理された画像と、本発明の実施の形態1の処理フローを用いて撮像処理された画像の比較図である。   FIG. 7A to FIG. 7C are comparison diagrams of an image captured by the normal processing flow and an image captured using the processing flow according to the first embodiment of the present invention.

図7(a)および図7(b)は、通常の処理フローで撮像処理された画像で露光時間が異なる。図7(c)は、本発明の実施の形態1の処理フローで撮像処理された画像(合成二次元静止画像)である。ここでは、測定対象として歯の模型を用いている。図7(a)〜図7(c)で明らかなように、歯108と歯肉109との両方の領域において、階調情報が保たれて撮像されている。   FIG. 7A and FIG. 7B have different exposure times for images captured in a normal processing flow. FIG. 7C is an image (combined two-dimensional still image) that has been imaged in the processing flow according to the first embodiment of the present invention. Here, a tooth model is used as a measurement target. As is apparent from FIGS. 7A to 7C, the gradation information is maintained and the image is taken in both the teeth 108 and the gingiva 109.

[実施の形態2]
図8は、実施の形態2における、歯108および歯肉109の領域化とそれぞれの領域に対する露光時間の条件設定についての処理フロー図である。実施の形態1との違いは、歯および歯肉を領域化する処理フローである。その他のフロー構成は、実施の形態1と同様であるためここではその説明を省略する。
実施の形態2における、歯および歯肉の領域化とそれぞれの領域に対する露光時間の条件設定についての処理フローでは、L信号画像の輝度成分の比較(V11)に、比較領域の輝度値を用いる点が実施の形態1との違いである。
[Embodiment 2]
FIG. 8 is a process flow diagram regarding the region formation of the teeth 108 and the gingiva 109 and the setting of the exposure time condition for each region in the second embodiment. The difference from the first embodiment is a processing flow for regionizing teeth and gums. Since the other flow configuration is the same as that of the first embodiment, the description thereof is omitted here.
In the processing flow regarding the region formation of teeth and gingiva and the setting of the exposure time condition for each region in the second embodiment, the luminance value of the comparison region is used for comparison of the luminance component of the L signal image (V11). This is a difference from the first embodiment.

以下、フローに従って説明する。
まず、露光時間の設定が開始されると(V01)、イメージセンサー111から口腔内映像信号が画像処理部113へ取り込まれる(V02)。このとき、イメージセンサー111の動作は、実施の形態1と同様である。
Hereinafter, it demonstrates according to a flow.
First, when the setting of the exposure time is started (V01), an intraoral video signal is taken into the image processing unit 113 from the image sensor 111 (V02). At this time, the operation of the image sensor 111 is the same as that of the first embodiment.

次に、イメージセンサー111より出力された信号に対して、ノイズ除去等の前処理を施す(V03)。続いて、前処理された信号をアナログ信号からデジタル信号に変換する(V04)。次に、イメージセンサー111にて生成された映像信号をL信号とS信号とを独立して取り扱うことが出来るように、イメージセンサー111にて連続的に生成されたL信号とS信号との時間軸を変換する(V05)。さらに、L信号およびS信号をL信号画像およびS信号画像として画像処理部113内の記憶メモリに保存する(V06)。   Next, preprocessing such as noise removal is performed on the signal output from the image sensor 111 (V03). Subsequently, the preprocessed signal is converted from an analog signal to a digital signal (V04). Next, the time between the L signal and the S signal continuously generated by the image sensor 111 so that the video signal generated by the image sensor 111 can be handled independently of the L signal and the S signal. The axis is converted (V05). Further, the L signal and the S signal are stored as an L signal image and an S signal image in the storage memory in the image processing unit 113 (V06).

続いて、L信号画像から歯108と歯肉109との領域設定に用いる輝度値を抽出する(V07)。次に、領域設定の閾値を算出する(V08)。ここでは、閾値として、抽出された輝度値から飽和していないデータの平均をとる。   Subsequently, a luminance value used for setting the region between the tooth 108 and the gum 109 is extracted from the L signal image (V07). Next, a threshold value for area setting is calculated (V08). Here, the average of the data which is not saturated from the extracted brightness | luminance value is taken as a threshold value.

次に、各画素の輝度値と、領域設定の閾値とを比較する比較領域枠を設定する(V09)。続いて、比較領域枠内で輝度値から飽和していないデータの平均(比較領域平均輝度値)をとる(V10)。   Next, a comparison area frame for comparing the luminance value of each pixel with the area setting threshold is set (V09). Subsequently, an average of the data that is not saturated within the comparison area frame (comparison area average luminance value) is taken (V10).

次に、比較領域平均輝度値と領域設定の閾値とを比較する(V11)。ここで、輝度値が閾値未満であれば歯肉109の領域と設定し(V12)、閾値以上であれば歯108の領域と設定する(V13)。   Next, the comparison area average luminance value is compared with the area setting threshold value (V11). Here, if the luminance value is less than the threshold value, the region of the gum 109 is set (V12). If the luminance value is equal to or greater than the threshold value, the region of the tooth 108 is set (V13).

続いて、歯肉109の領域の露光時間を調整する(V14)。通常、歯肉109の領域は、歯108の領域に比べて暗いため露光時間が長時間のL画像を露光時間調整に用いる。   Subsequently, the exposure time of the gum region 109 is adjusted (V14). Usually, since the region of the gingiva 109 is darker than the region of the tooth 108, an L image having a long exposure time is used for adjusting the exposure time.

次に、露光時間を変化させL信号画像を取り込む(V15)。そして、L信号画像の歯肉109の領域の輝度レベルが飽和するまで露光時間を遅くし、露光時間を最適化する(V16)。ここでは、輝度レベルが飽和していないことを前提に処理しているが、逆の場合は露光時間を速めながら調整する。   Next, the exposure time is changed to capture an L signal image (V15). Then, the exposure time is delayed until the luminance level of the region of the gum 109 in the L signal image is saturated, and the exposure time is optimized (V16). Here, processing is performed on the assumption that the luminance level is not saturated, but in the opposite case, adjustment is performed while increasing the exposure time.

次に、輝度レベルが飽和した段階で、露光時間を飽和する直前のレベルに戻し、歯肉109の領域の露光時間を確定する(V17)。同時に、歯肉109の領域露光時間(GV)を記録する(V18)。   Next, when the brightness level is saturated, the exposure time is returned to the level immediately before saturation, and the exposure time of the region of the gum 109 is determined (V17). At the same time, the region exposure time (GV) of the gingiva 109 is recorded (V18).

同様に、歯108の領域の露光時間を調整と歯108の領域露光時間(DV)の記録を行なう(V19〜V23)。ただし、歯108の領域は、歯肉109の領域に比べて明るいため、露光時間が短時間のS画像を露光時間調整に用いる。   Similarly, the exposure time of the area of the tooth 108 is adjusted and the area exposure time (DV) of the tooth 108 is recorded (V19 to V23). However, since the tooth 108 region is brighter than the gingival 109 region, an S image having a short exposure time is used for exposure time adjustment.

以上のV01〜V24のフローを実施することによって、露光時間の設定が完了する(V24)。
なお、実施の形態2を用いれば、露光時間の条件設定を高速化することが可能となる。
By performing the above flow of V01 to V24, the setting of the exposure time is completed (V24).
If the second embodiment is used, it is possible to speed up the exposure time condition setting.

口腔内測定方法および装置は、表面反射率の異なる歯および歯肉を正確に形状計測する効果を有し、その他表面反射率の異なる歯科用補綴物の適合性を患者の口腔内で直接計測する用途にも適用できる。   The intraoral measurement method and apparatus have an effect of accurately measuring teeth and gingiva having different surface reflectivities, and directly measuring the suitability of dental prostheses having different surface reflectivities in the patient's oral cavity. It can also be applied to.

本発明の実施の形態1における口腔内撮影および画像計測のフロー図。The flowchart of intraoral imaging | photography and image measurement in Embodiment 1 of this invention. 空間コード化法で用いられるグレイパターンの一例を示した図。The figure which showed an example of the gray pattern used by the space coding method. 本発明の実施の形態1におけるオーラルスキャナーの構成概略図。1 is a schematic configuration diagram of an oral scanner in Embodiment 1 of the present invention. 本発明の実施の形態1における最適な露光時間設定の処理フロー図。FIG. 5 is a processing flow diagram for setting an optimum exposure time according to the first embodiment of the present invention. 本発明の実施の形態1における歯の領域と歯肉の領域の各画像の画像合成処理のフロー図。The flowchart of the image composition process of each image of the tooth | gear area | region and gingiva area | region in Embodiment 1 of this invention. (a)〜(d)は、実施の形態1における歯および歯肉の領域分割の説明図。(A)-(d) is explanatory drawing of the area | region division of the tooth | gear and gingiva in Embodiment 1. FIG. 従来の撮像フロー(a),(b)と本発明の実施の形態1(c)における撮像フローとによって撮像処理された画像の比較図。The comparison figure of the image imaged by the conventional imaging flow (a), (b) and the imaging flow in Embodiment 1 (c) of this invention. 本発明の実施の形態2における最適な露光時間設定の処理フロー図。FIG. 10 is a process flow diagram for setting an optimum exposure time in Embodiment 2 of the present invention.

符号の説明Explanation of symbols

1 オーラルスキャナー(口腔内測定装置)
101 外装ケース
102 光源(投光部)
103 集光レンズ
104 パターンマスク
105 ビームスプリッター
106 絞り
107 対物集光レンズ
108 歯
109 歯肉
110 撮像レンズ
111 イメージセンサー(撮像部)
112 転送ケーブル
113 画像処理部(画像合成部)
114 露光時間制御部
115 データ分離部
116 露光時間算出部
117 露光時間調整部
118 三次元演算部
120 外部機器
1 Oral scanner (oral cavity measuring device)
101 exterior case 102 light source (light emitting part)
103 condensing lens 104 pattern mask 105 beam splitter 106 stop 107 objective condensing lens 108 tooth 109 gingiva 110 imaging lens 111 image sensor (imaging part)
112 Transfer cable 113 Image processing unit (image composition unit)
114 Exposure time control unit 115 Data separation unit 116 Exposure time calculation unit 117 Exposure time adjustment unit 118 Three-dimensional calculation unit 120 External device

Claims (8)

口腔内を測定対象とする口腔内測定方法であって、
コード化された縞パターンを投影する投光工程と、
前記縞パターンが投影された領域を二次元静止画像として取り込む撮像工程と、
前記撮像工程において前記二次元静止画像を最適に取り込めるように露光時間を制御する露光時間制御工程と、
少なくとも2つの異なる前記露光時間によって取り込んだ前記二次元静止画像を合成して、合成二次元静止画像を生成する画像合成工程と、
前記合成二次元静止画像に基づいて前記口腔内の三次元座標を演算する三次元演算工程と、
を備えている、口腔内測定方法。
An intraoral measurement method for measuring the intraoral area,
A light projecting process for projecting a coded fringe pattern;
An imaging step of capturing the area where the fringe pattern is projected as a two-dimensional still image;
An exposure time control step for controlling an exposure time so as to optimally capture the two-dimensional still image in the imaging step;
An image synthesis step of synthesizing the two-dimensional still image captured by at least two different exposure times to generate a synthesized two-dimensional still image;
A three-dimensional calculation step of calculating three-dimensional coordinates in the oral cavity based on the synthesized two-dimensional still image;
An intraoral measurement method comprising:
前記露光時間制御工程は、前記口腔内における歯および歯肉のそれぞれの領域が前記撮像工程によって最適に取り込まれるように前記露光時間を制御する、
請求項1に記載の口腔内測定方法。
The exposure time control step controls the exposure time so that each region of teeth and gingiva in the oral cavity is optimally captured by the imaging step,
The intraoral measurement method according to claim 1.
前記露光時間制御工程は、
前記撮像工程において得られる映像信号から信号データを分離するデータ分離工程と、
前記信号データに基づいて前記二次元静止画像における飽和限界の前記露光時間を算出する露光時間算出工程と、
前記露光時間算出工程において算出された前記露光時間に基づいて、前記露光時間を調整する露光時間調整工程と、
を有している、請求項1または2に記載の口腔内測定方法。
The exposure time control step includes
A data separation step of separating signal data from the video signal obtained in the imaging step;
An exposure time calculating step of calculating the exposure time at the saturation limit in the two-dimensional still image based on the signal data;
An exposure time adjustment step of adjusting the exposure time based on the exposure time calculated in the exposure time calculation step;
The intraoral measurement method according to claim 1 or 2, comprising:
前記露光時間制御工程は、輝度情報に基づいて前記歯の領域および前記歯肉の領域の設定を行う、
請求項1から3のいずれか1項に記載の口腔内測定方法。
The exposure time control step performs setting of the tooth region and the gingival region based on luminance information.
The intraoral measurement method according to any one of claims 1 to 3.
口腔内を測定対象とする口腔内測定装置であって、
コード化された縞パターンを投影する投光部と、
前記縞パターンが投影された領域を二次元静止画像として取り込む撮像部と、
前記撮像部が前記二次元静止画像を最適に取り込めるように露光時間を制御する露光時間制御部と、
少なくとも2つの異なる前記露光時間によって取り込んだ前記二次元静止画像を合成して、合成二次元静止画像を生成する画像合成部と、
前記合成二次元静止画像に基づいて前記口腔内の三次元座標を演算する三次元演算部と、
を備えている、口腔内測定装置。
An intraoral measurement device for measuring the intraoral area,
A light projecting unit that projects a coded stripe pattern;
An imaging unit that captures a region on which the stripe pattern is projected as a two-dimensional still image;
An exposure time control unit that controls an exposure time so that the imaging unit can optimally capture the two-dimensional still image;
An image synthesis unit that synthesizes the two-dimensional still image captured by at least two different exposure times to generate a synthesized two-dimensional still image;
A three-dimensional calculation unit that calculates three-dimensional coordinates in the oral cavity based on the synthesized two-dimensional still image;
An intraoral measuring device.
前記露光時間制御部は、前記口腔内における歯および歯肉のそれぞれの領域が前記撮像部によって最適に取り込まれるように前記露光時間を制御する、
請求項5に記載の口腔内測定装置。
The exposure time control unit controls the exposure time so that each region of teeth and gingiva in the oral cavity is optimally captured by the imaging unit,
The intraoral measurement apparatus according to claim 5.
前記露光時間制御部は、
前記撮像部において得られる映像信号から信号データを分離するデータ分離部と、
前記信号データに基づいて前記二次元静止画像における飽和限界の前記露光時間を算出する露光時間算出部と、
前記露光時間算出部において算出された前記露光時間に基づいて、前記露光時間を調整する露光時間調整部と、
を有している、請求項5または6に記載の口腔内測定装置。
The exposure time controller is
A data separation unit for separating signal data from a video signal obtained in the imaging unit;
An exposure time calculation unit that calculates the exposure time of the saturation limit in the two-dimensional still image based on the signal data;
An exposure time adjusting unit for adjusting the exposure time based on the exposure time calculated in the exposure time calculating unit;
The intraoral measuring device according to claim 5 or 6, wherein
前記露光時間制御部は、輝度情報を基に、前記歯の領域および前記歯肉の領域の設定を行う、
請求項5から7のいずれか1項に記載の口腔内測定装置。
The exposure time control unit performs setting of the tooth region and the gingival region based on luminance information.
The intraoral measurement device according to any one of claims 5 to 7.
JP2008004904A 2008-01-11 2008-01-11 Method and device for measuring inside of oral cavity Pending JP2009165558A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2008004904A JP2009165558A (en) 2008-01-11 2008-01-11 Method and device for measuring inside of oral cavity

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2008004904A JP2009165558A (en) 2008-01-11 2008-01-11 Method and device for measuring inside of oral cavity

Publications (1)

Publication Number Publication Date
JP2009165558A true JP2009165558A (en) 2009-07-30

Family

ID=40967453

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008004904A Pending JP2009165558A (en) 2008-01-11 2008-01-11 Method and device for measuring inside of oral cavity

Country Status (1)

Country Link
JP (1) JP2009165558A (en)

Cited By (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011220934A (en) * 2010-04-13 2011-11-04 Ckd Corp Three-dimensional measuring device and board inspection device
WO2012138627A3 (en) * 2011-04-07 2012-12-13 Dolphin Imaging Systems, Llc System and method for simulated linearization of curved surface
US8395242B2 (en) 2007-07-27 2013-03-12 Micron Technology, Inc. Semiconductor device having backside redistribution layers
US8417004B2 (en) 2011-04-07 2013-04-09 Dolphin Imaging Systems, Llc System and method for simulated linearization of curved surface
JP2013539996A (en) * 2010-09-08 2013-10-31 シロナ・デンタル・システムズ・ゲゼルシャフト・ミット・ベシュレンクテル・ハフツング Dental X-ray apparatus having an imaging unit for surface imaging and method for generating an X-ray image of a patient
US8650005B2 (en) 2011-04-07 2014-02-11 Dolphin Imaging Systems, Llc System and method for three-dimensional maxillofacial surgical simulation and planning
US8711178B2 (en) 2011-03-01 2014-04-29 Dolphin Imaging Systems, Llc System and method for generating profile morphing using cephalometric tracing data
JP2014115264A (en) * 2012-12-12 2014-06-26 Canon Inc Three-dimensional shape measuring device and control method therefor
JP2014534846A (en) * 2011-10-21 2014-12-25 コーニンクレッカ フィリップス エヌ ヴェ Method and apparatus for determining anatomic characteristics of a patient
JP2017003469A (en) * 2015-06-11 2017-01-05 キヤノン株式会社 Three-dimensional measurement device, three-dimensional measurement device control method and program
JP2017524428A (en) * 2015-04-22 2017-08-31 コリア フォトニクス テクノロジー インスティテュート Three-dimensional oral scanning device using a piezoelectric element-based pattern module and a variable focus lens
JP2019027947A (en) * 2017-07-31 2019-02-21 株式会社キーエンス Shape measuring device and shape measurement method
CN111712185A (en) * 2017-12-12 2020-09-25 皇家飞利浦有限公司 Method and system for improving motion robustness during local oral inflammation measurements
JP2021042977A (en) * 2019-09-06 2021-03-18 株式会社ミツトヨ Image measuring apparatus and image measuring method

Cited By (21)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8395242B2 (en) 2007-07-27 2013-03-12 Micron Technology, Inc. Semiconductor device having backside redistribution layers
US8963292B2 (en) 2007-07-27 2015-02-24 Micron Technology, Inc. Semiconductor device having backside redistribution layers and method for fabricating the same
JP2011220934A (en) * 2010-04-13 2011-11-04 Ckd Corp Three-dimensional measuring device and board inspection device
KR101830711B1 (en) * 2010-09-08 2018-02-21 시로나 덴탈 시스템스 게엠베하 Dental x-ray device with imaging unit for surface imaging, and method for generating an x-ray of a patient
JP2013539996A (en) * 2010-09-08 2013-10-31 シロナ・デンタル・システムズ・ゲゼルシャフト・ミット・ベシュレンクテル・ハフツング Dental X-ray apparatus having an imaging unit for surface imaging and method for generating an X-ray image of a patient
US8711178B2 (en) 2011-03-01 2014-04-29 Dolphin Imaging Systems, Llc System and method for generating profile morphing using cephalometric tracing data
US8650005B2 (en) 2011-04-07 2014-02-11 Dolphin Imaging Systems, Llc System and method for three-dimensional maxillofacial surgical simulation and planning
US8417004B2 (en) 2011-04-07 2013-04-09 Dolphin Imaging Systems, Llc System and method for simulated linearization of curved surface
WO2012138627A3 (en) * 2011-04-07 2012-12-13 Dolphin Imaging Systems, Llc System and method for simulated linearization of curved surface
JP2014534846A (en) * 2011-10-21 2014-12-25 コーニンクレッカ フィリップス エヌ ヴェ Method and apparatus for determining anatomic characteristics of a patient
US9538955B2 (en) 2011-10-21 2017-01-10 Koninklijke Philips N.V. Method and apparatus for determining anatomic properties of a patient
JP2014115264A (en) * 2012-12-12 2014-06-26 Canon Inc Three-dimensional shape measuring device and control method therefor
JP2017524428A (en) * 2015-04-22 2017-08-31 コリア フォトニクス テクノロジー インスティテュート Three-dimensional oral scanning device using a piezoelectric element-based pattern module and a variable focus lens
JP2017003469A (en) * 2015-06-11 2017-01-05 キヤノン株式会社 Three-dimensional measurement device, three-dimensional measurement device control method and program
US10378886B2 (en) 2015-06-11 2019-08-13 Canon Kabushiki Kaisha Three dimensional measurement apparatus, control method for three dimensional measurement apparatus, and storage medium
JP2019027947A (en) * 2017-07-31 2019-02-21 株式会社キーエンス Shape measuring device and shape measurement method
CN111712185A (en) * 2017-12-12 2020-09-25 皇家飞利浦有限公司 Method and system for improving motion robustness during local oral inflammation measurements
JP2021505308A (en) * 2017-12-12 2021-02-18 コーニンクレッカ フィリップス エヌ ヴェKoninklijke Philips N.V. Methods and systems for improved motor robustness during the measurement of localized oral inflammation
JP7219769B2 (en) 2017-12-12 2023-02-08 コーニンクレッカ フィリップス エヌ ヴェ Methods and systems for improved motion robustness during measurements of focal oral inflammation
JP2021042977A (en) * 2019-09-06 2021-03-18 株式会社ミツトヨ Image measuring apparatus and image measuring method
JP7303074B2 (en) 2019-09-06 2023-07-04 株式会社ミツトヨ Image measuring machine and image measuring method

Similar Documents

Publication Publication Date Title
JP2009165558A (en) Method and device for measuring inside of oral cavity
JP5276006B2 (en) Intraoral measurement device and intraoral measurement system
US11612326B2 (en) Estimating a surface texture of a tooth
US11163976B2 (en) Navigating among images of an object in 3D space
JP5433381B2 (en) Intraoral measurement device and intraoral measurement method
JP2022130677A (en) Dental mirror having integrated camera and applications thereof
US11083552B2 (en) Rendering of dental models
KR102330616B1 (en) Method for Guiding Dental Implant Surgery
JPS6323656A (en) Method and apparatus for determination of three-dimensional form and display of cavity
JP2014524795A (en) Three-dimensional measuring device used in the dental field
US20210338392A1 (en) Rendering a dental model in an image
KR20210120071A (en) Methods and systems for guiding intraoral scans
US20230240818A1 (en) Taking an optical impression of a patient&#39;s dental arch
KR102425719B1 (en) System and method for multiple scan of intraoral and impression
CN111931843A (en) Method for monitoring tooth position based on image processing
JP2005349176A (en) Jaw movement analyzing method and jaw movement analyzing system
EP4250248A1 (en) Identification apparatus, identification method, and identification program
CN110992464A (en) Rendering dental models
CN112423654A (en) Oral scanner and three-dimensional overlay image display method using same
JP7170892B2 (en) Combined oral and impression scanning system and method
KR102033426B1 (en) Intra-Oral Scanner
CN118055728A (en) Construction of textured 3D models of dental structures
CN112890765A (en) Intraoral three-dimensional scanning device and method
EP3629301A1 (en) Rendering a dental model in an image
JP2022508372A (en) Mixing method to acquire 3D data using an intraoral scanner