JP2007190370A - Image composing device, and method and program thereof - Google Patents
Image composing device, and method and program thereof Download PDFInfo
- Publication number
- JP2007190370A JP2007190370A JP2006341477A JP2006341477A JP2007190370A JP 2007190370 A JP2007190370 A JP 2007190370A JP 2006341477 A JP2006341477 A JP 2006341477A JP 2006341477 A JP2006341477 A JP 2006341477A JP 2007190370 A JP2007190370 A JP 2007190370A
- Authority
- JP
- Japan
- Prior art keywords
- image
- reference line
- measurement target
- composite
- captured
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Classifications
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/45—For evaluating or diagnosing the musculoskeletal system or teeth
- A61B5/4538—Evaluating a particular part of the muscoloskeletal system or a particular medical condition
- A61B5/4542—Evaluating the mouth, e.g. the jaw
- A61B5/4547—Evaluating teeth
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/74—Details of notification to user or communication with user or patient ; user input means
- A61B5/742—Details of notification to user or communication with user or patient ; user input means using visual displays
- A61B5/7425—Displaying combinations of multiple images regardless of image source, e.g. displaying a reference anatomical image with a live image
Abstract
Description
本発明は、複数の画像を合成する画像合成装置に係り、特に、歯や皮膚などの測色を行う測色装置に利用されるのに好適な画像合成装置および方法並びにプログラムに関するものである。 The present invention relates to an image synthesizing apparatus that synthesizes a plurality of images, and more particularly to an image synthesizing apparatus, method, and program suitable for use in a colorimetric apparatus that performs colorimetry such as teeth and skin.
近年、美容や健康に対する関心が高まっており、例えば、美容においては、皮膚のメラニン色素を抑制するホワイトニングが審美追求の一分野として流行の兆しを見せている。
従来における肌の診断には、肌の表面を拡大してモニタなどで観察することができるように構成された肌診断用カメラシステムが用いられており、例えば、皮膚科、エステティックサロン、美容カウンセリングなどで使用されている。これらのうちの例えば皮膚科の場合には、皮溝や皮丘の画像を観察することにより、皮膚表面の特徴を捉えて診断し、カウンセリング等が行われている。
In recent years, interest in beauty and health has increased. For example, in beauty, whitening that suppresses melanin pigments in the skin is showing a trend as a field of aesthetic pursuit.
Conventional skin diagnosis uses a camera system for skin diagnosis that is configured so that the surface of the skin can be enlarged and observed on a monitor, for example, dermatology, esthetic salon, beauty counseling, etc. Used in. Of these, for example, in the case of dermatology, by observing images of skin grooves and dermis, the characteristics of the skin surface are captured and diagnosed, and counseling is performed.
また、歯科の分野では、歯科治療において審美追求も加味した一つの手段としてセラミッククラウン法などによる治療が行われている。このセラミッククラウン法は、患者の元の歯の色に近い色のクラウン(セラミック製の歯冠補綴物)を作製し、このクラウンを患者の歯にかぶせることにより行われる。 In the field of dentistry, treatment by the ceramic crown method or the like is performed as one means in consideration of aesthetics in dental treatment. This ceramic crown method is performed by producing a crown (ceramic crown prosthesis) having a color close to the color of the original tooth of the patient and covering the crown of the patient with the crown.
従来、上記クラウンの作製は、以下のようにして行われている。
まず、歯科医院において、歯科医等により患者の口腔内の撮影が行われる。具体的には、複数の歯を含む口腔内全体の写真やクラウン作製の対象となる生活歯の歯面等の撮影が行われる。
続いて、歯科医は、色調の互いに異なる複数の歯の見本(以下「シェードガイド」という。)の中から患者の生活歯に最も近い色調のシェードガイドを選択する(以下、この作業を「シェードテイク」という。)。シェードガイドとは、例えば、互いに異なる発色のセラミックを歯の形状に加工したものである。
上記作業が終了すると、歯科医は、上述の撮影写真およびシェードテイクしたシェードガイドに割り当てられている固有の識別番号をクラウンの技工所に送付する。これにより、技工所では、これら情報に基づいてクラウンの作製が行われる。
Conventionally, the crown is manufactured as follows.
First, in a dental clinic, imaging of the patient's oral cavity is performed by a dentist or the like. Specifically, a photograph of the entire oral cavity including a plurality of teeth, a tooth surface of a living tooth to be crowned, and the like are taken.
Subsequently, the dentist selects a shade guide having a color tone closest to the patient's vital tooth from a plurality of tooth samples (hereinafter referred to as “shade guides”) having different color tones (hereinafter referred to as “shade”). "Take"). The shade guide is obtained by processing different colored ceramics into a tooth shape, for example.
When the above operation is completed, the dentist sends the above-mentioned photographed photograph and the unique identification number assigned to the shade-taken shade guide to the crown laboratory. Thereby, in the technical laboratory, the crown is manufactured based on these pieces of information.
しかしながら、上述したシェードテイクは、歯科医の主観により行われるため定量性に欠ける。更に、シェードガイドや患者の歯色は、歯茎の色合い、周辺の環境、照明状況(例えば、照明の当たり方、照明の色など)、医師の疲労度等の様々な要因によって見え方が変化するため、最適なシェードガイドを選択することは非常に難しく、医師への負担が大きいという欠点があった。 However, since the above-mentioned shade take is performed by the dentist's subjectivity, it lacks quantitativeness. Furthermore, the appearance of the shade guide and the color of the patient's teeth changes depending on various factors such as the color of the gums, the surrounding environment, lighting conditions (for example, lighting conditions, lighting colors, etc.), and the fatigue level of the doctor. For this reason, it is very difficult to select an optimum shade guide, and there is a drawback that a burden on a doctor is great.
そこで、上述した医師等の負担を軽減するべく、生活歯に色調が最も近似するシェードガイドを自動的に選択する等の機能を備えたシェードテイク等の作業支援装置が提案されている。 Therefore, in order to reduce the above-mentioned burden on the doctor or the like, a work support device such as a shade take has been proposed which has a function of automatically selecting a shade guide whose color tone is most similar to a living tooth.
例えば、特許第3710802号公報(以下「文献1」という。)には、予め複数の歯牙基準色の識別情報データとその歯牙基準色のL*a*b*表色系の色調情報データとが対応したデータテーブルをコンピュータに予め記憶させ、生活歯と歯牙基準色の色調を有する基準具(上述の「シェードガイド」に相当)とを同時に撮影した画像データを入力し、画像データ内で分析された基準具の歯牙基準色のL*a*b*表色系の色調情報データと、その歯牙基準色の識別情報データと一致したデータテーブルの歯牙基準色の色調情報データとを略一致させる色調補正値を算出して生活歯の色調を補正し、補正された生活歯の色調の色調情報データと一致又は近似した色調情報データの歯牙基準色の識別情報データをデータテーブルから抽出し出力する技術が開示されている。
しかしながら、上記特許文献1に開示されている発明では、両者の色調の比較結果等が数値で表現されているために、実際にどの程度の色差があるのかをユーザが感覚的に把握することが困難であった。
However, in the invention disclosed in the above-mentioned
本発明は、このような事情に鑑みてなされたものであって、生活歯等の測定対象の色調と、該測定対象と比較される比較対象の色調とを比較しやすい表示態様でユーザに提供することのできる画像合成装置およびその方法並びにプログラムを提供することを目的とする。 The present invention has been made in view of such circumstances, and provides a user with a display mode that makes it easy to compare the color tone of a measurement target such as a vital tooth and the color of a comparison target compared to the measurement target. An object of the present invention is to provide an image synthesizing apparatus, a method thereof, and a program.
上記課題を解決するために、本発明は以下の手段を採用する。
本発明は、測定対象が撮影された第1の撮像画像と該測定対象と比較する比較対象が撮影された第2の撮像画像とを合成して一枚の画像を作成する画像合成装置であって、前記第1の撮像画像から測定対象像を抽出するとともに、前記第2の撮像画像から比較対象像を抽出する像抽出手段と、前記測定対象像上および前記比較対象像上に合成基準線をそれぞれ設定する合成基準線設定手段と、前記測定対象像および前記比較対象像を前記合成基準線に沿って合成することにより、合成画像を作成する合成手段と、前記合成画像において、前記合成基準線における輪郭が一致しなかった場合に、前記輪郭が一致するように前記測定対象像および前記比較対象像の少なくともいずれか一方を補正する補正手段とを具備する画像合成装置を提供する。
In order to solve the above problems, the present invention employs the following means.
The present invention is an image composition device that synthesizes a first captured image in which a measurement target is photographed and a second captured image in which a comparison target to be compared with the measurement target is photographed to create a single image. And extracting a measurement target image from the first captured image and extracting a comparison target image from the second captured image; and a composite reference line on the measurement target image and the comparison target image Combining reference line setting means for setting each of the measurement target image and the comparison target image by combining the measurement target image and the comparison target image along the composite reference line, and the composite reference in the composite image Provided is an image synthesizing device including a correcting unit that corrects at least one of the measurement target image and the comparison target image so that the contours match when the contours in the line do not match.
このような構成によれば、測定対象像と比較対象像とを例えば、貼り合わせて1つの画像として表示するので、ユーザは貼り合わせの境界部分を視認することにより、両者の色調を直接的に比較することができる。これにより、ユーザは、微妙な色の違いも認識することが可能となる。また、この場合において、測定対象像および比較対象像の大きさが異なっており、合成手段により合成された合成画面において輪郭が一致していない場合であっても、補正手段により合成基準線における輪郭が一致するように補正がなされるため、自然な合成画像をユーザに提供することができる。
上記抽出手段における「抽出」は、測定対象像を第1の撮像画像から別個のものとして抽出する概念のほか、第1の撮像画像において測定対象像の輪郭を特定するという概念も含むものとし、比較対象像についても同様に解する。
上記「合成」の手法については特に限定されない。例えば、合成基準線にて切断した各画像片を貼り合わせて合成する手法や、各画像に設定された合成基準線が一致するように各画像を互いに重ね合わせ、合成基準線を境界として互いの透過率を異ならせることにより画像の合成を行う手法を採用することが可能である。
According to such a configuration, for example, the measurement target image and the comparison target image are bonded and displayed as one image, so that the user can directly change the color tone of both by visually recognizing the boundary portion of the bonding. Can be compared. Thereby, the user can recognize a subtle color difference. In this case, even when the sizes of the measurement target image and the comparison target image are different and the contours do not match on the composite screen synthesized by the synthesis unit, the contour on the synthesis reference line is corrected by the correction unit. Are corrected so as to match, a natural composite image can be provided to the user.
The “extraction” in the extraction means includes not only the concept of extracting the measurement target image separately from the first captured image but also the concept of specifying the contour of the measurement target image in the first captured image. The same applies to the target image.
The “synthesis” technique is not particularly limited. For example, a method of pasting and synthesizing each image piece cut at the composite reference line, or overlapping each other so that the composite reference line set for each image matches, and using the composite reference line as a boundary, It is possible to employ a method of synthesizing images by changing the transmittance.
上記測定対象は、互いに異なる色調で表現された複数の色見本が予め容易されており、これらの色見本と色調を比較することを要する物体をいう。測定対象は、例えば、生活歯、皮膚などの人体の一部のほか、カーテン、カーペットなどのインテリア、バック、ソファ等の革製品、電子部品、塗装が施されている車、壁等である。 The measurement object refers to an object for which a plurality of color samples expressed in different color tones are easily prepared in advance, and it is necessary to compare the color tones with these color samples. The measurement object is, for example, a part of the human body such as living teeth and skin, interiors such as curtains and carpets, leather products such as bags and sofas, electronic parts, painted cars, walls, and the like.
上記画像合成装置において、前記合成基準線設定手段が、前記測定対象像の重心を通る線を前記合成基準線として前記測定対象像上に設定し、前記比較対象像の重心を通る線を前記合成基準線として前記比較対象像上に設定することとしてもよい。 In the image composition device, the composition reference line setting unit sets a line passing through the center of gravity of the measurement target image as the composition reference line on the measurement target image, and a line passing through the center of gravity of the comparison target image The reference line may be set on the comparison target image.
このような構成によれば、測定対象像および比較対象像において、各々の重心を通る線が合成基準線としてそれぞれ設定されるので、合成画像における両者の面積比を略同一に保つことが可能となり、バランスのとれた合成画像を提供することができる。 According to such a configuration, in the measurement target image and the comparison target image, since the lines passing through the respective centroids are set as the composite reference lines, it is possible to keep the area ratio of both in the composite image substantially the same. A balanced composite image can be provided.
上記画像合成装置において、前記合成基準線設定手段が、前記測定対象像の縦軸方向の長さが最大となる箇所に、前記縦軸方向に沿って前記合成基準線を前記測定対象像上に設定し、前記比較対象像の縦軸方向の長さが最大となる箇所に、前記縦軸方向に沿って前記合成基準線を前記比較対象像上に設定することとしてもよい。 In the image composition device, the composition reference line setting means places the composition reference line on the measurement target image along the vertical axis direction at a position where the length of the measurement target image in the vertical axis direction is maximum. It is good also as setting the said synthetic | combination reference line on the said comparison object image along the said vertical axis direction in the location where the length of the vertical axis direction of the said comparison object image becomes the maximum.
このような構成によれば、測定対象像および比較対象像において、縦軸方向の長さが最大となる箇所に、縦軸方向に沿って合成基準線がそれぞれ設定されるので、後述する合成基準線変更手段により合成基準線が変更された場合でも、この変更に容易に追従することができ、速やかに変更後の合成画像を作成することが可能となる。 According to such a configuration, in the measurement target image and the comparison target image, since the composite reference line is set along the vertical axis direction at the position where the length in the vertical axis direction is maximum, the composite standard described later Even when the composite reference line is changed by the line changing means, it is possible to easily follow this change, and it is possible to quickly create a composite image after the change.
上記画像合成装置は、前記合成画像において前記合成基準線を外部から変更する合成基準線変更手段を更に備えていてもよい。 The image synthesizing apparatus may further include synthesis reference line changing means for changing the synthesis reference line from the outside in the synthesized image.
このような構成によれば、ユーザは所望の位置に合成基準線を移動させることができるので、合成画像における測定対象像と比較対象像との面積比を変更することができるとともに、色調比較を行う箇所を自由に変更することができる。
また、合成基準線変更手段により合成基準線が変更された場合には、変更後における合成基準線をそのまま用いるのではなく、ユーザによって移動された合成基準線に基づいて測定対象像上および比較対象像上に合成基準線を再設定することにより、全体のバランスを考慮した、適切な箇所に合成基準線を設定することができる。この結果、変更後における合成画像の両者の面積比率を好適な値に保つことができるとともに、輪郭の歪みを少なくすることが可能となる。
According to such a configuration, the user can move the composite reference line to a desired position, so that the area ratio between the measurement target image and the comparison target image in the composite image can be changed, and the color tone comparison can be performed. You can freely change the place to do.
Further, when the composite reference line is changed by the composite reference line changing means, the composite reference line after the change is not used as it is, but on the measurement target image and the comparison target based on the composite reference line moved by the user. By resetting the composite reference line on the image, it is possible to set the composite reference line at an appropriate location in consideration of the overall balance. As a result, it is possible to keep the area ratio of both of the composite images after the change at a suitable value and reduce the distortion of the contour.
上記画像合成装置において、前記補正手段が、前記測定対象像および前記比較対象像の少なくともいずれか一方を縮小または拡大することとしてもよい。 In the image composition apparatus, the correction unit may reduce or enlarge at least one of the measurement target image and the comparison target image.
このような構成によれば、容易な補正処理により、合成画像における輪郭を一致させることが可能となる。 According to such a configuration, it is possible to match the contours in the composite image by an easy correction process.
上記画像合成装置において、例えば、前記測定対象は生活歯であり、前記比較対象は前記シェードガイドである。 In the image composition device, for example, the measurement target is a vital tooth, and the comparison target is the shade guide.
上記画像合成装置は、特に、歯科用測色装置に用いられて好適なものである。
具体的には、本発明は、上記画像合成装置と、前記測定対象像において、前記合成基準線近傍の測色値を演算する測色値演算手段と、前記測定対象像の前記合成基準線近傍の測色値と前記比較対象像の前記合成基準線近傍の測色値との差分を算出する差分算出手段と、前記測定対象像の前記合成基準線近傍の前記測色値、前記比較対象像の前記合成基準線近傍の前記測色値、および前記測色値の差分の少なくともいずれか1つを前記合成画像と同一画面に表示する表示制御手段とを具備する歯科用測色装置を提供する。
The image composition device is particularly suitable for use in a dental colorimetry device.
Specifically, the present invention provides the image synthesizing apparatus, a colorimetric value calculation means for calculating a colorimetric value near the synthetic reference line in the measurement target image, and the synthetic reference line vicinity of the measurement target image. A difference calculating unit that calculates a difference between the colorimetric value of the comparison target image and the colorimetric value of the comparison target image in the vicinity of the composite reference line, the colorimetric value of the measurement target image in the vicinity of the composite reference line, and the comparison target image There is provided a dental colorimetric device comprising display control means for displaying at least one of the colorimetric value in the vicinity of the composite reference line and the difference between the colorimetric values on the same screen as the composite image. .
本発明は、口腔内を撮像する撮像装置と、前記撮像装置にて測定対象が撮影された第1の撮像画像と該測定対象と比較する比較対象が撮影された第2撮像画像とを合成して一枚の画像を作成する画像合成装置を有する歯科用測色装置とを備え、前記画像合成装置は、前記第1の撮像画像から測定対象像を抽出するとともに、前記第2の撮像画像から比較対象像を抽出する像抽出手段と、前記測定対象像上および前記比較対象像上に合成基準線をそれぞれ設定する合成基準線設定手段と、前記測定対象像および前記比較対象像を前記合成基準線に沿って合成することにより、合成画像を作成する合成手段と、前記合成画像において、前記合成基準線における輪郭が一致しなかった場合に、前記輪郭が一致するように前記測定対象像および前記比較対象像の少なくともいずれか一方を補正する補正手段と
を具備する歯科用測色システムを提供する。
The present invention combines an imaging device that captures an intraoral area, a first captured image in which a measurement target is captured by the imaging device, and a second captured image in which a comparison target to be compared with the measurement target is captured. A dental colorimetric device having an image composition device for creating a single image, wherein the image composition device extracts a measurement target image from the first captured image and from the second captured image. Image extraction means for extracting a comparison target image; synthesis reference line setting means for setting a synthesis reference line on the measurement target image and the comparison target image; and the measurement target image and the comparison target image as the synthesis reference A synthesis unit that creates a synthesized image by synthesizing along the line; and in the synthesized image, when the contour in the synthesized reference line does not match, the measurement object image and the ratio To provide a dental colorimetry system comprising correction means for correcting at least one of the target image.
本発明は、測定対象が撮影された第1の撮像画像と該測定対象と比較する比較対象が撮影された第2の撮像画像とを合成して一枚の画像を作成する画像作成方法であって、前記第1の撮像画像から測定対象像を抽出するとともに、前記第2の撮像画像から比較対象像を抽出する像抽出過程と、前記測定対象像上および前記比較対象像上に合成基準線をそれぞれ設定する合成基準線設定過程と、前記測定対象像および前記比較対象像を前記合成基準線に沿って合成することにより、合成画像を作成する合成過程と、前記合成画像において、前記合成基準線における輪郭が一致しなかった場合に、前記輪郭が一致するように前記測定対象像および前記比較対象像の少なくともいずれか一方を補正する補正過程とを具備する画像合成方法を提供する。 The present invention is an image creation method for creating a single image by combining a first captured image in which a measurement target is captured and a second captured image in which a comparison target to be compared with the measurement target is captured. And extracting a measurement target image from the first captured image and extracting a comparison target image from the second captured image, and a composite reference line on the measurement target image and the comparison target image. A synthesis reference line setting process, a synthesis process for creating a synthesized image by synthesizing the measurement target image and the comparison target image along the synthesis reference line, and the synthesis reference in the synthesized image. Provided is an image composition method including a correction process for correcting at least one of the measurement target image and the comparison target image so that the contours match when the contours in the line do not match.
本発明は、測定対象が撮影された第1の撮像画像と該測定対象と比較する比較対象が撮影された第2の撮像画像とを合成して一枚の画像を作成するための画像作成プログラムであって、前記第1の撮像画像から測定対象像を抽出するとともに、前記第2の撮像画像から比較対象像を抽出する像抽出処理と、前記測定対象像上および前記比較対象像上に合成基準線をそれぞれ設定する合成基準線設定処理と、前記測定対象像および前記比較対象像を前記合成基準線に沿って合成することにより、合成画像を作成する合成処理と、前記合成画像において、前記合成基準線における輪郭が一致しなかった場合に、前記輪郭が一致するように前記測定対象像および前記比較対象像の少なくともいずれか一方を補正する補正処理とをコンピュータに実行させるための画像合成プログラムを提供する。 The present invention relates to an image creation program for synthesizing a first captured image in which a measurement object is photographed and a second captured image in which a comparison object to be compared with the measurement object is photographed to create a single image. An image extraction process for extracting a measurement target image from the first captured image and extracting a comparison target image from the second captured image, and combining the image on the measurement target image and the comparison target image In the combined image, a combined reference line setting process for setting a reference line, a combined process for creating a combined image by combining the measurement target image and the comparison target image along the combined reference line, and the combined image, When the contours on the composite reference line do not match, the computer executes correction processing for correcting at least one of the measurement target image and the comparison target image so that the contours match To provide an image synthesizing program for causing.
本発明によれば、生活歯等の測定対象の色調と、該測定対象と比較される比較対象の色調とを比較しやすい表示態様でユーザに提供することができるという効果を奏する。 According to the present invention, it is possible to provide a user with a display mode in which the color tone of a measurement target such as a vital tooth and the color tone of a comparison target compared with the measurement target can be easily compared.
以下、本発明の画像合成装置を歯科用測色システムに適用した場合の実施形態について、図面を参照して説明する。
本発明の一実施形態に係る歯科用測色システムは、図1及び図4に示すように、撮像装置1、クレードル2、歯科用測色装置3、及び表示装置4を備えて構成されている。
Hereinafter, an embodiment in which the image composition device of the present invention is applied to a dental color measurement system will be described with reference to the drawings.
As shown in FIGS. 1 and 4, the dental color measurement system according to an embodiment of the present invention includes an
撮影装置1は、図1に示すように光源10、撮像部20、撮像制御部30、表示部40、操作部50を主な構成要素として備えている。
光源10は、撮影装置1の先端部付近に配置され、被写体を照明するための互いに異なる4つ以上の波長帯域を有する照明光を発する。具体的には、光源10は、互いに異なる波長帯域の光を発する7つの光源10a乃至10gを備えている。各光源10a乃至10gは、それぞれ4つのLEDを備えており、その中心波長は図2に示すように、光源10aは約450nm、光源10bは約465nm、光源10cは約505nm、光源10dは約525nm、光源10eは約575nm、光源10fは約605nm、光源10gは約630nmとなっている。このLEDの発光スペクトル情報は、LEDメモリ11に記憶され、後述する歯科用測色装置3にて用いられる。
The
The
これら光源10a乃至10gは、例えば、リング状に配置されている。配列は、特に限定されず、例えば、波長の短い順にLEDを4つずつ配置してもよいし、逆順或いはランダム配置等でもよい。また、全てのLEDで1つのリングを形成するような配置のほか、LEDを複数のグループに分け、これら1つのグループで1つのリングを形成するように配置してもよい。なお、LEDの配置は、上記リング状に限られず、後述する撮像部20による撮像に支障をきたすことのない限りは、十字状配置、矩形状配置、ランダム配置等の適宜の配置を採用することが可能である。なお、光源10の発光素子としては、LEDに限られず、例えば、LD(レーザダイオード)等の半導体レーザやその他の発光素子を用いることも可能である。
These light sources 10a to 10g are arranged in a ring shape, for example. The arrangement is not particularly limited, and for example, four LEDs may be arranged in the order of shorter wavelengths, or may be arranged in reverse order or at random. Further, in addition to the arrangement in which all the LEDs form one ring, the LEDs may be divided into a plurality of groups, and these one group may be arranged to form one ring. The arrangement of the LEDs is not limited to the ring shape, and an appropriate arrangement such as a cross arrangement, a rectangular arrangement, a random arrangement, or the like may be adopted as long as it does not hinder imaging by the imaging unit 20 described later. Is possible. The light emitting element of the
撮像装置1において、上記光源10の被写体側には、光源10からの照明光を略均一に被写体面に照射するための照明光学系が設けられている。また、上記光源10の近傍には、LEDの温度を検出する温度センサ13が設けられている。
In the
撮像部20は、撮像レンズ21、RGBカラー撮像素子22、信号処理部23、AD変換器24を備えて構成されている。撮像レンズ21は、光源10が照射された被写体像を結像する。RGBカラー撮像素子22は、撮像レンズ21により結像された被写体像を撮像して画像信号を出力する。このRGBカラー撮像素子22は、例えば、CCDにより構成されており、そのセンサ感度は、可視広域を略カバーするようなものとなっている。このCCDは、モノクロタイプの物でもよいし、カラータイプのものでもよい。また、RGBカラー撮像素子22は、CCDに限られず、CMOSタイプやその他の各種の撮像素子を広く使用することが可能である。
The imaging unit 20 includes an
信号処理部23は、RGBカラー撮像素子22から出力されるアナログ信号に、ゲイン補正やオフセット補正等を施す。A/D変換器24は、信号処理部23から出力されるアナログ信号をデジタル信号に変換する。上記撮像レンズ21には、フォーカスを調整するフォーカスレバー25が接続されている。このフォーカスレバー25は、マニュアルにてフォーカスを調整するためのものであり、フォーカスレバー25の位置を検出するための位置検出部26が設けられている。
The
撮像制御部30は、CPU31、LEDドライバ32、データI/F33、通信I/Fコントローラ34、画像メモリ35、及び操作部I/F36を備えて構成されている。これら各部は、ローカルバス37に接続されており、ローカルバス37を介してデータの授受が可能な構成となっている。
The
CPU31は、撮像部20の制御を行うとともに、撮像部20により取得され処理された被写体分光画像をローカルバス37を介して画像メモリ35に記録するとともに、後述するLCDコントローラ41に出力する。LEDドライバ32は、光源10が備える各種LEDの発光を制御する。データI/F33は、光源10が備えるLEDメモリ11の内容や温度センサ13の情報を受信するためのインターフェースである。通信I/Fコントローラ34は、外部との接続点となる通信I/F接点61と接続されており、例えば、USB2.0に準拠した通信を実現させるための機能を備えている。操作部I/F36は、後述する操作部50が備える各種操作ボタンと接続されており、操作部50を介して入力された入力指示をローカルバス37を介してCPU31へ転送するインターフェースとして機能する。画像メモリ35は、撮像部20にて撮影された画像データを一時的に記録する。本実施形態では、画像メモリ35は、最低でも7枚の分光画像と一枚のRGBカラー画像を記録できるメモリ容量を有している。
The
表示部40は、LCDコントローラ41とLCD42とを備えて構成されている。LCDコントローラ41は、CPU31から転送されてくる画像信号に基づく画像、例えば、現在、撮像部20により撮影されている画像、或いは、撮影済みの画像をLCD(liquid crystal display)42に表示させる。このとき、必要に応じて、オーバーレイメモリ43に記憶されている画像パターンをCPU31から取得した画像に重畳させてLCD42に表示させるようにしてもよい。ここで、オーバーレイメモリ43に記録されている画像パターンとは、例えば、歯全体を水平に撮影するような水平ラインや、これに交差するクロスライン、撮影モード、撮影する歯の識別番号等である。
The
操作部50は、ユーザが分光画像撮影動作の開始を指示入力したり、動画像撮影動作の開始や終了を指示入力したりするための各種の操作スイッチや操作ボタンを備えている。具体的には、撮影モード切替スイッチ51、シャッタボタン52、ビューア制御ボタン53等を備えている。撮影モード切替スイッチ51は、通常のRGBの撮影と、マルチバンドの撮影とを切り替えるためのスイッチである。ビューア制御ボタン53は、LCD42に表示される画像の変更等の操作をするためのスイッチである。
The
また、撮像装置1は、蓄電池としてのリチウムバッテリ60を搭載している。このリチウムバッテリ60は、撮像装置1が備える各部に電源供給を行うためのものであり、充電のための接点である接続接点62に接続されている。また、このリチウムバッテリの充電状態を通知するためのバッテリLED63が設けられている。また、撮像装置1には、カメラの状態を知らせるためのパワーLED64、撮影時の危険を知らせるためのアラームブザー65が設けられている。
Moreover, the
バッテリLED63は、例えば、赤、黄、緑の3つのLEDを備えており、緑色点灯によりリチウムバッテリ60の充電容量が十分である旨を通知し、黄色点灯によりバッテリ容量が少ない旨、換言すると、充電の必要がある旨を通知し、赤色点灯によりバッテリ容量が極めて少ない旨、換言すると、至急充電の必要がある旨を通知する。
パワーLED64は、例えば、赤と緑とからなる2つのLEDを備えており、緑色点灯により撮影準備が完了した旨を通知し、緑色点滅により撮影準備中(初期ウォーミング等)である旨を通知し、赤色点灯によりバッテリ充電中である旨を通知する。
アラームブザー65は、警鐘することにより撮影した画像データが無効である旨を通知する。
The
The
The alarm buzzer 65 notifies that the captured image data is invalid by warning.
上述の撮像装置1を支持するクレードル2は、撮像部20のキャリブレーションを行うための色票100と、撮像装置1が正常な位置に装着されたか否かを確認するためのマイクロスイッチ101と、電源のオン/オフを行うための電源スイッチ102、電源スイッチ102のオン/オフに連動して点灯/消灯する電源ランプ103、マイクロスイッチ101に連動して点灯/消灯することにより、撮像装置1が正常位置に装着されたか否かを通知する装着ランプ104を備えている。
The
装着ランプ104は、例えば、撮像装置1が正常位置に装着された場合には、緑色が点灯し、装着されていない場合には、赤色が点灯する。また、このクレードル2には、電源接続コネクタ105が設けられており、ACアダプタ106が接続されるようになっている。そして、撮像装置1が備えるリチウムバッテリ60の充電容量が減少し、バッテリLED63の黄色や赤が点灯している状態では、撮像装置1がクレードルに装着された場合にリチウムバッテリの充電が開始されるように構成されている。
For example, when the
このように構成された歯科用測色システムの撮像装置1では、7種類の波長帯域の照明光(7原色の照明光)を被写体に順次照射して、7枚の被写体分光画像を静止画として取り込むマルチバンド撮像のほかに、RGB画像の取り込みも可能である。RGB画像の取り込みの方法の一つとしては、通常のデジタルカメラと同様に、7原色の照明光はなしで、自然光、あるいは室内光により照明された被写体を本装置が有するRGBカラーCCDを利用して撮像を行うものである。また、7原色の照明光から1以上の照明光を各選択してRGBの3色の照明光とし、これらを順次に照射することにより面順次式の静止画としても取り込むこともできるようになっている。
In the
これら撮影モードのうち、RGB撮像は、患者の顔全体を撮影する場合、顎全体を撮影する場合など、広域の部位を撮影する場合に用いられる。一方、マルチバンド撮影は、患者の歯1〜2本の色を正確に計測する場合、つまり歯の測色を行う場合に用いられる。
以下、本発明の特徴部分であるマルチバンド撮影による歯の測色処理について説明する。
Among these imaging modes, RGB imaging is used when imaging a wide area, such as when imaging the entire patient's face or when imaging the entire jaw. On the other hand, multiband imaging is used when measuring the color of one or two teeth of a patient accurately, that is, when measuring the color of teeth.
Hereinafter, the color measurement processing of teeth by multiband imaging, which is a characteristic part of the present invention, will be described.
〔マルチバンド撮影〕
まず、医師により撮像装置がクレードル2から持ち上げられ、撮像装置の筐体の投射口側に設けられている取り付け口(図示略)にコンタクトキャップが取り付けられる。このコンタクトキャップは、柔軟性を有する素材により略筒状に形成されている。
[Multiband shooting]
First, the imaging device is lifted from the
続いて、医師により撮影モードが「測色モード」に設定されると、被写体像が動画としてLCD42に表示される。医師は、このLCD42に表示される画像を確認しながら、測定対象となる患者の生活歯が撮影範囲の適切な位置に配置されるように位置決めを行い、フォーカスレバー25を用いてピント調整を行う。このとき、コンタクトキャップが、測定対象である生活歯を適切な撮影位置に導くような形状に形成されていることにより、位置決めを容易に行うことが可能となる。
Subsequently, when the photographing mode is set to the “colorimetry mode” by the doctor, the subject image is displayed on the
位置決め、ピント調整がなされた状態で、医師によりシャッタボタン52が押下されると、その旨の信号が操作部I/F36を介してCPU31へ転送され、CPU31の制御の下、マルチバンド撮影が実行される。
When the doctor presses the
マルチバンド撮影では、LEDドライバ32が光源10a乃至10gを順次駆動することにより、波長帯域の異なるLED照射光が被写体に順次照射される。被写体の反射光は、撮像部20のRGB撮像素子22の表面に結像され、RGB画像として取り込まれる。取り込まれたRGB画像は、信号処理部23に転送される。信号処理部23は、入力されたRGB画像信号に対して所定の画像処理を施すとともに、RGB画像信号から各光源10a乃至10gの波長帯域に応じた所定の1色の画像データを選択する。具体的には、信号処理部23は、光源10a及び10bに対応する画像信号からはB画像データを選択し、光源10c乃至10eに対応する画像信号からはG画像データを選択し、光源10f及び10gに対応する画像信号からはR画像データを選択する。このように、信号処理部23は、照射光の中心波長と略一致する波長の画像データを選択する。
In multi-band imaging, the
信号処理部23により選択された画像データは、A/D変換器24へ転送され、CPU31を介して画像メモリ35に記録される。この結果、画像メモリ35には、LEDの中心波長に対応してRGB画像から選択された色の画像がマルチバンド画像として記録されることとなる。なお、撮影の際に、それぞれの波長の撮影が適正露光になるように、LEDの照射時間、照射強度、撮像素子の電子シャッタ速度等がCPU31により制御され、また、この撮影時に温度変化が激しい場合にはアラームブザー65が鳴り警告を発する。
なお、LEDを照射しないで生活歯の画像を更に撮影し、外光画像として画像メモリ35に記録する。
The image data selected by the
Note that an image of the vital tooth is further taken without irradiating the LED, and is recorded in the image memory 35 as an external light image.
続いて、撮影が終了し、医師により撮像装置1がクレードル2に置かれると、キャリブレーション画像の測定が行われる。
キャリブレーション画像の測定は、上述のマルチバンド撮影と同様の手順により色票100を撮影するものである。これにより、色票100のマルチバンド画像が色票画像として画像メモリ35に記録される。
続いて、LEDが全く点灯しない状態(暗黒下)で色票100の撮影が行われ、この画像が暗電流画像として画像メモリ35に記録される。なお、この暗電流画像は、撮影を複数回行い、これら画像を平均化した画像を用いるようにしてもよい。
Subsequently, when the imaging is finished and the
The calibration image is measured by photographing the
Subsequently, the
続いて、画像メモリ35に記録された上記外光画像、暗電流画像を用いた信号補正がマルチバンド画像及び色票画像のそれぞれに対して行われる。マルチバンド画像に対する信号補正は、例えば、マルチバンド画像の各画像データに対して画素毎に外光画像データの信号値を減算することによって行われ、撮影時の外光の影響を除去することができる。同様に、色票画像に対する信号補正は、例えば、色票画像の画像データに対して画素毎に暗電流画像データの信号値を減算することによって行われ、温度によって変化するCCDの暗電流ノイズ除去を行うことができる。 Subsequently, signal correction using the external light image and dark current image recorded in the image memory 35 is performed on each of the multiband image and the color chart image. The signal correction for the multiband image is performed, for example, by subtracting the signal value of the external light image data for each pixel from the image data of the multiband image to remove the influence of the external light at the time of shooting. it can. Similarly, the signal correction for the color chart image is performed by subtracting the signal value of the dark current image data for each pixel from the image data of the color chart image, for example, to remove the dark current noise of the CCD that changes with temperature. It can be performed.
図3は、色票画像に対する信号補正結果の一例を示したものである。図3において、縦軸はセンサ信号値を、横軸は入力光強度を示しており、実線は補正前の原信号、破線は信号補正後の信号を示している。
このようにして信号補正が行われた後のマルチバンド画像及び色票画像は、ローカルバス37、通信I/Fコントローラ34、通信/I/F接点61を介して歯科用測色装置3へ送信され、図4に示す歯科用測色装置3内のマルチバンド画像メモリ110に記録される。
FIG. 3 shows an example of the signal correction result for the color chart image. In FIG. 3, the vertical axis indicates the sensor signal value, the horizontal axis indicates the input light intensity, the solid line indicates the original signal before correction, and the broken line indicates the signal after signal correction.
The multiband image and the color chart image after the signal correction is performed in this way are transmitted to the dental
なお、上記色票100のマルチバンド画像及び暗電流画像は、撮像装置1内の画像メモリ35に記録されることなく、ローカルバス37、通信I/Fコントローラ34、通信/I/F接点61を介して、歯科用測色装置3へ直接送信され、歯科用測色装置3内のマルチバンド画像メモリ110に記録されるような構成としてもよい。この場合、上述した信号補正は、歯科用測色装置3内で行われることとなる。
Note that the multiband image and the dark current image of the
上記歯科用測色装置3は、例えばパーソナルコンピュータ等からなり、上記撮像装置1の通信I/F接点61を介して出力されるマルチバンド画像及び色票画像を受信し、このマルチバンド画像に種々の処理を施すことにより、被写体である歯の高度な色再現がなされた画像を作成するとともに、歯に適したシェードガイド番号を選択し、これらの情報を表示装置4に表示する。
The dental
歯科用測色装置3は、例えば、図4に示すように、色度算出部70、シェードガイド番号判定部80、マルチバンド画像メモリ110、RGB画像メモリ111、カラー画像作成処理部112、画像ファイリング部113、シェードガイド色度データ記憶部114、画像表示GUI部(表示制御手段)115、画像合成部(画像合成装置)116、および差分算出部(差分算出手段)130を備えて構成されている。
色度算出部70は、スペクトル推定演算部71、観察スペクトル演算部72、及び色度値演算部(測色値演算手段)73を備えて構成されている。また、シェードガイド番号判定部80は、判定演算部81、及びシェードガイド基準画像データ記憶部82を備えて構成されている。このシェードガイド基準画像データ記憶部82には、例えば、色見本が一列に配置されているシェードガイドを作製するメーカー毎に、そのメーカーにより作製されたシェードガイドの画像データがシェードガイド番号に対応付けられて格納されているほか、これらシェードガイドの所定エリアの分光反射率スペクトルや歯肉付きシェードガイド画像が格納されている。
For example, as shown in FIG. 4, the dental
The
このような構成からなる歯科用測色装置3において、撮像装置1から転送されたマルチバンド画像及び色票画像は、まず、マルチバンド画像メモリ110に記録され、その後、色度算出部70へ転送される。色度算出部70では、まず、スペクトル推定演算部71によりスペクトル(本実施形態では、分光反射率のスペクトル)推定処理等が行われる。
In the dental
スペクトル推定演算部71は、図5に示すように、変換テーブル作成部711、変換テーブル712、入力γ補正部713、画素補間演算部714、面内ムラ補正部715、マトリクス演算部716、及びスペクトル推定マトリクス作成部717を備えて構成されている。入力γ補正部713及び画素補間演算部714は、マルチバンド画像及び色票画像のそれぞれに対して個別に設けられており、マルチバンド画像に対して入力γ補正部713a、画素補間演算部714aが設けられ、色票画像に対して入力γ補正部713b、画素補間演算部714bが設けられている。
As shown in FIG. 5, the spectrum
このような構成を備えるスペクトル推定演算部71においては、まず、マルチバンド画像及び色票画像は、それぞれ個別に設けられている入力γ補正部713a、713bにそれぞれ転送され、入力γ補正が行われた後、各画素補間演算部714a、714bにより画像補間演算処理が施される。これら処理後の信号は、面内ムラ補正部715に転送され、ここで色票画像を用いたマルチバンド画像の面内ムラ補正処理が行われる。その後、マルチバンド画像は、マトリクス演算部716に転送され、スペクトル推定マトリクス作成部717により作成されたマトリクスを用いて分光反射率が算出される。
In the spectrum
以下、各部において行われる各画像処理について具体的に説明する。
まず、入力γ補正の前段階として、変換テーブル作成部711により変換テーブル712が作成される。具体的には、変換テーブル作成部711は、入力光強度とセンサ信号値とを対応付けたデータを有しており、これらデータに基づいて変換テーブル712を作成する。この変換テーブル712は、入力光強度と出力信号値の関係から作成されるものであり、例えば、図6(a)に実線で示すように、入力光強度とセンサ信号値とが略比例関係となるように作成される。
Hereinafter, each image processing performed in each unit will be specifically described.
First, a conversion table 712 is created by the conversion
各入力γ補正部713a、713bは、この変換テーブル712を参照することによりマルチバンド画像、色票画像に対してそれぞれ入力γ補正を行う。この変換テーブルは、現時点におけるセンサ値Aに対応する入力光強度Dを求め、この入力光強度Dに対応する出力センサ値Bが出力されるように作成され、結果的に図6(b)のようになる。このようにして、マルチバンド画像、色票画像に対し入力γ補正がなされると、補正後の画像データはそれぞれ画素補間演算部714a、714bへ転送される。
Each input
画素補間演算部714a、714bでは、入力γ補正後のマルチバンド画像データ及び色票画像データのそれぞれに対して、画素補間のためのローパスフィルタをかけることにより行われる。図7は、R信号、B信号に適用されるローパスフィルタの一例を示している。図8は、G信号に適用されるローパスフィルタを示している。このような画素補間のためのローパスフィルタを各マルチバンド画像データに乗算することにより、例えば、144画素×144画素の画像を288画素×288画素の画像にする。
In the pixel
画像補間演算が行われた画像データgk(x,y)は、面内ムラ補正部715へ転送される。
面内ムラ補正部715は、以下の(1)式を用いて、マルチバンド画像データの画面中心の輝度を補正する。
The image data g k (x, y) on which the image interpolation calculation has been performed is transferred to the in-plane
The in-plane
上記(1)式において、ck(x,y)は色票撮影画像データ、gk(x,y)は入力γ補正後のマルチバンド画像データ、(x0,y0)は中央の画素位置、δ(=5)はエリア平均サイズ、g´k(x,y)は面内ムラ補正後の画像データである(ただしk=1,・・・、N(バンド数))。
上記面内ムラ補正は、マルチバンド画像データの各画像データに対して行われる。
In the above equation (1), c k (x, y) is color chart photographed image data, g k (x, y) is multiband image data after input γ correction, and (x 0 , y 0 ) is the center pixel. The position, δ (= 5) is the area average size, and g ′ k (x, y) is the image data after in-plane unevenness correction (where k = 1,..., N (number of bands)).
The in-plane unevenness correction is performed on each image data of the multiband image data.
面内ムラ補正後のマルチバンド画像データg´k(x,y)は、マトリクス演算部716へ転送される。マトリクス演算部716は、面内ムラ補正部715からのマルチバンド画像データg´k(x,y)を用いてスペクトル(分光反射率)推定処理を行う。このスペクトル(分光反射率)推定処理では、380nmから780nmまでの波長帯域において、1nm間隔で分光反射率の推定を行う。つまり、本実施形態では、401次元の分光反射率を推定する。
The multiband image data g ′ k (x, y) after the in-plane unevenness correction is transferred to the matrix calculation unit 716. The matrix calculation unit 716 performs spectrum (spectral reflectance) estimation processing using the multiband image data g ′ k (x, y) from the in-plane
一般的に、1波長毎の分光反射率を求めるためには重厚で高価な分光計測器などが用いられるが、本実施形態では被写体が歯に限定されていることから、その被写体が有する一定の特徴を利用することにより、少ないバンドで401次元の分光反射率を推定する。
具体的には、マルチバンド画像データg´k(x,y)とスペクトル推定マトリクスMspeとを用いてマトリクス演算を行うことにより、401次元のスペクトル信号を算出する。
上記スペクトル推定マトリクスMspeは、カメラの分光感度データ、LEDスペクトルデータ、被写体(歯)の統計データに基づきスペクトル推定マトリクス作成部717にて作成される。このスペクトル推定マトリクスの作成については特に限定されることなく、周知の手法を用いることが可能である。例えば、その一例が、S.K.Park and F.O.Huck
“Estimation of spectral
reflectance curves from multispectrum image data”, Applied Optics,
16,pp3107-3114(1977)に詳述されている。
なお、上記カメラの分光感度データ、LEDスペクトルデータ、被写体(歯)の統計データ等は図4に示した画像ファイリング部113に予め格納されている。また、カメラの分光感度がセンサの位置により変わる場合には、位置に応じて分光感度のデータを取得してもよいし、中央の位置に対して適当に補正をして用いるようにしてもよい。
In general, a heavy and expensive spectroscopic measuring instrument is used to obtain the spectral reflectance for each wavelength. However, in this embodiment, since the subject is limited to teeth, the subject has a certain amount. By utilizing the feature, the 401-dimensional spectral reflectance is estimated with a small number of bands.
Specifically, a 401-dimensional spectrum signal is calculated by performing a matrix operation using the multiband image data g ′ k (x, y) and the spectrum estimation matrix Mspe.
The spectrum estimation matrix Mspe is created by the spectrum estimation
“Estimation of spectral
reflectance curves from multispectrum image data ”, Applied Optics,
16, pp 3107-3114 (1977).
Note that the spectral sensitivity data of the camera, the LED spectrum data, the subject (tooth) statistical data, and the like are stored in advance in the
スペクトル推定演算部71により分光反射率が算出されると、この算出結果は、マルチバンド画像データとともに、図4に示すシェードガイド番号判定部80及び色度算出部70内の観察スペクトル演算部72へ転送される。
When the spectral reflectance is calculated by the spectrum
スペクトル推定演算部71からの情報は、シェードガイド番号判定部80内の判定演算部81に転送される。判定演算部81では、まず、測定対象となる歯の領域を特定する領域特定処理が行われる。
Information from the spectrum
ここで、撮像装置1により撮像されたマルチバンド画像データには、測定対象となる生活歯のほか、該生活歯の隣の歯や歯茎等の情報も含まれている。従って、領域特定処理では、これら口腔内の画像データから測定対象となる生活歯の領域を特定する処理が行われる。
Here, the multiband image data picked up by the
図9に歯の反射スペクトル(サンプル個数n=2)の一例を、図10に歯茎の反射スペクトル(サンプル個数n=5)の一例を示す。図9及び図10において、横軸は波長を縦軸は反射率を示している。歯は全体的に白色であり、歯茎は赤色であるため、両者のスペクトルは図9及び図10からわかるように、青の波長帯域(例えば、400nm乃至450nm)及び緑の波長帯域(例えば、530nm乃至580nm)において大きく異なる。本実施形態では、このように生活歯が特定の反射スペクトルを持つことに着目し、画像データの中から特定のスペクトルである生活歯の反射スペクトルを持つ画素を抽出することにより、生活歯の領域を特定する。 FIG. 9 shows an example of a tooth reflection spectrum (sample number n = 2), and FIG. 10 shows an example of a gum reflection spectrum (sample number n = 5). 9 and 10, the horizontal axis indicates the wavelength and the vertical axis indicates the reflectance. Since the teeth are generally white and the gums are red, the spectra of both are blue wavelength band (for example, 400 nm to 450 nm) and green wavelength band (for example, 530 nm), as can be seen from FIGS. To 580 nm). In this embodiment, paying attention to the fact that vital teeth have a specific reflection spectrum in this way, by extracting pixels having the reflection spectrum of vital teeth, which is a specific spectrum, from the image data, the region of vital teeth Is identified.
〔生活歯の領域の特定手法1〕
本手法では、撮像されたマルチバンド画像データで示される画像中の領域(画素又は画素の集合)におけるn種類の波長帯域それぞれの信号値で定められる波長帯域特性値を、n次空間内に表す。そして、そのn次空間内に、測定対象の特徴を表す平面領域を規定し、n次空間内に表された波長帯域特性値が、その平面領域に投影されるとき、その波長帯域特性値を有する画像中の領域を、測定対象となる生活歯の領域に含まれると判断することで、測定対象の領域(輪郭)を特定する。
[Identification method of vital tooth area 1]
In this method, wavelength band characteristic values determined by signal values of n types of wavelength bands in a region (pixel or set of pixels) in an image indicated by captured multiband image data are represented in the n-order space. . Then, in the n-order space, a plane area representing the characteristics of the measurement target is defined, and when the wavelength band characteristic value represented in the n-order space is projected onto the plane area, the wavelength band characteristic value is By determining that the region in the image to be included in the vital tooth region to be measured, the region (contour) to be measured is specified.
図11に、本手法による測定対象となる生活歯の領域を特定する手法を説明する。図11に示すように、7つの波長λ1〜λ7によって、7次元空間が形成されている。7次元空間内には、測定対象となる生活歯を最も良好に分離する分類平面を設定する。具体的には、平面投影するための分類スペクトルd1(λ)、d2(λ)が求められる。そして、まず、撮像されたマルチバンド画像データから、所定の領域を切り出し、波長帯域特性値として、7次元空間内に表される特徴量を算出する。特微量とは、切り出した領域で、各バンドをこの領域内で平均化して7つの信号値へ変換したときの、7つの信号値の組みである。切り出す領域の大きさは、例えば、2画素×2画素とするが、これに限られるものではなく、1画素×1画素であっても、3画素×3画素以上でもよい。 FIG. 11 illustrates a method for specifying a vital tooth region to be measured by this method. As shown in FIG. 11, a seven-dimensional space is formed by seven wavelengths λ1 to λ7. In the 7-dimensional space, a classification plane that best separates vital teeth to be measured is set. Specifically, classification spectra d1 (λ) and d2 (λ) for plane projection are obtained. First, a predetermined region is cut out from the captured multiband image data, and a feature amount represented in the 7-dimensional space is calculated as a wavelength band characteristic value. The feature amount is a group of seven signal values when each band is averaged in this region and converted into seven signal values. The size of the region to be cut out is, for example, 2 pixels × 2 pixels, but is not limited thereto, and may be 1 pixel × 1 pixel or 3 pixels × 3 pixels or more.
特微量は、図11の7次元空間の1点で表される。この特徴量で表される7次元空間の1点を、分類平面に投影して分類平面上の1点を求める。分類平面上の1点の座標は、分類スペクトルd1(λ)、d2(λ)との内積演算から求めることができる。分類平面上の1点が、歯の特徴的なスペクトルによって定められる分類平面上の領域T、すなわち、測定対象の特徴を表す平面領域に含まれれば、切り出した領域は、生活歯の輪郭に含まれる領域であると判断する。一方、分類平面上の1点が、歯茎の特徴的なスペクトルによって定められる分類平面上の領域Gに含まれれば、切り出した領域は、歯茎の輪郭に含まれる領域であると判断する。 The feature amount is represented by one point in the 7-dimensional space of FIG. One point in the 7-dimensional space represented by this feature amount is projected onto the classification plane to obtain one point on the classification plane. The coordinates of one point on the classification plane can be obtained from the inner product calculation with the classification spectra d1 (λ) and d2 (λ). If one point on the classification plane is included in the area T on the classification plane defined by the characteristic spectrum of the tooth, that is, the plane area representing the characteristics of the measurement object, the extracted area is included in the outline of the vital tooth It is determined that the area is On the other hand, if one point on the classification plane is included in the region G on the classification plane defined by the characteristic spectrum of the gums, it is determined that the extracted region is an area included in the outline of the gums.
本手法では、切り出す領域を変えながら、このような判断を順次行っていくことで、生活歯の領域を特定する。特に、測定対象となる生活歯の領域は、撮像されたマルチバンド画像データで示される画像の中央付近に位置しているのが通常であるため、切り出す領域を画像の中央付近から周囲に向けて変えながら、その領域が生活歯の領域に含まれているか否かの前記判断を順次行っていくことで、測定対象となる生活歯の領域(すなわち、測定対象となる生活歯の輪郭)を特定する。特に、本実施形態では、通常のRGBで表される3次元よりも多い7次元空間に特徴量を規定しているため、より正確に測定対象の領域(輪郭)を特定することができて好ましい。 In this method, the vital tooth region is specified by sequentially making such a determination while changing the region to be cut out. In particular, the vital tooth region to be measured is usually located near the center of the image indicated by the captured multiband image data, so the region to be clipped is directed from near the center of the image to the periphery. The region of the vital tooth to be measured (that is, the contour of the vital tooth to be measured) is identified by sequentially making the above determination as to whether or not the region is included in the vital tooth region while changing. To do. In particular, in the present embodiment, since the feature amount is defined in a 7-dimensional space that is larger than the 3-dimensional space represented by normal RGB, it is preferable because the measurement target region (contour) can be specified more accurately. .
〔生活歯の領域の特定手法2〕
上記分類スペクトルに基づく領域の特定手法のほか、本手法では、例えば、青の波長帯域及び緑の波長帯域に対応する特定の信号値(スペクトル)のみを抽出し、これらの信号値を比較することにより、生活歯に特有な信号値(スペクトル)を持つ領域を生活歯の領域として特定するようにする。このような手法によれば、比較するサンプル数が減るため、短時間で容易に領域特定を行うことが可能となる。
[Identification method of vital tooth area 2]
In addition to the above method for identifying regions based on the classification spectrum, in this method, for example, only specific signal values (spectrums) corresponding to the blue wavelength band and the green wavelength band are extracted, and these signal values are compared. Thus, a region having a signal value (spectrum) peculiar to vital teeth is specified as a vital tooth region. According to such a method, since the number of samples to be compared is reduced, it is possible to easily specify a region in a short time.
具体的には、分類スペクトルに基づく領域特定の場合と同様に、画像の中央付近から周囲に向けて、スペクトル特徴値が急激に変化する変曲点の位置を検出することで、その位置を測定対象の生活歯の輪郭として確定する。例えば、検出したい被写体(歯)と、分離したい被写体(生活歯以外の例えば歯茎)と比較して、特徴的なバンドλ1、λ2を選択し、その比をスペクトル特徴値とする。生活歯を検出したい被写体とすると、例えば、λ1=450nm、λ2=550nmとして2点の比率を計算しその比率の変曲点を求める。これにより、隣の生活歯との輪郭が確定し、測定対象の生活歯の画素を得ることができる。なお、画素毎に特定を行うほか、複数の画素からなる画素群の平均を取り、この平均に基づいて画素群毎に特定を行うようにしてもよい。 Specifically, as in the case of region specification based on the classification spectrum, the position is measured by detecting the position of the inflection point where the spectral feature value changes suddenly from the center of the image toward the periphery. Determined as the outline of the subject's vital teeth. For example, compared with the subject (tooth) to be detected and the subject to be separated (for example, gums other than vital teeth), characteristic bands λ1 and λ2 are selected, and the ratio is set as the spectral feature value. Assuming that the subject wants to detect vital teeth, for example, a ratio of two points is calculated assuming that λ1 = 450 nm and λ2 = 550 nm, and an inflection point of the ratio is obtained. Thereby, the outline with the adjacent vital tooth is decided and the pixel of the vital tooth to be measured can be obtained. In addition to specifying for each pixel, an average of a pixel group composed of a plurality of pixels may be taken, and the specification may be made for each pixel group based on this average.
なお、上述の生活歯の領域の特定手法1,2いずれを用いる場合でも、本実施形態では、生活歯について領域特定を行ったが、歯茎の領域特定も可能である。また、生活歯以外にも例えば、皮膚科等におけるシミ、ソバカス等の領域特定、多色柄塗装での所定の塗装色の領域特定等、他方面においても適用可能である。これらの場合は、歯茎、シミ、ソバカス、塗装等の特定したい領域特有のスペクトルを用いればよい。例えば、シミ、ソバカスの領域特定を行う場合には、良性のシミ・ソバカス特有のスペクトルや、悪性のシミ・ソバカス特有のスペクトル等を予め登録しておき、これらのスペクトルに近似する領域を特定することにより、容易に測定対象の領域特定を行うことが可能となる。
In addition, in this embodiment, although region identification was performed for vital teeth in either of the above-described vital tooth
このようにして、測定対象の生活歯の画素が特定されると、続いて、測定対象の生活歯の領域に測定領域を設定する測定領域設定処理が行われる。この測定領域は、図12に示すように、歯面の上部、中央、下部に矩形の領域として設定される。例えば、生活歯の高さに対して一定の比率の面積を持つ領域を設定する。すなわち、小さな生活歯でも大きな生活歯でも測定領域及びその位置は、一定の比率で設定される。なお、測定領域の形は、図12に示すような矩形に限らず、例えば、円、楕円、非対称形状等でもよい。 In this way, when the pixel of the vital tooth to be measured is specified, subsequently, a measurement region setting process for setting the measurement region in the region of the vital tooth to be measured is performed. As shown in FIG. 12, this measurement region is set as a rectangular region at the upper, middle, and lower portions of the tooth surface. For example, a region having an area with a certain ratio with respect to the height of vital teeth is set. That is, the measurement region and its position are set at a constant ratio for both small and large vital teeth. Note that the shape of the measurement region is not limited to a rectangle as shown in FIG. 12, and may be, for example, a circle, an ellipse, or an asymmetric shape.
続いて、上述のごとく設定された各測定領域について、最も近似するシェードガイドを選定するシェードガイド選択処理(見本選択処理)が行われる。このシェードガイド選択処理では、測定対象の生活歯の色調とシェードガイドの色調との比較判定が行われる。この比較は、先ほど設定された測定領域毎に行われ、対象となる測定領域のスペクトル(本実施形態では、分光反射率)とシェードガイド基準画像データ記憶部82に予め登録されている各シェードガイドのスペクトル(本実施形態では、分光反射率)とを比較し、両者の差分が最も小さいものを求めることにより行われる。
例えば、以下の(2)式に基づいてスペクトル判定値Jvalueを求めることにより行われる。
Subsequently, a shade guide selection process (sample selection process) for selecting the closest shade guide is performed for each measurement region set as described above. In this shade guide selection process, a comparison determination is made between the color tone of the vital tooth to be measured and the color tone of the shade guide. This comparison is performed for each measurement region set in advance, and each shade guide registered in advance in the spectrum (in this embodiment, the spectral reflectance) of the target measurement region and the shade guide reference image
For example, it is performed by obtaining a spectrum determination value Jvalue based on the following equation (2).
上記(2)式において、Jvalueは、スペクトル判定値、Cは正規化係数、nは統計個数(計算に使用したλの個数)、λは波長、f1(λ)は判定対象である生活歯の分光感度スペクトル値、f2(λ)はシェードガイドの分光感度スペクトル値、E(λ)は判定感度補正値である。なお、本実施形態では、E(λ)によって、λに応じた分光感度に関する重み付けを行っている。 In the above equation (2), Jvalue is a spectrum judgment value, C is a normalization coefficient, n is a statistical number (number of λ used in calculation), λ is a wavelength, and f 1 (λ) is a vital tooth to be judged. , F 2 (λ) is a spectral sensitivity spectrum value of the shade guide, and E (λ) is a determination sensitivity correction value. In the present embodiment, weighting relating to spectral sensitivity according to λ is performed by E (λ).
このようにして、各社のシェードガイドのスペクトルの値を上記(2)式のf2(λ)に代入し、それぞれのスペクトル判定値Jvalueを算出する。そして、最も小さいスペクトル判定値Jvalueを示したときのシェードガイドを歯に最も近似するシェードガイド番号であると判定する。なお、本実施形態では、スペクトル判定値Jvalueが小さい順に複数(例えば3つ)の候補を抽出する。もちろん、抽出する候補は1つとすることもできる。なお、上記(2)式について、判定感度補正値E(λ)は各種の重み付けがなされていてもよい。 In this way, the spectrum value of the shade guide of each company is substituted into f 2 (λ) in the above equation (2), and each spectrum judgment value Jvalue is calculated. Then, it is determined that the shade guide having the smallest spectrum determination value Jvalue is the shade guide number that most closely approximates the tooth. In the present embodiment, a plurality of (for example, three) candidates are extracted in ascending order of the spectrum determination value Jvalue. Of course, one candidate can be extracted. In the above equation (2), the determination sensitivity correction value E (λ) may be variously weighted.
このようにしてシェードガイド番号が選定されると、これらの番号が判定演算部81からシェードガイド色度データ記憶部114および画像表示GUI部115へ転送される。そして、選定されたシェードガイド番号に対応する色度データが、シェードガイド色度データ記憶部114から画像表示GUI部115と差分算出部130へ転送される。また、各シェードガイド番号についてのスペクトル判定値Jvalueは、判定演算部81から画像表示GUI部115へ転送される。
When the shade guide numbers are selected in this way, these numbers are transferred from the
一方、色度算出部70の観察スペクトル演算部72では、スペクトル推定演算部71にて求められた生活歯のスペクトルに観察したい照明光S(λ)を乗算することにより、観察したい照明光下での被写体のスペク卜ルG(x,y,λ)が求められる。このS(λ)は、D65やD55光源、蛍光灯光源等、生活歯の色を観察したい光源のスペクトルであり、このデータは図示しない入力プロファイル記憶部に予め格納されている。観察スペクトル演算部72にて求められた観察したい照明光下での被写体のスペクトルは、色度値演算部73およびカラー画像作成処理部112へ転送される。
On the other hand, the observation spectrum calculation unit 72 of the
色度値演算部73では、観察したい照明光下での被写体のスペクトルから色度値であるL*a*b*が画素毎に算出されるとともに、所定のエリアにおける色度値L*a*b*の平均値が算出され、それぞれ画像表示GUI部115および差分算出部130に送られる。この所定のエリアは、例えば生活歯の上部、中央、下部の3位置に設定されている。
一方、観察したい照明光下での被写体のスペクトルG(x,y,λ)は、観察スペクトル演算部72からカラー画像作成処理部112に送られて、モニタ上に表示するためのRGB画像であるRGB2(x,y)が作成され、画像表示GUI部115に送られる。なお、このRGB画像は輪郭強調等を行ってもよい。
In the chromaticity
On the other hand, the spectrum G (x, y, λ) of the subject under illumination light to be observed is an RGB image that is sent from the observation spectrum calculation unit 72 to the color image
差分算出部130は、色度値演算部73から送られてきた所定エリアにおける色度値L*a*b*の平均値と、シェードガイド色度データ記憶部114から送られてきた色度データとに基づいて、歯の色度とシェードガイドの色度の差分ΔE,ΔL*,Δa*,Δb*をそれぞれ算出する。また、差分算出部130は、歯の所定の位置を基準として、歯およびシェードガイドの色度の差分ΔE,ΔL*,Δa*,Δb*をそれぞれ画素毎に算出する。ここで、「所定の位置」とは、後述するような、歯の画像およびシェードガイドの画像のそれぞれに表示された縦走査線Yと横走査線Xの交点を例示することができる。この所定のエリアにおける色度値の差分ΔE,ΔL*,Δa*,Δb*と、画素毎に算出された歯およびシェードガイドの色度の差分ΔE,ΔL*,Δa*,Δb*は、それぞれ画像表示GUI部115に転送される。
The
画像表示GUI部115は、上述のごとく求められたRGB画像と測定領域の色度値L*a*b*、シェードガイド番号等を各部から受け取ると、図13に示すような画面を表示装置4の表示画面に表示させる。
図13に示すように、画像表示GUI部115は、測定対象のカラー画像Aを表示画面の中央上部に表示し、更に、カラー画像Aの右隣に測定対象の色度値L*a*b*の分布画像Bを表示させる。具体的には、画像表示GUI部115は、分布画像B上に、上下に移動可能な縦走査線Yと左右に移動可能な横走査線Xとを表示させ、これら走査線Y、Xの交点において指定される基準位置の色度を基準にした色差分布を分布画像Bとして表示させる。
When the image
As shown in FIG. 13, the image
更に、画像表示GUI部115は、縦走査線Y或いは横走査線Xに沿った色差変化を線グラフCとして画面右上に表示させる。上記分布画像B上に示された走査線Y、Xは、ユーザにより任意に移動可能に構成されているので、この走査線Y又はXが走査されるたびに、画像表示GUI部115は、走査後における走査線Y及びXの位置情報を差分算出部130に転送し、再度走査線YとXの交点を基準とした歯の色度の差分ΔE,ΔL*,Δa*,Δb*をそれぞれ画素毎に算出させる。そして、画像表示GUI部115は、走査後における基準位置に基づく色差分布を差分算出部130から取得し、この情報を速やかに表示させる。
Further, the image
また、画像表示GUI部115は、カラー画像A上に、判定演算部81(図4参照)の測定領域設定処理において設定された複数の測定領域を表示させる。ここで、医師などのユーザによりこれら複数の測定領域のいずれか一つの領域Qが指定されると、指定された測定領域Qの色に近似するとして選択されたシェードガイドのカラー画像Dを画面中央下部に表示させ、更に、カラー画像Dの右側に、その色度値L*a*b*の分布画像Eを表示させる。画像表示GUI部115は、差分算出部130に対して、分布画像Bに示された走査線YとXの交点における歯の色度を基準として、シェードガイドの色度の差分ΔE,ΔL*,Δa*,Δb*をそれぞれ画素毎に算出させ、算出させたシェードガイドの色差分布を分布画像Eに表示させる。
この分布画像Eにおいても、分布画像Bと同様に縦走査線Yと横走査線Xとが示されており、画像表示GUI部115は、縦走査線Y或いは横走査線Xに沿った色差の変化を線グラフFとして画面右下に表示させる。
Further, the image
Also in this distribution image E, the vertical scanning line Y and the horizontal scanning line X are shown as in the distribution image B, and the image
また、画像表示GUI部115は、画面左下部に、上記測定領域Qに対応して選択されたシェードガイドに関する情報Gをリスト表示させる。ここでは、図4に示した判定演算部81のシェードガイド選択処理にて選択されたシェードガイド番号がスペクトル判定値Jvalueの小さい順に3つ表示される。更に、画像表示GUI部115は、各シェードガイド番号について、そのスペクトル判定値Jvalue、歯の色度とシェードガイドの色度との差分ΔE、ΔL*、Δa*、Δb*をそれぞれ表示させる。
In addition, the image
また、画像表示GUI部115は、画面左上部に、表示モードを切り替え可能とする切替ボタンHを表示させる。これら切替ボタンHが選択されると、画像表示GUI部115は、表示画面を図14に示すような画面に切り替える。
Further, the image
図14に示すように、画像表示GUI部115は、測定対象の歯のカラー画像を画面左上部付近に表示させる。また、画像表示GUI部115は、画面中央下部に、所定の照明光下におけるシェードガイドのカラー画像の一覧を表示させるとともに、その下にシェードガイド番号を表示させる。
As shown in FIG. 14, the image
なお、図14では、照明光として、「なし」、「D65」、「A」が選択されている。ここで、「なし」とは、分光反射率そのものを表示する場合に相当する。この照明光は、プルダウンメニューとして任意に変更することができるように構成されている。これにより、ユーザは所望の照明光を容易に選択することが可能となり、所望の照明光下におけるシェードガイドの色合いを確認することができる。また、各シェードガイドの画像の左部には、各シェードガイドのうち、図4に示したシェードガイド番号判定部80のシェードガイド選択処理において選択されたシェードガイド番号がSG−Noとして表示されている。
In FIG. 14, “none”, “D65”, and “A” are selected as the illumination light. Here, “none” corresponds to displaying the spectral reflectance itself. This illumination light can be arbitrarily changed as a pull-down menu. Thereby, the user can easily select the desired illumination light, and can confirm the shade of the shade guide under the desired illumination light. Moreover, the shade guide number selected in the shade guide selection process of the shade guide
また、画像表示GUI部115は、当該画面中央上部に、測定対象の生活歯の色調とシェードガイドとの色調の比較を容易に行えるように、測定対象の生活歯と所定のシェードガイドとを隣接させて表示させるための比較領域Rを表示させる。これは、生活歯とシェードガイドとを比較する場合、画面上で離れた場所に表示されていると色調の細やかな比較が難しいため、このような問題を解消するために設けられた領域である。
In addition, the image
例えば、ユーザによるドラッグアンドドロップ等の入力操作により、画面に表示されているシェードガイドの中から比較したいシェードガイドが比較領域Rに移動されると、画像表示GUI部115は、比較領域Rに移動されたシェードガイド番号を画像合成部116に転送する。これにより、画像合成部116による画像合成処理が実施され、生活歯の一部とシェードガイドの一部とが隣接表示された1つの合成画像が比較領域Rに表示されることとなる。
For example, when a shade guide to be compared is moved from the shade guides displayed on the screen to the comparison region R by an input operation such as drag and drop by the user, the image
以下、本実施形態に係る画像合成部116について詳細に説明する。
画像合成部116は、図15に示すように、画像取得部117、像抽出部(像抽出手段)118、合成基準線設定部(合成基準線設定手段)119、合成部(合成手段)120、および補正部(補正手段)121を備えて構成されている。
このような構成を備える画像合成部116において、画像表示GUI部115からのシェードガイド番号は、画像取得部117に入力される。画像取得部117は、入力されたシェードガイド番号により特定されるシェードガイドのカラー画像(第2の撮像画像)をシェードガイド番号判定部80内のシェードガイド基準像データ記憶部82から取得する。
Hereinafter, the
As shown in FIG. 15, the
In the
更に、画像取得部117は、カラー画像作成処理部112から測定対象の生活歯のカラー画像(第1の撮像画像)を取得する。このようにして取得されたシェードガイドのカラー画像および測定対象である生活歯のカラー画像は、像抽出部118に転送される。像抽出部118は、測定対象の生活歯のカラー画像から生活歯の領域(以下、「測定対象像」という。)を抽出するとともに、シェードガイドのカラー画像からシェードガイドの部分、つまり、生活歯に対応する部分(以下、「比較対象像」という。)を抽出する。
Further, the
ここで、上記測定対象像および比較対象像の抽出手法については、上述した判定演算部81にて採用される手法、すなわち、「生活歯の領域の特定手法1」や「生活歯の領域の特定手法2」等を用いることができるほか、例えば、両者の画像を一旦モニタ4に表示させ、ユーザにより領域指定を行わせることとしてもよい。像抽出部118は、測定対象像および比較対象像をそれぞれ抽出すると、これらの情報を合成基準線設定部119に転送する。
Here, with respect to the extraction method of the measurement target image and the comparison target image, the method employed in the
合成基準線設定部119は、抽出部118により抽出された測定対象像および比較対象像において、これらの像を合成する際に基準とされる合成基準線を設定する。合成基準線設定部119は、例えば、測色対象像の重心を通り、且つ、縦軸方向、換言すると、長手方向に平行な線を合成基準線として測色対象像上に設定する。同様に、合成基準線設定部119は、比較対象像の重心を通り、且つ、縦軸方向に平行な線を合成基準線として比較対象像上に設定する。具体的には、図16に示すように、縦軸方向の長さが最大である線Ymaxを求め、この線Ymaxの中点を通り、且つ、Ymaxに垂直な線Xrefを求める。更に、このXrefの中点を求め、この中点を通り、かつ、線Ymaxに平行な線を合成基準線として設定する。
The combination reference
合成基準線設定部119は、上述の手順に従って合成基準線を設定すると、合成基準線が設定された後の測定対象像および比較対象像を合成部120に転送する。
合成部120は、測定対象像と比較対象像とを合成基準線に沿って合成する。具体的には、測定対象像を合成基準線に沿って2分割するとともに、比較対象像を合成基準線に沿って2分割する。続いて、分割後における測定対象像の左側と分割後における比較対象像の右側とを貼り合わせることにより合成画像を作成する。このとき、合成基準線の中点が互いに一致するように画像を貼り合わせることが好ましい。
When the composite reference line is set according to the above-described procedure, the composite reference
The combining
この結果、図17に示すように、測定対象像の左半分と比較対象像の右半分とが張り合わされた合成画像が作成されることとなる。合成部120は、この合成画像を補正部121に転送する。補正部121は、合成画像において、合成基準線上の輪郭が一致しているか否かを判断し、一致していない場合には、測定対象像および比較対象像の少なくともいずれか一方を補正することにより、輪郭を一致させる。
As a result, as shown in FIG. 17, a composite image in which the left half of the measurement target image and the right half of the comparison target image are bonded together is created. The combining
例えば、いずれか一方あるいは両方を拡大または縮小させることにより、輪郭を一致させる。このとき、拡大/縮小率については、縦軸方向および横軸方向において同一であることが好ましいが、異なっていてもかまわない。このような補正が実施されることにより、図18に示すように、合成基準線における輪郭が一致し、自然な合成画像が作成されることとなる。補正後の合成画像は、補正部121から画像表示GUI部115に転送される。
画像表示GUI部115は、補正部121から合成画像を受け付けると、この合成画像をモニタ4に表示する。具体的には、画像表示GUI部115は、図14に示した比較領域Rに合成画像を表示させる。
For example, the outlines are matched by enlarging or reducing either or both. At this time, the enlargement / reduction ratio is preferably the same in the vertical axis direction and the horizontal axis direction, but may be different. By performing such correction, as shown in FIG. 18, the contours on the composite reference line coincide with each other, and a natural composite image is created. The corrected composite image is transferred from the
When receiving the composite image from the
また、画像表示GUI部115は、比較領域Rに表示した合成画像において、合成基準線(合成基準線変更手段)を表示する。この合成基準線は、マウス等により自由に位置調整可能に構成されている。合成基準線の位置を変更させる指示があった場合、合成基準線設定部119は、当該指示に基づいて変更後の合成基準線を設定する。ユーザは、この合成基準線を左右に移動させることにより、自由に生活歯とシェードガイドとの表示割合を変更することが可能となる。
The image
以下、ユーザにより合成基準線が移動された場合における合成画像の更新処理について詳しく説明する。なお、以下の説明において、比較領域Rに既に表示されている合成画像を初期合成画像と定義し、初期合成画像における合成基準線を初期合成基準線と定義する。
例えば、図14の比較領域Rに表示した初期合成画像において、図19に示すように、ユーザにより合成基準線が右側に移動された場合には、この合成基準線の移動量に関する情報が画像表示GUI部115から画像合成部116に転送される。これにより、合成基準線設定部119は、更新後における合成基準線が初期合成画像のどの位置に設定されたのかを把握することができる。
Hereinafter, the update process of the composite image when the composite reference line is moved by the user will be described in detail. In the following description, a composite image already displayed in the comparison region R is defined as an initial composite image, and a composite reference line in the initial composite image is defined as an initial composite reference line.
For example, in the initial composite image displayed in the comparison region R in FIG. 14, when the composite reference line is moved to the right by the user as shown in FIG. 19, information on the amount of movement of the composite reference line is displayed on the image. The image is transferred from the
合成基準線設定部119は、まず、初期合成画像の輪郭の右端部を通り、且つ、初期合成基準線に平行な線Xmaxを求め、続いて、該右端部を通り、且つ、初期合成基準線に垂直な線Yrefを求める。そして、合成基準線設定部119は、更新後の合成基準線による初期合成基準線と線Xmaxとの間における線Yrefの長さの分割比a:bを求める。
このようにして、合成基準設定部119は、分割比a:bを求めると、初回の画像合成処理にて像抽出部118から取得した測定対象像および比較対象像を上述と同一の分割比にて分割する新たな合成基準線を設定し、この新たな合成基準線が設定された測定対象像および比較対象像を合成部120へ出力する。そして、合成部120により新たな合成基準線に基づく合成が行われることにより新たな合成画像が作成され、更に、この新たな合成画像が補正部121により補正される。そして、補正後の合成画像が画像表示GUI部115に転送される。画像表示GUI部115は、補正部121から受け付けた新たな合成画像をモニタ4の比較領域Rに表示する。これにより、更新後の合成基準線に基づく新たな合成画像がユーザに提示されることとなる。
The composite reference
In this way, when the synthesis
以上説明してきたように、本実施形態に係る歯科用測色システムによれば、測定対象像を合成基準線に沿って分割した分割測定対象像と、比較対象像を合成基準線に沿って分割した分割比較対象像とを貼り合わせることにより合成画像を作成し、この合成画像をユーザに提供する。これにより、ユーザは、生活歯とシェードガイドの色調を非常に容易に比較することが可能となる。 As described above, according to the dental colorimetry system according to this embodiment, the divided measurement target image obtained by dividing the measurement target image along the composite reference line and the comparison target image divided along the composite reference line. A composite image is created by pasting the divided comparison target images together, and this composite image is provided to the user. Thereby, the user can compare the color tone of the vital tooth and the shade guide very easily.
更に、上記合成画像において、合成基準線がユーザにより移動可能に構成されているので、ユーザはこの合成基準線を移動させることにより、合成画像における測定対象像と比較対象像との面積比を変更することができるとともに、色調比較を行う箇所を自由に変更することが可能となる。
更に、色調比較に用いるシェードガイドについても変更可能に構成されているので、ユーザは所望のシェードガイド番号を比較対象として自由に選定できる。これにより、所望のシェードガイドと生活歯とに基づく合成画像を表示させることが可能となるので、様々なシェードガイドの色調と生活歯の色調とを比較することが可能となる。
Furthermore, since the composite reference line is configured to be movable by the user in the composite image, the user can change the area ratio between the measurement target image and the comparison target image in the composite image by moving the composite reference line. In addition, it is possible to freely change the location for color tone comparison.
Furthermore, since the shade guide used for color tone comparison is also configured to be changeable, the user can freely select a desired shade guide number as a comparison target. As a result, it is possible to display a composite image based on a desired shade guide and vital teeth, and it is possible to compare the color tone of various shade guides with the color tone of vital teeth.
なお、上述した実施形態において、合成基準線設定部119による合成基準線の設定手順は一例であり、合成基準線の設定についてはこの例に限られない。例えば、測定対象像および比較対象像における縦軸方向の長さが最大となる箇所に、縦軸方向に沿って合成基準線をそれぞれ設定することとしてもよい。
また、更に、合成基準線近傍の測色値を生活歯およびシェードガイドにおいてそれぞれ算出し、これらの算出結果を数値データとして同一の画面上に表示することとしてもよい。具体的には、図20に示すように、合成基準線設定部119において、合成基準線の位置が変更された場合に、変更後の合成基準線の位置情報が合成基準線設定部119から色度値演算部73に転送される。これにより、予め設定された所定のエリアが、変更後の合成基準線に対応する位置に設定変更される。次いで、色度値演算部73が、再度被写体のスペクトルから変更後の所定のエリアにおける色度値L*a*b*の平均値を算出し、画像表示GUI部115および差分算出部130に出力する。
更に、差分算出部130が、設計変更後の所定のエリアにおける色度値L*a*b*の平均値に基づいて、生活歯の色度値とシェードガイドの色度値の差分についても算出し、この差分も表示することとしてもよい。
In the above-described embodiment, the setting procedure of the composite reference line by the composite reference
Further, the colorimetric values near the composite reference line may be calculated in the vital tooth and the shade guide, respectively, and these calculation results may be displayed as numerical data on the same screen. Specifically, as illustrated in FIG. 20, when the position of the composite reference line is changed in the composite reference
Furthermore, the
また、上記実施形態においては、測定対象像および比較対象像を合成基準線に基づいて分割する場合について述べたが、分割は画像全体において行われてもよい。例えば、測定対象像上に設定された合成基準線を延長することにより、測定対象が撮影されている生活歯のカラー画像全体において合成基準線を設定し、この合成基準線に沿って生活歯のカラー画像を2つの画像片に分割することとしてもよい。同様に、比較対象が撮影されているシェードガイド画像についても、合成基準線に基づいて画像全体を2つの画像片に分割し、これら画像片を貼り合わせることにより、測定対象である生活歯や比較対象であるシェードガイドだけでなく、歯茎等の背景の情報も含まれた合成画像を作成することとしてもよい。 In the above embodiment, the case where the measurement target image and the comparison target image are divided based on the composite reference line has been described. However, the division may be performed on the entire image. For example, by extending the composite reference line set on the measurement target image, a composite reference line is set in the entire color image of the vital tooth in which the measurement target is photographed, and the vital tooth is aligned along the composite reference line. The color image may be divided into two image pieces. Similarly, with respect to a shade guide image in which the comparison target is photographed, the entire image is divided into two image pieces based on the composite reference line, and these image pieces are bonded to each other so that the measurement target vital tooth or comparison A composite image including not only the target shade guide but also background information such as gums may be created.
また、図14では、上記合成基準線が縦軸方向に沿って1本設定されている場合について述べたが、合成基準線は横軸方向に設定されても良く、また、その設定本数についても、縦、横任意に設定することができるものとする。
例えば、図21に示すように、合成基準線を縦1本、横1本とすることにより、4つの画像片を貼り合わせて合成画像を作成することも可能である。同様に、図22は、合成基準線を縦2本、横1本とした場合、図23は合成基準線を縦3本、横1本とした場合、図24は合成基準線を縦4本、横1本とした場合における合成画像をそれぞれ示している。
また、複数の合成基準線が設定された合成画像においても各合成基準線は、ユーザによる移動が可能に構成されている。
In FIG. 14, the case where one composite reference line is set along the vertical axis is described. However, the composite reference line may be set along the horizontal axis, and the number of the set reference lines is also set. It can be set arbitrarily in vertical and horizontal directions.
For example, as shown in FIG. 21, it is possible to create a composite image by combining four image pieces by setting the composite reference line to one vertical and one horizontal. Similarly, FIG. 22 shows a case where the composite reference line is two vertical lines and one horizontal line, FIG. 23 shows a case where the composite reference line is three vertical lines and one horizontal line, and FIG. , Each of the combined images in the case of one horizontal is shown.
Further, even in a composite image in which a plurality of composite reference lines are set, each composite reference line can be moved by the user.
さらに、1度に比較可能なシェードガイドの個数は1つに限られず、複数のシェードガイドと生活歯とを一度に比較するような構成としても良く、複数種類のシェードガイドを生活歯に隣接させて表示させることもできる。たとえば、図16において、4分割された領域のうち、左上にシェードガイドの一部を表示させ、左下に左上のシェードガイドとは異なるシェードガイドを表示させ、右側の2つの領域に生活歯を表示させるようにすることもできる。同様にシェードガイドと複数の生活歯とを一度に比較するような構成とすることも可能である。 Furthermore, the number of shade guides that can be compared at one time is not limited to one, and a configuration may be used in which a plurality of shade guides and vital teeth are compared at a time, and a plurality of types of shade guides are adjacent to vital teeth. Can also be displayed. For example, in FIG. 16, among the four divided areas, a part of the shade guide is displayed at the upper left, a shade guide different from the upper left shade guide is displayed at the lower left, and vital teeth are displayed in the two areas on the right. It can also be made to do. Similarly, it is possible to make a configuration in which the shade guide and a plurality of vital teeth are compared at a time.
1 撮像装置
2 クレードル
3 歯科用測色装置
4 表示装置
10 光源
70 色度算出部
71 スペクトル推定演算部
72 観察スペクトル演算部
73 色度値演算部
80 シェードガイド番号判定部
81 判定演算部
82 シェードガイド基準画像データ記憶部
114 シェードガイド色度データ記憶部
115 画像表示GUI部
116 画像合成部
117 画像取得部
118 像抽出部
119 合成基準線設定部
120 合成部
121 補正部
130 差分算出部
DESCRIPTION OF
Claims (10)
前記第1の撮像画像から測定対象像を抽出するとともに、前記第2の撮像画像から比較対象像を抽出する像抽出手段と、
前記測定対象像上および前記比較対象像上に合成基準線をそれぞれ設定する合成基準線設定手段と、
前記測定対象像および前記比較対象像を前記合成基準線に沿って合成することにより、合成画像を作成する合成手段と、
前記合成画像において、前記合成基準線における輪郭が一致しなかった場合に、前記輪郭が一致するように前記測定対象像および前記比較対象像の少なくともいずれか一方を補正する補正手段と
を具備する画像合成装置。 An image composition device that synthesizes a first captured image in which a measurement target is captured and a second captured image in which a comparison target to be compared with the measurement target is captured to create a single image,
Image extraction means for extracting a measurement target image from the first captured image and extracting a comparison target image from the second captured image;
Combined reference line setting means for setting a combined reference line on the measurement target image and the comparison target image, respectively;
Synthesizing means for creating a synthesized image by synthesizing the measurement object image and the comparison object image along the synthesis reference line;
In the synthesized image, an image comprising correction means for correcting at least one of the measurement target image and the comparison target image so that the contours match when the contours on the composite reference line do not match. Synthesizer.
前記測定対象像において、前記合成基準線近傍の測色値を演算する測色値演算手段と、
前記測定対象像の前記合成基準線近傍の測色値と前記比較対象像の前記合成基準線近傍の測色値との差分を算出する差分算出手段と、
前記測定対象像の前記合成基準線近傍の前記測色値、前記比較対象像の前記合成基準線近傍の前記測色値、および前記測色値の差分の少なくともいずれか1つを前記合成画像と同一画面に表示する表示制御手段と
を具備する歯科用測色装置。 An image composition apparatus according to claim 1;
A colorimetric value calculating means for calculating a colorimetric value near the composite reference line in the measurement target image;
Difference calculating means for calculating a difference between a colorimetric value near the composite reference line of the measurement target image and a colorimetric value near the composite reference line of the comparison target image;
At least one of the colorimetric value in the vicinity of the composite reference line of the measurement target image, the colorimetric value in the vicinity of the composite reference line of the comparison target image, and the difference between the colorimetric values is the composite image. A dental colorimetric device comprising display control means for displaying on the same screen.
前記撮像装置にて測定対象が撮影された第1の撮像画像と該測定対象と比較する比較対象が撮影された第2撮像画像とを合成して一枚の画像を作成する画像合成装置を有する歯科用測色装置と
を備え、
前記画像合成装置は、
前記第1の撮像画像から測定対象像を抽出するとともに、前記第2の撮像画像から比較対象像を抽出する像抽出手段と、
前記測定対象像上および前記比較対象像上に合成基準線をそれぞれ設定する合成基準線設定手段と、
前記測定対象像および前記比較対象像を前記合成基準線に沿って合成することにより、合成画像を作成する合成手段と、
前記合成画像において、前記合成基準線における輪郭が一致しなかった場合に、前記輪郭が一致するように前記測定対象像および前記比較対象像の少なくともいずれか一方を補正する補正手段と
を具備する歯科用測色システム。 An imaging device for imaging the oral cavity;
An image synthesis device that creates a single image by synthesizing a first captured image in which a measurement target is captured by the imaging device and a second captured image in which a comparison target to be compared with the measurement target is captured; A dental colorimetric device,
The image composition device includes:
Image extraction means for extracting a measurement target image from the first captured image and extracting a comparison target image from the second captured image;
Combined reference line setting means for setting a combined reference line on the measurement target image and the comparison target image, respectively;
Synthesizing means for creating a synthesized image by synthesizing the measurement object image and the comparison object image along the synthesis reference line;
A correction unit that corrects at least one of the measurement target image and the comparison target image so that the contours match when the contours in the composite reference line do not match in the composite image; Color measuring system.
前記第1の撮像画像から測定対象像を抽出するとともに、前記第2の撮像画像から比較対象像を抽出する像抽出過程と、
前記測定対象像上および前記比較対象像上に合成基準線をそれぞれ設定する合成基準線設定過程と、
前記測定対象像および前記比較対象像を前記合成基準線に沿って合成することにより、合成画像を作成する合成過程と、
前記合成画像において、前記合成基準線における輪郭が一致しなかった場合に、前記輪郭が一致するように前記測定対象像および前記比較対象像の少なくともいずれか一方を補正する補正過程と
を具備する画像合成方法。 An image creation method for creating a single image by combining a first captured image in which a measurement target is captured and a second captured image in which a comparison target to be compared with the measurement target is captured,
An image extraction process of extracting a measurement target image from the first captured image and extracting a comparison target image from the second captured image;
A combined reference line setting process for setting a combined reference line on the measurement target image and the comparison target image;
Combining the measurement object image and the comparison object image along the combining reference line to create a combined image;
An image comprising: a correction process for correcting at least one of the measurement target image and the comparison target image so that the contours match when the contours in the composite reference line do not match in the composite image Synthesis method.
前記第1の撮像画像から測定対象像を抽出するとともに、前記第2の撮像画像から比較対象像を抽出する像抽出処理と、
前記測定対象像上および前記比較対象像上に合成基準線をそれぞれ設定する合成基準線設定処理と、
前記測定対象像および前記比較対象像を前記合成基準線に沿って合成することにより、合成画像を作成する合成処理と、
前記合成画像において、前記合成基準線における輪郭が一致しなかった場合に、前記輪郭が一致するように前記測定対象像および前記比較対象像の少なくともいずれか一方を補正する補正処理と
をコンピュータに実行させるための画像合成プログラム。 An image creation program for creating a single image by combining a first captured image in which a measurement target is captured and a second captured image in which a comparison target to be compared with the measurement target is captured,
An image extraction process for extracting a measurement target image from the first captured image and extracting a comparison target image from the second captured image;
A combined reference line setting process for setting a combined reference line on the measurement target image and the comparison target image;
A synthesis process for creating a synthesized image by synthesizing the measurement object image and the comparison object image along the synthesis reference line;
In the composite image, when the contours on the composite reference line do not match, the computer executes a correction process for correcting at least one of the measurement target image and the comparison target image so that the contours match. Image composition program to let you.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2006341477A JP3989521B2 (en) | 2005-12-19 | 2006-12-19 | Image composition apparatus, method and program |
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2005365215 | 2005-12-19 | ||
JP2006341477A JP3989521B2 (en) | 2005-12-19 | 2006-12-19 | Image composition apparatus, method and program |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2007190370A true JP2007190370A (en) | 2007-08-02 |
JP3989521B2 JP3989521B2 (en) | 2007-10-10 |
Family
ID=38446488
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2006341477A Expired - Fee Related JP3989521B2 (en) | 2005-12-19 | 2006-12-19 | Image composition apparatus, method and program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP3989521B2 (en) |
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2014073642A1 (en) * | 2012-11-09 | 2014-05-15 | 富士フイルム株式会社 | Camera system, color conversion device and method employed thereupon, and color conversion program |
JP2014153066A (en) * | 2013-02-05 | 2014-08-25 | Seiko Epson Corp | Colorimetric method and colorimetric device |
JP2014173919A (en) * | 2013-03-07 | 2014-09-22 | Seiko Epson Corp | Spectroscopy measuring device |
WO2019111351A1 (en) * | 2017-12-06 | 2019-06-13 | オリンパス株式会社 | Light blocking unit |
JPWO2019039354A1 (en) * | 2017-08-23 | 2020-07-16 | 富士フイルム株式会社 | Light source device and endoscope system |
JP2021124507A (en) * | 2020-01-31 | 2021-08-30 | メディット コーポレーション | External light interference removal method |
-
2006
- 2006-12-19 JP JP2006341477A patent/JP3989521B2/en not_active Expired - Fee Related
Cited By (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2014073642A1 (en) * | 2012-11-09 | 2014-05-15 | 富士フイルム株式会社 | Camera system, color conversion device and method employed thereupon, and color conversion program |
JP2015046142A (en) * | 2012-11-09 | 2015-03-12 | 富士フイルム株式会社 | Camera system, color conversion apparatus and method for use on the same, and color conversion program |
KR20150068423A (en) * | 2012-11-09 | 2015-06-19 | 후지필름 가부시키가이샤 | Camera system, color conversion device and method employed thereupon, and color conversion program |
KR101660323B1 (en) | 2012-11-09 | 2016-09-29 | 후지필름 가부시키가이샤 | Camera system, color conversion device and method employed thereupon, and color conversion program |
JP2014153066A (en) * | 2013-02-05 | 2014-08-25 | Seiko Epson Corp | Colorimetric method and colorimetric device |
JP2014173919A (en) * | 2013-03-07 | 2014-09-22 | Seiko Epson Corp | Spectroscopy measuring device |
JPWO2019039354A1 (en) * | 2017-08-23 | 2020-07-16 | 富士フイルム株式会社 | Light source device and endoscope system |
WO2019111351A1 (en) * | 2017-12-06 | 2019-06-13 | オリンパス株式会社 | Light blocking unit |
JP2021124507A (en) * | 2020-01-31 | 2021-08-30 | メディット コーポレーション | External light interference removal method |
JP7231139B2 (en) | 2020-01-31 | 2023-03-01 | メディット コーポレーション | External light interference elimination method |
US11826016B2 (en) | 2020-01-31 | 2023-11-28 | Medit Corp. | External light interference removal method |
Also Published As
Publication number | Publication date |
---|---|
JP3989521B2 (en) | 2007-10-10 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR100998805B1 (en) | Image combining apparatus | |
JP2007047045A (en) | Apparatus, method and program for image processing | |
US20070140553A1 (en) | Dental colorimetry apparatus | |
JP6045130B2 (en) | Method for tooth color mapping | |
JP5190944B2 (en) | Endoscope apparatus and method for operating endoscope apparatus | |
JP3930334B2 (en) | Spectral reflectance measuring device | |
JP4870067B2 (en) | Image processing system | |
JP4773217B2 (en) | Electronic endoscope device | |
JP5992936B2 (en) | Endoscope system, processor device for endoscope system, operation method of endoscope system, operation method of processor device for endoscope system | |
JP7021183B2 (en) | Endoscope system, processor device, and how to operate the endoscope system | |
JP3989521B2 (en) | Image composition apparatus, method and program | |
JPWO2005071372A1 (en) | Image processing system, hospital processing system | |
JP2012020130A (en) | Dental tone mapping | |
JP4327380B2 (en) | Fluorescent image display method and apparatus | |
JP3989522B2 (en) | Dental colorimetry apparatus, system, method, and program | |
JP5039621B2 (en) | Electronic endoscope device | |
JP2010081057A (en) | Image processing apparatus and method, and colorimetry system | |
JP7015382B2 (en) | Endoscope system | |
CN112004455B (en) | Medical image processing system | |
JP2009195495A (en) | Dental device for measuring color | |
JP2009053160A (en) | Dental colorimetric device | |
WO2019244254A1 (en) | Image processing device, operating method for image processing device, and operation program for image processing device | |
JP4831962B2 (en) | Imaging device | |
JP2019153931A (en) | Measuring device, method for setting parameter for color measurement conversion in measuring device, and industrial product inspected by measuring device | |
JP6960773B2 (en) | Captured image processing system |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20070507 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20070626 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20070717 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20100727 Year of fee payment: 3 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20100727 Year of fee payment: 3 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20110727 Year of fee payment: 4 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20120727 Year of fee payment: 5 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20130727 Year of fee payment: 6 |
|
LAPS | Cancellation because of no payment of annual fees |