JP2007190370A - Image composing device, and method and program thereof - Google Patents

Image composing device, and method and program thereof Download PDF

Info

Publication number
JP2007190370A
JP2007190370A JP2006341477A JP2006341477A JP2007190370A JP 2007190370 A JP2007190370 A JP 2007190370A JP 2006341477 A JP2006341477 A JP 2006341477A JP 2006341477 A JP2006341477 A JP 2006341477A JP 2007190370 A JP2007190370 A JP 2007190370A
Authority
JP
Japan
Prior art keywords
image
reference line
measurement target
composite
captured
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2006341477A
Other languages
Japanese (ja)
Other versions
JP3989521B2 (en
Inventor
Masaya Katsumata
政也 勝俣
Osamu Konno
治 今野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Olympus Corp
Original Assignee
Olympus Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Olympus Corp filed Critical Olympus Corp
Priority to JP2006341477A priority Critical patent/JP3989521B2/en
Publication of JP2007190370A publication Critical patent/JP2007190370A/en
Application granted granted Critical
Publication of JP3989521B2 publication Critical patent/JP3989521B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/45For evaluating or diagnosing the musculoskeletal system or teeth
    • A61B5/4538Evaluating a particular part of the muscoloskeletal system or a particular medical condition
    • A61B5/4542Evaluating the mouth, e.g. the jaw
    • A61B5/4547Evaluating teeth
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/74Details of notification to user or communication with user or patient ; user input means
    • A61B5/742Details of notification to user or communication with user or patient ; user input means using visual displays
    • A61B5/7425Displaying combinations of multiple images regardless of image source, e.g. displaying a reference anatomical image with a live image

Abstract

<P>PROBLEM TO BE SOLVED: To provide an image composing device, and a method and a program thereof, providing the image of an object in such a display mode that the tone of the object for measurement such as a vital tooth can be easily compared with the tone of an object of comparison to be compared with the object for measurement. <P>SOLUTION: The image composing device comprises an image extraction part 118 for extracting the image of the vital tooth (hereinafter called "the image of the object for measurement") from the colored image of the vital tooth and extracting the image of a shade guide (hereinafter called "the image of the object for comparison") from the colored image of the shade guide, a composite reference line setting part 119 for setting composite reference lines on the image of the object for measurement and the image of the object for comparison, a composing part 120 for creating the composite image by composing the image of the object for measurement and the image of the object for comparison, and a correcting part 121 for correcting at least either one of the image of the object for measurement or the image of the object for comparison if the contours of the images on the composite reference line do not fit each other in the composite image. <P>COPYRIGHT: (C)2007,JPO&INPIT

Description

本発明は、複数の画像を合成する画像合成装置に係り、特に、歯や皮膚などの測色を行う測色装置に利用されるのに好適な画像合成装置および方法並びにプログラムに関するものである。   The present invention relates to an image synthesizing apparatus that synthesizes a plurality of images, and more particularly to an image synthesizing apparatus, method, and program suitable for use in a colorimetric apparatus that performs colorimetry such as teeth and skin.

近年、美容や健康に対する関心が高まっており、例えば、美容においては、皮膚のメラニン色素を抑制するホワイトニングが審美追求の一分野として流行の兆しを見せている。
従来における肌の診断には、肌の表面を拡大してモニタなどで観察することができるように構成された肌診断用カメラシステムが用いられており、例えば、皮膚科、エステティックサロン、美容カウンセリングなどで使用されている。これらのうちの例えば皮膚科の場合には、皮溝や皮丘の画像を観察することにより、皮膚表面の特徴を捉えて診断し、カウンセリング等が行われている。
In recent years, interest in beauty and health has increased. For example, in beauty, whitening that suppresses melanin pigments in the skin is showing a trend as a field of aesthetic pursuit.
Conventional skin diagnosis uses a camera system for skin diagnosis that is configured so that the surface of the skin can be enlarged and observed on a monitor, for example, dermatology, esthetic salon, beauty counseling, etc. Used in. Of these, for example, in the case of dermatology, by observing images of skin grooves and dermis, the characteristics of the skin surface are captured and diagnosed, and counseling is performed.

また、歯科の分野では、歯科治療において審美追求も加味した一つの手段としてセラミッククラウン法などによる治療が行われている。このセラミッククラウン法は、患者の元の歯の色に近い色のクラウン(セラミック製の歯冠補綴物)を作製し、このクラウンを患者の歯にかぶせることにより行われる。   In the field of dentistry, treatment by the ceramic crown method or the like is performed as one means in consideration of aesthetics in dental treatment. This ceramic crown method is performed by producing a crown (ceramic crown prosthesis) having a color close to the color of the original tooth of the patient and covering the crown of the patient with the crown.

従来、上記クラウンの作製は、以下のようにして行われている。
まず、歯科医院において、歯科医等により患者の口腔内の撮影が行われる。具体的には、複数の歯を含む口腔内全体の写真やクラウン作製の対象となる生活歯の歯面等の撮影が行われる。
続いて、歯科医は、色調の互いに異なる複数の歯の見本(以下「シェードガイド」という。)の中から患者の生活歯に最も近い色調のシェードガイドを選択する(以下、この作業を「シェードテイク」という。)。シェードガイドとは、例えば、互いに異なる発色のセラミックを歯の形状に加工したものである。
上記作業が終了すると、歯科医は、上述の撮影写真およびシェードテイクしたシェードガイドに割り当てられている固有の識別番号をクラウンの技工所に送付する。これにより、技工所では、これら情報に基づいてクラウンの作製が行われる。
Conventionally, the crown is manufactured as follows.
First, in a dental clinic, imaging of the patient's oral cavity is performed by a dentist or the like. Specifically, a photograph of the entire oral cavity including a plurality of teeth, a tooth surface of a living tooth to be crowned, and the like are taken.
Subsequently, the dentist selects a shade guide having a color tone closest to the patient's vital tooth from a plurality of tooth samples (hereinafter referred to as “shade guides”) having different color tones (hereinafter referred to as “shade”). "Take"). The shade guide is obtained by processing different colored ceramics into a tooth shape, for example.
When the above operation is completed, the dentist sends the above-mentioned photographed photograph and the unique identification number assigned to the shade-taken shade guide to the crown laboratory. Thereby, in the technical laboratory, the crown is manufactured based on these pieces of information.

しかしながら、上述したシェードテイクは、歯科医の主観により行われるため定量性に欠ける。更に、シェードガイドや患者の歯色は、歯茎の色合い、周辺の環境、照明状況(例えば、照明の当たり方、照明の色など)、医師の疲労度等の様々な要因によって見え方が変化するため、最適なシェードガイドを選択することは非常に難しく、医師への負担が大きいという欠点があった。   However, since the above-mentioned shade take is performed by the dentist's subjectivity, it lacks quantitativeness. Furthermore, the appearance of the shade guide and the color of the patient's teeth changes depending on various factors such as the color of the gums, the surrounding environment, lighting conditions (for example, lighting conditions, lighting colors, etc.), and the fatigue level of the doctor. For this reason, it is very difficult to select an optimum shade guide, and there is a drawback that a burden on a doctor is great.

そこで、上述した医師等の負担を軽減するべく、生活歯に色調が最も近似するシェードガイドを自動的に選択する等の機能を備えたシェードテイク等の作業支援装置が提案されている。   Therefore, in order to reduce the above-mentioned burden on the doctor or the like, a work support device such as a shade take has been proposed which has a function of automatically selecting a shade guide whose color tone is most similar to a living tooth.

例えば、特許第3710802号公報(以下「文献1」という。)には、予め複数の歯牙基準色の識別情報データとその歯牙基準色のL表色系の色調情報データとが対応したデータテーブルをコンピュータに予め記憶させ、生活歯と歯牙基準色の色調を有する基準具(上述の「シェードガイド」に相当)とを同時に撮影した画像データを入力し、画像データ内で分析された基準具の歯牙基準色のL表色系の色調情報データと、その歯牙基準色の識別情報データと一致したデータテーブルの歯牙基準色の色調情報データとを略一致させる色調補正値を算出して生活歯の色調を補正し、補正された生活歯の色調の色調情報データと一致又は近似した色調情報データの歯牙基準色の識別情報データをデータテーブルから抽出し出力する技術が開示されている。
特許第3710802号公報(第5図および第6図)
For example, in Japanese Patent No. 3710802 (hereinafter referred to as “Document 1”), identification information data of a plurality of tooth reference colors and L * a * b * color tone information data of the tooth reference colors are stored in advance. A corresponding data table is stored in advance in the computer, and image data obtained by simultaneously photographing a vital tooth and a reference tool (corresponding to the “shade guide” described above) having a tooth reference color tone is input and analyzed in the image data. Color tone information that substantially matches L * a * b * color system color tone information data of the tooth reference color of the reference tool and the tooth standard color color information data of the data table that matches the identification information data of the tooth reference color The correction value is calculated to correct the color tone of the vital tooth, and the tooth reference color identification information data of the color tone information data that matches or approximates the color tone information data of the corrected vital tooth color tone from the data table A technique for extracting and outputting is disclosed.
Japanese Patent No. 3710802 (FIGS. 5 and 6)

しかしながら、上記特許文献1に開示されている発明では、両者の色調の比較結果等が数値で表現されているために、実際にどの程度の色差があるのかをユーザが感覚的に把握することが困難であった。   However, in the invention disclosed in the above-mentioned Patent Document 1, since the comparison result of the two color tones and the like is expressed numerically, the user can sensuously know how much color difference actually exists. It was difficult.

本発明は、このような事情に鑑みてなされたものであって、生活歯等の測定対象の色調と、該測定対象と比較される比較対象の色調とを比較しやすい表示態様でユーザに提供することのできる画像合成装置およびその方法並びにプログラムを提供することを目的とする。   The present invention has been made in view of such circumstances, and provides a user with a display mode that makes it easy to compare the color tone of a measurement target such as a vital tooth and the color of a comparison target compared to the measurement target. An object of the present invention is to provide an image synthesizing apparatus, a method thereof, and a program.

上記課題を解決するために、本発明は以下の手段を採用する。
本発明は、測定対象が撮影された第1の撮像画像と該測定対象と比較する比較対象が撮影された第2の撮像画像とを合成して一枚の画像を作成する画像合成装置であって、前記第1の撮像画像から測定対象像を抽出するとともに、前記第2の撮像画像から比較対象像を抽出する像抽出手段と、前記測定対象像上および前記比較対象像上に合成基準線をそれぞれ設定する合成基準線設定手段と、前記測定対象像および前記比較対象像を前記合成基準線に沿って合成することにより、合成画像を作成する合成手段と、前記合成画像において、前記合成基準線における輪郭が一致しなかった場合に、前記輪郭が一致するように前記測定対象像および前記比較対象像の少なくともいずれか一方を補正する補正手段とを具備する画像合成装置を提供する。
In order to solve the above problems, the present invention employs the following means.
The present invention is an image composition device that synthesizes a first captured image in which a measurement target is photographed and a second captured image in which a comparison target to be compared with the measurement target is photographed to create a single image. And extracting a measurement target image from the first captured image and extracting a comparison target image from the second captured image; and a composite reference line on the measurement target image and the comparison target image Combining reference line setting means for setting each of the measurement target image and the comparison target image by combining the measurement target image and the comparison target image along the composite reference line, and the composite reference in the composite image Provided is an image synthesizing device including a correcting unit that corrects at least one of the measurement target image and the comparison target image so that the contours match when the contours in the line do not match.

このような構成によれば、測定対象像と比較対象像とを例えば、貼り合わせて1つの画像として表示するので、ユーザは貼り合わせの境界部分を視認することにより、両者の色調を直接的に比較することができる。これにより、ユーザは、微妙な色の違いも認識することが可能となる。また、この場合において、測定対象像および比較対象像の大きさが異なっており、合成手段により合成された合成画面において輪郭が一致していない場合であっても、補正手段により合成基準線における輪郭が一致するように補正がなされるため、自然な合成画像をユーザに提供することができる。
上記抽出手段における「抽出」は、測定対象像を第1の撮像画像から別個のものとして抽出する概念のほか、第1の撮像画像において測定対象像の輪郭を特定するという概念も含むものとし、比較対象像についても同様に解する。
上記「合成」の手法については特に限定されない。例えば、合成基準線にて切断した各画像片を貼り合わせて合成する手法や、各画像に設定された合成基準線が一致するように各画像を互いに重ね合わせ、合成基準線を境界として互いの透過率を異ならせることにより画像の合成を行う手法を採用することが可能である。
According to such a configuration, for example, the measurement target image and the comparison target image are bonded and displayed as one image, so that the user can directly change the color tone of both by visually recognizing the boundary portion of the bonding. Can be compared. Thereby, the user can recognize a subtle color difference. In this case, even when the sizes of the measurement target image and the comparison target image are different and the contours do not match on the composite screen synthesized by the synthesis unit, the contour on the synthesis reference line is corrected by the correction unit. Are corrected so as to match, a natural composite image can be provided to the user.
The “extraction” in the extraction means includes not only the concept of extracting the measurement target image separately from the first captured image but also the concept of specifying the contour of the measurement target image in the first captured image. The same applies to the target image.
The “synthesis” technique is not particularly limited. For example, a method of pasting and synthesizing each image piece cut at the composite reference line, or overlapping each other so that the composite reference line set for each image matches, and using the composite reference line as a boundary, It is possible to employ a method of synthesizing images by changing the transmittance.

上記測定対象は、互いに異なる色調で表現された複数の色見本が予め容易されており、これらの色見本と色調を比較することを要する物体をいう。測定対象は、例えば、生活歯、皮膚などの人体の一部のほか、カーテン、カーペットなどのインテリア、バック、ソファ等の革製品、電子部品、塗装が施されている車、壁等である。   The measurement object refers to an object for which a plurality of color samples expressed in different color tones are easily prepared in advance, and it is necessary to compare the color tones with these color samples. The measurement object is, for example, a part of the human body such as living teeth and skin, interiors such as curtains and carpets, leather products such as bags and sofas, electronic parts, painted cars, walls, and the like.

上記画像合成装置において、前記合成基準線設定手段が、前記測定対象像の重心を通る線を前記合成基準線として前記測定対象像上に設定し、前記比較対象像の重心を通る線を前記合成基準線として前記比較対象像上に設定することとしてもよい。   In the image composition device, the composition reference line setting unit sets a line passing through the center of gravity of the measurement target image as the composition reference line on the measurement target image, and a line passing through the center of gravity of the comparison target image The reference line may be set on the comparison target image.

このような構成によれば、測定対象像および比較対象像において、各々の重心を通る線が合成基準線としてそれぞれ設定されるので、合成画像における両者の面積比を略同一に保つことが可能となり、バランスのとれた合成画像を提供することができる。   According to such a configuration, in the measurement target image and the comparison target image, since the lines passing through the respective centroids are set as the composite reference lines, it is possible to keep the area ratio of both in the composite image substantially the same. A balanced composite image can be provided.

上記画像合成装置において、前記合成基準線設定手段が、前記測定対象像の縦軸方向の長さが最大となる箇所に、前記縦軸方向に沿って前記合成基準線を前記測定対象像上に設定し、前記比較対象像の縦軸方向の長さが最大となる箇所に、前記縦軸方向に沿って前記合成基準線を前記比較対象像上に設定することとしてもよい。   In the image composition device, the composition reference line setting means places the composition reference line on the measurement target image along the vertical axis direction at a position where the length of the measurement target image in the vertical axis direction is maximum. It is good also as setting the said synthetic | combination reference line on the said comparison object image along the said vertical axis direction in the location where the length of the vertical axis direction of the said comparison object image becomes the maximum.

このような構成によれば、測定対象像および比較対象像において、縦軸方向の長さが最大となる箇所に、縦軸方向に沿って合成基準線がそれぞれ設定されるので、後述する合成基準線変更手段により合成基準線が変更された場合でも、この変更に容易に追従することができ、速やかに変更後の合成画像を作成することが可能となる。   According to such a configuration, in the measurement target image and the comparison target image, since the composite reference line is set along the vertical axis direction at the position where the length in the vertical axis direction is maximum, the composite standard described later Even when the composite reference line is changed by the line changing means, it is possible to easily follow this change, and it is possible to quickly create a composite image after the change.

上記画像合成装置は、前記合成画像において前記合成基準線を外部から変更する合成基準線変更手段を更に備えていてもよい。   The image synthesizing apparatus may further include synthesis reference line changing means for changing the synthesis reference line from the outside in the synthesized image.

このような構成によれば、ユーザは所望の位置に合成基準線を移動させることができるので、合成画像における測定対象像と比較対象像との面積比を変更することができるとともに、色調比較を行う箇所を自由に変更することができる。
また、合成基準線変更手段により合成基準線が変更された場合には、変更後における合成基準線をそのまま用いるのではなく、ユーザによって移動された合成基準線に基づいて測定対象像上および比較対象像上に合成基準線を再設定することにより、全体のバランスを考慮した、適切な箇所に合成基準線を設定することができる。この結果、変更後における合成画像の両者の面積比率を好適な値に保つことができるとともに、輪郭の歪みを少なくすることが可能となる。
According to such a configuration, the user can move the composite reference line to a desired position, so that the area ratio between the measurement target image and the comparison target image in the composite image can be changed, and the color tone comparison can be performed. You can freely change the place to do.
Further, when the composite reference line is changed by the composite reference line changing means, the composite reference line after the change is not used as it is, but on the measurement target image and the comparison target based on the composite reference line moved by the user. By resetting the composite reference line on the image, it is possible to set the composite reference line at an appropriate location in consideration of the overall balance. As a result, it is possible to keep the area ratio of both of the composite images after the change at a suitable value and reduce the distortion of the contour.

上記画像合成装置において、前記補正手段が、前記測定対象像および前記比較対象像の少なくともいずれか一方を縮小または拡大することとしてもよい。   In the image composition apparatus, the correction unit may reduce or enlarge at least one of the measurement target image and the comparison target image.

このような構成によれば、容易な補正処理により、合成画像における輪郭を一致させることが可能となる。   According to such a configuration, it is possible to match the contours in the composite image by an easy correction process.

上記画像合成装置において、例えば、前記測定対象は生活歯であり、前記比較対象は前記シェードガイドである。   In the image composition device, for example, the measurement target is a vital tooth, and the comparison target is the shade guide.

上記画像合成装置は、特に、歯科用測色装置に用いられて好適なものである。
具体的には、本発明は、上記画像合成装置と、前記測定対象像において、前記合成基準線近傍の測色値を演算する測色値演算手段と、前記測定対象像の前記合成基準線近傍の測色値と前記比較対象像の前記合成基準線近傍の測色値との差分を算出する差分算出手段と、前記測定対象像の前記合成基準線近傍の前記測色値、前記比較対象像の前記合成基準線近傍の前記測色値、および前記測色値の差分の少なくともいずれか1つを前記合成画像と同一画面に表示する表示制御手段とを具備する歯科用測色装置を提供する。
The image composition device is particularly suitable for use in a dental colorimetry device.
Specifically, the present invention provides the image synthesizing apparatus, a colorimetric value calculation means for calculating a colorimetric value near the synthetic reference line in the measurement target image, and the synthetic reference line vicinity of the measurement target image. A difference calculating unit that calculates a difference between the colorimetric value of the comparison target image and the colorimetric value of the comparison target image in the vicinity of the composite reference line, the colorimetric value of the measurement target image in the vicinity of the composite reference line, and the comparison target image There is provided a dental colorimetric device comprising display control means for displaying at least one of the colorimetric value in the vicinity of the composite reference line and the difference between the colorimetric values on the same screen as the composite image. .

本発明は、口腔内を撮像する撮像装置と、前記撮像装置にて測定対象が撮影された第1の撮像画像と該測定対象と比較する比較対象が撮影された第2撮像画像とを合成して一枚の画像を作成する画像合成装置を有する歯科用測色装置とを備え、前記画像合成装置は、前記第1の撮像画像から測定対象像を抽出するとともに、前記第2の撮像画像から比較対象像を抽出する像抽出手段と、前記測定対象像上および前記比較対象像上に合成基準線をそれぞれ設定する合成基準線設定手段と、前記測定対象像および前記比較対象像を前記合成基準線に沿って合成することにより、合成画像を作成する合成手段と、前記合成画像において、前記合成基準線における輪郭が一致しなかった場合に、前記輪郭が一致するように前記測定対象像および前記比較対象像の少なくともいずれか一方を補正する補正手段と
を具備する歯科用測色システムを提供する。
The present invention combines an imaging device that captures an intraoral area, a first captured image in which a measurement target is captured by the imaging device, and a second captured image in which a comparison target to be compared with the measurement target is captured. A dental colorimetric device having an image composition device for creating a single image, wherein the image composition device extracts a measurement target image from the first captured image and from the second captured image. Image extraction means for extracting a comparison target image; synthesis reference line setting means for setting a synthesis reference line on the measurement target image and the comparison target image; and the measurement target image and the comparison target image as the synthesis reference A synthesis unit that creates a synthesized image by synthesizing along the line; and in the synthesized image, when the contour in the synthesized reference line does not match, the measurement object image and the ratio To provide a dental colorimetry system comprising correction means for correcting at least one of the target image.

本発明は、測定対象が撮影された第1の撮像画像と該測定対象と比較する比較対象が撮影された第2の撮像画像とを合成して一枚の画像を作成する画像作成方法であって、前記第1の撮像画像から測定対象像を抽出するとともに、前記第2の撮像画像から比較対象像を抽出する像抽出過程と、前記測定対象像上および前記比較対象像上に合成基準線をそれぞれ設定する合成基準線設定過程と、前記測定対象像および前記比較対象像を前記合成基準線に沿って合成することにより、合成画像を作成する合成過程と、前記合成画像において、前記合成基準線における輪郭が一致しなかった場合に、前記輪郭が一致するように前記測定対象像および前記比較対象像の少なくともいずれか一方を補正する補正過程とを具備する画像合成方法を提供する。   The present invention is an image creation method for creating a single image by combining a first captured image in which a measurement target is captured and a second captured image in which a comparison target to be compared with the measurement target is captured. And extracting a measurement target image from the first captured image and extracting a comparison target image from the second captured image, and a composite reference line on the measurement target image and the comparison target image. A synthesis reference line setting process, a synthesis process for creating a synthesized image by synthesizing the measurement target image and the comparison target image along the synthesis reference line, and the synthesis reference in the synthesized image. Provided is an image composition method including a correction process for correcting at least one of the measurement target image and the comparison target image so that the contours match when the contours in the line do not match.

本発明は、測定対象が撮影された第1の撮像画像と該測定対象と比較する比較対象が撮影された第2の撮像画像とを合成して一枚の画像を作成するための画像作成プログラムであって、前記第1の撮像画像から測定対象像を抽出するとともに、前記第2の撮像画像から比較対象像を抽出する像抽出処理と、前記測定対象像上および前記比較対象像上に合成基準線をそれぞれ設定する合成基準線設定処理と、前記測定対象像および前記比較対象像を前記合成基準線に沿って合成することにより、合成画像を作成する合成処理と、前記合成画像において、前記合成基準線における輪郭が一致しなかった場合に、前記輪郭が一致するように前記測定対象像および前記比較対象像の少なくともいずれか一方を補正する補正処理とをコンピュータに実行させるための画像合成プログラムを提供する。   The present invention relates to an image creation program for synthesizing a first captured image in which a measurement object is photographed and a second captured image in which a comparison object to be compared with the measurement object is photographed to create a single image. An image extraction process for extracting a measurement target image from the first captured image and extracting a comparison target image from the second captured image, and combining the image on the measurement target image and the comparison target image In the combined image, a combined reference line setting process for setting a reference line, a combined process for creating a combined image by combining the measurement target image and the comparison target image along the combined reference line, and the combined image, When the contours on the composite reference line do not match, the computer executes correction processing for correcting at least one of the measurement target image and the comparison target image so that the contours match To provide an image synthesizing program for causing.

本発明によれば、生活歯等の測定対象の色調と、該測定対象と比較される比較対象の色調とを比較しやすい表示態様でユーザに提供することができるという効果を奏する。   According to the present invention, it is possible to provide a user with a display mode in which the color tone of a measurement target such as a vital tooth and the color tone of a comparison target compared with the measurement target can be easily compared.

以下、本発明の画像合成装置を歯科用測色システムに適用した場合の実施形態について、図面を参照して説明する。
本発明の一実施形態に係る歯科用測色システムは、図1及び図4に示すように、撮像装置1、クレードル2、歯科用測色装置3、及び表示装置4を備えて構成されている。
Hereinafter, an embodiment in which the image composition device of the present invention is applied to a dental color measurement system will be described with reference to the drawings.
As shown in FIGS. 1 and 4, the dental color measurement system according to an embodiment of the present invention includes an imaging device 1, a cradle 2, a dental color measurement device 3, and a display device 4. .

撮影装置1は、図1に示すように光源10、撮像部20、撮像制御部30、表示部40、操作部50を主な構成要素として備えている。
光源10は、撮影装置1の先端部付近に配置され、被写体を照明するための互いに異なる4つ以上の波長帯域を有する照明光を発する。具体的には、光源10は、互いに異なる波長帯域の光を発する7つの光源10a乃至10gを備えている。各光源10a乃至10gは、それぞれ4つのLEDを備えており、その中心波長は図2に示すように、光源10aは約450nm、光源10bは約465nm、光源10cは約505nm、光源10dは約525nm、光源10eは約575nm、光源10fは約605nm、光源10gは約630nmとなっている。このLEDの発光スペクトル情報は、LEDメモリ11に記憶され、後述する歯科用測色装置3にて用いられる。
The imaging device 1 includes a light source 10, an imaging unit 20, an imaging control unit 30, a display unit 40, and an operation unit 50 as main components as shown in FIG.
The light source 10 is disposed in the vicinity of the tip of the photographing apparatus 1 and emits illumination light having four or more different wavelength bands for illuminating the subject. Specifically, the light source 10 includes seven light sources 10a to 10g that emit light in different wavelength bands. Each of the light sources 10a to 10g includes four LEDs. As shown in FIG. 2, the central wavelengths of the light sources 10a are about 450 nm, the light source 10b is about 465 nm, the light source 10c is about 505 nm, and the light source 10d is about 525 nm. The light source 10e is about 575 nm, the light source 10f is about 605 nm, and the light source 10g is about 630 nm. The emission spectrum information of the LED is stored in the LED memory 11 and used in the dental color measuring device 3 described later.

これら光源10a乃至10gは、例えば、リング状に配置されている。配列は、特に限定されず、例えば、波長の短い順にLEDを4つずつ配置してもよいし、逆順或いはランダム配置等でもよい。また、全てのLEDで1つのリングを形成するような配置のほか、LEDを複数のグループに分け、これら1つのグループで1つのリングを形成するように配置してもよい。なお、LEDの配置は、上記リング状に限られず、後述する撮像部20による撮像に支障をきたすことのない限りは、十字状配置、矩形状配置、ランダム配置等の適宜の配置を採用することが可能である。なお、光源10の発光素子としては、LEDに限られず、例えば、LD(レーザダイオード)等の半導体レーザやその他の発光素子を用いることも可能である。   These light sources 10a to 10g are arranged in a ring shape, for example. The arrangement is not particularly limited, and for example, four LEDs may be arranged in the order of shorter wavelengths, or may be arranged in reverse order or at random. Further, in addition to the arrangement in which all the LEDs form one ring, the LEDs may be divided into a plurality of groups, and these one group may be arranged to form one ring. The arrangement of the LEDs is not limited to the ring shape, and an appropriate arrangement such as a cross arrangement, a rectangular arrangement, a random arrangement, or the like may be adopted as long as it does not hinder imaging by the imaging unit 20 described later. Is possible. The light emitting element of the light source 10 is not limited to an LED, and for example, a semiconductor laser such as an LD (laser diode) or other light emitting elements can be used.

撮像装置1において、上記光源10の被写体側には、光源10からの照明光を略均一に被写体面に照射するための照明光学系が設けられている。また、上記光源10の近傍には、LEDの温度を検出する温度センサ13が設けられている。   In the imaging apparatus 1, an illumination optical system for irradiating illumination light from the light source 10 onto the subject surface substantially uniformly is provided on the subject side of the light source 10. A temperature sensor 13 for detecting the temperature of the LED is provided in the vicinity of the light source 10.

撮像部20は、撮像レンズ21、RGBカラー撮像素子22、信号処理部23、AD変換器24を備えて構成されている。撮像レンズ21は、光源10が照射された被写体像を結像する。RGBカラー撮像素子22は、撮像レンズ21により結像された被写体像を撮像して画像信号を出力する。このRGBカラー撮像素子22は、例えば、CCDにより構成されており、そのセンサ感度は、可視広域を略カバーするようなものとなっている。このCCDは、モノクロタイプの物でもよいし、カラータイプのものでもよい。また、RGBカラー撮像素子22は、CCDに限られず、CMOSタイプやその他の各種の撮像素子を広く使用することが可能である。   The imaging unit 20 includes an imaging lens 21, an RGB color imaging device 22, a signal processing unit 23, and an AD converter 24. The imaging lens 21 forms a subject image irradiated with the light source 10. The RGB color image sensor 22 captures a subject image formed by the imaging lens 21 and outputs an image signal. The RGB color image pickup element 22 is constituted by, for example, a CCD, and the sensor sensitivity is such that it substantially covers the visible wide area. This CCD may be a monochrome type or a color type. The RGB color image sensor 22 is not limited to a CCD, and a CMOS type or other various image sensors can be widely used.

信号処理部23は、RGBカラー撮像素子22から出力されるアナログ信号に、ゲイン補正やオフセット補正等を施す。A/D変換器24は、信号処理部23から出力されるアナログ信号をデジタル信号に変換する。上記撮像レンズ21には、フォーカスを調整するフォーカスレバー25が接続されている。このフォーカスレバー25は、マニュアルにてフォーカスを調整するためのものであり、フォーカスレバー25の位置を検出するための位置検出部26が設けられている。   The signal processing unit 23 performs gain correction, offset correction, and the like on the analog signal output from the RGB color image sensor 22. The A / D converter 24 converts the analog signal output from the signal processing unit 23 into a digital signal. A focus lever 25 for adjusting the focus is connected to the imaging lens 21. The focus lever 25 is for manually adjusting the focus, and a position detection unit 26 for detecting the position of the focus lever 25 is provided.

撮像制御部30は、CPU31、LEDドライバ32、データI/F33、通信I/Fコントローラ34、画像メモリ35、及び操作部I/F36を備えて構成されている。これら各部は、ローカルバス37に接続されており、ローカルバス37を介してデータの授受が可能な構成となっている。   The imaging control unit 30 includes a CPU 31, an LED driver 32, a data I / F 33, a communication I / F controller 34, an image memory 35, and an operation unit I / F 36. Each of these units is connected to the local bus 37 and is configured to be able to exchange data via the local bus 37.

CPU31は、撮像部20の制御を行うとともに、撮像部20により取得され処理された被写体分光画像をローカルバス37を介して画像メモリ35に記録するとともに、後述するLCDコントローラ41に出力する。LEDドライバ32は、光源10が備える各種LEDの発光を制御する。データI/F33は、光源10が備えるLEDメモリ11の内容や温度センサ13の情報を受信するためのインターフェースである。通信I/Fコントローラ34は、外部との接続点となる通信I/F接点61と接続されており、例えば、USB2.0に準拠した通信を実現させるための機能を備えている。操作部I/F36は、後述する操作部50が備える各種操作ボタンと接続されており、操作部50を介して入力された入力指示をローカルバス37を介してCPU31へ転送するインターフェースとして機能する。画像メモリ35は、撮像部20にて撮影された画像データを一時的に記録する。本実施形態では、画像メモリ35は、最低でも7枚の分光画像と一枚のRGBカラー画像を記録できるメモリ容量を有している。   The CPU 31 controls the imaging unit 20, records the subject spectral image acquired and processed by the imaging unit 20 in the image memory 35 via the local bus 37, and outputs it to the LCD controller 41 described later. The LED driver 32 controls light emission of various LEDs included in the light source 10. The data I / F 33 is an interface for receiving the contents of the LED memory 11 provided in the light source 10 and the information of the temperature sensor 13. The communication I / F controller 34 is connected to a communication I / F contact 61 serving as a connection point with the outside, and has a function for realizing communication compliant with USB 2.0, for example. The operation unit I / F 36 is connected to various operation buttons provided in the operation unit 50 to be described later, and functions as an interface for transferring an input instruction input via the operation unit 50 to the CPU 31 via the local bus 37. The image memory 35 temporarily records image data captured by the imaging unit 20. In the present embodiment, the image memory 35 has a memory capacity capable of recording at least seven spectral images and one RGB color image.

表示部40は、LCDコントローラ41とLCD42とを備えて構成されている。LCDコントローラ41は、CPU31から転送されてくる画像信号に基づく画像、例えば、現在、撮像部20により撮影されている画像、或いは、撮影済みの画像をLCD(liquid crystal display)42に表示させる。このとき、必要に応じて、オーバーレイメモリ43に記憶されている画像パターンをCPU31から取得した画像に重畳させてLCD42に表示させるようにしてもよい。ここで、オーバーレイメモリ43に記録されている画像パターンとは、例えば、歯全体を水平に撮影するような水平ラインや、これに交差するクロスライン、撮影モード、撮影する歯の識別番号等である。   The display unit 40 includes an LCD controller 41 and an LCD 42. The LCD controller 41 causes an LCD (liquid crystal display) 42 to display an image based on the image signal transferred from the CPU 31, for example, an image currently captured by the imaging unit 20 or an already captured image. At this time, if necessary, the image pattern stored in the overlay memory 43 may be superimposed on the image acquired from the CPU 31 and displayed on the LCD 42. Here, the image pattern recorded in the overlay memory 43 is, for example, a horizontal line that captures the entire tooth horizontally, a cross line that intersects this, an imaging mode, an identification number of the tooth to be imaged, or the like. .

操作部50は、ユーザが分光画像撮影動作の開始を指示入力したり、動画像撮影動作の開始や終了を指示入力したりするための各種の操作スイッチや操作ボタンを備えている。具体的には、撮影モード切替スイッチ51、シャッタボタン52、ビューア制御ボタン53等を備えている。撮影モード切替スイッチ51は、通常のRGBの撮影と、マルチバンドの撮影とを切り替えるためのスイッチである。ビューア制御ボタン53は、LCD42に表示される画像の変更等の操作をするためのスイッチである。   The operation unit 50 includes various operation switches and operation buttons for a user to input an instruction to start a spectral image shooting operation and to input an instruction to start and end a moving image shooting operation. Specifically, a shooting mode changeover switch 51, a shutter button 52, a viewer control button 53, and the like are provided. The shooting mode switch 51 is a switch for switching between normal RGB shooting and multiband shooting. The viewer control button 53 is a switch for performing operations such as changing the image displayed on the LCD 42.

また、撮像装置1は、蓄電池としてのリチウムバッテリ60を搭載している。このリチウムバッテリ60は、撮像装置1が備える各部に電源供給を行うためのものであり、充電のための接点である接続接点62に接続されている。また、このリチウムバッテリの充電状態を通知するためのバッテリLED63が設けられている。また、撮像装置1には、カメラの状態を知らせるためのパワーLED64、撮影時の危険を知らせるためのアラームブザー65が設けられている。   Moreover, the imaging device 1 is equipped with a lithium battery 60 as a storage battery. The lithium battery 60 is used to supply power to each unit included in the imaging apparatus 1 and is connected to a connection contact 62 that is a contact for charging. Further, a battery LED 63 for notifying the charging state of the lithium battery is provided. In addition, the imaging apparatus 1 is provided with a power LED 64 for notifying the camera state and an alarm buzzer 65 for notifying danger during photographing.

バッテリLED63は、例えば、赤、黄、緑の3つのLEDを備えており、緑色点灯によりリチウムバッテリ60の充電容量が十分である旨を通知し、黄色点灯によりバッテリ容量が少ない旨、換言すると、充電の必要がある旨を通知し、赤色点灯によりバッテリ容量が極めて少ない旨、換言すると、至急充電の必要がある旨を通知する。
パワーLED64は、例えば、赤と緑とからなる2つのLEDを備えており、緑色点灯により撮影準備が完了した旨を通知し、緑色点滅により撮影準備中(初期ウォーミング等)である旨を通知し、赤色点灯によりバッテリ充電中である旨を通知する。
アラームブザー65は、警鐘することにより撮影した画像データが無効である旨を通知する。
The battery LED 63 includes, for example, three LEDs of red, yellow, and green, notifies that the charging capacity of the lithium battery 60 is sufficient by lighting in green, and in other words, indicates that the battery capacity is low by lighting in yellow. The fact that charging is necessary is notified, and the fact that the battery capacity is extremely low by lighting in red, in other words, the fact that urgent charging is required is notified.
The power LED 64 includes, for example, two LEDs of red and green, and notifies that the preparation for shooting is completed by lighting in green, and that the preparation for shooting (initial warming, etc.) is in progress by blinking green. Then, it is notified that the battery is being charged by lighting in red.
The alarm buzzer 65 notifies that the captured image data is invalid by warning.

上述の撮像装置1を支持するクレードル2は、撮像部20のキャリブレーションを行うための色票100と、撮像装置1が正常な位置に装着されたか否かを確認するためのマイクロスイッチ101と、電源のオン/オフを行うための電源スイッチ102、電源スイッチ102のオン/オフに連動して点灯/消灯する電源ランプ103、マイクロスイッチ101に連動して点灯/消灯することにより、撮像装置1が正常位置に装着されたか否かを通知する装着ランプ104を備えている。   The cradle 2 that supports the imaging device 1 described above includes a color chart 100 for calibrating the imaging unit 20, a micro switch 101 for confirming whether the imaging device 1 is mounted at a normal position, The power supply 102 for turning on / off the power, the power lamp 103 which is turned on / off in conjunction with the on / off of the power switch 102, and the light on / off in conjunction with the microswitch 101, the imaging apparatus 1 A mounting lamp 104 for notifying whether or not the camera is mounted at the normal position is provided.

装着ランプ104は、例えば、撮像装置1が正常位置に装着された場合には、緑色が点灯し、装着されていない場合には、赤色が点灯する。また、このクレードル2には、電源接続コネクタ105が設けられており、ACアダプタ106が接続されるようになっている。そして、撮像装置1が備えるリチウムバッテリ60の充電容量が減少し、バッテリLED63の黄色や赤が点灯している状態では、撮像装置1がクレードルに装着された場合にリチウムバッテリの充電が開始されるように構成されている。   For example, when the imaging apparatus 1 is mounted at a normal position, the mounting lamp 104 is lit green, and when it is not mounted, the mounting lamp 104 is lit red. In addition, the cradle 2 is provided with a power connection connector 105 to which an AC adapter 106 is connected. Then, when the charging capacity of the lithium battery 60 included in the imaging device 1 is reduced and the yellow or red of the battery LED 63 is lit, charging of the lithium battery is started when the imaging device 1 is mounted on the cradle. It is configured as follows.

このように構成された歯科用測色システムの撮像装置1では、7種類の波長帯域の照明光(7原色の照明光)を被写体に順次照射して、7枚の被写体分光画像を静止画として取り込むマルチバンド撮像のほかに、RGB画像の取り込みも可能である。RGB画像の取り込みの方法の一つとしては、通常のデジタルカメラと同様に、7原色の照明光はなしで、自然光、あるいは室内光により照明された被写体を本装置が有するRGBカラーCCDを利用して撮像を行うものである。また、7原色の照明光から1以上の照明光を各選択してRGBの3色の照明光とし、これらを順次に照射することにより面順次式の静止画としても取り込むこともできるようになっている。   In the imaging device 1 of the dental colorimetry system configured as described above, illumination light in seven types of wavelength bands (seven primary color illumination lights) is sequentially irradiated onto the subject, and the seven subject spectral images are used as still images. In addition to multiband imaging, it is also possible to capture RGB images. As one of the methods for capturing RGB images, as in a normal digital camera, there is no illumination light of the seven primary colors, and an RGB color CCD having an object illuminated by natural light or room light is used. Imaging is performed. Also, each of one or more illumination lights from the seven primary colors can be selected as RGB three-color illumination lights, and these can be sequentially irradiated to capture a frame sequential still image. ing.

これら撮影モードのうち、RGB撮像は、患者の顔全体を撮影する場合、顎全体を撮影する場合など、広域の部位を撮影する場合に用いられる。一方、マルチバンド撮影は、患者の歯1〜2本の色を正確に計測する場合、つまり歯の測色を行う場合に用いられる。
以下、本発明の特徴部分であるマルチバンド撮影による歯の測色処理について説明する。
Among these imaging modes, RGB imaging is used when imaging a wide area, such as when imaging the entire patient's face or when imaging the entire jaw. On the other hand, multiband imaging is used when measuring the color of one or two teeth of a patient accurately, that is, when measuring the color of teeth.
Hereinafter, the color measurement processing of teeth by multiband imaging, which is a characteristic part of the present invention, will be described.

〔マルチバンド撮影〕
まず、医師により撮像装置がクレードル2から持ち上げられ、撮像装置の筐体の投射口側に設けられている取り付け口(図示略)にコンタクトキャップが取り付けられる。このコンタクトキャップは、柔軟性を有する素材により略筒状に形成されている。
[Multiband shooting]
First, the imaging device is lifted from the cradle 2 by a doctor, and a contact cap is attached to an attachment port (not shown) provided on the projection port side of the housing of the imaging device. The contact cap is formed in a substantially cylindrical shape from a flexible material.

続いて、医師により撮影モードが「測色モード」に設定されると、被写体像が動画としてLCD42に表示される。医師は、このLCD42に表示される画像を確認しながら、測定対象となる患者の生活歯が撮影範囲の適切な位置に配置されるように位置決めを行い、フォーカスレバー25を用いてピント調整を行う。このとき、コンタクトキャップが、測定対象である生活歯を適切な撮影位置に導くような形状に形成されていることにより、位置決めを容易に行うことが可能となる。   Subsequently, when the photographing mode is set to the “colorimetry mode” by the doctor, the subject image is displayed on the LCD 42 as a moving image. While checking the image displayed on the LCD 42, the doctor positions the patient's vital teeth to be measured at an appropriate position in the imaging range, and performs focus adjustment using the focus lever 25. . At this time, since the contact cap is formed in a shape that guides the vital tooth to be measured to an appropriate photographing position, positioning can be easily performed.

位置決め、ピント調整がなされた状態で、医師によりシャッタボタン52が押下されると、その旨の信号が操作部I/F36を介してCPU31へ転送され、CPU31の制御の下、マルチバンド撮影が実行される。   When the doctor presses the shutter button 52 in a state where the positioning and focus adjustment have been performed, a signal to that effect is transferred to the CPU 31 via the operation unit I / F 36, and multiband imaging is executed under the control of the CPU 31. Is done.

マルチバンド撮影では、LEDドライバ32が光源10a乃至10gを順次駆動することにより、波長帯域の異なるLED照射光が被写体に順次照射される。被写体の反射光は、撮像部20のRGB撮像素子22の表面に結像され、RGB画像として取り込まれる。取り込まれたRGB画像は、信号処理部23に転送される。信号処理部23は、入力されたRGB画像信号に対して所定の画像処理を施すとともに、RGB画像信号から各光源10a乃至10gの波長帯域に応じた所定の1色の画像データを選択する。具体的には、信号処理部23は、光源10a及び10bに対応する画像信号からはB画像データを選択し、光源10c乃至10eに対応する画像信号からはG画像データを選択し、光源10f及び10gに対応する画像信号からはR画像データを選択する。このように、信号処理部23は、照射光の中心波長と略一致する波長の画像データを選択する。   In multi-band imaging, the LED driver 32 sequentially drives the light sources 10a to 10g, so that LED irradiation light having different wavelength bands is sequentially irradiated onto the subject. The reflected light of the subject is imaged on the surface of the RGB imaging element 22 of the imaging unit 20 and is captured as an RGB image. The captured RGB image is transferred to the signal processing unit 23. The signal processing unit 23 performs predetermined image processing on the input RGB image signal and selects predetermined one-color image data corresponding to the wavelength bands of the light sources 10a to 10g from the RGB image signal. Specifically, the signal processing unit 23 selects B image data from the image signals corresponding to the light sources 10a and 10b, selects G image data from the image signals corresponding to the light sources 10c to 10e, and selects the light sources 10f and 10f. R image data is selected from the image signal corresponding to 10g. Thus, the signal processing unit 23 selects image data having a wavelength that approximately matches the center wavelength of the irradiation light.

信号処理部23により選択された画像データは、A/D変換器24へ転送され、CPU31を介して画像メモリ35に記録される。この結果、画像メモリ35には、LEDの中心波長に対応してRGB画像から選択された色の画像がマルチバンド画像として記録されることとなる。なお、撮影の際に、それぞれの波長の撮影が適正露光になるように、LEDの照射時間、照射強度、撮像素子の電子シャッタ速度等がCPU31により制御され、また、この撮影時に温度変化が激しい場合にはアラームブザー65が鳴り警告を発する。
なお、LEDを照射しないで生活歯の画像を更に撮影し、外光画像として画像メモリ35に記録する。
The image data selected by the signal processing unit 23 is transferred to the A / D converter 24 and recorded in the image memory 35 via the CPU 31. As a result, an image of a color selected from the RGB image corresponding to the center wavelength of the LED is recorded in the image memory 35 as a multiband image. When photographing, the CPU 31 controls the irradiation time of the LED, the irradiation intensity, the electronic shutter speed of the image sensor, etc. so that the photographing of each wavelength is properly exposed, and the temperature change during the photographing is severe. In this case, the alarm buzzer 65 sounds and issues a warning.
Note that an image of the vital tooth is further taken without irradiating the LED, and is recorded in the image memory 35 as an external light image.

続いて、撮影が終了し、医師により撮像装置1がクレードル2に置かれると、キャリブレーション画像の測定が行われる。
キャリブレーション画像の測定は、上述のマルチバンド撮影と同様の手順により色票100を撮影するものである。これにより、色票100のマルチバンド画像が色票画像として画像メモリ35に記録される。
続いて、LEDが全く点灯しない状態(暗黒下)で色票100の撮影が行われ、この画像が暗電流画像として画像メモリ35に記録される。なお、この暗電流画像は、撮影を複数回行い、これら画像を平均化した画像を用いるようにしてもよい。
Subsequently, when the imaging is finished and the imaging device 1 is placed on the cradle 2 by the doctor, the calibration image is measured.
The calibration image is measured by photographing the color chart 100 according to the same procedure as the multiband photographing described above. As a result, the multiband image of the color chart 100 is recorded in the image memory 35 as a color chart image.
Subsequently, the color chart 100 is shot in a state where the LEDs are not lit at all (under dark), and this image is recorded in the image memory 35 as a dark current image. Note that this dark current image may be captured a plurality of times and an image obtained by averaging these images may be used.

続いて、画像メモリ35に記録された上記外光画像、暗電流画像を用いた信号補正がマルチバンド画像及び色票画像のそれぞれに対して行われる。マルチバンド画像に対する信号補正は、例えば、マルチバンド画像の各画像データに対して画素毎に外光画像データの信号値を減算することによって行われ、撮影時の外光の影響を除去することができる。同様に、色票画像に対する信号補正は、例えば、色票画像の画像データに対して画素毎に暗電流画像データの信号値を減算することによって行われ、温度によって変化するCCDの暗電流ノイズ除去を行うことができる。   Subsequently, signal correction using the external light image and dark current image recorded in the image memory 35 is performed on each of the multiband image and the color chart image. The signal correction for the multiband image is performed, for example, by subtracting the signal value of the external light image data for each pixel from the image data of the multiband image to remove the influence of the external light at the time of shooting. it can. Similarly, the signal correction for the color chart image is performed by subtracting the signal value of the dark current image data for each pixel from the image data of the color chart image, for example, to remove the dark current noise of the CCD that changes with temperature. It can be performed.

図3は、色票画像に対する信号補正結果の一例を示したものである。図3において、縦軸はセンサ信号値を、横軸は入力光強度を示しており、実線は補正前の原信号、破線は信号補正後の信号を示している。
このようにして信号補正が行われた後のマルチバンド画像及び色票画像は、ローカルバス37、通信I/Fコントローラ34、通信/I/F接点61を介して歯科用測色装置3へ送信され、図4に示す歯科用測色装置3内のマルチバンド画像メモリ110に記録される。
FIG. 3 shows an example of the signal correction result for the color chart image. In FIG. 3, the vertical axis indicates the sensor signal value, the horizontal axis indicates the input light intensity, the solid line indicates the original signal before correction, and the broken line indicates the signal after signal correction.
The multiband image and the color chart image after the signal correction is performed in this way are transmitted to the dental colorimetric device 3 via the local bus 37, the communication I / F controller 34, and the communication / I / F contact 61. And recorded in the multiband image memory 110 in the dental colorimetric device 3 shown in FIG.

なお、上記色票100のマルチバンド画像及び暗電流画像は、撮像装置1内の画像メモリ35に記録されることなく、ローカルバス37、通信I/Fコントローラ34、通信/I/F接点61を介して、歯科用測色装置3へ直接送信され、歯科用測色装置3内のマルチバンド画像メモリ110に記録されるような構成としてもよい。この場合、上述した信号補正は、歯科用測色装置3内で行われることとなる。   Note that the multiband image and the dark current image of the color chart 100 are not recorded in the image memory 35 in the imaging apparatus 1, and the local bus 37, the communication I / F controller 34, and the communication / I / F contact 61 are connected. Then, the configuration may be such that it is directly transmitted to the dental colorimetric device 3 and recorded in the multiband image memory 110 in the dental colorimetric device 3. In this case, the signal correction described above is performed in the dental color measuring device 3.

上記歯科用測色装置3は、例えばパーソナルコンピュータ等からなり、上記撮像装置1の通信I/F接点61を介して出力されるマルチバンド画像及び色票画像を受信し、このマルチバンド画像に種々の処理を施すことにより、被写体である歯の高度な色再現がなされた画像を作成するとともに、歯に適したシェードガイド番号を選択し、これらの情報を表示装置4に表示する。   The dental colorimetric device 3 is composed of, for example, a personal computer, receives a multiband image and a color chart image output via the communication I / F contact 61 of the imaging device 1, and variously displays the multiband image. By performing the above-described processing, an image in which a high-quality color reproduction of the subject tooth is created, a shade guide number suitable for the tooth is selected, and the information is displayed on the display device 4.

歯科用測色装置3は、例えば、図4に示すように、色度算出部70、シェードガイド番号判定部80、マルチバンド画像メモリ110、RGB画像メモリ111、カラー画像作成処理部112、画像ファイリング部113、シェードガイド色度データ記憶部114、画像表示GUI部(表示制御手段)115、画像合成部(画像合成装置)116、および差分算出部(差分算出手段)130を備えて構成されている。
色度算出部70は、スペクトル推定演算部71、観察スペクトル演算部72、及び色度値演算部(測色値演算手段)73を備えて構成されている。また、シェードガイド番号判定部80は、判定演算部81、及びシェードガイド基準画像データ記憶部82を備えて構成されている。このシェードガイド基準画像データ記憶部82には、例えば、色見本が一列に配置されているシェードガイドを作製するメーカー毎に、そのメーカーにより作製されたシェードガイドの画像データがシェードガイド番号に対応付けられて格納されているほか、これらシェードガイドの所定エリアの分光反射率スペクトルや歯肉付きシェードガイド画像が格納されている。
For example, as shown in FIG. 4, the dental colorimetric device 3 includes a chromaticity calculation unit 70, a shade guide number determination unit 80, a multiband image memory 110, an RGB image memory 111, a color image creation processing unit 112, and an image filing. Unit 113, shade guide chromaticity data storage unit 114, image display GUI unit (display control unit) 115, image synthesis unit (image synthesis device) 116, and difference calculation unit (difference calculation unit) 130. .
The chromaticity calculation unit 70 includes a spectrum estimation calculation unit 71, an observation spectrum calculation unit 72, and a chromaticity value calculation unit (colorimetric value calculation means) 73. The shade guide number determination unit 80 includes a determination calculation unit 81 and a shade guide reference image data storage unit 82. In the shade guide reference image data storage unit 82, for example, for each manufacturer that manufactures a shade guide in which color samples are arranged in a row, the image data of the shade guide that is manufactured by the manufacturer is associated with the shade guide number. In addition, a spectral reflectance spectrum of a predetermined area of the shade guide and a shade guide image with gingiva are stored.

このような構成からなる歯科用測色装置3において、撮像装置1から転送されたマルチバンド画像及び色票画像は、まず、マルチバンド画像メモリ110に記録され、その後、色度算出部70へ転送される。色度算出部70では、まず、スペクトル推定演算部71によりスペクトル(本実施形態では、分光反射率のスペクトル)推定処理等が行われる。   In the dental colorimetric device 3 having such a configuration, the multiband image and the color chart image transferred from the imaging device 1 are first recorded in the multiband image memory 110 and then transferred to the chromaticity calculation unit 70. Is done. In the chromaticity calculation unit 70, first, spectrum estimation calculation unit 71 performs spectrum (in this embodiment, spectrum of spectral reflectance) estimation processing and the like.

スペクトル推定演算部71は、図5に示すように、変換テーブル作成部711、変換テーブル712、入力γ補正部713、画素補間演算部714、面内ムラ補正部715、マトリクス演算部716、及びスペクトル推定マトリクス作成部717を備えて構成されている。入力γ補正部713及び画素補間演算部714は、マルチバンド画像及び色票画像のそれぞれに対して個別に設けられており、マルチバンド画像に対して入力γ補正部713a、画素補間演算部714aが設けられ、色票画像に対して入力γ補正部713b、画素補間演算部714bが設けられている。   As shown in FIG. 5, the spectrum estimation calculation unit 71 includes a conversion table creation unit 711, a conversion table 712, an input γ correction unit 713, a pixel interpolation calculation unit 714, an in-plane unevenness correction unit 715, a matrix calculation unit 716, and a spectrum. An estimation matrix creating unit 717 is provided. The input γ correction unit 713 and the pixel interpolation calculation unit 714 are individually provided for each of the multiband image and the color chart image. The input γ correction unit 713a and the pixel interpolation calculation unit 714a are provided for the multiband image. An input γ correction unit 713b and a pixel interpolation calculation unit 714b are provided for the color chart image.

このような構成を備えるスペクトル推定演算部71においては、まず、マルチバンド画像及び色票画像は、それぞれ個別に設けられている入力γ補正部713a、713bにそれぞれ転送され、入力γ補正が行われた後、各画素補間演算部714a、714bにより画像補間演算処理が施される。これら処理後の信号は、面内ムラ補正部715に転送され、ここで色票画像を用いたマルチバンド画像の面内ムラ補正処理が行われる。その後、マルチバンド画像は、マトリクス演算部716に転送され、スペクトル推定マトリクス作成部717により作成されたマトリクスを用いて分光反射率が算出される。   In the spectrum estimation calculation unit 71 having such a configuration, first, the multiband image and the color chart image are respectively transferred to the separately provided input γ correction units 713a and 713b, and input γ correction is performed. After that, image interpolation calculation processing is performed by the pixel interpolation calculation units 714a and 714b. The signals after these processes are transferred to the in-plane unevenness correction unit 715, where the in-plane unevenness correction processing of the multiband image using the color chart image is performed. Thereafter, the multiband image is transferred to the matrix calculation unit 716, and the spectral reflectance is calculated using the matrix created by the spectrum estimation matrix creation unit 717.

以下、各部において行われる各画像処理について具体的に説明する。
まず、入力γ補正の前段階として、変換テーブル作成部711により変換テーブル712が作成される。具体的には、変換テーブル作成部711は、入力光強度とセンサ信号値とを対応付けたデータを有しており、これらデータに基づいて変換テーブル712を作成する。この変換テーブル712は、入力光強度と出力信号値の関係から作成されるものであり、例えば、図6(a)に実線で示すように、入力光強度とセンサ信号値とが略比例関係となるように作成される。
Hereinafter, each image processing performed in each unit will be specifically described.
First, a conversion table 712 is created by the conversion table creation unit 711 as a pre-stage of input γ correction. Specifically, the conversion table creation unit 711 has data in which the input light intensity is associated with the sensor signal value, and creates the conversion table 712 based on these data. The conversion table 712 is created from the relationship between the input light intensity and the output signal value. For example, as shown by the solid line in FIG. 6A, the input light intensity and the sensor signal value are approximately proportional to each other. Created to be

各入力γ補正部713a、713bは、この変換テーブル712を参照することによりマルチバンド画像、色票画像に対してそれぞれ入力γ補正を行う。この変換テーブルは、現時点におけるセンサ値Aに対応する入力光強度Dを求め、この入力光強度Dに対応する出力センサ値Bが出力されるように作成され、結果的に図6(b)のようになる。このようにして、マルチバンド画像、色票画像に対し入力γ補正がなされると、補正後の画像データはそれぞれ画素補間演算部714a、714bへ転送される。   Each input γ correction unit 713a and 713b performs input γ correction on the multiband image and the color chart image by referring to the conversion table 712. This conversion table is created so that an input light intensity D corresponding to the sensor value A at the present time is obtained, and an output sensor value B corresponding to the input light intensity D is output. As a result, the conversion table shown in FIG. It becomes like this. In this way, when the input γ correction is performed on the multiband image and the color chart image, the corrected image data is transferred to the pixel interpolation calculation units 714a and 714b, respectively.

画素補間演算部714a、714bでは、入力γ補正後のマルチバンド画像データ及び色票画像データのそれぞれに対して、画素補間のためのローパスフィルタをかけることにより行われる。図7は、R信号、B信号に適用されるローパスフィルタの一例を示している。図8は、G信号に適用されるローパスフィルタを示している。このような画素補間のためのローパスフィルタを各マルチバンド画像データに乗算することにより、例えば、144画素×144画素の画像を288画素×288画素の画像にする。   In the pixel interpolation calculation units 714a and 714b, a low-pass filter for pixel interpolation is applied to each of the multiband image data and color chart image data after the input γ correction. FIG. 7 shows an example of a low-pass filter applied to the R signal and the B signal. FIG. 8 shows a low-pass filter applied to the G signal. By multiplying each multiband image data by such a low-pass filter for pixel interpolation, for example, an image of 144 pixels × 144 pixels is changed to an image of 288 pixels × 288 pixels.

画像補間演算が行われた画像データgk(x,y)は、面内ムラ補正部715へ転送される。
面内ムラ補正部715は、以下の(1)式を用いて、マルチバンド画像データの画面中心の輝度を補正する。
The image data g k (x, y) on which the image interpolation calculation has been performed is transferred to the in-plane unevenness correction unit 715.
The in-plane unevenness correction unit 715 corrects the luminance at the center of the screen of the multiband image data using the following equation (1).

Figure 2007190370
Figure 2007190370

上記(1)式において、ck(x,y)は色票撮影画像データ、gk(x,y)は入力γ補正後のマルチバンド画像データ、(x,y)は中央の画素位置、δ(=5)はエリア平均サイズ、g´k(x,y)は面内ムラ補正後の画像データである(ただしk=1,・・・、N(バンド数))。
上記面内ムラ補正は、マルチバンド画像データの各画像データに対して行われる。
In the above equation (1), c k (x, y) is color chart photographed image data, g k (x, y) is multiband image data after input γ correction, and (x 0 , y 0 ) is the center pixel. The position, δ (= 5) is the area average size, and g ′ k (x, y) is the image data after in-plane unevenness correction (where k = 1,..., N (number of bands)).
The in-plane unevenness correction is performed on each image data of the multiband image data.

面内ムラ補正後のマルチバンド画像データg´k(x,y)は、マトリクス演算部716へ転送される。マトリクス演算部716は、面内ムラ補正部715からのマルチバンド画像データg´k(x,y)を用いてスペクトル(分光反射率)推定処理を行う。このスペクトル(分光反射率)推定処理では、380nmから780nmまでの波長帯域において、1nm間隔で分光反射率の推定を行う。つまり、本実施形態では、401次元の分光反射率を推定する。 The multiband image data g ′ k (x, y) after the in-plane unevenness correction is transferred to the matrix calculation unit 716. The matrix calculation unit 716 performs spectrum (spectral reflectance) estimation processing using the multiband image data g ′ k (x, y) from the in-plane unevenness correction unit 715. In this spectrum (spectral reflectance) estimation process, spectral reflectance is estimated at 1 nm intervals in a wavelength band from 380 nm to 780 nm. That is, in this embodiment, a 401-dimensional spectral reflectance is estimated.

一般的に、1波長毎の分光反射率を求めるためには重厚で高価な分光計測器などが用いられるが、本実施形態では被写体が歯に限定されていることから、その被写体が有する一定の特徴を利用することにより、少ないバンドで401次元の分光反射率を推定する。
具体的には、マルチバンド画像データg´k(x,y)とスペクトル推定マトリクスMspeとを用いてマトリクス演算を行うことにより、401次元のスペクトル信号を算出する。
上記スペクトル推定マトリクスMspeは、カメラの分光感度データ、LEDスペクトルデータ、被写体(歯)の統計データに基づきスペクトル推定マトリクス作成部717にて作成される。このスペクトル推定マトリクスの作成については特に限定されることなく、周知の手法を用いることが可能である。例えば、その一例が、S.K.Park and F.O.Huck
“Estimation of spectral
reflectance curves from multispectrum image data”, Applied Optics,
16,pp3107-3114(1977)に詳述されている。
なお、上記カメラの分光感度データ、LEDスペクトルデータ、被写体(歯)の統計データ等は図4に示した画像ファイリング部113に予め格納されている。また、カメラの分光感度がセンサの位置により変わる場合には、位置に応じて分光感度のデータを取得してもよいし、中央の位置に対して適当に補正をして用いるようにしてもよい。
In general, a heavy and expensive spectroscopic measuring instrument is used to obtain the spectral reflectance for each wavelength. However, in this embodiment, since the subject is limited to teeth, the subject has a certain amount. By utilizing the feature, the 401-dimensional spectral reflectance is estimated with a small number of bands.
Specifically, a 401-dimensional spectrum signal is calculated by performing a matrix operation using the multiband image data g ′ k (x, y) and the spectrum estimation matrix Mspe.
The spectrum estimation matrix Mspe is created by the spectrum estimation matrix creation unit 717 based on the spectral sensitivity data of the camera, the LED spectrum data, and the statistical data of the subject (tooth). The creation of the spectrum estimation matrix is not particularly limited, and a well-known method can be used. For example, one example is SKPark and FOHuck
“Estimation of spectral
reflectance curves from multispectrum image data ”, Applied Optics,
16, pp 3107-3114 (1977).
Note that the spectral sensitivity data of the camera, the LED spectrum data, the subject (tooth) statistical data, and the like are stored in advance in the image filing unit 113 shown in FIG. When the spectral sensitivity of the camera changes depending on the position of the sensor, spectral sensitivity data may be acquired according to the position, or the center position may be appropriately corrected and used. .

スペクトル推定演算部71により分光反射率が算出されると、この算出結果は、マルチバンド画像データとともに、図4に示すシェードガイド番号判定部80及び色度算出部70内の観察スペクトル演算部72へ転送される。   When the spectral reflectance is calculated by the spectrum estimation calculation unit 71, this calculation result is sent to the observation spectrum calculation unit 72 in the shade guide number determination unit 80 and the chromaticity calculation unit 70 shown in FIG. 4 together with the multiband image data. Transferred.

スペクトル推定演算部71からの情報は、シェードガイド番号判定部80内の判定演算部81に転送される。判定演算部81では、まず、測定対象となる歯の領域を特定する領域特定処理が行われる。   Information from the spectrum estimation calculation unit 71 is transferred to the determination calculation unit 81 in the shade guide number determination unit 80. In the determination calculation unit 81, first, an area specifying process for specifying a tooth area to be measured is performed.

ここで、撮像装置1により撮像されたマルチバンド画像データには、測定対象となる生活歯のほか、該生活歯の隣の歯や歯茎等の情報も含まれている。従って、領域特定処理では、これら口腔内の画像データから測定対象となる生活歯の領域を特定する処理が行われる。   Here, the multiband image data picked up by the image pickup apparatus 1 includes not only vital teeth to be measured but also information such as teeth adjacent to the vital teeth and gums. Therefore, in the area specifying process, a process of specifying a vital tooth area to be measured from the intraoral image data is performed.

図9に歯の反射スペクトル(サンプル個数n=2)の一例を、図10に歯茎の反射スペクトル(サンプル個数n=5)の一例を示す。図9及び図10において、横軸は波長を縦軸は反射率を示している。歯は全体的に白色であり、歯茎は赤色であるため、両者のスペクトルは図9及び図10からわかるように、青の波長帯域(例えば、400nm乃至450nm)及び緑の波長帯域(例えば、530nm乃至580nm)において大きく異なる。本実施形態では、このように生活歯が特定の反射スペクトルを持つことに着目し、画像データの中から特定のスペクトルである生活歯の反射スペクトルを持つ画素を抽出することにより、生活歯の領域を特定する。   FIG. 9 shows an example of a tooth reflection spectrum (sample number n = 2), and FIG. 10 shows an example of a gum reflection spectrum (sample number n = 5). 9 and 10, the horizontal axis indicates the wavelength and the vertical axis indicates the reflectance. Since the teeth are generally white and the gums are red, the spectra of both are blue wavelength band (for example, 400 nm to 450 nm) and green wavelength band (for example, 530 nm), as can be seen from FIGS. To 580 nm). In this embodiment, paying attention to the fact that vital teeth have a specific reflection spectrum in this way, by extracting pixels having the reflection spectrum of vital teeth, which is a specific spectrum, from the image data, the region of vital teeth Is identified.

〔生活歯の領域の特定手法1〕
本手法では、撮像されたマルチバンド画像データで示される画像中の領域(画素又は画素の集合)におけるn種類の波長帯域それぞれの信号値で定められる波長帯域特性値を、n次空間内に表す。そして、そのn次空間内に、測定対象の特徴を表す平面領域を規定し、n次空間内に表された波長帯域特性値が、その平面領域に投影されるとき、その波長帯域特性値を有する画像中の領域を、測定対象となる生活歯の領域に含まれると判断することで、測定対象の領域(輪郭)を特定する。
[Identification method of vital tooth area 1]
In this method, wavelength band characteristic values determined by signal values of n types of wavelength bands in a region (pixel or set of pixels) in an image indicated by captured multiband image data are represented in the n-order space. . Then, in the n-order space, a plane area representing the characteristics of the measurement target is defined, and when the wavelength band characteristic value represented in the n-order space is projected onto the plane area, the wavelength band characteristic value is By determining that the region in the image to be included in the vital tooth region to be measured, the region (contour) to be measured is specified.

図11に、本手法による測定対象となる生活歯の領域を特定する手法を説明する。図11に示すように、7つの波長λ1〜λ7によって、7次元空間が形成されている。7次元空間内には、測定対象となる生活歯を最も良好に分離する分類平面を設定する。具体的には、平面投影するための分類スペクトルd1(λ)、d2(λ)が求められる。そして、まず、撮像されたマルチバンド画像データから、所定の領域を切り出し、波長帯域特性値として、7次元空間内に表される特徴量を算出する。特微量とは、切り出した領域で、各バンドをこの領域内で平均化して7つの信号値へ変換したときの、7つの信号値の組みである。切り出す領域の大きさは、例えば、2画素×2画素とするが、これに限られるものではなく、1画素×1画素であっても、3画素×3画素以上でもよい。   FIG. 11 illustrates a method for specifying a vital tooth region to be measured by this method. As shown in FIG. 11, a seven-dimensional space is formed by seven wavelengths λ1 to λ7. In the 7-dimensional space, a classification plane that best separates vital teeth to be measured is set. Specifically, classification spectra d1 (λ) and d2 (λ) for plane projection are obtained. First, a predetermined region is cut out from the captured multiband image data, and a feature amount represented in the 7-dimensional space is calculated as a wavelength band characteristic value. The feature amount is a group of seven signal values when each band is averaged in this region and converted into seven signal values. The size of the region to be cut out is, for example, 2 pixels × 2 pixels, but is not limited thereto, and may be 1 pixel × 1 pixel or 3 pixels × 3 pixels or more.

特微量は、図11の7次元空間の1点で表される。この特徴量で表される7次元空間の1点を、分類平面に投影して分類平面上の1点を求める。分類平面上の1点の座標は、分類スペクトルd1(λ)、d2(λ)との内積演算から求めることができる。分類平面上の1点が、歯の特徴的なスペクトルによって定められる分類平面上の領域T、すなわち、測定対象の特徴を表す平面領域に含まれれば、切り出した領域は、生活歯の輪郭に含まれる領域であると判断する。一方、分類平面上の1点が、歯茎の特徴的なスペクトルによって定められる分類平面上の領域Gに含まれれば、切り出した領域は、歯茎の輪郭に含まれる領域であると判断する。   The feature amount is represented by one point in the 7-dimensional space of FIG. One point in the 7-dimensional space represented by this feature amount is projected onto the classification plane to obtain one point on the classification plane. The coordinates of one point on the classification plane can be obtained from the inner product calculation with the classification spectra d1 (λ) and d2 (λ). If one point on the classification plane is included in the area T on the classification plane defined by the characteristic spectrum of the tooth, that is, the plane area representing the characteristics of the measurement object, the extracted area is included in the outline of the vital tooth It is determined that the area is On the other hand, if one point on the classification plane is included in the region G on the classification plane defined by the characteristic spectrum of the gums, it is determined that the extracted region is an area included in the outline of the gums.

本手法では、切り出す領域を変えながら、このような判断を順次行っていくことで、生活歯の領域を特定する。特に、測定対象となる生活歯の領域は、撮像されたマルチバンド画像データで示される画像の中央付近に位置しているのが通常であるため、切り出す領域を画像の中央付近から周囲に向けて変えながら、その領域が生活歯の領域に含まれているか否かの前記判断を順次行っていくことで、測定対象となる生活歯の領域(すなわち、測定対象となる生活歯の輪郭)を特定する。特に、本実施形態では、通常のRGBで表される3次元よりも多い7次元空間に特徴量を規定しているため、より正確に測定対象の領域(輪郭)を特定することができて好ましい。   In this method, the vital tooth region is specified by sequentially making such a determination while changing the region to be cut out. In particular, the vital tooth region to be measured is usually located near the center of the image indicated by the captured multiband image data, so the region to be clipped is directed from near the center of the image to the periphery. The region of the vital tooth to be measured (that is, the contour of the vital tooth to be measured) is identified by sequentially making the above determination as to whether or not the region is included in the vital tooth region while changing. To do. In particular, in the present embodiment, since the feature amount is defined in a 7-dimensional space that is larger than the 3-dimensional space represented by normal RGB, it is preferable because the measurement target region (contour) can be specified more accurately. .

〔生活歯の領域の特定手法2〕
上記分類スペクトルに基づく領域の特定手法のほか、本手法では、例えば、青の波長帯域及び緑の波長帯域に対応する特定の信号値(スペクトル)のみを抽出し、これらの信号値を比較することにより、生活歯に特有な信号値(スペクトル)を持つ領域を生活歯の領域として特定するようにする。このような手法によれば、比較するサンプル数が減るため、短時間で容易に領域特定を行うことが可能となる。
[Identification method of vital tooth area 2]
In addition to the above method for identifying regions based on the classification spectrum, in this method, for example, only specific signal values (spectrums) corresponding to the blue wavelength band and the green wavelength band are extracted, and these signal values are compared. Thus, a region having a signal value (spectrum) peculiar to vital teeth is specified as a vital tooth region. According to such a method, since the number of samples to be compared is reduced, it is possible to easily specify a region in a short time.

具体的には、分類スペクトルに基づく領域特定の場合と同様に、画像の中央付近から周囲に向けて、スペクトル特徴値が急激に変化する変曲点の位置を検出することで、その位置を測定対象の生活歯の輪郭として確定する。例えば、検出したい被写体(歯)と、分離したい被写体(生活歯以外の例えば歯茎)と比較して、特徴的なバンドλ1、λ2を選択し、その比をスペクトル特徴値とする。生活歯を検出したい被写体とすると、例えば、λ1=450nm、λ2=550nmとして2点の比率を計算しその比率の変曲点を求める。これにより、隣の生活歯との輪郭が確定し、測定対象の生活歯の画素を得ることができる。なお、画素毎に特定を行うほか、複数の画素からなる画素群の平均を取り、この平均に基づいて画素群毎に特定を行うようにしてもよい。   Specifically, as in the case of region specification based on the classification spectrum, the position is measured by detecting the position of the inflection point where the spectral feature value changes suddenly from the center of the image toward the periphery. Determined as the outline of the subject's vital teeth. For example, compared with the subject (tooth) to be detected and the subject to be separated (for example, gums other than vital teeth), characteristic bands λ1 and λ2 are selected, and the ratio is set as the spectral feature value. Assuming that the subject wants to detect vital teeth, for example, a ratio of two points is calculated assuming that λ1 = 450 nm and λ2 = 550 nm, and an inflection point of the ratio is obtained. Thereby, the outline with the adjacent vital tooth is decided and the pixel of the vital tooth to be measured can be obtained. In addition to specifying for each pixel, an average of a pixel group composed of a plurality of pixels may be taken, and the specification may be made for each pixel group based on this average.

なお、上述の生活歯の領域の特定手法1,2いずれを用いる場合でも、本実施形態では、生活歯について領域特定を行ったが、歯茎の領域特定も可能である。また、生活歯以外にも例えば、皮膚科等におけるシミ、ソバカス等の領域特定、多色柄塗装での所定の塗装色の領域特定等、他方面においても適用可能である。これらの場合は、歯茎、シミ、ソバカス、塗装等の特定したい領域特有のスペクトルを用いればよい。例えば、シミ、ソバカスの領域特定を行う場合には、良性のシミ・ソバカス特有のスペクトルや、悪性のシミ・ソバカス特有のスペクトル等を予め登録しておき、これらのスペクトルに近似する領域を特定することにより、容易に測定対象の領域特定を行うことが可能となる。   In addition, in this embodiment, although region identification was performed for vital teeth in either of the above-described vital tooth region identification methods 1 and 2, gum region identification is also possible. In addition to vital teeth, the present invention can also be applied to the other side, such as specifying areas such as spots and freckles in dermatology and the like, and specifying areas of predetermined paint colors in multicolor pattern painting. In these cases, a spectrum peculiar to the region to be specified such as gums, stains, freckles, and paints may be used. For example, when specifying a spot or freckles area, a spectrum peculiar to benign spots or freckles or a spectrum peculiar to malignant spots or freckles is registered in advance, and an area that approximates these spectra is identified. Thus, it is possible to easily specify the region to be measured.

このようにして、測定対象の生活歯の画素が特定されると、続いて、測定対象の生活歯の領域に測定領域を設定する測定領域設定処理が行われる。この測定領域は、図12に示すように、歯面の上部、中央、下部に矩形の領域として設定される。例えば、生活歯の高さに対して一定の比率の面積を持つ領域を設定する。すなわち、小さな生活歯でも大きな生活歯でも測定領域及びその位置は、一定の比率で設定される。なお、測定領域の形は、図12に示すような矩形に限らず、例えば、円、楕円、非対称形状等でもよい。   In this way, when the pixel of the vital tooth to be measured is specified, subsequently, a measurement region setting process for setting the measurement region in the region of the vital tooth to be measured is performed. As shown in FIG. 12, this measurement region is set as a rectangular region at the upper, middle, and lower portions of the tooth surface. For example, a region having an area with a certain ratio with respect to the height of vital teeth is set. That is, the measurement region and its position are set at a constant ratio for both small and large vital teeth. Note that the shape of the measurement region is not limited to a rectangle as shown in FIG. 12, and may be, for example, a circle, an ellipse, or an asymmetric shape.

続いて、上述のごとく設定された各測定領域について、最も近似するシェードガイドを選定するシェードガイド選択処理(見本選択処理)が行われる。このシェードガイド選択処理では、測定対象の生活歯の色調とシェードガイドの色調との比較判定が行われる。この比較は、先ほど設定された測定領域毎に行われ、対象となる測定領域のスペクトル(本実施形態では、分光反射率)とシェードガイド基準画像データ記憶部82に予め登録されている各シェードガイドのスペクトル(本実施形態では、分光反射率)とを比較し、両者の差分が最も小さいものを求めることにより行われる。
例えば、以下の(2)式に基づいてスペクトル判定値Jvalueを求めることにより行われる。
Subsequently, a shade guide selection process (sample selection process) for selecting the closest shade guide is performed for each measurement region set as described above. In this shade guide selection process, a comparison determination is made between the color tone of the vital tooth to be measured and the color tone of the shade guide. This comparison is performed for each measurement region set in advance, and each shade guide registered in advance in the spectrum (in this embodiment, the spectral reflectance) of the target measurement region and the shade guide reference image data storage unit 82. Are compared with each other (spectral reflectance in the present embodiment) and the difference between the two is determined to be the smallest.
For example, it is performed by obtaining a spectrum determination value Jvalue based on the following equation (2).

Figure 2007190370
Figure 2007190370

上記(2)式において、Jvalueは、スペクトル判定値、Cは正規化係数、nは統計個数(計算に使用したλの個数)、λは波長、f(λ)は判定対象である生活歯の分光感度スペクトル値、f(λ)はシェードガイドの分光感度スペクトル値、E(λ)は判定感度補正値である。なお、本実施形態では、E(λ)によって、λに応じた分光感度に関する重み付けを行っている。 In the above equation (2), Jvalue is a spectrum judgment value, C is a normalization coefficient, n is a statistical number (number of λ used in calculation), λ is a wavelength, and f 1 (λ) is a vital tooth to be judged. , F 2 (λ) is a spectral sensitivity spectrum value of the shade guide, and E (λ) is a determination sensitivity correction value. In the present embodiment, weighting relating to spectral sensitivity according to λ is performed by E (λ).

このようにして、各社のシェードガイドのスペクトルの値を上記(2)式のf(λ)に代入し、それぞれのスペクトル判定値Jvalueを算出する。そして、最も小さいスペクトル判定値Jvalueを示したときのシェードガイドを歯に最も近似するシェードガイド番号であると判定する。なお、本実施形態では、スペクトル判定値Jvalueが小さい順に複数(例えば3つ)の候補を抽出する。もちろん、抽出する候補は1つとすることもできる。なお、上記(2)式について、判定感度補正値E(λ)は各種の重み付けがなされていてもよい。 In this way, the spectrum value of the shade guide of each company is substituted into f 2 (λ) in the above equation (2), and each spectrum judgment value Jvalue is calculated. Then, it is determined that the shade guide having the smallest spectrum determination value Jvalue is the shade guide number that most closely approximates the tooth. In the present embodiment, a plurality of (for example, three) candidates are extracted in ascending order of the spectrum determination value Jvalue. Of course, one candidate can be extracted. In the above equation (2), the determination sensitivity correction value E (λ) may be variously weighted.

このようにしてシェードガイド番号が選定されると、これらの番号が判定演算部81からシェードガイド色度データ記憶部114および画像表示GUI部115へ転送される。そして、選定されたシェードガイド番号に対応する色度データが、シェードガイド色度データ記憶部114から画像表示GUI部115と差分算出部130へ転送される。また、各シェードガイド番号についてのスペクトル判定値Jvalueは、判定演算部81から画像表示GUI部115へ転送される。   When the shade guide numbers are selected in this way, these numbers are transferred from the determination calculation unit 81 to the shade guide chromaticity data storage unit 114 and the image display GUI unit 115. The chromaticity data corresponding to the selected shade guide number is transferred from the shade guide chromaticity data storage unit 114 to the image display GUI unit 115 and the difference calculation unit 130. Further, the spectrum determination value Jvalue for each shade guide number is transferred from the determination calculation unit 81 to the image display GUI unit 115.

一方、色度算出部70の観察スペクトル演算部72では、スペクトル推定演算部71にて求められた生活歯のスペクトルに観察したい照明光S(λ)を乗算することにより、観察したい照明光下での被写体のスペク卜ルG(x,y,λ)が求められる。このS(λ)は、D65やD55光源、蛍光灯光源等、生活歯の色を観察したい光源のスペクトルであり、このデータは図示しない入力プロファイル記憶部に予め格納されている。観察スペクトル演算部72にて求められた観察したい照明光下での被写体のスペクトルは、色度値演算部73およびカラー画像作成処理部112へ転送される。   On the other hand, the observation spectrum calculation unit 72 of the chromaticity calculation unit 70 multiplies the vital tooth spectrum obtained by the spectrum estimation calculation unit 71 by the illumination light S (λ) to be observed under the illumination light to be observed. The spectrum G (x, y, λ) of the subject is obtained. This S (λ) is a spectrum of a light source that is desired to observe the color of the vital tooth, such as a D65, D55 light source, or a fluorescent light source, and this data is stored in advance in an input profile storage unit (not shown). The spectrum of the subject under the illumination light to be observed, which is obtained by the observation spectrum calculation unit 72, is transferred to the chromaticity value calculation unit 73 and the color image creation processing unit 112.

色度値演算部73では、観察したい照明光下での被写体のスペクトルから色度値であるLが画素毎に算出されるとともに、所定のエリアにおける色度値Lの平均値が算出され、それぞれ画像表示GUI部115および差分算出部130に送られる。この所定のエリアは、例えば生活歯の上部、中央、下部の3位置に設定されている。
一方、観察したい照明光下での被写体のスペクトルG(x,y,λ)は、観察スペクトル演算部72からカラー画像作成処理部112に送られて、モニタ上に表示するためのRGB画像であるRGB2(x,y)が作成され、画像表示GUI部115に送られる。なお、このRGB画像は輪郭強調等を行ってもよい。
In the chromaticity value calculation unit 73, L * a * b * which is a chromaticity value is calculated for each pixel from the spectrum of the subject under illumination light to be observed, and the chromaticity value L * a * in a predetermined area is calculated . The average value of b * is calculated and sent to the image display GUI unit 115 and the difference calculation unit 130, respectively. This predetermined area is set at, for example, three positions of the upper, middle and lower parts of the vital tooth.
On the other hand, the spectrum G (x, y, λ) of the subject under illumination light to be observed is an RGB image that is sent from the observation spectrum calculation unit 72 to the color image creation processing unit 112 and displayed on the monitor. RGB2 (x, y) is created and sent to the image display GUI unit 115. Note that this RGB image may be subjected to edge enhancement or the like.

差分算出部130は、色度値演算部73から送られてきた所定エリアにおける色度値Lの平均値と、シェードガイド色度データ記憶部114から送られてきた色度データとに基づいて、歯の色度とシェードガイドの色度の差分ΔE,ΔL,Δa,Δbをそれぞれ算出する。また、差分算出部130は、歯の所定の位置を基準として、歯およびシェードガイドの色度の差分ΔE,ΔL,Δa,Δbをそれぞれ画素毎に算出する。ここで、「所定の位置」とは、後述するような、歯の画像およびシェードガイドの画像のそれぞれに表示された縦走査線Yと横走査線Xの交点を例示することができる。この所定のエリアにおける色度値の差分ΔE,ΔL,Δa,Δbと、画素毎に算出された歯およびシェードガイドの色度の差分ΔE,ΔL,Δa,Δbは、それぞれ画像表示GUI部115に転送される。 The difference calculation unit 130 averages the chromaticity values L * a * b * in a predetermined area sent from the chromaticity value calculation unit 73 and the chromaticity data sent from the shade guide chromaticity data storage unit 114. Based on the above, differences ΔE, ΔL * , Δa * , Δb * between the chromaticity of the tooth and the chromaticity of the shade guide are calculated. Further, the difference calculation unit 130 calculates the chromaticity differences ΔE, ΔL * , Δa * , and Δb * of the teeth and the shade guide for each pixel with reference to a predetermined position of the teeth. Here, the “predetermined position” can exemplify the intersection of the vertical scanning line Y and the horizontal scanning line X displayed in each of the tooth image and the shade guide image as described later. Difference Delta] E chromaticity values in the predetermined area, ΔL *, Δa *, Δb * and, teeth calculated for each pixel and the shade guide chromaticity difference ΔE, ΔL *, Δa *, Δb * , respectively It is transferred to the image display GUI unit 115.

画像表示GUI部115は、上述のごとく求められたRGB画像と測定領域の色度値L、シェードガイド番号等を各部から受け取ると、図13に示すような画面を表示装置4の表示画面に表示させる。
図13に示すように、画像表示GUI部115は、測定対象のカラー画像Aを表示画面の中央上部に表示し、更に、カラー画像Aの右隣に測定対象の色度値Lの分布画像Bを表示させる。具体的には、画像表示GUI部115は、分布画像B上に、上下に移動可能な縦走査線Yと左右に移動可能な横走査線Xとを表示させ、これら走査線Y、Xの交点において指定される基準位置の色度を基準にした色差分布を分布画像Bとして表示させる。
When the image display GUI unit 115 receives the RGB image and the chromaticity value L * a * b * of the measurement region, the shade guide number, and the like obtained from each unit, the image display GUI unit 115 displays a screen as shown in FIG. On the display screen.
As shown in FIG. 13, the image display GUI unit 115 displays the color image A to be measured at the upper center of the display screen, and further, the chromaticity value L * a * b of the measurement target to the right of the color image A. * Distribution image B is displayed. Specifically, the image display GUI unit 115 displays a vertical scanning line Y movable up and down and a horizontal scanning line X movable right and left on the distribution image B, and an intersection of the scanning lines Y and X. The color difference distribution with reference to the chromaticity at the reference position designated in FIG.

更に、画像表示GUI部115は、縦走査線Y或いは横走査線Xに沿った色差変化を線グラフCとして画面右上に表示させる。上記分布画像B上に示された走査線Y、Xは、ユーザにより任意に移動可能に構成されているので、この走査線Y又はXが走査されるたびに、画像表示GUI部115は、走査後における走査線Y及びXの位置情報を差分算出部130に転送し、再度走査線YとXの交点を基準とした歯の色度の差分ΔE,ΔL,Δa,Δbをそれぞれ画素毎に算出させる。そして、画像表示GUI部115は、走査後における基準位置に基づく色差分布を差分算出部130から取得し、この情報を速やかに表示させる。 Further, the image display GUI unit 115 displays the color difference change along the vertical scanning line Y or the horizontal scanning line X as a line graph C on the upper right side of the screen. Since the scanning lines Y and X shown on the distribution image B are arbitrarily movable by the user, the image display GUI unit 115 scans each time the scanning line Y or X is scanned. The positional information of the later scanning lines Y and X is transferred to the difference calculation unit 130, and the tooth chromaticity differences ΔE, ΔL * , Δa * , Δb * with respect to the intersection of the scanning lines Y and X are again set as pixels. Calculate every time. Then, the image display GUI unit 115 acquires the color difference distribution based on the reference position after scanning from the difference calculation unit 130, and promptly displays this information.

また、画像表示GUI部115は、カラー画像A上に、判定演算部81(図4参照)の測定領域設定処理において設定された複数の測定領域を表示させる。ここで、医師などのユーザによりこれら複数の測定領域のいずれか一つの領域Qが指定されると、指定された測定領域Qの色に近似するとして選択されたシェードガイドのカラー画像Dを画面中央下部に表示させ、更に、カラー画像Dの右側に、その色度値Lの分布画像Eを表示させる。画像表示GUI部115は、差分算出部130に対して、分布画像Bに示された走査線YとXの交点における歯の色度を基準として、シェードガイドの色度の差分ΔE,ΔL,Δa,Δbをそれぞれ画素毎に算出させ、算出させたシェードガイドの色差分布を分布画像Eに表示させる。
この分布画像Eにおいても、分布画像Bと同様に縦走査線Yと横走査線Xとが示されており、画像表示GUI部115は、縦走査線Y或いは横走査線Xに沿った色差の変化を線グラフFとして画面右下に表示させる。
Further, the image display GUI unit 115 displays on the color image A a plurality of measurement regions set in the measurement region setting process of the determination calculation unit 81 (see FIG. 4). Here, when any one of the plurality of measurement regions Q is designated by a user such as a doctor, the color image D of the shade guide selected to approximate the color of the designated measurement region Q is displayed in the center of the screen. Further, the distribution image E of the chromaticity value L * a * b * is displayed on the right side of the color image D. The image display GUI unit 115 provides the difference calculation unit 130 with the shade guide chromaticity differences ΔE, ΔL * , Δ based on the chromaticity of the teeth at the intersection of the scanning lines Y and X shown in the distribution image B. Δa * and Δb * are calculated for each pixel, and the calculated color difference distribution of the shade guide is displayed on the distribution image E.
Also in this distribution image E, the vertical scanning line Y and the horizontal scanning line X are shown as in the distribution image B, and the image display GUI unit 115 displays the color difference along the vertical scanning line Y or the horizontal scanning line X. The change is displayed as a line graph F at the lower right of the screen.

また、画像表示GUI部115は、画面左下部に、上記測定領域Qに対応して選択されたシェードガイドに関する情報Gをリスト表示させる。ここでは、図4に示した判定演算部81のシェードガイド選択処理にて選択されたシェードガイド番号がスペクトル判定値Jvalueの小さい順に3つ表示される。更に、画像表示GUI部115は、各シェードガイド番号について、そのスペクトル判定値Jvalue、歯の色度とシェードガイドの色度との差分ΔE、ΔL、Δa、Δbをそれぞれ表示させる。 In addition, the image display GUI unit 115 displays a list of information G regarding the shade guide selected corresponding to the measurement region Q in the lower left portion of the screen. Here, three shade guide numbers selected in the shade guide selection process of the determination calculation unit 81 shown in FIG. 4 are displayed in ascending order of the spectrum determination value Jvalue. Further, the image display GUI unit 115 displays the spectrum determination value Jvalue and the differences ΔE, ΔL * , Δa * , Δb * between the chromaticity of the tooth and the chromaticity of the shade guide for each shade guide number.

また、画像表示GUI部115は、画面左上部に、表示モードを切り替え可能とする切替ボタンHを表示させる。これら切替ボタンHが選択されると、画像表示GUI部115は、表示画面を図14に示すような画面に切り替える。   Further, the image display GUI unit 115 displays a switching button H that enables switching of the display mode at the upper left portion of the screen. When these switching buttons H are selected, the image display GUI unit 115 switches the display screen to a screen as shown in FIG.

図14に示すように、画像表示GUI部115は、測定対象の歯のカラー画像を画面左上部付近に表示させる。また、画像表示GUI部115は、画面中央下部に、所定の照明光下におけるシェードガイドのカラー画像の一覧を表示させるとともに、その下にシェードガイド番号を表示させる。   As shown in FIG. 14, the image display GUI unit 115 displays a color image of the measurement target tooth near the upper left portion of the screen. Further, the image display GUI unit 115 displays a list of color images of the shade guide under a predetermined illumination light at the lower center of the screen, and displays the shade guide number below the list.

なお、図14では、照明光として、「なし」、「D65」、「A」が選択されている。ここで、「なし」とは、分光反射率そのものを表示する場合に相当する。この照明光は、プルダウンメニューとして任意に変更することができるように構成されている。これにより、ユーザは所望の照明光を容易に選択することが可能となり、所望の照明光下におけるシェードガイドの色合いを確認することができる。また、各シェードガイドの画像の左部には、各シェードガイドのうち、図4に示したシェードガイド番号判定部80のシェードガイド選択処理において選択されたシェードガイド番号がSG−Noとして表示されている。   In FIG. 14, “none”, “D65”, and “A” are selected as the illumination light. Here, “none” corresponds to displaying the spectral reflectance itself. This illumination light can be arbitrarily changed as a pull-down menu. Thereby, the user can easily select the desired illumination light, and can confirm the shade of the shade guide under the desired illumination light. Moreover, the shade guide number selected in the shade guide selection process of the shade guide number determination part 80 shown in FIG. 4 among each shade guide is displayed on the left part of the image of each shade guide as SG-No. Yes.

また、画像表示GUI部115は、当該画面中央上部に、測定対象の生活歯の色調とシェードガイドとの色調の比較を容易に行えるように、測定対象の生活歯と所定のシェードガイドとを隣接させて表示させるための比較領域Rを表示させる。これは、生活歯とシェードガイドとを比較する場合、画面上で離れた場所に表示されていると色調の細やかな比較が難しいため、このような問題を解消するために設けられた領域である。   In addition, the image display GUI unit 115 adjoins the measurement target vital tooth and a predetermined shade guide at the upper center of the screen so that the color tone of the measurement target vital tooth and the shade guide can be easily compared. The comparison area R for displaying the image is displayed. This is an area provided to eliminate such problems because it is difficult to make a detailed comparison of color tone if it is displayed at a distant place on the screen when comparing a vital tooth and a shade guide. .

例えば、ユーザによるドラッグアンドドロップ等の入力操作により、画面に表示されているシェードガイドの中から比較したいシェードガイドが比較領域Rに移動されると、画像表示GUI部115は、比較領域Rに移動されたシェードガイド番号を画像合成部116に転送する。これにより、画像合成部116による画像合成処理が実施され、生活歯の一部とシェードガイドの一部とが隣接表示された1つの合成画像が比較領域Rに表示されることとなる。   For example, when a shade guide to be compared is moved from the shade guides displayed on the screen to the comparison region R by an input operation such as drag and drop by the user, the image display GUI unit 115 moves to the comparison region R. The shade guide number thus transferred is transferred to the image composition unit 116. Thereby, the image composition processing by the image composition unit 116 is performed, and one composite image in which part of the vital tooth and part of the shade guide are displayed adjacent to each other is displayed in the comparison region R.

以下、本実施形態に係る画像合成部116について詳細に説明する。
画像合成部116は、図15に示すように、画像取得部117、像抽出部(像抽出手段)118、合成基準線設定部(合成基準線設定手段)119、合成部(合成手段)120、および補正部(補正手段)121を備えて構成されている。
このような構成を備える画像合成部116において、画像表示GUI部115からのシェードガイド番号は、画像取得部117に入力される。画像取得部117は、入力されたシェードガイド番号により特定されるシェードガイドのカラー画像(第2の撮像画像)をシェードガイド番号判定部80内のシェードガイド基準像データ記憶部82から取得する。
Hereinafter, the image composition unit 116 according to the present embodiment will be described in detail.
As shown in FIG. 15, the image synthesis unit 116 includes an image acquisition unit 117, an image extraction unit (image extraction unit) 118, a synthesis reference line setting unit (synthesis reference line setting unit) 119, a synthesis unit (synthesis unit) 120, And a correction unit (correction means) 121.
In the image composition unit 116 having such a configuration, the shade guide number from the image display GUI unit 115 is input to the image acquisition unit 117. The image acquisition unit 117 acquires a color image (second captured image) of the shade guide specified by the input shade guide number from the shade guide reference image data storage unit 82 in the shade guide number determination unit 80.

更に、画像取得部117は、カラー画像作成処理部112から測定対象の生活歯のカラー画像(第1の撮像画像)を取得する。このようにして取得されたシェードガイドのカラー画像および測定対象である生活歯のカラー画像は、像抽出部118に転送される。像抽出部118は、測定対象の生活歯のカラー画像から生活歯の領域(以下、「測定対象像」という。)を抽出するとともに、シェードガイドのカラー画像からシェードガイドの部分、つまり、生活歯に対応する部分(以下、「比較対象像」という。)を抽出する。   Further, the image acquisition unit 117 acquires a color image (first captured image) of the vital tooth to be measured from the color image creation processing unit 112. The color image of the shade guide and the color image of the vital tooth that is the measurement target thus obtained are transferred to the image extraction unit 118. The image extraction unit 118 extracts a vital tooth region (hereinafter referred to as “measurement target image”) from the color image of the vital tooth to be measured, and at the same time, the shade guide portion, that is, the vital tooth, from the shade guide color image. Is extracted (hereinafter referred to as “comparison target image”).

ここで、上記測定対象像および比較対象像の抽出手法については、上述した判定演算部81にて採用される手法、すなわち、「生活歯の領域の特定手法1」や「生活歯の領域の特定手法2」等を用いることができるほか、例えば、両者の画像を一旦モニタ4に表示させ、ユーザにより領域指定を行わせることとしてもよい。像抽出部118は、測定対象像および比較対象像をそれぞれ抽出すると、これらの情報を合成基準線設定部119に転送する。   Here, with respect to the extraction method of the measurement target image and the comparison target image, the method employed in the determination calculation unit 81 described above, that is, “Determination of vital tooth region 1” or “Identification of vital tooth region”. For example, both images may be temporarily displayed on the monitor 4 and the user may specify the area. After extracting the measurement target image and the comparison target image, the image extraction unit 118 transfers these pieces of information to the composite reference line setting unit 119.

合成基準線設定部119は、抽出部118により抽出された測定対象像および比較対象像において、これらの像を合成する際に基準とされる合成基準線を設定する。合成基準線設定部119は、例えば、測色対象像の重心を通り、且つ、縦軸方向、換言すると、長手方向に平行な線を合成基準線として測色対象像上に設定する。同様に、合成基準線設定部119は、比較対象像の重心を通り、且つ、縦軸方向に平行な線を合成基準線として比較対象像上に設定する。具体的には、図16に示すように、縦軸方向の長さが最大である線Ymaxを求め、この線Ymaxの中点を通り、且つ、Ymaxに垂直な線Xrefを求める。更に、このXrefの中点を求め、この中点を通り、かつ、線Ymaxに平行な線を合成基準線として設定する。   The combination reference line setting unit 119 sets a combination reference line that is used as a reference when combining these images in the measurement target image and the comparison target image extracted by the extraction unit 118. The composite reference line setting unit 119 sets, for example, a line that passes through the center of gravity of the color measurement target image and is parallel to the longitudinal axis, in other words, in the longitudinal direction, as a composite reference line on the color measurement target image. Similarly, the synthesis reference line setting unit 119 sets a line passing through the center of gravity of the comparison target image and parallel to the vertical axis direction on the comparison target image as a synthesis reference line. Specifically, as shown in FIG. 16, a line Ymax having a maximum length in the vertical axis direction is obtained, and a line Xref passing through the midpoint of the line Ymax and perpendicular to Ymax is obtained. Further, the midpoint of this Xref is obtained, and a line passing through this midpoint and parallel to the line Ymax is set as a composite reference line.

合成基準線設定部119は、上述の手順に従って合成基準線を設定すると、合成基準線が設定された後の測定対象像および比較対象像を合成部120に転送する。
合成部120は、測定対象像と比較対象像とを合成基準線に沿って合成する。具体的には、測定対象像を合成基準線に沿って2分割するとともに、比較対象像を合成基準線に沿って2分割する。続いて、分割後における測定対象像の左側と分割後における比較対象像の右側とを貼り合わせることにより合成画像を作成する。このとき、合成基準線の中点が互いに一致するように画像を貼り合わせることが好ましい。
When the composite reference line is set according to the above-described procedure, the composite reference line setting unit 119 transfers the measurement target image and the comparison target image after the composite reference line is set to the composite unit 120.
The combining unit 120 combines the measurement target image and the comparison target image along the combination reference line. Specifically, the measurement target image is divided into two along the synthesis reference line, and the comparison target image is divided into two along the synthesis reference line. Subsequently, a composite image is created by pasting the left side of the measurement target image after division and the right side of the comparison target image after division. At this time, it is preferable to paste the images so that the midpoints of the composite reference line coincide with each other.

この結果、図17に示すように、測定対象像の左半分と比較対象像の右半分とが張り合わされた合成画像が作成されることとなる。合成部120は、この合成画像を補正部121に転送する。補正部121は、合成画像において、合成基準線上の輪郭が一致しているか否かを判断し、一致していない場合には、測定対象像および比較対象像の少なくともいずれか一方を補正することにより、輪郭を一致させる。   As a result, as shown in FIG. 17, a composite image in which the left half of the measurement target image and the right half of the comparison target image are bonded together is created. The combining unit 120 transfers this combined image to the correction unit 121. The correction unit 121 determines whether or not the contours on the composite reference line match in the composite image, and if they do not match, corrects at least one of the measurement target image and the comparison target image. Match the contours.

例えば、いずれか一方あるいは両方を拡大または縮小させることにより、輪郭を一致させる。このとき、拡大/縮小率については、縦軸方向および横軸方向において同一であることが好ましいが、異なっていてもかまわない。このような補正が実施されることにより、図18に示すように、合成基準線における輪郭が一致し、自然な合成画像が作成されることとなる。補正後の合成画像は、補正部121から画像表示GUI部115に転送される。
画像表示GUI部115は、補正部121から合成画像を受け付けると、この合成画像をモニタ4に表示する。具体的には、画像表示GUI部115は、図14に示した比較領域Rに合成画像を表示させる。
For example, the outlines are matched by enlarging or reducing either or both. At this time, the enlargement / reduction ratio is preferably the same in the vertical axis direction and the horizontal axis direction, but may be different. By performing such correction, as shown in FIG. 18, the contours on the composite reference line coincide with each other, and a natural composite image is created. The corrected composite image is transferred from the correction unit 121 to the image display GUI unit 115.
When receiving the composite image from the correction unit 121, the image display GUI unit 115 displays the composite image on the monitor 4. Specifically, the image display GUI unit 115 displays a composite image in the comparison region R shown in FIG.

また、画像表示GUI部115は、比較領域Rに表示した合成画像において、合成基準線(合成基準線変更手段)を表示する。この合成基準線は、マウス等により自由に位置調整可能に構成されている。合成基準線の位置を変更させる指示があった場合、合成基準線設定部119は、当該指示に基づいて変更後の合成基準線を設定する。ユーザは、この合成基準線を左右に移動させることにより、自由に生活歯とシェードガイドとの表示割合を変更することが可能となる。   The image display GUI unit 115 displays a composite reference line (composite reference line changing unit) in the composite image displayed in the comparison region R. The composite reference line is configured to be freely adjustable with a mouse or the like. When there is an instruction to change the position of the combined reference line, the combined reference line setting unit 119 sets the changed combined reference line based on the instruction. The user can freely change the display ratio of the vital tooth and the shade guide by moving the composite reference line to the left and right.

以下、ユーザにより合成基準線が移動された場合における合成画像の更新処理について詳しく説明する。なお、以下の説明において、比較領域Rに既に表示されている合成画像を初期合成画像と定義し、初期合成画像における合成基準線を初期合成基準線と定義する。
例えば、図14の比較領域Rに表示した初期合成画像において、図19に示すように、ユーザにより合成基準線が右側に移動された場合には、この合成基準線の移動量に関する情報が画像表示GUI部115から画像合成部116に転送される。これにより、合成基準線設定部119は、更新後における合成基準線が初期合成画像のどの位置に設定されたのかを把握することができる。
Hereinafter, the update process of the composite image when the composite reference line is moved by the user will be described in detail. In the following description, a composite image already displayed in the comparison region R is defined as an initial composite image, and a composite reference line in the initial composite image is defined as an initial composite reference line.
For example, in the initial composite image displayed in the comparison region R in FIG. 14, when the composite reference line is moved to the right by the user as shown in FIG. 19, information on the amount of movement of the composite reference line is displayed on the image. The image is transferred from the GUI unit 115 to the image composition unit 116. As a result, the composite reference line setting unit 119 can grasp where the updated composite reference line is set in the initial composite image.

合成基準線設定部119は、まず、初期合成画像の輪郭の右端部を通り、且つ、初期合成基準線に平行な線Xmaxを求め、続いて、該右端部を通り、且つ、初期合成基準線に垂直な線Yrefを求める。そして、合成基準線設定部119は、更新後の合成基準線による初期合成基準線と線Xmaxとの間における線Yrefの長さの分割比a:bを求める。
このようにして、合成基準設定部119は、分割比a:bを求めると、初回の画像合成処理にて像抽出部118から取得した測定対象像および比較対象像を上述と同一の分割比にて分割する新たな合成基準線を設定し、この新たな合成基準線が設定された測定対象像および比較対象像を合成部120へ出力する。そして、合成部120により新たな合成基準線に基づく合成が行われることにより新たな合成画像が作成され、更に、この新たな合成画像が補正部121により補正される。そして、補正後の合成画像が画像表示GUI部115に転送される。画像表示GUI部115は、補正部121から受け付けた新たな合成画像をモニタ4の比較領域Rに表示する。これにより、更新後の合成基準線に基づく新たな合成画像がユーザに提示されることとなる。
The composite reference line setting unit 119 first obtains a line Xmax that passes through the right end of the contour of the initial composite image and is parallel to the initial composite reference line, and then passes through the right end and passes through the initial composite reference line. A line Yref perpendicular to is obtained. Then, the synthesis reference line setting unit 119 obtains the division ratio a: b of the length of the line Yref between the initial synthesis reference line and the line Xmax based on the updated synthesis reference line.
In this way, when the synthesis reference setting unit 119 obtains the division ratio a: b, the measurement target image and the comparison target image acquired from the image extraction unit 118 in the first image synthesis process are set to the same division ratio as described above. A new composite reference line to be divided is set, and the measurement target image and the comparison target image in which the new composite reference line is set are output to the combining unit 120. Then, a new composite image is created by combining based on the new composite reference line by the combining unit 120, and the new combined image is corrected by the correcting unit 121. Then, the corrected composite image is transferred to the image display GUI unit 115. The image display GUI unit 115 displays the new composite image received from the correction unit 121 in the comparison area R of the monitor 4. As a result, a new composite image based on the updated composite reference line is presented to the user.

以上説明してきたように、本実施形態に係る歯科用測色システムによれば、測定対象像を合成基準線に沿って分割した分割測定対象像と、比較対象像を合成基準線に沿って分割した分割比較対象像とを貼り合わせることにより合成画像を作成し、この合成画像をユーザに提供する。これにより、ユーザは、生活歯とシェードガイドの色調を非常に容易に比較することが可能となる。   As described above, according to the dental colorimetry system according to this embodiment, the divided measurement target image obtained by dividing the measurement target image along the composite reference line and the comparison target image divided along the composite reference line. A composite image is created by pasting the divided comparison target images together, and this composite image is provided to the user. Thereby, the user can compare the color tone of the vital tooth and the shade guide very easily.

更に、上記合成画像において、合成基準線がユーザにより移動可能に構成されているので、ユーザはこの合成基準線を移動させることにより、合成画像における測定対象像と比較対象像との面積比を変更することができるとともに、色調比較を行う箇所を自由に変更することが可能となる。
更に、色調比較に用いるシェードガイドについても変更可能に構成されているので、ユーザは所望のシェードガイド番号を比較対象として自由に選定できる。これにより、所望のシェードガイドと生活歯とに基づく合成画像を表示させることが可能となるので、様々なシェードガイドの色調と生活歯の色調とを比較することが可能となる。
Furthermore, since the composite reference line is configured to be movable by the user in the composite image, the user can change the area ratio between the measurement target image and the comparison target image in the composite image by moving the composite reference line. In addition, it is possible to freely change the location for color tone comparison.
Furthermore, since the shade guide used for color tone comparison is also configured to be changeable, the user can freely select a desired shade guide number as a comparison target. As a result, it is possible to display a composite image based on a desired shade guide and vital teeth, and it is possible to compare the color tone of various shade guides with the color tone of vital teeth.

なお、上述した実施形態において、合成基準線設定部119による合成基準線の設定手順は一例であり、合成基準線の設定についてはこの例に限られない。例えば、測定対象像および比較対象像における縦軸方向の長さが最大となる箇所に、縦軸方向に沿って合成基準線をそれぞれ設定することとしてもよい。
また、更に、合成基準線近傍の測色値を生活歯およびシェードガイドにおいてそれぞれ算出し、これらの算出結果を数値データとして同一の画面上に表示することとしてもよい。具体的には、図20に示すように、合成基準線設定部119において、合成基準線の位置が変更された場合に、変更後の合成基準線の位置情報が合成基準線設定部119から色度値演算部73に転送される。これにより、予め設定された所定のエリアが、変更後の合成基準線に対応する位置に設定変更される。次いで、色度値演算部73が、再度被写体のスペクトルから変更後の所定のエリアにおける色度値Lの平均値を算出し、画像表示GUI部115および差分算出部130に出力する。
更に、差分算出部130が、設計変更後の所定のエリアにおける色度値Lの平均値に基づいて、生活歯の色度値とシェードガイドの色度値の差分についても算出し、この差分も表示することとしてもよい。
In the above-described embodiment, the setting procedure of the composite reference line by the composite reference line setting unit 119 is an example, and the setting of the composite reference line is not limited to this example. For example, it is good also as setting a synthetic | combination reference line along the vertical axis direction in the location where the length of the vertical axis direction in the measurement target image and the comparison target image is maximum.
Further, the colorimetric values near the composite reference line may be calculated in the vital tooth and the shade guide, respectively, and these calculation results may be displayed as numerical data on the same screen. Specifically, as illustrated in FIG. 20, when the position of the composite reference line is changed in the composite reference line setting unit 119, the position information of the composite reference line after the change is changed from the composite reference line setting unit 119 to the color. It is transferred to the degree value calculation unit 73. As a result, the predetermined area set in advance is changed to the position corresponding to the changed composite reference line. Next, the chromaticity value calculation unit 73 again calculates the average value of the chromaticity values L * a * b * in the predetermined area after the change from the subject spectrum, and outputs the average value to the image display GUI unit 115 and the difference calculation unit 130. To do.
Furthermore, the difference calculation unit 130 also calculates a difference between the chromaticity value of the vital tooth and the chromaticity value of the shade guide based on the average value of the chromaticity values L * a * b * in the predetermined area after the design change. However, this difference may also be displayed.

また、上記実施形態においては、測定対象像および比較対象像を合成基準線に基づいて分割する場合について述べたが、分割は画像全体において行われてもよい。例えば、測定対象像上に設定された合成基準線を延長することにより、測定対象が撮影されている生活歯のカラー画像全体において合成基準線を設定し、この合成基準線に沿って生活歯のカラー画像を2つの画像片に分割することとしてもよい。同様に、比較対象が撮影されているシェードガイド画像についても、合成基準線に基づいて画像全体を2つの画像片に分割し、これら画像片を貼り合わせることにより、測定対象である生活歯や比較対象であるシェードガイドだけでなく、歯茎等の背景の情報も含まれた合成画像を作成することとしてもよい。   In the above embodiment, the case where the measurement target image and the comparison target image are divided based on the composite reference line has been described. However, the division may be performed on the entire image. For example, by extending the composite reference line set on the measurement target image, a composite reference line is set in the entire color image of the vital tooth in which the measurement target is photographed, and the vital tooth is aligned along the composite reference line. The color image may be divided into two image pieces. Similarly, with respect to a shade guide image in which the comparison target is photographed, the entire image is divided into two image pieces based on the composite reference line, and these image pieces are bonded to each other so that the measurement target vital tooth or comparison A composite image including not only the target shade guide but also background information such as gums may be created.

また、図14では、上記合成基準線が縦軸方向に沿って1本設定されている場合について述べたが、合成基準線は横軸方向に設定されても良く、また、その設定本数についても、縦、横任意に設定することができるものとする。
例えば、図21に示すように、合成基準線を縦1本、横1本とすることにより、4つの画像片を貼り合わせて合成画像を作成することも可能である。同様に、図22は、合成基準線を縦2本、横1本とした場合、図23は合成基準線を縦3本、横1本とした場合、図24は合成基準線を縦4本、横1本とした場合における合成画像をそれぞれ示している。
また、複数の合成基準線が設定された合成画像においても各合成基準線は、ユーザによる移動が可能に構成されている。
In FIG. 14, the case where one composite reference line is set along the vertical axis is described. However, the composite reference line may be set along the horizontal axis, and the number of the set reference lines is also set. It can be set arbitrarily in vertical and horizontal directions.
For example, as shown in FIG. 21, it is possible to create a composite image by combining four image pieces by setting the composite reference line to one vertical and one horizontal. Similarly, FIG. 22 shows a case where the composite reference line is two vertical lines and one horizontal line, FIG. 23 shows a case where the composite reference line is three vertical lines and one horizontal line, and FIG. , Each of the combined images in the case of one horizontal is shown.
Further, even in a composite image in which a plurality of composite reference lines are set, each composite reference line can be moved by the user.

さらに、1度に比較可能なシェードガイドの個数は1つに限られず、複数のシェードガイドと生活歯とを一度に比較するような構成としても良く、複数種類のシェードガイドを生活歯に隣接させて表示させることもできる。たとえば、図16において、4分割された領域のうち、左上にシェードガイドの一部を表示させ、左下に左上のシェードガイドとは異なるシェードガイドを表示させ、右側の2つの領域に生活歯を表示させるようにすることもできる。同様にシェードガイドと複数の生活歯とを一度に比較するような構成とすることも可能である。   Furthermore, the number of shade guides that can be compared at one time is not limited to one, and a configuration may be used in which a plurality of shade guides and vital teeth are compared at a time, and a plurality of types of shade guides are adjacent to vital teeth. Can also be displayed. For example, in FIG. 16, among the four divided areas, a part of the shade guide is displayed at the upper left, a shade guide different from the upper left shade guide is displayed at the lower left, and vital teeth are displayed in the two areas on the right. It can also be made to do. Similarly, it is possible to make a configuration in which the shade guide and a plurality of vital teeth are compared at a time.

本発明の一実施形態に係る撮像装置及びクレードルの概略構成を示すブロック図である。1 is a block diagram illustrating a schematic configuration of an imaging apparatus and a cradle according to an embodiment of the present invention. 図1に示した光源のスペクトルを示す図である。It is a figure which shows the spectrum of the light source shown in FIG. 信号補正を説明する図である。It is a figure explaining signal correction. 本発明の一実施形態に係る歯科用測色装置の概略構成を示すブロック図である。1 is a block diagram illustrating a schematic configuration of a dental color measurement device according to an embodiment of the present invention. 図4に示したスペクトル推定演算部の概略内部構成を示す図である。It is a figure which shows the schematic internal structure of the spectrum estimation calculating part shown in FIG. 入力γ補正を説明する図である。It is a figure explaining input gamma correction. 画素補間演算において、R信号及びB信号に適用されるローパスフィルタの一例を示す図である。It is a figure which shows an example of the low-pass filter applied to R signal and B signal in pixel interpolation calculation. 画素補間演算において、G信号に適用されるローパスフィルタの一例を示す図である。It is a figure which shows an example of the low pass filter applied to G signal in pixel interpolation calculation. 生活歯の反射スペクトル(サンプル個数n=2)の一例を示す図である。It is a figure which shows an example of the reflection spectrum (sample number n = 2) of a vital tooth. 歯茎の反射スペクトル(サンプル個数n=5)の一例を示す図である。It is a figure which shows an example of the reflectance spectrum (sample number n = 5) of a gum. 本発明の一実施形態に係る生活歯の領域を特定する手法を説明する説明図である。It is explanatory drawing explaining the method of specifying the area | region of the vital tooth which concerns on one Embodiment of this invention. 測定領域設定処理で設定される測定領域の一例を示す図である。It is a figure which shows an example of the measurement area | region set by a measurement area | region setting process. 表示画面の一例を示す図である。It is a figure which shows an example of a display screen. 表示画面の一例を示す図である。It is a figure which shows an example of a display screen. 図4に示した画像合成部の概略構成を示す図である。It is a figure which shows schematic structure of the image synthetic | combination part shown in FIG. 合成基準線の設定手順についての説明に用いる説明図である。It is explanatory drawing used for description about the setting procedure of a synthetic | combination reference line. 合成部により作成された合成画像の一例を示す図である。It is a figure which shows an example of the synthesized image produced by the synthetic | combination part. 補正部による補正後の合成画像の一例を示す図である。It is a figure which shows an example of the synthesized image after the correction | amendment by the correction | amendment part. 合成基準線がユーザにより移動された場合における合成基準線の再設定についての説明に用いる説明図である。It is explanatory drawing used for description about the reset of a synthetic | combination reference line when a synthetic | combination reference line is moved by the user. 図15における合成基準線設定部の作用を説明するための説明図である。It is explanatory drawing for demonstrating the effect | action of the synthetic | combination reference line setting part in FIG. 合成基準線を縦1本、横1本とした場合の合成画像を示した図である。It is the figure which showed the synthetic | combination image when a synthetic | combination reference line is 1 length and 1 width. 合成基準線を縦2本、横1本とした場合の合成画像を示した図である。It is the figure which showed the synthetic | combination image in case a synthetic | combination reference line is 2 vertical and 1 horizontal. 合成基準線を縦3本、横1本とした場合の合成画像を示した図である。It is the figure which showed the synthetic | combination image in case a synthetic | combination reference line is set to 3 length and 1 width. 合成基準線を縦4本、横1本とした場合の合成画像を示した図である。It is the figure which showed the synthetic | combination image when a synthetic | combination reference line is 4 length and 1 width.

符号の説明Explanation of symbols

1 撮像装置
2 クレードル
3 歯科用測色装置
4 表示装置
10 光源
70 色度算出部
71 スペクトル推定演算部
72 観察スペクトル演算部
73 色度値演算部
80 シェードガイド番号判定部
81 判定演算部
82 シェードガイド基準画像データ記憶部
114 シェードガイド色度データ記憶部
115 画像表示GUI部
116 画像合成部
117 画像取得部
118 像抽出部
119 合成基準線設定部
120 合成部
121 補正部
130 差分算出部
DESCRIPTION OF SYMBOLS 1 Imaging device 2 Cradle 3 Dental colorimetric device 4 Display device 10 Light source 70 Chromaticity calculation part 71 Spectrum estimation calculation part 72 Observation spectrum calculation part 73 Chromaticity value calculation part 80 Shade guide number determination part 81 Determination calculation part 82 Shade guide Reference image data storage unit 114 Shade guide chromaticity data storage unit 115 Image display GUI unit 116 Image composition unit 117 Image acquisition unit 118 Image extraction unit 119 Composition reference line setting unit 120 Composition unit 121 Correction unit 130 Difference calculation unit

Claims (10)

測定対象が撮影された第1の撮像画像と該測定対象と比較する比較対象が撮影された第2の撮像画像とを合成して一枚の画像を作成する画像合成装置であって、
前記第1の撮像画像から測定対象像を抽出するとともに、前記第2の撮像画像から比較対象像を抽出する像抽出手段と、
前記測定対象像上および前記比較対象像上に合成基準線をそれぞれ設定する合成基準線設定手段と、
前記測定対象像および前記比較対象像を前記合成基準線に沿って合成することにより、合成画像を作成する合成手段と、
前記合成画像において、前記合成基準線における輪郭が一致しなかった場合に、前記輪郭が一致するように前記測定対象像および前記比較対象像の少なくともいずれか一方を補正する補正手段と
を具備する画像合成装置。
An image composition device that synthesizes a first captured image in which a measurement target is captured and a second captured image in which a comparison target to be compared with the measurement target is captured to create a single image,
Image extraction means for extracting a measurement target image from the first captured image and extracting a comparison target image from the second captured image;
Combined reference line setting means for setting a combined reference line on the measurement target image and the comparison target image, respectively;
Synthesizing means for creating a synthesized image by synthesizing the measurement object image and the comparison object image along the synthesis reference line;
In the synthesized image, an image comprising correction means for correcting at least one of the measurement target image and the comparison target image so that the contours match when the contours on the composite reference line do not match. Synthesizer.
前記合成基準線設定手段が、前記測定対象像の重心を通る線を前記合成基準線として前記測定対象像上に設定し、前記比較対象像の重心を通る線を前記合成基準線として前記比較対象像上に設定する請求項1に記載の画像合成装置。   The composite reference line setting means sets a line passing through the center of gravity of the measurement target image as the composite reference line on the measurement target image, and a line passing through the center of gravity of the comparison target image as the composite reference line The image composition device according to claim 1, wherein the image composition device is set on an image. 前記合成基準線設定手段が、前記測定対象像の縦軸方向の長さが最大となる箇所に、前記縦軸方向に沿って前記合成基準線を前記測定対象像上に設定し、前記比較対象像の縦軸方向の長さが最大となる箇所に、前記縦軸方向に沿って前記合成基準線を前記比較対象像上に設定する請求項1に記載の画像合成装置。   The composite reference line setting means sets the composite reference line on the measurement target image along the vertical axis direction at a position where the length of the measurement target image is maximum in the vertical axis direction, and the comparison target The image synthesizing apparatus according to claim 1, wherein the synthesis reference line is set on the comparison target image along the vertical axis direction at a position where the length of the image in the vertical axis direction is maximum. 前記合成画像において前記合成基準線を外部から変更する合成基準線変更手段を備える請求項1から請求項3のいずれかに記載の画像合成装置。   The image composition apparatus according to claim 1, further comprising a composition reference line changing unit configured to change the composition reference line from outside in the composition image. 前記補正手段が、前記測定対象像および前記比較対象像の少なくともいずれか一方を縮小または拡大する請求項1から請求項4のいずれかに記載の画像合成装置。   The image synthesizing apparatus according to claim 1, wherein the correction unit reduces or enlarges at least one of the measurement target image and the comparison target image. 前記測定対象は生活歯であり、前記比較対象は前記シェードガイドである請求項5に記載の画像合成装置。   The image composition device according to claim 5, wherein the measurement object is a vital tooth, and the comparison object is the shade guide. 請求項1に記載の画像合成装置と、
前記測定対象像において、前記合成基準線近傍の測色値を演算する測色値演算手段と、
前記測定対象像の前記合成基準線近傍の測色値と前記比較対象像の前記合成基準線近傍の測色値との差分を算出する差分算出手段と、
前記測定対象像の前記合成基準線近傍の前記測色値、前記比較対象像の前記合成基準線近傍の前記測色値、および前記測色値の差分の少なくともいずれか1つを前記合成画像と同一画面に表示する表示制御手段と
を具備する歯科用測色装置。
An image composition apparatus according to claim 1;
A colorimetric value calculating means for calculating a colorimetric value near the composite reference line in the measurement target image;
Difference calculating means for calculating a difference between a colorimetric value near the composite reference line of the measurement target image and a colorimetric value near the composite reference line of the comparison target image;
At least one of the colorimetric value in the vicinity of the composite reference line of the measurement target image, the colorimetric value in the vicinity of the composite reference line of the comparison target image, and the difference between the colorimetric values is the composite image. A dental colorimetric device comprising display control means for displaying on the same screen.
口腔内を撮像する撮像装置と、
前記撮像装置にて測定対象が撮影された第1の撮像画像と該測定対象と比較する比較対象が撮影された第2撮像画像とを合成して一枚の画像を作成する画像合成装置を有する歯科用測色装置と
を備え、
前記画像合成装置は、
前記第1の撮像画像から測定対象像を抽出するとともに、前記第2の撮像画像から比較対象像を抽出する像抽出手段と、
前記測定対象像上および前記比較対象像上に合成基準線をそれぞれ設定する合成基準線設定手段と、
前記測定対象像および前記比較対象像を前記合成基準線に沿って合成することにより、合成画像を作成する合成手段と、
前記合成画像において、前記合成基準線における輪郭が一致しなかった場合に、前記輪郭が一致するように前記測定対象像および前記比較対象像の少なくともいずれか一方を補正する補正手段と
を具備する歯科用測色システム。
An imaging device for imaging the oral cavity;
An image synthesis device that creates a single image by synthesizing a first captured image in which a measurement target is captured by the imaging device and a second captured image in which a comparison target to be compared with the measurement target is captured; A dental colorimetric device,
The image composition device includes:
Image extraction means for extracting a measurement target image from the first captured image and extracting a comparison target image from the second captured image;
Combined reference line setting means for setting a combined reference line on the measurement target image and the comparison target image, respectively;
Synthesizing means for creating a synthesized image by synthesizing the measurement object image and the comparison object image along the synthesis reference line;
A correction unit that corrects at least one of the measurement target image and the comparison target image so that the contours match when the contours in the composite reference line do not match in the composite image; Color measuring system.
測定対象が撮影された第1の撮像画像と該測定対象と比較する比較対象が撮影された第2の撮像画像とを合成して一枚の画像を作成する画像作成方法であって、
前記第1の撮像画像から測定対象像を抽出するとともに、前記第2の撮像画像から比較対象像を抽出する像抽出過程と、
前記測定対象像上および前記比較対象像上に合成基準線をそれぞれ設定する合成基準線設定過程と、
前記測定対象像および前記比較対象像を前記合成基準線に沿って合成することにより、合成画像を作成する合成過程と、
前記合成画像において、前記合成基準線における輪郭が一致しなかった場合に、前記輪郭が一致するように前記測定対象像および前記比較対象像の少なくともいずれか一方を補正する補正過程と
を具備する画像合成方法。
An image creation method for creating a single image by combining a first captured image in which a measurement target is captured and a second captured image in which a comparison target to be compared with the measurement target is captured,
An image extraction process of extracting a measurement target image from the first captured image and extracting a comparison target image from the second captured image;
A combined reference line setting process for setting a combined reference line on the measurement target image and the comparison target image;
Combining the measurement object image and the comparison object image along the combining reference line to create a combined image;
An image comprising: a correction process for correcting at least one of the measurement target image and the comparison target image so that the contours match when the contours in the composite reference line do not match in the composite image Synthesis method.
測定対象が撮影された第1の撮像画像と該測定対象と比較する比較対象が撮影された第2の撮像画像とを合成して一枚の画像を作成するための画像作成プログラムであって、
前記第1の撮像画像から測定対象像を抽出するとともに、前記第2の撮像画像から比較対象像を抽出する像抽出処理と、
前記測定対象像上および前記比較対象像上に合成基準線をそれぞれ設定する合成基準線設定処理と、
前記測定対象像および前記比較対象像を前記合成基準線に沿って合成することにより、合成画像を作成する合成処理と、
前記合成画像において、前記合成基準線における輪郭が一致しなかった場合に、前記輪郭が一致するように前記測定対象像および前記比較対象像の少なくともいずれか一方を補正する補正処理と
をコンピュータに実行させるための画像合成プログラム。
An image creation program for creating a single image by combining a first captured image in which a measurement target is captured and a second captured image in which a comparison target to be compared with the measurement target is captured,
An image extraction process for extracting a measurement target image from the first captured image and extracting a comparison target image from the second captured image;
A combined reference line setting process for setting a combined reference line on the measurement target image and the comparison target image;
A synthesis process for creating a synthesized image by synthesizing the measurement object image and the comparison object image along the synthesis reference line;
In the composite image, when the contours on the composite reference line do not match, the computer executes a correction process for correcting at least one of the measurement target image and the comparison target image so that the contours match. Image composition program to let you.
JP2006341477A 2005-12-19 2006-12-19 Image composition apparatus, method and program Expired - Fee Related JP3989521B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2006341477A JP3989521B2 (en) 2005-12-19 2006-12-19 Image composition apparatus, method and program

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2005365215 2005-12-19
JP2006341477A JP3989521B2 (en) 2005-12-19 2006-12-19 Image composition apparatus, method and program

Publications (2)

Publication Number Publication Date
JP2007190370A true JP2007190370A (en) 2007-08-02
JP3989521B2 JP3989521B2 (en) 2007-10-10

Family

ID=38446488

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2006341477A Expired - Fee Related JP3989521B2 (en) 2005-12-19 2006-12-19 Image composition apparatus, method and program

Country Status (1)

Country Link
JP (1) JP3989521B2 (en)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2014073642A1 (en) * 2012-11-09 2014-05-15 富士フイルム株式会社 Camera system, color conversion device and method employed thereupon, and color conversion program
JP2014153066A (en) * 2013-02-05 2014-08-25 Seiko Epson Corp Colorimetric method and colorimetric device
JP2014173919A (en) * 2013-03-07 2014-09-22 Seiko Epson Corp Spectroscopy measuring device
WO2019111351A1 (en) * 2017-12-06 2019-06-13 オリンパス株式会社 Light blocking unit
JPWO2019039354A1 (en) * 2017-08-23 2020-07-16 富士フイルム株式会社 Light source device and endoscope system
JP2021124507A (en) * 2020-01-31 2021-08-30 メディット コーポレーション External light interference removal method

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2014073642A1 (en) * 2012-11-09 2014-05-15 富士フイルム株式会社 Camera system, color conversion device and method employed thereupon, and color conversion program
JP2015046142A (en) * 2012-11-09 2015-03-12 富士フイルム株式会社 Camera system, color conversion apparatus and method for use on the same, and color conversion program
KR20150068423A (en) * 2012-11-09 2015-06-19 후지필름 가부시키가이샤 Camera system, color conversion device and method employed thereupon, and color conversion program
KR101660323B1 (en) 2012-11-09 2016-09-29 후지필름 가부시키가이샤 Camera system, color conversion device and method employed thereupon, and color conversion program
JP2014153066A (en) * 2013-02-05 2014-08-25 Seiko Epson Corp Colorimetric method and colorimetric device
JP2014173919A (en) * 2013-03-07 2014-09-22 Seiko Epson Corp Spectroscopy measuring device
JPWO2019039354A1 (en) * 2017-08-23 2020-07-16 富士フイルム株式会社 Light source device and endoscope system
WO2019111351A1 (en) * 2017-12-06 2019-06-13 オリンパス株式会社 Light blocking unit
JP2021124507A (en) * 2020-01-31 2021-08-30 メディット コーポレーション External light interference removal method
JP7231139B2 (en) 2020-01-31 2023-03-01 メディット コーポレーション External light interference elimination method
US11826016B2 (en) 2020-01-31 2023-11-28 Medit Corp. External light interference removal method

Also Published As

Publication number Publication date
JP3989521B2 (en) 2007-10-10

Similar Documents

Publication Publication Date Title
KR100998805B1 (en) Image combining apparatus
JP2007047045A (en) Apparatus, method and program for image processing
US20070140553A1 (en) Dental colorimetry apparatus
JP6045130B2 (en) Method for tooth color mapping
JP5190944B2 (en) Endoscope apparatus and method for operating endoscope apparatus
JP3930334B2 (en) Spectral reflectance measuring device
JP4870067B2 (en) Image processing system
JP4773217B2 (en) Electronic endoscope device
JP5992936B2 (en) Endoscope system, processor device for endoscope system, operation method of endoscope system, operation method of processor device for endoscope system
JP7021183B2 (en) Endoscope system, processor device, and how to operate the endoscope system
JP3989521B2 (en) Image composition apparatus, method and program
JPWO2005071372A1 (en) Image processing system, hospital processing system
JP2012020130A (en) Dental tone mapping
JP4327380B2 (en) Fluorescent image display method and apparatus
JP3989522B2 (en) Dental colorimetry apparatus, system, method, and program
JP5039621B2 (en) Electronic endoscope device
JP2010081057A (en) Image processing apparatus and method, and colorimetry system
JP7015382B2 (en) Endoscope system
CN112004455B (en) Medical image processing system
JP2009195495A (en) Dental device for measuring color
JP2009053160A (en) Dental colorimetric device
WO2019244254A1 (en) Image processing device, operating method for image processing device, and operation program for image processing device
JP4831962B2 (en) Imaging device
JP2019153931A (en) Measuring device, method for setting parameter for color measurement conversion in measuring device, and industrial product inspected by measuring device
JP6960773B2 (en) Captured image processing system

Legal Events

Date Code Title Description
A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20070507

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20070626

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20070717

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100727

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100727

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110727

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120727

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130727

Year of fee payment: 6

LAPS Cancellation because of no payment of annual fees