JP2012157692A - Oral imaging and display system - Google Patents

Oral imaging and display system Download PDF

Info

Publication number
JP2012157692A
JP2012157692A JP2012002553A JP2012002553A JP2012157692A JP 2012157692 A JP2012157692 A JP 2012157692A JP 2012002553 A JP2012002553 A JP 2012002553A JP 2012002553 A JP2012002553 A JP 2012002553A JP 2012157692 A JP2012157692 A JP 2012157692A
Authority
JP
Japan
Prior art keywords
image
dentition
images
tooth
camera
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2012002553A
Other languages
Japanese (ja)
Other versions
JP5651132B2 (en
JP2012157692A5 (en
Inventor
Nobukane Urakabe
伸周 浦壁
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Advance Co Ltd
Original Assignee
Advance Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Advance Co Ltd filed Critical Advance Co Ltd
Priority to JP2012002553A priority Critical patent/JP5651132B2/en
Publication of JP2012157692A publication Critical patent/JP2012157692A/en
Publication of JP2012157692A5 publication Critical patent/JP2012157692A5/ja
Application granted granted Critical
Publication of JP5651132B2 publication Critical patent/JP5651132B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

PROBLEM TO BE SOLVED: To provide a system which forms lateral panoramic dentition images using a hand-held intraoral camera for understanding conditions of the teeth and gum accurately according to the obtained panoramic image of the lateral dentition, and for suggesting dental treatments easy to understand for a patient.SOLUTION: The system includes: a continuous image sequence-forming means for forming an image sequence by continuous imaging of the surfaces of the dental arch; a lateral dentition image-forming means for forming multiple partial dentition images with the image sequence formed by the continuous image sequence-forming means as partial dentition images and combining, starting with the image that is to become the center of the overall combined image; and a lateral dentition image-combining means for forming the entire dental arch by radially combining the multiple partial dentition images formed by the lateral dentition image-forming means, starting with the image that is to become the center of the overall combined image.

Description

本発明は、口腔内全般を撮影し、パノラマ表示するシステムに関するものである。   The present invention relates to a system for photographing the whole oral cavity and displaying the panorama.

口腔内撮影用のカメラは、カメラの高分解能化、小型化、低価格化等から虫歯治療、インプラント治療等における患者の治療への理解と同意を得る為の使用や、口腔内状態の記録等に利用はされており、個々の患部を撮影する他、歯列側面全体を撮影し診察や治療に用いる場合がある。
歯列の撮影は、歯列が複雑に湾曲している為に、上前歯部、下前歯部、右上臼歯部、右下臼歯部、左上臼歯部、左下臼歯部に分けて撮像して複数の画像を形成する場合が多い。
歯列画像は、歯列残存歯数および虫歯の状態と修復物の状況を判別したり、画像内の歯肉の腫れから歯肉炎の発症部位を特定するような診察用画像として用いられたりするが、複数の画像を用いて歯列を表示する場合は、それぞれの画像が、口腔内のどの部位かを容易には認識しにくい。
口腔内の実画像でパノラマ画像を得る手法は、例えば国際公開を2007/063980号公報に、歯列アーチホーム概形相似仮想形曲線に近似した形状を持つフレームを形成してその側面に撮像装置を配置したものによって、歯列全体を撮影し、これをステレオ形式撮影とすることで、立体3次元のパノラマ画像を得ることが記載されている。
Cameras for intraoral photography are used to obtain understanding and consent for patient treatment in dental caries treatment, implant treatment, etc. from high resolution, miniaturization, low price of the camera, etc., recording of oral condition etc. In addition to photographing each affected part, the entire side surface of the dentition may be photographed and used for diagnosis and treatment.
Since the dentition is complicatedly curved, the upper dentition, lower anterior teeth, upper right molar, right lower molar, left upper molar, left lower molar are divided into multiple images. In many cases, an image is formed.
The dentition image may be used as a diagnostic image to determine the number of remaining teeth, caries, and restoration, or to identify the site of gingivitis from the swelling of the gingiva in the image. When a dentition is displayed using a plurality of images, it is difficult to easily recognize which part of the oral cavity each image is.
A technique for obtaining a panoramic image with a real image in the oral cavity is disclosed in, for example, International Publication No. 2007/063980, in which an imaging device is formed on a side surface by forming a frame having a shape approximating a dental arch home approximate virtual curve It is described that a whole three-dimensional panoramic image can be obtained by photographing the entire dentition by using this and taking it in stereo format.

確かに、立体状で歯列の画像を撮影することができるが、アーチホーム概刑相似仮想形曲線を備えたフレームの形成を要する点で簡易的な測定手法とは言い難い面がある。
特開2005-144171には、撮影部位に照準用レーザダイオード光を照射する構成が記載され、口腔内という狭い空間で目的部位を的確に撮影することが記載されている。
Certainly, it is possible to take a three-dimensional image of the dentition, but it is difficult to say that it is a simple measurement method in that it requires the formation of a frame having an archhome approximate virtual curve.
Japanese Patent Laid-Open No. 2005-144171 describes a configuration in which an imaging region is irradiated with an aiming laser diode light, and describes that a target region is accurately imaged in a narrow space in the oral cavity.

特開2001−212161号公報JP 2001-212161 A 特開2005−144171号公報JP 2005-144171 A 国際公開WO2007/063980公報International Publication WO2007 / 063980

画像表示による口腔内の観察は、数多く提案されているが、結局従来の単発的で局所的な治療システム上での、患者への情報提供にとどまるものであり、口腔内の歯及び歯肉等の口腔内全般の健全化を図るべ為の撮影画像を提供するシステムにまでは到達していない。
歯列の特に歯側面のパノラマ画像を得るには、国際公開WO2007/063980公報でも示されているように、歯列アーチホーム概形相似仮想形曲線に近似した形状を持つフレームのような、固定可能な型枠を用意する必要がある等、手持ち式の口腔内カメラによる試みは、未だ提案されるに至っていない。
Many observations in the oral cavity by image display have been proposed, but in the end, it is limited to providing information to the patient on the conventional single and local treatment system. It has not yet reached a system that provides photographed images for the purpose of improving the overall health of the oral cavity.
In order to obtain a panoramic image of the dentition, particularly the tooth side surface, as shown in International Publication WO2007 / 063980, a fixed frame such as a frame having a shape approximated to a phantom arch home approximate similarity virtual shape curve is used. Attempts with handheld intraoral cameras have not yet been proposed, such as the need to prepare possible molds.

上記に鑑み本発明は、歯列の側面を連写撮影して画像列を形成する連写画像列形成手段、前記連写画像列形成手段で形成された画像列を部分的な歯列画像として、全体合成の中心となる画像から合成して複数の部分歯列画像を形成する側面歯列画像形成手段、前記側面歯列画像形成手段で形成された複数の部分歯列画像間で全体合成の中心となる画像に基づいて連結合成して全体の歯列を形成する側面歯列画像合成手段を具備することで、手持ち型の口腔内カメラを用いて明瞭なパノラマ歯列が形成でき、更にX線パノラマ歯列画像、仮想矯正又は仮想審美着色したパノラマ歯列とを併設して表示したり、重ね合わせて表示することで、歯科における診療範囲を広げることを可能とする。   In view of the above, the present invention provides a continuous image sequence forming unit that continuously captures images of a side surface of a dentition to form an image sequence, and an image sequence formed by the continuous image sequence formation unit as a partial dentition image. A side dentition image forming unit that forms a plurality of partial dentition images by synthesizing from the image that is the center of the total synthesis, and a total synthesis between the plurality of partial dentition images formed by the side dentition image formation unit. By providing a side dentition image synthesizing means that forms a whole dentition by combining and synthesizing based on the central image, a clear panoramic dentition can be formed using a hand-held intraoral camera, and X A line panoramic dentition image, a virtual orthodontic or virtual aesthetically colored panoramic dentition can be displayed together with each other, or can be displayed in a superimposed manner, thereby expanding the dental treatment range.

本発明で示す画像は、最終的にデジタル画像を示すものであって、動画、静止画いずれを用いても良い。
本発明における「全体合成の中心となる画像」とは、例えば、2つの部分パノラマ画像を合成する場合の両者に共通する画像を示す。「全体」には、最終的な全体パノラマ歯列画像だけを示すのではなく、例えば、3つ以上の部分歯列画像を形成した場合であって、最初に2つの部分パノラマ歯列画像を合成して得られた合成途中のパノラマ歯列画像も含まれる。「全体合成の中心となる画像から合成して」とは、例えば、前歯の表面の中央の一つの歯の一部が中央にくる画像から、奥歯方向の歯列を連写して得られた複数の静止画像を合成して左側部分歯列パノラマ画像と右側部分歯列パノラマ画像を形成することを意味する。「連結合成」とは、例えば、左側部分歯列パノラマ画像と、右側部分歯列パノラマ画像とで、両者に共通する部位で合成したり、連結可能な部位に基づいて接続したりして合成することを意味する。
The image shown in the present invention finally shows a digital image, and either a moving image or a still image may be used.
The “image serving as the center of total synthesis” in the present invention indicates, for example, an image that is common to both when two partial panoramic images are synthesized. “Overall” does not show only the final entire panoramic dentition image, but, for example, when three or more partial dentition images are formed, the two partial panoramic dentition images are synthesized first. The panoramic tooth image in the middle of synthesis obtained in this way is also included. “Combine from the image that is the center of the overall synthesis” means, for example, a plurality of images obtained by continuously copying the dentition in the back tooth direction from an image in which a part of the center tooth of the front tooth is in the center. The left partial dentition panoramic image and the right partial dentition panoramic image. “Connected composition” is, for example, combining the left partial dentition panorama image and the right partial dentition panorama image by combining them at a common part or connecting them based on connectable parts. Means that.

本発明は、合成の中心となる部分を含む画像にマークを設定する場合があるが、このマークとは、例えば、唾液、水等で容易に溶解せず、細長い長方形状のもの、短い長方形状を有し、例えば裏面に接着剤、粘着剤等が塗布されたシールであって、剥がすことが可能な付着物を示す。
又、付着物に限らず、色を落とすことが可能で、明確に撮影しやすい、緑、赤等の着色されたペンによりマークを歯に描いても良い。
マークを配置する部位は、上歯と下の歯にかかる様に配置されることが好ましいが、例えば、上顎、下顎いずれか一方のみ撮影する場合は、撮影する方のみ配置しても良い。 マークを配置する歯列上の所定の位置とは、例えば、カメラの撮影方向や、持ち方などを変えることで、撮影が中断したり、動きが静止する位置であって、合成の中心となる画像を示す。
In the present invention, there is a case where a mark is set on an image including a central part of the composition. This mark is not easily dissolved by, for example, saliva or water, and is an elongated rectangular shape or a short rectangular shape. For example, a sticker having an adhesive, a pressure-sensitive adhesive, or the like applied to the back surface, which can be peeled off.
Further, the mark may be drawn on the teeth with a colored pen such as green or red, which is not limited to the attached matter, and can remove the color and is easily photographed.
The part where the mark is arranged is preferably arranged so as to cover the upper tooth and the lower tooth. However, for example, when only one of the upper jaw and the lower jaw is photographed, only the person who photographs may be disposed. The predetermined position on the dentition where the mark is placed is, for example, a position where the shooting is interrupted or the movement stops by changing the shooting direction or holding method of the camera, and becomes the center of the composition An image is shown.

撮影画像上で認識しやすい色(緑、青等)、形状で形成されればよく、材質、色、は適宜選択される。また、3次元画像を得る場合は、特徴のある立体性を備えたものを用いても良い。マークは、歯の表面に表示され、撮影された画像に明確に位置表示がされるものであればよいことから例えば、歯表面に投影される寸法が既知の形状を持つレーザー照準光を照射する照射手段を設ける場合や、スポットライトのように、照明距離と照射される光の面積が対応関係にある照射手段を口腔内カメラから歯に向けて照射可能に配置するものであってもよい。
マークは、少なくとも、マークが所定の位置に撮影された画像から合成が始まれば良く、撮影方向は、奥歯からである必要はない場合もある。撮影方向と合成方向は、必ずしも逆でなくても良く、合成時マークが所定の位置に表示された画像から左右へ部分合成し、最終的にマークが所定の位置に表示された画像に基づいて全体合成が行われれば良い場合もある。 合成を開始するマークの所定の位置とは、例えば、マークが撮影画像の中心に来た場合が例示されるが、これに限らず、部分合成と全体合成において、合成が容易にな部位であれば良い。
What is necessary is just to form with the color (green, blue, etc.) and shape which are easy to recognize on a picked-up image, and a material and a color are selected suitably. Moreover, when obtaining a three-dimensional image, you may use the thing provided with the characteristic three-dimensionality. For example, the mark may be displayed on the surface of the tooth, and the position of the mark is clearly displayed on the captured image. In the case where an irradiating means is provided, or an irradiating means having a corresponding relationship between the illumination distance and the area of the irradiated light, such as a spotlight, may be arranged so as to be able to irradiate the teeth from the intraoral camera.
The mark only needs to be synthesized from an image in which the mark is photographed at a predetermined position, and the photographing direction may not be from the back teeth. The shooting direction and the compositing direction do not necessarily have to be reversed. Based on the image in which the mark at the time of compositing is partially composited left and right from the image displayed at the predetermined position, and finally the mark is displayed at the predetermined position. In some cases, total synthesis may be performed. The predetermined position of the mark for starting the synthesis is exemplified by, for example, the case where the mark comes to the center of the photographed image, but is not limited thereto, and may be a part that can be easily synthesized in partial synthesis and overall synthesis. It ’s fine.

マークは、例えば、歯の裏側側面等、歯列の右、中央、左の3つの側面について部分合成する場合は、右側面と中央側面の中間の歯、及び中央側面と右側面の歯の2つ必要となる場合もあり、複数のマークが付されても良い場合もある。本発明の、歯列の側面とは、表側だけでなく、裏側、咬合面を含む場合もある。連写は、毎秒30枚以下を自動的に撮影することを示す。
場所を変えて撮影された画像の合成は、公知のパノラマ合成手法であり、合成する際の手法は、既存の手法を選択的に用いればよく、単純合成法、単純列挙法、ブロックマッチング法、及びLucas-Kanade法等のオプティカルフロー推定法等の自動又は手動の合成方法が利用可能であるが、事前にアフィン変換等の画像調整手段で、画像間の共通部分に基づいて、傾き、倍率等を調整することが好ましい。
本発明における特徴部位とは、部分歯列パノラマ画像を結合する際の結合位置を示す線状、点状、図形状、又は立体状のものであって、例えば、2つの側面パノラマ画像を合成する場合は、中央の前歯と前歯の境界線が示されるが、これに限らず、前歯一つ、特徴がある歯や歯肉の先端等の部位も含まれる。
For example, in the case where the mark is partially combined with respect to the right, center, and left side surfaces of the dentition, such as the back side surface of the teeth, the middle tooth between the right side surface and the central side surface, and the center side surface and right side tooth 2 May be necessary, and a plurality of marks may be added. The side surface of the dentition of the present invention may include not only the front side but also the back side and the occlusal surface. Continuous shooting indicates that 30 images or less are automatically captured every second.
The synthesis of images shot at different locations is a known panoramic synthesis method, and the existing method can be selectively used as a synthesis method. Simple synthesis method, simple enumeration method, block matching method, And automatic or manual synthesis methods such as optical flow estimation methods such as Lucas-Kanade method can be used, but in advance image adjustment means such as affine transformation, etc., based on the common part between images, tilt, magnification etc. Is preferably adjusted.
The characteristic part in the present invention is a linear, dot-like, figure-like, or three-dimensional shape indicating a joining position when joining partial dentition panoramic images. For example, two side panoramic images are synthesized. In this case, the boundary line between the central front tooth and the front tooth is shown, but the present invention is not limited to this.

口腔内とは、歯、歯列、歯肉、歯槽骨、口唇、硬口蓋、軟口蓋、口蓋垂等の領域が例示される。
画像化とは、コンピュータのモニター(ディスプレイ)装置、携帯電話表示部へ出力表示可能な画像データに変換することの他、用紙に印字・印刷された状態等の2次元的又は3次元的な表示がされた状態を示す。
本発明は、反射鏡を利用するため比較的照射光の光路が長く、指向角に基づく広がりを具えたLED等の照準光源を用いることで、撮影位置と撮影範囲を明確にすることができる。
Examples of the oral cavity include regions such as teeth, dentition, gingiva, alveolar bone, lips, hard palate, soft palate, and uvula.
Imaging means conversion to image data that can be output and displayed on a computer monitor (display) device or mobile phone display unit, as well as two-dimensional or three-dimensional display such as a printed or printed state on paper. Indicates a state where
Since the present invention uses a reflecting mirror, the optical path of the irradiation light is relatively long, and an aiming light source such as an LED having a spread based on the directivity angle can be used to clarify the photographing position and the photographing range.

更に、本発明は、縦横に動く口腔内カメラの姿勢をジャイロセンサによって本体の角度情報を測定し、この本体の角度から鏡の角度を導き出し、どのような状態にあるかを把握する。撮影状態から画像の姿勢を調整することで、縦横に移動するカメラの状態にかかわらず、常に見やすい状態の画像が表示されることを実現した。
本発明では、角速度センサ(ジャイロセンサ)、加速度センサ等の位置センサを用いる。具体的には、角速度を出力するレートジャイロ、角度を出力するレート積分ジャイロ、姿勢ジャイロ、MEMS(micro electro mechanical systems)タイプその他機械式、光学式等の角速度センサ、ピエゾ抵抗タイプ、静電容量タイプ、熱検知タイプのMEMSセンサ等の加速度センサが例示される。
本発明における照準光の色は、照明光の色と識別できる色であれば良く、照明光が白色であれば、照準光は赤色、緑色等が例示される。又、照準光の照射のタイミングは、使用者が撮影を開始する直前のタイミングが好ましいが、撮影中、短時間の照射であってもよい場合もある。
Further, according to the present invention, the angle information of the main body is measured by the gyro sensor for the posture of the intraoral camera that moves vertically and horizontally, the angle of the mirror is derived from the angle of the main body, and the state of the state is grasped. By adjusting the posture of the image from the shooting state, it is possible to display an image that is always easy to see regardless of the state of the camera moving vertically and horizontally.
In the present invention, a position sensor such as an angular velocity sensor (gyro sensor) or an acceleration sensor is used. Specifically, rate gyro that outputs angular velocity, rate integration gyro that outputs angle, attitude gyro, MEMS (micro electro mechanical systems) type, other mechanical, optical angular velocity sensors, piezoresistive type, capacitance type An acceleration sensor such as a heat detection type MEMS sensor is exemplified.
The color of the aiming light in the present invention may be any color that can be distinguished from the color of the illumination light. If the illumination light is white, examples of the aiming light include red and green. Moreover, the timing of irradiation of the aiming light is preferably the timing immediately before the user starts shooting, but there may be a case where irradiation is performed for a short time during shooting.

更に本発明は、簡易的に口腔内歯列側面におけるパノラマ実画像が形成できることから、撮影されたパノラマX線画像を取り込み、重ね合わせたり、例えば歯ごとのX線画像をパノラマ実画像と併設したり、重ね合わせて表示することで、歯科従事者、患者にわかりやすい臨床データを形成することができる。
この実画像と、X線画像の重ね合わせ、併置等を表示手段上でおこなうことで、患者の治療に対するより一層の理解を実現することも可能となる。
Furthermore, since the present invention can easily form a panoramic real image on the side surface of the intraoral dentition, the captured panoramic X-ray images can be captured and superimposed, for example, an X-ray image for each tooth can be combined with the panoramic real image. Or by superimposing and displaying, it is possible to form clinical data that is easy to understand for dental workers and patients.
By superimposing and juxtaposing the actual image and the X-ray image on the display means, it becomes possible to realize further understanding of the treatment of the patient.

本発明は、一部又は全部の歯列について、実画像による明瞭なパノラマ的表示を手持ち状態で撮影することができる口腔内カメラを用いて簡易に可能とし、更に場合によっては、X線画像を、重ねたり、併記したりして表示することができることから、当該表示を用いて患者に対し、わかりやすい診療説明を行うことができる。   The present invention enables a simple panoramic display of an actual image of a part or all of the dentition using an intraoral camera that can be photographed in a handheld state, and in some cases, an X-ray image can be obtained. Since it can be displayed by being overlapped or written together, it is possible to give an easy-to-understand medical explanation to the patient using the display.

図1は本発明の一実施例を示す図である。FIG. 1 is a diagram showing an embodiment of the present invention. 図2は、実施例を説明する為の図である。FIG. 2 is a diagram for explaining the embodiment. 図3は、実施例を説明する為の図である。FIG. 3 is a diagram for explaining the embodiment. 図4は、実施例を説明する為の図である。FIG. 4 is a diagram for explaining the embodiment. 図5は、本発明の他の実施例を示す図である。FIG. 5 is a diagram showing another embodiment of the present invention. 図6は、実施例を説明する為の図である。FIG. 6 is a diagram for explaining the embodiment. 図7は、実施例を説明する為の図である。FIG. 7 is a diagram for explaining the embodiment. 図8は、実施例を説明する為の図である。FIG. 8 is a diagram for explaining the embodiment. 図9は本発明の一実施例を示す図である。FIG. 9 is a diagram showing an embodiment of the present invention. 図10は、実施例を説明する為の図である。FIG. 10 is a diagram for explaining the embodiment. 図11は、実施例を説明する為の図である。FIG. 11 is a diagram for explaining the embodiment. 図12は、実施例を説明する為の図である。FIG. 12 is a diagram for explaining the embodiment. 図13は、本発明の他の実施例を示す図である。FIG. 13 is a diagram showing another embodiment of the present invention.

本発明は、歯列を連写撮影して、パノラマ合成による部分パノラマ画像と、これら部分的なパノラマ画像を合成して全体のパノラマ歯列を形成する手法であって、好ましくは合成部にマークを配置する構成により、手持ちカメラによる歯列パノラマ画像を容易に形成することを可能とする。
歯列の側面方向を撮影してパノラマ歯列画像を形成する際、カメラが反射鏡を用いる場合は、例えば、頬肉と歯側面に挟まれた状態で、奥歯から前歯方向へ撮影していくことが好ましい。所定の位置で、向きを変えて、反対の奥歯から前歯方向へ撮影していく。
撮影は、カメラのシャッターボタンを押すと、所定の間隔で静止画を形成する連写撮影が例示されるが、静止画を毎秒30枚程度撮影するデジタル動画を形成する手法で、連続撮影された静止画を形成しても良いが、毎秒20枚以下で撮影されることが好ましい場合もある。
連写は、少なくとも画像間に共通部位がある静止画画像が形成されればよいことから、より低スピードで、場所をずらしながらシャッターを自動又は手動で切って連写画像を形成しても良い場合もある。
手持ちのカメラによる奥歯撮影の場合、撮影距離を確保する為、カメラを用いて頬肉を押し広げる操作を行いながら撮影する場合が多いが、その場合、頬肉を押し広げる分カメラは手ぶれ等の揺動が少なく、安定した状態に近いと言い得るが、前歯に移行する際、このような押し広げる操作から解放され、カメラが手ぶれ等で急激に揺動する場合があるが、本発明では、歯肉と歯、歯と歯の境界の検出を行うことで、基準部位を形成し、この基準に併せるようにして、揺動画像の補整を行い、結合する手法取り得る場合もある。
The present invention is a technique for continuously taking a dentition and synthesizing a partial panoramic image by panoramic synthesis and combining these partial panoramic images to form an entire panoramic dentition, and preferably marks the synthesizing unit. It is possible to easily form a dentition panoramic image by a hand-held camera.
When forming a panoramic dentition image by photographing the lateral direction of the dentition, if the camera uses a reflector, for example, shoot from the back teeth toward the anterior teeth with the cheek meat sandwiched between the tooth sides It is preferable. At a predetermined position, change the direction and take a picture from the opposite back tooth toward the front tooth.
The shooting is exemplified by continuous shooting in which still images are formed at predetermined intervals when the shutter button of the camera is pressed. However, continuous shooting was performed by a method of forming a digital moving image for shooting about 30 still images per second. A still image may be formed, but it may be preferable to photograph at 20 or less per second.
In continuous shooting, it is only necessary to form a still image having at least a common part between images. Therefore, the continuous shooting image may be formed at a lower speed by automatically or manually turning the shutter while shifting the location. In some cases.
In the case of back teeth photography with a hand-held camera, in order to secure the shooting distance, it is often taken while performing an operation to spread the cheek meat using the camera, but in that case, the camera will be shaken etc. Although it can be said that there is little rocking and it is close to a stable state, when moving to the front teeth, it is released from such pushing and spreading operation, and the camera may rock suddenly due to camera shake etc. By detecting the gingiva-to-tooth and tooth-to-teeth boundaries, a reference region may be formed, and a method of correcting and combining the swinging images so as to be combined with the reference may be taken.

次に本発明の実施例を図面を参照して詳細に説明する。
更に図1から図5に歯を噛み合わせた状態でパノラマ状の歯列を明瞭に合成を行って形成するパノラマ歯列画像形成手法の一例を示す。
図1でしめす様にカメラにより、左奥から撮影した画像を中央付近まで撮影をし、口腔内カメラの向きを変えて、右奥から中央付近くらいまで連写撮影する手法がとられるが、この場合、一度カメラの方向を変える為に撮影状態が中断することから、左右の歯列画像の合成が正確にできず、ずれてしまうことが多い。
又、手動によるカメラの移動撮影は、例えば、奥歯の撮影の場合、口腔内内面の頬肉と歯側面間に配置され、この頬肉を押しのける様な状態で口腔内カメラを移動させたり、歯側面との接触状態が形成される等するため、頬肉、歯側面が口腔内カメラの反射鏡や、カメラの撮影部位を支える状態となるが、前歯方向へ口腔内カメラを移動させると、頬肉による圧迫等から解放されて、手持ち状態となり撮影するカメラの位置が不安定となり、画像が乱れやすくなる。特にカメラと被写体である歯側面との距離が変動したり撮影向きにぶれが出たりして、被写体である歯の大きさが変動したり画像に歪みが生じる場合がある。
Next, embodiments of the present invention will be described in detail with reference to the drawings.
Further, FIGS. 1 to 5 show an example of a panoramic tooth row image forming method in which a panoramic tooth row is clearly synthesized and formed in a state where teeth are engaged.
As shown in Fig. 1, the camera takes a picture taken from the left back to the center, changes the orientation of the intraoral camera, and takes a continuous shot from the right back to the center. In this case, since the photographing state is interrupted in order to change the direction of the camera once, the left and right dentition images cannot be accurately combined and often shift.
For example, in the case of back tooth photography, manual camera movement photography is arranged between the cheek meat on the inner surface of the oral cavity and the side surface of the tooth, and the intraoral camera is moved in such a state as to push the cheek meat away, Since the contact state with the side surface is formed, the cheek meat and the tooth side surface support the reflecting mirror of the intraoral camera and the imaging part of the intraoral camera, but if the intraoral camera is moved toward the front tooth, It is released from pressure by meat and the like, and it becomes a hand-held state, the position of the camera for photographing becomes unstable, and the image is easily disturbed. In particular, there may be a case where the distance between the camera and the tooth side surface that is the subject fluctuates or the photographing direction fluctuates, and the size of the tooth that is the subject fluctuates or the image is distorted.

図1で示した反射鏡を用いた口腔内カメラ101は、図9、図10で示す構成が例示され、モジュール状のCCDカメラ、C−MOSカメラの周辺に光源用LEDを複数配列した構成であって、反射鏡を介して、口腔内に光源用LEDによる照明を行うとともに、口腔内の歯列等の画像を連写的に得るものであり、奥歯から安定して撮影できるものであるが、これに限るものではなく、反射鏡を用いない直接撮影用のカメラであっても良い場合もある。
ここで用いる口腔内カメラ101は、平面状の反射鏡102(図9のA10K)を備えた反射鏡ユニット103(図9のA10)を、CCDカメラ、C−MOSカメラなどの撮像器と発光ダイオードを撮像器の周囲に4〜8個程度配置した照明器を組み合わせた撮影ユニット105(図9のA14)を先端に備えた本体104(図9のA11)の先端に交換可能として装着使用する構成をそなえたものが例示される。
撮影ユニット105は、静止画を例えば毎秒10枚から30枚の範囲で画像が得られる様に撮影する連写手法を用いて静止画デジタル画像を出力するものが例示される。
The intraoral camera 101 using the reflecting mirror shown in FIG. 1 is exemplified by the configuration shown in FIGS. 9 and 10, and has a configuration in which a plurality of light source LEDs are arranged around the modular CCD camera and C-MOS camera. And while illuminating the oral cavity with the LED for the light source through the reflecting mirror, the image of the dentition and the like in the oral cavity is obtained continuously and can be stably photographed from the back teeth. However, the present invention is not limited to this, and there may be a case where the camera for direct photographing does not use a reflecting mirror.
The intraoral camera 101 used here includes a reflecting mirror unit 103 (A10 in FIG. 9) having a planar reflecting mirror 102 (A10K in FIG. 9), an image pickup device such as a CCD camera and a C-MOS camera, and a light emitting diode. A configuration in which the photographing unit 105 (A14 in FIG. 9) combined with about 4 to 8 illuminators arranged around the imager is replaceably mounted on the front end of the main body 104 (A11 in FIG. 9). Is provided as an example.
The shooting unit 105 is exemplified by a unit that outputs a still image digital image by using a continuous shooting method for shooting a still image so that an image can be obtained in a range of 10 to 30 images per second.

連写撮影を始めるまでに、あらかじめ上下の歯を噛み合わせた状態の歯列100aの中央付近にマークMLを付しておく、マークMLは、着色されたシールの一時的付着、色を落とすことが可能な着色ペンによる記載、等、カメラ撮影により画像に鮮明に表示できるものが好ましい。マークMLを例えば歯列の中心付近に付す際の中心付近とは、左右の歯列を連写撮影した後、合成する際の基準となる場所を示すものであって、その他、撮影した画像の中央付近で、画像処理上特徴となる部位を検出し、その部位をマーク画像上に設定するものであってもよい。マークMLは、上歯と下歯にかかる様に配置することが好ましい。
この連写動作を、例えば口腔内カメラ101の反射鏡102を奥歯から前歯方向に向かって撮影する為に、106aの状態から106b、106cの様に歯面に沿って、好ましくは歯列面から同じ距離だけ離して、本体104を手で持ち、反射鏡102を動かして撮影する。
Before starting continuous shooting, a mark ML is attached in the vicinity of the center of the dentition 100a in which the upper and lower teeth are meshed in advance. The mark ML temporarily removes the colored sticker and removes the color. It is preferable that the image can be clearly displayed on the image by photographing with a camera such as a description with a coloring pen that can be used. The vicinity of the center when the mark ML is attached to the vicinity of the center of the dentition, for example, indicates a reference location when the left and right dentitions are continuously shot and then combined. A part that is characteristic in image processing may be detected near the center, and the part may be set on the mark image. The mark ML is preferably arranged so as to cover the upper teeth and the lower teeth.
For example, in order to photograph the reflecting mirror 102 of the intraoral camera 101 from the back teeth toward the front teeth, the continuous shooting operation is performed from the state of 106a along the tooth surface as in 106b and 106c, preferably from the dentition surface. The body 104 is held by hand with the same distance apart, and the reflecting mirror 102 is moved to take a picture.

IGは、補正用表示部であり、歯表面に剥離可能な状態で付着される貼付部材に、画像補正用の例えば井桁、四角、三角、碁盤の目、その他の図形であって、画像の歪み、カメラと歯側面間の距離に基づく、画像の大小等の補正が可能な表示であればよく、又補正用表示部IGの色も緑色、その他、画像処理において識別可能な色彩を付したものであれば緑色に限るものではない。
この貼付部材は、例えば、図1、図3で示す様に歯の中央であって、マークMLを付した歯の表面に貼り付けても良く、又貼り付ける歯は、一つの歯に限らず、複数の歯に貼付部材を貼り付けて撮影してもよく、その他の歯であって、口腔内で、その他の支えがなく、手動で歯を撮影する部位へ付してもよい場合もある。
補正用表示部IGを歯表面に付する手段は、マークMLと同様の手法を用いれば良く、表示が唾液等で、溶けたり、滲んだりしないものを用いることが例示され 左歯列一部パノラマ画像と右歯列一部パノラマ画像を、両者に共通して撮影された補正用表示部IGに基づいて、両画像歪みや大きさを補正して、結合する際は好適である。
IG is a correction display unit, which is an image correction, for example, a girder, a square, a triangle, a grid, or other figures, on an adhesive member that is attached to the tooth surface in a peelable state, and is an image distortion. Any display that can correct the size of the image based on the distance between the camera and the tooth side surface is acceptable, and the color of the correction display portion IG is also green, and other colors that can be identified in image processing If so, it is not limited to green.
For example, as shown in FIG. 1 and FIG. 3, this sticking member may be attached to the surface of the tooth with the mark ML, and the tooth to be attached is not limited to one tooth. In addition, it may be photographed by pasting a sticking member on a plurality of teeth, or may be attached to a part where other teeth are provided in the oral cavity without any other support and the teeth are manually photographed. .
The means for attaching the correction display part IG to the tooth surface may be the same technique as that of the mark ML. For example, the display is saliva or the like and does not melt or bleed. It is preferable when the image and the right dentition partial panorama image are combined by correcting both image distortion and size based on the correction display portion IG photographed in common for both.

尚、左歯列と中央歯列及び右歯列と3つに分割した一部パノラマ画像を結合する際は、それぞれの一部パノラマ画像列の共通な歯に補正用表示部IGを設けても良い。
撮影された個々の静止画における補正も、例えば、連写して得られる画像内で、基準となる補正用表示部IGに基づくか、又は、撮影された画像群の中で補正用表示部IGが撮影されているものの一つをブロックマッチング法やテンプレートマッチング法等で検出してこれを基準とし、他の画像で撮影された補正用表示部IGを検出した後、基準画像と比較して、歪み、傾き、大きさの差等を検出し、拡大、縮小、回転、移動調整をするアフィン変換を用いた補正を行っても良い。手動による揺動が避けられない撮影の際、補正用表示部IGを歯に付することによって、安定したパノラマ歯列画像形成の為の合成が可能となる。アフィン変換は、好ましい一例であって、その他、同様の画像操作が可能な調整手法を用いてもよい場合もある。
When combining partial panoramic images divided into three parts, that is, the left dentition, the central dentition, and the right dentition, the correction display unit IG may be provided on the common tooth of each partial panoramic image sequence. good.
The correction in each captured still image is also based on, for example, the reference correction display unit IG in an image obtained by continuous shooting, or the correction display unit IG is included in the captured image group. One of the captured images is detected by the block matching method or the template matching method, etc., and this is used as a reference. After the correction display portion IG captured by another image is detected, the distortion is compared with the reference image. Further, correction using affine transformation for detecting enlargement, reduction, rotation, and movement adjustment may be performed by detecting a difference in inclination and size. At the time of photographing in which manual swinging is unavoidable, the correction display portion IG is attached to the teeth, so that composition for stable panoramic tooth row image formation is possible. The affine transformation is a preferable example, and other adjustment methods capable of performing similar image operations may be used.

このような補正用表示部IGを用いた画像の補正は、例えば、Zhangの方法(IEEE.Transactions on pattern Analysis and Machine Intelligence,22(11);1330-1334,2000)等のカメラ画像のキャリブレーションで用いられる手法を用いても良い。
又、補正用表示部IGは、撮影状態、アフィン変換等の処理により必須でない場合もある。
図1(b)は実際、奥歯から連写した際の一回の撮影範囲を略図的にしめしたものである。
106a→106b→106c→106d→106e→106f→106gの様に口腔内カメラ101の反射鏡部分を経時的に移動させながら、静止画による連写画像を得る。 口腔内カメラ101は先端に所定の角度をもった反射鏡102を備えた構成よりなる為、歯列面を図中、左奥歯から撮影していくとすると、中央付近で、本体104の向きを変えて、図中、右奥歯から順に撮影することから、図1で示す106eから106gの面を撮影した後、口腔内カメラ101を反転させて、右奥歯からの撮影が開始する。
連写のスピードは、本体104を手動で動かすため、手ぶれ等の揺動の影響を考慮して、毎秒20枚から30枚程度として多めに撮影し、手ぶれ、ピンぼけした画像を削除する余裕をもった連写撮影することが好ましい。
Such image correction using the correction display unit IG is performed by, for example, camera image calibration such as Zhang's method (IEEE. Transactions on pattern Analysis and Machine Intelligence, 22 (11); 1330-1334, 2000). You may use the method used by.
Further, the correction display unit IG may not be essential due to processing such as a photographing state and affine transformation.
FIG. 1 (b) is a schematic diagram showing a single photographing range when actually taking continuous shots from the back teeth.
A continuous-shot image is obtained as a still image while moving the reflector portion of the intraoral camera 101 over time as in 106a → 106b → 106c → 106d → 106e → 106f → 106g. Since the intraoral camera 101 is configured to include a reflecting mirror 102 having a predetermined angle at the tip, assuming that the dentition surface is photographed from the left back tooth in the figure, the orientation of the main body 104 is near the center. In other words, since the images are taken in order from the right back tooth in the figure, after the surfaces 106e to 106g shown in FIG. 1 are imaged, the intraoral camera 101 is reversed and the image taking from the right back tooth is started.
Since the main body 104 is moved manually, the continuous shooting speed is set to 20 to 30 shots per second in consideration of the effects of shaking such as camera shake, and there is room to remove blurring and out-of-focus images. It is preferable to perform continuous shooting.

この連写は、マークMLが撮影画面又は反射鏡の中央に来る迄撮影することが好ましいが、それをある程度経過した部位まで行い、その後、撮影された画像を取捨選択してもよい場合もある。
手動によるカメラ操作の為、合成の前に、各画像の共通部位に基づいてアフィン変換を行い、画像の状態を整えた方が好ましい場合がある。
例えば、合成の最初の中心となる画像を基準に比較画像に対してブロックマッチング法で共通する複数の点を検出する。この共通する複数の点に基づいて次の画像をアフィン変換する。例えば、共通部分における基準画像の画素座標(xa、ya)、に対応する次の画像の画素座標(xb、yb)を複数選んで、次式に代入して係数値a〜fの値を得る。
係数値を次式に代入した状態で、次の画像をアフィン変換していき画像を整理した後、又は画像を整えながら、パノラマ合成を行っても良い。
This continuous shooting is preferably performed until the mark ML reaches the center of the imaging screen or the reflector. However, there are cases in which the imaging is performed until a certain amount of time has passed, and then the captured image is selected. .
For manual camera operation, it may be preferable to perform affine transformation based on a common part of each image and to adjust the state of the image before synthesis.
For example, a plurality of points that are common to the comparison image by the block matching method are detected based on the image that is the first center of synthesis. The next image is affine transformed based on the plurality of common points. For example, a plurality of pixel coordinates (xb, yb) of the next image corresponding to the pixel coordinates (xa, ya) of the reference image in the common part are selected and substituted into the following equations to obtain the coefficient values a to f. .
With the coefficient value substituted into the following equation, panorama synthesis may be performed after the next image is affine transformed to organize the image or while the image is being prepared.

Figure 2012157692
このように歯列100aの図中左奥から正面付近まで、連写して得た画像の一部を図2に示し、図1と併用して当該実施例に基づく口腔内カメラの撮影動作を説明する。
図2(a)から(e)は、図1(b)で示す歯列の撮影画像データにおける中心付近107cから107e付近の連写撮影をした際の撮影画像データ列の一例である。
尚、口腔内カメラは、反射鏡102を利用して歯列画像を得ていることから、撮影画像は、左右が反転するが、わかりやすくする為に、反転していない状態で図2及び図4に示した。
Figure 2012157692
A part of the image obtained by continuous shooting from the left back of the dentition 100a to the vicinity of the front is shown in FIG. 2, and the photographing operation of the intraoral camera based on the embodiment is described in combination with FIG. To do.
FIGS. 2A to 2E are examples of photographed image data sequences when continuous shooting is performed from the vicinity of the center 107c to the vicinity of 107e in the photographed image data of the dentition shown in FIG. 1B.
In addition, since the intraoral camera obtains a dentition image using the reflecting mirror 102, the captured image is reversed left and right. This is shown in FIG.

図2の(a)は、図1(b)の106c付近を撮影し、図2(b)は、106d付近、図2(c)は、106e付近、図2(d)は、106f付近、そして図2(e)は、106g付近を撮影した画像である。尚、手動で撮影するため、撮影画像が常に同じ状態で撮影することができない場合が多い。従って、画像が斜めになっている場合などは、他の歯の状態と例えば重なり合う部分で、アフィン変換を用いて整える補正をすることが好ましく、図2は、補正後の図を示している。
補正の際、一つの基準となる部位として、マークMLの他、反射鏡102が撮影された反射鏡面にあらかじめ設定される垂直中心線CL、水平中央線HLを用いてもよい。
2 (a) is taken near 106c in FIG. 1 (b), FIG. 2 (b) is around 106d, FIG. 2 (c) is around 106e, FIG. 2 (d) is around 106f, FIG. 2E shows an image obtained by photographing the vicinity of 106 g. In addition, since shooting is performed manually, there are many cases where the shot images cannot always be shot in the same state. Therefore, when the image is slanted or the like, it is preferable to perform correction using affine transformation in, for example, a portion overlapping with another tooth state, and FIG. 2 shows a diagram after correction.
At the time of correction, a vertical center line CL and a horizontal center line HL that are preset on the reflecting mirror surface on which the reflecting mirror 102 is photographed may be used in addition to the mark ML.

垂直中心線CL、水平中央線HLは、必ずしも画像に表示されるものではなく、また反射鏡の縁部に垂直中心線、水平中央線の始点と終点に該当する部位にそれぞれ突起等の目印を付けておく程度であってもよく、この目印に基づいて仮想的に表示される場合もある。 また、撮影用CCDカメラのレンズによる歪みをソフトウェア補正する処理をあわせて行っても良い。
RMは、鏡の輪郭であり、実際の撮影された画像は、輪郭RM内で円形状の画像となるが、範囲説明をしやすくするために、四角の画像で表示した。
撮影される画像が手持ちであるため、歯とカメラとの間の距離が異なる場合があるが、この場合は、マークMLと垂直中心線CLとが略一致した画像を基準として、その他の撮影画像の大きさを補正しても良い。
尚、反射鏡102の先端部を歯の面に軽く接触させながら、連写撮影を行うことで、得られる画像を安定させることができる場合がある。
The vertical center line CL and the horizontal center line HL are not necessarily displayed in the image, and marks such as protrusions are respectively provided at the vertical center line at the edge of the reflector and the portions corresponding to the start point and end point of the horizontal center line. It may be the extent to be attached, and may be displayed virtually based on this mark. Further, a process for correcting the distortion caused by the lens of the photographing CCD camera may be performed together.
RM is the contour of the mirror, and the actual captured image is a circular image within the contour RM, but is displayed as a square image for easy explanation of the range.
Since the photographed image is handheld, the distance between the teeth and the camera may be different. In this case, the other photographed images are based on an image in which the mark ML and the vertical center line CL substantially match. You may correct | amend the magnitude | size of.
Note that there may be a case where the obtained image can be stabilized by performing continuous shooting while making the tip of the reflecting mirror 102 lightly contact the tooth surface.

図1で示すように、正面から左側の奥歯に本体104の反射鏡102を配置して、その後正面方向へ移動させて連写し、例えば図2(a)〜(e)の画像を取得する。
この場合、反射鏡102の垂直中心線(CL)にマークMLが一致したタイミングで撮影取得した画像図2(c)までを、合成用画像として採用する。図2(d)以降を用いると合成時、ずれの原因となる場合があるので、合成には使用しない方が好ましい。
画像10(c)を基準の画像とすべくマークMLを基準に、必要に応じ、画像の傾きなどを補正する、すなわち、マークMLの長辺及び短辺を基準に画像を補正して基準画像としてもよい。
As shown in FIG. 1, the reflecting mirror 102 of the main body 104 is arranged on the back teeth on the left side from the front, and then moved in the front direction to continuously shoot, for example, to acquire the images of FIGS.
In this case, the image obtained up to the image FIG. 2C taken at the timing when the mark ML coincides with the vertical center line (CL) of the reflecting mirror 102 is employed as the composition image. Since the use of FIG. 2 (d) and later may cause a shift during synthesis, it is preferable not to use it for synthesis.
In order to make the image 10 (c) the reference image, the mark ML is used as a reference, and if necessary, the inclination of the image is corrected, that is, the image is corrected using the long side and the short side of the mark ML as a reference image. It is good.

一合成操作例を以下に説明する。
合成に採用される画像を図2(f)以降に示した。図2(f)が図2(c)に示す画像に相当し、図2(g)は、図2(b)に相当し、図2(e)は、図2(a)に相当する。 図2(f)でしめす画像106eと図2(g)で示す画像106dとを、画像106eを基準として画像106dの画像の形状が一致又は近似する共通部分に基づいて重ね合わせて合成する。
図2(f)を基準として、重ね合わせた場合、図2(g)の左方面にはみ出た部分を201aで示す。201aは、奥歯方向の画像となる。
次に、図2(g)で示した合成画像と、図2(a)で示した画像106cとを、図2(g)の合成画像を基準として、形状等が共通する部分で目視により、又は画像処理手法により重ね合わせる。重ね合わせた画像であって、図2(g)から左方向へはみ出した部分を201bで示した。
201bは、奥歯方向の画像となる。
この動作を次に隣接する画像間で行い、更に次の隣接する画像と共通部分で重ねあわせることで、マークが所定の位置にある画像から奥歯方向へパノラマ画像的に合成して左側歯列を形成する。
An example of one synthesis operation will be described below.
Images used for the synthesis are shown in FIG. 2 (f) corresponds to the image shown in FIG. 2 (c), FIG. 2 (g) corresponds to FIG. 2 (b), and FIG. 2 (e) corresponds to FIG. 2 (a). The image 106e shown in FIG. 2 (f) and the image 106d shown in FIG. 2 (g) are superimposed and synthesized based on a common portion where the shape of the image 106d matches or approximates with the image 106e as a reference.
A portion protruding from the left side of FIG. 2 (g) when overlapped with reference to FIG. 2 (f) is indicated by 201a. 201a is an image in the back tooth direction.
Next, the synthesized image shown in FIG. 2 (g) and the image 106c shown in FIG. 2 (a) are visually observed at a portion having a common shape or the like with reference to the synthesized image of FIG. 2 (g). Alternatively, they are overlapped by an image processing method. A portion of the superimposed image that protrudes leftward from FIG. 2G is indicated by 201b.
201b is an image in the back tooth direction.
This operation is performed between the next adjacent images, and further overlapped with the next adjacent image at the common portion, so that the left dentition is synthesized from the image where the mark is in a predetermined position in a panoramic image in the direction of the back teeth. Form.

その他、図2(f)で示す中心画像にはみ出した部分201a、201b・・・・をつなぎ合わせて左半分のパノラマ画像を形成する手法が例示できる。
また、はみ出した部分の検出は、例えば、図2(c)の100eと図2(b)の100dとの間ではみ出した部分を抽出し更に、図2(b)の100dと図2(a)の100cとの間ではみ出した部分を抽出し、更に次の隣接する画像間ではみ出した部分を集めて、最後に基準画像図を10(f)として、このはみ出した部分をつなぎ合わせて、パノラマ画像を形成してもよい。はみ出した部分の画像は、中央よりの画像を基準として、その上から隣接する画像を重ね合わせることが好ましい場合もある。
尚、完全に重ね合わせて一致または近似しない場合であっても、マーカ部分が共通して存在する場合は、その部分を重ね合わせて同様の合成をおこなってもよい。尚、手動であるため、得られる静止画像ごとに遠近感や、傾きが相違する場合がある。この場合は、アフィン変換等を用いて自動的に補正したり、任意に拡大縮小して調整するものが好ましい。
In addition, a method of joining the portions 201a, 201b,... That protrude from the center image shown in FIG.
In addition, for example, the protruding portion is detected by extracting the protruding portion between 100e in FIG. 2C and 100d in FIG. 2B, and further detecting 100d in FIG. 2B and FIG. ) Of 100), and the parts that protrude between the next adjacent images are collected, and finally the reference image figure is 10 (f), and these protruding parts are joined together. A panoramic image may be formed. In some cases, it is preferable to superimpose adjacent images from the center of the image of the protruding portion with the image from the center as a reference.
Note that, even when they are not completely overlapped and do not match or approximate, if a marker portion exists in common, the same composition may be performed by overlapping the portions. In addition, since it is manual, a perspective and inclination may differ for every still image obtained. In this case, it is preferable that the correction is automatically performed using affine transformation or the like, or is arbitrarily enlarged and reduced.

合成した状態を図5(a)に示す。図5(a)で示すように左半分のパノラマ歯列画像を形成することができる。
次に図3(a)で示すように上下かみ合わせた状態の歯列100aの右奥に本体103dの反射鏡102を配置した状態で、歯列100a表面をなるべく一定の距離を保ちながら、301a→301b→301cと中心となる前歯へ近づく方向で静止画による連写撮影を行う。
図3(b)に撮影される静止画像と歯列100aとの位置関係を略図的に示した。
使用者は、口腔内カメラ101を手で持ちながら、302a→302b→302c→302d→302e→302f→302g→302hの方向へ移動させて撮影し、連写的に静止画像を取得する。本実施例は、手持ち型であるため、撮影画像が左右、奥行き方向で傾いたり、ずれたりするが、アフィン変換、その他の輪郭抽出手段を利用して、連写して得られる隣接する画像間に存在する共通部分に基づいて回転、移動を行って画像の調整を行う工程を設けても良い。
The synthesized state is shown in FIG. As shown in FIG. 5A, a left half panoramic tooth image can be formed.
Next, as shown in FIG. 3A, in a state where the reflecting mirror 102 of the main body 103d is disposed at the right back of the tooth row 100a in a state of being vertically engaged, 301a → 301b → 301c and continuous shooting with still images are performed in the direction approaching the center front tooth.
FIG. 3B schematically shows the positional relationship between the still image captured and the dentition 100a.
While holding the intraoral camera 101 by hand, the user moves the camera in the direction of 302a → 302b → 302c → 302d → 302e → 302f → 302g → 302h, and obtains still images continuously. Since the present embodiment is hand-held, the photographed image is tilted or shifted in the left-right and depth directions. However, the adjacent images obtained by continuous shooting using affine transformation or other contour extraction means are used. You may provide the process of adjusting an image by rotating and moving based on the common part which exists.

図3(a)でしめす口腔内カメラ101は図1のものをそのまま使用しているため、同一の番号を付して説明を省略した。
図4(a)から(e)は、図3(b)の302aから302fの範囲で代表的な画像を示した。
図4と図2との間で共通する構成については、図2で示した符号と同一の符号を付した。
図4において、図4(a)は、図3(b)の302dの画像付近を示し、図4(b)は、図3(b)の302eの画像付近を示し、図4(c)は、図3(b)の302fの画像付近を示す。
図4(d)は、図3(b)の302gの画像付近を示し、図4(e)は、図3(b)の302hの画像付近を示す。
Since the intraoral camera 101 shown in FIG. 3 (a) is the same as that shown in FIG. 1, the same number is assigned and the description is omitted.
FIGS. 4A to 4E show typical images in the range from 302a to 302f in FIG. 3B.
4 and FIG. 2 are denoted by the same reference numerals as those shown in FIG.
4, FIG. 4A shows the vicinity of the image 302d in FIG. 3B, FIG. 4B shows the vicinity of the image 302e in FIG. 3B, and FIG. FIG. 3B shows the vicinity of the image 302f in FIG.
4D shows the vicinity of the image 302g in FIG. 3B, and FIG. 4E shows the vicinity of the image 302h in FIG. 3B.

尚、図4(d)及び(e)は、垂直中心線CLとマークMLが一致した後、さらに左方向へ反射鏡102を移動させた際の写真画像であり、これらの画像を採用すると左右方向から撮影された画像の重ね合わせの部分が多くなり画像のずれが生じることから、これを採用せず、図4(a)から(c)を採用する。
この中で、マークMLと垂直中心線CLが一致した画像(図4(c)の302f)を基準にしたものを図4(f)に示す。次に図4(b)で示す画像302eと302fの共通する部位を重ね合わせる。
画像302fを基準にして画像302eをその上から形状が一致又は近似する範囲で重ね合わせた状態ではみ出した部分が401aである。
次に、この重ね合わせた画像と図4(b)で示す画像401bを、重ね合わせた画像を基準にパターンマッチング法等を用いてその上から形状が一致又は略一致する部位で重ね合わせる。
4D and 4E are photographic images when the reflecting mirror 102 is further moved to the left after the vertical center line CL and the mark ML coincide with each other. 4A to 4C are employed instead of adopting this because an overlapping portion of images photographed from the direction increases and image shift occurs.
Among these, FIG. 4F shows an image based on an image (302f in FIG. 4C) in which the mark ML and the vertical center line CL coincide with each other. Next, the common parts of the images 302e and 302f shown in FIG.
401a is a portion that protrudes in a state where the image 302e is overlaid in a range in which the shape matches or approximates from the image 302f on the basis of the image 302f.
Next, the superposed image and the image 401b shown in FIG. 4B are superposed on a portion where the shapes match or substantially coincide with each other using a pattern matching method or the like on the basis of the superposed image.

重ね合わせた状態ではみ出した部分が401bである。このように隣接する画像を重ね合わせて向かって右側の歯列を形成する。その他の合成方法として、基準画像106eと画像401a及び401bを図5(b)で示すように合成するものであってもよい場合もある。
尚、前後の画像を重ね合わせた際、多少のずれがある場合は、重ね合わせた箇所のいずれか一方を削除しても良い場合もある。
以上の手順で、連写静止画を合成していき、左歯列の画像を合成した際の中心画像106eと右歯列の画像を合成した際の中心画像301cを重ねあわせ、一致、略一致させることで、図5(c)で示すパノラマ歯列303を形成する。歯列全体のパノラマ画像を図5(d)に示した。b101は、左側部分パノラマ歯列、b102は、右側部分パノラマ歯列である。
In the overlapped state, the protruding portion is 401b. In this way, the adjacent teeth are overlapped to form the right dentition. As another synthesis method, the reference image 106e and the images 401a and 401b may be synthesized as shown in FIG. 5B.
In addition, when there is a slight shift when the previous and subsequent images are superimposed, one of the superimposed portions may be deleted.
With the above procedure, continuous shot still images are synthesized, and the center image 106e obtained when the left dentition image is synthesized and the center image 301c obtained when the right dentition image is synthesized are overlapped to match or substantially match. By doing so, the panoramic tooth row 303 shown in FIG. 5C is formed. A panoramic image of the entire dentition is shown in FIG. b101 is a left partial panoramic dentition, and b102 is a right partial panoramic dentition.

中央の歯に設定した補正用表示部IG、マークMKは、画像から汎用のグラフィックソフトウェアを利用して消去する処理を行うことが好ましい。画像処理における消去、付加は、例えば、画素値の調整によるものであり、例えば、マークの消去の場合は、マーク周辺であって、隣接する画像上の歯の輝度値を検出し、この検出された輝度値に置き換える処理によって消去したり、予め設定された輝度値に変換しても良い。
重ね合わせは、例えば、中央の歯と歯の境界部分(KL)に基づいて、左右のパノラマ歯列を接続合成することが好ましい。尚、歯と歯の境界は、上顎、下顎で異なる場合に対応するために、上顎又は下顎の歯の境界部分を境界として用いて、合成してもよく、その際の合成は、上顎のみのパノラマ歯列と下顎のパノラマ歯列を、それぞれ合成して、最後に上顎と下顎を合成しても良い場合もある。境界部分検出は、下述する2次元フーリエ変換処理における輪郭抽出処理や、境界値を強調する色成分値を抽出する手法が例示され、境界値は、上顎又は下顎の歯と歯の境界、又は咬合時の咬合した状態での上顎と下顎の両者を通過する境界などが例示される。
The correction display portion IG and the mark MK set on the center tooth are preferably subjected to a process of erasing from the image using general-purpose graphic software. Erasing and adding in image processing are, for example, by adjusting pixel values. For example, in the case of erasing a mark, the brightness value of teeth on the adjacent image around the mark is detected and detected. It may be erased by a process of replacing with a brightness value or converted to a preset brightness value.
For superposition, for example, it is preferable to connect and synthesize the left and right panoramic tooth rows based on the central tooth-to-tooth boundary portion (KL). In addition, in order to cope with the case where the tooth-to-tooth boundary is different between the upper jaw and the lower jaw, the tooth boundary portion of the upper jaw or the lower jaw may be used as the boundary, and synthesis may be performed only for the upper jaw. In some cases, the panoramic dentition and the panoramic dentition of the lower jaw may be combined, and finally the upper jaw and the lower jaw may be combined. Examples of the boundary part detection include a contour extraction process in the two-dimensional Fourier transform process described below and a method of extracting a color component value that emphasizes the boundary value, and the boundary value is a boundary between teeth of the upper jaw or a lower jaw, or The boundary etc. which pass both the upper jaw and the lower jaw in the biting state at the time of occlusion are illustrated.

図5(d)は、右側部分パノラマ歯列b101と左側部分パノラマ歯列b102からそれぞれ境界KLを抽出し、この境界KLで連結結合した場合の図を示したものであるが、その他、マーク等に基づいて重ね合わせたり、部分パノラマ歯列の片方の画像に置き換えても良い場合もある。 また、例えばあらかじめ図5で示す中心画像106eと中心画像301cは必ずしも重ね合わせる必要はなく、どちらかの中心画像CGGを採用すればよい場合もある。
その場合、例えば中心画像106eを採用した場合、中心画像106eに基づいて画像401aから奥歯までの画像に対しアフィン変換を行ったり、401a、401bの大きさ等を多少修正する場合もあり、中心画像301cを採用した場合は、201a、201bの大きさを修正する場合もある。このように、各画像間のはみ出した部分をつなぎあわせる手法の他、はみ出した部分を抽出せず、そのまま共通部分で重ね合わせていく場合は、中心画像同士を大きさを調整しながら重ね合わせをする場合もある。
このように、中心画像から、左右の歯列を合成して、左側合成歯列と右側合成歯列とし、これらをそれぞれの中心画像に基づいて合成することで、ずれを抑えたパノラマ歯列を形成可能とする。
FIG. 5D shows a diagram in which the boundary KL is extracted from each of the right partial panoramic tooth row b101 and the left partial panoramic tooth row b102, and is connected and coupled at the boundary KL. In some cases, the images may be superposed on each other or may be replaced with one image of the partial panoramic dentition. Further, for example, the center image 106e and the center image 301c shown in FIG. 5 are not necessarily overlapped in advance, and one of the center images CGG may be adopted.
In this case, for example, when the center image 106e is adopted, affine transformation may be performed on the image from the image 401a to the back teeth based on the center image 106e, or the sizes of the 401a and 401b may be slightly modified. When 301c is adopted, the sizes of 201a and 201b may be corrected. In this way, in addition to the method of joining the protruding parts between the images, if the overlapping parts are not extracted and are overlapped as they are in the common part, they are superimposed while adjusting the size of the central images. There is also a case.
In this way, the left and right dentitions are synthesized from the central image to form the left and right synthetic dentitions, and these are synthesized based on the respective central images, so that a panoramic dentition with reduced deviation can be obtained. It can be formed.

中心画像に基づく合成は、例えば、中心の歯と歯の接触ライン(エッジ)を特徴部位として左側合成歯列と右側合成歯列を結合することが好ましい場合もある。尚、マークは必ずしも中心の歯に付される必要が無く、撮影の際、カメラの方向を変えるタイミングで撮影される歯の部位等である場合もあり、その他の目的等でマークの位置は適宜選択される。 特徴部位もマークと同様、画像合成時に位置あわせ可能な部位であれば、特に限定されない。
また、あらかじめ被写体である歯列にマークを付すか、画像からマークに相当する部位を設定することで、より正確な合成が可能となる。
尚、以上の動作説明は、グラフィックソフトウェアを用いて、コンピュータモニター上に表示された複数の画像を、目視とマウス操作によるコピーペースト、ドラッグアンドドロップ、画像の縮小拡大、傾き補正等の操作に基づいて行った場合、公知の自動パノラマ写真合成用ソフトウェア(Photoshop Elements 7(商標)(アドビ社製)、Photo Stitch(商標)(キャノン社製)等も利用できる場合がある。
For the synthesis based on the center image, for example, it may be preferable to combine the left composite dental row and the right composite dental row using the contact line (edge) between the center tooth and the tooth as a characteristic part. Note that the mark does not necessarily have to be attached to the center tooth, and may be a tooth part photographed at the timing of changing the direction of the camera at the time of photographing. The position of the mark is appropriately determined for other purposes. Selected. Similarly to the mark, the characteristic part is not particularly limited as long as it can be aligned at the time of image synthesis.
Further, by adding a mark to a dentition that is a subject in advance or setting a part corresponding to the mark from an image, more accurate composition is possible.
The above description of the operation is based on operations such as copy paste, drag and drop, image enlargement / reduction, tilt correction, etc. by visual and mouse operations using graphic software. In some cases, known automatic panoramic photo composition software (Photoshop Elements 7 (trademark) (manufactured by Adobe), Photo Stitch (trademark) (manufactured by Canon), or the like may be used.

3次元パノラマ歯列画像の作成

歯列は、咬合平面に対して弓状に湾曲した形状であり、その全体を現実的に把握する場合は、2次元によるパノラマ表示では、個々の歯の様子はわかるが、平面状に歯が並んでいる状態で表示されるため、3次元的な把握は不十分であることから、3次元的に表示できる手法が好ましい。
次に実画像による3次元パノラマ画像を形成する実施例を図6に示し説明する。
図6は、3次元パノラマ歯列画像形成手段を説明する為のブロック図である。
501は、撮影データ入力手段であり、図7で示すような、カメラを複数備えたステレオ画像撮影用のカメラを接続して、カメラの個数と同じ枚数の画像を同時に形成する手段である。
撮影データ入力手段501は、一枚ごとにシャッタを押す様式と、一回シャッタを押すことで複数の写真を撮影する連写的に撮影可能とした構成を備えており、複数の対の静止画像を連続して出力する場合もある。
Creation of 3D panoramic dentition image

The dentition is curved in an arcuate shape with respect to the occlusal plane. When the whole is realistically grasped, the two-dimensional panoramic display shows the state of the individual teeth, but the teeth are planar. Since they are displayed side by side, three-dimensional grasping is insufficient, and therefore a method capable of three-dimensional display is preferable.
Next, an embodiment for forming a three-dimensional panoramic image using a real image will be described with reference to FIG.
FIG. 6 is a block diagram for explaining the three-dimensional panoramic dentition image forming means.
Reference numeral 501 denotes photographing data input means for connecting a stereo image photographing camera having a plurality of cameras as shown in FIG. 7 to simultaneously form the same number of images as the number of cameras.
The shooting data input means 501 has a configuration in which a shutter is pressed for each image and a configuration that enables continuous shooting in which a plurality of photos are shot by pressing the shutter once. May be output continuously.

502は、補正手段であり、レンズ形状による歪み、手ぶれ等の補正、遠近距離の補正等を行う為の手段であり、いわゆるキャリブレーション手段といった公知の手法をもちいて構成されるものである。
補正手段502は、同時に撮影された画像のそれぞれに校正が施されるものであり、歪みが大きい、周辺部を削除することもある。
503は、共通点検出手段であり、例えば一対の画像の共通点を検出するための手段である。共通点検出手段503は、片方の画像の一画素又はひとまとまりの画素の輝度値を基準用輝度値とし、他の画像の一画素又は、ひとまとまりの画素の輝度値を用いて、例えば、輝度差の総和(SAD)、輝度差の二乗和(SSD)値をとりその最小値又は最大値により一致する部分又はサブピクセル推定により推定された部分を共通点として出力するものである。
Reference numeral 502 denotes a correction unit, which is a unit for correcting distortion due to the lens shape, camera shake, and the like, and correcting a long and short distance, and is configured using a known method such as a so-called calibration unit.
The correction unit 502 calibrates each of the images taken at the same time, and sometimes deletes a peripheral portion having a large distortion.
Reference numeral 503 denotes common point detection means, for example, means for detecting common points of a pair of images. The common point detection unit 503 uses the luminance value of one pixel or a group of pixels in one image as a reference luminance value, and uses the luminance value of one pixel or a group of pixels in another image, for example, luminance A sum of differences (SAD) and a sum of squares of differences in brightness (SSD) are taken, and a portion that matches by the minimum or maximum value or a portion estimated by subpixel estimation is output as a common point.

より具体的には、例えば、新井元基 他, 画像のブロックマッチングにおける相関関数とサブピクセル指定方式の最適化,社団法人 情報処理学会 研究報告,2004,P33-40に示される構成やその他の公知手法を利用しても良い。
504は、ワールド座標変換手段であり、得られた共通点の各画像の座標を、全体的に共通な3次元座標に変換する手段である。
ワールド座標変換手段504は、例えば、三角法、8点アルゴリズム法、三角測量法等、算術的手法によりコンピュータ処理で行われ、前記共通点検出手段503で得られた共通点のそれぞれ写真画像の座標値から視差値や、カメラの特性(内部パラメータであるレンズの焦点距離、画像中心、画素サイズ、及び外部パラメータである2つのカメラの位置、及び姿勢)から、ワールド座標(X、Y、Z)を形成出力するものである。
例えば、それぞれ異なるカメラの内部パラメータ及び外部パラメータからなる透視投影行列P1、P2、それぞれ撮影した画像の共通点Mのローカル座標(u1、v1)及び(u2,v2)から一般的に知られている式(1)に基づいて、ワールド座標(X、Y、Z)が求められる。
More specifically, for example, Motoki Arai et al., Optimization of correlation function and subpixel designation method in image block matching, Information Processing Society of Japan, 2004, P33-40 and other publicly known configurations A technique may be used.
Reference numeral 504 denotes world coordinate conversion means for converting the coordinates of the obtained images of the common points into the common three-dimensional coordinates as a whole.
The world coordinate transformation means 504 is performed by computer processing by an arithmetic technique such as trigonometry, eight-point algorithm method, triangulation method, etc., and the coordinates of the photographic images of the common points obtained by the common point detection means 503 are used. From the value to the parallax value and camera characteristics (focal length of the lens, which is an internal parameter, image center, pixel size, and position and orientation of two cameras, which are external parameters), world coordinates (X, Y, Z) Is formed and output.
For example, it is generally known from perspective projection matrices P1 and P2 each consisting of different camera internal parameters and external parameters, and local coordinates (u1, v1) and (u2, v2) of a common point M of each captured image. Based on Expression (1), world coordinates (X, Y, Z) are obtained.

Figure 2012157692
カメラの内部パラメータ、外部パラメータを用いて透視投影行列を求めるか、各静止画像から得られる複数の共通点のローカル座標等から透視投影行列P1、P2及びω1、ω2を求めて、式(1)にもとづいてワールド座標を得る方法等に関しては、例えば、電子情報通信学会誌 Vol.92、No.6,2009,463-468に記載されている手法等の公知手法が好適に用いられる。
その他3次元座標を得る手法としては、接写手法とともに例えば、歯科材料・器械 Vol.19No.3333-338(2000)等に記載されているが、これに限らず、その他一般的な手法をとり得る。
Figure 2012157692
A perspective projection matrix is obtained using internal parameters and external parameters of the camera, or perspective projection matrices P1, P2, and ω1, ω2 are obtained from local coordinates of a plurality of common points obtained from each still image. Regarding the method of obtaining the world coordinates based on, for example, the Journal of the Institute of Electronics, Information and Communication Engineers, Vol. 92, No. 6, 2009, 463-468, and other known methods are preferably used.
Other techniques for obtaining three-dimensional coordinates include, for example, dental materials and instruments, Vol. 19No. 3333-338 (2000), etc., but is not limited thereto, and other general methods can be used.

505は、3次元画像形成手段であり、例えばコンピュータ上に仮想的に形成された3次元座標空間に、当該ワールド座標データを表示し、この座標データを直線、又は曲線で結んでいって表示するワイヤーフレーム模型を形成しても良く、更に線で囲まれた部分に仮想面データを貼り付けていくことで、よりリアルなパノラマ3次元データが得られる。 3次元パノラマ状の歯列データを立体座標上で、立体化することで、湾曲状の歯列が表示される様にしてもよい
506は、表示手段であり、コンピュータ用のモニター、プリンタ、等で形成され、通常のコンピュータモニター上に仮想3次元画像として表示されても良く、更に、湾曲したパノラマ状歯列画像を2次元に投影する等して表示しても良い。
図7は、2つのカメラを先端に備えたプローブ状の3次元計測用のプローブ600の一例を示す。
601は、撮像部Aであり、中心にレンズ601aが配置され、いわゆるカメラモジュール形態を有する。
602は、撮像部Bであり、中心にレンズ602aが配置され、いわゆるカメラモジュール形態を有する。
603は、照明光照射部であり、好ましくは撮像部A601、撮像部B602の周囲に設けられており、支持部材606内部に形成された発光手段605が発した光を、光導路604を介して被写体である歯の表面を照射する部分である。照明光照射部603は、より均一な照明が行われるような形状であることが好ましく、図7に示された形状に特定されるものではない。
Reference numeral 505 denotes a three-dimensional image forming means for displaying the world coordinate data in a three-dimensional coordinate space virtually formed on a computer, for example, and displaying the coordinate data connected by straight lines or curves. A wire frame model may be formed, and more realistic panoramic three-dimensional data can be obtained by pasting virtual surface data to a portion surrounded by a line. A curved dentition may be displayed by three-dimensionalizing the three-dimensional panoramic dentition data on the three-dimensional coordinates. Reference numeral 506 denotes a display means, such as a computer monitor, printer, etc. And may be displayed as a virtual three-dimensional image on a normal computer monitor, or may be displayed by projecting a curved panoramic dentition image two-dimensionally.
FIG. 7 shows an example of a probe-like three-dimensional measurement probe 600 having two cameras at the tip.
Reference numeral 601 denotes an imaging unit A, in which a lens 601a is disposed at the center, and has a so-called camera module configuration.
Reference numeral 602 denotes an imaging unit B, in which a lens 602a is disposed at the center, and has a so-called camera module configuration.
Reference numeral 603 denotes an illumination light irradiation unit, which is preferably provided around the imaging unit A 601 and the imaging unit B 602, and emits light emitted from the light emitting means 605 formed inside the support member 606 via the optical path 604. This is the part that irradiates the surface of the tooth that is the subject. It is preferable that the illumination light irradiation unit 603 has a shape that allows more uniform illumination, and is not limited to the shape shown in FIG.

603aは、指示用光源であり、撮影面を示す為のものであって、スポットライト的な出力をおこなう部分であり、周辺を黒い円筒体で覆った、赤色、青色、白色等のLEDが用いられる。スポットライト的な光であるため、距離によって、照射面の面積が異なることから、光の円を一定に保ちながらプローブ600を移動させることで一定の距離でのプローブの移動を可能とする。
604は、光導路であり、支持部材606内部に形成され、表面は、アルミ、銀等の薄膜などの光反射部材で被覆されていることが好ましい。
605は、発光手段であり、支持部材606内に装着され、白色LED、その他の光源が例示される。本実施例では、ストロボの様な断続的フラッシュ駆動や、連続的な照明駆動等が行われても良い。
606は、支持部材であり、例えば、軽量で硬質なプラスチック材で成型され、先端に、撮像部等が配置され、棒状で、口腔内の奥まで挿入しやすいような形状を有する。
Reference numeral 603a is a light source for indication, which is used to indicate a photographing surface, and is a portion that performs spotlight-like output, and uses LEDs such as red, blue, and white whose periphery is covered with a black cylindrical body. It is done. Since it is spotlight-like light, the area of the irradiation surface varies depending on the distance. Therefore, the probe 600 can be moved at a constant distance by moving the probe 600 while keeping the light circle constant.
Reference numeral 604 denotes an optical path, which is formed inside the support member 606, and its surface is preferably covered with a light reflecting member such as a thin film such as aluminum or silver.
Reference numeral 605 denotes a light emitting means, which is mounted in the support member 606, and includes a white LED and other light sources. In this embodiment, intermittent flash driving such as a strobe light, continuous illumination driving, or the like may be performed.
Reference numeral 606 denotes a support member, which is formed of, for example, a lightweight and hard plastic material, has an imaging unit or the like at the tip, has a shape that is easy to insert into the back of the oral cavity.

607は、操作用スイッチであり、シャッタ操作等を行うものである。その数は、操作仕様や目的に応じて設定されれば良く任意の構成であればよい。
シャッタとして使用する場合は、押している間所定の間隔で連続的にシャッター駆動を行うような仕様も取り得る。
608は、把持部であり、支持部材606と一体的に構成されており、軽量で、丈夫なプラスチック材等で成型されることが好ましい。
609は、外部電源と接続、外部データ処理装置等との接続をするための電気リード線であり、USB接続コネクタを利用したケーブルが利用されても良い。
また、光源がストロボ的な発光であって、連写データをカメラ内部で一時的に記憶できる場合や、Zigbee(登録商標)、無線通信用のフロントエンド回路を用いて無線接続を場合等は不要になる場合もある。
Reference numeral 607 denotes an operation switch for performing a shutter operation or the like. The number should just be set according to the operation specification and the purpose, and should just be arbitrary structures.
When used as a shutter, it is possible to adopt a specification in which the shutter is continuously driven at a predetermined interval while being pressed.
Reference numeral 608 denotes a gripping part, which is formed integrally with the support member 606, and is preferably molded from a lightweight, strong plastic material or the like.
Reference numeral 609 denotes an electrical lead wire for connection to an external power source, connection to an external data processing apparatus, or the like, and a cable using a USB connection connector may be used.
Also, it is not necessary when the light source is strobe light emission and continuous shooting data can be temporarily stored inside the camera, or when using Zigbee (registered trademark) or a wireless communication front-end circuit for wireless connection Sometimes it becomes.

図6及び図7で示した本実施例の動作について説明する。
図6の撮影データ入力手段501において使用者は、図7で示す把持部608をもって、図1で示す様に上下の歯が噛みあわされた状態で支持部材606の先端の撮像部A601と撮像部B602を被写体部位に近づけ、指示用光源603aが指示するスポットライトの大きさ、位置を見ながら、操作用スイッチ607を押して連写動作を開始する。
連写動作でなく、撮影ごとにシャッタ用の操作用スイッチ607を押しても良い場合もあるが手ぶれ等を防ぐ為に押す動作を少なくする連写が好ましい。
この押した状態で、図1(a)と同じ位置まで撮影し、次に図3(a)と同様の状態で、同じ位置まで撮影する。
図8に一回の連写撮影で得られた画像群の中で対となる画像を示す。尚、口腔内で、歯の表面形状をより精度よく計測する場合は、近接した状態での撮影が好ましく、カメラの焦点距離も接写可能な状態で設定されることが好ましい。
これら撮影された画像は、図6の補正手段502でレンズの曲面によって生じる歪みや、傾き等が校正(キャリブレーション)されて共通点検出手段503へ出力される。
3次元処理を行う際、図2、図4で示すように中心付近から左右方向へ合成することを考慮して中心から行うことが好ましいが、特にこの手法に限定されるものでもない。
図8(a)は、歯の正面であって、中心に近い場所を撮制した画像であり、図7のプローブ600を構成要件とする撮影データ入力手段501で撮影されて得られたデータでもある。
The operation of this embodiment shown in FIGS. 6 and 7 will be described.
In the photographing data input means 501 of FIG. 6, the user holds the gripping portion 608 shown in FIG. 7 and the imaging portion A601 and the imaging portion at the tip of the support member 606 with the upper and lower teeth engaged as shown in FIG. While B602 is brought close to the subject part and the size and position of the spotlight indicated by the instruction light source 603a is viewed, the operation switch 607 is pressed to start the continuous shooting operation.
In some cases, the shutter operation switch 607 may be pressed for every shooting, but continuous shooting with fewer pressing operations to prevent camera shake is preferable.
In this pressed state, the image is taken to the same position as in FIG. 1A, and then the same position as in FIG. 3A is taken to the same position.
FIG. 8 shows a pair of images in an image group obtained by one continuous shooting. In addition, when measuring the surface shape of a tooth more accurately in the oral cavity, it is preferable to photograph in a close state, and it is preferable to set the focal length of the camera in a state in which close-up photography is possible.
These captured images are calibrated for distortion caused by the curved surface of the lens by the correction unit 502 in FIG. 6, and are output to the common point detection unit 503.
When performing the three-dimensional processing, it is preferable to perform from the center in consideration of the composition from the center to the left and right as shown in FIGS. 2 and 4, but the method is not particularly limited to this method.
FIG. 8A is an image obtained by photographing a place near the center of the front surface of the tooth, and even data obtained by photographing with the photographing data input means 501 having the probe 600 of FIG. is there.

701aは、撮像部B602の画像であり、702aは、撮像部A601の画像である。この画像にそれぞれ中心点を同じ部分とした座標を付与し、例えば撮像部B602が撮影した図8(a)の画像701aの任意の点A(x1、y1)を設定してこれと同じ位置を示す点A’(x2、y2)を探す。点Aを例えば一つの画素のブロックとして、平均輝度値を求める。図8(a)の画像データ702aの点A’と想定される位置の近傍から、点Aと同じサイズの画素ブロックを求め両者の輝度値の差の総和又は二乗和をとり、次第に、点A’方向へ、同様の演算を行いながら移動しながら。一致度評価曲線を形成する。
一致度評価曲線上で、この差分値の総和又は差の二乗和が、一番小さくなった部分、又は一番大きくなった部分を点A’として設定するサブピクセル推定手法が好ましいが共通点を得る手法であれば特にこれに特定されるものではない。
次に701aの点Aのとなりの画素ブロックについて同様の操作を行い、画像702a上から共通の点を検出する。この操作を繰り返し行い。画像701aと702aのオクルージョンの範囲を除いた共通範囲703aにおいて共通点の座標を求める。
この場合も新たに付加したマークMLの位置を中心に共通点座標を形成することが精度の高い共通点を得ることを可能とする。
701a is an image of the imaging unit B602, and 702a is an image of the imaging unit A601. Coordinates having the same central point as the same part are assigned to this image, and for example, an arbitrary point A (x1, y1) of the image 701a in FIG. 8A photographed by the imaging unit B602 is set and the same position is set. The point A ′ (x2, y2) to be shown is searched. For example, the average luminance value is obtained by using the point A as a block of one pixel. A pixel block having the same size as that of the point A is obtained from the vicinity of the position assumed to be the point A ′ of the image data 702a in FIG. 8A, and the sum or square sum of the difference between the luminance values is gradually obtained. 'While moving in the same direction while performing similar calculations. A coincidence evaluation curve is formed.
On the coincidence degree evaluation curve, a subpixel estimation method in which the sum of the difference values or the sum of squares of the differences is set to be the smallest portion or the largest portion as the point A ′ is preferable. It is not particularly specified as long as it is a method to obtain.
Next, the same operation is performed on the pixel block next to the point A of 701a, and a common point is detected from the image 702a. Repeat this operation. The coordinates of the common point are obtained in the common range 703a excluding the occlusion range of the images 701a and 702a.
Also in this case, it is possible to obtain a common point with high accuracy by forming the common point coordinates around the position of the newly added mark ML.

またこのブロックを小さくすることにより、精度が高い状態で、共通点が検出できるが処理時間が長くなる為ブロックの大きさ等は適宜選択される。
次に、図6のワールド座標変換手段504において、例えばこの共通点を複数点とって計測した座標値から、視差、焦点距離等撮影器固有のパラメータ及び1式に基づいて3次元ワールド座標系に変換する。この具体的な手法は、上述した文献等に示された通常の方法が好適に採用される。
図8(a)の一対の画像から共通点を求めた後、次の図8(b)で示す画像対701b、702bを用いてオクルージョンの範囲を除いた共通範囲703bを3次元のワールド座標に変換する。3次元ワールド座標となった状態で例えば図8(d)に示すワイーヤーフレーム状に成形したものを作成する。
図8(d)の3A(X、Y、Z)は、図8(a)A(x1,y1)とA’(x2、y2)に基づいて(1)式を利用して変換した3次元ワールド座標である。
In addition, by reducing the size of this block, common points can be detected with high accuracy, but the processing time becomes longer, so the size of the block and the like are appropriately selected.
Next, in the world coordinate conversion means 504 of FIG. 6, for example, from the coordinate values measured by taking a plurality of the common points, a three-dimensional world coordinate system is obtained based on parameters and a set of parameters such as parallax and focal length. Convert. As this specific method, a normal method shown in the above-mentioned literature or the like is preferably employed.
After obtaining a common point from the pair of images in FIG. 8A, the common range 703b excluding the occlusion range is converted into three-dimensional world coordinates using the image pair 701b and 702b shown in FIG. 8B. Convert. For example, a wire frame shape shown in FIG. 8D is created in the state of the three-dimensional world coordinates.
3A (X, Y, Z) in FIG. 8D is a three-dimensional image converted by using equation (1) based on FIG. 8A, A (x1, y1) and A ′ (x2, y2). World coordinates.

更に図8(c)で示す画像対701c、702cのオクルージョン範囲を除いた共通範囲703cの各共通点の3次元ワールド座標を求める。
次に図6で示す3次元画像形成手段505において、
ワールド座標に変換された図8(a)から求められた3次元座標と図8(b)を平面的な重ね合わせでなく仮想3次元座標空間で重ねあわせる。
この重ね合わせた画像に更に図8(c)で示した3次元ワールド座標を重ね合わせる。
この重ね合わせは、仮想の3次元空間での重ね合わせであれば、これら3次元ワールド座標化したデータに基づいてコンピュータモニター上に例えば図8(d)で示すようなワイヤーフレーム状の歯列を仮想的にそれぞれ表示し、目視でマウス等コンピュータインターフェースを操作してそれぞれを重ねあわせるようにしておこなうことができるが、重ね合わせの精度を高める場合は、比較する3次元数値のどちらかを基準として、差分比較等により一番差分が小さい状態となるような合成が好ましい場合もある。ブロックマッチグによるサブピクセル推定手法で、共通点を得ても良い。
Further, the three-dimensional world coordinates of each common point in the common range 703c excluding the occlusion range of the image pairs 701c and 702c shown in FIG.
Next, in the three-dimensional image forming means 505 shown in FIG.
The three-dimensional coordinates obtained from FIG. 8 (a) converted to world coordinates and FIG. 8 (b) are superimposed in a virtual three-dimensional coordinate space instead of in a planar superposition.
The three-dimensional world coordinates shown in FIG. 8C are further superimposed on this superimposed image.
If this superposition is a superposition in a virtual three-dimensional space, for example, a wire frame-like dentition as shown in FIG. 8D is formed on a computer monitor based on the data converted into the three-dimensional world coordinates. It is possible to display each of them virtually and to superimpose them by visually operating a computer interface such as a mouse. However, if you want to increase the accuracy of the overlay, use either of the three-dimensional values to be compared as a reference. In some cases, such a combination that the difference is the smallest due to the difference comparison or the like is preferable. A common point may be obtained by a sub-pixel estimation method using block matching.

図8(a)から(c)は、正面に向かって右側の歯列の3次元ワールド座標化したデータに基づく歯列を形成したが、次に左側の歯列の3次元ワールド座標化を行う。
ワールド座標化は、上述した公知の手法を用いればよく、例えば、2つの画像に基づく3次元座標を取得した後、共通の座標であるワールド座標への変換を行ったものでも良い。
左右の歯列の3次元ワールド座標を取得した後、コンピュータの3次元仮想表示、又は座標値の数値的重ね合わせによる近似的一致により結合していけばよい場合もある。
その場合、マーク部分の3次元座標データを基準に重ねることが好ましく、当該手法によれば、2次元のみならず3次元座標でも、ずれの無いパノラマ歯列表示が図6で示す表示手段506によって可能となる。
重ね合わせは、同じ形状部分のデータ数値での重ね合わせであって、一致しない場合は、両者の座標値の平均をとりながら重ね合わせていく手法、画面上で画像をドラッグアンドドロップの手動手法で、コンピュータマウスを操作しながら重ね合わせた後、座標値を求める方法等が例示される。
8A to 8C, the dentition is formed based on the three-dimensional world coordinate data of the right dentition toward the front. Next, the left dentition is three-dimensional world coordinated. .
For the world coordinate conversion, the known method described above may be used. For example, after obtaining three-dimensional coordinates based on two images, conversion to world coordinates which are common coordinates may be performed.
In some cases, after obtaining the three-dimensional world coordinates of the left and right dentitions, the three-dimensional virtual display of the computer or approximate matching by numerical superposition of coordinate values may be used.
In that case, it is preferable to superimpose the mark portion on the basis of the three-dimensional coordinate data, and according to this method, the panoramic tooth row display without deviation is displayed by the display means 506 shown in FIG. It becomes possible.
Superposition is a superposition of data values of the same shape part, and if they do not match, a method of superimposing them while taking the average of both coordinate values, a manual method of dragging and dropping the image on the screen An example is a method of obtaining a coordinate value after superposition while operating a computer mouse.

尚、互いに共通した部位をもつ画像であっても、撮影状況から、補正後も、重なり具合が悪い関係にある画像の場合は、共通する画像の内どちらか選択すれば良く、パノラマ画像を作成する為に必要な重ならない部分側の画像を用いても良い場合もある。
ワールド座標に基づいた三次元化による合成により、全歯列をいわゆる入れ歯風の3次元形状に表示することが可能となる。
2次元の歯側面のパノラマデジタル画像表示、及び3次元の歯側面のパノラマデジタル画像表示は、患者にとって自らの全体の歯列状態を容易に理解することができる様になることから、例えば、2次元パノラマ歯列データ、3次元パノラマ歯列データのそれぞれについて、矯正シミュレーション処理、仮想ホワイトニング処理を施して仮想歯列を形成した状態の画像をコンピュータモニター上に併置して、患者に治療の効果等を実感させる態様を形成しても良い。
Even if the images have common parts, if the images are in a relationship that does not overlap correctly after correction, it is only necessary to select one of the common images and create a panoramic image. In some cases, non-overlapping partial images necessary for the purpose may be used.
It is possible to display all the dentitions in a so-called denture-like three-dimensional shape by synthesis by three-dimensionalization based on the world coordinates.
Since the two-dimensional panoramic digital image display of the tooth side and the three-dimensional panoramic digital image display of the tooth side allow the patient to easily understand the entire dentition state, for example, 2 For each of the three-dimensional panoramic dentition data and the three-dimensional panoramic dentition data, orthodontic simulation processing and virtual whitening processing are performed on the computer monitor so that the virtual dentition is formed on the computer monitor. You may form the aspect which realizes.

矯正シミュレーション処理とは、例えば、2次元パノラマ歯列画像であれば、あらかじめ歯一つの様々な形状のデータベースを部位に応じて作成し、2次元パノラマ歯列画像上のそれぞれの歯の画像に対し、矯正歯科医がグラフィックソフトウェア上でコンピュータマウスを操作してコピーペーストを行って、形成した仮想矯正パノラマ歯列を形成する手段を示す。
パノラマ3次元歯列画像の場合は、既に3次元座標が設定されていることから、既存のCADソフトウェア上で、矯正歯科医等がパノラマ3次元歯列画像の3次元座標調整を行って、仮想矯正3次元パノラマ歯列を形成する手段が例示される。これらの矯正パノラマ表示手法は、例示であり、その他の手法を取り入れてもよい。
自らのパノラマ2次元及び3次元歯列画像に対する仮想ホワイトニング処理後の仮想表示も、歯科医がグラフィックソフトウェア上のこれらの画像に対し、色データの調整を行ったものを、併記してもよい。このように仮想矯正、仮想着色処理を、患者自らのパノラマ歯列に行ったものを画面上に併設することで、患者は治療の理解を深めることが可能となる。
For example, if the orthodontic simulation processing is a two-dimensional panoramic dentition image, a database of various shapes of one tooth is created in advance according to the part, and each tooth image on the two-dimensional panoramic dentition image is obtained. The means by which the orthodontist operates the computer mouse on the graphic software and performs copy paste to form the formed virtual orthodontic panoramic dentition.
In the case of a panoramic 3D dentition image, since 3D coordinates have already been set, orthodontics etc. perform 3D coordinate adjustment of the panoramic 3D dentition image on the existing CAD software, and the virtual A means for forming an orthodontic three-dimensional panoramic dentition is exemplified. These correction panorama display methods are examples, and other methods may be adopted.
The virtual display after the virtual whitening process for the own panoramic 2D and 3D dentition images may be written together with the dentist adjusting the color data for these images on the graphic software. In this way, by providing virtual panoramic correction and virtual coloring processing on the patient's own panoramic dentition on the screen, the patient can deepen their understanding of treatment.

照準光照射手段

図9は、本発明の一実施例を示す図である。
A10は、反射鏡ユニットであり、硬質のプラスチック製等で形成され、先端に所定の角度(例えば45度)で設置された反射鏡A10Kを設け、後端に撮影ユニットA14の外周と接続可能な円筒状の装着部A10Sが形成され、その間は、開放された形状となっている。
装着部A10Sと撮影ユニットA14との接続は、押し込む形で形成され、離脱も、引き離すだけで可能とする程度で足り、回転防止の為、両者に凹凸を設けたり、楕円形等の非対称形状にしたりしても良い。
A11は、本体であり、プラスチック、樹脂で形成され、口径が大きいボールペンのような円筒状で手で持ちやすい形状を具備し、先端に撮影ユニットA14が突出するように配置され、後端には、外部処理装置と接続する為のケーブルA15が接続する。
A12は、反射鏡ユニットA10の先端に所定の角度で配置された反射鏡A10Kを歯科医、歯科衛生士等が直接見て観察する際の観察方向である。
Aiming light irradiation means

FIG. 9 is a diagram showing an embodiment of the present invention.
A10 is a reflecting mirror unit, which is made of hard plastic or the like, and is provided with a reflecting mirror A10K installed at a predetermined angle (for example, 45 degrees) at the front end, and can be connected to the outer periphery of the photographing unit A14 at the rear end. A cylindrical mounting portion A10S is formed, and in the meantime, an open shape is formed.
The connection between the mounting part A10S and the photographing unit A14 is formed by pushing it in, and it is sufficient that it can be detached only by pulling it apart. In order to prevent rotation, both sides are provided with irregularities, or an asymmetrical shape such as an ellipse. You may do it.
A11 is a main body, which is formed of plastic and resin, has a cylindrical shape such as a ballpoint pen with a large aperture and is easy to hold by hand, is arranged so that the photographing unit A14 protrudes at the tip, and at the rear end The cable A15 for connecting to the external processing apparatus is connected.
A12 is an observation direction when a dentist, a dental hygienist, or the like directly observes and observes the reflector A10K arranged at a predetermined angle at the tip of the reflector unit A10.

A13は、照準光照射面であり、照準用光源A142から出力された照準光が反射鏡A10Kで反射して歯面を照らし出している際の照準光の照射面の一例である。
照準用光源A142の位置は任意であり、撮影画像の範囲を決定できる位置であれば、他の位置でも良く、その部位は、例えば、反射鏡ユニットA10の先端部であって、撮影範囲を照明する部位であってもよい。この場合は、光路が短くなるため、指向角度が多少広くても撮影画像の範囲を照明できる場合もある。
図9(c)に撮影ユニットA14を拡大した状態を示した。
A141は、照明用光源であり、広域な指向角度をもつ、LED又はレンズとLEDの組み合わせが例示される。 照明用光源A141は、撮影部材A143の周辺に複数配置されている。
A142は、照準用光源であり、指向角度が小さいLEDや、レンズとLEDの組み合わせによって、照射面に所定の広がりをもつことが可能な出力を行うものが例示される。
A13 is an aiming light irradiation surface, which is an example of the irradiation surface of the aiming light when the aiming light output from the aiming light source A142 is reflected by the reflecting mirror A10K to illuminate the tooth surface.
The position of the aiming light source A142 is arbitrary and may be any other position as long as the range of the captured image can be determined. The site is, for example, the tip of the reflector unit A10, and illuminates the imaging range. It may be a part to do. In this case, since the optical path is shortened, the range of the captured image may be illuminated even if the directivity angle is somewhat wide.
FIG. 9C shows an enlarged state of the photographing unit A14.
A141 is a light source for illumination, and an LED or a combination of a lens and an LED having a wide directivity angle is exemplified. A plurality of illumination light sources A141 are arranged around the photographing member A143.
A142 is a light source for aiming, and examples thereof include an LED having a small directivity angle and an output capable of having a predetermined spread on the irradiation surface by a combination of a lens and an LED.

又、指向角度が小さい光源の場合は、複数所定の間隔をあけて配置されることが好ましい。
A143は、撮影部材であり、CCD、CMOSのカメラで構成され、画素数は、より多いものが好ましい。
A15は、外部画像表示機器と接続するためのケーブルであり、USBケーブルのような汎用ケーブルの他、専用のケーブルで形成されても良い。
A16a、A16bは、第1操作ボタン、第操作ボタンであり、プッシュ式、プル式、又は回転式等で構成され、それぞれのボタンの中で、第1操作ボタンA16aを押すと所定時間、照準用光源A142が発光し、反射鏡A10Kを介して要部を一定時間だけ照らす。
一定時間とは、利用者が、少なくとも口腔内の要部を照らす照準光を認識できる時間であって、好ましくは、撮影のタイミング、例えば第1操作ボタンA16a等が押されるまでである。
撮影時は、静止画像に異なる配色の照明部が形成される為、観察の妨げになる点で好ましくないが、観察の妨げにならない場合は、特に照準用光を消す必要がなく、点滅させて、利用者に認識させるものであっても良い。この照準光の照射面積を維持させながら口腔内の歯列側面を撮影することで、反射鏡と歯の距離を一定にすることも可能である。
In the case of a light source having a small directivity angle, it is preferable that a plurality of light sources be arranged with a predetermined interval.
A143 is a photographing member, which is composed of a CCD or CMOS camera, and preferably has a larger number of pixels.
A15 is a cable for connecting to an external image display device, and may be formed by a dedicated cable in addition to a general-purpose cable such as a USB cable.
A16a and A16b are a first operation button and a first operation button, which are configured by a push type, a pull type, a rotation type, or the like, and when the first operation button A16a is pressed among these buttons, a predetermined time is used. The light source A142 emits light and illuminates the main part for a certain period of time via the reflector A10K.
The fixed time is a time during which the user can recognize at least the aiming light that illuminates the main part of the oral cavity, and is preferably until the timing of photographing, for example, the first operation button A16a or the like is pressed.
At the time of shooting, illumination parts with different color schemes are formed on the still image, which is not preferable in that it interferes with observation, but if it does not interfere with observation, it is not necessary to turn off the aiming light, and it can be blinked. It may be something that the user recognizes. It is also possible to make the distance between the reflecting mirror and the teeth constant by photographing the side surface of the dentition in the oral cavity while maintaining the irradiation area of the aiming light.

次に図9で示す実施例の動作を説明する。
撮影ユニットA14の撮影部材A143の周辺の装着された照明用光源A141の照明出力は、反射鏡A10Kを介して口腔内の歯AH1を照明する。A14Lが照準光光路である。
その他、照明用光源も反射鏡A10Kを介して照射され、照明光面内の一部が照準光照射面A13が形成された状態となっている。
撮影部材A143は、照らし出された口腔内の部位を、反射鏡A10Kを介して入力し、ケーブルA15を介して、外部モニター装置により表示する。
歯科医師等の利用者は、外部モニター装置で表示される画像で、撮影位置を把握できるが、診療時間を短くする場合や、治療が含まれる場合等は、デンタルミラーと同様の使用がされる場合が多く、観察方向がA12で示す様に撮影画像と異なる状態となる場合があるが、その際は、例えば第1操作ボタンA16aを押す。第1操作ボタンA16aが押されると、照準用光源A142が発光し、発光は、所定の時間、好ましくは撮影開始前まで、行われ、観察者が。観察位置と、撮影位置を確認する程度の強さで発光する。
Next, the operation of the embodiment shown in FIG. 9 will be described.
The illumination output of the illumination light source A141 mounted around the imaging member A143 of the imaging unit A14 illuminates the tooth AH1 in the oral cavity via the reflector A10K. A14L is an aiming optical path.
In addition, the illumination light source is also irradiated through the reflecting mirror A10K, and a part of the illumination light surface is in a state where the aiming light irradiation surface A13 is formed.
The imaging member A143 inputs the illuminated intraoral site via the reflector A10K and displays it on the external monitor device via the cable A15.
A user such as a dentist can grasp the shooting position from the image displayed on the external monitor device, but when the medical treatment time is shortened or treatment is included, it is used in the same way as a dental mirror. In many cases, the observation direction may be different from the captured image as indicated by A12. In this case, for example, the first operation button A16a is pressed. When the first operation button A16a is pressed, the aiming light source A142 emits light, and the light emission is performed for a predetermined time, preferably before the start of photographing, and the observer. It emits light with an intensity to confirm the observation position and the shooting position.

観察者は、撮影位置と観察位置を一致させるため反射鏡A10Kの移動を行い、再度第1操作ボタンA16aを押すことで、撮影位置と観察位置の調整を行う。
位置決めが終了すると、再度第1操作ボタンA16a又は第2操作ボタンA16bを押すことで静止画又は動画の記録が行われる。上述した第1操作ボタンA16aと第2操作ボタンA16bの操作内容は、例示であり、場合により適宜選択されるものである。
その一例を図9(b)に示した。
A17は、画像の一例であり、撮影目的とする歯AH1が撮影されている。照準光の照射範囲は、照準光照射面A13で示す円の範囲であり、撮影を目的する要部のおよそ全部が含まれている。
照準光照射面A13の範囲は、本体A11及び反射鏡ユニットA10の組み合わせが、歯H1に対して上下に動くことにより変化することから、使用者は、本体A11及び反射鏡ユニットA10を上下させて、調整すればよく、撮影範囲よりも大きくなったり小さくなったりするが、撮影範囲の要部からずれることが無く、又点光源よりも、撮影範囲の要部を十分に示す。
以上の操作により、撮影面と観察面が調整され、正確な静止画又は動画の記録が行われる。
The observer moves the reflecting mirror A10K in order to match the photographing position with the observation position, and presses the first operation button A16a again to adjust the photographing position and the observation position.
When the positioning is completed, the still image or the moving image is recorded by pressing the first operation button A16a or the second operation button A16b again. The operation content of the first operation button A16a and the second operation button A16b described above is an example, and is appropriately selected depending on the case.
An example is shown in FIG.
A17 is an example of an image, and a tooth AH1 to be photographed is photographed. The irradiation range of the aiming light is a range of a circle indicated by the aiming light irradiation surface A13, and includes almost all of the main parts intended for photographing.
The range of the aiming light irradiation surface A13 changes when the combination of the main body A11 and the reflector unit A10 moves up and down with respect to the tooth H1, so that the user moves the main body A11 and the reflector unit A10 up and down. However, there is no deviation from the main part of the photographing range, and the main part of the photographing range is more sufficiently shown than the point light source.
By the above operation, the photographing surface and the observation surface are adjusted, and an accurate still image or moving image is recorded.

図9(a)で示す本体A11を持ち、口腔内の観察部位に対し、反射鏡A10Kを目的とする部位を捉えるように縦横に移動させて観察撮影する。
口腔内カメラは、口腔内の上顎、又は下顎の狭く深い部位等に挿入され、反射鏡の撮影範囲は、広範囲にわたると共に反射鏡が逆さの状態で口腔内が撮影されたり。斜め状態、横向きなどでも撮影されたりすることから、撮影画像も、傾いたり、逆さになったりする場合がある。
図1、図3で示す様に口腔内カメラの反射鏡を奥歯から前歯にかけて移動させながら撮影する場合も、手動であるが為にカメラ及び反射鏡は、傾いたり回転したりする場合があり、得られる画像も同様に傾いたり、回転したりする。
この状態に撮影状態を位置センサによって、検出し、画像が上下反対の状態や、斜めの状態に対してこれをカメラの理想的な動きである水平移動状態で撮影した際に得られる画像に補整する画像補整手段を具えることで、カメラが多少回転や傾いた状態であっても、得られる画像が姿勢制御された画像となる手段を図10から図12に示し説明する。
The body A11 shown in FIG. 9 (a) is held, and the observation part in the oral cavity is moved vertically and horizontally so as to capture the target part of the reflecting mirror A10K and observed and photographed.
The intraoral camera is inserted into a narrow and deep part of the upper jaw or lower jaw of the oral cavity, and the imaging range of the reflector is wide and the intraoral image is taken with the reflector inverted. Since the image is taken even in an oblique state or sideways, the photographed image may be tilted or inverted.
As shown in FIGS. 1 and 3, even when shooting while moving the reflector of the intraoral camera from the back tooth to the front tooth, the camera and the reflector may tilt or rotate because it is manual. The resulting image is similarly tilted and rotated.
In this state, the shooting state is detected by the position sensor, and the image is corrected to the image obtained when shooting in the horizontal movement state that is the ideal movement of the camera with respect to the upside down or oblique state. FIG. 10 to FIG. 12 will be described with reference to FIGS. 10 to 12, in which the image correction means is provided so that the obtained image becomes a posture-controlled image even when the camera is slightly rotated or tilted.

撮影画像修正手段

図10は、本発明の一実施例を説明する為に用いられる口腔内カメラの一例であり、一部を断面図として示した。
A21は、把持用の筐体であり、内部空間を具えた円柱状を有し、先端にカメラとカメラの周辺に形成された照明用光源とからなる楕円筒状の撮影ユニットA23が筐体A21より突出した状態で接続し、後端に外部表示装置と連結する為のケーブルA26が接続する。
照明ユニットの一例を図10に示した。
A22は、反射鏡ユニットであり、先端に所定角度で配置された反射鏡A22Hが装着され、後端には、撮影ユニットA23の周辺を覆うように装着可能な円筒状の装着部A22Sが形成され、その他は開放された状態となっている。
A24は、回路基板であり、筐体A21内部に装着され、画像処理用IC等が実装されている。A25a、A25bは、位置センサであり、回路基板に実装されたICチップ状を有する。位置センサの個数、実装部位は一例であり、センサの種類によっては、実装されない場合もある。
位置センサA25a、A25bは、加速度センサ、角速度センサ等、口腔内カメラが広範囲な移動状態を取り得ることから、角度によって、計測不能な状態にならないセンサ素子が採用される。位置センサの個数を2つとして示したが、例示であって、軸の数に応じて、チップの数が変化したり、3軸用のユニットがあれば、一つである場合もある。
加速度センサ及び角速度センサは3軸のセンサが例示され、位置センサの個数も軸の数等で調整される場合もある。
Photographed image correction means

FIG. 10 is an example of an intraoral camera used for explaining an embodiment of the present invention, and a part thereof is shown as a cross-sectional view.
Reference numeral A21 denotes a gripping housing, which has a cylindrical shape with an internal space, and an oval cylindrical photographing unit A23 including a camera and an illumination light source formed at the periphery of the camera at the tip is a housing A21. The connection is made in a more protruding state, and a cable A26 for connecting to an external display device is connected to the rear end.
An example of the lighting unit is shown in FIG.
A22 is a reflecting mirror unit, and a reflecting mirror A22H disposed at a predetermined angle is attached to the front end, and a cylindrical mounting portion A22S that can be attached to cover the periphery of the photographing unit A23 is formed at the rear end. Others are open.
A24 is a circuit board, which is mounted inside the casing A21 and mounted with an image processing IC and the like. A25a and A25b are position sensors, and have an IC chip shape mounted on a circuit board. The number of position sensors and mounting parts are examples, and depending on the type of sensor, they may not be mounted.
Since the intraoral camera can take a wide range of movement states, such as an acceleration sensor and an angular velocity sensor, the position sensors A25a and A25b employ sensor elements that do not become incapable of measurement depending on the angle. Although the number of position sensors is shown as two, it is an example, and there may be one if the number of chips changes according to the number of axes or there is a unit for three axes.
The acceleration sensor and the angular velocity sensor are exemplified by triaxial sensors, and the number of position sensors may be adjusted by the number of axes or the like.

位置センサA25a、A25b・・のx軸、y軸、z軸は、例えば図12で示す軸が例示される。
位置センサA25a、A25bを角速度センサ(ジャイロセンサ)とした場合、角速度センサは、例えば、それぞれx軸周りの移動による角度の変化量、y軸周りの移動による角度の変化量、及びz軸周りの移動による角度の変化量をそれぞれ出力する。
角速度センサの場合は、x軸、y軸及びz軸の初期状態を任意に設定した状態で、それぞれの軸の変化量を加算していき、カメラの撮影状態を検出する。
これに対し、 加速度センサは、それぞれのx軸方向の加速度成分、y軸方向の加速度成分、z軸方向の加速度成分を出力する。更にこれらの加速度成分の合成ベクトルが姿勢ベクトルを出力し、静止状態にある時は、それぞれ重力加速度ベクトルを示す。 この姿勢ベクトルから、カメラの撮影状態が得られる。
例えば加速度センサは、静止時、重力加速度ベクトルA451の状態を姿勢ベクトルとして出力する為、この状態でのx軸方向、y軸方向、z軸方向のベクトルを基準姿勢としてその後角速度センサを用いてそれぞれの軸の回転変化量を加算等の演算をしていく手法等が利用できることから、
The x-axis, y-axis, and z-axis of the position sensors A25a, A25b,.
When the position sensors A25a and A25b are angular velocity sensors (gyro sensors), the angular velocity sensors are, for example, the amount of change in angle due to movement around the x axis, the amount of change in angle due to movement around the y axis, and the amount of change around the z axis, respectively. The amount of change in angle due to movement is output.
In the case of an angular velocity sensor, the initial state of the x-axis, y-axis, and z-axis is arbitrarily set, and the amount of change of each axis is added to detect the shooting state of the camera.
On the other hand, the acceleration sensor outputs an acceleration component in the x-axis direction, an acceleration component in the y-axis direction, and an acceleration component in the z-axis direction. Further, the combined vector of these acceleration components outputs a posture vector, and when in a stationary state, indicates a gravitational acceleration vector. From this posture vector, the shooting state of the camera can be obtained.
For example, since the acceleration sensor outputs the state of the gravitational acceleration vector A451 as a posture vector when stationary, the vectors in the x-axis direction, the y-axis direction, and the z-axis direction in this state are used as reference postures, and then the angular velocity sensor is used. Because it is possible to use methods such as adding the rotation change amount of the axis of

加速度センサと角速度センサを両方組み合わせることで、カメラの様々な状態を検出してもよい。
図11は、位置センサを用いて画像表示状態を補整する手段の一例を示すブロック図である。当該ブロック図でしめす構成は、コンピュータ処理であれば、プログラムで実行される部分を持つものであってもよい。
A31は、撮影手段であり、図10の撮影ユニットA23の中心に配置されたカメラで動画、静止画を撮影する手段を示す。
A32は、画像補整手段であり、画像記録メモリ、CPU等で構成され、撮影手段A31で得られた画像を一時記録し、位置検出手段A34のカメラ角度情報に基づいて、画像を回転させ見やすい状態の画像データを形成する。
例えば、撮影ユニットA23が撮影し、モニターに映し出す画像の基準姿勢を定め、その基準姿勢に対し、筐体A21を動かすことで、基準姿勢画像が回転した場合において、 例えば角速度センサ等がそれぞれの軸での角速度から、回転角度の変化量を検出し、その回転角度変化量分を引いた角度だけ、画像を回転させて表示させることで、見やすい画像が形成可能となる。
Various states of the camera may be detected by combining both the acceleration sensor and the angular velocity sensor.
FIG. 11 is a block diagram showing an example of means for correcting the image display state using the position sensor. The configuration shown in the block diagram may have a portion executed by a program as long as it is a computer process.
A31 is photographing means, and means for photographing a moving image and a still image with a camera arranged at the center of the photographing unit A23 in FIG.
A32 is an image correction means, which is composed of an image recording memory, a CPU, etc., temporarily records the image obtained by the photographing means A31, and rotates the image based on the camera angle information of the position detection means A34 so that it is easy to see Image data is formed.
For example, in the case where the reference posture image is rotated by moving the housing A21 with respect to the reference posture of the image taken by the photographing unit A23 and projected on the monitor, the angular velocity sensor or the like is connected to each axis. By detecting the amount of change in the rotation angle from the angular velocity at, and rotating and displaying the image by an angle obtained by subtracting the amount of change in the rotation angle, an easy-to-view image can be formed.

尚、図12でしめすy軸周りの回転のみで、画像の補整が可能な場合もある。
反射鏡で反射させた口腔内の像を撮影する場合、撮影ユニットA23のカメラは、常に反射鏡方向を向いている為、画像が回転するのは、図12でしめすy軸座標を中心にした筐体の回転に伴う回転が主となるためである。
従って、少なくとも、本体A11及び反射鏡ユニットA10がx軸、y軸及びz軸方向に変化した状態で、xz平面に映し出される画像を画像表示部において、一定の方向を向く状態に補整されることが好ましい場合もある。
33は、画像表示手段であり、コンピュータのモニター、その他専用のモニターが示され、画像補整手段A32の出力画像が表示されるものであれば良い。
In some cases, the image can be corrected only by rotation around the y-axis shown in FIG.
When photographing an intraoral image reflected by a reflector, the camera of the photographing unit A23 is always facing the direction of the reflector, so the image rotates around the y-axis coordinate shown in FIG. This is because the rotation accompanying the rotation of the housing is the main.
Accordingly, at least in the state where the main body A11 and the reflecting mirror unit A10 are changed in the x-axis, y-axis, and z-axis directions, the image displayed on the xz plane is corrected to be in a certain direction in the image display unit. May be preferred.
Reference numeral 33 denotes image display means, which may be a computer monitor or other dedicated monitor that can display the output image of the image correction means A32.

A34は、位置検出手段であり、図10の位置センサA25a、A25b等で構成され、具体的には、角速度を出力するレートジャイロ、角度を出力するレート積分ジャイロ、姿勢ジャイロ、MEMSタイプその他機械式、光学式等の角速度センサ、ピエゾ抵抗タイプ、静電容量タイプ、熱検知タイプのMEMSセンサ等の加速度センサが利用可能である。
次に図11の動作を図10、図12を用いて説明する。
図12でしめす座標軸は、一つの位置センサが3軸に対応する場合を示すものであり、位置センサがそれぞれ1軸、2軸等で対応する場合は、位置センサの部位毎に対応する座標軸が設定される。
図10でしめす筐体A21を持ち、反射鏡A22Hを口腔内に挿入して目的とする部位を撮影する。その際、筐体A21上に取り付けられたスイッチを操作するなどして初期姿勢状態を記録する。所期姿勢状態における座標の一例を図12のA410で示した。
位置センサの設置により座標軸が形成される。本実施例では、A421がx軸、A431がy軸、A441がz軸とした。
A34 is a position detection means, which is composed of the position sensors A25a, A25b, etc. of FIG. 10, and specifically, a rate gyro that outputs angular velocity, a rate integration gyro that outputs angles, an attitude gyro, a MEMS type, and other mechanical types An acceleration sensor such as an optical angular velocity sensor, a piezoresistive type, a capacitance type, or a heat detection type MEMS sensor can be used.
Next, the operation of FIG. 11 will be described with reference to FIGS.
The coordinate axes shown in FIG. 12 indicate the case where one position sensor corresponds to three axes. When the position sensor corresponds to one axis, two axes, etc., the coordinate axis corresponding to each part of the position sensor is Is set.
A case A21 shown in FIG. 10 is held, and a reflecting mirror A22H is inserted into the oral cavity to photograph a target site. At that time, the initial posture state is recorded, for example, by operating a switch attached on the casing A21. An example of coordinates in the desired posture state is indicated by A410 in FIG.
A coordinate axis is formed by installing the position sensor. In this embodiment, A421 is the x axis, A431 is the y axis, and A441 is the z axis.

尚、A451は、重力加速度ベクトルであり、加速度センサの静止時の合成された姿勢ベクトルの一例である。従って重力加速度ベクトルは、加速度センサを用いないときは利用できない場合がある。
口腔内カメラが例えば、奥歯の側面を撮影する為に直立に近い状態での座標を示す。
A422は、x軸であり、A432は、y軸、A442はz軸を示し、加速度センサを用いた場合、A452は、重力加速度ベクトルを示すことができる。
口腔内の目的とする部位へ、反射鏡22Hを移動させる。動き方の一例を図12でしめす。反射鏡22H及び筐体で構成される口腔内カメラは、A411、A412、A413で示す様な縦横に移動し、撮影手段A31は、それぞれの状態での口腔内画像を静止画、動画で撮影して画像補整手段A32に出力する。
A451 is a gravitational acceleration vector, which is an example of a combined posture vector when the acceleration sensor is stationary. Therefore, the gravitational acceleration vector may not be used when the acceleration sensor is not used.
For example, the intraoral camera shows coordinates in a state close to being upright in order to photograph the side surface of the back tooth.
A422 is an x-axis, A432 is a y-axis, A442 is a z-axis, and when an acceleration sensor is used, A452 can indicate a gravitational acceleration vector.
The reflecting mirror 22H is moved to a target site in the oral cavity. An example of how to move is shown in FIG. The intraoral camera composed of the reflecting mirror 22H and the casing moves vertically and horizontally as indicated by A411, A412, and A413, and the imaging means A31 captures intraoral images in each state as still images and moving images. Output to the image correction means A32.

位置検出手段A34は、例えば、初期姿勢情報をx、y、z方向のそれぞれに対して画像補整手段A32に出力する。尚、本実施例のように、反射鏡の画像を表示する構成の場合、カメラは反射鏡方向に向いている為、カメラ画像が反転したり見づらい状態となるのは、y軸周りの回転に要因があることが多いことから、1軸タイプの位置センサのみを利用してもよい場合もある。画像補整手段A32は、この初期姿勢情報と画像とを対応づけて、画像表示手段A33に出力し、表示させる。
図12で示す様に口腔内カメラをA411、A412、A413の様に動かして、口腔内を撮影する場合、撮影手段A31は、それぞれの姿勢に応じた画像を出力する。y軸を中心にカメラが回転すると、画像は、逆さに撮影され、撮影状態に対応した画像が出力される。
For example, the position detection unit A34 outputs the initial posture information to the image correction unit A32 in the x, y, and z directions. Note that, in the case of the configuration in which the image of the reflecting mirror is displayed as in this embodiment, the camera is oriented in the direction of the reflecting mirror, so the camera image is reversed or difficult to see due to rotation around the y axis. Since there are many factors, there are cases where only a single-axis type position sensor may be used. The image correction means A32 associates this initial posture information with the image, outputs it to the image display means A33, and displays it.
As shown in FIG. 12, when the intraoral camera is moved like A411, A412, and A413 and the intraoral area is imaged, the imaging unit A31 outputs an image corresponding to each posture. When the camera rotates around the y axis, the image is taken upside down and an image corresponding to the shooting state is output.

位置検出手段A34は、位置センサA25a、A25b(例えばジャイロセンサーの場合)からそれぞれ、x軸、y軸、z軸周りでの角速度を検出し、この角速度からx軸周りの角度の変化量(Δθyz)、y軸周りの角度の変化量(Δθxz)、及びz軸周りの角度の変化量(Δθxy)を検出する。
これらの変化量を画像補整手段A32へ出力する。画像補整手段A32は、撮影手段A31から入力された画像データと、位置検出手段34から出力された位置情報に基づいて、例えば、角度の変化量に基づいて画像を回転させて、最初の画像の状態に戻す。
従って、画像表示手段A33は、同じ口腔内対象物をカメラを回転させて動画、静止画で撮影しても、画像は、常に最初の設定状態のままで表示内容画像が変化する表示をすることができる。
The position detection means A34 detects angular velocities around the x-axis, y-axis, and z-axis from the position sensors A25a and A25b (for example, in the case of a gyro sensor), and the amount of change in angle around the x-axis (Δθyz) from this angular velocity. ), An angle change amount around the y-axis (Δθxz), and an angle change amount around the z-axis (Δθxy).
These changes are output to the image correction means A32. The image correction unit A32 rotates the image based on, for example, the amount of change in angle based on the image data input from the imaging unit A31 and the position information output from the position detection unit 34, and the first image Return to the state.
Therefore, even if the image display means A33 rotates the camera and shoots the same intraoral object as a moving image or a still image, the image is always displayed in the initial setting state and the display content image is changed. Can do.

歯肉と歯の境界検出手段

本発明は、歯と歯肉の境界を明確に設定検出可能とするための構成を含む。
口腔内カメラの画像は、暗く狭い空間を照明をあてながら撮影する箇所が多いため、例えば、図1、図3で示すコンピュータ画像処理によるパノラマ画像を形成する手段として、画像間の共通部分を検出する場合や、患者への歯科治療の説明を行う場合等は、歯肉と歯の境など、近似的な色合や唾液の影響等のため、識別困難な場合がある。
そこで、実画像の歯の輪郭を抽出する輪郭抽出手段、と実画像を成分色に変換して、歯及び歯肉の形状を明確にする色成分画像変換手段、前記色成分画像変換手段で変換された画像と、輪郭抽出画像を合成した合成画像形成手段からなる組み合わせ構成により歯と歯肉の輪郭を歯の汚れや、照明が十分でない場所でも、抽出可能とした。
輪郭抽出手段は、例えば位相限定相関法で用いられる画像に対し2次元フーリエ変換を行う手段と、当該フーリエ変換後、画像の濃淡の変化を示す周波数領域における位相信号のみを検出して逆フーリエ変換を行う手段で構成される。その他、Z変換系、ラプラス変換系の利用も可能な場合がある。
Gingival-tooth boundary detection means

The present invention includes a configuration for making it possible to clearly set and detect the boundary between teeth and gums.
Since many images of intraoral camera images are taken while illuminating a dark and narrow space, for example, as a means for forming a panoramic image by computer image processing shown in FIGS. 1 and 3, a common part between images is detected. When it is performed or when a dental treatment is explained to a patient, it may be difficult to identify due to an approximate color such as the gingival-tooth boundary or the influence of saliva.
Therefore, the contour extraction means for extracting the tooth contour of the real image, the color component image conversion means for converting the real image into component colors and clarifying the shape of the teeth and gums, and the color component image conversion means. The combination of the image and the synthetic image forming means that combines the contour extraction image enables the tooth and gingival contours to be extracted even in places where the teeth are dirty or where illumination is insufficient.
The contour extraction means includes, for example, a means for performing a two-dimensional Fourier transform on an image used in the phase-only correlation method, and an inverse Fourier transform by detecting only a phase signal in a frequency domain indicating a change in light and shade of the image after the Fourier transform. It is comprised by the means to perform. In addition, a Z conversion system or a Laplace conversion system may be used.

色成分画像変換手段は、例えば、RGB表色系、La*b*表色系、HSV表色系、XYZ表色系、xyY表色系、L*u*v*表色系、マンセル表色系、オストワルト表色系、NCS (Natural Color System) 、DIN表色系等の表色系で示される成分色に分解した画像を形成し、この中から、形状が明確に見える成分色を選択して、その成分色に基づいた画像を形成する手段、又は表色系を問わずその成分色を合成して、より形状が明確に見える成分色を形成して当該成分色に基づく画像を形成する手段である。当該選択は、予め口腔内画像にたいして適した成分色を測定して決定することが好ましいが、例えば La*b*表色系、のL成分画像、a*成分画像、又はb*成分画像のいずれか1つと、HSV表色系のH(色相(Hue))成分画像、S(彩度(Saturation・Chroma))成分画像、V(明度(Brightness・Lightness・Value))成分画像、のいずれか1つとを組み合わせて合成することが示され、異なる表色系の成分色同士の合成が好ましい場合がある。成分色の選択又は組み合わせ合成は、形状が明確に見える成分色への変換又は、複数成分色の合成をおこなうものであれば良い。   The color component image conversion means includes, for example, RGB color system, La * b * color system, HSV color system, XYZ color system, xyY color system, L * u * v * color system, Munsell color system Image, Ostwald color system, NCS (Natural Color System), DIN color system, etc. Thus, regardless of the means for forming an image based on the component color, or by combining the component colors regardless of the color system, a component color that has a clearer shape is formed to form an image based on the component color. Means. The selection is preferably determined in advance by measuring a component color suitable for an intraoral image. For example, any one of an L component image, an a * component image, or a b * component image of the La * b * color system Any one of the H (Hue) component image, S (Saturation / Chroma) component image, and V (Brightness / Lightness / Value) component image of the HSV color system In other words, it may be preferable to combine component colors of different color systems. Component color selection or combination synthesis may be performed as long as conversion to a component color in which the shape is clearly seen or synthesis of a plurality of component colors is performed.

尚、成分画像とは、成分を強調する画像を例えばプログラム上の成分値を示す数値を調整して得られたもの等を含むものである。
又、形状が明確に認識可能な成分画像を選択する他に、人がよりその境界を認識できる色の組み合わせを用いて着色する。例えばR(赤色)成分画像を歯肉に適用し、G(緑色)成分画像を歯に適用することが示される。
又、ここで示す成分色とは、画像から検出したものだけではなく、境界を明確にする色を用いて新たに着色しても良い場合もある。
そして、合成画像形成手段は、前記輪郭抽出手段で得られた輪郭画像と、色成分画像変換手段で得られた画像を、例えばクロマキー手法のように、輪郭画像の輪郭部分以外を同色系として、色成分画像を透過する等して合成する。又、当該合成後、色成分画像を更に強調するため、人が目視的、又は機械的に、より境界がより区別されるべく歯肉部を赤色系に変色又は濃く強調させ、歯を緑色に変色又は濃く強調させたりする手段を用いても良い。尚、色成分によっては、歯肉色を赤色に、歯色を緑色に変換するものがあれば、その色成分画像に変換してもよい。これらの手段は、いずれもコンピュータソフトウェアにより実現されることが好ましいが、ゲートアレイ、PLD (Programmable Logic Device)等のカスタム、セミカスタムICによって構成される場合もある。
The component image includes an image that emphasizes a component, for example, obtained by adjusting a numerical value indicating a component value on a program.
In addition to selecting a component image whose shape is clearly recognizable, it is colored using a combination of colors that allows a person to recognize the boundary more. For example, it is shown that an R (red) component image is applied to the gingiva and a G (green) component image is applied to the tooth.
The component colors shown here are not limited to those detected from the image, but may be newly colored using a color that makes the boundary clear.
Then, the composite image forming unit uses the contour image obtained by the contour extraction unit and the image obtained by the color component image conversion unit as the same color system except for the contour part of the contour image, for example, as in the chroma key method. The color component image is synthesized by being transmitted. In addition, after the synthesis, in order to further enhance the color component image, the gingiva is changed to a red color or deeply emphasized so that the boundary can be further visually or mechanically distinguished, and the teeth are changed to green. Alternatively, a means for emphasizing the image may be used. Depending on the color component, if there is one that converts the gingival color to red and the tooth color to green, the color component image may be converted. All of these means are preferably realized by computer software, but may be configured by a custom or semi-custom IC such as a gate array or a PLD (Programmable Logic Device).

次に図13で示す実施例について説明する。
2901は、画像入力手段であり、例えば口腔内カメラで撮影された静止画像を入力する手段である。画像入力手段で入力された静止画画像は、フィルタ手段2102に出力される。2902は、フィルタ手段であり、アンシャープフィルタなどのエッジ強調フィルタで示されるが、その他、画像の濃淡を強調するフィルタを用いてもよい場合がある。
フィルタ手段2902でフィルタ処理が行われた画像は、輪郭抽出手段2903及び成分色画像変換手段2904へ出力される。
2903は、輪郭抽出手段であり、2次元フーリエ変換手段、位相信号検出手段、及び逆フーリエ変換手段よりなるが、これらの手段は、open−CV(インテル社製)のようなソフトウェアライブラリ中にあるプログラムモジュールを組み合わせて実行するものが例示される。
2904は、成分色画像変換手段であり、上述した様に、La*b*表色系、HSV表色系のa*成分色やb*成分色、H成分色S成分色V成分色に変換した画像を形成する手段と、これら成分色を合成する成分色合成手段からなり、色合いが変化するが、歯及び歯肉の形状が明確な画像が形成される。更に、この色合いの変化により、歯の汚れ、虫歯の発見も可能となる場合がある。
Next, the embodiment shown in FIG. 13 will be described.
Reference numeral 2901 denotes an image input means for inputting a still image taken by an intraoral camera, for example. The still image image input by the image input unit is output to the filter unit 2102. Reference numeral 2902 denotes a filter means, which is indicated by an edge enhancement filter such as an unsharp filter. In addition, there may be a case where a filter for enhancing the density of an image may be used.
The image subjected to the filter processing by the filter unit 2902 is output to the contour extraction unit 2903 and the component color image conversion unit 2904.
2903 is a contour extraction means, which comprises a two-dimensional Fourier transform means, a phase signal detection means, and an inverse Fourier transform means. These means are in a software library such as open-CV (manufactured by Intel). An example of executing a combination of program modules is illustrated.
Reference numeral 2904 denotes component color image conversion means for converting into La * b * color system, HSV color system a * component color, b * component color, H component color S component color V component color as described above. Image forming means and component color synthesizing means for synthesizing these component colors. Although the hue changes, an image with clear shapes of teeth and gums is formed. In addition, this change in hue may make it possible to discover tooth stains and decayed teeth.

輪郭抽出手段2903で得られた輪郭画像と、成分色画像変換手段2904で成分色画像に変換された画像は、合成表示手段2905へ出力される。
2905は、合成表示手段であり、輪郭抽出手段2903の出力した輪郭画像と、成分色画像変換手段の出力成分色画像を合成する。 この合成は、例えば、輪郭画像の輪郭以外を同系色化し、この同系色を透明化して、背景映像となる成分色画像と合成するものである。合成された画像は、コンピュータモニター上に表示される。
これら一連の合成処理により歯肉と歯の境界が鮮明な画像を得ることができる場合がある。又、図5で示す左右の歯列をマークMLがおおよそ画像の中心にくる画像同士(例えば画像906eと画像301c)を合成又は結合する際の目安として例えば中心の2つの歯の境界KLを検出する際、本実施例は好適に用いられる。又、フーリエ変換により位相信号を検出して得られる輪郭画像と実画像をそのまま合成してもよい。また成分色画像のみを用いても形状が明確になる画像が得られることから、成分色画像検出手段で得られた画像のみでも歯肉と歯の境界が明確になる画像が得られる。このような歯と歯肉の境界が明確になった画像は、各種合成作業用の目印として利用されたり、患者への説明用、歯科治療用に用いることができる。
The contour image obtained by the contour extraction unit 2903 and the image converted into the component color image by the component color image conversion unit 2904 are output to the composite display unit 2905.
Reference numeral 2905 denotes synthesis display means for synthesizing the contour image output from the contour extraction means 2903 and the output component color image of the component color image conversion means. In this synthesis, for example, colors other than the contour of the contour image are made similar colors, the similar colors are made transparent, and synthesized with the component color image that becomes the background image. The synthesized image is displayed on a computer monitor.
In some cases, an image with a clear boundary between the gingiva and the tooth can be obtained by a series of these synthesis processes. Further, for example, the boundary KL between the two teeth at the center is detected as a guide when combining or combining the images in which the mark ML is approximately in the center of the image (for example, the image 906e and the image 301c). In this case, this embodiment is preferably used. Further, the contour image obtained by detecting the phase signal by Fourier transform and the actual image may be synthesized as they are. In addition, since an image with a clear shape can be obtained using only the component color image, an image with a clear boundary between the gingiva and the tooth can be obtained only with the image obtained by the component color image detection means. Such an image in which the boundary between teeth and gingiva is clear can be used as a mark for various synthesis operations, or used for explanation to a patient and for dental treatment.

本発明は、歯科診療における口腔内健全化を図るべく、患者に口腔内情報を見やすい形式で提供することで、患者の口腔内情報を新たにすることができる歯科システムを提案するものであり、歯科医療分野において有効に利用される。   The present invention proposes a dental system that can renew patient's intraoral information by providing the patient with easy-to-see intraoral information in order to achieve oral health in dental practice, It is effectively used in the field of dentistry.

101 口腔内カメラ
102 反射鏡
103 反射鏡ユニット
104 本体
105 撮影ユニット
ML マーク
IG 補正用表示部
RM 輪郭
101 Intraoral camera 102 Reflector 103 Reflector unit 104 Main body 105 Imaging unit ML Mark IG Correction display unit RM Outline

Claims (4)

歯列の側面を連写撮影して画像列を形成する連写画像列形成手段、前記連写画像列形成手段で形成された画像列を部分的な歯列画像として全体合成の中心となる画像から合成して複数の部分歯列画像を形成する側面歯列画像形成手段、前記側面歯列画像形成手段で形成された複数の部分歯列画像間で全体合成の中心となる画像に基づいて連結合成して全体の歯列を形成する側面歯列画像合成手段よりなる口腔内撮影表示システム。 Continuous image sequence forming means for continuously capturing images of the side surfaces of the dentition to form an image sequence, and an image that forms the center of the overall synthesis using the image sequence formed by the continuous image sequence forming means as a partial dentition image A side dentition image forming unit that forms a plurality of partial dentition images by combining them from each other, and a plurality of partial dentition images formed by the side dentition image formation unit are connected based on an image that is the center of overall synthesis An intraoral radiographing display system comprising a side dentition image synthesizing unit that synthesizes and forms an entire dentition. 歯列上の所定の位置に撮影画像上認識可能なマークを設定するマーク設定手段、歯列の一方の側面及び他方の側面について連写画像列を形成する連写画像列形成手段、前記一方の側面の連写画像列及び前記他方の側面の連写画像列のそれぞれについて、マークが所定の位置にくる画像から合成することで、一方の側面歯列画像及び他方の側面歯列画像をそれぞれ形成する側面歯列画像形成手段、
前記一方の側面歯列画像と前記他方の側面歯列画像を、前記マークが所定の位置にある静止画像中の歯列上の特徴部位に基づいて連結合成する側面歯列画像合成手段を具備する請求項1に記載の口腔内撮影表示システム。
Mark setting means for setting a recognizable mark on a photographed image at a predetermined position on the dentition, continuous image sequence forming means for forming a continuous image sequence on one side and the other side of the dentition, For each of the continuous image sequence on the side surface and the continuous image sequence on the other side surface, the one side dentition image and the other side dentition image are formed by synthesizing from the image where the mark is in a predetermined position. Side dentition image forming means,
Side dentition image synthesizing means for linking and synthesizing the one side dentition image and the other side dentition image based on a characteristic part on the dentition in the still image in which the mark is in a predetermined position. The intraoral imaging display system according to claim 1.
前記側面歯列画像に対応する歯のX線画像を表示するX線画像表示手段、前記側面歯列画像に対応する歯の仮想矯正又は仮想審美着色した歯列を表示する仮想歯列表示手段を有する請求項1に記載の口腔内撮影表示システム。   X-ray image display means for displaying an X-ray image of a tooth corresponding to the side surface dentition image; virtual dentition display means for displaying a tooth dentition corresponding to the side surface dentition image; The intraoral imaging display system according to claim 1. 前記口腔内を画像化する手持ち型の撮影手段、前記撮影手段には、撮影部位を指示する照明光を照射する照射手段を具備する請求項1に記載の口腔内撮影表示システム。   The intraoral radiography display system according to claim 1, wherein the handheld radiographing unit that images the intraoral area, and the radiographing unit includes an irradiation unit that irradiates illumination light that indicates an imaging region.
JP2012002553A 2011-01-11 2012-01-10 Intraoral radiography display system Expired - Fee Related JP5651132B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2012002553A JP5651132B2 (en) 2011-01-11 2012-01-10 Intraoral radiography display system

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2011015764 2011-01-11
JP2011015764 2011-01-11
JP2012002553A JP5651132B2 (en) 2011-01-11 2012-01-10 Intraoral radiography display system

Publications (3)

Publication Number Publication Date
JP2012157692A true JP2012157692A (en) 2012-08-23
JP2012157692A5 JP2012157692A5 (en) 2013-10-10
JP5651132B2 JP5651132B2 (en) 2015-01-07

Family

ID=46838721

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012002553A Expired - Fee Related JP5651132B2 (en) 2011-01-11 2012-01-10 Intraoral radiography display system

Country Status (1)

Country Link
JP (1) JP5651132B2 (en)

Cited By (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2016047739A1 (en) * 2014-09-26 2016-03-31 株式会社ジーシー Device for measuring three-dimensional shape of inside of oral cavity
EP3100699A1 (en) * 2014-12-05 2016-12-07 Dio Corporation Method for manufacturing a surgical guide, and a crown and an abutment
JP2017020930A (en) * 2015-07-13 2017-01-26 株式会社モリタ製作所 Intraoral three-dimensional measuring device, intraoral three-dimensional measuring method, and method for displaying intraoral three-dimensional measuring result
JP2017513597A (en) * 2014-04-23 2017-06-01 シロナ・デンタル・システムズ・ゲゼルシャフト・ミット・ベシュレンクテル・ハフツング Method for performing optical three-dimensional imaging
JP2017525411A (en) * 2014-06-25 2017-09-07 ケアストリーム ヘルス インク Intraoral imaging using an operator interface with gesture recognition
JP2017202301A (en) * 2016-05-10 2017-11-16 正樹 神原 Gingivitis diagnosis assistance device and gingivitis diagnosis assistance system
WO2017195820A1 (en) * 2016-05-10 2017-11-16 正樹 神原 Gingivitis diagnosis assistance device and gingivitis diagnosis assistance system
JP2019517864A (en) * 2016-05-26 2019-06-27 デンタル スマートミラー, インコーポレイテッド Dental mirror with integrated camera and its application
CN111145876A (en) * 2019-12-27 2020-05-12 四川大学 Dental picture arrangement method, system, equipment and storage medium
JP2020537550A (en) * 2017-08-17 2020-12-24 トロフィー Stencil for intraoral surface scanning
KR20210080871A (en) * 2019-12-23 2021-07-01 오스템임플란트 주식회사 Method and Apparatus for Generating Tooth Model from Video Taken by Oral Scanner
CN115005860A (en) * 2022-08-03 2022-09-06 有方(合肥)医疗科技有限公司 Method and device for reducing oral and maxillofacial CBCT imaging motion artifacts
WO2023157803A1 (en) * 2022-02-17 2023-08-24 パナソニックIpマネジメント株式会社 Intraoral camera system and signal processing method

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2019004573A1 (en) * 2017-06-27 2019-01-03 주식회사 디오 Reference marker attached in oral cavity and image processing method using same
KR102091081B1 (en) * 2017-06-27 2020-03-19 주식회사 디오 Reference marker for being attached to intraoral

Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001204750A (en) * 2000-01-27 2001-07-31 Matsushita Electric Ind Co Ltd Oral cavity image pickup device
JP2001333898A (en) * 2000-05-26 2001-12-04 Morita Mfg Co Ltd Method of displaying x-ray image including dental, gnathic, and facial area, displaying device, and storing medium with stored program to carry out displaying method
JP2003264733A (en) * 2002-01-28 2003-09-19 Hewlett Packard Co <Hp> Alignment of images for stitching
JP2008077628A (en) * 2006-08-21 2008-04-03 Sanyo Electric Co Ltd Image processor and vehicle surrounding visual field support device and method
JP2008125719A (en) * 2006-11-20 2008-06-05 Shimadzu Corp Examination clothes for subject
JP2008132336A (en) * 2006-11-28 2008-06-12 Degudent Gmbh Method for producing dental restoration
JP2008537494A (en) * 2005-03-03 2008-09-18 カデント・リミテッド Oral scanning system and method
JP4287646B2 (en) * 2002-12-26 2009-07-01 株式会社ミツトヨ Image reading device
JP2010214055A (en) * 2009-03-19 2010-09-30 South Coast Dental Kk Time-sequential display device of tooth color and method thereof

Patent Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001204750A (en) * 2000-01-27 2001-07-31 Matsushita Electric Ind Co Ltd Oral cavity image pickup device
JP2001333898A (en) * 2000-05-26 2001-12-04 Morita Mfg Co Ltd Method of displaying x-ray image including dental, gnathic, and facial area, displaying device, and storing medium with stored program to carry out displaying method
JP2003264733A (en) * 2002-01-28 2003-09-19 Hewlett Packard Co <Hp> Alignment of images for stitching
JP4287646B2 (en) * 2002-12-26 2009-07-01 株式会社ミツトヨ Image reading device
JP2008537494A (en) * 2005-03-03 2008-09-18 カデント・リミテッド Oral scanning system and method
JP2008077628A (en) * 2006-08-21 2008-04-03 Sanyo Electric Co Ltd Image processor and vehicle surrounding visual field support device and method
JP2008125719A (en) * 2006-11-20 2008-06-05 Shimadzu Corp Examination clothes for subject
JP2008132336A (en) * 2006-11-28 2008-06-12 Degudent Gmbh Method for producing dental restoration
JP2010214055A (en) * 2009-03-19 2010-09-30 South Coast Dental Kk Time-sequential display device of tooth color and method thereof

Cited By (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11109947B2 (en) 2014-04-23 2021-09-07 Dentsply Sirona Inc. Method for performing an optical three-dimensional recording
JP2017513597A (en) * 2014-04-23 2017-06-01 シロナ・デンタル・システムズ・ゲゼルシャフト・ミット・ベシュレンクテル・ハフツング Method for performing optical three-dimensional imaging
JP2017525411A (en) * 2014-06-25 2017-09-07 ケアストリーム ヘルス インク Intraoral imaging using an operator interface with gesture recognition
WO2016047739A1 (en) * 2014-09-26 2016-03-31 株式会社ジーシー Device for measuring three-dimensional shape of inside of oral cavity
JPWO2016047739A1 (en) * 2014-09-26 2017-04-27 株式会社ジーシー Intraoral 3D shape measuring device
EP3100699A1 (en) * 2014-12-05 2016-12-07 Dio Corporation Method for manufacturing a surgical guide, and a crown and an abutment
JP2017020930A (en) * 2015-07-13 2017-01-26 株式会社モリタ製作所 Intraoral three-dimensional measuring device, intraoral three-dimensional measuring method, and method for displaying intraoral three-dimensional measuring result
WO2017195820A1 (en) * 2016-05-10 2017-11-16 正樹 神原 Gingivitis diagnosis assistance device and gingivitis diagnosis assistance system
JP2017202301A (en) * 2016-05-10 2017-11-16 正樹 神原 Gingivitis diagnosis assistance device and gingivitis diagnosis assistance system
JP2019517864A (en) * 2016-05-26 2019-06-27 デンタル スマートミラー, インコーポレイテッド Dental mirror with integrated camera and its application
JP2020537550A (en) * 2017-08-17 2020-12-24 トロフィー Stencil for intraoral surface scanning
KR20210080871A (en) * 2019-12-23 2021-07-01 오스템임플란트 주식회사 Method and Apparatus for Generating Tooth Model from Video Taken by Oral Scanner
KR102358625B1 (en) * 2019-12-23 2022-02-07 오스템임플란트 주식회사 Method and Apparatus for Generating Tooth Model from Video Taken by Oral Scanner
CN111145876B (en) * 2019-12-27 2023-12-29 成都牙讯科技有限公司 Dental picture arrangement method, system, equipment and storage medium
CN111145876A (en) * 2019-12-27 2020-05-12 四川大学 Dental picture arrangement method, system, equipment and storage medium
WO2023157803A1 (en) * 2022-02-17 2023-08-24 パナソニックIpマネジメント株式会社 Intraoral camera system and signal processing method
CN115005860A (en) * 2022-08-03 2022-09-06 有方(合肥)医疗科技有限公司 Method and device for reducing oral and maxillofacial CBCT imaging motion artifacts
CN115005860B (en) * 2022-08-03 2022-11-15 有方(合肥)医疗科技有限公司 Method and device for reducing oral and maxillofacial CBCT imaging motion artifacts

Also Published As

Publication number Publication date
JP5651132B2 (en) 2015-01-07

Similar Documents

Publication Publication Date Title
JP5651132B2 (en) Intraoral radiography display system
US11419707B2 (en) Digital dental tray for 3D model generation
JP6904901B2 (en) Visualizer for the patient&#39;s mouth
JP6905540B2 (en) Dental mirror with integrated camera and its applications
CN109922754B (en) Method and apparatus for dental images
US10687917B2 (en) Using immersive photographs to guide placement of orthodontic brackets, and applications thereof
JP6223331B2 (en) Three-dimensional measuring device used in the dental field
ES2724115T3 (en) Graphical user interface for computer-assisted margin marking on dentures
CN108024832A (en) Projection mapping device
WO2009089125A2 (en) Navigating among images of an object in 3d space
Hardan et al. Mobile dental photography: a simple technique for documentation and communication
JP4287646B2 (en) Image reading device
JP2022132256A (en) Intraoral image capturing apparatus and dental diagnosis support system
WO2017205294A1 (en) A dental mirror with an integrated camera, and applications thereof
TWI524873B (en) Intraocular photography display system
KR101485359B1 (en) Three face scanner for capturing tooth shape
JP2017221329A (en) Method for matching organic lower jaw opening/closing axis with virtual articulator opening/closing axis using two-dimensional image
KR101001678B1 (en) Method for acquiring 3-dimensional dentition image
RU2610911C1 (en) System and method of virtual smile prototyping based on tactile computer device
Ahmad Standardization for Dental Photography--PART 2.
JP6774365B2 (en) Tip member that can be attached to and detached from the image pickup device and the housing of the image pickup device.
EP4368144A1 (en) 3d scanner system for providing feedback
KR20190110246A (en) Intra-Oral Scanner
WO2023157842A1 (en) Intraoral camera, illumination control device, and illumination control method
EP4368145A1 (en) 3d scanner system for providing feedback

Legal Events

Date Code Title Description
A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20130820

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20130820

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20140926

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20141002

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20141010

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20141028

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20141114

R150 Certificate of patent or registration of utility model

Ref document number: 5651132

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees