JP2013117451A - Position attitude estimation mark and position attitude estimation device using the same - Google Patents

Position attitude estimation mark and position attitude estimation device using the same Download PDF

Info

Publication number
JP2013117451A
JP2013117451A JP2011265338A JP2011265338A JP2013117451A JP 2013117451 A JP2013117451 A JP 2013117451A JP 2011265338 A JP2011265338 A JP 2011265338A JP 2011265338 A JP2011265338 A JP 2011265338A JP 2013117451 A JP2013117451 A JP 2013117451A
Authority
JP
Japan
Prior art keywords
mark
orientation
marker
extracted
estimation
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2011265338A
Other languages
Japanese (ja)
Inventor
Megumi Kuroiwa
惠 黒岩
Seiji Ishikawa
聖二 石川
Yu Kui Tan
ジュークイ タン
Kyosho Kim
亨燮 金
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
EMU KOBO KK
Original Assignee
EMU KOBO KK
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by EMU KOBO KK filed Critical EMU KOBO KK
Priority to JP2011265338A priority Critical patent/JP2013117451A/en
Publication of JP2013117451A publication Critical patent/JP2013117451A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Instructional Devices (AREA)
  • Length Measuring Devices By Optical Means (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide a position attitude estimation mark for suppressing configuration from becoming complicate, and for estimating the position and attitude of an object, and a position attitude estimation device using the same.SOLUTION: A position attitude estimation device 10 includes: a camera 13 for imaging a space including a marker 33; and a PC 14 for estimating the relative position and attitude of the marker 33 to the camera 13 on the basis of a photographic image photographed via the camera 13. A mark consisting of a polygon having four or more vertexes is attached to a predetermined face among faces constituting the marker 33. The PC 14 performs mark extraction determination of determining whether or not the mark has been extracted from the photographic image. Also, when determining that the mark has been extracted, the PC 14 performs position coordinate estimation processing of estimating the relative position and attitude of the mark 33 to the camera 13 on the basis of the position coordinates of each of the vertexes constituting the mark.

Description

本発明は、位置姿勢推定マーク、およびこれを用いた位置姿勢推定装置に関するものである。   The present invention relates to a position / orientation estimation mark and a position / orientation estimation apparatus using the same.

従来、カメラなどの撮像装置を用いて被写体を撮像し、この被写体の実空間における位置および姿勢を推定する装置が提供されている。
このような装置としては、例えば、特許文献1に記載の装置がある。この装置では、まず、マーカーを付した被写体を含む実空間を、予め定められた場所に配設した複数の撮像装置で撮像する。そして、各撮影画像におけるマーカーの位置座標の違いに基づいて、当該マーカーの位置および姿勢を推定するようにしている。このようにマーカーの位置および姿勢を推定することで、被写体の位置および姿勢を推定することができる。
2. Description of the Related Art Conventionally, there has been provided an apparatus for imaging a subject using an imaging device such as a camera and estimating the position and orientation of the subject in real space.
As such an apparatus, there is an apparatus described in Patent Document 1, for example. In this device, first, a real space including a subject with a marker is imaged by a plurality of imaging devices arranged at predetermined locations. Then, the position and orientation of the marker are estimated based on the difference in the position coordinates of the marker in each captured image. By estimating the position and orientation of the marker in this way, the position and orientation of the subject can be estimated.

特開2000−298427号公報JP 2000-298427 A

ところで、撮像装置によって撮像される撮影画像には、多くの場合、被写体やマーカーとともに、これら被写体やマーカー以外のものも撮像される。例えば、特許文献1に記載の発明では、歯列模型が固定される人体頭部模型やテーブル等が、対象物とともに撮像される。このため、マーカーを適切に抽出することが困難であったり、マーカー以外のものを誤ってマーカーと認識してしまうおそれがある。   By the way, in many cases, the captured image captured by the imaging device captures images of objects other than these subjects and markers as well as the subjects and markers. For example, in the invention described in Patent Document 1, a human head model, a table, and the like to which a dental model is fixed are imaged together with an object. For this reason, there is a possibility that it is difficult to appropriately extract the marker, or that other than the marker is erroneously recognized as the marker.

上述した特許文献1では、対象物に複数の球状のマーカーを所定の形状をなすように取り付けており、撮影画像においてこれらマーカーを適切に抽出するために、マーカーに固有の色を着色したり、固有の色を発色するランプ等を使用している。しかしながら、このような構成を採用すると、位置姿勢推定装置の構成が複雑なものとなってしまう。   In Patent Document 1 described above, a plurality of spherical markers are attached to an object so as to form a predetermined shape, and in order to appropriately extract these markers in a captured image, a color unique to the markers is colored, Lamps that produce unique colors are used. However, when such a configuration is adopted, the configuration of the position / orientation estimation apparatus becomes complicated.

これに対して、マーカーの構成を単純化すると、マーカーを撮影画像から適切に抽出することは、非常に困難なものとなってしまう。   On the other hand, when the marker configuration is simplified, it is very difficult to appropriately extract the marker from the captured image.

本発明は、上記従来技術の問題を解決するためになされたものであって、構成が複雑なものとなることを抑制するとともに、対象物の位置および姿勢を推定することができる位置姿勢推定マーク、およびこれを用いた位置姿勢推定装置を提供することを課題とする。   The present invention has been made to solve the above-described problems of the prior art, and suppresses the complexity of the configuration and can estimate the position and orientation of an object. And a position and orientation estimation apparatus using the same.

本発明の第一態様は、上記課題を解決するためになされたものであり、対象物を含む空間を撮像する撮像手段と、前記撮像手段を通じて撮像される撮影画像に基づいて、前記対象物の前記撮像手段に対する相対的な位置および姿勢を推定する推定手段とを備える位置姿勢推定装置であって、前記対象物は、当該対象物を構成する面のうち予め定められた面に、四箇所以上の角部を備える図形からなるマークが設定されるものであり、前記推定手段は、前記撮影画像から前記図形からなるマークを抽出したか否かを判定するマーク抽出判定を行うべく構成されており、前記図形からなるマークを抽出したと判定したときに、前記マークを構成する各角部の位置座標に基づいて前記対象物の前記撮像手段に対する相対的な位置および姿勢を推定する推定処理を行うことを特徴としている。   A first aspect of the present invention is made to solve the above-described problem, and is based on an imaging unit that images a space including an object, and a captured image that is captured through the imaging unit. A position / orientation estimation apparatus including an estimation unit that estimates a relative position and orientation with respect to the imaging unit, wherein the object has four or more positions on a predetermined surface among the surfaces constituting the object. A mark composed of a figure having a corner is set, and the estimating means is configured to perform mark extraction determination for determining whether or not the mark composed of the figure is extracted from the photographed image. When it is determined that the mark made of the graphic has been extracted, the relative position and orientation of the object with respect to the imaging means are estimated based on the position coordinates of the corners constituting the mark. It is characterized by performing the estimation process.

同構成では、対象物の撮像手段に対する相対的な位置および姿勢を推定するためのマークを、四箇所以上の角部を備える図形とし、この図形を抽出したことをもって推定処理を行うようにしている。このようにマークの形状をマーク以外のものの形状と混同し難い四箇所以上の角部を備える図形としたため、マーク以外のものを誤ってマークを構成するものであると判定し、これに基づいて推定処理を行ってしまうことを抑制することができる。したがって、対象物の位置および姿勢を推定することができなくなったり、誤って推定してしまうことを抑制することができるようになる。   In this configuration, the mark for estimating the relative position and orientation of the object with respect to the imaging means is a figure having four or more corners, and the estimation process is performed by extracting the figure. . In this way, the shape of the mark is a figure having four or more corners that are not easily confused with the shape of the object other than the mark, so it is determined that the object other than the mark erroneously constitutes the mark. It can suppress performing an estimation process. Therefore, it becomes possible to prevent the position and orientation of the object from being estimated or erroneously estimated.

本発明の第二態様は、第一態様にかかる位置姿勢推定装置であって、前記推定手段は、前記撮影画像から前記マークを構成する複数の線分を抽出し、前記抽出した各線分を端部と中央部分とにそれぞれ区画して、前記中央部分の画像上の位置に基づいて前記各線分同士の交点を算出し、前記各線分同士の交点を前記角部の画像上の位置とすることを特徴としている。   A second aspect of the present invention is the position / orientation estimation apparatus according to the first aspect, wherein the estimation means extracts a plurality of line segments constituting the mark from the photographed image, and ends the extracted line segments. Dividing each part into a center part and a center part, calculating the intersection of the line segments based on the position of the center part on the image, and setting the intersection of the line segments as the position on the corner image It is characterized by.

マークを抽出する際、角部の画像上の位置は誤差が大きくなることが多い。この点、同構成によれば、各線分の中央部分に基づいて角部の位置座標を算出するようにしているため、角部の画像上の位置を抽出する際に誤差が発生することを抑制することができる。   When extracting a mark, the error of the position of the corner on the image often increases. In this respect, according to the same configuration, since the position coordinates of the corners are calculated based on the center part of each line segment, it is possible to suppress occurrence of errors when extracting the positions of the corners on the image. can do.

本発明の第三態様は、第一態様または第二態様にかかる位置姿勢推定装置であって、前記対象物は多面体からなるものであり、前記マークは前記対象物の少なくとも二面に設定されていることを特徴としている。   A third aspect of the present invention is the position / orientation estimation apparatus according to the first aspect or the second aspect, wherein the object is a polyhedron, and the mark is set on at least two surfaces of the object. It is characterized by being.

対象物が撮像手段に対して傾斜している場合など、マークを付された面以外の面が撮像手段を通じて撮像されることがある。このような場合、推定手段はマークを適切に抽出することが困難となる。この点、同構成によれば、マークは対象物の少なくとも二面に設定されているため、マークが撮像手段に撮像され難くなったり、撮像されなくなることを抑制することができるようになる。   A surface other than the marked surface may be imaged through the imaging means, such as when the object is inclined with respect to the imaging means. In such a case, it is difficult for the estimation means to appropriately extract the mark. In this regard, according to the same configuration, since the mark is set on at least two surfaces of the object, it is possible to prevent the mark from being difficult to be imaged by the imaging unit or being unable to be imaged.

本発明の第四態様は、第一態様〜第三態様のいずれかにかかる位置姿勢推定装置であって、当該位置姿勢推定装置は、歯列模型を備える頭部模型と、歯科治療に用いる治療器具とを備える歯科実習装置に適用されるものであり、前記対象物は、前記治療器具に固定されていることを特徴としている。   A fourth aspect of the present invention is a position / orientation estimation apparatus according to any one of the first to third aspects, wherein the position / orientation estimation apparatus includes a head model including a dental model and a treatment used for dental treatment. The object is applied to a dental training apparatus including an instrument, and the object is fixed to the treatment instrument.

歯科実習においては、指導者が口腔内を直接視認することは困難であるため、実習者が治療器具を適切な位置および姿勢で歯列模型に当接させているか否かを指導者がリアルタイムで評価することは困難である。この点、同構成によれば、撮影画像に基づいて治療器具の位置および姿勢を明らかにすることができるため、実習者が適切な位置および姿勢で治療器具を歯列模型に当接させているか否かを指導者がリアルタイムに評価することができるようになる。   In dental practice, it is difficult for the instructor to directly view the inside of the oral cavity, so the instructor can check in real time whether the instructor is bringing the treatment device into contact with the dental model in an appropriate position and posture. It is difficult to evaluate. In this respect, according to the same configuration, since the position and posture of the treatment instrument can be clarified based on the photographed image, is the practitioner contacting the treatment instrument with the dentition model at an appropriate position and posture? The leader will be able to evaluate in real time whether or not.

本発明の第五態様は、第四態様にかかる位置姿勢推定装置であって、前記対象物は、前記歯列模型に固定されていることを特徴としている。   A fifth aspect of the present invention is the position / orientation estimation apparatus according to the fourth aspect, characterized in that the object is fixed to the dentition model.

歯科実習においては、実習中に歯列模型の位置および姿勢を変化させる場合がある。しかしながら、歯列模型の位置および姿勢が変化すると、治療器具と歯列模型との位置関係が変化するため、指導者が歯列模型と治療位置との関係を外部から視認することは困難なものとなってしまう。この点、同構成によれば、歯列模型の位置および姿勢をリアルタイムに明らかにすることができるため、実習中に歯列模型の位置および姿勢が変化しても、指導者は、歯列模型と治療装置との位置関係を視認ことができるようになる。   In dental practice, the position and posture of the dentition model may be changed during the practice. However, if the position and posture of the dentition model change, the positional relationship between the treatment instrument and the dentition model changes, so it is difficult for the instructor to visually recognize the relationship between the dentition model and the treatment position from the outside. End up. In this regard, according to the same configuration, since the position and posture of the dental model can be clarified in real time, even if the position and posture of the dental model changes during the practice, the instructor It becomes possible to visually recognize the positional relationship between the treatment device and the treatment device.

本発明の第六態様は、第四態様または第五態様にかかる位置姿勢推定装置であって、前記治療器具と前記歯列模型とをCG画像として表示することができることを特徴としている。   A sixth aspect of the present invention is a position / orientation estimation apparatus according to the fourth or fifth aspect, characterized in that the treatment instrument and the dentition model can be displayed as a CG image.

同構成によれば、指導者は歯列模型と治療器具との位置関係を容易に視認することができるようになる。   According to this configuration, the instructor can easily visually recognize the positional relationship between the dentition model and the treatment instrument.

本発明の第七態様は、対象物を含む空間を撮像する撮像手段と、前記撮像手段を通じて撮像される撮影画像に基づいて、前記対象物の前記撮像手段に対する相対的な位置および姿勢を推定する推定手段とを備える位置姿勢推定装置に適用されるマークであって、前記推定手段は、前記撮影画像から当該マークを抽出したか否かを判定するマーク抽出判定を行うべく構成されており、当該マークを抽出したと判定したときに、前記マークを構成する各角部の位置座標に基づいて前記対象物の前記撮像手段に対する相対的な位置および姿勢を推定する推定処理を行うものであり、当該マークは、当該対象物を構成する面のうち予め定められた面に付され、四箇所以上の角部を備える図形からなることを特徴としている。   According to a seventh aspect of the present invention, the relative position and orientation of the object with respect to the imaging unit are estimated based on an imaging unit that captures a space including the object and a captured image captured through the imaging unit. A mark applied to a position / orientation estimation apparatus including an estimation unit, wherein the estimation unit is configured to perform mark extraction determination to determine whether the mark is extracted from the captured image, When it is determined that the mark has been extracted, an estimation process is performed to estimate a relative position and orientation of the target object with respect to the imaging unit based on the position coordinates of each corner constituting the mark. The mark is attached to a predetermined surface among the surfaces constituting the object, and is characterized by a figure having four or more corners.

本発明によれば、構成が複雑なものとなることを抑制するとともに、対象物の位置および姿勢を推定することができる位置姿勢推定マーク、およびこれを用いた位置姿勢推定装置を提供することができる。   According to the present invention, it is possible to provide a position / orientation estimation mark that can suppress the complexity of the configuration and can estimate the position and orientation of an object, and a position / orientation estimation apparatus using the position / orientation estimation mark. it can.

(a)は、本発明の第一実施形態にかかる位置姿勢推定装置を適用した歯科実習装置の概略構成を示す全体図、(b)は、同実施形態にかかる歯列模型の概略構成を示す全体図。(A) is a general view showing a schematic configuration of a dental training apparatus to which the position / orientation estimation apparatus according to the first embodiment of the present invention is applied, and (b) shows a schematic configuration of a dental model according to the embodiment. Overall view. (a)および(b)は、同実施形態にかかるマーカーおよび治療器具の概略構成を示す斜視図。(A) And (b) is a perspective view which shows schematic structure of the marker and therapeutic device concerning the embodiment. 同実施形態にかかる処理全体の流れを示すフローチャート。The flowchart which shows the flow of the whole process concerning the embodiment. 同実施形態にかかる位置姿勢推定処理の処理手順を示すフローチャート。The flowchart which shows the process sequence of the position and orientation estimation process concerning the embodiment. (a)は、本発明の第二実施形態にかかる撮影画像に表示されたマークの全体図、(b)〜(d)は、マークの頂点を拡大して示す拡大図。(A) is the whole figure of the mark displayed on the picked-up image concerning 2nd embodiment of this invention, (b)-(d) is an enlarged view which expands and shows the vertex of a mark. 同実施形態にかかる処理全体の流れを示すフローチャート。The flowchart which shows the flow of the whole process concerning the embodiment. 同実施形態にかかる頂点座標算出処理の処理手順を示すフローチャート。The flowchart which shows the process sequence of the vertex coordinate calculation process concerning the embodiment. 本発明の第三実施形態にかかるマーカーおよび治療器具の概略構成を示す斜視図。The perspective view which shows schematic structure of the marker and treatment instrument concerning 3rd embodiment of this invention. (a)は、同実施形態にかかるカメラ、マーカーおよび治療器具の概略構成図、(b)は同実施形態にかかる撮影画像に表示されたマーカーの上面図。(A) is a schematic block diagram of the camera, marker, and therapeutic device concerning the embodiment, (b) is the top view of the marker displayed on the picked-up image concerning the embodiment. (a)は、本発明の第四実施形態にかかるマーカーの全体構成を示す斜視図、(b)〜(d)は、同実施形態にかかるマークの全体図。(A) is a perspective view which shows the whole structure of the marker concerning 4th embodiment of this invention, (b)-(d) is the whole figure of the mark concerning the embodiment. 同実施形態にかかる処理全体の流れを示すフローチャート。The flowchart which shows the flow of the whole process concerning the embodiment. 本発明の他の実施形態にかかるカメラ、歯列模型およびマーカーの概略構成を示す全体図。The whole figure which shows schematic structure of the camera concerning the other embodiment of this invention, a dentition model, and a marker. 本発明の他の実施形態にかかるマークの全体図。The whole figure of the mark concerning other embodiments of the present invention.

(第一実施形態)
以下、本発明を具体化した第一実施形態を図1〜図4に基づいて説明する。なお、本実施形態では、位置姿勢推定装置10を歯科実習装置50に適用した例について説明する。
まず、図1を参照しながら、本実施形態にかかる歯科実習装置50について説明する。
(First embodiment)
Hereinafter, a first embodiment of the present invention will be described with reference to FIGS. In the present embodiment, an example in which the position / orientation estimation apparatus 10 is applied to the dental training apparatus 50 will be described.
First, a dental training apparatus 50 according to the present embodiment will be described with reference to FIG.

同図1に示されるように、本実施形態にかかる歯科実習装置50は、実習者が着座する椅子51と、歯科治療台52と、位置姿勢推定装置10とを含んで構成されている。なお、椅子51と歯科治療台52とは、実習者の身長等に応じて鉛直方向に移動させることができる。歯科治療台52は、当該歯科治療台52の端部の鉛直方向上方まで延出する支柱53を含んで構成される。   As shown in FIG. 1, the dental training apparatus 50 according to the present embodiment includes a chair 51 on which a trainee is seated, a dental treatment table 52, and a position / orientation estimation apparatus 10. The chair 51 and the dental treatment table 52 can be moved in the vertical direction according to the height of the trainee. The dental treatment table 52 includes a support column 53 that extends to the upper side in the vertical direction at the end of the dental treatment table 52.

次に位置姿勢推定装置10について説明する。
同図1(a)に示されるように、本実施形態にかかる位置姿勢推定装置10は、頭部模型11と、頭部模型11に脱着可能な歯列模型12(図示せず)と、頭部模型11を撮像することができるカメラ13(本発明の「撮像手段」に相当)と、カメラ13に接続されるパーソナルコンピュータ(以下「PC」、本発明の「推定手段」に相当)14と、治療器具31とを含んで構成される。
Next, the position / orientation estimation apparatus 10 will be described.
As shown in FIG. 1A, a position / orientation estimation apparatus 10 according to this embodiment includes a head model 11, a dental model 12 (not shown) that can be attached to and detached from the head model 11, a head, A camera 13 (corresponding to “imaging means” of the present invention) that can image the part model 11, and a personal computer (hereinafter referred to as “PC”, corresponding to “estimating means” of the present invention) 14 connected to the camera 13; The treatment instrument 31 is configured.

同図1(b)に、歯列模型12の概略構成を示す。同図1(b)に示されるように、歯列模型12は、上顎部21と、下顎部22とを含んで構成される。本実施形態における歯列模型12は、上顎部21と下顎部22の位置および姿勢を固定した状態で頭部模型11に取り付けられる。すなわち、本実施形態において、歯列模型12の位置および姿勢は予め所定の位置および姿勢に定められる。なお、歯列模型12は、習得すべき治療技術等に応じて実習者が適宜選択し、頭部模型11に対して脱着することができる。   FIG. 1B shows a schematic configuration of the dentition model 12. As shown in FIG. 1B, the dentition model 12 includes an upper jaw portion 21 and a lower jaw portion 22. The dentition model 12 in this embodiment is attached to the head model 11 with the positions and postures of the upper jaw portion 21 and the lower jaw portion 22 fixed. That is, in the present embodiment, the position and posture of the dentition model 12 are determined in advance to a predetermined position and posture. The dentition model 12 can be appropriately selected by a practitioner according to the treatment technique to be acquired and can be attached to and detached from the head model 11.

カメラ13は、歯科治療台52の支柱53に固定されている。このカメラ13は、歯列模型12を均等に撮像することができるように、カメラ13の中心線が歯列模型12の正中線上方に位置するように固定されることが好ましい。カメラ13にて撮像された画像(以下、「撮影画像」)は、PC14に出力される。
なお、カメラ13の内部パラメータ(例えば、レンズ歪み、焦点距離およびカメラ中心位置)は、予めPC14に入力されている。
The camera 13 is fixed to the column 53 of the dental treatment table 52. The camera 13 is preferably fixed so that the center line of the camera 13 is positioned above the midline of the dentition model 12 so that the dentition model 12 can be uniformly imaged. An image captured by the camera 13 (hereinafter referred to as “captured image”) is output to the PC 14.
Note that internal parameters of the camera 13 (for example, lens distortion, focal length, and camera center position) are input to the PC 14 in advance.

PC14は、歯列模型12をCG画像として表示面に表示する。上述したように、本実施形態においては、歯列模型12の位置および姿勢は予め定められている。このため、実習者がいずれの歯列模型12を選択したかをPC14に入力すると、PC14は、選択された歯列模型12に応じて予め定められた歯列模型12のCG画像を表示面に表示する。   The PC 14 displays the dentition model 12 on the display surface as a CG image. As described above, in the present embodiment, the position and posture of the dentition model 12 are determined in advance. For this reason, when the practitioner inputs which dentition model 12 has been selected to the PC 14, the PC 14 displays a CG image of the dentition model 12 predetermined according to the selected dentition model 12 on the display surface. indicate.

次に図2を参照しながらマーカー33および治療器具31について説明する。
同図2(a)および(b)に示されるように、治療器具31の基端部には、マーカー33(本発明の「対象物」に相当)が固定されている。このように、マーカー33が治療器具31に対して固定されているため、治療器具31の先端部の位置および姿勢は、マーカー33の位置および姿勢に基づいて決定することができる。
Next, the marker 33 and the treatment instrument 31 will be described with reference to FIG.
As shown in FIGS. 2A and 2B, a marker 33 (corresponding to the “object” of the present invention) is fixed to the proximal end portion of the treatment instrument 31. Thus, since the marker 33 is fixed with respect to the treatment instrument 31, the position and posture of the distal end portion of the treatment instrument 31 can be determined based on the position and posture of the marker 33.

マーカー33を構成する面のうち、治療器具31に当接する面の反対側の面には、星型の閉じた多角形(本発明の「図形」に相当)からなるマーク32が付されている。なお、このマーク32の形状は、PC14の計算量を少なくするため、正多角形とすることが好ましい。   Of the surfaces constituting the marker 33, a mark 32 made of a closed star-shaped polygon (corresponding to the “figure” of the present invention) is attached to the surface opposite to the surface in contact with the treatment instrument 31. . The shape of the mark 32 is preferably a regular polygon in order to reduce the calculation amount of the PC 14.

また、このマーク32にはマーク32を構成する頂点を識別するための基準線Sが付されている。この基準線Sは、マーク32の中心点と、マーク32を構成する頂点のうちのひとつの頂点(基準頂点)とを結ぶ線分となっている。なお、中心点とは、各マーク32を構成する各頂点の座標を平均した座標とする。   A reference line S for identifying the vertices constituting the mark 32 is attached to the mark 32. This reference line S is a line segment connecting the center point of the mark 32 and one vertex (reference vertex) among the vertices constituting the mark 32. The center point is a coordinate obtained by averaging the coordinates of the vertices constituting each mark 32.

上述したように、マーク32は正多角形からなる。このため、基準線Sが付されていない場合には、マーク32の中心点を中心としてマーカー33を回転させた場合に、回転前と回転後とで撮影画像に表示されるマーク32の形状は同一の形状であっても、治療器具31の向きは異なるものとなる場合がある。すなわち、各頂点を識別することができないと、撮影画像に表示されるマーク32の形状は同一であっても、治療器具31の姿勢は異なる場合がある。
そこで、本実施形態では、基準線Sを付すことにより基準頂点を他の頂点と識別することができるようにしている。このように、基準頂点を他の頂点と識別することができると、マーク32を構成する各頂点を識別することができるようになる。
As described above, the mark 32 is a regular polygon. For this reason, when the reference line S is not attached, when the marker 33 is rotated around the center point of the mark 32, the shape of the mark 32 displayed in the captured image before and after the rotation is as follows. Even if it is the same shape, the direction of the therapeutic instrument 31 may be different. That is, if each vertex cannot be identified, the posture of the treatment instrument 31 may be different even if the shape of the mark 32 displayed in the captured image is the same.
Therefore, in this embodiment, the reference vertex can be identified from other vertices by adding the reference line S. As described above, when the reference vertex can be identified from other vertices, each vertex constituting the mark 32 can be identified.

PC14は、撮影画像に表示されたマーク32に基づいて治療器具31の位置および姿勢を推定し、CG画像(以下、「ツールCGモデル」)として歯列模型12とともに表示面に表示する。   The PC 14 estimates the position and orientation of the treatment instrument 31 based on the mark 32 displayed on the captured image, and displays the CG image (hereinafter referred to as “tool CG model”) on the display surface together with the dentition model 12.

ところで、従来技術において、マーカーをカメラにて撮像することで、当該マーカーの位置および姿勢を推定するときには、一般に、予め定められた位置に固定された複数のカメラにてマーカーを撮像する方法が用いられる。   By the way, in the prior art, when estimating the position and orientation of the marker by imaging the marker with a camera, generally, a method of imaging the marker with a plurality of cameras fixed at a predetermined position is used. It is done.

この方法では、各カメラの三次元空間における位置関係(例えば、カメラ同士の距離)、および少なくとも一方のカメラの座標系(以下、「カメラ座標系」、カメラの中心から撮像したときの視点位置と視点の向きで決まる座標系)を予め求めておく。
PCは、各カメラから出力された各撮影画像からマークを抽出し、各撮影画像におけるマークの位置座標をそれぞれ求める。その後、各撮影画像におけるマークの位置座標の違いと、予め求めておいた各カメラの三次元空間における位置関係とに基づいて、カメラ座標系におけるマークの位置および姿勢、ひいてはマーカーの位置および姿勢を求める。
In this method, the positional relationship of each camera in the three-dimensional space (for example, the distance between the cameras) and the coordinate system of at least one camera (hereinafter referred to as “camera coordinate system”, the viewpoint position when imaged from the center of the camera, and A coordinate system determined by the orientation of the viewpoint is obtained in advance.
The PC extracts a mark from each captured image output from each camera, and obtains the position coordinates of the mark in each captured image. After that, based on the difference in the position coordinates of the mark in each captured image and the positional relationship of each camera in the three-dimensional space, the position and orientation of the mark in the camera coordinate system, and thus the position and orientation of the marker are determined. Ask.

これに対して、本発明では、単一のカメラ13を用いてマーク32を検出し、マーカー33の座標系(マーカー座標系)を推定するようにしている。
すなわち、PC14は、まず同図2(a)に示されるように、マーク32近傍の点を原点とし、マーカー33の一辺に平行であるx軸、当該x軸に直交するy軸、当該x軸およびy軸に直交するz軸からなる座標系(マーカー座標系)を設定する。そして、PC14は、マーク32を構成する各頂点のマーカー座標系における座標(Xi,Yi,Zi)を予め算出しておく。なお、マーク32はマーカー33に付されたものであるため、Ziは「0」となる。
On the other hand, in the present invention, the mark 32 is detected using the single camera 13 and the coordinate system (marker coordinate system) of the marker 33 is estimated.
That is, as shown in FIG. 2A, the PC 14 first has a point in the vicinity of the mark 32 as an origin, an x axis parallel to one side of the marker 33, a y axis orthogonal to the x axis, and the x axis. And a coordinate system (marker coordinate system) composed of the z axis orthogonal to the y axis is set. Then, the PC 14 calculates in advance the coordinates (Xi, Yi, Zi) of each vertex constituting the mark 32 in the marker coordinate system. Since the mark 32 is attached to the marker 33, Zi is “0”.

位置姿勢推定装置10が起動され、カメラ13にて撮像された撮影画像がPC14に入力されると、PC14は、当該撮影画像からマーク32を抽出する。そして、この抽出したマーク32を構成する各頂点(本発明の「角部」に相当)の撮影画像上の座標(Ui,Vi)をそれぞれ算出する。   When the position / orientation estimation apparatus 10 is activated and a captured image captured by the camera 13 is input to the PC 14, the PC 14 extracts a mark 32 from the captured image. Then, the coordinates (Ui, Vi) on the captured image of each vertex (corresponding to the “corner” of the present invention) constituting the extracted mark 32 are calculated.

次に、PC14は、各頂点の座標(Ui,Vi)と、予め算出しておいたマーク32の各頂点の座標(Xi,Yi,Zi)とをホモグラフィによって対応付ける。これにより、カメラ座標系におけるマーカー座標系の位置および姿勢を推定することができる。
例えば同図2(b)に示されるようにマーカー33がカメラ13に対して傾けられると、同図2(b)に示されるように、マーカー座標系もマーカー33の位置および姿勢に応じた位置および姿勢となる。
Next, the PC 14 associates the coordinates (Ui, Vi) of each vertex with the coordinates (Xi, Yi, Zi) of each vertex of the mark 32 calculated in advance by homography. Thereby, the position and orientation of the marker coordinate system in the camera coordinate system can be estimated.
For example, when the marker 33 is tilted with respect to the camera 13 as shown in FIG. 2B, the marker coordinate system is positioned according to the position and orientation of the marker 33 as shown in FIG. And attitude.

PC14は、このようにカメラ座標系におけるマーカー座標系を算出することで、カメラ座標系におけるマーカー33の位置および姿勢、ひいてはカメラ座標系における治療器具31の位置および姿勢を算出することができる。   By calculating the marker coordinate system in the camera coordinate system in this way, the PC 14 can calculate the position and orientation of the marker 33 in the camera coordinate system, and thus the position and orientation of the treatment instrument 31 in the camera coordinate system.

次に、本実施形態にかかる処理全体の流れを図3を参照しながら説明する。
同図3に示されるように、PC14は、まずカメラ13から撮影画像を取得する(ステップS101)。
そして、治療器具31の位置および姿勢を推定する位置姿勢推定処理(本発明の「推定処理」に相当)を行い(ステップS102)、上述した治療器具31のCG画像であるツールCGモデルをPC14の表示面に表示する(ステップS103)。
Next, the overall flow of processing according to the present embodiment will be described with reference to FIG.
As shown in FIG. 3, the PC 14 first acquires a captured image from the camera 13 (step S101).
Then, position / orientation estimation processing (corresponding to “estimation processing” of the present invention) for estimating the position and orientation of the treatment instrument 31 is performed (step S102), and the tool CG model that is a CG image of the treatment instrument 31 described above is stored in the PC 14. Display on the display surface (step S103).

次に、位置姿勢推定装置について、図4を参照しながら詳細に説明する。
同図4に示されるように、PC14は、まず撮影画像に対して二値化処理を施す(ステップS201)。
Next, the position / orientation estimation apparatus will be described in detail with reference to FIG.
As shown in FIG. 4, the PC 14 first performs binarization processing on the captured image (step S201).

次に、この二値化処理を施した撮影画像から輪郭点列を抽出し(ステップS202)、この抽出した輪郭点列からマーク32を抽出する(ステップS203)。
上述したように、マーク32は星型の閉じた正多角形からなる。本実施形態では、輪郭点列を抽出した後、近似曲線の簡略化手法であるダグラス・ポイカーによる頂点抽出アルゴリズムを用いて、マーク32を構成する頂点の点列を抽出する。
Next, a contour point sequence is extracted from the binarized captured image (step S202), and a mark 32 is extracted from the extracted contour point sequence (step S203).
As described above, the mark 32 is formed of a star-shaped closed regular polygon. In this embodiment, after extracting a contour point sequence, a vertex sequence constituting the mark 32 is extracted using a vertex extraction algorithm by Douglas Poker, which is a method for simplifying an approximate curve.

PC14は、抽出されたマーク32の輪郭に基づいて、抽出された多角形の頂点の数を算出し、この数がマーク32の頂点数と同一であるか否かを判定する(本発明の「マーク抽出判定」に相当)。そして、抽出した多角形の頂点の数が、予め記憶しているマーク32の頂点の数と同一であることをもって、輪郭点列からマーク32を抽出したと判定する。   The PC 14 calculates the number of vertices of the extracted polygon based on the contour of the extracted mark 32, and determines whether or not this number is the same as the number of vertices of the mark 32 (“ Equivalent to “mark extraction judgment”). Then, when the number of vertices of the extracted polygon is the same as the number of vertices of the mark 32 stored in advance, it is determined that the mark 32 has been extracted from the contour point sequence.

PC14は、次に、基準線Sに基づいてマーク32を構成する各頂点を識別する。そして、マーク32を構成する各頂点の撮影画像上の座標に基づいて、カメラ座標系におけるマーカー座標系を算出する(ステップS204)。マーカー座標系の算出方法については、上述したため、ここでの詳しい説明は割愛する。   Next, the PC 14 identifies each vertex constituting the mark 32 based on the reference line S. Then, a marker coordinate system in the camera coordinate system is calculated based on the coordinates on the captured image of each vertex constituting the mark 32 (step S204). Since the calculation method of the marker coordinate system has been described above, a detailed description thereof is omitted here.

そして、PC14は、算出したマーカー座標系に基づいて、治療器具31の位置および姿勢を推定する(ステップS205)。   Then, the PC 14 estimates the position and posture of the treatment instrument 31 based on the calculated marker coordinate system (step S205).

本実施形態にかかるツールCGモデルによれば、治療器具31の位置および姿勢をCG化することができるため、直接視認することは困難である口腔内における歯列模型12と治療器具31との位置関係を明らかにすることができる。   According to the tool CG model according to the present embodiment, since the position and posture of the treatment instrument 31 can be converted into CG, the positions of the dentition model 12 and the treatment instrument 31 in the oral cavity that are difficult to visually recognize directly. The relationship can be clarified.

上記本実施形態によれば、以下に示す作用効果を奏することができるようになる。
(1)従来の歯科実習においては、指導者が口腔内を直接視認することは困難であるため、実習者が治療器具31を適切な位置および姿勢で歯列模型12に当接させているか否かを指導者がリアルタイムに評価することは困難であった。この点、本実施形態によれば、撮影画像に基づいて治療器具31の位置および姿勢を明らかにすることができるため、実習者が適切な位置および姿勢で治療器具31を歯列模型12に当接させているか否かを指導者がリアルタイムに評価することができるようになる。
According to the present embodiment, the following effects can be obtained.
(1) In conventional dental practice, since it is difficult for the instructor to directly view the inside of the oral cavity, whether or not the instructor makes the treatment instrument 31 contact the dental model 12 at an appropriate position and posture. It was difficult for leaders to evaluate in real time. In this regard, according to the present embodiment, since the position and posture of the treatment instrument 31 can be clarified based on the captured image, the practitioner touches the dentition model 12 with the treatment instrument 31 at an appropriate position and posture. Instructors will be able to evaluate in real time whether or not they are in contact.

(2)また、歯列模型12および治療器具31をCG画像にて表示するため、実習者が治療器具31を適切な位置および姿勢で歯列模型12に当接させているかを指導者が視認しやすくなる。   (2) Since the dentition model 12 and the treatment instrument 31 are displayed as CG images, the instructor visually recognizes whether the practitioner makes the treatment instrument 31 contact the dentition model 12 in an appropriate position and posture. It becomes easy to do.

(3)また、マーク32の形状をマーク32以外のものの形状と混同し難い星型の閉じた正多角形としたため、マーク32以外のものを誤ってマーク32を構成するものであると判定し、これに基づいて位置姿勢推定処理を行ってしまうことを抑制することができる。したがって、マーカー33の位置および姿勢を誤って推定することを抑制することができるようになる。   (3) Since the shape of the mark 32 is a star-shaped closed regular polygon that is difficult to be confused with the shape other than the mark 32, it is determined that the mark 32 is mistakenly constituted by the mark 32. Therefore, it is possible to suppress the position / orientation estimation processing based on this. Accordingly, it is possible to suppress erroneous estimation of the position and orientation of the marker 33.

(5)また、PC14は、撮影画像から抽出した各頂点の座標とマーク32の各頂点の空間座標とをホモグラフィによって対応付けることで、カメラ座標系におけるマーカー座標系の位置および姿勢を推定するようにしている。このため、カメラ13を複数用いることなく、単一のカメラ13を用いることで、マーカー33の位置および姿勢を推定することができるようになる。このため、位置姿勢推定装置10の構成をより簡易なものとすることができる。   (5) Further, the PC 14 estimates the position and orientation of the marker coordinate system in the camera coordinate system by associating the coordinates of each vertex extracted from the captured image with the spatial coordinates of each vertex of the mark 32 by homography. I have to. For this reason, it becomes possible to estimate the position and orientation of the marker 33 by using a single camera 13 without using a plurality of cameras 13. For this reason, the configuration of the position / orientation estimation apparatus 10 can be simplified.

(6)また、基準線Sによってマーク32を構成する各頂点を識別することができるため、治療器具31の姿勢を誤って推定することを抑制することができるようになる。   (6) Moreover, since each vertex which comprises the mark 32 can be identified with the reference line S, it becomes possible to suppress erroneously estimating the posture of the treatment instrument 31.

(第二実施形態)
以下、本発明を具体化した第二実施形態を上記第一実施形態と異なる点を中心に図5〜図7に基づいて説明する。なお、これら図5〜図7において、第一実施形態にて説明した各要素と同一の要素についてはそれぞれ同一の符号を示しており、それら要素についての重複する説明は割愛する。
(Second embodiment)
Hereinafter, a second embodiment of the present invention will be described based on FIGS. 5 to 7 with a focus on differences from the first embodiment. In addition, in these FIGS. 5-7, the code | symbol same about each element same as each element demonstrated in 1st embodiment is each shown, and the overlapping description about these elements is omitted.

上記第一実施形態で説明したように、PC14は、二値化処理を施した撮影画像に基づいて、マーク32を構成する各頂点の撮影画像上の座標(Ui,Vi)を抽出するようにしている。
ところで、PC14は画素を単位として撮影画像を表示する。このため、PC14によって抽出されたマーク32の各頂点は、僅かにずれた座標に表示されてしまうおそれがある。また、上述したように撮影画像に二値化処理を施すと、このようなずれは大きくなってしまうおそれがある。
As described in the first embodiment, the PC 14 extracts the coordinates (Ui, Vi) on the captured image of each vertex constituting the mark 32 based on the captured image subjected to the binarization process. ing.
Incidentally, the PC 14 displays a photographed image in units of pixels. For this reason, each vertex of the mark 32 extracted by the PC 14 may be displayed at slightly shifted coordinates. In addition, when the binarized processing is performed on the captured image as described above, such a shift may be increased.

またさらに、二値化処理を施すと、ノイズが画像に残ってしまうことがあるため、二値化処理を施すときには、事前に平滑化処理等のノイズ除去処理を施すことがある。このような平滑化処理を施すことでも、同様に、マーク32の頂点の座標は変化してしまうおそれがある。
そこで、本実施形態では、PC14は、頂点座標算出処理を行うようにしている。
Furthermore, since noise may remain in the image when binarization processing is performed, noise removal processing such as smoothing processing may be performed in advance when performing binarization processing. Even with such a smoothing process, the coordinates of the vertices of the mark 32 may change in the same manner.
Therefore, in the present embodiment, the PC 14 performs vertex coordinate calculation processing.

以下、図6を参照しながら、本実施形態にかかる処理全体の流れについて説明する。
同図6に示されるように、この処理が開始されると、PC14は、まず、撮影画像に対して二値化処理を施す(ステップS301)。
Hereinafter, the overall flow of processing according to the present embodiment will be described with reference to FIG.
As shown in FIG. 6, when this process is started, the PC 14 first performs a binarization process on the captured image (step S301).

例えば、図5(b)および図5(c)に示されるように、撮像画像を構成する画素のうち、所定の閾値以上の輝度を有する画素を黒画素に、所定の閾値未満の輝度を有する画素を白画素に変換する。
なお、同図5(b)および(c)に示されるように、頂点近傍の画素は、小さい値となることが多いため、このような二値化処理によって、白画素に変換されることが多い。
For example, as shown in FIG. 5B and FIG. 5C, among the pixels constituting the captured image, a pixel having a luminance equal to or higher than a predetermined threshold is a black pixel and has a luminance lower than the predetermined threshold. Convert pixels to white pixels.
Note that, as shown in FIGS. 5B and 5C, the pixels near the vertex often have a small value, and can be converted into white pixels by such binarization processing. Many.

次に、この二値化処理を施した撮影画像から輪郭点列を抽出し(ステップS302、図5(d)参照)、この輪郭点列からマーク32を抽出する(ステップS303)。なお、マーク32を抽出する方法は上記第一実施形態にて説明したため、詳しい説明は割愛する。   Next, a contour point sequence is extracted from the binarized captured image (step S302, see FIG. 5D), and a mark 32 is extracted from the contour point sequence (step S303). Since the method for extracting the mark 32 has been described in the first embodiment, a detailed description is omitted.

その後、PC14は、頂点座標算出処理を行う(ステップS304)。
PC14は、頂点座標算出処理(ステップS304)を行った後、カメラ座標系におけるマーカー座標系を算出し(ステップS305)、このマーカー座標系に基づいて治療器具31の位置および姿勢を推定して(ステップS306)、この処理を一旦終了する。
Thereafter, the PC 14 performs a vertex coordinate calculation process (step S304).
After performing the vertex coordinate calculation process (step S304), the PC 14 calculates a marker coordinate system in the camera coordinate system (step S305), and estimates the position and orientation of the treatment instrument 31 based on this marker coordinate system ( Step S306), this process is temporarily terminated.

次に、図7を参照しながら頂点座標算出処理について詳細に説明する。
同図7に示されるように、頂点座標算出処理が開始されると、PC14は、まず抽出した辺毎の点列(本発明の「各線分」に相当、図5(d)にて示す点列)を取得する(ステップS401)。
Next, the vertex coordinate calculation process will be described in detail with reference to FIG.
As shown in FIG. 7, when the vertex coordinate calculation process is started, the PC 14 first extracts the point sequence for each extracted side (corresponding to “each line segment” of the present invention, the points shown in FIG. 5D). Column) is acquired (step S401).

次に、各辺を構成する点列から辺の点列数を算出する。その後、各点列のうち、端点からの点列数が辺の点列数の5〜45%(好ましくは、10%)にある点列(本発明の「端部」に相当)を削除する(ステップS402)。なお、端点とは、マーク32を構成する各点列のうち、頂点を構成する点を示す。   Next, the number of point sequences of the sides is calculated from the sequence of points constituting each side. After that, among each point sequence, a point sequence (corresponding to the “end portion” of the present invention) in which the number of point sequences from the end points is 5 to 45% (preferably 10%) of the number of point sequences on the side is deleted. (Step S402). Note that the end point indicates a point that constitutes a vertex among each point sequence that constitutes the mark 32.

次に、PC14は、端点から5〜45%(好ましくは、10%)にある点列を削除した点列(本発明の「中央部分」に相当)に基づいて、多角形を構成する各辺の方程式を算出し(ステップS403)、次に隣り合う辺の交点(図5(d)に示す点A)を算出して、この交点の座標を頂点の座標として(ステップS404)、この処理を一旦終了する。   Next, the PC 14 determines each side constituting the polygon based on the point sequence (corresponding to the “central portion” in the present invention) obtained by deleting the point sequence that is 5 to 45% (preferably 10%) from the end point. (Step S403), the intersection of adjacent sides (point A shown in FIG. 5D) is calculated, and the coordinates of this intersection are used as the coordinates of the vertex (step S404). Exit once.

図5(b)に示されるように、PC14は画素を単位として撮影画像を表示する。このため、PC14によって抽出されたマーク32の各頂点は、僅かにずれた座標(例えば、同図5(b)に示す座標(Ui,Vi))に表示されてしまうおそれがある。
特に、カメラ13やPC14の分解能が低い場合は、このようなずれは大きくなってしまうおそれがある。
また、二値化処理を施すことにより、このようなずれはさらに大きくなってしまうおそれがある。
As shown in FIG. 5B, the PC 14 displays a captured image in units of pixels. For this reason, each vertex of the mark 32 extracted by the PC 14 may be displayed at slightly shifted coordinates (for example, coordinates (Ui, Vi) shown in FIG. 5B).
In particular, when the resolution of the camera 13 or the PC 14 is low, such a shift may increase.
Moreover, such a shift may be further increased by performing binarization processing.

しかしながら、本実施形態によれば、同図5(d)に示されるように、端点から5〜45%(好ましくは、10%)にある点列を削除した点列に基づいて頂点(同図5(d)に示される点A)の座標を算出しているため、上述したように二値化処理等に起因して頂点の座標がずれてしまうことを抑制することができる。   However, according to the present embodiment, as shown in FIG. 5D, vertices based on a point sequence in which a point sequence in the range of 5 to 45% (preferably 10%) is deleted from the end points (FIG. 5D). Since the coordinates of the point A) shown in 5 (d) are calculated, it is possible to prevent the vertex coordinates from being shifted due to the binarization processing or the like as described above.

上記説明した第二実施形態によれば、上述した作用効果(1)〜(5)に加えて、以下の作用効果を奏することができるようになる。
(6)本実施形態によれば、各辺を構成する点列のうち、端点からの点列数が辺の点列数の5〜45%(好ましくは、10%)以内にある点列を削除した点列に基づいて頂点の座標を算出しているため、抽出した頂点の座標が実際に撮像した座標と異なるものとなることを抑制することができるようになる。
According to the second embodiment described above, the following functions and effects can be achieved in addition to the functions and effects (1) to (5) described above.
(6) According to the present embodiment, among the point sequences constituting each side, a point sequence in which the number of point sequences from the end points is within 5 to 45% (preferably 10%) of the number of point sequences of the side is selected. Since the coordinates of the vertices are calculated based on the deleted point sequence, it is possible to suppress the extracted vertex coordinates from being different from the actually captured coordinates.

(第三実施形態)
以下、本発明を具体化した第三実施形態を上記第一実施形態と異なる点を中心に図8および図9に基づいて説明する。なお、これら図8および図9において、第一実施形態にて説明した各要素と同一の要素についてはそれぞれ同一の符号を示しており、それら要素についての重複する説明は割愛する。
(Third embodiment)
Hereinafter, a third embodiment of the present invention will be described based on FIGS. 8 and 9 with a focus on differences from the first embodiment. In FIGS. 8 and 9, the same elements as those described in the first embodiment are denoted by the same reference numerals, and redundant descriptions of these elements are omitted.

上述した第一実施形態では、マーク32をマーカー33の一面のみに付すようにした。これに対して、本実施形態では、図8に示されるように、マーカー33を立方体とするとともに、マーカー33を構成する全ての面にマーク32を付すようにしている。
同図8に示されるように、これらマーク32は、それぞれ異なる形状からなる。また、いずれも四点以上の頂点を備える閉じた多角形である。
In the first embodiment described above, the mark 32 is attached to only one surface of the marker 33. On the other hand, in the present embodiment, as shown in FIG. 8, the marker 33 is a cube, and the mark 32 is attached to all the surfaces constituting the marker 33.
As shown in FIG. 8, these marks 32 have different shapes. Each is a closed polygon with four or more vertices.

本実施形態においては、PC14は、まず同図8に示されるように、面F1に付されたマーク32近傍の点を原点とし、面F1の一辺に平行なx軸、当該x軸に直交するy軸、当該x軸およびy軸に直交するz軸からなるマーカー座標系を設定する。そして、PC14は、マーカー座標系におけるマーク32を構成する各頂点の座標(Xi,Yi,Zi)予め算出しておく。なお、面F1に付されたマーク32のZiは「0」となる。   In the present embodiment, as shown in FIG. 8, the PC 14 first has a point in the vicinity of the mark 32 attached to the surface F1 as an origin, an x axis parallel to one side of the surface F1, and orthogonal to the x axis. A marker coordinate system consisting of a y-axis and a z-axis orthogonal to the x-axis and the y-axis is set. Then, the PC 14 calculates in advance the coordinates (Xi, Yi, Zi) of each vertex constituting the mark 32 in the marker coordinate system. The Zi of the mark 32 attached to the surface F1 is “0”.

上述したように、位置姿勢推定装置10が起動され、カメラ13にて撮像された撮影画像がPC14に入力されると、PC14は、当該撮影画像から各マーク32を抽出する。この際、PC14は、基準線Sに基づいて、各マーク32の頂点を識別する。そして、この抽出した各マーク32を構成する各頂点の撮影画像上の座標(Ui,Vi)をそれぞれ算出する。   As described above, when the position / orientation estimation apparatus 10 is activated and a captured image captured by the camera 13 is input to the PC 14, the PC 14 extracts each mark 32 from the captured image. At this time, the PC 14 identifies the vertex of each mark 32 based on the reference line S. Then, the coordinates (Ui, Vi) on the captured image of each vertex constituting each extracted mark 32 are calculated.

次に、PC14は、各頂点の座標(Ui,Vi)と、予め算出しておいた各マーク32の各頂点の座標(Xi,Yi,Zi)とを対応付ける。
上述した第一実施形態では、マーク32を一面にのみに付したため、ホモグラフィを用いて座標(Ui,Vi)と座標(Xi,Yi,Zi)とを対応付けた。これに対して、本実施形態では、ホモグラフィを用いることなく、座標(Ui,Vi)と座標(Xi,Yi,Zi)とを対応付けて、カメラ座標系におけるマーカー座標系の位置および姿勢を求める。
Next, the PC 14 associates the coordinates (Ui, Vi) of each vertex with the coordinates (Xi, Yi, Zi) of each vertex of each mark 32 calculated in advance.
In the first embodiment described above, since the mark 32 is attached to only one surface, the coordinates (Ui, Vi) and the coordinates (Xi, Yi, Zi) are associated using homography. On the other hand, in this embodiment, without using homography, coordinates (Ui, Vi) and coordinates (Xi, Yi, Zi) are associated with each other, and the position and orientation of the marker coordinate system in the camera coordinate system are determined. Ask.

また、本実施形態においては、PC14は、抽出した多角形の頂点の数に基づいて、いずれの面を検出しているかを認識したうえで、当該検出した面のマーク32の頂点の座標(Ui,Vi)と、マーク32の各頂点の座標(Xi,Yi,Zi)とを対応付ける。   In the present embodiment, the PC 14 recognizes which surface is detected based on the number of extracted polygonal vertices, and then coordinates of the vertex (Ui) of the mark 32 on the detected surface. , Vi) and the coordinates (Xi, Yi, Zi) of each vertex of the mark 32 are associated with each other.

例えば、図9(a)に示されるように治療器具31がカメラ13に対して傾けられたときには、同図9(b)に示されるようにマーカー33を構成する面のうち面F1と面F2とが撮影画像に表示される。   For example, when the treatment instrument 31 is tilted with respect to the camera 13 as shown in FIG. 9A, the surfaces F1 and F2 among the surfaces constituting the marker 33 as shown in FIG. 9B. Are displayed on the captured image.

このとき、PC14は、正六角形からなるマーク32と正七角形からなるマーク32とを撮影画像から抽出する。PC14は、正六角形の付された面は面F1であり、正七角形の付された面は面F2であると認識する。
そして、各多角形を構成する各頂点のマーカー座標系における座標(Xi,Yi,Zi)と、当該頂点の撮影画像における座標(Ui,Vi)とを対応付けることで、カメラ座標系におけるマーカー座標系の位置および姿勢を算出する。
At this time, the PC 14 extracts a mark 32 made of a regular hexagon and a mark 32 made of a regular heptagon from the photographed image. The PC 14 recognizes that the surface with the regular hexagon is the surface F1, and the surface with the regular heptagon is the surface F2.
Then, by associating the coordinates (Xi, Yi, Zi) in the marker coordinate system of each vertex constituting each polygon with the coordinates (Ui, Vi) in the captured image of the vertex, the marker coordinate system in the camera coordinate system Is calculated.

上記本実施形態によれば、上述した作用効果(1)〜(5)に加えて、以下の作用効果を奏することができるようになる。
(7)本実施形態によれば、マーク32がマーカー33を構成する全ての面に付されているため、マーカー33がカメラ13に対して大きく傾けられたときであっても、いずれかのマーク32が撮像されることとなる。このため、マーク32が撮影画像に表示されなくなることによって、マーカー33の位置および姿勢を推定することができなくなったり、推定し難くなることを抑制することができるようになる。
According to the present embodiment, in addition to the operational effects (1) to (5) described above, the following operational effects can be achieved.
(7) According to the present embodiment, since the mark 32 is attached to all the surfaces constituting the marker 33, any mark is present even when the marker 33 is largely inclined with respect to the camera 13. 32 will be imaged. For this reason, it becomes possible to prevent the position and orientation of the marker 33 from being estimated or difficult to estimate by the mark 32 not being displayed in the captured image.

(8)また、複数の面に付されたマーク32に基づいてマーカー33の位置および姿勢を推定することができるため、マーカー33の位置および姿勢をより正確に推定することができるようになる。   (8) Further, since the position and orientation of the marker 33 can be estimated based on the marks 32 attached to the plurality of surfaces, the position and orientation of the marker 33 can be estimated more accurately.

(第四実施形態)
以下、本発明を具体化した第四実施形態を上記第三実施形態と異なる点を中心に図10および図11に基づいて説明する。なお、これら図10および図11において、第三実施形態にて説明した各要素と同一の要素についてはそれぞれ同一の符号を示しており、それら要素についての重複する説明は割愛する。
(Fourth embodiment)
Hereinafter, a fourth embodiment embodying the present invention will be described based on FIG. 10 and FIG. 11 with a focus on differences from the third embodiment. 10 and 11, the same elements as those described in the third embodiment are denoted by the same reference numerals, and redundant descriptions of these elements are omitted.

上述した第三実施形態では、マーカー33の各面に、それぞれ異なる形状からなる多角形を付すようにした。これに対して、本実施形態では、図10(a)に示されるように、マーカー33の各面に正六角形からなるマーク32を付している。   In the third embodiment described above, polygons having different shapes are attached to each surface of the marker 33. On the other hand, in this embodiment, as shown in FIG. 10A, marks 32 each having a regular hexagon are attached to each surface of the marker 33.

また、同図10(a)および(b)に示されるように、面F1に付したマーク32には、中心点C1と頂点V1とを結ぶ基準線L1を付している。また、同図10(a)および(c)に示されるように、面F2に付したマーク32には、中心点C2と頂点V7とを結ぶ基準線L2、および中心点C2と頂点V8とを結ぶ基準線L3を付している。またさらに、同図10(a)および(d)に示されるように、面F3に付したマーク32には、中心点C3と頂点V13とを結ぶ基準線L4、中心点C3と頂点V14とを結ぶ基準線L5、および中心点C3と頂点V15とを結ぶ基準線L6を付している。   Further, as shown in FIGS. 10A and 10B, a reference line L1 connecting the center point C1 and the vertex V1 is attached to the mark 32 attached to the surface F1. Also, as shown in FIGS. 10A and 10C, the mark 32 attached to the surface F2 includes a reference line L2 connecting the center point C2 and the vertex V7, and a center point C2 and the vertex V8. A connecting reference line L3 is attached. Further, as shown in FIGS. 10A and 10D, the mark 32 attached to the surface F3 includes a reference line L4 connecting the center point C3 and the vertex V13, and the center point C3 and the vertex V14. A connecting reference line L5 and a reference line L6 connecting the center point C3 and the vertex V15 are attached.

本実施形態では、PC14は、中心点と頂点との間に付された線分に基づいて、各マーク32の基準頂点を識別するとともに、抽出したマーク32がいずれの面に付されたマーク32であるかを認識するようにしている。
以下、図11を参照しながら、同実施形態にかかる処理全体の流れを説明する。
In the present embodiment, the PC 14 identifies the reference vertex of each mark 32 based on the line segment attached between the center point and the vertex, and the mark 32 with the extracted mark 32 attached to any surface. It is made to recognize whether it is.
Hereinafter, the flow of the entire processing according to the embodiment will be described with reference to FIG.

同図11に示されるように、本処理が開始されると、PC14は、まず撮影画像に対して二値化処理を施し(ステップS501)、この二値化処理を施した撮影画像から輪郭点列を抽出する(ステップS502)。次に、PC14は、この輪郭点列からマーク32を抽出し(ステップS503)、抽出した各マーク32について、中心点をそれぞれ算出する(ステップS504)。   As shown in FIG. 11, when this process is started, the PC 14 first performs binarization processing on the captured image (step S501), and contour points are obtained from the binarized captured image. A column is extracted (step S502). Next, the PC 14 extracts a mark 32 from the contour point sequence (step S503), and calculates a center point for each extracted mark 32 (step S504).

例えば、F1に付したマーク32(図10(b)参照)を抽出し、頂点V1〜V6に基づいて中心点C1の座標を算出した場合(ステップS504)、マーク32を構成する各頂点V1〜V6と、中心点C1とを結ぶ各線分のうち、基準線L1のみが黒色の線分として表示されている。
また、例えば、F2に付したマーク32(図10(c)参照)を抽出し、頂点V7〜V12に基づいて中心点C2の座標を算出した場合(ステップS504)、マーク32を構成する各頂点V7〜V12と、中心点C2とを結ぶ各線分のうち、基準線L2および基準線L3のみが黒色の線分として表示されている。
For example, when the mark 32 attached to F1 (see FIG. 10B) is extracted and the coordinates of the center point C1 are calculated based on the vertices V1 to V6 (step S504), the vertices V1 to V1 constituting the mark 32 are calculated. Of the line segments connecting V6 and the center point C1, only the reference line L1 is displayed as a black line segment.
Also, for example, when the mark 32 (see FIG. 10C) attached to F2 is extracted and the coordinates of the center point C2 are calculated based on the vertices V7 to V12 (step S504), each vertex constituting the mark 32 Of the line segments connecting V7 to V12 and the center point C2, only the reference line L2 and the reference line L3 are displayed as black line segments.

そこで、PC14は、マーク32を構成する各頂点と中心点とを結ぶ線分の点列を算出し(ステップS505)、各頂点と中心点とを結ぶ点列のうち、黒色の画素からなる点を所定割合以上含む点列を基準線とする(ステップS506)。   Therefore, the PC 14 calculates a point sequence that connects the vertices constituting the mark 32 and the center point (step S505), and points that are composed of black pixels in the point sequence that connects the vertices and the center point. A point sequence including a predetermined ratio or more is set as a reference line (step S506).

そして、この基準線に基づいて、基準頂点およびマーク32同士を識別する(ステップS507)   Based on the reference line, the reference vertex and the mark 32 are identified (step S507).

その後、PC14は、カメラ座標系におけるマーカー座標系の位置および姿勢を算出し(ステップS508)、治療器具31の位置および姿勢を推定する(ステップS509)。   Thereafter, the PC 14 calculates the position and orientation of the marker coordinate system in the camera coordinate system (step S508), and estimates the position and orientation of the treatment instrument 31 (step S509).

上記実施形態によれば、上述した作用効果(1)〜(5)、(7)および(8)に加えて、以下の作用効果を奏することができるようになる。
(9)本実施形態によれば、同じ形状からなるマーク32同士を区別することができる。このため、マーカー33の位置および姿勢を推定するにあたって、マーク32同士を混同してしまうことによりマーカー33の位置および姿勢を誤って推定してしまうことを抑制することができるようになる。
According to the said embodiment, in addition to the effect (1)-(5), (7) and (8) mentioned above, the following effects can be show | played.
(9) According to this embodiment, the marks 32 having the same shape can be distinguished from each other. For this reason, in estimating the position and orientation of the marker 33, it is possible to suppress erroneous estimation of the position and orientation of the marker 33 by confusing the marks 32 with each other.

(その他の実施形態)
なお、この発明にかかる位置姿勢推定装置10は、上記実施形態にて例示した構成に限定されるものではなく、同実施の形態を適宜変更した例えば次のような形態として実施することもできる。また以下の各変形例は、上記実施形態についてのみ適用されるものではなく、異なる変形例同士を互いに組み合わせて実施することもできる。
(Other embodiments)
Note that the position / orientation estimation apparatus 10 according to the present invention is not limited to the configuration illustrated in the above embodiment, and can be implemented as, for example, the following form in which the embodiment is appropriately changed. The following modifications are not applied only to the above-described embodiment, and different modifications can be combined with each other.

・上記各実施形態では、歯列模型12の位置および姿勢を固定するようにしたが、本発明はこれに限られるものではなく、歯列模型12を構成する上顎部21および下顎部22の位置および姿勢を変更することができるようにしてもよい。この場合は、図12に示されるように、上顎部21および下顎部22にマーカー33を固定して、カメラ13にてこれらマーカー33を撮像し、このマーカー33の位置および姿勢に基づいて上顎部21および下顎部22の位置および姿勢を推定することが好ましい。   In each of the above embodiments, the position and posture of the dentition model 12 are fixed. However, the present invention is not limited to this, and the positions of the upper jaw portion 21 and the lower jaw portion 22 constituting the dentition model 12. And the posture may be changed. In this case, as shown in FIG. 12, markers 33 are fixed to the upper jaw portion 21 and the lower jaw portion 22, the markers 33 are imaged by the camera 13, and the upper jaw portion is based on the position and posture of the marker 33. It is preferable to estimate the positions and postures of 21 and the lower jaw 22.

歯科実習においては、実習中に歯列模型12の位置および姿勢を変化させる場合がある。本変形例によれば、歯列模型12の位置および姿勢をリアルタイムで明らかにすることができるため、実習中に歯列模型12の位置および姿勢が変化しても、指導者は、歯列模型12と治療器具31との位置関係を視認することができることができるようになる。   In dental practice, the position and posture of the dentition model 12 may be changed during the practice. According to this modification, since the position and posture of the dentition model 12 can be clarified in real time, even if the position and posture of the dentition model 12 changes during the practice, the instructor can The positional relationship between 12 and the treatment instrument 31 can be visually recognized.

・上記変形例では、上顎部21および下顎部22の位置および姿勢を変更することができるようにしたが、本発明はこれに限られるものではなく、下顎部22の位置および姿勢は固定し、上顎部21の位置および姿勢のみを変更することができるようにしてもよい。この場合は、マーカー33を上顎部21のみに固定して、下顎部22にはマーカー33を取り付けないようにしてもよい。   In the above modification, the positions and postures of the upper jaw portion 21 and the lower jaw portion 22 can be changed. However, the present invention is not limited to this, and the position and posture of the lower jaw portion 22 are fixed. Only the position and posture of the upper jaw 21 may be changed. In this case, the marker 33 may be fixed only to the upper jaw part 21, and the marker 33 may not be attached to the lower jaw part 22.

・または、上顎部21の位置および姿勢は固定し、下顎部22の位置および姿勢のみを変更することができるようにしてもよい。この場合は、マーカー33を下顎部22のみに固定して、上顎部21にはマーカー33を取り付けないようにしてもよい。   Alternatively, the position and posture of the upper jaw portion 21 may be fixed and only the position and posture of the lower jaw portion 22 may be changed. In this case, the marker 33 may be fixed only to the lower jaw part 22 and the marker 33 may not be attached to the upper jaw part 21.

・上述した第三実施形態および第四実施形態において、上述した第二実施形態にて説明したとおり、マーク32の各辺を構成する点列のうち、端点からの点列数が辺の点列数の4〜45%(好ましくは、10%)にある点列を削除した点列に基づいて各辺の方程式を算出し、各辺の交点の座標を頂点の座標としてもよい。   -In 3rd Embodiment and 4th Embodiment mentioned above, as demonstrated in 2nd Embodiment mentioned above, among the point sequences which comprise each side of the mark 32, the number of point sequences from an end point is a point sequence. The equation of each side may be calculated based on the point sequence from which the point sequence in 4 to 45% (preferably 10%) of the number is deleted, and the coordinates of the intersection of each side may be used as the vertex coordinates.

・上述した第三実施形態では、マーカー33を構成する全ての面にマーク32を付すようにしたが、本発明はこれに限られるものではなく、マーカー33の二面のみにマーク32を付すようにしてもよい。また、マーカー33の三面のみにマーク32を付すようにしてもよい。さらに、マーカー33の四面のみにマーク32を付すようにしてもよい。   In the third embodiment described above, the marks 32 are attached to all surfaces constituting the marker 33. However, the present invention is not limited to this, and the marks 32 are attached only to two surfaces of the marker 33. It may be. Further, the mark 32 may be attached to only three surfaces of the marker 33. Furthermore, the mark 32 may be attached only to the four surfaces of the marker 33.

・上記第二実施形態では、端点からの点列数が辺の点列数の4〜45%(好ましくは、10%)にある点列を削除するようにしたが、本発明はこれに限られるものではなく、抽出した点列を全て用いて、頂点の座標を再度算出するようにしてもよい。   In the second embodiment, the point sequence whose end point number is 4 to 45% (preferably 10%) of the side point sequence number is deleted, but the present invention is not limited to this. The coordinates of the vertices may be calculated again using all the extracted point sequences.

・上記第三実施形態では、マーカー33の形状と立方体としたが、本発明におけるマーカー33の形状は立方体に限られるものではなく、他の多面体であってもよい。   In the third embodiment, the shape of the marker 33 is a cube, but the shape of the marker 33 in the present invention is not limited to a cube, and may be another polyhedron.

・上記各実施形態および各変形例では、ワールド座標系(カメラ13の位置および姿勢を表わす座標系)をカメラ座標系に一致させたが、本発明におけるワールド座標系はカメラ座標系に限られるものではなく、任意に決定することができる。   In the above embodiments and modifications, the world coordinate system (the coordinate system representing the position and orientation of the camera 13) is matched with the camera coordinate system, but the world coordinate system in the present invention is limited to the camera coordinate system. Rather, it can be determined arbitrarily.

・上記各実施形態および各変形例では、マーカー座標系の原点を平面F1においたが、本発明におけるマーカー座標系は、これに限られるものではなく、マーカー33やマーカー33と一体となっている治療器具31内で任意に決定することができる。   In each of the above embodiments and modifications, the origin of the marker coordinate system is set to the plane F1, but the marker coordinate system in the present invention is not limited to this, and is integrated with the marker 33 and the marker 33. It can be arbitrarily determined in the treatment instrument 31.

・上記各実施形態および各変形例では、マーク32の形状を星型の正多角形または五角形、または六角形または七角形としたが、本発明におけるマーク32の形状はこれらに限られるものではなく、四点以上の頂点を備える多角形であればよい。   In each of the above embodiments and modifications, the shape of the mark 32 is a star-shaped regular polygon or pentagon, or a hexagon or heptagon, but the shape of the mark 32 in the present invention is not limited to these. Any polygon that has four or more vertices may be used.

・上記各実施形態および各変形例では、マーク32を所定の太さを備える直線からなるものとしたが、本発明のマーク32はこれに限られるものではなく、PC14が最外周の点列を抽出することができるものであればよい。例えば、マーク32の内部をマーク32の外周の輪郭と同じ色で塗りつぶしたものであってもよい。   In each of the above-described embodiments and modifications, the mark 32 is made of a straight line having a predetermined thickness. However, the mark 32 of the present invention is not limited to this, and the PC 14 has the outermost point sequence. Anything that can be extracted may be used. For example, the inside of the mark 32 may be filled with the same color as the outer contour of the mark 32.

・上記各実施形態および各変形例では、基準線S、基準線L1、基準線L2もしくは基準線L3を用いて基準頂点を識別することで、マーク32の向きを識別するようにしたが、本発明はこれに限られるものではない。例えば、図13に記載されるように、マーカー33を回転させた場合であっても、回転後と回転前とで同じ形状となるおそれがない形状のマーク32を用いるようにしてもよい。本変形例によれば、基準線を用いることなく、マーク32の向きを識別することができるようになる。   In each of the above embodiments and modifications, the direction of the mark 32 is identified by identifying the reference vertex using the reference line S, the reference line L1, the reference line L2, or the reference line L3. The invention is not limited to this. For example, as shown in FIG. 13, even when the marker 33 is rotated, the mark 32 having a shape that does not have the same shape after the rotation and before the rotation may be used. According to this modification, the direction of the mark 32 can be identified without using the reference line.

・上記各実施形態および各変形例では、基準頂点を識別するために、基準線Sを用いるようにしたが、本発明における基準頂点の識別方法はこれに限られるものではない。例えば、マーク32の一部を塗りつぶすようにしてもよい。   In each of the above embodiments and modifications, the reference line S is used to identify the reference vertex, but the reference vertex identifying method in the present invention is not limited to this. For example, a part of the mark 32 may be filled.

・上記各実施形態および各変形例では、マーク32をマーカー33に直接付すようにしたが、本発明はこれに限られるものではなく、マーク32は、マーカー33と離れた位置に設定されていてもよい。マーカー33の位置および座標をマーク32の位置および座標に基づいて決定することができればよい。   In each of the above embodiments and modifications, the mark 32 is directly attached to the marker 33. However, the present invention is not limited to this, and the mark 32 is set at a position away from the marker 33. Also good. It is only necessary that the position and coordinates of the marker 33 can be determined based on the position and coordinates of the mark 32.

・上記各実施形態および各変形例では、治療器具31の位置および姿勢をツールCGモデルにてPC14の表示面に表示するようにしたが、本発明における治療器具31の位置および姿勢の表示方法はCGモデルに限られるものではなく、他の方法を用いるようにしてもよい。例えば、アニメーションや簡易モデルにて表示するようにしてもよい。   In each of the above-described embodiments and modifications, the position and orientation of the treatment instrument 31 are displayed on the display surface of the PC 14 using the tool CG model. However, the method for displaying the position and orientation of the treatment instrument 31 in the present invention is as follows. The method is not limited to the CG model, and other methods may be used. For example, it may be displayed as an animation or a simple model.

・上記各実施形態および各変形例では、位置姿勢推定装置10を歯科実習装置50に適用した例について説明したが、本発明における位置姿勢推定装置10はこれに限られるものではなく、AV機器やゲーム装置等、他の装置に適用することはできる。   In each of the above embodiments and each modification, the example in which the position / orientation estimation apparatus 10 is applied to the dental training apparatus 50 has been described. However, the position / orientation estimation apparatus 10 according to the present invention is not limited thereto, and may be an AV device, It can be applied to other devices such as game devices.

10…位置姿勢推定装置
11…頭部模型
12…歯列模型
13…カメラ
14…パーソナルコンピュータ(PC)
21…上顎部
22…下顎部
31…治療器具
32…マーク
33…マーカー
50…歯科実習装置
51…椅子
52…歯科治療台
53…支柱
DESCRIPTION OF SYMBOLS 10 ... Position and orientation estimation apparatus 11 ... Head model 12 ... Dental row model 13 ... Camera 14 ... Personal computer (PC)
DESCRIPTION OF SYMBOLS 21 ... Upper jaw part 22 ... Lower jaw part 31 ... Treatment instrument 32 ... Mark 33 ... Marker 50 ... Dental practice apparatus 51 ... Chair 52 ... Dental treatment table 53 ... Post

Claims (7)

対象物を含む空間を撮像する撮像手段と、前記撮像手段を通じて撮像される撮影画像に基づいて、前記対象物の前記撮像手段に対する相対的な位置および姿勢を推定する推定手段とを備える位置姿勢推定装置であって、
前記対象物は、当該対象物を構成する面のうち予め定められた面に、四箇所以上の角部を備える図形からなるマークが設定されるものであり、
前記推定手段は、前記撮影画像から前記図形からなるマークを抽出したか否かを判定するマーク抽出判定を行うべく構成されており、
前記図形からなるマークを抽出したと判定したときに、前記マークを構成する各角部の位置座標に基づいて前記対象物の前記撮像手段に対する相対的な位置および姿勢を推定する推定処理を行う
ことを特徴とする位置姿勢推定装置。
Position and orientation estimation comprising imaging means for imaging a space including an object, and estimation means for estimating a relative position and orientation of the object with respect to the imaging means based on a captured image captured through the imaging means A device,
The object is set with a mark made of a figure having four or more corners on a predetermined surface among the surfaces constituting the object,
The estimation means is configured to perform a mark extraction determination for determining whether or not a mark made of the graphic is extracted from the photographed image,
Performing an estimation process of estimating a relative position and orientation of the object with respect to the imaging unit based on the position coordinates of each corner constituting the mark when it is determined that the mark made of the graphic has been extracted. A position and orientation estimation device characterized by the above.
請求項1に記載の位置姿勢推定装置であって、
前記推定手段は、前記撮影画像から前記マークを構成する複数の線分を抽出し、前記抽出した各線分を端部と中央部分とにそれぞれ区画して、前記中央部分の位置座標に基づいて前記各線分同士の交点を算出し、前記各線分同士の交点を前記角部の位置座標とする
ことを特徴とする位置姿勢推定装置。
The position and orientation estimation apparatus according to claim 1,
The estimation means extracts a plurality of line segments constituting the mark from the photographed image, divides each extracted line segment into an end part and a central part, and based on the position coordinates of the central part A position / orientation estimation apparatus characterized in that an intersection between line segments is calculated and the intersection between the line segments is used as a position coordinate of the corner.
請求項1または2に記載の位置姿勢推定装置であって、
前記対象物は多面体からなるものであり、
前記マークは前記対象物の少なくとも二面に設定されている
ことを特徴とする位置姿勢推定装置。
The position and orientation estimation apparatus according to claim 1 or 2,
The object is a polyhedron,
The position and orientation estimation device, wherein the mark is set on at least two surfaces of the object.
請求項1〜3のいずれか一項に記載の位置姿勢推定装置であって、
当該位置姿勢推定装置は、歯列模型を備える頭部模型と、歯科治療に用いる治療器具とを備える歯科実習装置に適用されるものであり、
前記対象物は、前記治療器具に固定されている
ことを特徴とする位置姿勢推定装置。
The position and orientation estimation apparatus according to any one of claims 1 to 3,
The position and orientation estimation device is applied to a dental training device including a head model including a dentition model and a treatment instrument used for dental treatment,
The target object is fixed to the treatment instrument.
請求項4に記載の位置姿勢推定装置であって、
前記対象物は、前記歯列模型に固定されている
ことを特徴とする位置姿勢推定装置。
The position and orientation estimation apparatus according to claim 4,
The object is fixed to the dentition model. A position and orientation estimation apparatus, wherein:
請求項4および5に記載の位置姿勢推定装置であって、
前記治療器具と前記歯列模型とをCG画像として表示することができる
ことを特徴とする位置姿勢推定装置。
The position and orientation estimation apparatus according to claim 4 and 5,
The position and orientation estimation apparatus characterized in that the treatment instrument and the dentition model can be displayed as a CG image.
対象物を含む空間を撮像する撮像手段と、前記撮像手段を通じて撮像される撮影画像に基づいて、前記対象物の前記撮像手段に対する相対的な位置および姿勢を推定する推定手段とを備える位置姿勢推定装置に適用されるマークであって、
前記推定手段は、前記撮影画像から当該マークを抽出したか否かを判定するマーク抽出判定を行うべく構成されており、
当該マークを抽出したと判定したときに、前記マークを構成する各角部の位置座標に基づいて前記対象物の前記撮像手段に対する相対的な位置および姿勢を推定する推定処理を行うものであり、
当該マークは、当該対象物を構成する面のうち予め定められた面に付され、四箇所以上の角部を備える図形からなる
ことを特徴とするマーク。
Position and orientation estimation comprising imaging means for imaging a space including an object, and estimation means for estimating a relative position and orientation of the object with respect to the imaging means based on a captured image captured through the imaging means A mark applied to the device,
The estimation means is configured to perform mark extraction determination for determining whether or not the mark has been extracted from the captured image,
When it is determined that the mark has been extracted, an estimation process for estimating a relative position and orientation of the target object with respect to the imaging unit is performed based on the position coordinates of each corner portion constituting the mark,
The mark is a mark that is attached to a predetermined surface among the surfaces that constitute the object and includes a figure having four or more corners.
JP2011265338A 2011-12-02 2011-12-02 Position attitude estimation mark and position attitude estimation device using the same Pending JP2013117451A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2011265338A JP2013117451A (en) 2011-12-02 2011-12-02 Position attitude estimation mark and position attitude estimation device using the same

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2011265338A JP2013117451A (en) 2011-12-02 2011-12-02 Position attitude estimation mark and position attitude estimation device using the same

Publications (1)

Publication Number Publication Date
JP2013117451A true JP2013117451A (en) 2013-06-13

Family

ID=48712110

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011265338A Pending JP2013117451A (en) 2011-12-02 2011-12-02 Position attitude estimation mark and position attitude estimation device using the same

Country Status (1)

Country Link
JP (1) JP2013117451A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2021165639A (en) * 2020-04-06 2021-10-14 医療法人社団皓有会 Posture estimation device

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH05180633A (en) * 1992-01-07 1993-07-23 Nissan Motor Co Ltd Method for estimating position of virtual point by measurement with lighthouse type sensor
JPH09167232A (en) * 1995-12-15 1997-06-24 Yamaha Motor Co Ltd Segment extraction method
JPH09178447A (en) * 1995-12-27 1997-07-11 Nippon Steel Corp Target for measuring three-dimensional shape
JPH1186006A (en) * 1997-07-15 1999-03-30 Tomosuke Nonomura Index extracting, detecting, and tracking device
JP2001051593A (en) * 1999-08-10 2001-02-23 Morita Mfg Co Ltd Dental practice method by reconstruction image, dental practice system, recording medium recording program embodying the method and dental display system by reconstruction image and program embodying the system
JP2005147894A (en) * 2003-11-17 2005-06-09 Canon Inc Measuring method and measuring instrument
JP2005537583A (en) * 2002-09-03 2005-12-08 バリアン・メディカル・システムズ・テクノロジーズ・インコーポレイテッド Method and apparatus for tracking an object with a single camera

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH05180633A (en) * 1992-01-07 1993-07-23 Nissan Motor Co Ltd Method for estimating position of virtual point by measurement with lighthouse type sensor
JPH09167232A (en) * 1995-12-15 1997-06-24 Yamaha Motor Co Ltd Segment extraction method
JPH09178447A (en) * 1995-12-27 1997-07-11 Nippon Steel Corp Target for measuring three-dimensional shape
JPH1186006A (en) * 1997-07-15 1999-03-30 Tomosuke Nonomura Index extracting, detecting, and tracking device
JP2001051593A (en) * 1999-08-10 2001-02-23 Morita Mfg Co Ltd Dental practice method by reconstruction image, dental practice system, recording medium recording program embodying the method and dental display system by reconstruction image and program embodying the system
JP2005537583A (en) * 2002-09-03 2005-12-08 バリアン・メディカル・システムズ・テクノロジーズ・インコーポレイテッド Method and apparatus for tracking an object with a single camera
JP2005147894A (en) * 2003-11-17 2005-06-09 Canon Inc Measuring method and measuring instrument

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2021165639A (en) * 2020-04-06 2021-10-14 医療法人社団皓有会 Posture estimation device
JP7219243B2 (en) 2020-04-06 2023-02-07 医療法人社団皓有会 Posture estimation device

Similar Documents

Publication Publication Date Title
JP4401727B2 (en) Image display apparatus and method
JP4537104B2 (en) Marker detection method, marker detection device, position and orientation estimation method, and mixed reality space presentation method
JP4532982B2 (en) Arrangement information estimation method and information processing apparatus
CN103189827B (en) Object display apparatus and object displaying method
JP6793151B2 (en) Object tracking device, object tracking method and object tracking program
JP5025496B2 (en) Image processing apparatus and image processing method
TWI533027B (en) Color channels and optical markers
JP2017532076A (en) Inspection system for appropriate oral hygiene procedures
CN110858403B (en) Method for determining scale factor in monocular vision reconstruction and mobile robot
JP2005326282A (en) Position and attitude measurement method and system
JP4834424B2 (en) Information processing apparatus, information processing method, and program
JP2017096725A (en) Information processor and information processing method
JP2012221260A (en) Information processing program, information processing method, information processor and information processing system
KR20120065063A (en) System and method for measuring flight information of a spheric object with a high-speed stereo camera
WO2022194014A1 (en) Completeness self-checking method of capsule endoscope, electronic device, and readable storage medium
JP4214291B1 (en) Grounding point estimation device, grounding point estimation method, flow line display system, and server
KR101653052B1 (en) Measuring method and system for 3-dimensional position of human body
WO2018056802A1 (en) A method for estimating three-dimensional depth value from two-dimensional images
JP6942566B2 (en) Information processing equipment, information processing methods and computer programs
JP2016081110A (en) Image display device, image display method, and program
JP4205004B2 (en) Calibration method
EP2662829A1 (en) System and method of book leaf tracking
CN106552421A (en) AR o systems
JP2013117451A (en) Position attitude estimation mark and position attitude estimation device using the same
JP2014229274A (en) Marker, object with marker, marker analysis method, and image creation method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20141127

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20150904

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20151013

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20151210

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20160621

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20170207