JP2004173972A - Image processing system for strabismus endoscope and strabismus endoscopic apparatus with the same - Google Patents

Image processing system for strabismus endoscope and strabismus endoscopic apparatus with the same Download PDF

Info

Publication number
JP2004173972A
JP2004173972A JP2002344394A JP2002344394A JP2004173972A JP 2004173972 A JP2004173972 A JP 2004173972A JP 2002344394 A JP2002344394 A JP 2002344394A JP 2002344394 A JP2002344394 A JP 2002344394A JP 2004173972 A JP2004173972 A JP 2004173972A
Authority
JP
Japan
Prior art keywords
coordinate system
axis
endoscope
image
vector
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2002344394A
Other languages
Japanese (ja)
Inventor
Tetsuzo Yamaguchi
鉄藏 山口
Masahiko Nakamoto
将彦 中本
Yoshikazu Nakajima
義和 中島
Yoshinobu Sato
嘉伸 佐藤
Makoto Hashizume
誠 橋爪
Shinichi Tamura
進一 田村
Nobuhiko Sugano
信彦 菅野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Individual
Original Assignee
Individual
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Individual filed Critical Individual
Priority to JP2002344394A priority Critical patent/JP2004173972A/en
Publication of JP2004173972A publication Critical patent/JP2004173972A/en
Withdrawn legal-status Critical Current

Links

Images

Landscapes

  • Instruments For Viewing The Inside Of Hollow Bodies (AREA)
  • Endoscopes (AREA)
  • Closed-Circuit Television Systems (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide an extended sense-of-reality operation support system corresponding to a strabismus endoscope. <P>SOLUTION: The strabismus endoscopic apparatus 1 comprises the strabismus endoscope 10, an image processing device 20 and an image display device 30. The strabismus endoscope 10 comprises a camera part 11 with an imaging surface and a hard insertion part 12. The insertion part 12 is structured to be rotatable relatively to the camera part 11 around an axis L<SB>W</SB>, and an observation window 13 whose optical axis L<SB>C</SB>is inclined relatively to the axis L<SB>W</SB>is formed on the tip surface 12a of the insertion part 12. The strabismus endoscopic apparatus 1 has the image processing system for the strabismus endoscope, and the image processing system has a projection model for determining the conversion from a world coordinate system to an image coordinate system. <P>COPYRIGHT: (C)2004,JPO

Description

【0001】
【発明の属する技術分野】
本発明は、斜視内視鏡によって得られた画像を処理するための斜視内視鏡用画像処理システムおよびこれを備えた斜視内視鏡装置に関するものである。
【0002】
【従来の技術】
低浸襲性に優れた内視鏡手術に関しては、これまで種々の拡張現実感手術支援システムが開発され開示されている(下記非特許文献1〜6参照)。
本願発明者らも、3次元超音波画像を用いた拡張現実感腹腔鏡手術支援システムを開発し、これを開示している(下記非特許文献13参照)。
【0003】
これらの手術支援システムは、直視内視鏡(観察窓の光軸が挿入部の軸線と一致している、正面を見る内視鏡)を対象としたシステムであるが、内視鏡手術では、広い視野を確保するために、斜視内視鏡(観察窓の光軸が挿入部の軸線に対して傾斜している、斜め方向を見る内視鏡)が用いられることが多い。
【0004】
斜視内視鏡では、広い視野を確保できるように、広角レンズやスィングプリズムを組み合わせて用いるなどの光学的な工夫が行なわれている。このような光学的工夫がなされた斜視鏡に対応して、拡張現実感手術支援システムを実現するためには、世界座標系(3次元空間に設定された基準となる座標系)から画像座標系(斜視内視鏡に備えられたCCD等の撮像面等に設定された座標系)への変換を決定する投影モデルや、その投影モデルにおいて必要となる、世界座標系からカメラ座標系への変換を決定する外部パラメータや、斜視内視鏡に固有の内部パラメータのモデル、およびそれらを推定する手法が必要となる。内部パラメータに関しては、直視内視鏡用のモデルを適用することが可能であり、またその推定に関しても、従来提案されている手法(例えば、下記非特許文献11,12参照)を用いることが可能である。しかし、外部パラメータに関しては、これまで斜視内視鏡に対応し得るモデルが提案されておらず、このためその推定方法も提案されていなかった。このような事情により、従来、斜視内視鏡に対応した投影モデルは知られていなかった。
【0005】
なお、広角レンズの歪パラメータの推定に関しては、すでに多くの高精度な手法が提案されている(下記非特許文献8〜10参照)。また、斜視内視鏡の研究においても、斜視内視鏡の運動速度を一定にするという条件に、各々の運動位置の視野を合成して擬似広角化するという手法が提案されている(下記非特許文献7参照)。しかし、斜視内視鏡に対応した拡張現実感手術支援システムに適用し得るものではなかった。
【0006】
【非特許文献1】
D.Dey,D.Gobbi,P.Slomka,K.J.M.Surry,and T.M.Peters,“Automatic fusion of freehand endoscopic brain images to three−dimensional surfaces:creating stereoscopic panoramas.”,IEEE Trans.Med.Imag.,Vol. 21,pp.23−30,2002.
【0007】
【非特許文献2】
J.Helferty,C.Zhang,G.McLennan,and W.Higgins,“Videoendoscopic distortion correction and its application to virtual guidance of endoscopy”,IEEE Trans.Med.Imag.,Vol.20,pp.605−616,2002.
【0008】
【非特許文献3】
S.D.Buck et al.,“A system to Support laparoscopic Surgeryby augmented reality visualization.”Springer−Verlag,2001,Proceedings, MICCAI,pp.691−698
【0009】
【非特許文献4】
R.Khadem et al.,“Endoscope calibration and accuracy testingfor 3D/2D image rgistration.”Springer−Verlag,2001,Proceedings, MICCAI,pp.1361−1365
【0010】
【非特許文献5】
P.J.Edwards,A.P.King,C.R.Maurer,D.A.de Cunha,D.J.Hawkers,D.L.G. Hill,R.P.Gastion,M.R.Fenlon,A.J.usczyzck,A.J.Strong,C.L.Chandler,and M.J.Gleeson,“Design and Evaluation of a system for microscope−assisted guided interventions(MAGI)”
【0011】
【非特許文献6】
J.D.Stefansic,A.J.Herline,Y.Shyr,W.C.Chaman,J.M.Fitzpatrick,B.M. Dawant,and R.L.Galloway,“Registration of physical space to laparoscopic image space for use in minimally invasive hepatic surgery”,IEEE Trans.Med.Imag.,vol.20,pp.1012−1023,2000.
【0012】
【非特許文献7】
H.Yamauchi et al.,“「記憶する内視鏡」による内視鏡視野の擬似広角化”,J.JSCAS,vol.2,no.2,pp.62−68,2000.
【0013】
【非特許文献8】
H.Haneishi,Y.Yagihashi,and Y.Miyake“A New method for distortion correction of electronic endoscopic images”.IEEE Trans. Med.Imag.,vol.14,No.3,pp.548−555,1995.
【0014】
【非特許文献9】
K.Vijayan et al.,“A new approach for nonlinear distortioncorrection in endoscopic images based on least squares estimation,”IEEE Trans.Med.Imag.,vol.18,pp.345−354,1995.
【0015】
【非特許文献10】
W.E.Smith et al.,“Correction of distortion in endoscopic images,”IEEE Trans.Med.Imag.,vol.11,pp.117−122,1992.
【0016】
【非特許文献11】
Wang and W.H.Tsai,“Camera calibration by vanishing lines for 3−D computer vision”,IEEE Trans.PAMI,vol.13,no.4,pp.370−376, 1991.
【0017】
【非特許文献12】
R.Y.Tsai,“A versatile camera calibration technique for high−accuracy 3−D machine vision metrology using of−the−shelf tv cameras and lenses”.IEEE J.Robot.Automat.,vol.3,pp.323−344,1987.
【0018】
【非特許文献13】
M.Nakamoto et al.,“3D Ultrasound System Using a Magneto−Optic Hybrid Tracker for Augmented Reality Visualization in Laparoscopic Liver Surgery”.In MICCAI 2002,LNCS 2489,pp. 148−155,September 2002.
【0019】
【発明が解決しようとする課題】
上述したように、これまで、斜視内視鏡に対応した拡張現実感手術支援システムは実現されていなかった。しかし、近年、特に腹腔内、関節整形、耳鼻科手術では、斜視内視鏡が用いられることが多いため、斜視内視鏡に対応した拡張現実感手術支援システムを実現することが強く望まれていた。
本発明はこのような事情に鑑みなされたもので、斜視内視鏡に対応した拡張現実感手術支援システムを実現化し得る斜視内視鏡用画像処理システム、およびこれを備えた斜視内視鏡診断装置を提供することを目的とする。
【0020】
【課題を解決するための手段】
上記課題を解決するため本発明の斜視内視鏡用画像処理システムは、体腔内に挿入される直線状に延びた挿入部と、該挿入部の先端面に設けられた観察窓と、観察対象の画像が撮像される撮像面とを備え、前記観察窓の光軸が前記挿入部の軸線に対して傾斜し、かつ前記挿入部が前記撮像面に対して、前記軸線を回転軸として相対的に回転可能に構成された斜視内視鏡において、該斜視内視鏡により得られた画像を処理する斜視内視鏡用画像処理システムであって、
前記斜視内視鏡の外部空間に設定された世界座標系から前記観察窓に設定されたカメラ座標系への変換を決定する外部パラメータTを、下式(3)によって規定したことを特徴とするものである。
【0021】
T=TRotC(−θ,n,c)TRotW(θ,n,c)……(3)
【0022】
ここで、nは、前記世界座標系において前記軸線の方向を規定するベクトル、cは、前記世界座標系において前記軸線の通過位置を規定するベクトル、nは、前記カメラ座標系において前記光軸の方向を規定するベクトル、cは、前記カメラ座標系において前記光軸の通過位置を規定するベクトル、θは、前記挿入部が前記軸線を回転軸として、前記撮像面に対して相対的に回転するときの回転角、Tは、前記挿入部が前記軸線を回転軸として、前記撮像面に対して相対的に回転していないときの、前記世界座標系から前記カメラ座標系への対応を表す変換、TRotWは、前記世界座標系において、前記挿入部が前記軸線を回転軸として、前記撮像面に対して相対的に回転するときの該回転を表す変換、TRotCは、前記カメラ座標系内の回転補正を表す変換、をそれぞれ示している。
【0023】
前記斜視内視鏡用画像処理システムにおいて、前記世界座標系から前記撮像面に設定された画像座標系への変換を決定する投影モデルを備え、該投影モデルは、前記斜視内視鏡に固有の内部パラメータMと前記外部パラメータTとを用いて、下式(4)で規定されているものとすることが可能である。
【0024】
si=MTp……(4)
【0025】
ここで、pは、前記世界座標系上の点の位置を表すベクトル、iは、前記画像座標系上の点の位置を表すベクトル、sは所定のスカラー、をそれぞれ示している。
【0026】
また、本発明の斜視内視鏡装置は、体腔内に挿入される直線状に延びた挿入部と、該挿入部の先端面に設けられた観察窓と、観察対象の画像が撮像される撮像面とを備え、前記観察窓の光軸が前記挿入部の軸線に対して傾斜し、かつ前記挿入部が前記撮像面に対して、前記軸線を回転軸として相対的に回転可能に構成された斜視内視鏡と、前記特徴を備えた本発明の斜視内視鏡用画像処理システムとを備えてなることを特徴とするものである。
【0027】
【発明の実施の形態】
以下、本発明の実施形態について、図面を用いて説明する。
【0028】
〈斜視内視鏡装置概要〉
図1は本発明の一実施形態に係る斜視内視鏡装置の構成を模式的に示す図である。図示した斜視内視鏡装置1は、斜視内視鏡(斜視型硬性内視鏡)10、画像処理装置20、および画像表示装置30を備えてなる。
【0029】
斜視内視鏡10は、CCD等の撮像素子などにより構成される撮像面(図示略)を備えたカメラ部11と、該カメラ部11から軸線L方向に延びた硬性の挿入部12とを備えている。この挿入部12は体腔内等に挿入される部分であり、その先端面12aは前記軸線Lと斜交するように形成されている。また、挿入部12は前記軸線Lを回転軸として、前記カメラ部に対して回転可能に構成されており、その先端面12aには観察窓13が設けられている。この観察窓13の光軸Lは前記軸線Lに対して傾斜するように構成されており、該軸線Lを回転軸として前記挿入部12を回転させると、該光軸Lは前記撮像面に対して相対的に回転移動するようになっている。なお、前記軸線Lは世界座標系(斜視内視鏡10の外部空間に設定された座標系)Sにおいて定義され、前記光軸Lは、カメラ座標系(観察窓13に設定された座標系)Sにおいて定義されている。
【0030】
前記斜視内視鏡装置1においては、観察対象からの反射光が、観察窓13より挿入部12内に取り込まれ、カメラ部11内の撮像素子において撮像される。そして、撮像素子により得られた画像信号は、画像処理装置20において信号処理され、さらに信号処理された画像信号が、画像表示装置30において画像に変換されて表示されるようになっている。
【0031】
〈斜視内視鏡用画像処理システム〉
前記斜視内視鏡装置1は、本発明の一実施形態に係る斜視内視鏡用画像処理システムを備えている。この斜視内視鏡用画像処理システムは、斜視内視鏡10により得られた画像信号を処理して、拡張現実感手術支援に利用し得る画像を形成するものであり、例えば、画像表示装置30内に設けられた演算回路や演算プログラム等により構成される。
【0032】
そして、この斜視内視鏡用画像処理システムは、前記世界座標系Sから前記撮像面に設定された画像座標系への変換を決定する投影モデルを備えている。この投影モデルは、前記斜視内視鏡10に固有の内部パラメータMと、前記世界座標系Sから前記カメラ座標系Sへの変換を決定する外部パラメータTとを用いて、下式(5)で規定されている。
【0033】
si=MTp……(5)
【0034】
ここで、pは、前記世界座標系上の点の位置を表すベクトル、iは、前記画像座標系上の点の位置を表すベクトル、sは所定のスカラー、をそれぞれ示している。
【0035】
また、この斜視内視鏡用画像処理システムは、前記外部パラメータTを、下式(6)によって規定している。
【0036】
T=TRotC(−θ,n,c)TRotW(θ,n,c)……(6)
【0037】
ここで、nは、前記世界座標系において前記軸線の方向を規定するベクトル、cは、前記世界座標系において前記軸線の通過位置を規定するベクトル、nは、前記カメラ座標系において前記光軸の方向を規定するベクトル、cは、前記カメラ座標系において前記光軸の通過位置を規定するベクトル、θは、前記挿入部が前記軸線を回転軸として、前記撮像面に対して相対的に回転するときの回転角、Tは、前記挿入部が前記軸線を回転軸として、前記撮像面に対して相対的に回転していないときの、前記世界座標系から前記カメラ座標系への対応を表す変換、TRotWは、前記世界座標系において、前記挿入部が前記軸線を回転軸として、前記撮像面に対して相対的に回転するときの該回転を表す変換、TRotCは、前記カメラ座標系内の回転補正を表す変換、をそれぞれ示している。
【0038】
〈斜視内視鏡の投影モデル〉
以下、前記投影モデルについて、図2、図3を用いて詳細に説明する。図2および図3は、本発明の一実施形態に係る投影モデルの概念を模式的に示す図で、図2は前記世界座標系Sから前記カメラ座標系Sへの変換を示し、図3は前記カメラ座標系S内の回転補正を示している。
【0039】
前記世界座標系Sの点の位置ベクトルをP(x,y,z,1)、前記カメラ座標系Sの点の位置ベクトルをPとし、世界座標系Sからカメラ座標系Sに変換する剛体アフィン変換(前記外部パラメータTに相当する)をTとすると、PからPへの変換は、下式(7)で表される。
【0040】
=Tp……(7)
【0041】
また、上式(7)における外部パラメータTは、下式(8)で表される。
【0042】
【数1】

Figure 2004173972
【0043】
ここで、Rは、回転を意味する3行3列の直交行列を表し、tは、平行移動を意味する3次元ベクトルを表し、Iは単位行列を表している。
【0044】
一方、前記Pの2次元投影点の位置ベクトルを、i(u=x/z,v=y/z,1)とすると、この投影点iから、前記画像座標系上においてこの投影点iと対応する画像点iへの対応関係は、前記内部パラメータMを用いて、下式(9)で表される。
【0045】
si=Mi……(9)
【0046】
ここで、sは所定のスカラーを示している。
【0047】
また、上式(9)における内部パラメータMは、下式(10)で表される。
【0048】
【数2】
Figure 2004173972
【0049】
ここで、fは、焦点距離を表し、k,kは、それぞれu軸,v軸の単位長を表し、(u,v)は、画像中心の座標を表している。
【0050】
前記斜視内視鏡10において、前記外部パラメータTは、以下のように記述できる。まず、図2(a)に示すように、前記斜視内視鏡10において、前記世界座標系Sに対して前記カメラ座標系Sが回転移動していないときの、該世界座標系からS該カメラ座標系Sへの変換をTとする。なお、図2(a)では、この回転の伴わないカメラ座標系をSC0と表記している。
【0051】
次いで、図2(b)に示すように、世界座標系Sにおいて、前記軸線Lを回転軸として、前記撮像面に対して前記挿入部12を角度θだけ回転移動させる場合を想定する。このときの回転を表す変換をTRotW(θ,n,c)とする。なお、このとき前記軸線Lは、前記2つのベクトルn,cによって規定される。また、図2(b)では、この回転変換TRotWの後、前記Tの変換を施したカメラ座標系をS’C0と表記している。
【0052】
前記回転後のカメラ座標系S’C0は、回転前のカメラ座標系をSC0に対して相対的に回転移動している。一方、前記斜視内視鏡10の撮像面(および前記画像座標系)の前記世界座標系Sに対する位置は変化していない。このため、カメラ座標系における回転補正が必要となる。本発明では、図3に示すように、前記カメラ座標系をS’C0を、前記光軸Lを回転軸として、前記回転方向とは反対方向に角度−θだけ回転転補正する変換TRotC(−θ,n,c)を施すことにより、この回転補正を行う。
【0053】
このような一連の変換を行うことにより、すなわち、上式(6)により規定された外部パラメータTを含む、上式(5)により規定された投影モデルを適用することによって、前記世界座標系Sから前記撮像面に設定された画像座標系への変換を決定することが可能となる。
【0054】
〈パラメータ推定方法〉
次に、前述した投影モデルで用いる各パラメータを推定する方法について説明する。まず、前述の、回転が伴わないときの変換Tと、内部パラメータMの推定を行う。これらの推定方法としては、従来提案されている様々な手法を適用することが可能である。本実施形態においても従来の手法、例えば、前記非特許文献11に記載された手法を用いて、前記変換Tと前記内部パラメータMの推定を行う。
【0055】
次いで、前述の、回転を伴うときの変換TRotW(θ,n,c)における、前記軸線Lの方向と通過位置をそれぞれ規定する2つのベクトルn,cの推定を行う。このベクトルn,cは、前記軸線Lを決定するパラメータなので、自由度は4となる。そこで、これらの推定にあたっては、まず、前記斜視内視鏡10の挿入部12に、該挿入部12の回転に応じて前記軸線Lを中心とする円軌道上を移動する3次元位置マーカを設ける。この3次元位置マーカの円軌道の中心に対応するのが前記ベクトルcであり、この円軌道を含む平面の法線方向に一致し、この円軌道の中心を通るベクトルに対応するのが前記ベクトルnとなる。また、前記斜視内視鏡10の前記カメラ部11にも、該カメラ部11の前記世界座標系Sでの位置を検出するための位置センサを設けカメラ部11の位置を計測する。
【0056】
次に、前記挿入部12を回転させては、前記3次元位置マーカの位置を計測するという手順を複数回繰り返して行う。3次元位置マーカの位置計測値をp (i=1,2,・・・n)とすると、下式(11)を満たすようなnを線形推定により求める。
【0057】
【数3】
Figure 2004173972
【0058】
ここで、(,)は内積を表し、││はユークリッドノルムを表す。
【0059】
次いで、この求められたnから、下式(12)を満たすようなcを非線形推定、例えば、Levenberg−Marquadt法を用いて求める。
【0060】
【数4】
Figure 2004173972
【0061】
ここで、(,)は内積を表し、││はユークリッドノルムを表す。
【0062】
続いて、求められたp −cがなす角度から、下式(13)により前記回転角θを求める。
【0063】
【数5】
Figure 2004173972
【0064】
ここで、(,)は内積を表し、[,]は外積を表し、││はユークリッドノルムを表す。
【0065】
最後に、前述の、回転補正の変換TRotC(−θ,n,c)における、カメラ座標系において前記光軸Lの方向を表すベクトルnと、カメラ座標系において前記光軸Lの通過点の位置を表すベクトルcを推定する。これらの推定にあたっては、まず、前記各ベクトルc,n,回転角θに対応する、世界座標系上の点p Wobjの計算上の画像投影点i’(p Wobj,θ;n,c)を、上式(5)、(6)を用いて求める。次に、p Wobjの実際の画像座標系上での位置ベクトルをi として、下式(14)を満たす前記各ベクトルc,nを求める。
【0066】
【数6】
Figure 2004173972
【0067】
〈シミュレーション実験〉
次に、前述したベクトルc,nの推定に関して行ったシミュレーション実験について説明する。シミュレーションのための生成データは、次の通りである。すなわち、観察対象として、縦横の間隔4mm、3×3に点が配列された点列の図柄をキャリブレーションに用いた。また、各点に対して標準偏差0.1mmのガウスノイズを加えた。そして、斜視内視鏡の挿入部を約45度ずつ回転させ、回転毎に4枚(4フレーム)ずつ、観察窓から約30〜40cm離れた位置に配置した前記図柄を撮像するという想定で、前述した投影モデルによる前記図柄の各点の投影点の図を作成した(図4)。なお、画像面(撮像面)の範囲は200〜400画素(pixel)の範囲と想定した。
【0068】
画像面上で、標準偏差0.5,1.0,1.5画素のガウスノイズをそれぞれ加えたシミュレーション結果を表1に示す。投影点の残差およびベクトルc,nの誤差は、シミュレーションで与えた真値と推定値との差である。また、与えたガウスノイズの標準偏差と、投影点の残差およびベクトルc,nの誤差との関係を明らかにするため、これらの関係を図5に示した。図5に示すように、投影点の残差およびベクトルc,nの誤差は、与えたガウスノイズの標準偏差に対して略線形であることが確かめられた。
【0069】
【表1】
Figure 2004173972
【0070】
〈実画像における実験〉
次に、前述した投影モデルによる投影の精度を検証するために、実画像を用いて実施した複数の実験について説明する。
【0071】
(実験1)
この実験1では、斜視角度30度、撮像面の大きさ340×340画素の歪無し斜視内視鏡を用いた。また、観察対象は前記点列の図柄とした。斜視内視鏡の挿入部をその軸線を回転軸として約45度ずつ回転させ、回転毎に観察対象点の画像を3枚(3フレーム)取り込み、その画像を用いてキャリブレーションを行った。そして、キャリブレーションを行った角度範囲で取得した画像の精度を調べた。観察対象点の世界座標系上での位置は、3次元センサ(Polaris;NorthernDigital Inc.)を用いて計測した。この3次元センサの精度は、0.35mmである。
【0072】
この実験1で得られた結果を図6に示す。この実験1により確認された誤差は、3.02画素であった。また、パラメータを推定する際の残差は、2.86画素であった。この誤差は、画像面サイズの約1パーセント、1mm程度に相当する。これは、実用上の許容範囲ではあるが、前述のシミュレーション結果に比べると精度が劣る。これは、キャリブレーションに用いた画像のフレーム数が少なかったためであると考えられる。
【0073】
(実験2)
この実験2では、前記実験1において、画像のフレーム数と各フレームにおけるサンプル点の数との関係を検証するために行った。実験に用いた器具等は、前記実験1と同じである。この実験2で得られた結果を図7に示す。図7に示すように、キャリブレーションに用いる画像のフレーム数(F)が多いほど、またフレーム毎のサンプル点数が多いほど、高い精度が得られることが確かめられた。
【0074】
(実験3)
この実験3では、撮像面の大きさ340×240画素(0.11mm/pixel)の斜視内視鏡を用いた。また、観察対象は格子模様の図柄とした。斜視内視鏡の挿入部をその軸線を回転軸としてΔθずつ回転させ、回転毎に観察対象の画像を取り込み、その画像を用いてキャリブレーションを行った。また、キャリブレーションに用いた画像とは異なる5枚に画像において、画像ごとに16点、計80点の計測点を用いて、投影誤差(前述の投影モデルで得られた画像投影点の座標値と、観察対象の点の実際の座標を3次元センサを用いて得られた座標値との差)の平均を求めた。なお、3次元センサは、前記実験1,2で用いたものを用いた。また、用いた斜視内視鏡には、樽型歪が存在するため、前記非特許文献8に記載された方法により、歪補正を行った。
【0075】
また、前記回転角度Δθを変化させ、回転毎に得られた画像に基づき、前述した光軸Lのキャリブレーションを行い、得られたパラメータで投影誤差を計測した。この結果を図8に示す。図8に示すように、Δθの減少と共に残差と投影誤差は減少し、Δθ=18度のとき誤差は4.1画素(画像面内では0.45mm)となり、それより小さいΔθでは著しい誤差の減少は見られなかった。このとき、前記非特許文献5に記載された方法によるキャリブレーションにおける残差を求めたところ、4.2画素(画像面内では0.46mm)であったため、投影誤差中に光軸Lのキャリブレーション誤差が占める割合は、十分小さいといえる。また、このとき得られた画像の一例を図9に示す。画像中の+が、投影モデルにより得られた、観察対象点の画像上での位置を示している。
【0076】
(実験5)
この実験5では、前述の投影モデルにおける軸線L=(n,c)と、光軸L=(n,c)の必要性を検証した。光軸Lを簡略化した投影モデル(比較例1)と、軸線Lを簡略化した投影モデル(比較例2)と、本発明の投影モデル(実施例)との比較を行った。比較にあたっては、前記実験4の手法より、Δθ=18度のときの投影誤差を各投影モデルにおいて求めた。その結果を表2に示す。表2に示すように、投影誤差は本発明の実施例に係る投影モデルが最も小さい。この結果から、光軸Lおよび軸線Lは、斜視内視鏡の投影モデルにおいて必要なパラメータであることがいえる。
【0077】
【表2】
Figure 2004173972
【0078】
以上、本発明の実施形態を説明したが、本発明は上記実施形態に限定されるものではなく、種々の態様の変更が可能である。
例えば、上記実施形態では、斜視内視鏡の挿入部の回転角を検出するために3次元センサを用いているが、ロータリーエンコーダなど他の回転角検出手段を用いて回転角を検出するように構成してもよい。
【0079】
また、上記実施形態においては、外部パラメータT、内部パラメータMを推定する際、前記非特許文献11に記載された手法を用いているが、この手法に代えて種々の手法、例えば、前記非特許文献12や非特許文献「I.W. Faig :“Calibration of close−range photogrammetric systems:Mathematical formulation,”Photogrammetric Eng.and Remote Sensing,vol.41,pp.1479−1486,1975.」等に記載された手法を用いることができる。
【0080】
【発明の効果】
以上、詳細に説明したように、本発明の斜視内視鏡用画像処理システムによれば、斜視内視鏡の外部空間に設定された世界座標系から斜視内視鏡の観察窓に設定されたカメラ座標系への変換を決定する外部パラメータTを、下式によって規定したことにより、以下のような効果を奏する。
【0081】
T=TRotC(−θ,n,c)TRotW(θ,n,c
【0082】
すなわち、この外部パラメータTを用いることにより、挿入部の回転を伴う斜視内視鏡に対応して、世界座標系からカメラ座標系への変換を精度良く決定することが可能となる。また、この外部パラメータTを用いることにより、斜視内視鏡に対応した投影モデルを高精度に構築することができるので、この投影モデルを用いることによって、斜視内視鏡に対応した拡張現実感手術支援システムを実現化することが可能となる。
【0083】
また、本発明の斜視内視鏡装置によれば、本発明の斜視内視鏡用画像処理システムを備えたことにより、斜視内視鏡により得られた画像を拡張現実感手術に用いることが可能となる。
【図面の簡単な説明】
【図1】本発明の一実施形態に係る斜視内視鏡装置の構成を模式的に示す図
【図2】世界座標系からカメラ座標系への変換を模式的に示す図
【図3】カメラ座標系における回転補正を模式的に示す図
【図4】投影モデルによって得られた投影点の図
【図5】シミュレーション実験で得られた関係を示す図
【図6】実験1で得られた結果を示す図
【図7】実験2で得られた結果を示す図
【図8】実験3で得られた結果を示す図
【図9】実験4で得られた画像の一例を示す図
【符号の説明】
1 斜視内視鏡装置
10 斜視内視鏡
11 カメラ部
12 挿入部
12a 先端面
13 観察窓
20 画像処理装置
30 画像表示装置
挿入部の軸線
観察窓の光軸[0001]
TECHNICAL FIELD OF THE INVENTION
The present invention relates to an oblique endoscope image processing system for processing an image obtained by an oblique endoscope, and an oblique endoscope apparatus including the same.
[0002]
[Prior art]
With regard to endoscopic surgery having excellent low invasiveness, various augmented reality surgery support systems have been developed and disclosed (see Non-Patent Documents 1 to 6 below).
The present inventors have also developed and disclosed an augmented reality laparoscopic surgery support system using three-dimensional ultrasonic images (see Non-Patent Document 13 below).
[0003]
These surgery support systems are systems for direct-viewing endoscopes (endoscopes that look at the front, where the optical axis of the observation window coincides with the axis of the insertion section), but in endoscopic surgery, In order to secure a wide field of view, a perspective endoscope (an endoscope in which the optical axis of the observation window is inclined with respect to the axis of the insertion section and looks in an oblique direction) is often used.
[0004]
In the oblique endoscope, an optical device such as a combination of a wide-angle lens and a swing prism is used to secure a wide field of view. In order to realize an augmented reality surgery support system corresponding to such optically devised oblique mirrors, a world coordinate system (a coordinate system serving as a reference set in a three-dimensional space) must be changed to an image coordinate system. (A coordinate system set on an imaging surface such as a CCD provided in the oblique endoscope), and a conversion from the world coordinate system to the camera coordinate system required for the projection model. , An internal parameter model unique to the oblique endoscope, and a technique for estimating them are required. As for the internal parameters, it is possible to apply a model for a direct-view endoscope, and to estimate the same, it is possible to use a conventionally proposed method (for example, see Non-Patent Documents 11 and 12 below). It is. However, as for the external parameters, a model that can correspond to the oblique endoscope has not been proposed so far, and a method of estimating the model has not been proposed. Under such circumstances, conventionally, a projection model corresponding to the oblique endoscope has not been known.
[0005]
As for the estimation of the distortion parameter of the wide-angle lens, many high-precision methods have already been proposed (see Non-Patent Documents 8 to 10 below). Also, in the study of squint endoscopes, a technique has been proposed in which the field of view of each movement position is synthesized to achieve a pseudo wide angle under the condition that the movement speed of the squint endoscope is kept constant (see the non-described below). See Patent Document 7). However, it was not applicable to an augmented reality surgery support system corresponding to an oblique endoscope.
[0006]
[Non-patent document 1]
D. Dey, D .; Gobbi, P .; Slomka, K .; J. M. Surry, and T.S. M. Peters, "Automatic Fusion of Freehand Endoscopic Brain Images to Three-Dimensional Surfaces: Creating Stereoscopic Panoramas.", IEEE Trans. Med. Imag. , Vol. 21 pp. 23-30, 2002.
[0007]
[Non-patent document 2]
J. Helferty, C.I. Zhang, G .; McLennan, and W.C. Higgins, "Videoendoscopic distortion correction and it's applications to virtual guidance of endoscope", IEEE Trans. Med. Imag. , Vol. 20, pp. 605-616, 2002.
[0008]
[Non-Patent Document 3]
S. D. Buck et al. , "A system to Support laparoscopic Surgery augmented reality visualization." Springer-Verlag, 2001, Proceedings, MICCAI, pp. 691-698
[0009]
[Non-patent document 4]
R. Khadem et al. , "Endoscopy calibration and accuracy testing for 3D / 2D image registration." Springer-Verlag, 2001, Proceedings, MICCAI, pp., 1361-1365
[0010]
[Non-Patent Document 5]
P. J. Edwards, A .; P. King, C .; R. Maurer, D .; A. de Cunha, D .; J. Hawkers, D .; L. G. FIG. Hill, R.A. P. Gastion, M .; R. Fenlon, A .; J. usczyzck, A. et al. J. Strong, C.I. L. Chandler, and M.S. J. Gleeson, "Design and Evaluation of a system for microscopic-assisted guided interventions (MAGI)"
[0011]
[Non-Patent Document 6]
J. D. Stefansic, A .; J. Herline, Y .; Shyr, W.C. C. Chaman, J .; M. Fitzpatrick, B .; M. Dawant, and R.S. L. Galloway, "Registration of physical space to laparoscopic image space for use in minimally invasive hepatic surgery", IEEE Trans. Med. Imag. , Vol. 20, pp. 1012-1023, 2000.
[0012]
[Non-Patent Document 7]
H. Yamauchi et al. , “Pseudo-wide-angle endoscope visual field using“ memory endoscope ””, J. JSCAS, vol. 2, no. 2, pp. 62-68, 2000.
[0013]
[Non-Patent Document 8]
H. Haneishi, Y .; Yagihashi, and Y. Miyake “A New method for distortion correction of electronic endoscopic images”. IEEE Trans. Med. Imag. , Vol. 14, No. 3, pp. 548-555, 1995.
[0014]
[Non-Patent Document 9]
K. Vijayan et al. , "A new approach for non-linear distortion correction in endoscopy images based on least squares estimation," IEEE Trans. Med. Imag. , Vol. 18, pp. 345-354, 1995.
[0015]
[Non-Patent Document 10]
W. E. FIG. Smith et al. , "Correction of distortion in endoscopic images," IEEE Trans. Med. Imag. , Vol. 11, pp. 117-122, 1992.
[0016]
[Non-Patent Document 11]
Wang and W.S. H. Tsai, "Camera calibration by vanishing lines for 3-D computer vision", IEEE Trans. PAMI, vol. 13, no. 4, pp. 370-376, 1991.
[0017]
[Non-Patent Document 12]
R. Y. Tsai, "Aversatile camera calibration technology for high-accuracy 3-D machine vision metrology using of-the-shelf tvcameras and ans. IEEE J.I. Robot. Automat. , Vol. 3, pp. 323-344, 1987.
[0018]
[Non-patent document 13]
M. Nakamoto et al. , "3D Ultrasound System Using a Magneto-Optical Hybrid Tracker for Augmented Reality Visualization in Laparoscopic Liver Surgery". In MICCAI 2002, LNCS 2489, pp. 148-155, September 2002.
[0019]
[Problems to be solved by the invention]
As described above, the augmented reality surgery support system corresponding to the oblique endoscope has not been realized. However, in recent years, a squint endoscope is often used, particularly in the abdominal cavity, joint shaping, and otolaryngological surgery. Therefore, it is strongly desired to realize an augmented reality surgery support system corresponding to the squint endoscope. Was.
The present invention has been made in view of such circumstances, and an image processing system for a squint endoscope capable of realizing an augmented reality surgery support system corresponding to a squint endoscope, and a squint endoscope diagnosis including the same It is intended to provide a device.
[0020]
[Means for Solving the Problems]
In order to solve the above problems, an image processing system for a perspective endoscope according to the present invention includes a linearly extending insertion portion inserted into a body cavity, an observation window provided on a distal end surface of the insertion portion, and an observation target. An imaging surface on which the image of the imaging window is captured, the optical axis of the observation window is inclined with respect to the axis of the insertion portion, and the insertion portion is relative to the imaging surface with the axis as a rotation axis. An oblique endoscope configured to be rotatable in the oblique endoscope is an image processing system for processing an image obtained by the oblique endoscope,
An external parameter T for determining a conversion from the world coordinate system set in the external space of the oblique endoscope to the camera coordinate system set in the observation window is defined by the following equation (3). Things.
[0021]
T = T0TRotC(-Θ, nC, CC) TRotW(Θ, nw, Cw) ... (3)
[0022]
Where nwIs a vector defining the direction of the axis in the world coordinate system, cwIs a vector defining the passing position of the axis in the world coordinate system, nCIs a vector defining the direction of the optical axis in the camera coordinate system, cCIs a vector defining the passing position of the optical axis in the camera coordinate system, θ is a rotation angle when the insertion unit rotates relative to the imaging surface around the axis as a rotation axis, T0Is a transformation representing the correspondence from the world coordinate system to the camera coordinate system when the insertion unit is not rotating relative to the imaging surface around the axis as a rotation axis;RotWIs a transformation representing the rotation of the insertion unit when the insertion unit rotates relative to the imaging surface around the axis as the rotation axis in the world coordinate system;RotCIndicates a transformation representing rotation correction in the camera coordinate system.
[0023]
The oblique endoscope image processing system further includes a projection model that determines a conversion from the world coordinate system to the image coordinate system set on the imaging surface, wherein the projection model is unique to the oblique endoscope. Using the internal parameter M and the external parameter T, it is possible to define the value as defined by the following equation (4).
[0024]
siC= MTpW…… (4)
[0025]
Where pWIs a vector representing the position of a point on the world coordinate system, iCIs a vector representing the position of a point on the image coordinate system, and s is a predetermined scalar.
[0026]
In addition, the oblique endoscope apparatus of the present invention includes a linearly extending insertion portion to be inserted into a body cavity, an observation window provided on a distal end surface of the insertion portion, and an imaging device for capturing an image of an observation target. And an optical axis of the observation window is inclined with respect to an axis of the insertion portion, and the insertion portion is configured to be relatively rotatable with respect to the imaging surface with the axis as a rotation axis. An oblique endoscope and an image processing system for oblique endoscope of the present invention having the above-mentioned features are provided.
[0027]
BEST MODE FOR CARRYING OUT THE INVENTION
Hereinafter, embodiments of the present invention will be described with reference to the drawings.
[0028]
<Overview of the oblique endoscope device>
FIG. 1 is a diagram schematically illustrating a configuration of a perspective endoscope apparatus according to an embodiment of the present invention. The illustrated oblique endoscope apparatus 1 includes an oblique endoscope (oblique rigid endoscope) 10, an image processing device 20, and an image display device 30.
[0029]
The oblique endoscope 10 includes a camera unit 11 having an imaging surface (not shown) configured by an imaging device such as a CCD, and an axis L extending from the camera unit 11.WAnd a rigid insertion portion 12 extending in the direction. The insertion portion 12 is a portion to be inserted into a body cavity or the like.WIs formed obliquely. Further, the insertion portion 12 is provided with the axis LWIs configured to be rotatable with respect to the camera unit with a rotation axis, and an observation window 13 is provided on the distal end surface 12a. The optical axis L of the observation window 13CIs the axis LW, The axis LWWhen the insertion section 12 is rotated around the rotation axis, the optical axis LCIs adapted to rotate and move relative to the imaging surface. The axis LWIs the world coordinate system (coordinate system set in the external space of the oblique endoscope 10) SWAnd the optical axis LCIs the camera coordinate system (coordinate system set in the observation window 13) SCAs defined in
[0030]
In the oblique endoscope device 1, the reflected light from the observation target is taken into the insertion section 12 through the observation window 13, and is imaged by the imaging element in the camera section 11. Then, the image signal obtained by the image sensor is subjected to signal processing in the image processing device 20, and the processed image signal is converted into an image in the image display device 30 and displayed.
[0031]
<Image processing system for oblique endoscope>
The oblique endoscope apparatus 1 includes an oblique endoscope image processing system according to an embodiment of the present invention. This image processing system for an oblique endoscope processes an image signal obtained by the oblique endoscope 10 to form an image that can be used for augmented reality surgery support. It comprises an arithmetic circuit, an arithmetic program, and the like provided therein.
[0032]
The image processing system for an oblique endoscope uses the world coordinate system SWAnd a projection model for determining the conversion from the image data to the image coordinate system set on the imaging plane. This projection model includes an internal parameter M unique to the oblique endoscope 10 and the world coordinate system S.WFrom the camera coordinate system SCIt is defined by the following equation (5) using the external parameter T for determining the conversion into.
[0033]
siC= MTpW…… (5)
[0034]
Where pWIs a vector representing the position of a point on the world coordinate system, iCIs a vector representing the position of a point on the image coordinate system, and s is a predetermined scalar.
[0035]
Further, in the image processing system for a perspective endoscope, the external parameter T is defined by the following equation (6).
[0036]
T = T0TRotC(-Θ, nC, CC) TRotW(Θ, nw, Cw) …… (6)
[0037]
Where nwIs a vector defining the direction of the axis in the world coordinate system, cwIs a vector defining the passing position of the axis in the world coordinate system, nCIs a vector defining the direction of the optical axis in the camera coordinate system, cCIs a vector defining the passing position of the optical axis in the camera coordinate system, θ is a rotation angle when the insertion unit rotates relative to the imaging surface around the axis as a rotation axis, T0Is a transformation representing the correspondence from the world coordinate system to the camera coordinate system when the insertion unit is not rotating relative to the imaging surface around the axis as a rotation axis;RotWIs a transformation representing the rotation of the insertion unit when the insertion unit rotates relative to the imaging surface around the axis as the rotation axis in the world coordinate system;RotCIndicates a transformation representing rotation correction in the camera coordinate system.
[0038]
<Projection model of oblique endoscope>
Hereinafter, the projection model will be described in detail with reference to FIGS. 2 and 3 are diagrams schematically showing the concept of a projection model according to one embodiment of the present invention. FIG.WFrom the camera coordinate system SCFIG. 3 shows the camera coordinate system SC2 shows the rotation correction within.
[0039]
The world coordinate system SWLet P be the position vector of the pointW=t(XW, YW, ZW, 1), the camera coordinate system SCLet P be the position vector of the pointCAnd the world coordinate system SWFrom the camera coordinate system SCLet T be the rigid affine transformation (corresponding to the external parameter T) to be transformed intoWTo PCThe conversion to is represented by the following equation (7).
[0040]
pC= TpW...... (7)
[0041]
Further, the external parameter T in the above equation (7) is represented by the following equation (8).
[0042]
(Equation 1)
Figure 2004173972
[0043]
Here, R represents a 3-row, 3-column orthogonal matrix meaning rotation, t represents a three-dimensional vector meaning translation, and I represents a unit matrix.
[0044]
On the other hand, the PCThe position vector of the two-dimensional projection point ofP=t(UP= XC/ ZC, VP= YC/ ZC, 1), this projection point iPFrom the projection point i on the image coordinate system.PAnd the corresponding image point iCIs represented by the following equation (9) using the internal parameter M.
[0045]
siC= MiP…… (9)
[0046]
Here, s indicates a predetermined scalar.
[0047]
The internal parameter M in the above equation (9) is represented by the following equation (10).
[0048]
(Equation 2)
Figure 2004173972
[0049]
Where f represents the focal length and ku, KvRepresents unit lengths of the u-axis and the v-axis, respectively.t(U0, V0) Represents the coordinates of the center of the image.
[0050]
In the oblique endoscope 10, the external parameter T can be described as follows. First, as shown in FIG. 2A, in the oblique endoscope 10, the world coordinate system SWWith respect to the camera coordinate system SCFrom the world coordinate system when is not rotatingWThe camera coordinate system SCConversion to T0And In FIG. 2A, the camera coordinate system without rotation is represented by SC0It is written.
[0051]
Next, as shown in FIG.WThe axis LWIt is assumed that the insertion section 12 is rotationally moved by an angle θ with respect to the imaging surface, using as a rotation axis. The transformation representing the rotation at this time is TRotW(Θ, nw, Cw). At this time, the axis LWIs the two vectors nw, CwDefined by Also, in FIG. 2B, this rotation conversion TRotWAfter the T0The camera coordinate system subjected to the transformationC0It is written.
[0052]
The rotated camera coordinate system S 'C0Sets the camera coordinate system before rotation to SC0Are relatively rotating with respect to. On the other hand, the world coordinate system S of the imaging surface (and the image coordinate system) of the oblique endoscope 10 is used.WThe position with respect to has not changed. Therefore, rotation correction in the camera coordinate system is required. In the present invention, as shown in FIG.C0With the optical axis LCIs a rotation axis, the rotation T of which is corrected by the angle -θ in the direction opposite to the rotation direction.RotC(-Θ, nC, CC) To perform this rotation correction.
[0053]
By performing such a series of transformations, that is, by applying the projection model defined by the above equation (5) including the external parameter T defined by the above equation (6), the world coordinate system SWTo determine the conversion to the image coordinate system set on the imaging plane.
[0054]
<Parameter estimation method>
Next, a method of estimating each parameter used in the above-described projection model will be described. First, the above-described conversion T without rotation is performed.0And the internal parameter M is estimated. As these estimation methods, it is possible to apply various methods that have been conventionally proposed. Also in the present embodiment, the conversion T is calculated using a conventional method, for example, the method described in Non-Patent Document 11.0And the internal parameter M is estimated.
[0055]
Next, the above-described transformation T with rotation is performed.RotW(Θ, nw, Cw), The axis LWVectors n defining the direction and passing position ofw, CwIs estimated. This vector nw, CwIs the axis LW, The degree of freedom is 4. Therefore, in making these estimations, first, the insertion of the axis L into the insertion portion 12 of the oblique endoscope 10 according to the rotation of the insertion portion 12 is performed.WIs provided with a three-dimensional position marker that moves on a circular orbit centered at. The vector c corresponds to the center of the circular orbit of the three-dimensional position marker.wThe vector n corresponds to the direction of the normal to the plane including the circular orbit, and corresponds to the vector passing through the center of the circular orbit.wBecomes The camera unit 11 of the oblique endoscope 10 is also provided with the world coordinate system S of the camera unit 11.WA position sensor for detecting the position at is provided to measure the position of the camera unit 11.
[0056]
Next, by rotating the insertion section 12, the procedure of measuring the position of the three-dimensional position marker is repeated a plurality of times. P is the position measurement value of the three-dimensional position markeri W(I = 1, 2,... N), n satisfying the following equation (11)wIs obtained by linear estimation.
[0057]
(Equation 3)
Figure 2004173972
[0058]
Here, (,) represents the inner product, and || represents the Euclidean norm.
[0059]
Then, this determined nwFrom the following, c satisfying the following equation (12)wIs determined using nonlinear estimation, for example, the Levenberg-Marquadt method.
[0060]
(Equation 4)
Figure 2004173972
[0061]
Here, (,) represents the inner product, and || represents the Euclidean norm.
[0062]
Then, the required pi W-CwThe rotation angle θ is obtained from the angle formed by the following equation (13).
[0063]
(Equation 5)
Figure 2004173972
[0064]
Here, (,) represents the inner product, [,] represents the outer product, and || represents the Euclidean norm.
[0065]
Finally, the above-described rotation correction conversion TRotC(-Θ, nC, CC), The optical axis L in the camera coordinate system.CVector n representing the direction ofCAnd the optical axis L in the camera coordinate system.CVector c representing the position of the passing point ofCIs estimated. In estimating these, first, each vector cC, NC, A point p in the world coordinate system corresponding to the rotation angle θi WobjCalculated image projection point i ′C(Pi Wobj, Θ; nC, CC) Is obtained using the above equations (5) and (6). Then, pi WobjIs the position vector on the actual image coordinate systemC iEach vector c satisfying the following expression (14)C, NCAsk for.
[0066]
(Equation 6)
Figure 2004173972
[0067]
<Simulation experiment>
Next, the aforementioned vector cC, NCThe following describes a simulation experiment performed for estimating. The generated data for the simulation is as follows. That is, as an observation target, a pattern of a dot sequence in which dots were arranged at a vertical and horizontal interval of 4 mm and 3 × 3 was used for calibration. Gaussian noise with a standard deviation of 0.1 mm was added to each point. Then, assuming that the insertion portion of the oblique endoscope is rotated by about 45 degrees, and four symbols (4 frames) are rotated each time, and the symbol arranged at a position about 30 to 40 cm away from the observation window is imaged, A diagram of the projected points of each point of the symbol by the above-described projection model was created (FIG. 4). Note that the range of the image plane (imaging plane) was assumed to be a range of 200 to 400 pixels.
[0068]
Table 1 shows simulation results obtained by adding Gaussian noise having standard deviations of 0.5, 1.0, and 1.5 pixels on the image plane. Projected point residual and vector cC, NCIs the difference between the true value given by the simulation and the estimated value. Also, the standard deviation of the given Gaussian noise, the residual of the projection point and the vector cC, NCThese relationships are shown in FIG. 5 in order to clarify the relationship with the error. As shown in FIG. 5, the residual of the projection point and the vector cC, NCWas found to be approximately linear with respect to the standard deviation of the given Gaussian noise.
[0069]
[Table 1]
Figure 2004173972
[0070]
<Experiment on real images>
Next, a plurality of experiments performed using actual images to verify the accuracy of projection by the above-described projection model will be described.
[0071]
(Experiment 1)
In Experiment 1, a distortion-free oblique endoscope having a perspective angle of 30 degrees and a size of an imaging surface of 340 × 340 pixels was used. The observation target was the pattern of the dot sequence. The insertion section of the oblique endoscope was rotated by about 45 degrees about its axis as a rotation axis, and three images (three frames) of the observation target point were captured every rotation, and calibration was performed using the images. Then, the accuracy of the image acquired in the angle range where the calibration was performed was examined. The position of the observation target point on the world coordinate system was measured using a three-dimensional sensor (Polaris; Northern Digital Inc.). The accuracy of this three-dimensional sensor is 0.35 mm.
[0072]
The result obtained in Experiment 1 is shown in FIG. The error confirmed in Experiment 1 was 3.02 pixels. The residual when estimating the parameters was 2.86 pixels. This error corresponds to about 1% of the image plane size and about 1 mm. This is a practically acceptable range, but the accuracy is inferior to the simulation results described above. This is probably because the number of frames of the image used for the calibration was small.
[0073]
(Experiment 2)
Experiment 2 was performed to verify the relationship between the number of image frames and the number of sample points in each frame in Experiment 1. The instruments and the like used in the experiment are the same as those in Experiment 1. The result obtained in Experiment 2 is shown in FIG. As shown in FIG. 7, it was confirmed that the higher the number of frames (F) of the image used for calibration and the larger the number of sample points for each frame, the higher the accuracy can be obtained.
[0074]
(Experiment 3)
In Experiment 3, a perspective endoscope having an imaging surface of 340 × 240 pixels (0.11 mm / pixel) was used. The observation target was a lattice pattern. The insertion portion of the oblique endoscope was rotated by Δθ about the axis thereof as a rotation axis, an image of the observation target was captured at each rotation, and calibration was performed using the image. Also, in five images different from the image used for calibration, 16 points for each image, a total of 80 measurement points, are used to calculate a projection error (coordinate values of image projection points obtained by the above-described projection model). (The difference between the actual coordinates of the observation target point and the coordinate values obtained using a three-dimensional sensor). The three-dimensional sensor used was the one used in Experiments 1 and 2. In addition, since the used oblique endoscope has barrel distortion, the distortion was corrected by the method described in Non-Patent Document 8.
[0075]
Further, by changing the rotation angle Δθ, based on the image obtained for each rotation, the aforementioned optical axis LCWas performed, and the projection error was measured using the obtained parameters. The result is shown in FIG. As shown in FIG. 8, the residual and the projection error decrease as Δθ decreases. When Δθ = 18 degrees, the error becomes 4.1 pixels (0.45 mm in the image plane), and when Δθ is smaller, a significant error occurs. No decrease was seen. At this time, when the residual in the calibration by the method described in Non-Patent Document 5 was obtained, it was 4.2 pixels (0.46 mm in the image plane).CCan be said to be sufficiently small. FIG. 9 shows an example of an image obtained at this time. The + in the image indicates the position on the image of the observation target point obtained by the projection model.
[0076]
(Experiment 5)
In this experiment 5, the axis L in the projection model described above was used.W= (NW, CW) And the optical axis LC= (NC, CC) Verified the need. Optical axis LCAnd a projection model (Comparative Example 1) obtained by simplifyingWWere compared with a projection model (Example 2) of the present invention. For comparison, the projection error when Δθ = 18 degrees was obtained for each projection model by the method of Experiment 4. Table 2 shows the results. As shown in Table 2, the projection error is smallest in the projection model according to the embodiment of the present invention. From this result, the optical axis LCAnd axis LWIs a necessary parameter in the projection model of the oblique endoscope.
[0077]
[Table 2]
Figure 2004173972
[0078]
The embodiment of the present invention has been described above, but the present invention is not limited to the above embodiment, and various modifications can be made.
For example, in the above embodiment, the three-dimensional sensor is used to detect the rotation angle of the insertion portion of the oblique endoscope, but the rotation angle is detected by using another rotation angle detection unit such as a rotary encoder. You may comprise.
[0079]
In the above embodiment, the external parameter T0When estimating the internal parameter M, the method described in Non-Patent Document 11 is used. Instead of this method, various methods, for example, Non-Patent Document 12 and Non-Patent Document “I.W. Faig: "Calibration of close-range photogrammetric systems: Mathematical formation," Photogrammetric Eng. And Remote Sensing, vol.
[0080]
【The invention's effect】
As described above in detail, according to the image processing system for a perspective endoscope of the present invention, the observation window of the perspective endoscope is set from the world coordinate system set in the external space of the perspective endoscope. By defining the external parameter T for determining the conversion to the camera coordinate system by the following equation, the following effects are obtained.
[0081]
T = T0TRotC(-Θ, nC, CC) TRotW(Θ, nw, Cw)
[0082]
That is, by using the external parameter T, it is possible to accurately determine the conversion from the world coordinate system to the camera coordinate system corresponding to the oblique endoscope with the rotation of the insertion unit. Also, by using this external parameter T, a projection model corresponding to the oblique endoscope can be constructed with high accuracy. By using this projection model, the augmented reality surgery corresponding to the oblique endoscope can be performed. It is possible to realize a support system.
[0083]
According to the oblique endoscope apparatus of the present invention, the image obtained by the oblique endoscope can be used for augmented reality surgery by providing the oblique endoscope image processing system of the present invention. It becomes.
[Brief description of the drawings]
FIG. 1 is a diagram schematically showing a configuration of a perspective endoscope apparatus according to an embodiment of the present invention.
FIG. 2 is a diagram schematically showing conversion from a world coordinate system to a camera coordinate system.
FIG. 3 is a diagram schematically showing rotation correction in a camera coordinate system.
FIG. 4 is a diagram of projection points obtained by a projection model.
FIG. 5 is a diagram showing a relationship obtained in a simulation experiment.
FIG. 6 is a diagram showing the results obtained in Experiment 1.
FIG. 7 shows a result obtained in Experiment 2.
FIG. 8 is a diagram showing the results obtained in Experiment 3.
FIG. 9 is a diagram showing an example of an image obtained in Experiment 4.
[Explanation of symbols]
1 Oblique endoscope device
10 Oblique endoscope
11 Camera section
12 insertion section
12a Tip surface
13 Observation window
20 Image processing device
30 Image display device
LW                Insertion axis
LC                Optical axis of observation window

Claims (3)

体腔内に挿入される直線状に延びた挿入部と、該挿入部の先端面に設けられた観察窓と、観察対象の画像が撮像される撮像面とを備え、前記観察窓の光軸が前記挿入部の軸線に対して傾斜し、かつ前記挿入部が前記撮像面に対して、前記軸線を回転軸として相対的に回転可能に構成された斜視内視鏡において、該斜視内視鏡により得られた画像を処理する斜視内視鏡用画像処理システムであって、
前記斜視内視鏡の外部空間に設定された世界座標系から前記観察窓に設定されたカメラ座標系への変換を決定する外部パラメータTを、下式(1)によって規定したことを特徴とする斜視内視鏡用画像処理システム。
T=TRotC(−θ,n,c)TRotW(θ,n,c)……(1)
ここで、nは、前記世界座標系において前記軸線の方向を規定するベクトル、cは、前記世界座標系において前記軸線の通過位置を規定するベクトル、nは、前記カメラ座標系において前記光軸の方向を規定するベクトル、cは、前記カメラ座標系において前記光軸の通過位置を規定するベクトル、θは、前記挿入部が前記軸線を回転軸として、前記撮像面に対して相対的に回転するときの回転角、Tは、前記挿入部が前記軸線を回転軸として、前記撮像面に対して相対的に回転していないときの、前記世界座標系から前記カメラ座標系への対応を表す変換、TRotWは、前記世界座標系において、前記挿入部が前記軸線を回転軸として、前記撮像面に対して相対的に回転するときの該回転を表す変換、TRotCは、前記カメラ座標系内の回転補正を表す変換、をそれぞれ示している。
An insertion portion that extends linearly to be inserted into a body cavity, an observation window provided on a distal end surface of the insertion portion, and an imaging surface on which an image of an observation target is imaged. In a perspective endoscope that is inclined with respect to the axis of the insertion portion, and the insertion portion is configured to be relatively rotatable with the axis as a rotation axis with respect to the imaging surface, An oblique endoscope image processing system for processing the obtained image,
An external parameter T for determining the conversion from the world coordinate system set in the external space of the oblique endoscope to the camera coordinate system set in the observation window is defined by the following equation (1). Image processing system for oblique endoscope.
T = T 0 T RotC (−θ, n C , c C ) T RotW (θ, n w , c w ) (1)
Here, n w is a vector that defines the direction of the axis in the world coordinate system, c w is a vector that defines the passing position of the axis in the world coordinate system, and n C is the vector that defines the position in the camera coordinate system. A vector that defines the direction of the optical axis, c C is a vector that defines the passing position of the optical axis in the camera coordinate system, and θ is the relative position of the insertion section with respect to the imaging surface, with the axis as the rotation axis. The rotation angle, T 0 , at which the insertion portion is not rotated relative to the imaging surface around the axis as the rotation axis, from the world coordinate system to the camera coordinate system. T RotW is a conversion that represents the rotation when the insertion unit rotates relative to the imaging surface with the axis as a rotation axis in the world coordinate system, and T RotC is: Said Shows conversion representing a rotation correction in camera coordinate system, respectively.
前記世界座標系から前記撮像面に設定された画像座標系への変換を決定する投影モデルを備え、該投影モデルは、前記斜視内視鏡に固有の内部パラメータMと前記外部パラメータTとを用いて、下式(2)で規定されていることを特徴とする請求項1記載の斜視内視鏡用画像処理システム。
si=MTp……(2)
ここで、pは、前記世界座標系上の点の位置を表すベクトル、iは、前記画像座標系上の点の位置を表すベクトル、sは所定のスカラー、をそれぞれ示している。
A projection model for determining a conversion from the world coordinate system to the image coordinate system set on the imaging surface, wherein the projection model uses an internal parameter M and an external parameter T unique to the oblique endoscope. The image processing system for a perspective endoscope according to claim 1, wherein the image processing system is defined by the following equation (2).
si C = MTp W (2)
Here, p W is a vector representing the position of a point on the world coordinate system, i C is a vector representing the position of a point on the image coordinate system, s represents the predetermined scalar, respectively.
体腔内に挿入される直線状に延びた挿入部と、該挿入部の先端面に設けられた観察窓と、観察対象の画像が撮像される撮像面とを備え、前記観察窓の光軸が前記挿入部の軸線に対して傾斜し、かつ前記挿入部が前記撮像面に対して、前記軸線を回転軸として相対的に回転可能に構成された斜視内視鏡と、請求項1または2記載の斜視内視鏡用画像処理システムとを備えてなることを特徴とする斜視内視鏡装置。An insertion portion that extends linearly to be inserted into a body cavity, an observation window provided on a distal end surface of the insertion portion, and an imaging surface on which an image of an observation target is imaged, wherein an optical axis of the observation window is 3. A perspective endoscope which is inclined with respect to an axis of the insertion section, and wherein the insertion section is configured to be relatively rotatable with respect to the imaging surface about the axis as a rotation axis. And a perspective endoscope image processing system.
JP2002344394A 2002-11-27 2002-11-27 Image processing system for strabismus endoscope and strabismus endoscopic apparatus with the same Withdrawn JP2004173972A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2002344394A JP2004173972A (en) 2002-11-27 2002-11-27 Image processing system for strabismus endoscope and strabismus endoscopic apparatus with the same

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2002344394A JP2004173972A (en) 2002-11-27 2002-11-27 Image processing system for strabismus endoscope and strabismus endoscopic apparatus with the same

Publications (1)

Publication Number Publication Date
JP2004173972A true JP2004173972A (en) 2004-06-24

Family

ID=32705894

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2002344394A Withdrawn JP2004173972A (en) 2002-11-27 2002-11-27 Image processing system for strabismus endoscope and strabismus endoscopic apparatus with the same

Country Status (1)

Country Link
JP (1) JP2004173972A (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106163371A (en) * 2014-03-31 2016-11-23 奥林巴斯株式会社 Endoscopic system
US20210369351A1 (en) * 2017-11-01 2021-12-02 Sony Corporation Surgical arm system and surgical arm control system

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106163371A (en) * 2014-03-31 2016-11-23 奥林巴斯株式会社 Endoscopic system
US20210369351A1 (en) * 2017-11-01 2021-12-02 Sony Corporation Surgical arm system and surgical arm control system
US11612306B2 (en) * 2017-11-01 2023-03-28 Sony Corporation Surgical arm system and surgical arm control system

Similar Documents

Publication Publication Date Title
US8147503B2 (en) Methods of locating and tracking robotic instruments in robotic surgical systems
US8073528B2 (en) Tool tracking systems, methods and computer products for image guided surgery
US8108072B2 (en) Methods and systems for robotic instrument tool tracking with adaptive fusion of kinematics information and image information
US7889905B2 (en) Fast 3D-2D image registration method with application to continuously guided endoscopy
JP2874710B2 (en) 3D position measuring device
Ciuti et al. Intra-operative monocular 3D reconstruction for image-guided navigation in active locomotion capsule endoscopy
TWI520576B (en) Method and system for converting 2d images to 3d images and computer-readable medium
WO2009045827A2 (en) Methods and systems for tool locating and tool tracking robotic instruments in robotic surgical systems
JP2012525190A (en) Real-time depth estimation from monocular endoscopic images
Lapeer et al. Image‐enhanced surgical navigation for endoscopic sinus surgery: evaluating calibration, registration and tracking
Mori et al. A method for tracking the camera motion of real endoscope by epipolar geometry analysis and virtual endoscopy system
CN107485447B (en) Device and method for navigating pose of surgical instrument for knee cartilage grafting
Haase et al. ToF/RGB sensor fusion for 3-D endoscopy
EP2031559A1 (en) Augmented visualization in two-dimensional images
Lerotic et al. Dynamic view expansion for enhanced navigation in natural orifice transluminal endoscopic surgery
Dey et al. Mixed reality merging of endoscopic images and 3-D surfaces
JP2004173973A (en) Method for estimating parameter of projection model for strabismus endoscope
JP2004173972A (en) Image processing system for strabismus endoscope and strabismus endoscopic apparatus with the same
Zenteno et al. 3D Cylinder Pose Estimation by Maximization of Binary Masks Similarity: A simulation Study for Multispectral Endoscopy Image Registration.
Penne et al. NOTES3D: ENDOSCOPES LEARN TO SEE 3-D-Basic Algorithms for a Novel Endoscope
EP4169469A1 (en) Laparoskopic camera arrangement and method for camera alignment error correction
WO2023203908A1 (en) Surgical assistance system and surgical assistance device
Westwood Development of a 3D visualization system for surgical field deformation with geometric pattern projection
Gobel et al. Challenging requirements and optical depth estimation techniques in laparoscopy
Gketsis et al. Laparoscopic image analysis for robotic arm guidance

Legal Events

Date Code Title Description
A300 Withdrawal of application because of no request for examination

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20060207